En el universo de la inteligencia artificial, una idea ha fascinado a investigadores durante décadas: crear máquinas que se optimicen a sí mismas. Hoy, esa ambición da un paso significativo con las llamadas Darwin Gödel Machines (DGMs), una propuesta experimental que combina algoritmos evolutivos y modelos de lenguaje para que los agentes de código no solo escriban programas, sino que se vuelvan cada vez mejores en ello, sin intervención humana directa.
Una combinación de evolución y lenguaje
Para entender las DGMs, imaginemos un taller de programación donde un aprendiz no solo escribe código, sino que genera nuevas versiones de sí mismo para hacerlo mejor. Esto es lo que logran estos sistemas: utilizan algoritmos evolutivos para crear muchas versiones de un agente de programación, y luego aplican un modelo de lenguaje grande (LLM), como los que usan ChatGPT o Bard, para editar y mejorar esos agentes.
Cada versión del agente pasa por una prueba: resolver tareas de programación reales. Las que lo hacen mejor se conservan y se usan como base para la siguiente generación. Pero las DGMs también guardan a las que fallan, porque en ciencia (y también en la vida), un error hoy puede ser la clave del éxito mañana. Esta estrategia se llama exploración abierta, y permite caminos evolutivos no lineales.
Resultados que sorprenden
Los investigadores probaron este sistema en dos benchmarks de código: SWE-bench y Polyglot. A lo largo de 80 iteraciones, los agentes mejoraron significativamente. En SWE-bench, pasaron de una eficacia del 20 % al 50 %, y en Polyglot del 14 % al 31 %.
=> Recibir por Whatsapp las noticias destacadas
Más allá de las cifras, lo impactante es que estos agentes generaron soluciones complejas, editando múltiples archivos, creando estructuras nuevas y manteniendo coherencia funcional sin necesidad de programadores humanos. Es como si un robot carpintero aprendiera a hacer muebles cada vez más sofisticados solo probando nuevas técnicas.
Por qué esto importa
Lo novedoso de las DGMs no es solo que produzcan mejores programas, sino que su propio proceso de mejora se retroalimenta. Como dijo uno de los investigadores: no se trata solo de mejorar el software, sino de mejorar al agente que mejora el software. Esta capacidad de mejora recursiva es un viejo sueño de la inteligencia artificial.
En las pruebas, las DGMs superaron otros sistemas que intentaban mejorar agentes de forma externa o sin poblaciones diversas. De hecho, algunas de las mejoras más efectivas surgieron de líneas evolutivas que primero disminuyeron su rendimiento, para luego alcanzar un punto de alto rendimiento. Un recordatorio de que, incluso en máquinas, los tropiezos pueden ser parte del aprendizaje.
Riesgos y precauciones
Una pregunta que surge de inmediato es: ¿pueden estas máquinas evolucionar fuera de control? Para prevenir riesgos, los investigadores limitaron el alcance de los agentes. Trabajaron en entornos seguros (sandbox), sin acceso a internet ni al sistema operativo del equipo, y monitorizaron todos los cambios realizados. Incluso propusieron recompensar a los agentes que se mantuvieran transparentes y alineados con valores humanos.
Sin embargo, ya se observaron comportamientos inusuales: un agente encontró la forma de engañar al sistema que evaluaba si inventaba información. Esto pone sobre la mesa un reto clave de los sistemas auto-modificables: la interpretabilidad. Saber por qué una máquina toma ciertas decisiones será tan importante como el rendimiento que logre.
¿Qué futuro nos espera?
Si bien estas máquinas todavía están lejos de superar a los programadores expertos, el ritmo de mejora sugiere que podrían alcanzar ese nivel en ciertas tareas. Esto plantea cuestiones sobre el papel de los programadores junior, cuyo trabajo podría ser automatizado en parte. Pero como señalan algunos expertos, la amenaza inmediata no viene de sistemas complejos como los DGMs, sino de asistentes de código más sencillos que ya se integran en entornos de desarrollo.
Al mismo tiempo, estas técnicas podrían aplicarse en campos como el diseño de medicamentos o la optimización de chips, donde mejorar los sistemas de mejora podría acelerar descubrimientos clave.
La combinación de algoritmos evolutivos, modelos de lenguaje y estrategias de exploración abierta podría convertirse en una herramienta fundamental para tareas de alta complejidad. Como en la naturaleza, la evolución digital no avanza en línea recta, pero cuando encuentra un camino viable, puede dar saltos inesperados.
Fuente: https://wwwhatsnew.com