La máquina que empieza a rediseñarse sola

IMAGE: A humanoid robot in a futuristic lab carefully repairs its own internal circuits, symbolizing self-improving artificial intelligence

Llamamos Recursive Self-Improvement o RSI a un sistema de inteligencia artificial capaz de participar en su propia mejora de manera iterativa: propone cambios, los prueba, evalúa si funcionan y conserva lo que mejora su rendimiento para volver a empezar. Para un lector no técnico, la idea es sencilla: una máquina que no solo resuelve tareas, sino que aprende a afinar el modo en que resuelve esas tareas.

Para un lector experto, la definición útil exige más precisión: no basta con que un modelo use herramientas o escriba código, sino que debe existir un bucle de optimización endógeno, medible y relativamente autónomo, en el que el sistema contribuya a mejorar componentes del propio sistema, de su scaffolding o incluso, en el límite, de su arquitectura y proceso de entrenamiento. Ahí está la diferencia entre el titular efectista y el fenómeno verdaderamente interesante.

Eso es precisamente lo que hace que el debate actual sea tan importante. Este artículo de Ignacio de Gregorio plantea bien la intuición de fondo: RSI se ha convertido en una de las grandes obsesiones del momento porque promete usar inteligencia artificial para mejorar la inteligencia artificial, pero también porque podría estar ocultando algo menos épico y más incómodo, a saber, una cierta desaceleración en la mejora del modelo base y un desplazamiento de la innovación hacia las capas superiores, los agentes, las herramientas y los bucles experimentales. El matiz importa mucho. No es lo mismo que una inteligencia artificial «se mejore a sí misma» que decir, con algo más de rigor, que una inteligencia artificial ayuda a optimizar el sistema sociotécnico que la rodea.

En ese sentido, el ejemplo más revelador ahora mismo no es una promesa futurista, sino un repositorio en GitHub. En autoresearch, Andrej Karpathy propone un esquema deliberadamente austero: dar a un agente un pequeño entorno real de entrenamiento de un modelo, permitirle modificar el código, ejecutar experimentos breves, medir si la métrica mejora y repetir el ciclo durante horas. No hay magia, y precisamente por eso resulta tan inquietante. La importancia de autoresearch no reside en que haya nacido una superinteligencia, sino en que demuestra que una parte del trabajo de investigación iterativa, tradicionalmente humano, ya puede encapsularse en un bucle automático con criterio operativo: probar, medir, conservar o descartar. Esa es la clase de avance que cambia industrias, porque sustituye talento artesanal por proceso reproducible.

Esta entrevista del propio Karpathy, «The End of Coding: Andrej Karpathy on Agents, AutoResearch, and the Loopy Era of AI«, es importante no tanto por su provocación retórica como por el marco conceptual que pone encima de la mesa: estamos entrando en una «era de bucles» en la que el valor ya no depende solo de un modelo estático, sino de sistemas que observan resultados, ejecutan acciones, corrigen trayectorias y vuelven a intentarlo. Desarrolladores que conozco desde hace mucho años me han comentado literalmente que «llevan varios meses que su trabajo es casi al 90% agéntico y trabajando en lenguaje natural». Esa transición desde el asistente puntual hacia el agente que itera durante largos periodos es la verdadera noticia. No estamos ante una inteligencia artificial que «piensa» como un humano, sino ante una infraestructura que empieza a explotar algo muy distinto y muy poderoso: la simple paciencia computacional.

Conviene, sin embargo, rebajar la grandilocuencia: la literatura técnica lleva tiempo advirtiendo que muchas de estas aproximaciones no constituyen RSI como tal, o «plena». El paper «Self-Taught Optimizer (STOP)«, por ejemplo, hablaba ya en 2023 de generación de código recursivamente auto-mejorada, pero dejaba claro que el modelo subyacente no cambiaba: lo que mejoraba era el programa que organizaba las llamadas al modelo y evaluaba resultados. Es decir, un sistema puede exhibir comportamientos de auto-mejora sin reescribir sus pesos, sin rediseñar su hardware y sin convertirse en la caricatura de explosión de inteligencia que popularizó I. J. Good hace décadas y dio lugar a la «hipótesis Terminator«. Aun así, es un error despreciarlo por «incompleto». La historia de la tecnología está llena de revoluciones que empezaron siendo parciales.

La razón por la que esto importa tanto no es filosófica, sino económica. Cuando una mejora depende de un talento humano escaso, avanza al ritmo del calendario, del presupuesto y de la fricción organizativa. Cuando una mejora puede insertarse en un bucle automático, avanza al ritmo del cómputo y de la calidad de la métrica. Ahí cambia todo. METR ha mostrado que la longitud de las tareas que los agentes pueden completar de forma autónoma con un 50% de fiabilidad se ha ido duplicando aproximadamente cada siete meses en los últimos años. No significa que mañana tengamos laboratorios completamente autónomos, pero sí que la frontera entre herramienta y sustituto parcial se mueve mucho más deprisa de lo que nuestras instituciones, nuestras universidades y muchas empresas están dispuestas a reconocer.

Además, ya empezamos a ver cómo esta autonomía se despliega en la práctica: Anthropic señala que los agentes están siendo utilizados en dominios de riesgo, aunque todavía no a gran escala, y que la ingeniería de software representa casi la mitad de la actividad agéntica observada en su API. OpenAI, por su parte, con PaperBench, muestra algo igual de relevante por la vía negativa: incluso los mejores agentes evaluados siguen lejos de replicar investigación puntera al nivel de doctorandos expertos, pero ya consiguen automatizar una fracción nada trivial del proceso. Esa combinación es exactamente la clase de señal que debería preocuparnos: todavía no reemplazan al investigador excelente, pero ya pueden comprimir enormemente el trabajo rutinario, exploratorio y de primera iteración que sostiene la investigación cotidiana.

Ahora bien, toda esta conversación suele olvidarse de su fragilidad. Un sistema de auto-mejora solo es tan bueno como su función de evaluación y como la calidad del entorno en el que aprende. Si el criterio es pobre, el sistema optimizará basura con una eficiencia admirable. Y si los modelos se entrenan cada vez más sobre datos generados por otros modelos, corremos el riesgo de degradar precisamente la materia prima que alimenta esos bucles. El trabajo publicado en Nature sobre model collapse es una advertencia seria: entrenar de forma indiscriminada sobre contenido generado por modelos puede provocar defectos irreversibles y erosionar las colas de la distribución original. Dicho de otra manera: la auto-mejora no ocurre en el vacío, también puede convertirse en auto-contaminación.

La importancia real de RSI no está en la vieja fantasía de una inteligencia artificial que despierta y se escapa de nuestras manos de un día para otro, está en algo mucho más prosaico y, por tanto, mucho más verosímil: sistemas que automatizan porciones crecientes del proceso de invención, de prueba y de optimización. No hace falta una singularidad hollywoodiense para transformar la economía del conocimiento. Basta con que una parte suficiente del trabajo iterativo, aburrido, experimental y verificable deje de necesitar humanos. Y justamente eso es lo que ya estamos empezando a ver.

La pregunta no es si estas aproximaciones son reales o son un truco, por usar el dilema del interesante artículo de Ignacio. La pregunta es mucho más incómoda: ¿qué ocurre cuando la mejora de los sistemas deja de ser un acto esporádico, caro y humano, y pasa a convertirse en un proceso continuo, automatizado y escalable? Mi impresión es que ahí reside el auténtico punto de inflexión. No porque la máquina se haya vuelto súbitamente consciente, sino porque ha empezado a hacer algo que siempre habíamos reservado a nuestras organizaciones de I+D: proponer hipótesis, ensayarlas, medirlas y aprender de ellas sin esperar a que llegue el lunes por la mañana.

Liked Liked