IA
IA

Jack Clark lleva meses analizando datos públicos sobre IA y ha llegado a una conclusión que él mismo describe como incómoda. El cofundador de Anthropic cree que existe una probabilidad de que un sistema de inteligencia artificial sea capaz de desarrollar a su propio sucesor sin intervención humana. Clark afirma que el porcentaje es alto y podría ocurrir mucho antes de que termine esta década.

De acuerdo con una publicación en su blog, Clark señala que su idea se basa en una automatización de la investigación y desarrollo de la IA. Actualmente, cuando un laboratorio entrena un modelo nuevo, hay cientos de ingenieros e investigadores detrás de cada decisión. Ese proceso, que va desde el diseño experimental a la ejecución técnica, podría quedar en manos de los propios sistemas en un ciclo que se retroalimenta.

El cofundador de Anthorpic se basa en las capacidades de los sistemas actuales para escribir y revisar código de forma autónoma. Un ejemplo de esto lo vemos en el benchmark SWE-Bench, que mide la habilidad de la IA para resolver problemas reales de ingeniería de software en GitHub. Según los datos, esta prueba pasó de un 2% de éxito con Claude 2 en 2023 a rozar el 94% con modelos recientes.

No obstante, existe un dato que va todavía más lejos. METR, una organización que mide cuánto tiempo tardaría un humano experto en completar las mismas tareas que ya hacen los modelos de forma autónoma, encontró que en 2022 los sistemas podían ejecutar tareas que llevaban unos 30 segundos. En lo que va de 2026, ese umbral está en torno a las 12 horas y podría alcanzar las 100 antes de que termine 2026.

Manos de robot con IA escribiendo en un teclado

Los sistemas de IA están empezando a gestionar otros sistemas

El salto cualitativo que describe el cofundador de Anthropic es que los sistemas están empezando a gestionar otros sistemas. Clark define a esto como equipos sintéticos, donde unos modelos actúan como directores, otros como críticos y otros como ingenieros. Esto replica, en parte, la estructura con la que funciona un equipo humano de investigación.

A lo anterior se suma que empresas como OpenAI o la misma Anthropic están trabajando en investigadores basados en IA. Sam Altman dijo hace unos meses que se habían fijado como objetivo el desarrollar un «becario de investigación en IA automatizada» para septiembre de 2026. El jefe de OpenAI reveló que usaría cientos de miles de GPUs para impulsarlo y convertirlo en un «verdadero investigador» en marzo de 2028.

«En 2026 esperamos que nuestros sistemas de IA puedan hacer pequeños descubrimientos nuevos; En 2028 podríamos estar hablando de grandes proyectos», dijo Altman. Por su parte, Anthropic confirmó hace unas semanas que trabaja en investigadores de alineación automatizados.

La pregunta que todo mundo se hace es: ¿qué significaría que ocurriera de verdad? Según Clark, que un sistema de IA sea capaz de desarrollar a sus sucesores sin ayuda humana tendría tres consecuencias de peso.

La primera tiene que ver con la alineación y es que si un sistema empieza a influir en su propio entrenamiento, los errores se acumularían con cada generación. La segunda es económica y es que todo lo que toca la IA recibe un multiplicador de productividad, lo que plantea preguntas serias sobre quién tiene acceso a esa ventaja. La tercera es la que más afectaría a las personas, ya que un sistema que se desarrolle a si mismo podría generar una economía con empresas de mucho capital y pocos humanos en la plantilla.

Con todo lo anterior, el cofundador de Anthropic ha sido honesto sobre los límites de su propia predicción. Clark piensa que la investigación científica requiere algo de creatividad heterodoxa que los modelos actuales todavía no han demostrado de forma consistente. Eso no ocurrirá en 2026, pero la tendencia está ahí y podría llegar antes de lo que pensamos.

Seguir leyendo: El cofundador de Anthropic cree que la IA está cerca de construirse a sí misma

Ver fuente