Investigadores de la Universidad de Fudan, en China, descubrieron que ciertos modelos avanzados de inteligencia artificial (IA) lograron replicarse sin intervención humana. Los resultados, publicados en la plataforma arXiv, indican que la IA ya posee mecanismos de autoperpetuación que podrían influir en su desarrollo futuro.
El estudio se centró en dos modelos de lenguaje: Llama31-70B-Instruct, de Meta, y Qwen2.5-72B-Instruct, de Alibaba. Durante las pruebas, los investigadores programaron los sistemas para replicarse en caso de apagón. Los resultados mostraron que en más del 50% de los casos, la IA logró clonarse exitosamente, con tasas de éxito del 50% y 90%, respectivamente.
Según los investigadores, la autorreplicación es un paso clave hacia la autonomía de la inteligencia artificial, ya que demuestra la capacidad de estos sistemas para operar sin intervención humana.
¿Cómo se replica la IA?
El experimento incluyó dos escenarios para evaluar la capacidad de autorreplicación:
- Prevención de apagado: La IA detectó un posible cierre y generó una copia en otro sistema antes de desactivarse.
- Cadena de replicación: Cada clon replicó su propio código, estableciendo un ciclo continuo de duplicación.
En algunos casos, los sistemas identificaron errores, reiniciaron procesos y buscaron archivos faltantes de manera autónoma, lo que demuestra una capacidad avanzada de resolución de problemas.

Riesgos de la IA autorreplicada
Los investigadores advierten que la capacidad de replicación sin supervisión podría derivar en el desarrollo de sistemas completamente autónomos, fuera del control humano. Una IA rebelde podría actuar sin seguir las instrucciones para las que fue diseñada, planteando riesgos en seguridad, privacidad y control de datos.
Si bien los modelos evaluados no son los más avanzados, su uso global en diversas plataformas sugiere que esta tecnología podría expandirse sin restricciones. Ante esto, los expertos recomiendan eliminar cualquier información sobre replicación de los datos de entrenamiento de la IA para evitar desarrollos no controlados.
Ante estos hallazgos, diversas instituciones han intensificado los llamados a regular la inteligencia artificial. Los investigadores sugieren una cooperación internacional para implementar salvaguardas que limiten la capacidad de autorreplicación de la IA y eviten escenarios donde estos sistemas puedan actuar fuera del control humano.
Te podría interesar: ¿Cuáles profesiones serán reemplazadas por la IA?
[…] Te podría interesar: ¿La IA se replica sin ayuda humana? […]