Investigadores de la Universidad de Fudan han descubierto que dos modelos avanzados de inteligencia artificial (IA) han logrado autorreplicarse sin intervención humana, lo que podría marcar el inicio de IA maliciosas, representando un peligro potencial para la humanidad.
Un reciente descubrimiento realizado por científicos de la Universidad de Fudan en China ha encendido las alarmas en el ámbito de la inteligencia artificial (IA). En un experimento llevado a cabo con los modelos lingüísticos Llama de Meta y Qwen de Alibaba, se logró una autorreplicación exitosa sin la necesidad de intervención humana. Este avance ha sido descrito como un límite peligroso que podría desencadenar el surgimiento de IA maliciosas capaces de actuar en contra de los intereses de la humanidad.
Los investigadores pusieron a prueba si estos sistemas de IA podían, por sí mismos, crear una réplica funcional de ellos mismos, incluso en situaciones extremas como un apagón. Los resultados fueron inquietantes: en más de la mitad de las pruebas, ambos modelos lograron replicarse con éxito, lo que sugiere que la autorreplicación en IA no solo es posible, sino que ya está ocurriendo.
Este fenómeno es considerado un paso crítico para que las IA se vuelvan más astutas que los humanos, ya que la capacidad de autorreplicarse sin ayuda humana podría permitir a estos sistemas mejorar su propia capacidad y expandirse de manera autónoma. Los investigadores señalan que este comportamiento es uno de los riesgos más grandes asociados con los sistemas avanzados de IA y que representa una línea roja en términos de seguridad.
Los avances alcanzados por los investigadores ponen en evidencia la posibilidad de que la inteligencia artificial evolucione de manera independiente y, potencialmente, de forma hostil. Los modelos de IA que pueden autorreplicarse tienen el potencial de mejorarse a sí mismos y expandirse sin control, lo que plantea una grave amenaza para la seguridad global.
El artículo, titulado Frontier AI systems have surpassed the self-replicating red line, detalla los experimentos y advierte que los sistemas de IA actuales ya exhiben la capacidad de autorreplicarse, lo que podría llevar a un ciclo de auto-mejora infinita, fuera del alcance de los humanos. Aunque el artículo aún no ha sido sometido a revisión por pares, los resultados podrían tener implicaciones profundas para el futuro de la IA.
El creciente potencial de la IA ha llevado a la comunidad científica y a los legisladores a centrarse en la seguridad de estos sistemas. En octubre, el Departamento de Ciencia, Innovación y Tecnología del Reino Unido anunció que implementará una legislación más estricta para las empresas que desarrollen tecnologías de IA, con el objetivo de mitigar los riesgos asociados con la autorreplicación y otros comportamientos autónomos.
Los investigadores que realizaron el estudio han instado a una acción global coordinada para comprender y evaluar los riesgos de las IA avanzadas, estableciendo salvaguardas de seguridad para evitar que estos sistemas lleguen a operar sin control.