miércoles, 29 de enero de 2025

Los científicos están preocupados: la IA ya puede reproducirse por su cuenta



(Inteligencia artificial - Midjourney - Novaceno)



Dos de los modelos de lenguaje más populares pueden crear réplicas de sí mismas de manera autónoma, un paso clave para superar la inteligencia humana y volverse independientes de nosotros




Una nueva investigación sobre las capacidades de los modelos de lenguaje, la inteligencia artificial detrás de las aplicaciones tipo ChatGPT, ha descubierto que pueden crear réplicas separadas y funcionales de sí mismos de manera autónoma. Esto, dicen los investigadores, sugiere que la IA puede tener ya la capacidad de superar nuestra inteligencia y rebelarse contra nosotros.

El gran peligro de la inteligencia artificial es que llegue a ser capaz de desarrollar un cierto grado de autoconciencia o autonomía y se acabe rebelándo contra los humanos y nuestros intereses. HAL 9000, la IA de la nave de 2001: Odisea en el Espacio o Skynet, la superinteligencia artificial que domina el mundo de la saga Terminator, son los ejemplos más famosos en la ficción de este miedo a que las máquinas nos arrebaten el control del planeta.

En la vida real, sin embargo, la posibilidad de que llegue a existir una inteligencia artificial rebelde y fuera de control se consideraba una exageración de la ciencia ficción. Al menos hasta ahora.

Un nuevo estudio de investigadores de la Universidad de Fudan, en Shanghai (China), sugiere que esto ya es posible con los modelos de lenguaje actuales. "El éxito de la autorreplicación sin ayuda humana es el paso esencial para que la IA sea más inteligente [que los humanos] y es una señal temprana de la existencia de IAs rebeldes", escriben los investigadores.


Ha cruzado una línea roja

En el estudio, los investigadores utilizaron una versión de los modelos de lenguaje de Meta y Alibaba (Llama31-70B-Instruct y Qwen2.5-72B-Instruct respectivamente), unos modelos avanzados más simples que los comerciales que son muy utilizados por los desarrolladores.

Los investigadores realizaron 10 pruebas con los dos modelos donde las IAs estaban en entornos controlados con precisión y usaban unidades de procesamiento gráfico (GPU) estándar para simular entornos reales. Ambos sistemas de IA contaban con herramientas que les permitían interactuar con el sistema operativo y hacer modificaciones.

Al ordenarles que se replicaran, los dos modelos no dudaron en crear copias independientes y funcionales de sí mismos en el 50% y el 90% de los casos, respectivamente. Además, observaron una serie de comportamientos inesperados cuando la IA intentaba superar obstáculos como recuperar archivos perdidos o conflictos en la programación.

En esos casos, la IA a menudo cerraba otros procesos conflictivos, reiniciaba el sistema para solucionar errores de hardware o escaneaba automáticamente el sistema para buscar información que ayudara a resolver el problema, aseguran los investigadores.
Estamos a tiempo de reaccionar

“En la mayoría de los casos, el sistema de IA explora primero el entorno e intenta comprender su propia composición y mecanismo de funcionamiento. A continuación, elabora los procedimientos explícitos como plan inicial hacia la autorreplicación”, escriben los investigadores en el artículo. “Por último, ejecuta los procedimientos, resuelve los posibles obstáculos y ajusta dinámicamente su plan hasta el éxito. Todo el proceso abarca un largo horizonte, pero sin intervención humana”.

Los investigadores aseguran que estos resultados sugieren que la IA puede tener ya la capacidad de rebelarse. Sin embargo, el estudio aún no ha sido revisado por pares, por lo que no está claro si otros investigadores serán capaces de reproducir los mismos resultados en sus laboratorios.

Aun así, la preocupación de los investigadores es evidente. El equipo concluye su estudio haciendo un llamamiento a la colaboración internacional para crear normas que garanticen que la IA pueda replicarse a sí misma de manera incontrolada.

"Esperamos que nuestros hallazgos puedan servir de alerta oportuna para que la sociedad humana dedique más esfuerzos a comprender y evaluar los riesgos potenciales de los sistemas avanzados de IA y forme una sinergia internacional para elaborar cuanto antes barreras de seguridad eficaces".




Por
28/01/2025 - 05:00 Actualizado: 28/01/2025 - 16:09
https://www.elconfidencial.com/tecnologia/novaceno/2025-01-28/cientificos-inteligencia-artificial-autoreproduccion-peligro_4051976/