Sam Altman momentos antes de su despido en el foro Asia-Pacific Economic Cooperation en San Francisco, California.
(REUTERS Carlos Barria)
POSIBLE MOTIVO DEL DESPIDO DE SAM ALTMAN
Varias fuentes confirman el envío de una alerta seria sobre el poder de un nuevo desarrollo de OpenAI que representa un peligro existencial para la humanidad que pudo disparar el despido de Altman
Hasta ahora sólo era un rumor, pero varios empleados de OpenAI han confirmado a Reuters y al medio The Information el envío de una carta al consejo de administración alertando sobre el nuevo desarrollo de una inteligencia artificial de tal poder que, según los científicos de OpenAI que firmaron el documento, es un "peligro existencial para la humanidad".
La carta habla de la existencia de una inteligencia artificial general (AGI) o algo que se acerca mucho a la idea de una IA capaz de razonar y comprender el mundo como un ser humano, un desarrollo que, de ser cierto, marcaría una nueva era en la historia de la civilización.
Un peligro ocultado al consejo de administración
Reuters indica que la seriedad de este desarrollo —que el CEO de OpenAI Sam Altman podría haber sido ocultado al consejo— podría haber sido el detonante final del despido fulminante de Altman, que acaba de volver triunfante a la empresa.
Aunque la carta no se ha hecho pública todavía ni Reuters ha podido comprobar su contenido ni hablar con sus autores, varias fuentes han dado fe a la agencia de noticias sobre su existencia y la gravedad de las acusaciones.
Además, esta seria llamada de atención explicaría el motivo por el que Altman ha decidido someter su gestión a una investigación interna. Una gestión que, por otra parte, ya estaba siendo cuestionada por un consejo que había advertido sobre la introducción 'demasiado acelerada' de nuevas versiones de GPT sin tener en cuenta las posibles ramificaciones de su impacto en la sociedad. La carta pudo haber sido la proverbial gota que colmó el vaso.
El proyecto Q*
Según la carta, el nombre interno del proyecto que podría haber alcanzado la AGI es Q* (pronunciado Q-Star en inglés, Q-estrella en español). Siempre según las fuentes de Reuters y The Information, Q* representa como mínimo un avance significativo en la búsqueda de la inteligencia artificial general (AGI). A diferencia de las formas de inteligencia artificial actuales que utilizan modelos predictivos para componer textos e imágenes pero no pueden comprender el mundo ni conceptos abstractos como los humanos, este nuevo algoritmo sería capaz de razonar a un nivel comparable al de los humanos.
Una de las pruebas de la capacidad de Q* parece ser su habilidad para resolver problemas matemáticos razonando como una persona por primera vez. Aunque actualmente las fuentes de Reuters indican que opera a un nivel similar al de estudiantes de primaria, Q* ha sorprendido a los investigadores porque puede ser un paso clave que pondría la IA al nivel de complejidad del pensamiento humano.
Este avance es tan importante que ha disparado las alarmas entre los propios científicos de OpenAI, motivando el envío de una carta que expresa su inquietud seria sobre la seguridad y las implicaciones éticas de su desarrollo. Una IA con capacidades tan avanzadas podría actuar de forma independiente, con consecuencias impredecibles y potencialmente peligrosas para la humanidad, especialmente si no se comprende completamente su proceso de toma de decisiones y si no se implementan las salvaguardas adecuadas.
Si la inteligencia artificial actual ya está teniendo un impacto extremadamente negativo en la sociedad, las consecuencias éticas y de seguridad del desarrollo y puesta en marcha de una AGI —o algo cercano a la AGI— pueden llegar a ser catastróficas si no se toman antes medidas serias para impedirlo.
Momento crítico
Aunque no sea una AGI real, la controversia en torno al proyecto Q* y la carta de los investigadores refleja un momento crítico en el desarrollo de la inteligencia artificial. OpenAI, conocida por sus avances significativos en el campo de la IA, como el desarrollo de ChatGPT (Generative Pre-trained Transformer), está ahora en una encrucijada vital para su propio futuro y para el de la civilización.
La decisión de despedir a Altman —una figura clave en el avance y la promoción de la IA generativa— y la amenaza de renuncia de más de 700 empleados en contraposición a los que han dado la voz de alarma sobre Q* pueden estar mostrando tensiones internas y preocupaciones éticas que van más allá de los logros tecnológicos.
Pero más allá del drama interno de OpenAI, lo cierto es que la rápida evolución de la IA y su integración en diversos sectores plantea preguntas sobre la seguridad, la privacidad, el empleo y el impacto social de estas tecnologías. La carta de los investigadores de OpenAI —aunque no sea pública— y el despido de Altman parecen ser una llamada de atención que demanda una vez más seriedad y urgencia en la toma de decisiones sobre la inteligencia artificial y su comercialización.
La inteligencia artificial general cambiará el mundo
La AGI representa un horizonte de posibilidades y desafíos. A diferencia de las IA específicas para tareas, la AGI tendrá la capacidad cognitiva humana respecto a todo lo que nos rodea pero multiplicada por la capacidad de proceso y la habilidad de gestionar millones de impulsos y datos de forma simultánea, algo que los humanos no podemos hacer.
Una vez desarrollada, su nivel de autonomía y adaptabilidad será mucho mayor que la nuestra, transformando todos los sectores imaginables, desde la medicina y la ingeniería a la educación y el desarrollo de AGIs aún más avanzadas. Una vez dentro de ese círculo de desarrollo, la AGI podrá ofrecer soluciones a problemas complejos con una eficiencia sin precedentes en la historia del planeta.
Lógicamente, la AGI también conlleva riesgos enormes. La posibilidad de que una IA con capacidades generales actúe de forma independiente o que sus decisiones resulten incomprensibles para los humanos plantea serios dilemas éticos y de seguridad, tanto a nivel personal como de la propia especie. La preocupación no es que la IA pueda cometer errores sino que su funcionamiento pueda escapar al control humano.
Riesgo de distopía real
Y no, esto no tiene por qué ser un futuro al estilo Terminator, en el que hayan armas con capacidad de toma de decisiones independientes.
La simple integración de la IA en la vida cotidiana ya está planteando preguntas sobre la privacidad, el empleo y la influencia de la IA en la toma de decisiones. La posibilidad de una AGI plenamente desarrollada multiplicará los peligros potenciales, con un impacto sociológico y psicológico que ahora mismo no podemos imaginar.
La carta de los investigadores de OpenAI y el debate en torno al proyecto Q* son un recordatorio de que el camino hacia la AGI no es solo un viaje de descubrimiento tecnológico, sino también un ejercicio de responsabilidad y precaución.