OpenAI se ha convertido gracias a ChatGPT en la empresa más importante de 2023.Unsplash
Q* podría ser un gran avance en la búsqueda de la startup de lo que se conoce como inteligencia artificial general (AGI). OpenAI define AGI como “sistemas autónomos que superan a los humanos en la mayoría de las tareas económicamente valiosas”.
Después de todo el caos en el que ha estado sumida OpenAI, la empresa detrás del famosísimo ChatGPT, parece que algunas preguntas por fin han sido resueltas.
Tras despedir, de forma abrupta, el pasado viernes a Sam Altman como CEO de su propia compañía, OpenAI cedía ayer a la presión de inversores y de la mayoría de los empleados de la compañía —habían amenazado con dimitir en bloque si no se restituía a su líder— y Altman volvía como director ejecutivo a la empresa, con una nueva junta directiva. Pero las dudas seguían en torno al porqué de la decisión inicial.
Algunos teorizaban que Altman y la junta directiva de OpenAI se pelearon por diferencias sobre cómo salvaguardar una IA capaz de realizar una amplia variedad de tareas mejor que los humanos.
Por fin, parece que las nubes se han disipado al filtrar esta mañana Reuters que, antes del repentino movimiento de la junta, varios investigadores de la empresa tecnológica escribieron una carta al órgano rector advirtiendo de un “poderoso descubrimiento de la inteligencia artificial” que, según dijeron, “podría amenazar a la humanidad”.
En ella se transmiten las preocupaciones sobre la forma en la que se estaba ejecutando el proyecto Q* —pronunciado Q star—, alertando de “una comercialización de la tecnología antes de comprender las consecuencias”.
Qué es Q* y qué es capaz de hacer
Algunos en OpenAI creen que Q* podría ser un gran avance en la búsqueda de la startup de lo que se conoce como inteligencia artificial general (AGI). OpenAI define AGI como “sistemas autónomos que superan a los humanos en la mayoría de las tareas económicamente valiosas”.
Haber alcanzado es punto en la tecnología no debería ser una sorpresa, ya que desarrollar AGI es el objetivo principal de OpenAI, según la misión que ellos mismos declaran que tienen.
El problema parece radicar en que la junta creía que Altman se estaba apresurando a lanzar al mercado nuevos productos de inteligencia artificial sin darle tiempo suficiente a los equipos de seguridad de la compañía para ‘poner barreras’.
Para entenderlo mejor, Ilya Sutskever, el científico jefe de la compañía —y principal impulsor del despido de Altman, aunque luego pidió perdón por ello—, dijo en su momento que alcanzar el estándar de AGI requiere un sistema al que se le pueda enseñar a hacer cualquier cosa que se le pueda enseñar a hacer a un ser humano.
Pero, como decíamos, OpenAI tiene otra definición algo menos directa, la cual aparece en la página ‘Estructura’ de su página web.
Tal y como afirman en Reuters basándose en las declaraciones de una fuente anónima, Q*, gracias al desarrollo de la tecnología que se está haciendo en OpenAI, puede resolver ciertos problemas matemáticos, aunque ‘solo’ al nivel de los estudiantes de escuela primaria.
¿Por qué Q* de OpenAI supone un riesgo para la humanidad?
Que una inteligencia artificial pueda resolver problemas matemáticos puede no sonar demasiado impactante, pero en realidad es un avance importantísimo, ya que los expertos de este sector consideran las matemáticas como la frontera en el desarrollo de la IA generativa.
¿Por qué? Actualmente, la IA generativa es buena en escritura y traducción de idiomas al predecir estadísticamente la siguiente palabra, sin embargo, la manera de responder a la misma pregunta puede variar ampliamente. Esto no sucede con las matemáticas, donde solo hay una respuesta correcta.
Por lo tanto, la supuesta inteligencia artificial que han alcanzado en OpenAI tiene mayores capacidades de razonamiento que lo que habíamos conocido hasta ahora en este terreno, asemejándose a la inteligencia humana.
De esta forma, esta AGI es mucho más que una calculadora: a diferencia de esta máquina, que puede resolver un número limitado de operaciones, la tecnología de la que aquí hablamos puede generalizar, aprender y comprender. Como un humano.
Es aquí donde entran los miedos de los más conservadores, ya que uno de los riesgos que más se ha debatido sobre el desarrollo de una AGI es que se convierta en una máquina ‘demasiado’ inteligente, es decir, que pueda ‘pensar’ de forma autónoma. Eso deja la puerta abierta a que esta IA pueda decidir que la destrucción de la humanidad es de su interés.
Algunos expertos llevan tiempo avisando del peligro de la IA
Hay un sector muy cauteloso sobre el desarrollo de las AGI. Ya en 2014, el ahora fallecido Stephen Hawking, dijo que una tecnología como esa “podría decidir rediseñarse por cuenta propia y así llegar a un nivel superior”. “Los humanos, que son seres limitados por su lenta evolución biológica, no podrán competir con las máquinas y serán superados”, añadía.
Elon Musk también se ha pronunciado en el pasado sobre el asunto, afirmando a inicios de este año que la IA debía regularse y tratarse con cautela, ya que la llegada anticipada de una AGI “sería más peligrosa que una guerra nuclear”.
No obstante, no es necesario imaginar un escenario apocalíptico, simplemente basta con darse cuenta de que si se ha desarrollo ‘una máquina’ capaz de pensar o adquirir conocimiento como lo haría una persona, los humanos seremos pronto fácilmente reemplazables en nuestros puestos de trabajo.
Según se puede extraer de publicaciones científicas recientes, como un artículo de investigación publicado hace poco por Google DeepMind, la AGI puede estar más cerca de lo que muchos estiman. En dicho informe se explica que los sistemas actuales se consideran “IA competente”, lo que significa que son mejores en un conjunto limitado de tareas que el 50% de los humanos. Y no cuesta pensar que un sistema mejor que la mayoría de los humanos en la mayoría de las tareas esté a pocos pasos de ahí.
NOTICIA23.11.2023 - 14:18H
https://www.20minutos.es/tecnologia/actualidad/que-es-proyecto-q-openai-inteligencia-artificial-riesgo-humanidad-5192975/