sábado, 27 de mayo de 2023

ChatGPT superará la inteligencia humana en menos de 10 años, dicen sus creadores



(Inteligencia artificial - Midjourney - Novaceno - OK)



Los desarrolladores de ChatGPT creen que la nueva superinteligencia puede superar a los expertos humanos en la mayoría de las disciplinas durante los próximos 10 años




Esta semana los creadores de ChatGPT han publicado un artículo en el que advierten de que en diez años los sistemas de inteligencia artificial pueden superar a los expertos humanos en la mayoría de las áreas. Esta superinteligencia, dicen, será más poderosa que otras tecnologías a las que la humanidad ha tenido que enfrentarse en el pasado y supone un riesgo existencial para nuestra civilización. Por eso urgen a las autoridades a pensar ya en cómo vamos a administrarla.

Sam Altman, Greg Brockman, Ilya Sutskever, tres de los cofundadores de OpenIA, la compañía detrás del popular ChatGPT, creen que la superinteligencia del futuro será aún más capaz que la inteligencia artificial general —una forma de inteligencia sintética que es equiparable a la humana— y podrá ser tan productiva como las grandes compañías actuales.

La visión de OpenIA —compañía en la que participa Microsoft tras la inversión de 10.000 millones de dólares—, es que las futuras generaciones de inteligencia artificial nos traerán un futuro mucho más próspero. Aunque para que eso pase, tenemos que gestionar el riesgo existencial que supone su implementación.


placeholderSam Altman testificando ante el Congreso de EEUU. (EFE - JIM LO SCALZO)
Sam Altman testificando ante el Congreso de EEUU. (EFE - JIM LO SCALZO)

“No podemos limitarnos a reaccionar. La energía nuclear es un ejemplo histórico común de una tecnología con esta propiedad; la biología sintética es otro ejemplo”, escriben. “También debemos mitigar los riesgos de la actual tecnología de IA, pero la superinteligencia requerirá un tratamiento y una coordinación especiales”.


Todavía estamos a tiempo

Los creadores de ChatGPT piensan que aún estamos a tiempo de conseguir desarrollar esta superinteligencia de manera controlada. Tampoco creen que parar ahora sea conveniente, para ellos detener el desarrollo sería arriesgado y difícil, aunque hay que recordar que el propósito declarado de OpenIA es precisamente dar vida a uno de estos sistemas superinteligentes.

El texto sugiere que la única manera de desarrollar esta tecnología de manera segura sería mediante un régimen de vigilancia global, aunque no están seguros de que eso vaya a funcionar. Por eso reclaman que las decisiones relativas a su desarrollo e implementación deben tener “una sólida supervisión pública”.

“Creemos que los ciudadanos de todo el mundo deberían decidir democráticamente los límites y los valores por defecto de los sistemas de IA”, escriben. “Aún no sabemos cómo diseñar un mecanismo de este tipo, pero tenemos previsto experimentar con su desarrollo. Seguimos pensando que, dentro de estos amplios límites, los usuarios individuales deberían tener mucho control sobre cómo se comporta la IA que utilizan”.


Cómo evitar el riesgo existencial, según OpenIA

Los creadores de OpenIA aportan tres ideas para conseguirlo. Primero, explican, hay que lograr un desarrollo coordinado de esta tecnología que permita su integración en la sociedad, mientras se mantienen unos límites básicos de seguridad.

Para ello proponen dos maneras de hacerlo. Una, impulsada por los principales gobiernos del mundo en el que participen los principales desarrolladores actuales. Y la otra, mediante un acuerdo colectivo vigilado por una organización independiente que marque un ritmo de crecimiento anual de la tecnología. En todo caso, apuntan, a las empresas se les debe exigir un nivel extremadamente alto de responsabilidad.

En segundo lugar proponen crear un organismo similar al que regula la energía atómica (el OIEA) para vigilar los avances hacia la superinteligencia. Si una tecnología, dicen, supera un determinado umbral de capacidad tendrá que someterse a la auditoría de una autoridad internacional que pueda inspeccionar los nuevos sistemas para evitar un riesgo existencial. Algo que, sugieren, ya podrían empezar a hacer las compañías desarrolladoras voluntariamente como un simulacro de las capacidades que tendría que tener el nuevo organismo.

Finalmente, los tres cofundadores de OpenIA aseguran que hace falta la capacidad técnica para hacer que la superinteligencia sea segura. “Se trata de una cuestión de investigación abierta a la que nosotros y otros estamos dedicando muchos esfuerzos”, aseguran.


A OpenIA no le gustan las leyes europeas

Sam Altman, que además de cofundador de OpenAI también es su director general, advirtió recientemente que su compañía podría dejar de operar en Europa si el bloque aplica sus medidas sobre inteligencia artificial.


placeholderEl comisario europeo de Justicia, Didier Reynders, durante una rueda de prensa sobre la Inteligencia Artificial. La UE se ha convertido en el regulador de facto de la IA en el mundo.
El comisario europeo de Justicia, Didier Reynders, durante una rueda de prensa sobre la Inteligencia Artificial. La UE se ha convertido en el regulador de facto de la IA en el mundo.

La propuesta de Ley de Inteligencia Artificial de la UE establece tres niveles de riesgo para estas tecnologías. La categoría de mayor riesgo "crearía un riesgo inaceptable, como el sistema de puntuación social gestionada por un gobierno del tipo utilizado en China" y estaría prohibida. La segunda categoría de riesgo estaría "sujeta a requisitos legales específicos" y correspondería a los sistemas de IA que se utilizaran para analizar currículos y clasificar a los solicitantes de empleo. Y la tercera sería para sistemas de IA que "no están explícitamente prohibidos o catalogados como de alto riesgo" y que, por tanto, "quedarían en gran medida sin regular".

El Parlamento Europeo votó a favor de la ley por amplia mayoría y estableció el 14 de junio como la fecha provisional para su adopción. "Los detalles realmente importan. Intentaremos cumplirlas, pero si no podemos hacerlo, dejaremos de operar", aseguró Altman en declaraciones recogidas por el Financial Times.