jueves, 2 de noviembre de 2023

Cumbre en UK contra el riesgo "catastrófico" de la IA. ¿Puede acabar con la humanidad?



Miembros de los gobiernos de diferentes países posan para una foto este miércoles durante el AI Safety Summit en Bletchley, Reino Unido. 
(EFE/Chris J. Ratcliffe)



Cientos de líderes mundiales, académicos, investigadores y empresarios, incluido el hombre más rico del mundo, Elon Musk, se dan cita esta semana en Reino Unido para abordar los retos que plantea la inteligencia artificial




El día de Navidad de 2021, Jaswant Singh Chail irrumpió en el Castillo de Windsor con una ballesta cargada y gritó: "¡Estoy aquí para matar a la reina!". Su caso ha llegado ahora a los tribunales, donde ha sido condenado a nueve años de prisión. Durante el juicio, ha explicado que fue alentado por su novia Sarai para cometer el crimen. Los días previos habían intercambiado más de 5.000 mensajes. Cuando le comentó que era un asesino, ella respondió: “Estoy impresionada… Eres diferente a los demás”. La cuestión es que Sarai era un chatbot, creado a través de una aplicación llamada Replika. Cualquier persona puede ahora crear un amigo o pareja dispuesto a halagarte, animarte e incluso anticiparse a tus movimientos.

Igual que ya ocurre a nivel individual, la inteligencia artificial (IA) predictiva también podría ofrecer a un país una mejor comprensión de lo que podrían estar pensando sus adversarios potenciales. Estados Unidos podría desarrollar, por ejemplo, un modelo de lenguaje que absorbiera todos los documentos y discursos disponibles de los líderes chinos para adelantarse a las decisiones de Xi Jinping.

Los analistas podrían formular preguntas específicas del tipo: “¿Bajo qué circunstancias estaría dispuesto el presidente Xi a usar la fuerza contra Taiwán?” y anticipar posibles respuestas basadas en una gran cantidad de datos de más fuentes de las que cualquier ser humano podría sintetizar rápidamente. En definitiva, se podría cambiar por completo la manera de ejecutar la labores de inteligencia y hasta las guerras.

No es ciencia ficción. Durante el último año, el auge de ChatGPT de OpenAI y Bard de Google ya ha proporcionado un anticipo de todo lo que está por venir. Esos sistemas pueden producir textos, vídeos e imágenes realistas de manera que la gente crea que dichos servicios automatizados tienen mente propia. Resulta tan interesante como preocupante.

¿Se puede garantizar que la inteligencia artificial no cause daños a la sociedad y a las democracias? ¿Es posible una colaboración internacional? ¿Hasta qué punto se pueden poner restricciones sin perjudicar la innovación que tantos progresos está alcanzando en campos como la medicina? ¿Están realmente dispuestos la industria y los propios Estados a poner límites?

Estas son las cuestiones que se plantean en la primera cumbre internacional sobre IA celebrada este miércoles y jueves en el Reino Unido con el Gobierno británico como anfitrión. Representantes de 29 países —entre ellos, Estados Unidos, China y España—, ejecutivos de las grandes tecnológicas —como Elon Musk, de X— y una larga lista de expertos —incluidos dos de los tres padres de la IA moderna, Geoffrey Hinton y Yoshua Bengio— se dan cita en Bletchley Park, la mansión victoriana situada en Buckinghamshire donde 10.000 expertos en criptografía descifraban a diario los mensajes cifrados con los que se comunicaba el Ejército alemán durante la Segunda Guerra Mundial.


placeholderLa vicepresidente de EEUU, Kamala Harris, en su discurso en el AI Safety Summit celebrado en Reino Unido. (EFE)
La vicepresidente de EEUU, Kamala Harris, en su discurso en el AI Safety Summit celebrado en Reino Unido. (EFE)

La cumbre tiene lugar después de que este lunes el presidente estadounidense, Joe Biden, firmara un decreto que obliga a las tecnológicas a notificar al Gobierno cualquier avance que suponga un “riesgo grave para la seguridad nacional”, convirtiéndose así en el primer país en regular esta cuestión. La vicepresidenta estadounidense, Kamala Harris —presente en la cumbre—, ha anunciado este miércoles la creación de un Instituto de Seguridad de IA para abordar “todo el espectro de riesgos”, no solo los más extremos. Por su parte, el G7 también anunciaba esta semana un código no vinculante para controlar las IA generativas, entre ellas, herramientas como ChatGPT.

En el comunicado oficial, los 29 países representados en la cumbre británica han acordado que la IA representa grandes oportunidades pero también “riesgos importantes en ámbitos como la ciberseguridad y la biotecnología, por lo que existe la posibilidad de que se produzcan daños graves, incluso catastróficos, ya sean deliberados o no”.


La IA está atrapada en un "gran ciclo de exageración", generando miedos infundados, igual que pasó en 1980 con los videojuegos


Los representantes de la industria se muestran más optimistas. El ex viceprimer ministro del Reino Unido Nick Clegg, que ahora es presidente de Asuntos Globales en Meta (Facebook), asegura que la IA estaba atrapada en un “gran ciclo de exageración”, generando miedos infundados, al igual que pasó en la década de 1980 con los videojuegos. “Había pánico moral respecto a la radio, la bicicleta e internet”, matiza.

Con todo, los “riesgos catastróficos” que plantea ahora la IA también son mencionados en la carta firmada por 250 expertos que piden un tratado internacional para evitar amenazas contra la humanidad. Entre ellos, se encuentran el profesor Yui Zeng, uno de los principales académicos de China, y el informático canadiense y Premio Turing 2018, Yoshua Bengio, considerado uno de los padres de la IA, quien teme el ritmo de desarrollo y advierte de que el riesgo de extinción de la tecnología es comparable al de una guerra nuclear.


"Detener la IA sería un error"

Lo cierto es que la IA ya está cambiando las manera de ejecutar las guerras. En el actual conflicto entre Israel y Hamás, se han producido oleadas de desinformación en las redes sociales. Google ha declarado que Irán está detrás de una red de cuentas falsas que promueven narrativas antiisraelíes engañosas. Los probots rusos e iraníes están publicando material, reproducido millones de veces, para dividir a las sociedades occidentales.


placeholderElon Musk es uno de los asistentes destacados en el AI Safety Summit, que se celebra este miércoles y jueves en Reino Unido. (EFE)
Elon Musk es uno de los asistentes destacados en el AI Safety Summit, que se celebra este miércoles y jueves en Reino Unido. (EFE)

A medida que la IA irrumpe en la conciencia pública, algunos investigadores ya están pidiendo una pausa en su desarrollo. El problema es que ningún país quiere quedarse atrás en la carrera tecnológica, porque de ello depende ahora su seguridad nacional.

“Intentar detener el progreso sería un error”, señala Michèle A. Flournoy, cofundadora de WestExec Advisors y subsecretaria de Política de Defensa de Estados Unidos entre 2009 a 2012, en un artículo publicado en Foreign Affairs. “China está trabajando arduamente para superar a Estados Unidos en IA, particularmente en lo que respecta a aplicaciones militares. Si tiene éxito, Pekín poseería un ejército mucho más poderoso, potencialmente capaz de aumentar el ritmo y el efecto de sus operaciones más allá de lo que Estados Unidos puede igualar. La capacidad de China de utilizar la guerra cibernética y electrónica contra las redes y la infraestructura crítica de Estados Unidos también se vería peligrosamente mejorada. En pocas palabras, el Pentágono necesita acelerar, no frenar, su adopción de una IA responsable. Si no lo hace, Washington podría perder la superioridad militar, que respalda los intereses de Estados Unidos, la seguridad de sus aliados y socios y el orden internacional basado en reglas”, matiza.

La experta explica que en la carrera por la supremacía tecnológica, China tiene algunas ventajas obvias. A diferencia de Washington, Pekín puede dictar las prioridades económicas de su país y asignar los recursos que considere necesarios para cumplir los objetivos de la IA. Con su política de “fusión cívico-militar”, que elimina las barreras entre sus sectores civil y militar, puede recurrir al trabajo de expertos y empresas chinos cuando quiera. Y para 2025, el gigante asiático producirá casi el doble de doctorados en ciencia, tecnología, ingeniería y matemáticas respecto a los Estados Unidos, inundando la economía de China con mentes brillantes.


EEUU vs. China vs. Europa

Estados Unidos tiene también sus propias fortalezas únicas. La economía de mercado del país y su sistema político más abierto dan a los desarrolladores espacio para ser creativos. No obstante, la defensa estadounidense no podrá acelerar la adopción de la IA a menos que el público crea que la utilizará de manera efectiva, responsable, ética y legal. De lo contrario, la primera vez que una aplicación de IA conduzca a una decisión muy mala o a consecuencias graves no deseadas en el campo de batalla, es poco probable que los combatientes confíen en ella, y es probable que los formuladores de políticas y los legisladores suspendan o prohíban su uso.


placeholderEl presidente de Asuntos Globales de Meta y ex viceprimer ministro del Reino Unido, Nick Clegg (centro), junto a Yann LeCun, jefe mundial de IA de Meta (derecha). (EFE)
El presidente de Asuntos Globales de Meta y ex viceprimer ministro del Reino Unido, Nick Clegg (centro), junto a Yann LeCun, jefe mundial de IA de Meta (derecha). (EFE)

El reto para cualquier Estado de Occidente es lograr el balance adecuado. Hay que poner restricciones, pero demasiado mano dura podría incitar a los mejores innovadores a irse a otros sitios. En este sentido, la colaboración internacional es clave. El primer gran paso se dio en 2019, cuando la Organización para la Cooperación y el Desarrollo Económico —un grupo de países en su mayoría ricos— aprobó un acuerdo global sobre la ética de la inteligencia artificial, el primero del mundo.

La cumbre que se celebra ahora en el Reino Unido pretende seguir la estela. El primer ministro británico, Rishi Sunak, quiere posicionar la Global Britain pos-Brexit como salvaguarda ante los riesgos de la IA. Su intención es que esta sea la primera de una serie de cumbres internacionales periódicas sobre IA, siguiendo el modelo establecido por las conferencias del G7, el G20 y la COP.

Todos los países presentes en la cita en Bletchley Park recalcan la importancia de la colaboración internacional. Pero la realidad es que el carrusel de anuncios centrados en la IA y eventos geopolíticos de esta semana subraya la verdadera realidad: los gobiernos están luchando por proyectarse como líderes en una carrera tecnológica que cautiva y alarma a partes iguales.


UK está tomando un camino diferente: centrarse en los posibles riesgos existenciales si la IA cae en las manos equivocadas


La extensa orden ejecutiva de 110 páginas de la Casa Blanca este lunes es un claro ejemplo de cómo la Administración de Joe Biden se dirige a una audiencia predominantemente nacional mientras se presenta a sí misma como líder mundial.


"La mayor amenaza existencial"

Pero el impulso norteamericano sobre la gobernanza de la IA ha sido recibido con importante escepticismo en Bruselas, donde los funcionarios de la UE están ansiosos por promover su propia versión de la legislación sobre IA (a través de la próxima ley de inteligencia artificial del bloque) en tantos países como fuera posible.

Las propuestas de la UE prohibirán ciertas versiones de la tecnología, como el uso de IA para puntuar a los ciudadanos, algo que ya se está haciendo en China. Con un sistema alimentado por el reconocimiento facial, se premia o penaliza a los ciudadanos y empresas según el cumplimiento o no de las leyes, como ya se planteaba en un capítulo de la popular serie Black Mirror.

Actualmente, funcionarios estadounidenses y europeos están trabajando juntos en estándares técnicos para la IA como parte del acuerdo UE-EEUU. Consejo de Comercio y Tecnología, una reunión bianual entre altos funcionarios que se celebrará en Washington en diciembre. Pero la competitividad está ahí.


placeholderEl cofundador de DeepMind, Mustafa Suleyman, en el AI Safety Summit. (EFE)
El cofundador de DeepMind, Mustafa Suleyman, en el AI Safety Summit. (EFE)

Por su parte, Londres está tomando un camino diferente, el de centrarse casi exclusivamente en los posibles riesgos existenciales si la IA cae en las manos equivocadas. De ahí los planes para la creación de "un Instituto de Seguridad de IA" que supervisará cómo empresas como OpenAI y Deepmind de Google desarrollaron sus últimos modelos de IA.

Está previsto que este jueves el premier Rishi Sunak se reúna con Elon Musk, quien justo hace ahora un año compró Twitter por 42.000 millones de dólares. El magnate quiere llevar la tecnología a su límite absoluto, desde los viajes espaciales hasta los vehículos autónomos, pero pone límites a la IA, a la que ya en 2014 calificó como la “mayor amenaza existencial” para la humanidad, comparándola con “convocar al demonio”. Su principal temor es que, en manos equivocadas, si la IA avanza, podría superar a los humanos y significar el fin de la humanidad, lo que se conoce como la Singularidad.

Esa preocupación es compartida por muchas mentes brillantes, incluido el fallecido Stephen Hawking, quien dijo a la BBC en 2014: “El desarrollo de una inteligencia artificial completa podría significar el fin de la raza humana. Despegaría por sí solo y se rediseñaría a un ritmo cada vez mayor”.



www.elconfidencial.com/tecnologia/2023-11-01/uk-congreso-seguridad-ia-inteligencia-artificial-reino-unido_3765886/