viernes, 21 de julio de 2023

La inteligencia artificial "no es una amenaza para la humanidad", dicen ahora los expertos

     

El robot ameca: "los humanos no deberían tener miedo de las inteligencias artificiales". (EFE)



Más de 1.300 expertos en inteligencia artificial acaban de firmar una carta abierta que se opone a la visión catastrofista del futuro de esta tecnología que mantienen personalidades como Musk




El pasado marzo un grupo de expertos en tecnología entre los que se encontraban Elon Musk, fundador de Tesla y SpaceX, Steve Wozniak, fundador de Apple o el historiador Yuval Noah Harari, se unieron a más de 1.000 personas para firmar una carta abierta en la que pedían parar la implementación de las nuevas inteligencias artificiales durante seis meses para evitar sus "profundos riesgos para la sociedad y la humanidad". Ahora, una nueva carta firmada por un número similar de expertos dice lo contrario: “la IA es una fuerza para el bien, no una amenaza para la humanidad”.

El petardazo mundial que supuso el lanzamiento de ChatGPT, el modelo de lenguaje de OpenIA, abrió los ojos del gran público ante la enorme capacidad de la inteligencia artificial. Lo que hemos visto hasta ahora, sin embargo, es sólo un aperitivo de lo que está por venir y muchas voces alertan de que un mal desarrollo será catastrófico para nuestra civilización.

"La IA avanzada podría representar un cambio profundo en la historia de la vida en la Tierra, y debería planificarse y gestionarse con el cuidado y los recursos correspondientes", exponía la carta de marzo. "Lamentablemente, este nivel de planificación y gestión no se está produciendo, a pesar de que en los últimos meses los laboratorios de IA se han enzarzado en una carrera fuera de control para desarrollar y desplegar mentes digitales cada vez más poderosas que nadie -ni siquiera sus creadores- puede entender, predecir o controlar de forma fiable".

Sin embargo, esta misma semana más de 1.300 expertos se han unido para firmar una nueva carta en la que aseguran justo lo contrario: “La IA no es una amenaza existencial para la humanidad; será una fuerza transformadora para el bien si acertamos en las decisiones críticas sobre su desarrollo y uso”.


La IA no nos va a matar a todos

La carta —promovida por BCS, el Instituto Colegiado de Informática del Reino Unido, para contrarrestar las ideas que alertan sobre la "catastrofe de la IA"— cuenta con la firma de empresarios y académicos de diversas instituciones, incluida la Universidad de Oxford. Uno de ellos es Richard Carter, empresario y asesor del Instituto Alan Turing, que ha asegurado en declaraciones para la BBC que las advertencias vertidas hasta ahora son poco realistas. "Francamente, esta idea de que la IA es una amenaza existencial para la humanidad es demasiado exagerada. No estamos en una situación en la que eso sea factible", asegura.

Otros firmantes consultados por el medio británico hablan de los efectos positivos que tendrá la inteligencia artificial en sectores como el agrícola, con máquinas capaces de localizar y matar las malas hierbas y evitar el uso de herbicidas tóxicos, o de la salud, con las nuevas formas de diagnóstico con IA que pueden ser claves para detección temprana de enfermedades.

A pesar de las noticias que hablan de una pérdida de empleo masiva a manos de las nuevas IAs, los firmantes creen que la tecnología, más que sustituir a los humanos, aumentará su productividad. Carter cree que las empresas siempre necesitarán la participación de seres humanos en los lugares de trabajo que sean capaces de asumir responsabilidades si las cosas van mal. "Si se elimina por completo al ser humano del proceso, ¿cómo se gestiona la responsabilidad en caso de que ocurra algún tipo de catástrofe?", asegura.


El peligro de una Skynet

La nueva carta continúa diciendo que “el Reino Unido puede ayudar a liderar el establecimiento de normas profesionales y técnicas en las funciones de la IA, con el apoyo de un sólido código de conducta, la colaboración internacional y una regulación dotada de todos los recursos necesarios”.

Sin embargo, no dice nada de el uso más preocupante de esta tecnología, el militar. James Cameron, el cineasta canadiense que dirigió Terminator, una película en la que una IA fuera de control se hace con el control del mundo, aseguró recientemente en una entrevista para la televisión de su país que la militarización de la IA es el mayor peligro al que nos enfrentamos. "Creo que entraremos en el equivalente de una carrera armamentística nuclear con la IA y si no la construimos nosotros seguro que la construirán los demás y entonces la cosa irá a más".

Lo que dice Cameron ya lo han dicho otros pensadores y expertos en el pasado, pero ese miedo es más fundado hoy de lo que ha sido nunca. Como ya contamos en nuestro documental Control Z: Las Armas Definitivas, grandes potencias económicas como China o EEUU están desarrollando inteligencias artificiales militares y armas autónomas con la capacidad de decidir sobre la vida de los humanos de forma independiente. Y ya hay inteligencias artificiales tácticas que son capaces de competir contra los humanos y ganarles en los ejercicios de estrategia.

Aunque el Reino Unido se ha mostrado en contra del uso militar de la IA y de las armas autónomas, asegurando que “seleccionar y atacar objetivos sin una ‘participación humana adecuada al contexto’ sería inaceptable”, su gobierno no ha establecido ninguna regulación al respecto ni ha aclarado cómo debería ser ese contexto adecuado. Tampoco lo han hecho países como Estados Unidos y Rusia, que quieren evitar cualquier tipo de límite en el desarrollo de estas armas para no tener nuevas restricciones en lo que se les permite hacer con ellas. Mientras que China ha propuesto una prohibición a las armas autónomas que en realidad no es tal y que permitiría a los ejércitos tener la libertad de seguir construyéndolas.