viernes, 14 de abril de 2023

"CATÁSTROFE DE NIVEL NUCLEAR" El poder destructor real de la inteligencia artificial, según los expertos



Un 36% de los investigadores consultados creen que las decisiones de las IAs pueden llevarnos a una catástrofe. (Midjourney)



El 36% de los expertos advierte de que las decisiones tomadas por la inteligencia artificial podrían conducir a una "catástrofe de nivel nuclear", según un informe elaborado por Stanford




Investigadores de la Universidad de Stanford, en EEUU, han entrevistado a científicos expertos en inteligencia artificial para su informe anual sobre esta tecnología. Entre las conclusiones hay dos datos que llaman la atención: el 73 por ciento de los encuestados creen que se trata de un avance que podría desencadenar un “cambio revolucionario en la sociedad”, mientras que el 36 por ciento opina que puede provocar “catástrofes de nivel nuclear”.

El estudio se ha hecho consultando a investigadores del campo del procesamiento natural del lenguaje (NPL, en sus siglas en inglés), una disciplina que se encuentra en la intersección del lenguaje con la inteligencia artificial y que sirve para entrenar a las máquinas a analizar y procesar enormes cantidades de datos. Inteligencias artificiales tan populares como ChatGPT, de OpenIA, o Bard, una tecnología similar creada en las oficinas de Google, están desarrolladas con este tipo de IAs, al igual que lo está Midjourney, la inteligencia artificial que genera imágenes tan asombrosamente realistas como las de la detención Trump.

Aunque una gran mayoría de investigadores en este campo afirma que el futuro impacto de la inteligencia artificial y el procesamiento del lenguaje natural será positivo para la humanidad, también existe la preocupación de que esta tecnología pueda tener muy pronto capacidades potencialmente peligrosas. A esto hay que añadir que estos sistemas son cada vez más fáciles de desarrollar y que hay más gente haciéndolo, con lo que se complica exponencialmente su control.

"A medida que la barrera técnica de entrada para crear y desplegar sistemas de inteligencia artificial generativa se ha reducido drásticamente, las cuestiones éticas en torno a la inteligencia artificial se han hecho más evidentes para el público en general. Las nuevas empresas y las grandes compañías se encuentran en una carrera por desplegar y lanzar modelos generativos, y la tecnología ya no está controlada por un pequeño grupo de actores", señala el informe.


El informe

Los temores sobre la inteligencia artificial han estado hasta ahora centrados en el daño que puede provocar en nuestra sociedad. Hace poco Goldman Sachs publicó un trabajo que advertía sobre cómo el desarrollo de la IA generativa puede poner en peligro hasta 300 millones de puestos de trabajo solo en EEUU y Europa, siendo las profesiones jurídicas y administrativas las más expuestas.

Pero la carrera entre Microsoft y Google por controlar este tipo de tecnologías está aumentando la velocidad de su desarrollo y haciendo que los investigadores estén pasando de crear inteligencias artificiales generativas a la búsqueda de la Inteligencia Artificial General (IAG), según dice el 57 por ciento de los investigadores encuestados por Stanford.

Sin embargo, los propios científicos no tienen claro que vayamos a llegar a esa IAG, un sistema de inteligencia artificial capaz de imitar la manera en la que piensa el cerebro humano e incluso de superar sus prestaciones. Algunos investigadores ponen fecha a su llegada en las próximas décadas, otros ni siquiera creen que seamos capaces de desarrollarla nunca.

Si la IAG se hace realidad, sucederá como dice James Lovelock en su libro Novaceno, y seremos los padres de una nueva forma de vida que supondrá un hito histórico en nuestra civilización. Pero, igual que ocurre con nuestros hijos cuando se hacen mayores, los humanos perderemos el control del crecimiento tecnológico. Este escenario es para el 58 por ciento de los investigadores encuestados una "preocupación importante".


placeholderFotos falsas del arresto de Donald Trump generadas con la última versión de Midjourney. (Eliot Higgins)
Fotos falsas del arresto de Donald Trump generadas con la última versión de Midjourney. (Eliot Higgins)

Aunque lo que más les preocupa, según el informe de Stanford, es algo mucho más cercano. Los expertos piensan que la investigación actual sobre inteligencia artificial se centra demasiado en escalar rápidamente la tecnología y alcanzar objetivos sin tener en cuenta las perspectivas de otras disciplinas de investigación.


Los investigadores no son los únicos preocupados

Hace poco hablamos de una carta abierta en la que más de 1.300 firmantes —entre los que se incluyen Elon Musk, fundador de Tesla y SpaceX, Steve Wozniak, fundador de Apple junto a Steve Jobs o el historiador y autor de Sapiens, Yuval Noah Harari— en la que se expresaban preocupaciones similares.

Los firmantes proponen que se detenga durante seis meses la creación de las nuevas versiones más potentes de estas IAs y que los grandes desarrolladores ralenticen el ritmo de su implantación. Esto, según ellos daría, más tiempo para poder seguir investigando sobre los aspectos éticos y las implicaciones sociales de esta tecnología.

"La IA avanzada podría representar un cambio profundo en la historia de la vida en la Tierra, y debería planificarse y gestionarse con el cuidado y los recursos correspondientes", dice la carta. "Lamentablemente, este nivel de planificación y gestión no se está produciendo, a pesar de que en los últimos meses los laboratorios de IA se han enzarzado en una carrera fuera de control para desarrollar y desplegar mentes digitales cada vez más poderosas que nadie -ni siquiera sus creadores- puede entender, predecir o controlar de forma fiable."