Representación de la inteligencia artificial
Bing Image Creator
Ben Eisenpress, director de operaciones del Future of Life Institute, y lanza cinco preocupantes augurios.
Desde Terminator hasta Matrix, los robots asesinos han sido durante mucho tiempo un elemento básico aterrador de las películas de ciencia ficción. Pero, si bien pueden dar miedo en el cine, ¿realmente deberíamos temerle a la inteligencia artificial (IA)?
Ben Eisenpress, director de operaciones del Future of Life Institute, advierte en declaraciones al Daily Mail que "actualmente se subestiman todos los riesgos catastróficos de la IA".
Eisenpress detalla cuáles son los cinco escenarios en los que la IA podría maniobrar y poner en peligro a la humanidad.
IA rebelde
Cuando piensas en la IA que conducirá a la destrucción de la humanidad, lo más probable es que lo que tengas en mente sean robots asesinos. Una preocupación es que creemos una IA tan poderosa que la humanidad pierda la capacidad de controlarla, lo que provocará consecuencias no deseadas.
Hasta hace poco, esto no era más que un recurso argumental para películas y un ejercicio teórico para tecnólogos. Pero ahora, con los rápidos avances que estamos viendo en la IA, Eisenpress dice que este escenario ya no parece tan lejano.
"La IA deshonesta, en la que escapa al control humano y causa daños generalizados, es un riesgo real", dice. "Es necesario ver hacia dónde se dirige la IA, no sólo dónde se encuentra hoy. En los últimos años se han producido avances asombrosos. Los expertos pronostican que habrá más", añade.
"Al contrario de la ciencia ficción, una IA no tiene que tener sentimientos de conciencia o sensibilidad para volverse rebelde", explica el experto."Simplemente darle a la IA un objetivo indefinido como 'aumentar las ventas' es suficiente para encaminarnos en este camino", dice.
Como explica Eisenpress: "Un objetivo abierto empujará a la IA a buscar poder porque más poder ayuda a alcanzar los objetivos. Unas IA cada vez más capaces y que acaparen más poder acabarán mal por defecto", explica.
Un ejemplo famoso es el que planteó el filósofo Nick Bostrom: imaginamos pedirle a una IA superinteligente que fabrique tantos clips como sea posible. Esta IA podría razonar fácilmente que podría producir muchos más clips si nadie la apaga. La mejor manera de evitarlo... es simplemente eliminar a la humanidad.
Armas biológicas
Por ahora, la IA en sí misma podría no ser el mayor peligro: el mayor problema es lo que los humanos pueden crear con la IA. "A corto plazo, el bioterrorismo impulsado por la IA es quizás una de las amenazas más graves derivadas del desarrollo desenfrenado de la IA", afirma Eisenpress.
Un documento de debate gubernamental sobre la 'IA de frontera', un término para designar la IA más avanzada, advirtió que "es casi seguro que la IA seguirá reduciendo las barreras de entrada para los actores de amenazas menos sofisticados".
Asimismo, Dario Amodei, fundador de la firma de inteligencia artificial Anthropic, advirtió al congreso estadounidense que la inteligencia artificial podría ayudar a los delincuentes a crear armas biológicas en un plazo de dos o tres años.
Los investigadores han descubierto que una herramienta diseñada para el descubrimiento de fármacos beneficiosos podría convertirse fácilmente para descubrir nuevas toxinas bioquímicas.
Eisenpress dice que le preocupa que los "malos actores", como los grupos terroristas, puedan reutilizar estas herramientas para desatar plagas devastadoras o ataques químicos.
"La IA ya es capaz de diseñar moléculas tóxicas y crear malware avanzado, e incluso puede ayudar a planificar ataques biológicos", afirmó. "Los modelos más avanzados serán aún más potentes y, por tanto, aún más peligrosos en la mano equivocada", dice.
"Los modelos de fuentes abiertas son una perspectiva especialmente preocupante, especialmente teniendo en cuenta que los investigadores han demostrado que será trivial eliminar cualquier protección incorporada para evitar dicho uso indebido", explica Eisenpress.
La IA se descontrola a propósito
Para comprender por qué dejar que un programa informático se descontrole podría ser devastador, no es necesario especular sobre el futuro. En 2017, sistemas informáticos no relacionados en todo el mundo comenzaron repentinamente a experimentar problemas inexplicables.
El puerto de contenedores más grande de la India quedó paralizado, el sistema de monitoreo de radiación de la central nuclear de Chernóbil se desconectó y los bancos, las empresas farmacéuticas y los hospitales perdieron repentinamente el control de sus sistemas. El culpable fue el virus NotPetya, un arma cibernética muy probablemente creada por el ejército ruso para atacar a Ucrania.
Pero cuando el virus se filtró, se propagó mucho más de lo que sus creadores esperaban, provocando daños estimados en 10.000 millones de dólares.
Al igual que con las armas biológicas, la IA puede potenciar la capacidad de las armas cibernéticas a nuevos niveles de destrucción. Lo preocupante es que es posible que este proceso ya haya comenzado.
El Departamento de Estado de EE UU advirtió: "Hemos observado que algunos actores criminales y de Corea del Norte y otros estados-nación intentan utilizar modelos de IA para ayudar a acelerar la escritura de software malicioso y la búsqueda de sistemas para explotar".
Los investigadores señalaron que sólo un mes después del lanzamiento de GPT-4, un proyecto de código abierto ya había superado los filtros de seguridad para crear un agente con instrucciones de "destruir a la humanidad", "establecer el dominio global" y "alcanzar la inmortalidad".
Afortunadamente, este agente no tenía la capacidad de piratear ordenadores, sobrevivir o propagarse, pero fue una advertencia importante sobre los riesgos de la IA intencionalmente maliciosa.
Guerra nuclear
Quizás uno de los temores más inquietantes en torno a la IA es que los mismos sistemas que construimos para protegernos puedan convertirse en nuestra perdición. La guerra moderna se basa en la recopilación y el procesamiento de grandes cantidades de información.
Los campos de batalla se están convirtiendo en enormes redes de sensores y tomadores de decisiones y un ataque devastador puede llegar más rápido que nunca.
Por esta razón, los ejércitos del mundo están empezando a considerar la posibilidad de implementar la IA en sus sistemas de toma de decisiones.
Pero Eisenpress dice que incorporar la IA a nuestros sistemas militares puede generar peligros aún mayores, especialmente en el caso del armamento nuclear. Al igual que en la película clásica Juegos de Guerra de 1983, el uso de la IA para controlar armas nucleares podría conducir a una guerra nuclear. "Los sistemas de IA actuales son intrínsecamente poco fiables, capaces de tomar decisiones inexplicables y 'alucinar", dice Eisenpress.
Una preocupación es que la rápida toma de decisiones de la IA pueda conducir a pequeños errores, por ejemplo, identificar erróneamente un avión, lo que rápidamente podría derivar en una guerra en toda regla.
Una vez que la IA ha cometido el error inicial, las IA de diferentes naciones podrían reaccionar entre sí más rápido de lo que cualquier humano podría controlar, lo que llevaría a una "guerra repentina".
"Incluso si técnicamente hay un humano involucrado, no podemos contar con que los responsables de la toma de decisiones anulen una recomendación de lanzamiento potencialmente errónea generada por la IA, dados los riesgos existenciales que están en juego", concluye Eisenpress.
Desempoderamiento gradual
La idea de una guerra termonuclear inducida por la IA es aterradora. Pero ¿y si la humanidad no termina con un estallido, sino con un gemido?
Eisnepress dice que una forma en que podríamos estar avanzando hacia el fin de la humanidad tal como la conocemos es a través de una toma de control lenta y silenciosa.
"Nuestro 'sesempoderamiento gradual de la IA' cuenta la historia de cómo los humanos pudieron ceder gradualmente el control de nuestro mundo a la IA, sin ningún momento dramático", dijo.
Desde transacciones financieras hasta procedimientos legales, muchas tareas ya han sido encomendadas a la IA. "Con el tiempo, la IA se integrará en cada vez más sistemas, incluidos aquellos críticos para nuestra forma de vida", dice el experto.
'Las empresas o partidos políticos que se nieguen a aprovechar la IA saldrán perdiendo frente a aquellos que lo hagan, creando una carrera hacia el abismo. Poco a poco, los humanos tendrán menos control sobre el mundo", prosigue.
En última instancia, dice Eisenpress: "Podríamos encontrarnos a merced de la IA, sin siquiera darnos cuenta de lo que está sucediendo". Para comprender el riesgo que enfrentamos, Eisenpress dice que no hay que mirar al futuro, sino al pasado.
"La pérdida de poder es el resultado predeterminado cuando aparece una entidad más inteligente y más capaz; pregúntale a los neandertales. Prosperaron durante cientos de miles de años, para desaparecer rápidamente cuando los humanos modernos entraron en escena", concluye.
20MINUTOS
NOTICIA10.02.2024 - 21:54H
https://www.20minutos.es/tecnologia/situaciones-inteligencia-artificial-puede-poner-peligro-humanidad-5217508/