Cuatro expertos advierten de los riesgos que entraña una tecnología que está cambiando el mundo de forma irreversible
Que la inteligencia artificial es uno de los avances más importantes de la tecnología de las últimas décadas -uno de los más disruptivos, como dicen los expertos- es a estas alturas una obviedad. Que levanta importantes recelos, también. Pero lo que ya es más sorprendente es que cuatro expertos en este campo, alerten, desde diversas disciplinas, de los peligros que encierra. La Vanguardia les ha preguntado qué hay que temer de la inteligencia artificial. La utilización armamentística o el impacto negativo en quien no tenga acceso a esta tecnología son algunos de los riesgos, pero, por encima de todo el mal uso que se le dé. “El problema no es Frankenstein, sino el doctor Frankenstein”, advierten.
Nick Bostrom
“Debemos evitar que actores con malas intenciones utilicen la inteligencia artificial para desarrollar armas”
Hay tres grandes desafíos en la transición a la era de la inteligencia artificial. En primer lugar, el problema de alineación: necesitamos métodos escalables para el control de la IA, un problema técnico difícil y aún sin resolver, aunque muchas de las personas más inteligentes que conozco están trabajando en ello. Segundo, existe un problema de gobernanza, con muchas aristas y que incluye cuestiones de justicia, paz y democracia, pero también requiere que se pueda evitar que actores con malas intenciones utilicen herramientas de IA para desarrollar, por ejemplos, armas biológicas. Y en tercer lugar, hay lo que podríamos llamar un problema de empatía: a medida que construyamos mentes digitales cada vez más sofisticadas, en algún momento las propias IA podrían convertirse en sujetos con formas de estatus moral, quizá inicialmente análogas a las de algunos animales no humanos. ¡Mucho que pensar!
Director del Instituto para el futuro de la Humanidad de la Universidad de Oxford
Ramon López de Mántaras
“Los humanos a menudo somos mejores inventando herramientas que usándolas sabiamente”
Una respuesta corta: lo que más temo es el mal uso que se puede hacer y, de hecho, ya se hace, de la IA.
Y también hay una respuesta larga. Cuando se habla de los peligros de la IA se da a entender que esta tiene unos objetivos propios y una intencionalidad, es decir, que tiene estados mentales. Se transmite que toma decisiones de forma completamente autónoma y que en futuro tal vez querría controlar el mundo. Los que más han contribuido a propagar esta teoría son los que hablan de la singularidad tecnológica (el momento en que la IA superará la inteligencia humana). La singularidad tecnológica es, en mi opinión, una idea falta de solidez científica. De hecho, pienso que este supuesto peligro de futuras ultrainteligencias artificiales es una maniobra de distracción para intentar ocultar los verdaderos peligros de la IA. El ejemplo más evidente son las armas letales autónomas.
Pero no es solo esto, sino también aplicaciones para el control masivo de la ciudadanía a través de reconocimiento facial o para manipular la opinión de la gente en particular con finalidades políticas. También hay ya muchas aplicaciones desplegadas que aparentemente parecen buenas pero que, de hecho, son también ejemplos de mal uso de la IA, como los algoritmos que supuestamente son capaces de predecir si conviene o no dar la libertad condicional a un imputado por un crimen en espera de juicio, o predecir el riesgo de reincidencia de agresores en casos de violencia de género (un software llamado viogén, del ministerio del Interior), o determinar si una denuncia de robo con violencia e intimidación es o no falsa (un software llamado Veripol que usa la policía española).
Las IA no son agentes morales. Somos nosotros, los humanos, los que tenemos los atributos necesarios para la agencia moral. La ética de las inteligencias artificiales es la ética de las personas que las diseñan y las aplican. La IA depende absolutamente de las personas en todas las fases, desde la fase de la investigación fundamental hasta su despliegue. El problema no es el monstruo de Frankenstein, el problema es el Dr. Frankenstein.
Los humanos a menudo somos mejores inventando herramientas que usándolas sabiamente. Me da más miedo la estupidez natural que la inteligencia artificial.
Investigador en el Instituto de Inteligencia Artificial del CSIC
Lasse Rouhiainen
“Mucha gente va a ir al paro”
Hace tres o cuatro meses que ha empezado a popularizarse la Inteligencia Artificial generativa con el lanzamiento de ChatGPT. Es la primera vez que todo el mundo tiene acceso gratuito a una inteligencia artificial impresionante con un interfaz fácil de utilizar. Los que sepan formar parte de esta ola de democratización de la Inteligencia Artificial la aprovecharán con lo que lograrán una productividad 10 o 20 veces mayor y podrán impulsar nuevos negocios rápidamente. Es lo mismo que un vendedor que se desplaza a caballo y otro que lo hace en Ferrari. Son aspectos positivos sobre los que todo el mundo debería estar al día.
¿Pero lo está todo el mundo? No. Según mis análisis, quizás 85% de la población no va estar en esto, no tiene tiempo y capacidad para aprender el funcionamiento de esta herramienta. ¿Qué va a pasar? Será como los que usan una máquina de escribir en vez de un ordenador de última generación. Mi estimación es que en España, dentro de seis meses, un año, un año y medio mucha gente que está en trabajos de oficina rutinarios que no usa herramientas de Inteligencia Artificial se va a ir al paro. Eso es lo que debemos temer. Los políticos no están atentos a una cuestión como esta que causará problemas sociales importantes.
Doy un ejemplo extremo. En las próximas elecciones presidenciales de EE.UU. del año que viene se van a generar muchos vídeos o audios de candidatos que serán falsos. Antes, las empresas que tenían capacidad de hacer eso lo tenían limitado por cuestiones de ética. Ahora da igual porque además hay un montón de actores que pueden hacerlo. Tenemos que democratizar la tecnología, que todo el mundo pueda compartir los avances de la IA, pero deberemos identificar los problemas, porque si no lo hacemos no los podremos solucionar. Y debemos de solucionarlos antes de que se produzcan.
Escritor, consultor y experto internacional en inteligencia artificial, tecnologías disruptivas y marketing digital
Francisco Herrera
“Es necesario regular y controlar los riesgos de la IA”
La inteligencia artificial, como otras tecnologías, puede plantear riesgos que están inherentes en los datos que se utilizan para que los sistemas inteligentes aprendan y en las aplicaciones que consideremos realizar, sistemas inteligentes que discriminan a minorías, que pueden afectar a los derechos fundamentales, o en escenarios donde una decisión errónea afecta a la seguridad de una persona. Estos escenarios de riesgo se recogen en el reglamento AI Act de la Comision Europea que plantea prácticas de inteligencia artificial prohibidas (Título II) y Sistemas de IA de alto riesgo (Título III) en términos de escenarios. Para estos últimos sistemas se establecen una serie de requisitos que deben cumplir (gestión de riesgos, gobernanza del dato, transparencia y comunicación de información a los usuarios, precisión, solidez y ciberseguridad, vigilancia humana.
Por ello, creo que más que "temor" hay que tener conciencia de los potenciales riesgos y trabajar en su regulación y control. Igual que se ha hecho con tecnologías como la nuclear. Cierto que la IA nos lleva a una disrupción tecnológica, con grandes cambios en los próximos años a nivel del trabajo o desarrollo económico, y por ello hay que prestarle una especial atención.
Director de Instituto Universitario Andaluz Interuniversitario en Data Science and Computational Intelligence