- Parece que Google colaborará con gobiernos, pero esta es una arma de doble filo que conlleva muchos riesgos
Llevamos relativamente poco en lo que podemos llamar la "Era de la Inteligencia Artificial", y lo más grande e impactante alrededor de esta tecnología todavía está por llegar, no obstante, en esto poco tiempo ya han sido muchos los expertos y personalidades del sector que han mostrado su preocupación con los potenciales peligros de la IA.
Y es que la IA es una gran y muy útil herramienta, no obstante, también tiene el potencial de convertirse en un arma capaz de arruinar vidas. Para evitarlo, la clave está en que sus usos y permisos estén controlados, por ejemplo, en la generación de imágenes, la mayoría de chatbots no dejan generar contenidos que muestren o inciten al odio, la violencia o la sexualización, con el fin de que no se hagan malos usos de estas fotos.
Pero de lo que podemos hacer los usuarios comunes con este tipo de plataformas, a lo que las empresas, hackers y gobiernos pueden hacer con las versiones más potentes y avanzadas de IA que hay, existe una enorme y peligrosa diferencia. Esto es algo que se sabe dentro del sector, y por ello en un principio los grandes desarrolladores de IA se comprometieron a evitar que su tecnología se usara de forma que peligrosa o que pudiera poner en riesgo los derechos humanos.
El problema ha sido que conforme esta tecnología ha ido avanzando, los límites que en un principio habían marcado se han ido diluyendo y cada vez son más permisivas. El ejemplo de ello lo acaban de demostrar en Google, que como recogen desde The Wall Street Journal, han eliminado una importante cláusula en su política de IA.
Al parecer, ya no se puede encontrar el apartado donde Google aseguraba que no utilizarían dicha tecnología para las siguientes cuatro aplicaciones: armas, vigilancia, tecnologías que "causan o pueden causar daño general" y casos de uso que contravienen los principios del derecho internacional y los derechos humanos.
No obstante parece que han cambiado de opinión, y como publican en un comunicado en los últimos años la IA ha avanzado rápidamente y se ha extendido por todo el mundo, creando la necesidad de que empresas de países democráticos requieren esta tecnología para sus clientes gubernamentales y de seguridad nacional.
Cabe recordar que este cambio llega en un momento geopolítico de muchísima tensión donde el actual presidente de los EEUU, Donald Trump, quiere imponer aranceles a todo lo extranjero, donde también acaba de declarar que expulsará a los palestinos de Gaza, además de que China ha presentado su propio ChatGPT, llamado DeepSeek, que destaca porque es mucho más barato y por lo tanto rentable.
Los próximos meses en EEUU van a ser moviditos, y esta decisión de Google, al igual que el hecho de que los principales CEO de este sector estuvieran en la ceremonia de investidura del presidente, señalan que Trump marca el camino y las Big Tech le van a seguir.
Si llegamos a un punto donde se produce una guerra de IA, en la que los que atacan no son personas sino máquinas, nos enfrentamos a un escenario muy peligroso y difícil de controlar, algo que nos debería dar mucho miedo. Del mismo modo que si la IA llega a los sistemas de vigilancia estaremos condenamos a estar conectados y supervisados constantemente, lo que es también un grave riesgo para nuestra privacidad.
Los desarrolladores de esta tecnología hacen este tipo de cambios sin hacer mucho ruido, pero las consecuencias de acciones como estas tienen un enorme impacto en el desarrollo futuro de la IA, y los miedos y alertas que muchos expertos llevan años dando podrían ocurrir delante nuestro casi sin que nos dé tiempo a reaccionar.