jueves, 7 de diciembre de 2023

El ex-CEO de Google alerta de que la IA podría poner en peligro a la humanidad en cinco años

 



  • La IA ofrece casi tantos peligros como posibilidades, por ello es importante regularla
  • Existe un debate global entre expertos sobre cómo se debería afrontar el desarrollo de la Ia de cara al futuro



La Inteligencia Artificial (IA) ha sido el gran descubrimiento del año, ya que en cosa de unos meses la cantidad de servicios y aplicaciones que ofrecen esta tecnología para mejorar y facilitar la vida de las personas. No obstante, como suele ocurrir, no todo es bonito y hay un lado oscuro alrededor de la IA que ni los expertos se ponen en acuerdo, pero que podría ser muy aterrador.

Ya hace un poco más de un año desde la llegada de ChatGPT, la IA que comenzó la ola de nuevos proyectos y plataformas impulsadas por esta tecnología, y si bien el abanico de posibilidades que nos da la IA para bien es muy amplio, los peligros a los que nos enfrentamos tampoco se quedan muy atrás.

Y ya no hablamos de las herramientas y facilidades que ofrece esta tecnología a los ciberdelincuentes para diseñar y llevar a cabo ciberataques, sino que las preocupaciones de expertos y miembros del sector están más enfocadas en lo inteligente que puede llegar a ser la IA hasta el punto de ganar consciencia y dejar de hacer caso a lo que le dicen las personas.

El último en poner en relieve esta preocupación ha sido el ex-CEO de Google, Eric Shcmidt, quien ha asegurado que ha día de hoy no existen barreras para ponerle freno a la IA para evitar que haga "daños catastróficos".

Ha sido durante su intervención en una cumbre organizada por Axios, donde Schmidt, que ahora preside la Comisión de Seguridad Nacional sobre IA, comparó esta tecnología con las bombas atómicas que Estados Unidos lanzó sobre Japón en 1945.

"Después de Nagasaki e Hiroshima, se tardó 18 años en llegar a un tratado sobre la prohibición de pruebas y cosas por el estilo. Hoy no tenemos tanto tiempo". Lo que quiere decir Shcmidt, es que todavía estamos a tiempo de poder regular la IA para poder controlarla, como ya pidieron cientos de expertos, investigadores y personas del sector (incluído Elon Musk) en una carta.

Un tema muy controvertido

Lo cierto es que desde el auge de la IA, este tema ha sido el pan de cada día para reguladores y expertos, y lo peor de todo es que el consenso está muy lejos. Por un lado, hay un grupo entre los que se encuentra Sam Altman (CEO y fundador de OpenAI) que quieren explotar las posibilidades de la IA al máximo y hasta el final.

Estos son más partidarios de ver dónde está el límite de capacidades de esta tecnología, y una vez aquí tratar de regular y controlar lo que puede hacer o que no. De hecho, todo parece indicar que este es el motivo inicial por el que Altman fue despedido antes de ser recontratado.

Mientras que por otro lado, donde ahora también se posiciona el ex-CEO de Google o donde ya lo hizo el "padrino de la IA", esta el otro grupo que se preocupa por el rapidísimo desarrollo de esta tecnología sin que las herramientas para controlarla avancen a la misma velocidad.

Para Schmidt, lo más preocupante sería "el punto en el que el ordenador puede empezar a tomar sus propias decisiones para hacer cosas", y si son capaces de acceder a sistemas de armamento o alcanzar otras capacidades aterradoras, las máquinas podrían, como advierte el ex-CEO, mentirnos a los humanos al respecto.