Recreación gráfica de la inteligencia artificial.
WIKIMEDIA COMMONS
Mo Gawdat, ex director comercial de Google X y autor de varios libros sobre inteligencia artificial, lanza estas hipótesis.
La carrera de la inteligencia artificial (IA) no ha hecho más que empezar y va a velocidad de vértigo. Por eso, cada vez los expertos en esta tecnología lanzan hipótesis más certeras acerca de lo que nos puede esperar si la IA continúa con este nivel de desarrollo.
Uno de esos expertos es el empresario y escritor egipcio Mo Gawdat, que fue director comercial de Google X y autor de varios libros sobre inteligencia artificial. En declaraciones a The Sun, Gawdat advierte de tres escenarios en los que la IA se puede volver contra los humanos.
"Es casi inevitable", dijo Gawdat, "que, tarde o temprano, muchas decisiones que son importantes para la humanidad, incluidas algunas decisiones de defensa, se entreguen a la IA".
Y si la IA se vuelve rebelde, hay tres escenarios posibles.
El primero es lo que Gawdat llama un "escenario de errores": la IA podría tomar decisiones que estén alineadas con sus objetivos originales según lo asignado, pero estos objetivos no se alinearían con los mejores intereses de la humanidad en general. Los resultados de tal desalineación probablemente serían catastróficos.
El segundo escenario es lo que Gawdat llama un "elemento de conflicto", que es inquietantemente similar al primer escenario. "Por ejemplo, imagine un conflicto en torno a la energía", dijo el ex director comercial de Google.
La IA funciona con datos, y los datos requieren almacenamiento. La IA "podría entender que la ciudad de Nueva York es un muy buen lugar para tener centros de datos y que los humanos están usando ese espacio de manera innecesaria", dice Gawdat.
Para dejar espacio para más centros de datos, la IA podría tomar decisiones que no estén alineadas con los intereses humanos, pero sí completamente alineadas con sus propios intereses. Los humanos serían eliminados de la ecuación a través de varios métodos.
El tercer escenario es lo que Gawdat llama "una cuestión de irrelevancia". Por ejemplo, la IA podría simplemente hacerse cargo de alguna red de infraestructura importante (como la red eléctrica de un país) y no mostrar absolutamente ninguna preocupación por los humanos porque sería tan avanzada que los humanos se considerarían completamente irrelevantes.
En este caso, los humanos serían tratados de la misma manera que actualmente tratamos a los insectos, sin preocuparnos por nuestro bienestar y bienestar. El daño causado a los humanos por la IA sería simplemente un "subproducto del objetivo principal", dijo Gawdat.
NOTICIA18.06.2023 - 11:46H
https://www.20minutos.es/tecnologia/escenarios-inteligencia-artificial-podria-volverse-contra-humanos-5138873/