jueves, 20 de febrero de 2020

Elon Musk pide regular la inteligencia artificial para evitar un cataclismo

Elon Musk pide regular la inteligencia artificial para evitar un cataclismo


La inteligencia artificial avanzada puede superar a la inteligencia humana en un periodo de entre 15 o 25 años. (Westend61 / Getty)


Algunos teóricos señalan que en 15 o 25 años las máquinas superarán el intelecto humano y podrán perfeccionarse rápidamente sin intervención del hombre



A la revolución industrial del siglo XIX le debemos muchas de los avances científicos, económicos y sociales de los dos últimos siglos. Aunque también nos deja algunas sombras: sobre todo la creciente contaminación del planeta y el cambio climático. No hay duda de que aquel fue un proceso traumático.
Engels lo describió en su ensayo La situación de la clase obrera en Inglaterra. En esta obra el sociólogo señalaba cómo los campesinos británicos al emigrar del campo a la ciudad vieron como sus condiciones de vida empeoraban. Paradójicamente emigraban para mejorar su vida.

Muchos señalaron a las primitivas máquinas de vapor como las responsables de que se destruyeran gremios enteros de oficios en el siglo XIX


Una de las reacciones que produjo la industrialización fue destruir máquinas. Pues muchos señalaron a las primitivas máquinas de vapor como las responsables de que se destruyeran gremios enteros de oficios. Hoy nos encontramos ante una tesitura similar: la inteligencia artificial puede provocar cambios más radicales que los de llegada de la era industrial en el siglo XIX.
Entre los que advierten del papel negativo que puede jugar la inteligencia artificial en el futuro hay figuras de gran prestigio en la industria tecnológica. Aunque probablemente Elon Musk, director ejecutivo de Tesla, es el más conocido. Hoy mismo en su cuenta de Twitter pedía una regulación legislativa de esta tecnología.

Además criticaba el papel que cada vez más está desempeñando Open AI por un artículo publicado en MIT Technology Review sobre esta organización sin ánimo de lucro. Open AI nació con la idea de salvaguardar el uso que se puede hacer de la inteligencia artificial mientras se impulsa su desarrollo.
De hecho Open AI tiene un manifiesto que es lo más parecido a código de buenas prácticas para la industria tecnológica de la inteligencia artificial. Open AI cuenta con la contribución de grandes empresas, como Microsoft. Que ha inyectado importantes sumas de dinero en esta organización. Entre sus fundadores estaba el propio Elon Musk, que dejó la organización y ahora incluso reniega de ella.
Worth reading Superintelligence by Bostrom. We need to be super careful with AI. Potentially more dangerous than nukes.
3.048 personas están hablando de esto

Aunque Elon Musk ha pedido el control gubernamental incluso para la tecnología inteligente que pueda producir su propia empresa, Tesla, lo cierto es que el principal peligro al que apuntan los críticos de esta tecnología, como Musk, es la denominada singularidad tecnológica.
Este término designa el momento en el que una inteligencia artificial será tan inteligente como un humano. A partir de ese momento y si nos atenemos a la rápida evolución de la tecnología, recordemos que la ley de Moore indica que cada dos años se duplica la potencia de cálculo de los ordenadores, se produciría un crecimiento exponencial de la tecnología artificial. Uno de los escenarios que se contemplan es que mejoraría rápidamente así misma creando una superinteligencia.

La singularidad tecnológica designa el momento en el que una inteligencia artificial será tanto o más inteligente que la humana, algo que puede ocurrir en 15 o 25 años


¿Qué sucedería entonces? Esta es la gran pregunta que muchos intentan responder. Es difícil saber si una inteligencia creada por el hombre mejoraría la vida de la humanidad, venciendo retos como buscar la cura de enfermedades o atajar el problema del cambio climático, o provocaría nuestra extinción. De la misma forma que la llegada del homo sapiens explicaría en parte la desaparición de los neandertales de la faz de la tierra.
No necesariamente las máquinas inteligentes tendrían que atacarnos, como suele suceder en la ciencia ficción. Aunque tampoco ese escenario es descartable. Quizá simplemente a una superinteligencia le sería indiferente nuestra existencia, de la misma forma que casi nadie repara en seres vivos diminutos o microscópicos.

Pero esa indiferencia hacia nuestra especie puede ser peligrosa. Las máquinas podrían utilizar para otros fines los recursos de los que hoy dispone el hombre.Lo que sabemos seguro es que estamos ante un gran enigma. Por muchos estudios que se realicen, no hay respuestas claras sobre lo que provocaría la creación de una inteligencia superior a la nuestra. Esto no quiere decir que cualquier inteligencia artificial suponga una amenaza.
Raymond Kurzweil, director de ingeniería de Google, en su libro La singularidad está cerca, marca una fecha para la llegada de lo que se denomina inteligencia artificial fuerte: el año 2045. Aunque algunos adelantan esa fecha para dentro de sólo 15 años.

La inteligencia artificial que sirve para usos concretos incluso en el peor de los casos no resulta una gran amenaza


Esta inteligencia artificial fuerte tendrá puntos en común con la inteligencia artificial que hoy usamos, que mayoritariamente busca resolver problemas concretos. Como ser capaz de reconocer una voz o hacer de intérprete entre personas que hablan diferentes idiomas. Algo que no resulta una gran amenaza por muy mal uso que se haga de estas herramientas.
Aunque es cierto que el uso de la inteligencia artificial para usos concretos puede provocar la destrucción de puestos de trabajo, no parece que la actual inteligencia de las máquinas pueda provocar nuestra extinción. Los defensores de la inteligencia artificial dura, la que desarrollaría un pensamiento tan complejo como el nuestro o incluso superior, defienden que en vez de acabar con el hombre este salto tecnológico nos permitirá mejorar como especie.

Los defensores de la denominada inteligencia artificial fuerte, forman parte de una corriente de pensamiento denominada transhumanismo


Es lo que defienden los defensores del transhumanismo, una compleja corriente de pensamiento que en esencia defiende que la evolución de la humanidad se dará fusionando nuestros cuerpos y nuestras mentes con las máquinas. Para de esa forma incluso acabar con el propio concepto de muerte.
El ensayista Mark O’Connell en su libro To be a machine analiza el transhumanismo de forma crítica. Retratando también las sombras de sus seguidores, entre los que se encuentran poderosos ejecutivos de corporaciones tecnológicas, y la ambición desmedida por lograr el viejo sueño de la inmortalidad.

Los defensores de la inteligencia artificial fuerte aspiran a fusionar al hombre con la inteligencia artificial para a largo plazo evitar la muerte como hoy la conocemos


Hace algunos años Google, una de las empresas que más ha desarrollado la inteligencia artificial mediante la técnica del aprendizaje profundo, patentó la idea de crear un de botón rojo que destruiría una inteligencia artificial si tiene un comportamiento aberrante. Incluso aunque este comportamiento fuese inofensivo.
Un ejemplo de esto sería que una máquina aprendiese a realizar trampas para ganar en un juego. En ese tipo de casos es cuando habría que pulsar el botón rojo. El problema es que hay empresas que quizá no pulsen ese botón para lograr que sus inteligencias artificiales alcancen un mayor grado de inteligencia.
En alguna ocasión Elon Musk ha comparado el peligro que puede llegar a tener la inteligencia artificial con el de las armas nucleares. Es imposible hoy saber si la comparación es exagerada o no, pero cabe preguntarse qué hubiese sido del mundo si el arsenal nuclear en vez de estar en manos de los gobiernos hubiese estado en manos de empresas.

Elon Musk ha comparado el peligro que puede suponer la inteligencia artificial fuerte con las armas nucleares

  

No hay comentarios:

Publicar un comentario

Nota: solo los miembros de este blog pueden publicar comentarios.