Les presento a Deep Mind, una computadora capaz de aprender a jugar contra las computadoras mucho más rápido de lo que cualquier persona podría hacer. Deep Mind hace lo que usted y yo hacemos: observar patrones de conducta e intentar predecir cómo reaccionar. De momento Deep Mind se lo está pasando genial jugando a los juegos Arcade (vean en el video cómo aprende de rápido).
Digamos que Deep Mind es un adolescente feliz porque es capaz de derrotar a todas las maquinetas que nos hacían imposible la vida cuando teníamos doce o catorce años. El problema es que Deep Mind es tan increíblemente bueno y rápido aprendiendo que ha despertado algunas alarmas, entre ellas, significativamente, las de su propio creador, Shane Legg, que ha dicho que los avances en inteligencia artificial, si no se controlan bien, pueden convertirse en la amenaza número 1 para el ser humano en este siglo (parece broma pero no lo es).
En el post anterior ("Llegan los robots asesinos") traté el tema de los robots asesinos y su regulación como arma de guerra. Pero el tema que planteo ahora es, si cabe, aún más peliagudo. El que la inteligencia artificial acabara dominado al ser humano que la ha creado es una pesadilla recurrente de la ciencia-ficción. Seguro que hay lectores de este blog que pueden documentar quién fue el primero en plantear esta distopia pero está claro que el cine, desde 2001 Una Odisea del Espacio hasta Terminator ha dado buena cuenta del tema.
Pero que a guionistas y novelistas de ciencia-ficción les preocupe este tema no nos preocupa tanto (al fin y al cabo, les pagan por dibujar y simular futuros) como que un científico de verdad, de la talla de Stephen Hawking, manifieste su preocupación porque las máquinas puedan ser más listas que nosotros y tomar el control.
En una reunión con especialistas en I.A. celebrada en Sillicon Valley (ver referencia), Hawking ha planteado el contraste entre, por un lado, la lentitud con la que mejora la esperanza de vida y la calidad genética de los humanos con, por otro, la Ley de Moore, que establece la duplicación de la capacidad de las computadoras cada 18 meses. Por tanto, las mejoras genéticas y nuestro entendimiento del cerebro humano llegarán mucho más tarde que la inteligencia artificial.
Deep Mind es ahora propiedad de Google, que compró esta pequeña y prometedora empresa británica en enero de 2014 por 400 millones de dólares.Google está invirtiendo masivamente en máquinas que aprendan intuitivamente y en procesadores basados en la mente humana. Estas máquinas se programan a sí mismas como hacen los humanos, observando el entorno y aprendiendo, en un proceso llamado "Neural Turing". En su orígen está, como siempre, el cruce de dos campos científicos previamente desconectados: la neurología y la computación. ¿El responsable? Demis Hassabis, un genio de la neurociencia y de la computación (es quien explica en el video el funcionamiento de Deep Mind).
¿Será a él a quien las máquinas manden buscar o matar en el futuro? O, como señala Stephen Hawking, habremos conseguido evacuar el planeta tierra antes de que las máquinas acaben con él. Dice Hawking que las próximas amenazas para la humanidad pueden venir de la inteligencia artificial porque al paso que vamos, dentro de 1.000 años, las máquinas ya serán lo suficientemente fuertes como para poder destruirnos por accidente.
Por: José Ignacio Torreblanca | 18 de diciembre de 2014
http://blogs.elpais.com/cafe-steiner/2014/12/inteligencia-artificial-progreso-o-peligro.html
No hay comentarios:
Publicar un comentario
Nota: solo los miembros de este blog pueden publicar comentarios.