Recolectar recursos y construir un buen ejercito es la base de 'StarCraft' (Blizzard)
- Los mismos algoritmos que han llevado a un super-computador a derrotar a los mejores jugadores de Go pueden aprender tácticas militares imparables
El Ministerio de Defensa británico ha emitido un artículo científico en el que advierte de los grandes riesgos de enseñar a elementos de inteligencia artificial tácticas bélicas a través de los videojuegos y simulaciones.
”Para 2020 esto se convertirá seguramente en un problema real”. Así de tajante son algunas de las conclusiones del reporte, fechado a 17 de mayo de este año. Las preocupaciones no van tanto por técnicas bélicas de campo real, más bien por la capacidad de adaptación que se consigue.
La robótica y la inteligencia artificial tienen el potencial para ser tecnologías militares transformadoras al nivel de la radio, los aviones y las armas nucleares”
En la actualidad, los programas más avanzados pasan por incorporar múltiples especialidades para conseguir que las máquinas aprendan solas a base de acierto y error, pero a una velocidad increíblemente rápida gracias a los super computadores actuales. El ordenador parte con las reglas básicas del juego y comienza a jugar millones de partidas contra sí mismo. Cuando pierde, adapta sus decisiones y corrige para el futuro. Esto crea un aprendizaje ultra-acelerado y retroalimentado imparable.
Es el método utilizado por DeepMind, la filial británica de Google, que consiguió desarrollar algoritmos que aplastaron a los mejores jugadores humanos de Go el año pasado. Múltiples tácticas de Go, considerado el juego de mesa más complicado, fueron dominadas por los algoritmos de DeepMind en cuestión de semanas, e incluso desarrolló sus propias nuevas.
La compañía empezó a experimentar estos protocolos de aprendizaje con videojuegos multi-jugador como StarCraft, un título militar de estrategia en tiempo real que combina unidades militares de diversa índole, recursos naturales y logística que representan una versión simple de un entorno militar real. Es precisamente esta adaptación la que preocupa al gobierno de Reino Unido. Una flexibilidad hasta hace unos años impensable, que puede “acabar en manos de cualquier actor geopolítico”.
Una vez desarrollado, el software “puede ser replicado con coste cero” con lo cual si un grupo terrorista o ciber-delincuentes organizados se apropian de tecnología similar, podrían preparar un ataque digital sobre instalaciones eléctricas o centrales nucleares, siendo capaces de adaptar su estrategia automáticamente ante las respuestas de cualquier medida de defensa existente.
El objetivo del informe era aclarar cómo identificar y aprovechar las ventajas de equipos combinados de humanos y máquinas, y guiar un desarrollo futuro de estrategia de defensa en cuanto a automatización y autonomía. Es decir: cómo utilizar los sistemas de aprendizaje automático (un subconjunto de inteligencia artificial) para identificar y detener amenazas, y para ofrecer nuevas formas y ritmos de ataque digital, coordinados con los militares humanos.
El gobierno británico identifica el liderazgo civil en este área, avisado que “Varias empresas de Silicon Valley y de China invierten más al año en investigación robótica y de IA que el gobierno de Estados Unidos” en esos mismos campos. También indica que el acceso a esta tecnología o la colaboración con estas compañías, será clave para los gobiernos en épocas de enfrentamiento directo, pero que representa retos.
Una de esas empresas, Google, está sufriendo una sostenida queja interna por parte de sus empleados por colaborar con el Pentágono ofreciendo sus tecnologías de reconocimiento de imagen para analizar los vídeos de los drones desplegados en diferentes conflictos bélicos actuales. El reto es doble: las empresas líderes pueden negarse a ofrecer su tecnología para fines militares, pero también supone conseguir a los mejores académicos para desarrollar tecnología militar de este ámbito, que encuentran salarios muy superiores en la empresa privada.
No hay comentarios:
Publicar un comentario
Nota: solo los miembros de este blog pueden publicar comentarios.