martes, 30 de junio de 2020

¿Por qué cuesta tanto regular éticamente la inteligencia artificial?

¿Por qué cuesta tanto regular éticamente la inteligencia artificial?


Profesionales y expertos discrepan sobre los límites deontológicos que deberían regir en la industria tecnológica



La media de escándalos éticos en la industria tecnológica está siendo durante los últimos años de prácticamente uno a la semana. A pesar de que este sector está redoblando sus esfuerzos para solventar estas carencias en actividades como el aprendizaje automático o la ciencia de los datos, el panorama se complica día a día.
Google es un buen ejemplo de ello. Por ejemplo, la corporación puso en marcha un consejo asesor de inteligencia artificial… e inmediatamente después tomó la decisión de disolverlo. Se pasó de la celebración masiva al escándalo mundial, tanto en los foros especializados como en los medios generalistas.



Con todo, parece evidente que las inversiones destinadas a identificar y mitigar las consecuencias de la aplicación de los algoritmos irá en paralelo al dinero gastado por las empresas e incluso las instituciones en el desarrollo de estos mismos sistemas y en el rastreo de tendencias, y todavía más tras la crisis mundial por la pandemia del coronavirus.
Académicos y profesionales llevaban unas cuantas temporadas reclamando esta orientación. Ahora tienen motivos para cantar victoria, aunque solo sea parcial y —quién sabe— temporalmente. Sin embargo, a medida que el negocio se ramifica y conforme se diversifican las intervenciones digitales en la salud, la educación, el transporte, el consumo, la cultura o la política, el propio concepto de “ética” se vuelve más resbaladizo.



Así lo subrayan expertas como Danah Boyd , autora, entre otros libros, de It’s complicated: The social lives of networked teens, quien ha observado que quienes actualmente se encargan de esta tarea están inmersos en numerosas tensiones, muchas de ellas, irresolubles. De nuevo, la Covid-19 dificulta estos análisis.
Una de las víctimas más destacadas de estas presiones ha sido la investigadora de Google y la Stanford University (Estados Unidos) Fei-Fei Li, quien, en su día, prefirió mantener en secreto una colaboración de su empresa con el ejército para no contradecir la imagen de “inteligencia artificial humanista” que se estaba instaurando.




  

No hay comentarios:

Publicar un comentario

Nota: solo los miembros de este blog pueden publicar comentarios.