Miles de trabajadores de países en vías de desarrollo ”entrenan” a los sistemas de aprendizaje automático de grandes y pequeñas compañías tecnológicas (CHANDAN KHANNA / AFP)
Numerosas compañías que promocionan sistemas de IA utilizan en realidad ejércitos de personas que supervisan y perfeccionan el trabajo de las máquinas
En términos económicos, una “burbuja” define el proceso por el cual un producto o servicio genera, a menudo a causa de la especulación, un interés anormal o incontrolado entre los inversores, compradores o usuarios –y en consecuencia, sube su precio o su uso- durante un periodo prolongado de tiempo. Varios indicios apuntan que en el sector de la tecnología se está produciendo un fenómeno de este tipo de la mano de la inteligencia artificial.
Sendos reportajes publicados en los últimos días por la prensa estadounidense abonan esta hipótesis. The Wall Streel Journalrevelaba la semana pasada el último ejemplo de un reguero de casos con un denominador común: empresas que “venden” sistemas de inteligencia artificial que en realidad son servicios desarrollados en su mayor parte por personas. WSJ explica en un reportaje que la startup india Engineer.ai, una compañía que ofrece una plataforma para desarrollar aplicaciones para dispositivos móviles en muy poco tiempo gracias a la inteligencia artificial, emplea en realidad a un ejército de programadores en India que hacen el trabajo atribuido al software automatizado. El diario denuncia que esta empresa ha logrado más 30 millones de financiación en los últimos meses engañando a los inversores sobre el tipo de tecnología que ofrece.
Trabajo precario
Lo que la IA esconde
No es una práctica infrecuente. Muchas otras empresas han intentado “colar” plataformas de inteligencia artificial que en realidad eran productos que funcionaban casi exclusivamente gracias a las manos y las mentes humanas. Un reportaje mucho más extenso y documentado publicado la semana pasada por The New York Times arroja luz sobre los métodos que utilizan las grandes compañías tecnológicas para entrenar a sus sistemas de inteligencia artificial. El artículo explica que en países como la India multitud de personas trabajan para empresas subcontratadas por los gigantes de internet. Su labor consiste en sentarse ante una pantalla de ordenador al menos ocho horas para corregir, supervisar o perfeccionar los sistemas de aprendizaje automático (machine learning) que desarrollan estas grandes empresas.
El perfil y las atribuciones de estos trabajadores, que ocupan oficinas atestadas a la manera de los ‘call-centers’ y cobran sueldos precarios –aunque suficientes para vivir con holgura en los países en vías de desarrollo- son muy variados: algunos se dedican durante toda su jornada laboral a revisar vídeos de intestinos humanos con el fin de identificar pólipos, inflamaciones, coágulos de sangre o cualquier otra señal que indique una posible enfermedad en el colon; otros escuchan durante todo el día audios de tosidos humanos, para determinan cuáles de ellos advierten de una posible enfermedad respiratoria; también hay especialistas en identificar peatones y señales viales en imágenes aéreas de carreteras; los menos afortunados se ven obligados a realizar tareas igualmente tediosas pero mucho menos agradables, como supervisar vídeos que contienen imágenes pornográficas o de violencia explícita.
Todo este trabajo de etiquetado de datos sirve para entrenar a los sistemas de aprendizaje automático basados en inteligencia artificial. La finalidad es que en un futuro –que se antoja algo más lejano de lo que algunas empresas tecnológicas auguran- los sistemas de atención médica automatizada o los coches sin conductor se acerquen lo más posible a la perfección, así como impedir que las imágenes nocivas lleguen a las redes sociales de uso masivo.
En cualquier caso, la realidad es que a día de hoy la supervisión humana sigue siendo fundamental para que los sistemas de inteligencia artificial sean eficaces, pese a que muchas compañías presuman de disponer ya de este tipo de tecnología a pleno rendimiento.
Sobrevaloración
El 40% de las startups clasificadas como empresas IA no lo son
Esta “sobreestimación” de sus recursos es una práctica cada vez más habitual no solo en Estados Unidos, sino también en Europa. Según un estudio publicado por la sociedad de capital de riesgo MMS, el 40 por ciento de las ‘startups’ europeas que están clasificadas como empresas de Inteligencia Artificial realmente no poseen ninguna tecnología de este tipo en sus negocios.
La empresa realizó un estudio de 2.830 empresas clasificadas como empresas IA procedentes de los 13 países de la Unión Europea más activos en esta tecnología (entre los que incluye España), donde evaluó la actividad, el enfoque y la financiación de cada empresa.
En el informe (‘El Estado de la IA: Divergencia 2019’) se concluye que sólo en 1.580 ‘startups’ (60%) había pruebas (de su material, web, documentos y productos) que indicaran la existencia de la tecnología de inteligencia artificial, lo que significa que el resto de los casos no eran empresas IA, ya que no se encontró ninguna prueba ni etiqueta que verificara el uso de este tipo de tecnología.
David Kelnar, el jefe de investigación de MMC comunicó a Forbes que estas ‘startups’ en realidad no se promocionaban como empresas de IA como tal, sino que eran clasificadas de esta forma por empresas terceras de analítica web. Pero más allá de que sean las propias compañías u otros actores del mercado los que tomen la iniciativa de promocionarse como empresas de IA, la realidad demuestra que publicitar que se dispone de esta tecnología influye en su valor público. Según Forbes, las ‘startups’ etiquetadas como empresas IA atraen entre un 15 y 50 por ciento más de financiación que otras empresas tecnológicas.
Invasión de la privacidad
Personas que escuchan a personas
El hecho de que no sean sólo máquinas sino también personas quienes están detrás de sistemas supuestamente “automatizados” plantea problemas adicionales al fraude al usuario (o al inversor) que supone esconder esta información. El más evidente tiene que ver con la pérdida de privacidad, como se demostró con el escándalo destapado este mismo verano cuando se desveló que personas al servicio de los principales gigantes tecnológicos espiaban las conversaciones que sus clientes mantienen a través de sus asistentes virtuales.
A principios de julio, un canal de televisión belga relevó que personas contratadas por Google estaban escuchando algunas de las interacciones que los usuarios mantienen con el asistente virtual de la empresa. Poco después, Amazon, Apple y Facebook reconocieron prácticas similares. La última gran compañía en sumarse a estas revelaciones fue Microsoft, que hace unos días también admitió que “escucha” grabaciones de algunas de las conversaciones que los usuarios mantienen con su asistente personal Cortana, con el servicio de traducción de Skype e incluso a través de su videoconsola Xbox One.
La lógica que opera detrás de esta práctica es que, pese a los avances en inteligencia artificial (la tecnología en la que se basan ambos servicios), todavía es necesaria de vez en cuando la intervención humana para hallar posibles fallos y contribuir a la mejora de la calidad. La inteligencia artificial se basa en sistemas de aprendizaje automatizado, por los que la máquina “aprende” a procesar información y a “pensar” como un humano, pero para ello necesita ejemplos que le sirvan de muestra a partir de los cuales pueda desarrollar patrones que le permitan crear un modelo lógico.
De hecho, si un error cometido por un sistema de inteligencia artificial no es detectado durante un tiempo largo, el aprendizaje automatizado podría hacer que la máquina asumiese ese error como algo correcto y en lo que basar futuras decisiones, lo que empeoraría todavía más su funcionamiento.
Comunicación imprecisa
Distintas reacciones de los gigantes tecnológicos
Se trata de prácticas que se vienen haciendo desde el mismo momento en que se pusieron en funcionamiento estos servicios y que son conocidas dentro del sector, pero que en muchas ocasiones no han sido comunicadas de forma precisa o transparente al público, lo que ha generado cierto ruido mediático a raíz de las publicaciones mencionadas.
“La inteligencia artificial todavía no está en el nivel en el que pueda interpretar la conversación humana”, lo que significa que las empresas deben confiar en el monitoreo para ayudar a capacitar a los sistemas”, explica Jennifer King, directora de privacidad del consumidor en el Centro de Internet y Sociedad de la Facultad de Derecho de Stanford. “Pero el gran problema desde mi perspectiva es la no divulgación. Los usuarios no saben claramente lo que está sucediendo’, explica la experta.
Las empresas han reaccionado de forma distinta: mientras que Google y Apple anunciaron que suspenderán el programa mientras se dan un tiempo para revisarlo, Microsoft ha optado por seguir con él pero dejando claro en la política de uso qué tipo de acciones están llevando a cabo.
“Para construir, entrenar y mejorar la precisión de nuestros métodos automatizados de procesamiento (incluyendo la inteligencia artificial), revisamos manualmente algunas de las predicciones e inferencias producidas por nuestros métodos”, admite la página de Microsoft.
No hay comentarios:
Publicar un comentario
Nota: solo los miembros de este blog pueden publicar comentarios.