viernes, 12 de junio de 2020

IBM y Amazon abjuran de la tecnología de reconocimiento facial por su sesgo racista

IBM y Amazon abjuran de la tecnología de reconocimiento facial por su sesgo racista


Reconocimiento facial de una joven en el aeropuerto de Ciudad del Cabo (Sudáfrica), en mayo del 2019 (David Malan / Getty)

Estos productos están desde hace años en la diana de los activistas por los derechos humanos


Las protestas contra el racismo y la brutalidad policial en Estados Unidos se han cobrado una victoria más esta semana con la decisión de IBM de abjurar de la tecnología de reconocimiento facial y desaconsejar su uso por parte de las agencias del orden. Anoche, presionada por la decisión de su competidor, Amazon anunció una moratoria de un año en el uso de su software por parte de la policía. La razón, las preocupaciones por su sesgo racista.
“Creemos que es el momento de comenzar un diálogo nacional sobre si la tecnología de reconocimiento facial debe ser empleada por las agencias de policía nacionales y en qué condiciones”, afirma Arvind Krishna, director ejecutivo de IBM, en una carta enviada al Congreso el lunes. “Luchar contra el racismo es más urgente que nunca”, afirma Krishna, que anuncia que IBM ha puesto fin a sus productos “generales” de reconocimiento facial y no avalará el uso de ninguna tecnología con fines de “vigilancia masiva, discriminación racial y violaciones de derechos humanos”.
 
Los sistemas de reconocimiento facial basados en la inteligencia artificial están desde hace años en la diana de los activistas por los derechos humanos. Diferentes estudios han demostrado que discriminan a los negros y personas de piel oscura en general, pero en especial a las mujeres, a las que tiene más problemas para distinguir. La Unión de Libertades Civiles de América (ACLU) demostró en el 2018 la escasa fiabilidad del programa de Amazon, Reckognition, al aplicarlo a fotos de los miembros del Congreso de EE.UU: el software identificó incorrectamente a 28 personas como autores de delitos cuyos responsables ya estaban entre rejas.

TECNOLOGÍA IMPERFECTA


El 93% de errores al identificar por el rostro de Microsoft afectan a personas de piel oscura


Un estudio del MIT Media Lab concluyó en el 2018 que, aunque la precisión media de estos productos oscila entre el 93,4% y el 87,9%, las diferencias en función del color de piel y el sexo son notables, hasta el punto de que el margen de error entre identificar a un hombre blanco y una mujer negra es del 34% mayor en el caso del software de IBM; el 93% de los errores cometidos por el producto de Microsoft afectaba a personas de piel oscura, y el 95% de los fallos de Face++, una alternativa china, se refería a mujeres.
“La iniciativa de IBM es un primer paso” para conseguir que las empresas sean responsables y promuevan “una inteligencia artificial imparcial y responsable”, celebra Joy Buolamwini, coautora del estudio del MIT y fundadora de Algorithmic Justice League. “Es un dulce reconocimiento de que la tecnología de reconocimiento facial, en especial en manos de la policía, se ha usado para violar los derechos humanos y hacer daño a los ciudadanos negros en particular, así como a los indígenas y gente de color”.
Desde la muerte bajo custodia policial de George Floyd, las demandas para que las agencias del orden deje de utilizar programas de reconocimiento facial, como ya han hecho San Francisco y Oakland, se han intensificado. Su uso ha ido a más en los últimos años. Según el diario The New York Times, cientos de agencias del orden usan estas tecnologías en EE.UU. Una de las últimas empresas en entrar, discretamente, en el sector es Clearview, una oscura compañía que se nutre de imágenes recopiladas en las redes sociales y la red en general.

IMPLICACIONES MAYORES


Los individuos con antecedentes penales sufren discriminaciones socioeconómicas


El reconocimiento facial no es un sector de peso en las actividades de IBM,más volcada actualmente en los servicios en la nube, pero “su naturaleza simbólica es importante”, afirma Mutale Nkonde, investigadora de inteligencia artificial en Harvard y Stanford. Más importante es el papel de Microsoft y Amazon, cuyo programa Rekognition es utilizado por varios departamentos de policía del país norteamericano.
Rekognition es “la tecnología de vigilancia más peligrosa jamás creada”, según la ACLU, que la semana pasada fustigó la doble moral de Amazon al expresar en Twitter su “solidaridad con la comunidad negra” al tiempo que sigue vendiendo su software a fuerzas del orden. La compañía, que tiene acuerdos con 400 departamentos de policía para compartir las grabaciones de Ring, su timbre inteligente, emitió un comunicado en el que reivindica un uso “adecuado” y “transparente” de estas tecnologías para garantizar la protección de los derechos humanos. Anoche, la compañía de Jeff Bezos cedió.
“Esperamos que una moratoria de un año dé tiempo al Congreso para aprobar las reglas necesarias” para un uso ético de estas tecnologías, anunció Amazon en su blog. El software seguirá a disposición de diversas organizaciones dedicadas a la localización de niños extraviados, menores explotados sexualmente o víctimas de la trata de seres humanos, aclaró la compañía, deslizando así que no solamente es útil para las agencias del orden.
Las implicaciones de una identificación incorrecta tomada a partir de algoritmos pueden tener consecuencias a largo plazo. Como recuerda el estudio del MIT Media Lab, puede llevar a condenas penales y a posteriores discriminaciones a la hora de comprar o alquilar una vivienda, estudiar, trabajar o pedir un crédito que afectarán de por vida a estas personas, estigmatizadas socialmente. Estas prácticas, combinadas con la desproporcionadamente alta de encarcelamientos de la población negra, es una de las razones detrás de su pertinaz situación de desigualdad económica frente a los blancos.

  

No hay comentarios:

Publicar un comentario

Nota: solo los miembros de este blog pueden publicar comentarios.