Pese a que hemos aceptado el reconocimiento facial con cierta normalidad, las implicaciones de esta tecnología son, como poco, inquietantes
Lo usas para desbloquear el teléfono móvil, es la tecnología que está detrás de esos filtros que te hacen más Kardashian, que te ponen nariz y orejas de perro o que te facilitan imaginar como serás en 30 años.
El reconocimiento facial es una de las revoluciones tecnológicas de la última década, presente en nuestro día a día pretende estarlo aún más, por ejemplo, siendo el añadido perfecto para las cámaras de vigilancia. ¿Estamos camino de un Gran Hermano? Estamos en 2020, no en 1984, pero parece que George Orwell se acercó bastante al concepto de mayor seguridad a cambio de menor privacidad.
LAS CÁMARAS SE QUEDAN CON TU CARA
China fue de los primeros países en utilizar el reconocimiento facial como aliado y salvaguarda de la seguridad en las calles. Allí, más de 300 millones de cámaras de seguridad, gracias a esta tecnología, detectan una cara entre una multitud en cuestión de segundos.
Aunque Estados Unidos cuenta con este sistema de detección en muchos de sus aeropuertos, en ciudades como San Francisco ha prohibido técnicas de reconocimiento facial para identificar a criminales, tal como acaban de hacerlo Oakland, Portland, Sommerville, entre otras. En España, donde no existe una legislación específica sobre reconocimiento facial, sí existe una legislación sobre protección de datos.
Alemania lo prohíbe para su policía y Francia en las instituciones educativas, mientras otras ciudades, como Londres, llevan el camino contrario. En concreto, la Policía Metropolitana londinense anunció a principios de año que la tecnología de reconocimiento facial en las calles ha superado la etapa de prueba previa y está lista para integrarse permanentemente en la vigilancia diaria de la ciudad.
Mientras, la Unión Europea planea discutir el tema anunciando una estrategia en materia de inteligencia artificial y datos para una transformación digital que sitúe en un lugar preferente a las personas. En este marco, la Comisión Europea presentó la semana pasada un Libro Blanco sobre la Inteligencia Artificial, con normas claras en ámbitos como la salud, el transporte o las actividades policiales, donde señala que los sistemas de IA deben ser transparentes y trazables, además de estar sometidos a una verificación humana.
El documento, en el que advierte a los países miembros sobre los riesgos que trae la videovigilancia masiva, contempla iniciar un debate sobre las circunstancias que podrían justificar el uso del reconocimiento facial para la identificación biométrica a distancia, que hoy en día sólo está autorizada en casos excepcionales, justificados y proporcionados. Bruselas, que también quiere que se discuta sobre las condiciones de esas excepciones, prevé un sistema de etiquetado voluntario en caso de que apliquen normas más estrictas para las aplicaciones de inteligencia artificial de menor riesgo.
No exento de generar ansiedades, el reconocimiento facial provoca polémica debido a sus implicaciones éticas y legales, una cosa es combatir el crimen y otra identificar manifestantes políticos. Los derechos humanos y la privacidad son las principales víctimas de este particular Gran Hermano. De nuevo se trata de sacrificar privacidad y libertades a cambio de aumentar la seguridad.
Para funcionar, el reconocimiento facial sólo necesita una cámara precisa y un software que, mediante algoritmos, es capaz de reconocer patrones en las facciones de la cara. Una imagen bidimensional o tridimensional crea una matriz de similitudes, un patrón que cotejar con una base de datos de cientos de miles de fotos. Aunque está en pleno desarrollo, ofrece ya mejores resultados que la biométrica por huella dactilar.
TECNOLOGÍA DEL SIGLO XIX
La primera tecnología de reconocimiento facial fue ideada por el oficial de policía francés Alphonse Bertillon hace más de un siglo. A fines del XIX, Bertillon creó un método para identificar criminales en función de sus características físicas. Las fichas asignadas a cada persona incluían 11 mediciones físicas, retratos fotográficos estandarizados y una descripción física por escrito.
En la actualidad, el rostro humano está catalogado a una escala que Bertillon no podría haber imaginado. Un camino digital que comenzó en 1994, cuando el pionero en biométrica Joseph Atick, teorizaba sobre que las computadoras podrían algún día procesar información biológica, en concreto rostros.
La idea se basaba en la forma en la que el cerebro humano procesa la información visual en casos como la pareidolia, un fenómeno psicológico donde un estímulo vago y aleatorio es percibido erróneamente como una forma reconocible, básicamente sería el reconocer patrones faciales en objetos cotidianos como unas manchas en la pared (como las famosísimas caras de Bélmez), en el moho de una tostada o en los nudos de un árbol. Atick, junto a su equipo, pasó largas noches escribiendo un software que imitara este proceso. Más de 25 años después, los principios básicos de esta tecnología siguen siendo los mismos.
¿Y CÓMO FUNCIONA?
En primer lugar, aún no existe una aplicación que reconozca o identifique en una imagen a una persona (Sarah Connor puede respirar tranquila). Para el software no entrenado, una imagen facial sólo es un puñado de píxeles que convierte en valores numéricos en función de la intensidad y dirección de la luz y la sombra. A partir de aquí puede comenzar a identificar patrones que corresponden a rasgos faciales, cuencas oculares, narices, mandíbulas o mentones.
La forma que tiene el software de identificar una cara en concreto es a través de un conjunto de referencias o puntos concretos (suelen ser aproximadamente 68) cuya distancia entre ellos y configuración son distintos para cada persona, confiriendo patrones únicos como una huella digital. También existen otros métodos más modernos de identificación como el análisis de textura superficial que mapea y cataloga la textura de la piel, como si cartografiase cada poro y cada arruga de la cara.
Por ahora, el software sólo puede reconocer una cara cuando está de frente, pero esto se puede entrenar. Si se toman datos históricos de esa misma persona de perfil o en escorzo, escalando y rotando la cara, el programa puede aprender a ajustar las imágenes faciales que están orientadas de manera diferente. Esto es observable cualquier tarde tonta distrayéndose con los filtros de Instagram, estos se ajustan al rostro del usuario mueva o gire la cara. El límite es el perfil o los ángulos imposibles, entonces es cuando desaparece la magia del filtro y sólo queda la cruda realidad.
Retomando la parte más técnica, en un principio los algoritmos de reconocimiento facial se escribían manualmente, ahora esta titánica labor ha sido sustituida por el aprendizaje automático, aunque los humanos aún están involucrados en su revisión y supervisión (Skynet tendrá que esperar).
NECESITA ENTRENAMIENTO POR HUMANOS
¿Qué comen estos algoritmos? Caras. Sí, suena crudo, como una cata gastronómica con Hannibal Lecter o una reunión familiar con Saturno. Los técnicos que trabajan en esta tecnología alimentan las bases de datos (dónde el software compara patrones y aprende) con imágenes.
Un rasgo muy humano de esta tecnología es que, como todos, tiene sus preferencias. El reconocimiento facial siente debilidad por los hombres blancos, funciona mejor a la hora de reconocer patrones en este tipo de cara, pero por qué. Antes de tachar de racista a un pobre e imparcial software, echemos un vistazo a las bases de datos con las que se le ha entrenado. Ahí está la clave, muchos sistemas de reconocimiento facial se han adiestrado con conjuntos de datos que son principalmente blancos y masculinos.
Una investigación del Media Lab del MIT (Massachusetts Institute of Technology) expuso como la tecnología de reconocimiento facial tiene 'preferencias' raciales y de género porque los sistemas están parcializados por las bases de datos que contiene y las condiciones en las que se generan los algoritmos.
Para demostrar esto, la investigadora Joy Buolamwini estableció una base de datos de 1.270 caras usando rostros de políticos. Estas se seleccionaron según el ránking de paridad de género de su país, básicamente según el número de mujeres en oficios públicos. Buolamwini probó la precisión de los sistemas de Microsoft, IBM y una empresa china, Megvii.
Durante el experimento, los softwares identificaron con mayor precisión a los hombres que a las mujeres. Siendo mucho más precisos con las personas con pieles más claras. Investigaciones como estas exculpan a los sistemas informáticos, pero evidencian la necesidad de 'alimentar' las bases de datos con imágenes más diversas para evitar estos sesgos por raza y género.
No hay comentarios:
Publicar un comentario
Nota: solo los miembros de este blog pueden publicar comentarios.