Vaciar o tirar nuestras botellas de agua antes de pasar el control aéreo puede parecernos ahora una medida habitual cada vez que viajamos en avión, -aunque este verano los aeropuertos hayan estado bastante vacíos-. Pero hace 19 años comenzaron a ponerse en marcha unos sistemas de supervisión más estrictos antes de embarcar propiciados por los acontecimientos del 11 de septiembre del 2001. Esta fecha marcó un punto de inflexión en cuanto a política, terrorismo y las guerras que acontecieron después, pero también fue el inicio de una serie de medidas que fuimos aceptando en favor de nuestra seguridad.
A raíz de estos sucesos que horrorizaron al mundo, los viajes en avión y otras disposiciones más sutiles fueron calando en nuestra sociedad. Tras el shock postraumático del atentado, empezamos a convencernos poco a poco de la necesidad de ceder nuestra privacidad a los cuerpos de seguridad, organismos gubernamentales y empresas de diversa naturaleza que se ofrecían a protegernos, especialmente en EE UU, donde la psicosis era más patente. Las bases de datos se fueron alimentando de identidades faciales pero a la ciudadanía no se nos ocurría pedir nada a cambio, ni siquiera permiso. Todo sea por la seguridad.
Una década después, cuando la tecnología parecía estar suficientemente madura, empezaron a instalarse los primeros sistemas de reconocimiento facial en aeropuertos. El primero en estrenarlo fue el de Tocumen, en Panamá, que ostentaba cierta fama de zona de paso de contrabandistas y crimen organizado. En 2011 el gobierno de este país se asoció con el de los EE UU para probar un programa piloto de la compañía FaceFirst con el fin de prevenir el tráfico de ilícitos. Y fue tal el éxito que lo expandieron a otras terminales.
Actualmente, todos los aeropuertos internacionales canadienses utilizan un sistema de reconocimiento facial. Australia y Nueva Zelanda emplean uno fronterizo llamado SmartGate, que compara de forma automática el rostro del viajero con los datos de su pasaporte electrónico. Y desde 2018, la Oficina de Aduanas y Protección Fronteriza de EE UU lo implementó para los pasajeros que toman vuelos internacionales.
¿Y en España? Sí, aquí también llegó el pasado año a los aeropuertos de Menorca y la terminal 4 de Madrid-Barajas con un programa piloto. Según Aena, el objetivo que se persigue, además de incrementar la seguridad, es agilizar el proceso de acceso al avión para que pueda realizarse sin necesidad de mostrar la tarjeta de embarque ni la documentación de identificación.
Pero el país más a la vanguardia y controvertido, que con diferencia ha cubierto gran parte de su territorio con equipos de reconocimiento facial, es China. No solo ha instalado esos dispositivos biométricos en estaciones de tren y aeropuertos, también en edificios de oficinas, atracciones turísticas, centros comerciales o entradas a mezquitas. En algunas ciudades pueden encontrarse cámaras de vigilancia instaladas cada cien metros, aproximadamente. Su policía lleva estos sistemas incorporados en gafas y cascos, y se emplea en diversidad de situaciones, desde facturar una maleta, a realizar pagos. Una ley obliga a las empresas a registrar los parámetros biométricos faciales del usuario de cualquier teléfono móvil nuevo y hasta se ha impulsado mediante subvenciones, el desarrollo de tecnología de identificación facial con mascarillas.
Gobiernos y agencias de seguridad de todo el mundo utilizan ya estos métodos de reconocimiento para identificar criminales, cadáveres en la medicina forense, buscar menores desaparecidos o prevenir del fraude documental. En Europa aún estamos bastante lejos de las cifras de dispositivos de vigilancia del gigante asiático, aunque Reino Unido se desmarca del continente en el número de cámaras instaladas. Se estima que hay más de cuatro millones. Solo en Londres habría unas 500.000, frente a las 25.000 de París, o las 219 de Madrid -dedicadas a la seguridad-.
Los métodos de reconocimiento facial dedicados a vigilancia masiva tuvieron que esperar hasta la segunda década del siglo XX, en parte porque los primeros intentos mostraron que los resultados estaban lejos de ser los deseados. La primera vez que se utilizó en un acontecimiento de grandes proporciones fue en la Super Bowl de 2002, que resultó, en general, un fracaso. Numerosos falsos positivos mostraron que la tecnología no estaba aún preparada para las grandes multitudes. A partir del 2015, las fuerzas policiales del Reino Unido empezaron a probarla también para eventos públicos en vivo, pero un informe realizado por Big Brother Watch encontró que estos métodos seguían devolviendo resultados hasta un 98% imprecisos.
Una de las trabas para que funcione correctamente entre grandes multitudes puede ser dificultad de obtener una imagen de calidad. El Sistema de Reconocimiento Facial de la INTERPOL (IFRS) almacena imágenes faciales enviadas por más de 160 países, lo que la convierte en una base de datos única en el ámbito policial. Este sistema, puesto en marcha a finales de 2016 ha logrado identificar a más de 650 delincuentes, prófugos y desaparecidos. Pero su web ya advierte que la calidad de las imágenes es un aspecto esencial y que aquellas que solo posean una resolución media o baja pueden no conseguir o influir negativamente en la precisión de la búsqueda.
En dicha página se especifica que “lo ideal sería disponer de una fotografía de pasaporte conforme a la norma OACI, ya que se trata de una imagen frontal completa de la persona con iluminación homogénea en el rostro y un fondo neutro”.
Pero fuera del ámbito de la seguridad, ya vimos cómo la inteligencia artificial aplicada a este ámbito asomaba en nuestras redes sociales como algo inocente y original allá por el 2010, cuando Facebook lo incorporó para reconocer las caras de nuestros amigos en las fotografías que subíamos y las etiquetas que le proporcionábamos. Su uso se extendió rápidamente y hoy se encuentran en muchos de los smartphones y aplicaciones que utilizamos a diario.
Las polémicas sobre el uso de la biometría se han alzado principalmente al descubrirse que algunas empresas y organismos utilizaban la información recopilada para otro propósito diferente del autorizado. Este asunto ha estado en el centro del debate sobre ética y privacidad desde el 2001, propiciado a su vez por un vacío legal en la aplicación de las nuevas tecnologías de la información.
En los últimos meses, las controversias sobre su uso han aumentado, impulsadas en parte por el movimiento Black Lives Matter, en respuesta al cual que diferentes organismos han empezado a recular acusando excesivo control y posible promoción del racismo y la injusticia social. Amazon o IBM daban un paso atrás. San Francisco ya se había convertido el pasado año en la primera gran ciudad de EE UU en prohibir a todas las agencias locales, entre ellas la policía, el uso de técnicas de reconocimiento facial. El desarrollo de la inteligencia artificial ha ido más deprisa que su propia legislación o el consenso de una ética que aplicar, temas aún pendientes que nos llevan al momento actual y al próximo y último capítulo de esta serie.
Por
Olivia López Bueno
4 SEP 2020 - 21:11 CEST
https://retina.elpais.com/retina/2020/08/11/tendencias/1597139929_517193.html