sábado, 1 de diciembre de 2018

Cómo lograr que el ‘Big Data’ no genere injusticia

Cómo lograr que el ‘Big Data’ no genere injusticia
El Big Data puede ahondar en las desigualdades. (Digital Vision Vectors)

Analistas y empresas introducen rectificaciones en los datos masivos para 
que el tratamiento de la información a gran escala resulte menos discriminatoria

Los algoritmos ignoran qué es la ética. Ni la equidad.Han sido diseñados con otros objetivos. Y en esos cometidos sí suelen ser eficientes. Pero las reflexiones de carácter moral les resultan ajenas. Esta idea de la profesora de la Universidad de California en Berkeley (Estados Unidos) Deirdre Mulligan culmina con una frase demoledora:“Los datos no son justos”. Sin embargo, cabe preguntarse si algún día podrían llegar a serlo. Muchos colegas de esta docente están convencidos de que sí.
Para los programadores, el deep learning, que resulta más complejo que los algoritmos que lo han predecido, dificulta el reto. El blindaje de la información para evitar intromisiones en la privacidad de las personas impide que vigilantes externos sepan dónde incidir para que el big datano acabe siendo discriminatorio incluso sin saberlo. No obstante, los profesionales deben acometer este desafío con convicción porque, como afirma la docente de la Universidad de Nueva York (Estados Unidos) Kate Crawford, “estos sistemas van a influir en nuestras principales instituciones sociales”.

Los algoritmos suelen ser eficientes en los cometidos para los que han sido diseñados, pero ignoran qué es la ética ni la equidad


Las fake news en Facebook durante la campaña presidencial norteamericana en 2016 constituyen el paradigmade lo que puede suceder. Los algoritmos de la red social no fueron pensados para distinguir la verdad de la mentira. Lo que hacían era dar una mayor circulación a aquellas piezas que satisfacían el gusto del usuario. Como lo más popular en aquel momento no necesariamente estaba contrastado, gozó de una difusión extra por parte de un soporte tan poderoso como éste. La inteligencia artificial fue tóxica sin pretenderlo en ningún momento, como advertían Mulligan y Crawford.
Otra investigadora, Timnit Gebru, vinculada a la Universidad de Stanford (Estados Unidos), añade que la discriminación que pueden introducir estas herramientas es grave, por ejemplo, a la hora de rechazar posibles asegurados si pertenecen a un determinado colectivo que sale mal parado en un análisis masivo de datos. Contra todas estas desviaciones luchan Radha Basu y su empresa, iMerit, cuyos clientes —Microsoft, eBay, Tripadvisor y Getty Images, entre ellos— les pagan para que cataloguen material de internet mitigando cualquier tipo de sesgo.
La plantilla de esta compañía puede considerar que el mismo plato de curry es “suave” en India o “picante” en Europa. No sería exacto etiquetar la fotografía de esta comida de una única manera. Igualmente, al buscar imágenes de una “boda”, sería poco preciso encontrar solamente instantáneas de novias occidentales vestidas de blanco, ya que, en otros lugares del mundo —Asia, África, etc.—, las parejas contraen matrimonio, aunque no necesariamente siguiendo los mismos ritos y convenciones.
Esta amplitud y variedad en el tratamiento de los contenidos se consigue con trabajadores con diferentes niveles de educación y procedencias, y con un 53% de mujeres. La organización sin ánimo de lucro AI4ALL, que también promueve la diversidad, está centrada en la tecnología para niñas y adultas en contextos que les son poco favorables. Para las más pequeñas, hay actividades en grupo, como programas de verano con mentores, con la finalidad de “ganar pluralismo” en esta parcela, en palabras de su máxima responsable, Tess Posner.



No hay comentarios:

Publicar un comentario

Nota: solo los miembros de este blog pueden publicar comentarios.