DREAMSTIME EXPANSION
Europa ya ha movido ficha. Empresas y expertos coinciden: el desarrollo de la IA requiere del freno de la éticae incluso de regulación para evitar los efectos indeseables del uso creciente de algoritmos.
La semana pasada, la Unión Europea propuso poner límites al desarrollo de la inteligencia artificial (IA) para garantizar que se respetan los derechos fundamentales. Bruselas considera que los sistemas de alto riesgo deben ser "certificados, probados y controlados", como ocurre con los automóviles, los cosméticos y los juguetes. Para otros sistemas de IA, la Comisión propone un etiquetado voluntario.
Semanas antes, Sundar Pichai, consejero delegado de Google, publicó una carta en la que aseguraba no tener "la menor duda" de la necesidad de regular la inteligencia artificial. Pichai subrayaba la necesidad de que los Estados aborden este desafío bajo el paraguas de una coordinación internacional construida sobre "un acuerdo sobre los valores fundamentales", explicaba. "Las empresas como la nuestra no pueden simplemente diseñar nuevas tecnologías prometedoras y dejar que las fuerzas del mercado decidan cómo utilizarlas", decía el ejecutivo.
¿Somos conscientes realmente de los efectos no deseados de la IA? Hablamos de violación computacional de la privacidad, de discriminaciones algorítmicas y sesgos, de falta de transparencia, de falta de veracidad en deepfakes o de manipulación subliminal del comportamiento humano, como explicaba recientemente Nuria Oliver, una de las mayores expertas en España en IA, en un foro de OdiseIA, un think tank sobre inteligencia artificial.
Con la IA podemos inferir atributos personales a partir de información pública, dice Oliver. Y no podemos obviar los sesgos, como el que tenía el algoritmo de reclutamiento que descartó Amazon tras darse cuenta de que discriminaba a las mujeres para puestos técnicos. Mientras, en Holanda, un tribunal ha vetado el uso de un algoritmo predictivo utilizado por el Gobierno para estimar qué contribuyentes tenían más probabilidades de defraudar a la administración porque considera que puede "discriminar a los ciudadanos". En otro efecto pernicioso, el caso Cambridge Analytica puso de manifiesto que se pueden usar algoritmos para manipular subliminalmente el comportamiento humano.
Jesús Cardeñosa, profesor del departamento de IA de la UPM, matiza que no es cierto que la IA pueda "pensar por sí sola". "Detrás siempre hay personas que han tomado una decisión porque una máquina no es capaz de autoprogramarse", recuerda.
VISIÓN ÉTICA
Dado que es el hombre quien programa estos algoritmos, es inevitable que proyecte sus sesgos. Eduard Aibar, doctor en Filosofía y profesor de Estudios de Artes y Humanidades de la UOC, apunta a que todas las tecnologías incluyen en su diseño técnico "juicios de valor de forma o no deliberada, que están ahí aunque a menudo cueste verlos, como es el caso de los algoritmos para el análisis de big data". Y no solo juicios éticos (qué es bueno o no hacer) sino también políticos o sociales. "Si estos juicios no se convierten en objeto de debate público, la tecnología acaba incorporando únicamente los de sus creadores, a menudo fuertemente sesgados", reflexiona Aibar, quien alerta de que así se crea una "inercia" que puede ser "difícil de cambiar" cuando nos parezcan negativas sus consecuencias.
Es decir, que en el desarrollo de la IA no se puede obviar el necesario freno ético. Como apunta Francisco Pérez Bes, coordinador del área de Derecho y Economía Digital de Gómez-Acebo & Pombo, si no es así, abrimos la puerta a un "elemento tremendamente destructivo" que podría llevar aparejado "un aumento de injusticias, discriminaciones, daños y, por qué no decirlo, a poner en peligro el propio sistema democrático". El problema añadido, dice, es que no hay "un concepto único y universal de la ética humana".
REGULACIÓN
¿Es necesario entonces regular? La Unión Europea está convencida de ello, como pone de manifiesto con la presentación del libro blanco europeo sobre IA, en el que queda patente que Europa quiere liderar el enfoque ético respecto a esta tecnología, convencida de que es la única vía para que los ciudadanos confíen en el desarrollo digital, y la base para generar una ventaja competitiva para las empresas europeas.
Pichai llamaba también su carta a una regulación que pueda proporcionar "una pauta general" y que, al mismo tiempo, permita una implementación personalizada en diferentes sectores. Y ponía ejemplos: el marco normativo actual supone un buen punto de partida para los dispositivos médicos regulados que incluyen monitores cardíacos asistidos por IA, pero en el caso de los vehículos autónomos, considera que las autoridades deberán "crear una normativa adecuada que tenga en cuenta todos los costes y beneficios que se derivan".
Francisco Pérez Bes cree que "es necesario establecer un marco regulatorio que permita dar seguridad jurídica a las personas", ya sea creando nuevas normas o actualizando las ya existentes.
En última instancia, se trata de "proteger los derechos humanos y los valores de la sociedad", dice este jurista.
La vía de la autorregulación
Aunque la autorregulación es insuficiente, es muy probable que enlos próximos años muchas empresas asuman voluntariamente compromisos en sus desarrollos de IA. Telefónica fue primera operadora que se marcó unos principios para desarrollar una IA "ética, responsable y transparente", hace ya más de un año. La Comisión Europea publicó el año pasado un documento con siete puntos para lograr una IA fiable, para lo que se requiereque sea conforme a la ley, respete los principios éticos y sea sólida. Así, debería tener siempre una supervisión humana con medidas de control. Además, debe ser sólida frente a ataques abiertos como a tentativasmás sutiles de manipulación, y verificablemente segura en cada fase. Se debe garantizar la protección e integridad de los datos, así como la transparencia, documentando y explicando el proceso de toma de decisiones detrás de los proyectos.La CE explica que los desarrollos deIA deben garantizar la no discriminación y la equidad, así como el bienestar social y medioambiental. Por último, los responsables deben rendir cuentas, permitiendo la auditoría de los sistemas de IA y señalando y reduciendo al mínimo los potenciales impactos negativos.
A nivel europeo, en su opinión, lo primero es establecer una estrategia clara de la IA, y una vez que se vea el impacto real, replantearse si el haz normativo vigente es o no suficiente y eficaz. "El marco regulatorio deber ser lo suficientemente claro y robusto para que la regulación no perjudique la capacidad innovadora del país", apunta.
El máximo responsable de Google instaba a una coordinación . Lo deseable sería que esta regulación fuera lo más universal posible, pero como recuerda Eduard Aibar, es "muy discutible que legislaciones de orden local puedan ser realmente efectivas en un ámbito en el que, tanto la investigación y el desarrollo, como la aplicación tienen lugar en marcos transnacionales".
Richard Benjamins, vicepresidente de OdiseIA y Chief AI & Data Strategist de Telefónica, recordaba en el foro de la asociación que es necesaria una regulación en aplicaciones de alto riesgo, dejando la autorregulación para el resto de los casos.
"La autorregulación empresarial parece casi un oxímoron", dice por su parte Aibar, quien señala el caso de Cambridge Analytica como ejemplo de lo ocurrido en redes sociales con respecto a la privacidad. "Las grandes empresas no sólo no se han autorregulado, sino que han incumplido de forma notoria la legislación vigente".
M. PRIETO MADRID Actualizado: 01/03/2020 23:44 horas
https://www.expansion.com/economia-digital/innovacion/2020/03/01/5e56abf0468aeb681a8b45fd.html
No hay comentarios:
Publicar un comentario
Nota: solo los miembros de este blog pueden publicar comentarios.