Sanidad y coches autónomos quedan fuera de la regulación que ultima la UE. Con ella se busca proteger a los ciudadanos de abusos en el uso de estas tecnologías
Asistentes virtuales, procesos de selección de empleados o contratación de un seguro. Las aplicaciones de inteligencia artificial (IA) están en el día a día del ciudadano y los avances suelen ir acompañados de advertencias sobre posibles malos usos de esta tecnología. La Unión Europea dio un paso al frente y hace un año presentó una propuesta para una normativa pionera en el mundo, que divide las tecnologías de IA en cuatro categorías en función del riesgo que puedan suponer para los ciudadanos. Pero algunos expertos apuntan que hay aplicaciones complejas que, en su redacción actual, podrían quedar fuera de regulación. Sanidad, coches autónomos y armamento, entre otras.
La UE debate los últimos flecos de la normativa sobre la IA, que podría estar lista en 2023. Una regulación que es “única en el mundo” por sus características, si bien deja aspectos importantes en zona de sombra, opina Lucía Ortiz de Zárate, investigadora en Ética y Gobernanza de la Inteligencia Artificial en la Universidad Autónoma de Madrid. Ortiz de Zárate ha presentado junto a la Fundación Alternativas comentarios a la propuesta de la Comisión. Algunos de ellos han sido recogidos en la última versión de la propuesta. Otros no.
Esta investigadora echa en falta que haya sectores sensibles que no queden incluidos en las clasificaciones de la inteligencia artificial más vigiladas, como es el caso de la sanidad. “Hay una lista larga de aplicaciones y la sanidad no aparece en ninguna”, señala. Solo se menciona que la norma velará porque las tecnologías “no supongan un riesgo para la salud”. Pero no se recogen aplicaciones que, por ejemplo, usen datos sanitarios, de salud pública, o de medicina.
Otro de los usos más conocidos de la inteligencia artificial, el de los coches autónomos, tampoco se menciona en la norma, lo que exigiría más transparencia y mayor control por parte de las autoridades. Ortiz de Zárate reconoce que existe un “debate complejo” entre cuánto se debe regular y cuánto se debe dejar de margen a la innovación para permitir avances. Tampoco se incluye en la regulación ninguna mención a las armas autónomas, cuyo funcionamiento se basa también en la inteligencia artificial.
Uno de los comentarios a la norma europea que sí se ha tenido en cuenta se refiere a la definición de inteligencia artificial, explica la investigadora de la Universidad Autónoma. El concepto de IA dejó en un momento fuera el hardware y se centró solamente en el software. “Era muy peligroso dejarlo fuera porque muchos problemas de sesgo derivan del hardware”. Ortiz de Zárate pone como ejemplos asistentes de voz como Siri, Alexa o los robots, que tienen soporte físico y son “fuentes de discriminación porque perpetúan estereotipos nocivos para la mujer” como el del “rol asistencial”. Tras los comentarios, el texto ha vuelto a incluir el hardware dentro de la definición. El concepto de inteligencia artificial “no depende tanto de qué técnicas se usan, sino de las funcionalidades”, asevera.
Además, la investigadora cree que la norma de las aplicaciones de bajo riesgo debería ir más allá de un mero código de conducta. “Son las aplicaciones que más usan los ciudadanos”, por lo que habría que intentar acabar con sesgos como el de género “que parecen menores pero que son frecuentes”. Pueden, por tanto, suponer un “coladero de estereotipos” si no se les pone freno.
PLANTEAMIENTO BASADO EN EL RIESGO, CON CUATRO NIVELES
- Inadmisible. La normativa de inteligencia artificial prohibirá un conjunto limitado de sus usos “especialmente nocivos”, es decir, aquellos que contravienen los valores de la Unión al violar los derechos fundamentales. Por ejemplo, abusos como el social scoring (puntuación social por parte de los Gobiernos, una práctica que se lleva a cabo en China), o el uso de los puntos débiles de los niños para algún fin comercial.
- Riesgo alto. Son aplicaciones problemáticas y que potencialmente pueden llegar a violar los derechos humanos, pero se entiende su uso justificado en determinadas situaciones. La UE las legaliza bajo requisitos muy severos. Entre otros, en este grupo se incluye la identificación biométrica, la gestión de la migración y de fronteras o aplicaciones de suministros de agua y gas.
- Riesgo limitado. Se considera en este grupo aquellos sistemas de IA que, sin suponer un riesgo elevado para los ciudadanos, sí se les impone obligaciones específicas de transparencia cuando exista un riesgo claro de manipulación. En particular, con el uso de robots conversacionales.
- Riesgo bajo. Todos los demás sistemas de IA pueden desarrollarse “con arreglo a la legislación vigente” sin obligaciones adicionales. Lucía Ortiz de Zárate pone el foco en este grupo, que “debería tener algo más de regulación”. Por ejemplo, se deberían incluir sanciones si hay empresas reincidentes o en caso de representaciones “ofensivas”.
23 ABR 2022 - 14:47 CEST
https://cincodias.elpais.com/cincodias/2022/04/22/companias/1650633300_124970.html