- La falta de regulación clara sobre los algoritmos dispara los riesgos
- Los sesgos de estos problemas pueden llevar a que una compañía discrimine sin darse cuenta
- Las consultas a los despachos se multiplican
El año 2023 ha sido el del impulso definitivo al uso de la inteligencia artificial (IA) en las empresas. El desembarco de las variedades generativas, encabezadas por Chat GPT, ha terminado de convencer a cientos de miles de negocios de todo el mundo de la necesidad de implantar esta tecnología para no quedarse atrás. Pero a falta de una legislación clara se abre un escenario de incertidumbre en materia laboral que puede traducirse en un alud de demandas y sentencias judiciales por motivos que pueden ir desde la discriminación a la prevención de riesgos.
Precisamente la IA generativa ha disparado la preocupación de las empresas por la forma en la que sus propios trabajadores la emplean. Por ejemplo, que compartan información 'confidencial' de la empresa con esos programas, como al escribir código en un chatbot o pasar documentos internos por un traductor en línea. Por no hablar de la posible vulneración de derechos de autor. Pero este no es el principal riesgo que afrontan a corto plazo.
La pasada semana, la Unión Europea alcanzó un acuerdo sobre la denominada 'Ley de Inteligencia Artificial' (Artificial Intelligence Act), el reglamento por el que se regirán las normas de cada país miembro a la hora de regular esta tecnología. En paralelo, los ministros de Trabajo lograron un acuerdo sobre la directiva de trabajadores de plataformas digitales. Una norma inspirada por la 'Ley Rider' española, vigente desde 2020 y que, entre otras cuestiones, se propone reforzar el control sobre el uso de algoritmos e IA para tomar decisiones que afecten a los trabajadores, incluyendo los despidos.
Pero la primera tardará al menos dos años en concretarse en verdaderas leyes de cumplimiento en cada país, mientras que la normativa española reduce la supervisión a la obligación de "informar" al comité de empresa "de los parámetros, reglas e instrucciones" de los algoritmos. Se acompañó, eso sí, de una guía y un cuestionario para cumplir con esa obligación.
Muchas empresas consideran que, a día de hoy, estas garantías legales son insuficientes para los propios empleadores que aplican estas tecnologías para gestionar sus plantillas. El problema es que, aunque se cumpla con los requisitos, nada impide que las decisiones basadas en una tecnología en constante evolución acaben desembocando en un sin fin de demandas judiciales.
Un claro precedente
El principal precedente de un frente judicial de este tipo en España son, precisamente, las plataformas digitales de reparto. Aunque la cuestión se centraba ante todo en la existencia (o no) de una relación laboral entre empresas y prestadores de servicios, el uso de tecnologías de monitorización y evaluación laboral también suponía un problema por sí mismo.
La situación actual es mucho más compleja, porque la inteligencia artificial permite la extensión de estas herramientas a todo tipo de negocios y, potencialmente, a todos los trabajadores. Lo que multiplica el alcance de las derivadas legales.
"Se avanza por un pasillo en penumbra, pero sale a una sala con luz y taquígrafos", resume Juan Grangel, Of Counsel en Baker McKenzie, en declaraciones a elEconomista.es. La legislación española puede no estar muy al día en materia de inteligencia artificial, pero deja bastante claro cuando las decisiones de una empresa vulneran los derechos laborales.
¿Pero qué ocurre si esta no es consciente de haber hecho algo mal porque se ha dejado guiar por herramientas automatizadas? Aunque la inteligencia artificial introduce una problemática completamente nueva, sus efectos y consecuencias legales no lo son en absoluto. Y esto es lo que se juzga: el algoritmo no es una coartada
Grangel pone como ejemplo los riesgos laborales. Que este tipo de programas se usen para la distribución de tareas, unido a la "monitorización constante", pueden llevar a situaciones de sobrecarga de trabajo, estrés e incluso bajas. ya se están produciendo actuaciones de la Inspección de Trabajo por este motivo, con las pertinentes sanciones. Un peligroso precedente para un riesgo al alza que "requiere un esfuerzo de análisis de 360 grados".
Una guía de sesgos
Su compañera en el área laboral del despacho y especialista en el uso de la inteligencia artificial, Paula Talavera, destaca que las empresas afrontan el riesgo de caer en cuatro sesgos de inteligencia artificial. El primero deriva de las bases de datos utilizadas por los programas. El segundo, de las variables introducidas (por ejemplo, premiar la presencia sin tener en cuenta las circunstancias de bajas por enfermedad o maternidad). El tercero, similar, son los sesgos de correlación, que discriminan indirectamente (por ejemplo, al valorar la velocidad en ejecutar una tarea perjudica a los trabajadores con algún tipo de discapacidad).
Esos tres son detectables en las fases de implantación del programa informático. Pero el último, y más preocupante, son los efectos sesgados que solo se detectan después de empezar a usarlos. Unas distorsiones que se manifiestan a pesar de que se han tomado todas las precauciones. Un ejemplo célebre son los sistemas automatizados para filtrar candidatos que acaban priorizando unas etnias sobre otras.
Aunque la legislación europea apunta a eliminar estos sesgos, hoy por hoy las empresas están expuestos a ellos. Ni siquiera el hecho de que la Ley Rider española introduzca la obligación de informar al comité de empresa supuso una mejora inmediata de la supervisión, ya que muy pocos sindicatos los solicitaron tras la entrada en vigor de la norma.
Esto empieza a cambiar ahora. Talavera constata que se ha producido un repunte sustancial de esta peticiones con el 'boom' de la inteligencia artificial generativa. En cualquier caso, el peso de los convenios que regulan el uso de los algoritmos sigue siendo muy reducido.
En este escenario, una de las herramientas más útiles es la guía que el Ministerio de Trabajo elaboró para acompaña a su norma, un documento que en su momento fue criticada por los propios sindicatos por ser demasiado general y no suponer un freno a las malas prácticas. Talavera incide en que las empresas pueden encontrar información útil sobre los riesgos que puede presentar esta tecnología. Y además sigue siendo válido incluso tras la irrupción de la nueva generación de algoritmos.
En cualquier caso, las empresas recurren con mayor frecuencia que nunca a los despachos para asesorarse y resolver sus dudas antes de implementar estos sistemas de inteligencia. Paradójicamente, las dudas sobre estos riesgos superan con creces a las relativas a ajustes de plantilla por la automatización, el mayor temor de la mayoría de trabajadores.