La tecnología pesa cada vez más en los procesos de selección (Stanislaw Pytel / Getty)
La inteligencia artificial se abre camino en la contratación y evaluación de plantillas, un proceso lleno de incógnitas
El tsunami tecnológico de la digitalización está llegando también a la gestión de los trabajadores. No se trata de augurios recogidos en sesudos informes sobre el futuro de los recursos humanos. Las primeras aplicaciones de los algoritmos ya están aquí. Comienzan a usarse en los primeros estadios de procesos de selección de personal, hacen posible que plataformas de ofertas de empleo pongan en contacto a millones de trabajadores con miles de empresas que buscan cubrir puestos de trabajo.
La inteligencia artificial y el tratamiento masivo de datos hacen posible analizar una cantidad ingente de información, establecer patrones y dibujar perfiles, y, todo ello, en un abrir y cerrar de ojos. Así, algunas empresas utilizan estas potentes herramientas tecnológicas para evaluar la idoneidad de los candidatos para un puesto. Y, según destacan los expertos consultados, también irán teniendo un papel cada vez más relevante en otras decisiones empresariales sobre la plantilla: sueldos, ascensos, formación, asignación de equipos..., basándose en evaluaciones de rendimiento o de capacidades emocionales. “Es un fenómeno incipiente”, puntualiza Rubén Berrocal, director de Randstad Technologies. “La mayoría de los casos actuales tienen que ver con la primera fase en el reclutamiento de personal, por ejemplo, con la criba inicial de currículums”.
Berrocal forma parte de los expertos que defienden que la decisión final sobre a quién contratar quedará siempre en manos de una persona y no de una máquina. “El factor humano es determinante. Hay un componente emocional insustituible que tiene que pesar a la hora de valorar el encaje entre un candidato y su responsable”.
El potencial de la inteligencia artificial es enorme, aunque queda mucho camino por recorrer. “Lo más relevante es tener buenos datos. Aún estamos lejos de contar con información bien registrada”, señala Vicenç Álvaro, director general de estrategia del candidato de Manpower Group, donde ya trabajan, por ejemplo, con algoritmos que ofrecen información adicional a los entrevistadores, como que el aspirante se muestra nervioso, por lo que es posible que esté mintiendo. O miden si está distraído durante la entrevista de trabajo o permiten la construcción de “un mapa que detecta el estado emocional de un candidato por la voz”.
Los más optimistas resaltan la enorme capacidad de los algoritmos para “detectar talento” abriendo el espectro con la información disponible sobre la idoneidad de los que optan a un puesto de trabajo y permitiendo llegar a profesionales que estaban fuera de radar.
En un reciente informe del Instituto Cuatrecasas sobre inteligencia artificial y recursos laborales, destaca que la tecnología asume tareas más administrativas y da la oportunidad de que los responsables de recursos humanos se dediquen a la “verdadera gestión y toma de decisiones”.
Más allá de discernir qué papel acabará teniendo la máquina en la toma de decisiones, la aplicación de procesos automatizados plantea un debate ético, cuando está al alcance de la mano crear patrones con los que separar a los candidatos con tendencia a la depresión o llevar el registro con todos los movimientos de los trabajadores. “A más poder, más responsabilidad”, advierte la directora de producto de InfoJobs, Caroline Ragot, un portal que gestiona de forma automática el encaje entre 2,5 millones de personas que buscan empleo y 100.000 ofertas mensuales.
Inicios
La aplicación de los algoritmos a las relaciones laborales “es un fenómeno incipiente”
Adrián Todolí, profesor de Derecho del Trabajo en la Universitat de València, llama la atención sobre los sesgos que pueden arrastrar los aparentemente imparciales algoritmos. “No es cierto que sean neutros, porque aprenden y se basan en la realidad, que puede estar sesgada. Y porque alguien ha programado ese algoritmo, por lo que es posible que haya volcado sus prejuicios”. “En las cribas iniciales, se corre el riesgo de que muchas personas ni siquiera lleguen a la mesa del responsable de recursos humanos”, avisa Todolí. Por ello, se muestra partidario de que las decisiones estén en manos, en última instancia, de un ser humano.
Por su parte, Hermógenes del Real, profesor del departamento de Organización de Empresas en la Universidad Autónoma de Madrid (UAM), defiende que este tipo de programas son muchísimo más precisos que los test convencionales aplicados en recursos humanos durante décadas, porque los algoritmos van aprendiendo y trabajan con decenas de millones de combinaciones.
Retos
Los expertos consideran que la primera barrera es contar con una gran cantidad de información relevante
La carga de la prueba del riesgo de discriminar no está en la máquina, opina Del Real, también director de operaciones de la comercializadora del algoritmo ADNe, utilizado en Latinoamérica para seleccionar personal y, en empresas españolas, para analizar aspectos emocionales como la fidelidad a la organización o la felicidad de los trabajadores. Primar a los hombres sobre las mujeres, a los jóvenes sobre los mayores o a una determinada etnia lo fija la empresa que encarga la selección, puntualiza.
En la misma línea, Álvaro sostiene que “la ética no ha de estar en el proceso, en la metodología; los valores parten de la empresa”. Para evitar abusos y sesgos, Todolí coincide con Del Real en pedir que se expliciten los criterios con los que se toman todas estas decisiones. “Los trabajadores tienen derecho a saber por qué no han sido seleccionados, por qué han recibido un plus o por qué han sido despedidos”.
Ragot señala que las posibles discriminaciones y sesgos se combaten con grandes volúmenes de datos. En el informe de Cuatrecasas, recomiendan a las compañías asegurarse “de que los algoritmos con los que opera la inteligencia artificial estén todo lo libres posible de los prejuicios que hayan podido introducir, consciente o inconscientemente, no sólo los programadores sino también los derivados de la información de la que día a día se nutre la inteligencia artificial”, tanto de comportamientos humanos cotidianos como los derivados de muestras no representativas de la población.
La directora de producto de Infojobs explica además que han tomado otras medidas, como “evitar que el algoritmo tenga en cuenta” variables como la edad y el sexo, cuando el programa recomienda determinadas ofertas, así como indicar a los usuarios el grado de “compatibilidad” con una oferta.
Mientras, el profesor de la Universitat de València apoya que la negociación colectiva controle “los datos que una empresa maneja sobre su plantilla”. Y que los representantes de los trabajadores también intervengan en la comprobación de que los algoritmos usados en la compañía no son discriminatorios.
Y Álvaro pide una reflexión profunda sobre qué datos son necesarios para fichar al mejor profesional, para gestionar la plantilla. “¿Realmente hay que pedirle a la máquina que busque y tenga en cuenta el pasado de nuestros padres o cómo son nuestros amigos en Facebook?”.
No hay comentarios:
Publicar un comentario
Nota: solo los miembros de este blog pueden publicar comentarios.