miércoles, 27 de junio de 2018

Por qué no te contratan aunque lo merezcas

Foto: Los candidatos que desaparecen antes de ser vistos por un humano. (iStock)
Los candidatos que desaparecen antes de ser vistos por un humano. (iStock)

¿Es posible ser el mejor y que te descarten en la primera criba? Un nuevo análisis pone de manifiesto que el 98% de las grandes empresas utiliza sistemas automáticos de selección

Encontrar una oferta de trabajo, enviar nuestro currículum, esperar y esperar sin que nunca llegue respuesta. Es un proceso conocido por millones de españoles que hayan buscado un nuevo empleo durante los últimos años, después de que apareciesen plataformas como Infojobs que mediaban entre los departamentos de recursos humanos y los candidatos. Un sistema que por su facilidad y accesibilidad favorecía que el número de aspirantes se disparase, y con él, la dificultad de gestionar la información. La aparición de sistemas de gestión de datos está permitiendo a las compañías automatizar gran parte del proceso, de forma que no haya que revisar uno por uno todos estos documentos. Un algoritmo hace el trabajo sucio.
Quien hace la ley, hace la trampa. La mayoría de los sistemas de cribado de datos prometen que, además de acelerar el proceso, eliminan los inconscientes sesgos humanos de la ecuación, lo que en teoría daría lugar a procesos más justos, basados únicamente en el mérito. Sin embargo, son cada vez más las investigaciones que ponen de manifiesto que estas herramientas en apariencia neutrales no lo son. Como recordaba recientemente el escritor Andrew Smart, los algoritmos son creaciones humanas, y como tal, recogen y amplifican los prejuicios implantados en nuestra sociedad.
Estas herramientas pueden hacer que hasta un 72% de los currículos nunca sean vistos por un humano
Un elocuente ejemplo es el que fue descubierto por un grupo de investigadores de la Universidad de Carnegie Mellon, a partir del análisis de 1.000 usuarios simulados que visitaron 100 páginas distintas de búsqueda de empleo. El algoritmo de Google terminó mostrando a los hombres anuncios de puestos más prestigiosos y mejor pagados y, a las mujeres, servicios de empleo de menos calidad, a pesar de que el comportamiento de unos y otros había sido el mismo. Algo corroborado por otro estudio realizado en la Universidad de Washington con empleos en el sector de tecnología o ingeniería. Estos les aparecían menos a las mujeres que a los hombres, porque estas son consideradas un grupo demográfico de mayor valor y, por lo tanto, los anuncios son más caros.
Separando el grano de la paja
El último grito en los recursos humanos de las firmas multinacionales y de gran tamaño son los sistemas automatizados de seguimiento de candidatos. En inglés, 'applicant-tracking system' (ATS). Su objetivo es, ante todo, aligerar los procesos de selección cuando hay un gran número de currículos por analizar. En lugar de ir uno por uno comprobando que los requisitos básicos aparecen recogidos, una tarea prácticamente mecánica, el sistema filtra las solicitudes a partir de variables como habilidades, palabras clave, años de experiencia, universidad donde se ha estudiado o antiguas empresas en las que se ha trabajado.
Siempre hay un robot para hacer el trabajo sucio. (iStock)
Siempre hay un robot para hacer el trabajo sucio. (iStock)
Las start ups que ofertan estos sistemas (en EEUU, la más popular es Taleo) prometen que esta herramienta puede llegar a hacer que un 72% de los currículos nunca sean vistos por un humano. Si bien estos son vulnerables a sus propios prejuicios –se ha escrito mucho acerca de los favoritismos inconscientes de los seleccionadores de personal, generalmente hacia las personas que se parecen a ellos mismos–, esta criba hace que sea difícil distinguir el prejuicio inscrito en el algoritmo. Entre otras razones, porque se centra en el lenguaje utilizado y en la búsqueda de determinados términos ('keywords'), lo que hace que sea relativamente subjetivo.
Varios ejemplos. Estas herramientas buscan aquellas palabras que el seleccionador cree que deberían figurar en el currículo del candidato, por lo que si no están presentes, es descartado. Primer problema: no utilizar la terminología adecuada –y cada entorno laboral tiene su propia jerga– puede cercenar desde un primer momento tus posibilidades de conseguir un empleo. Otra dificultad es la utilización de determinados términos por parte de la empresa. Un artículo de 'Harvard Business Review' ponía el ejemplo de “ninja del código” ('coding ninja', experto en varios lenguajes de programación), un estereotipo que suele encajar con un varón joven. Otros sistemas, como Hirevue, analizan las expresiones faciales y el lenguaje corporal de los candidatos, como si dichas pistas fuesen una ciencia exacta. Si mantienes la vista fija en la cámara, bien; si mueves los brazos, mal.


El GDRP limita estos sistemas, pero no los prohíbe: el candidato tiene derecho a que un humano participe en el proceso
¿Cuántas empresas utilizan esta clase de sistemas? Según un análisispublicado esta misma semana, más del 98% de las empresas de la lista Fortune 500, que recoge a las 500 mayores sociedades anónimas estadounidenses. En España, es más opaco conocer con exactitud qué compañías lo emplean. La filial española de Unilever, por ejemplo, ha desvelado que utiliza un sistema semejante, implantado en la compañía desde finales de 2016. En su caso se mezcla el análisis automático del currículo con los juegos online y una entrevista virtual a través del sistema Hirevue, en la que se filtra entre el 60 y el 80% de los candidatos.
En Europa, el Reglamento General de Protección de Datos que entró en vigor el pasado mes de mayo limita la aplicación de estos sistemas (sobre todo, los que se basan en el perfilado), aunque no los prohíbe. Según el artículo 22, “el sujeto de los datos tiene derecho a no ser sometido a una decisión basada únicamente en el procesamiento automático” así como a disponer de información sobre el criterio de criba. Además, según el articulado 22.3, en determiandos casos, el sujeto puede tener derecho a exigir que un humano participe en el proceso.

Hackeando el sistema

Herramientas como el ATS convierten la búsqueda de trabajo en una especie de videojuego masivo en el que vence el que aquel que ha descubierto cómo funciona el sistema, no necesariamente aquel que haya acumulado más méritos o disponga de mejores habilidades. Por ello abundan los artículos en los que se enseña al lector a 'hackear' el sistema, por ejemplo, simplificando el formato de texto, utilizando tanto el término completo como el acrónimo de tu posición (si eres 'community manager', añade también 'CM') o colocando la información más relevante en la parte superior de la página. Por supuesto, cualquier error a la hora de deletrear una palabra te descartará inmediatamente. No por chapucero, sino porque el sistema no encontrará el término.
A este chico le pasa de todo. (iStock)
A este chico le pasa de todo. (iStock)
Estos sistemas han dado lugar, irónicamente a una nueva ola de programas y servicios informáticos que revisan los currículos de los usuarios y los adaptan para que los sistemas automáticos no los descarten a la primera de cambio. Uno de ellos, por ejemplo, desvela algunos de los principios básicos, como listar tan solo entre 5 y 10 habilidades. Así pues, ha nacido una nueva industria de servicios para empresas y servicios para candidatos: quizá el gran ganador sean las start ups que ofertan tanto el veneno como su remedio por una módica cantidad. Compañías como Entelo o Textio, empresa dedicada a la “escritura aumentada” que utiliza el análisis de datos para optimizar el lenguaje utilizado en la comunicación empresarial.
Como lamenta la profesora de la Escuela de Negocios Kellogg en la Universidad del Noroeste Lauren A. Rivera, autora de 'Pedigree', en el que analiza cómo las familias de élite copan los empleos de élite, “uno de los peligros de esta clase de algoritmos es que la gente puede confiarse al estar basados en datos”. Es el gran giro final. Si la subjetividad inconsciente del seleccionador había dado lugar la aparición de leyes y estrategias antidiscriminación, la aparente objetividad de estos sistemas puede provocar que se empleen sin ninguna clase de reflexión posterior.
Aunque estos procesos poseen cierta utilidad para las empresas, debemos cuestionarlos para asegurarnos de que representan toda la verdad

La mayor parte de expertos suelen coincidir en que es necesario afinar “humanamente” estos sistemas revisando y valorando a posteriori las decisiones que se han tomado para identificar los posibles sesgos ocultos. De lo contrario, es posible que ocurra lo que advierte un grupo de investigadores liderados por Ifeoma Ajunwa de la Universidad de Columbia y Suresh Venkatasubramanian del Harverford College a aquellos que consideran esta clase de algortimos como un oráculo “sabelotodo e infalible que proporciona las respuestas que el peregrino intrépido persigue”. Una visión aún muy naïf y simplista de la verdadera naturaleza de estas herramientas, a las que se atribuye propiedades casi mágicas. “El oráculo de Delfos decía la verdad, pero una verdad que estaba oculta bajo varias capas, planteada en forma de acertijo, y con muchas posibilidades de interpretación”, advertían al final del texto, titulado 'Contratando con algoritmos'.
“El peregrino que no se tomaba tiempo para interrogar por completo al oráculo lo hacía a su cuenta y riesgo, partiendo con una respuesta aparentementesimple pero muy vulnerable a la mala interpretación”. Los algoritmos que deciden quién sigue en el proceso y quién no, funcionan de forma muy parecida: “Aunque estos procesos matemáticos computerizados poseen cierta utilidad para las empresas y organizaciones a la hora de automatizar el proceso de contratación, debemos seguir cuestionándolos para asegurarnos de que las respuestas que obtenemos y su interpretación representan la verdad completa y que esta promueve nuestra meta común de una sociedad justa e equitativa”.



AUTOR
HÉCTOR G. BARNÉS     
26/06/2018

No hay comentarios:

Publicar un comentario

Nota: solo los miembros de este blog pueden publicar comentarios.