El ámbito de los recursos humanos se ve impactado como tantos otros por el uso de la inteligencia artificial, una tendencia en ascenso para seleccionar personal y que arrastra el conflicto de la discriminación de género, porque la tecnología se ha entrenado con bases de datos sesgadas durante décadas.
AltoDirectivo
Según el portal Infojobs, el 65% de las empresas ya utilizan la IA durante el proceso de selección de personal. Ahora bien, estudios internacionales sobre la materia, como la 2025 Global Guide to AI in Hiring, de la empresa HireVue, revela que un 66 % de los más de 4.000 encuestados de todo el mundo se muestra contrario al hecho de que la IA tome decisiones finales sobre a quién contratar. A las puertas del 8M, el Día Internacional de la Mujer, esta cuestión pone sobre la mesa una problemática oculta: la discriminación algorítmica en los procesos de selección que perpetúan e incluso amplifican la discriminación de género si no se aplican medidas que lo corrijan. Expertos de la Universitat Oberta de Catalunya (UOC) abordan este debate desde una mirada poliédrica, que engloba el vertiente tecnológico, psicológico y legal.

Meritxell Beltrán, de los Estudios de Economía y Empresa de la UOC y experta en el impacto de los algoritmos en la igualdad de género, avisa de que "es muy importante tener presente que estos trabajan con la información que les proporcionamos. Si queremos que haga una elección curricular, le tenemos que dar las pautas para que sepa qué currículums nos interesan y nos los destaque entre otros mostrándole casos de éxito". En este sentido, advierte que "si estamos buscando a una persona para una posición que está muy masculinizada en las relaciones laborales, como una directiva o de responsabilidad, que siguen acaparadas por hombres, la IA entiende que este es el perfil que queremos, puesto que es un caso de éxito que hay que copiar en perfiles futuros". Esto hace que se estén "perpetuando las discriminaciones en el mundo laboral, reforzando la segregación vertical en las relaciones laborales", reitera la experta de la UOC.
Para Beltrán, los algoritmos sin pautas antidiscriminatorias "son una nueva forma de ejercer la discriminación sistémica que han sufrido y sufren las mujeres en el mundo laboral: la misma discriminación con una nueva forma de ejercerla". Afirma que "el gran reto que tenemos con la selección de personal mediante la IA y sus sesgos" es dejar de atribuirle neutralidad. "La tecnología será neutra si trabajamos para que lo sea", subraya.
Sin embargo, la situación actual se podría revertir. Beltrán explica que hay muchos mecanismos que pueden servir para trabajar con algoritmos de forma ética y aportar transparencia a los procesos de selección de personal: pone como ejemplo la "formación en sensibilización en género, en ética algorítmica y en normativa antidiscriminatoria". Además, en las auditorías algorítmicas, "es necesario que se pregunten, por ejemplo, qué le estamos dando como modelo de éxito al algoritmo", señala. Estas medidas se podrían conseguir a través de la negociación colectiva, apunta la profesora de la UOC: "Cuando se negocian los convenios colectivos, los planes de igualdad o los pactos de empresa con la representación de la plantilla, se debe situar como punto relevante un uso ético de los algoritmos en la selección o la promoción del personal para evitar seguir perpetuando la discriminación sistémica de las mujeres en el mundo laboral".

Más allá de las implicaciones tecnológicas del uso de la IA en los procesos de selección, el sesgo del algoritmo también tiene efectos en la cultura de la empresa y la percepción de justicia de los candidatos sobre la supuesta objetividad de la tecnología. Enrique Baleriola, profesor colaborador del máster universitario de Filosofía para los Retos Contemporáneos de la UOC, afirma que existe una tendencia a pensar que la tecnología es "más neutral, racional, potente y objetiva" que las personas, y apenas se hace una segunda reflexión más profunda ante una respuesta obtenida por algún sistema tecnológico, una dinámica que se reproduce también en los procesos de selección. Los candidatos que saben que la IA ha intervenido en el proceso pueden experimentar "una sensación de impotencia ante la llamada 'brecha invisible', que supone el hecho de ser descartado por un algoritmo sin llegar a hablar con un humano. Cuando la decisión es responsabilidad de un algoritmo, los motivos y el proceso que han llevado a la decisión se invisibilizan", remarca Baleriola.
Así pues, esta tecnología estaría reproduciendo el machismo sin posibilidad de réplica, advierte el experto: "Si los algoritmos y las herramientas de machine learning son machistas y discriminatorios es porque los propietarios de esas megacompañías tecnológicas, nuestras sociedades y las empresas también lo son. Las máquinas no tienen vida propia y "no hacen nada que no se encuentre ya en las bases de datos con las que trabajan, creadas durante décadas a partir de información y datos sesgados y discriminatorios". Por eso, señala el experto, "las tecnologías mantienen el statu quo social respecto a la discriminación contra las mujeres y otros colectivos: si los hombres hacen trabajos racionales y de fuerza, las mujeres hacen los de cuidados; y si los hombres logran puestos de más responsabilidad, las mujeres "continúan bajo el techo de cristal".
La profesora Eugènia Revilla, de los Estudios de Derecho y Ciencia Política de la UOC, explica que la IA en recursos humanos se regula con un sistema multinivel que combina garantías constitucionales, normativa laboral, protección de datos y derecho europeo. El derecho a la igualdad y a la no discriminación "actúa como límite material de cualquier decisión empresarial"; el Reglamento General de Protección de Datos "introduce garantías ante decisiones automatizadas"; el Estatuto de los Trabajadores "exige transparencia sobre los algoritmos que afecten el acceso a la ocupación o en las condiciones de las personas trabajadoras", y el Reglamento Europeo de Inteligencia Artificial (AI Act) "impone obligaciones reforzadas a los sistemas de contratación, considerados de alto riesgo".
Para la experta, ante este contexto resulta fundamental "exigir una prevención ex ante mediante evaluaciones de riesgos, supervisión humana y medidas específicas para detectar y corregir posibles sesgos antes de que impacten en las persones candidatas". Revilla avisa de que, en el supuesto de que se produzca una decisión discriminatoria con la ayuda de un algoritmo, "la responsabilidad principal recae en la empresa que lo ha usado". La experta recuerda que el derecho laboral y el principio de no discriminación "no permiten externalizar esa decisión", aunque se haya basado en un sistema tecnológico. Por otro lado, Europa impone ahora unos requisitos a los proveedores de tecnología usada en la contratación.
*Si te ha resultado interesante este artículo, te animamos a seguirnos en TWITTER y a suscribirte a nuestra NEWSLETTER DIARIA.
Alto Directivo