La IA ha hecho que la contratación de personal sea más injusta, pero no tiene que ser así

La incorporación de la inteligencia artificial (IA) en los procesos de selección de personal ha intensificado los sesgos existentes, generando una contratación cada vez más desigual. A diferencia de lo que se esperaba, la IA no elimina los prejuicios; los magnifica, especialmente cuando se trata de candidatos que no son hombres blancos.

Un estudio de la Universidad de Washington realizado en 2024 evaluó tres modelos de grandes lenguajes (LLM) ampliamente utilizados para reclutamiento. Los resultados fueron alarmantes: los algoritmos prefirieron nombres asociados a personas blancas el 85 % de las veces, mientras que los vinculados a personas negras solo el 9 %. En cuanto al género, los modelos favorecieron nombres masculinos el 52 % de los casos frente al 11 % de los femeninos. Estos sesgos se replicaron en todas las etapas del proceso de contratación, desde la revisión de currículos hasta análisis de video y pruebas lúdicas.

Índice

Ejemplos de sesgo en entornos hispanohablantes

Recientemente, la directora de Producto y Ciencia de la startup social Intrare, Marcela Vasconcellos, realizó un experimento para comparar el desempeño de los LLM comerciales en inglés y en español. El hallazgo principal fue que, al evaluar candidatos en español, el modelo mostró casi cinco veces más sesgo que en inglés. En la prueba, se presentaron dos candidatos con idénticas credenciales, diferenciados solo por su pertenencia a una minoría (por ejemplo, una persona LGBTQ+ frente a una no perteneciente). En inglés, la probabilidad de que el modelo favoreciera a la mayoría era 1,4 veces mayor; en español, esa diferencia se disparó a 6,3 veces.

Otro análisis llevado a cabo por investigadores de la Universidad de los Andes y Quantil en Colombia confirmó estos hallazgos a mayor escala. Al estudiar diez puestos típicos, los LLM en español recomendaron a la mayoría en la mayoría de los casos, mientras que a los candidatos de grupos minoritarios solo se les asignaron 1,6 oportunidades de recomendación.

Puntos Clave
  • La IA en procesos de selección está amplificando los sesgos existentes, generando contrataciones más desiguales
  • Un estudio de la Universidad de Washington (2024

Una investigación del University College London (UCL) también demostró que los sistemas de IA tienden a amplificar los sesgos que detectan, a veces de forma drástica, al entrenarse con datos históricos que ya contienen prejuicios humanos.

Cómo mitigar los sesgos en la contratación automatizada

La IA ha hecho que la contratación de personal sea más injusta, pero no tiene que ser así
  • Eliminar datos irrelevantes y potencialmente sesgadores. Información como género, código postal, universidad o situación familiar no debería influir en la evaluación del desempeño laboral. Sin embargo, los modelos pueden inferir estos atributos a partir de otros datos, por lo que es esencial revisar y anonimizar los insumos.
  • Enfocar la evaluación en habilidades y competencias. En lugar de priorizar la experiencia en empresas prestigiosas, los algoritmos deben valorar las capacidades demostrables, incluidas las habilidades transferibles adquiridas en contextos menos favorecidos.
  • Auditar los resultados de manera continua. Introducir perfiles de candidatos de diversos grupos y comparar los índices de recomendación permite identificar sobre‑ y subvaloraciones. Los resultados de estas auditorías deben ser transparentes y servir para reajustar los modelos.
  • Empoderar a los candidatos. Los postulantes pueden eliminar fotos, códigos postales y otra información sensible de sus currículos, preguntar a las empresas sobre el uso de herramientas de IA y, si lo desean, probar enviar versiones alternativas de su solicitud que omitan datos privilegiados.

Si bien la IA, cuando se entrena de forma responsable, tiene el potencial de ser menos parcial que los humanos, su actual despliegue sigue reproduciendo y acentuando inequidades. Adoptar prácticas de diseño ético y auditoría rigurosa es fundamental para que la contratación basada en IA contribuya a un mercado laboral más justo y diverso.

Javier Mendoza Silva
Javier Mendoza Silva Periodista

Licenciado en Comunicación Social con mención en Periodismo por la Universidad Central de Venezuela. Tiene 12 años de experiencia en cobertura de política nacional y conflictos sociales, con enfoque en derechos humanos. Ha trabajado para medios impresos, digitales y radiofónicos en Latinoamérica.

Vota post
Mira tambien:

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Subir