UNA nuevo estudio de la Universidad de Melbourne ha demostrado cómo los algoritmos de contratación pueden amplificar los prejuicios de género humano contra las mujeres.
Investigadores de la Universidad de Melbourne entregaron a 40 reclutadores currículos de la vida real para trabajos en UniBank, que financió el estudio. Los currículums eran para roles como analista de datos, oficial de finanzas y oficial de contratación, que según los datos de la Oficina de Estadísticas de Australia son puestos dominados por hombres, equilibrados por género y dominados por mujeres, respectivamente.
La mitad del panel de reclutamiento recibió currículums con el género declarado del candidato. La otra mitad recibió exactamente los mismos currículums, pero con nombres tradicionalmente femeninos y masculinos intercambiados. Por ejemplo, podrían cambiar «Mark» por «Sarah» y «Rachel» por «John».
Luego, se instruyó a los panelistas para que clasificaran a cada candidato y eligieran colectivamente los tres mejores y los últimos currículums para cada puesto. Luego, los investigadores revisaron sus decisiones.
[Leer:[Read:Cómo construir un motor de búsqueda de datos criminales]
Descubrieron que los reclutadores siempre preferían currículums de los candidatos aparentemente masculinos – a pesar de que tenían las mismas calificaciones y experiencia que las mujeres. Tanto los panelistas masculinos como femeninos tenían más probabilidades de dar a los hombres reanuda un rango superior.

Luego, los investigadores utilizaron los datos para crear un algoritmo de contratación que clasificaría a cada candidato en línea con las preferencias del panel, y encontraron que reflejaba sus sesgos.
Leer: El algoritmo de contratación sexista de Amazon podría ser mejor que un humano
“Incluso cuando se eliminaron los nombres de los candidatos, AI evaluó los currículums basándose en patrones históricos de contratación en los que las preferencias se inclinaban hacia los candidatos masculinos”, dijo el estudio. el coautor Dr. Marc Cheong en una declaración.
«Por ejemplo, dar ventaja a los candidatos con años de servicio continuo automáticamente perjudicaría a las mujeres que se han ausentado del trabajo por responsabilidades de cuidado».
El estudio se basó en una pequeña muestra de datos, pero este tipo de sesgos de género también se han documentado en grandes empresas. Amazon, por ejemplo, tuvo que cerrar un algoritmo de contratación herramienta después de descubrir que discriminaba a las solicitantes femeninas, porque los modelos fueron entrenados predominantemente en currículums presentados por hombres.
“Además, en el caso de IA más avanzadas que operan dentro de una ‘caja negra’ sin transparencia o supervisión humana, existe el peligro de que se amplifique cualquier cantidad de sesgo inicial”, agregó el Dr. Cheong.
Los investigadores creen que los riesgos se pueden reducir haciendo que los algoritmos de contratación sean más transparentes. Pero también debemos abordar nuestros prejuicios humanos inherentes, antes de que se incorporen a las máquinas.
Publicado el 2 de diciembre de 2020-18: 06 UTC