Un estudio muestra cómo la IA exacerba el sesgo de contratación contra las mujeres


UNA nuevo estudio de la Universidad de Melbourne ha demostrado cómo los algoritmos de contratación pueden amplificar los prejuicios de género humano contra las mujeres.

Investigadores de la Universidad de Melbourne entregaron a 40 reclutadores currículos de la vida real para trabajos en UniBank, que financió el estudio. Los currículums eran para roles como analista de datos, oficial de finanzas y oficial de contratación, que según los datos de la Oficina de Estadísticas de Australia son puestos dominados por hombres, equilibrados por género y dominados por mujeres, respectivamente.

La mitad del panel de reclutamiento recibió currículums con el género declarado del candidato. La otra mitad recibió exactamente los mismos currículums, pero con nombres tradicionalmente femeninos y masculinos intercambiados. Por ejemplo, podrían cambiar «Mark» por «Sarah» y «Rachel» por «John».

Luego, se instruyó a los panelistas para que clasificaran a cada candidato y eligieran colectivamente los tres mejores y los últimos currículums para cada puesto. Luego, los investigadores revisaron sus decisiones.

[Leer:[Read:Cómo construir un motor de búsqueda de datos criminales]

Descubrieron que los reclutadores siempre preferían currículums de los candidatos aparentemente masculinos – a pesar de que tenían las mismas calificaciones y experiencia que las mujeres. Tanto los panelistas masculinos como femeninos tenían más probabilidades de dar a los hombres reanuda un rango superior.

Crédito: Universidad de Melbourne

Esta web utiliza cookies propias y de terceros para su correcto funcionamiento y para fines analíticos y para fines de afiliación y para mostrarte publicidad relacionada con tus preferencias en base a un perfil elaborado a partir de tus hábitos de navegación. Al hacer clic en el botón Aceptar, aceptas el uso de estas tecnologías y el procesamiento de tus datos para estos propósitos. Ver Política de cookies
Privacidad