El algoritmo de recorte de fotos de Twitter prefiere rostros jóvenes, hermosos y de piel clara


Twitter tiene anunció los resultados de una competencia abierta para encontrar sesgos algorítmicos en su sistema de fotocorte. La empresa deshabilitó el recorte automático de fotografías. en marzo después de que los experimentos de los usuarios de Twitter el año pasado sugirieran favoreció los rostros blancos sobre los rostros negros. Luego lanzó una recompensa de errores algorítmicos para intentar analizar el problema más de cerca.

La competencia ha confirmado estos hallazgos anteriores. El entrada en primer lugar demostró que el algoritmo de recorte de Twitter favorece las caras que son «delgadas, jóvenes, de color de piel claro o cálido y textura de piel suave, y con rasgos faciales estereotípicamente femeninos». Las entradas del segundo y tercer lugar mostraron que el sistema estaba predispuesto contra las personas con cabello blanco o gris, sugiriendo discriminación por edad, y favorece la escritura inglesa sobre la árabe en las imágenes.

en un presentación de estos resultados En la conferencia DEF CON 29, Rumman Chowdhury, director del equipo META de Twitter (que estudia la ética, la transparencia y la responsabilidad del aprendizaje automático), elogió a los participantes por mostrar los efectos reales del sesgo algorítmico.

«Cuando pensamos en los sesgos en nuestros modelos, no se trata solo de los aspectos académicos o experimentales […] pero cómo eso también funciona con la forma en que pensamos en la sociedad ”, dijo Chowdhury. «Utilizo la frase ‘vida imitando el arte imitando la vida’. Creamos estos filtros porque pensamos que eso es lo bello, y eso termina entrenando a nuestros modelos e impulsando estas nociones poco realistas de lo que significa ser atractivo».

La propuesta ganadora utilizó un GAN para generar rostros que variaban según el tono de piel, el ancho y los rasgos masculinos versus femeninos.
Imagen: Bogdan Kulynych

El primer lugar de la competencia y el ganador del premio mayor de $ 3500 fue Bogdan Kulynych, estudiante de posgrado en EPFL, una universidad de investigación en Suiza. Kulynych utilizó un programa de inteligencia artificial llamado StyleGAN2 para generar una gran cantidad de rostros realistas que varió según el color de la piel, los rasgos faciales femeninos versus masculinos y la delgadez. Luego, introdujo estas variantes en el algoritmo de recorte de fotos de Twitter para encontrar cuál prefería.

Como señala Kulynych en su resumen, estos sesgos algorítmicos amplifican los sesgos en la sociedad, literalmente recortando a «aquellos que no cumplen con las preferencias del algoritmo de peso corporal, edad, color de piel».

Estos sesgos también son más generalizados de lo que piensas. Otro participante en la competencia, Vincenzo di Cicco, quien ganó una mención especial por su enfoque innovador, demostró que el algoritmo de recorte de imágenes también emoji favorito con tonos de piel más claros sobre emoji con tonos de piel más oscuros. La entrada en tercer lugar, por Roya Pakzad, fundador de la organización de defensa de la tecnología Taraaz, reveló que los prejuicios se extienden también a las características escritas. El trabajo de Pakzad comparó los memes usando la escritura en inglés y árabe, mostrando que el algoritmo recortaba regularmente la imagen para resaltar el texto en inglés.

Ejemplos de memes utilizados por Roya Pakzad para examinar el sesgo hacia el idioma inglés en el algoritmo de Twitter.
Imagen: Roya Pakzad

Aunque los resultados de la competencia por sesgos de Twitter pueden parecer descorazonadores, lo que confirma la naturaleza omnipresente del sesgo social en los sistemas algorítmicos, también muestra cómo las empresas de tecnología pueden combatir estos problemas al abrir sus sistemas al escrutinio externo. «La capacidad de las personas que participan en una competencia como esta para profundizar en un tipo particular de daño o sesgo es algo que los equipos de las corporaciones no pueden darse el lujo de hacer», dijo Chowdhury.

El enfoque abierto de Twitter contrasta con las respuestas de otras empresas tecnológicas cuando se enfrentan a problemas similares. Cuando los investigadores dirigidos por Joy Buolamwini del MIT encontraron prejuicios raciales y de género en los algoritmos de reconocimiento facial de Amazon, por ejemplo, la empresa organizó una importante campaña para desacreditar a los involucrados, llamando a su trabajo «Engañoso» y «falso». Después de luchar por los hallazgos durante meses, Amazon finalmente cedió, colocando un prohibición temporal sobre el uso de estos mismos algoritmos por parte de las fuerzas del orden.

Patrick Hall, juez de la competencia de Twitter e investigador de inteligencia artificial que trabaja en discriminación algorítmica, enfatizó que tales sesgos existen en todos los sistemas de inteligencia artificial y las empresas deben trabajar de manera proactiva para encontrarlos. «La inteligencia artificial y el aprendizaje automático son solo el salvaje oeste, sin importar qué tan hábil crea que sea su equipo de ciencia de datos», dijo Hall. «Si no encuentra sus errores, o las recompensas de errores no encuentran sus errores, entonces, ¿quién los encuentra? Porque definitivamente tienes errores «.





Fuente: The Verge

Compartir:

Deja una respuesta

Tu dirección de correo electrónico no será publicada.

Esta web utiliza cookies propias y de terceros para su correcto funcionamiento y para fines analíticos y para fines de afiliación y para mostrarte publicidad relacionada con sus preferencias en base a un perfil elaborado a partir de tus hábitos de navegación. Al hacer clic en el botón Aceptar, acepta el uso de estas tecnologías y el procesamiento de tus datos para estos propósitos. Ver Política de cookies
Privacidad