Twitter está investigando por qué su vista previa de fotos parece favorecer las caras blancas sobre las caras negras


Twitter estaba investigando por qué la red neuronal que utiliza para generar vistas previas de fotos aparentemente elige mostrar las caras de las personas blancas con más frecuencia que las caras de los negros.

Varios usuarios de Twitter demostraron el problema durante el fin de semana, publicando ejemplos de publicaciones que tenían la cara de una persona negra y la cara de una persona blanca. La vista previa de Twitter mostró las caras blancas con más frecuencia.

La prueba informal comenzó después de que un usuario de Twitter intentó publicar sobre un problema que notó en el reconocimiento facial de Zoom, que no mostraba el rostro de un colega negro en las llamadas. Cuando publicó en Twitter, notó que también favorecía su cara blanca sobre la cara de su colega negro.

Los usuarios descubrieron que el algoritmo de vista previa también eligió personajes de dibujos animados que no eran negros.

Cuando Twitter comenzó a usar la red neuronal para recortar automáticamente las vistas previas de fotos, investigadores de aprendizaje automático explicado en una publicación de blog cómo empezaron con el reconocimiento facial para recortar imágenes, pero encontraron que faltaba, principalmente porque no todas las imágenes tienen caras:

Anteriormente, usamos la detección de rostros para enfocar la vista en el rostro más prominente que pudimos encontrar. Si bien esta no es una heurística irrazonable, el enfoque tiene limitaciones obvias ya que no todas las imágenes contienen rostros. Además, nuestro detector de rostros a menudo pasaba por alto los rostros y, a veces, detectaba rostros por error cuando no había ninguno. Si no se encontraran rostros, enfocaríamos la vista en el centro de la imagen. Esto podría dar lugar a imágenes de vista previa recortadas de forma incómoda.

El director de diseño de Twitter, Dantley Davis, tuiteó que la compañía estaba investigando la red neuronal, mientras realizaba algunos experimentos no científicos con imágenes:

Liz Kelley, del equipo de comunicaciones de Twitter, tuiteó el domingo que la compañía había probado el sesgo, pero no había encontrado evidencia de sesgo racial o de género en sus pruebas. «Está claro que tenemos más análisis que hacer», Kelley tuiteó. «Abriremos nuestro trabajo para que otros puedan revisar y replicar».

El director de tecnología de Twitter, Parag Agrawal, tuiteó que el modelo necesitaba una «mejora continua» y agregó que estaba «ansioso por aprender» de los experimentos.





Fuente: The Verge

Compartir:

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Esta web utiliza cookies propias y de terceros para su correcto funcionamiento y para fines analíticos y para fines de afiliación y para mostrarte publicidad relacionada con tus preferencias en base a un perfil elaborado a partir de tus hábitos de navegación. Al hacer clic en el botón Aceptar, aceptas el uso de estas tecnologías y el procesamiento de sus datos para estos propósitos. Ver Política de cookies
Privacidad