He aquí por qué nunca debemos confiar en la IA para identificar nuestras emociones.


Imagina que estás en una entrevista de trabajo. A medida que responde las preguntas del reclutador, un sistema de inteligencia artificial (IA) escanea tu cara, anotándote por nerviosismo, empatía y confianza. Puede parecer ciencia ficción, pero estos sistemas se utilizan cada vez más, a menudo sin el conocimiento de la gente o consentimiento.

La tecnología de reconocimiento de emociones (ERT) es de hecho una industria multimillonaria que tiene como objetivo utilizar IA para detectar emociones a partir de expresiones faciales. Sin embargo, la ciencia detrás de los sistemas de reconocimiento de emociones es controvertido: hay sesgos integrados en los sistemas.

[Leer:[Read:¿Puede la IA leer tus emociones? Pruébelo usted mismo]

Muchas empresas utilizan ERT para probar las reacciones de los clientes a sus productos, desde cereales hasta videojuegos. Pero también se puede utilizar en situaciones con mucho apuestas más altas, como en contratación, por seguridad de aeropuerto para señalar los rostros como reveladores de engaño o miedo, en control fronterizo, en vigilancia para identificar «personas peligrosas» o en educación para monitorear el compromiso de los estudiantes con sus tareas.

Terreno científico inestable

Afortunadamente, la tecnología de reconocimiento facial está recibiendo atención pública. La premiada película Coded Bias, lanzada recientemente en Netflix, documenta el descubrimiento de que muchas tecnologías de reconocimiento facial no detectan con precisión los rostros de piel oscura. Y el equipo de investigación que administra ImageNet, uno de los conjuntos de datos más grandes e importantes utilizados para entrenar el reconocimiento facial, se vio obligado recientemente a difuminar 1,5 millones de imágenes. en respuesta a preocupaciones de privacidad.

Las revelaciones sobre el sesgo algorítmico y los conjuntos de datos discriminatorios en la tecnología de reconocimiento facial han llevado a grandes empresas de tecnología, incluidas Microsoft, Amazon e IBM, a detener las ventas. Y la tecnologia enfrenta desafíos legales con respecto a su uso en la policía en el Reino Unido. En la UE, una coalición de más de 40 organizaciones de la sociedad civil ha pidió una prohibición en la tecnología de reconocimiento facial por completo.

Al igual que otras formas de reconocimiento facial, ERT plantea preguntas sobre prejuicios, privacidad y vigilancia masiva. Pero ERT plantea otra preocupación: la ciencia de la emoción detrás de ella es controvertida. La mayoría de ERT se basa en teoría de las «emociones básicas» que sostiene que las emociones están biológicamente programadas y expresadas de la misma manera por personas en todas partes.

Sin embargo, esto se cuestiona cada vez más. La investigación en antropología muestra que las emociones se expresan de manera diferente a través de culturas y sociedades. En 2019, el Asociación de Ciencias Psicológicas realizó una revisión de la evidencia, concluyendo que no hay respaldo científico por la suposición común de que el estado emocional de una persona puede inferirse fácilmente de sus movimientos faciales. En resumen, ERT se basa en un terreno científico inestable.

Además, al igual que otras formas de tecnología de reconocimiento facial, ERT está codificada con prejuicios raciales. Un estudio ha mostrado que los sistemas interpretan constantemente los rostros de los negros como más enojados que los rostros de los blancos, independientemente de la expresión de la persona. Aunque el estudio de los prejuicios raciales en ERT es pequeño, el sesgo racial en otras formas de reconocimiento facial está bien documentado.

Hay dos formas en que esta tecnología puede dañar a las personas, dice la investigadora de inteligencia artificial Deborah Raji en una entrevista con MIT Technology Review: “Una forma es no trabajar: en virtud de tener tasas de error más altas para las personas de color, las pone en mayor riesgo. La segunda situación es cuando funciona, donde tienes el sistema de reconocimiento facial perfecto, pero se puede utilizar fácilmente como arma contra las comunidades para acosarlas «.

Por lo tanto, incluso si la tecnología de reconocimiento facial puede ser imparcial y precisa para todas las personas, es posible que no sea justa o equitativa. Vemos estos efectos dispares cuando la tecnología de reconocimiento facial se utiliza en sistemas policiales y judiciales que ya son discriminatorios y dañinos para las personas de color. Las tecnologías pueden ser peligrosas cuando no funcionan como deberían. Y también pueden ser peligrosos cuando funcionan perfectamente en un mundo imperfecto.

Los desafíos que plantean las tecnologías de reconocimiento facial, incluida la ERT, no tienen respuestas fáciles ni claras. Resolver los problemas presentados por ERT requiere pasar de la ética de la IA centrada en principios abstractos a la ética de la IA centrada en práctica y efectos en la vida de las personas.

Cuando se trata de ERT, debemos examinar colectivamente la controvertida ciencia de la emoción incorporada en estos sistemas y analizar su potencial de sesgo racial. Y debemos preguntarnos: incluso si ERT pudiera diseñarse para leer con precisión los sentimientos internos de todos, ¿queremos una vigilancia tan íntima en nuestras vidas? Estas son preguntas que requieren la deliberación, las aportaciones y la acción de todos.

Proyecto de ciencia ciudadana

ERT tiene el potencial de afectar la vida de millones de personas, sin embargo, ha habido poca deliberación pública sobre cómo – y si – debe ser usado. Por eso hemos desarrollado un proyecto de ciencia ciudadana.

En nuestro sitio web interactivo (que funciona mejor en una computadora portátil, no en un teléfono) puede probar un ERT privado y seguro para ver cómo escanea su rostro e interpreta sus emociones. También puede jugar juegos que comparan las habilidades humanas con las de la inteligencia artificial en el reconocimiento de emociones y aprender sobre la controvertida ciencia de las emociones detrás de ERT.

Lo más importante es que puede contribuir con sus perspectivas e ideas para generar nuevos conocimientos sobre los posibles impactos de la ERT. Como científico informático y activista digital Joy Buolamwinidice: «Si tienes una cara, tienes un lugar en la conversación».La conversación

Este artículo de Alexa Hagerty, Investigador Asociado en Antropología, Universidad de Cambridge y Alexandra Albert, Investigadora en Ciencias Sociales Ciudadanas, UCL, Se vuelve a publicar de La conversación bajo una licencia Creative Commons. Leer el artículo original.





Fuente: TNW

Compartir:

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Esta web utiliza cookies propias y de terceros para su correcto funcionamiento y para fines analíticos y para fines de afiliación y para mostrarte publicidad relacionada con sus preferencias en base a un perfil elaborado a partir de tus hábitos de navegación. Al hacer clic en el botón Aceptar, acepta el uso de estas tecnologías y el procesamiento de tus datos para estos propósitos. Ver Política de cookies
Privacidad