¿Facebook todavía vende anuncios discriminatorios?


En mayo, una agencia de atención médica de Wisconsin, Tenderness Health Care, publicó un anuncio de trabajo en Facebook buscando trabajadores de atención personal. Según la ventana emergente «¿Por qué veo este anuncio?» De Facebook, cuando la agencia compró el anuncio, le pidió a Facebook que no se lo mostrara a nadie mayor de 54 años. Y le pidieron a Facebook que lo mostrara específicamente a personas que tienen «afinidad multicultural afroamericana». Facebook, aparentemente, cumplió.

¿El problema? La ley federal prohíbe a los empleadores discriminar por motivos de edad y raza, incluso en la publicidad de puestos vacantes.

Cuando The Markup llamó la atención de Facebook sobre el anuncio, la compañía lo eliminó, según Tom Channick, un portavoz de Facebook. (El CEO de Tenderness, Julio Fernandez, no respondió a las solicitudes de comentarios de The Markup).

Esta no es la primera vez que se acusa a Facebook de permitir la discriminación en su plataforma.

Grupos de derechos civiles acusaron a Facebook de violar las leyes federales contra la discriminación y presentaron al menos cinco demandas contra la empresa, que culminaron en una asentamiento histórico el año pasado. En él, Facebook acordó cambiar sus prácticas que permitían a los anunciantes excluir a personas de ciertos géneros, edades y «afinidades multiculturales» de ver anuncios de vivienda, trabajo y servicios financieros. (Facebook no recopila datos sobre la raza de los usuarios, pero hasta hace poco tenía una categoría de «afinidad multicultural», que no definía claramente).

La empresa sigue defendiendo otra demanda, presentado por las autoridades federales de vivienda.

La mayor parte de los problemas legales se centraron en la forma en que funciona gran parte de la publicidad en línea, incluida la de Facebook. A diferencia de muchos anuncios impresos y primeros anuncios de Internet, que aparecían junto al contenido relacionado, la publicidad de Facebook se dirige a las personas.

El tesoro de datos detallados de Facebook sobre sus usuarios permite a las empresas que publicitan todo, desde trabajos hasta jeans, elegir de un extenso menú de características e intereses demográficos al elegir quién ve sus anuncios, y eso le ha ganado a la compañía miles de millones de dólares año tras año.

Facebook tiene defendido esa práctica, argumentando que las empresas podrían legítimamente utilizar la focalización basada en la edad para adaptar sus mensajes o para llegar a grupos subrepresentados. Sus políticas escritas prohíben la discriminación, ha dicho.

Y la focalización a veces puede ser inocua. Un local de hip-hop para más de 21 años en Atlanta podría tener buenas razones para no querer gastar dinero en publicidad dirigida a jóvenes de 18 años, personas que viven en Nueva York o personas cuyo comportamiento en línea no revela interés en el hip-hop.

Pero hay circunstancias en las que dirigir un anuncio basado en las características de una persona es ilegal. Las leyes federales prohíben la discriminación en la vivienda, el empleo y los servicios financieros, en particular en los anuncios de viviendas. Estas regulaciones se impusieron después de décadas de propietarios y vecindarios que prohibieron a los inquilinos y propietarios de viviendas de minorías e inmigrantes; empleadores que discriminan por motivos de raza, género y sexualidad; y acreedores que venden productos financieros y tasas de préstamos incobrables a las minorías.

«Ayudar a prevenir la discriminación en los anuncios de oportunidades de empleo es un área en la que lideramos la industria», dijo el portavoz de Facebook, Channick, en un correo electrónico.

Entonces, ¿por qué The Markup aún pudo encontrar un anuncio de trabajo discriminatorio? Channick no lo diría.

La empresa utiliza controles automatizados para limitar cuándo y cómo los anunciantes pueden orientar anuncios en función de la edad y el género, de acuerdo con su acuerdo civil.

Channick no respondió a una pregunta sobre si los controles automatizados de Facebook siempre funcionan.

Facebook había prohibido el uso de categorías «multiculturales» para la segmentación en anuncios de empleo. Pero esas categorías fueron utilizadas por otros tipos de anuncios por grupos de derechos civiles y electorales, grupos de defensa de la salud centrados en los negros, políticos de ambos lados del pasillo y anunciantes comerciales.

Una semana después de que The Markup contactara a Facebook, Facebook Anunciado estaba eliminando las categorías de afinidad multicultural por completo después de años de debate interno.

Además de permitir que los anunciantes se dirijan a audiencias específicas, algunos críticos dicen que Facebook discrimina por sí solo al publicar esos anuncios. Eso es lo que argumenta el Departamento de Vivienda y Desarrollo Urbano en su demanda judicial.

El algoritmo de Facebook tiene sus propios sesgos

Una vez que un anunciante elige su público objetivo, el algoritmo de Facebook toma sus propias decisiones sobre a qué usuario específico dentro del público objetivo mostrar un anuncio.

El objetivo de ese algoritmo, Facebook ha dijo, es tratar de predecir qué personas podrían estar interesadas en el anuncio, en función de su actividad en Facebook y los datos demográficos que puede obtener de sus páginas personales, incluida la edad, el sexo y otros factores.

«Facebook no le está dando al usuario lo que el usuario quiere; Facebook le está dando al usuario lo que cree que quiere un estereotipo demográfico». escribió el Comité de Abogados de Derechos Civiles conforme a la Ley en un expediente judicial.

En 2019, investigadores de la Northeastern University y el grupo de defensa de los derechos civiles digitales Upturn publicaron docenas de sus propios anuncios, todos dirigidos a la misma audiencia amplia, y encontró que Facebook mostró los anuncios buscando contratar secretarias principalmente a mujeres.

No está claro si Facebook programó sus algoritmos para mostrar el anuncio de trabajo de secretaria a cualquier dado mujer porque ella misma hizo algo para expresar su interés por el trabajo de secretaria, o simplemente porque era mujer.

Un equipo de la Universidad Carnegie Mellon recientemente analizado anuncios de la vida real para cosas como trabajos, vivienda y crédito que se incluyeron (a veces por error) en el archivo de anuncios políticos de Facebook disponible al público. Los anuncios se publicaron antes y después del cambio de política de Facebook.

«Para prácticamente todos los tipos de anuncios de crédito que hemos analizado», dijo Sara Kingsley, Ph.D. estudiante que dirigió esa investigación, «los hombres tienden a ser un porcentaje mayor» de las personas a las que se les muestra el anuncio.

Los anuncios de vivienda y empleo, dijo, iban desproporcionadamente a las mujeres. Pero los anuncios individuales pueden variar ampliamente:

Cosas que Facebook puede considerar puntos de datos inocuos pueden tener una correlación tan fuerte con la edad, el género o la raza que «el algoritmo ve la circunstancias de las mujeres negras mayores, que son el resultado de la discriminación sistémica y la inequidad, y malinterpreta esas circunstancias como preferencias,«David Brody, abogado del Comité de Abogados por los Derechos Civiles Bajo la Ley, dijo en un correo electrónico.

«Así que la próxima vez que el algoritmo encuentre un usuario que coincida con las cualidades de una mujer negra mayor, imputará esas supuestas preferencias a ese usuario y en el proceso reforzará el patrón de discriminación sistémica», dijo.

¿Qué ha hecho Facebook al respecto?

El acuerdo de Facebook de 2019 con grupos de derechos civiles requirió que implementara nuevas reglas, como exigir a los anunciantes que hagan clic en un botón para autoinformar anuncios de vivienda, trabajo y crédito. Luego, Facebook elimina ciertas opciones de orientación demográfica del menú de opciones de ese anuncio.

Y Facebook comenzó a exigir a los anunciantes que aceptaran una acuerdo prometiendo no discriminar. La compañía también prometió investigar el sesgo en sus algoritmos. Pero los investigadores y los activistas de los derechos civiles dicen que están frustrados porque la empresa no ha publicado ningún hallazgo.

Un estudio interno según se informa encontraron sesgo en contra de los usuarios que habían sido categorizados como miembros de la categoría afroamericana de “afinidad multicultural”. Facebook hizo ajustes pero cerró la investigación adicional porque se suponía que esa categoría no representaba la raza, datos que Facebook no recopiló de sus usuarios.

«Han optado por no recopilar esos datos porque no quieren encender las luces y ver cuántas cucarachas hay en la habitación», dijo Brody.

Hace solo unas semanas, Facebook creó equipos para estudiar los prejuicios raciales en sus plataformas.

Espera, ¿no es ilegal la discriminación?

La ley de California prohíbe la discriminación «intencional» en lugares de «alojamiento público», incluidos los sitios web. Pendiente demanda judicial en un tribunal federal en el norte de California argumenta que los anuncios de Facebook violan esa ley porque los resultados de los algoritmos tratan a las personas de manera diferente en función de características como la edad y el género.

«Mira, ellos escribieron el algoritmo», dijo Brody a The Markup. “Nadie sabe cómo funciona el algoritmo excepto ellos. Son responsables de todo lo que hace el algoritmo «. (Facebook se negó a comentar sobre la demanda, pero en documentos judiciales ha negado haber infringido la ley).

Las leyes federales también prohíben la discriminación, pero la ley federal también protege a las empresas de tecnología como Facebook de la responsabilidad sobre el contenido de sus plataformas, específicamente Sección 230 (c) de la Ley de Decencia en las Comunicaciones, que en esencia dice que los sitios web no son responsables de lo que otras personas dicen en sus sitios.

De Facebook respuesta legal a la demanda de alojamiento público en California invoca la Sección 230, esencialmente diciendo que la empresa no puede ser demandada por los anuncios en su plataforma, una cuestión legal que aún no se ha resuelto.

El senador demócrata Mark Warner, en un comunicado enviado a The Markup, calificó el argumento de Facebook en la lucha contra la demanda de alojamiento público como un «uso indebido de la Sección 230». Es «uno de los ejemplos más apremiantes de por qué necesitamos reformar esta ley anticuada», dijo. «Los fundamentos del excepcionalismo de Internet no deben obstaculizar la defensa de principios de larga data de equidad y no discriminación».

Publicado originalmente en themarkup.org

Este articulo fue publicado originalmente en The Markup por Jeremy B. Merrill y fue reeditado bajo el Creative Commons Reconocimiento-No comercial-Sin derivados licencia.





Fuente: TNW

Compartir:

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Esta web utiliza cookies, puedes ver aquí la Política de Cookies