Las disputas de Facebook informan que su IA no puede detectar el discurso de odio o la violencia de manera constante


Vicepresidente de integridad de Facebook Guy Rosen escribió en la publicación del blog El domingo que la prevalencia del discurso del odio en la plataforma había disminuido en un 50 por ciento en los últimos tres años, y que «una narrativa de que la tecnología que usamos para combatir el discurso del odio es inadecuada y que deliberadamente tergiversamos nuestro progreso» era falsa.

«No queremos ver odio en nuestra plataforma, ni tampoco nuestros usuarios o anunciantes, y somos transparentes sobre nuestro trabajo para eliminarlo», escribió Rosen. “Lo que demuestran estos documentos es que nuestro trabajo de integridad es un viaje de varios años. Si bien nunca seremos perfectos, nuestros equipos trabajan continuamente para desarrollar nuestros sistemas, identificar problemas y crear soluciones «.

La publicación parecía ser en respuesta a una Artículo dominical en el Wall Street Journal, que dijo que los empleados de Facebook encargados de mantener el contenido ofensivo fuera de la plataforma no creen que la empresa pueda detectarlo de manera confiable.

los WSJ El informe establece que los documentos internos muestran que hace dos años, Facebook redujo el tiempo que los revisores humanos se concentraban en las quejas de incitación al odio y realizó otros ajustes que redujeron el número de quejas. Eso, a su vez, ayudó a crear la apariencia de que la inteligencia artificial de Facebook había tenido más éxito en hacer cumplir las reglas de la empresa de lo que realmente era, según el WSJ.

Un equipo de empleados de Facebook descubrió en marzo que los sistemas automatizados de la compañía estaban eliminando publicaciones que generaban entre el 3 y el 5 por ciento de las visualizaciones de incitación al odio en la plataforma social, y menos del 1 por ciento de todo el contenido que violaba sus reglas contra violencia e incitación, la WSJ informó.

Pero Rosen argumentó que centrarse solo en la eliminación de contenido era «la forma incorrecta de ver cómo luchamos contra el discurso de odio». Él dice que la tecnología para eliminar el discurso de odio es solo un método que Facebook usa para combatirlo. «Necesitamos estar seguros de que algo es un discurso de odio antes de eliminarlo», dijo Rosen.

En cambio, dijo, la compañía cree que centrarse en la prevalencia del discurso de odio que la gente realmente ve en la plataforma y cómo lo reduce utilizando varias herramientas es una medida más importante. Afirmó que por cada 10,000 visitas de un contenido en Facebook, había cinco visitas de incitación al odio. «La prevalencia nos dice qué contenido violatorio la gente ve porque no lo vimos», escribió Rosen. «Es la forma más objetiva de evaluar nuestro progreso, ya que proporciona la imagen más completa».

Pero los documentos internos obtenidos por el WSJ mostró que algunas piezas importantes de contenido pudieron evadir la detección de Facebook, incluidos videos de accidentes automovilísticos que mostraban personas con lesiones gráficas y amenazas violentas contra niños trans.

los WSJ ha producido un serie de informes sobre Facebook basado en documentos internos proporcionados por la denunciante Frances Haugen. Ella testificado ante el Congreso que la empresa era consciente del impacto negativo que su plataforma Instagram podría tener en los adolescentes. Facebook ha disputado la información basada en los documentos internos.



Fuente: The Verge

Compartir:

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Esta web utiliza cookies propias y de terceros para su correcto funcionamiento y para fines analíticos y para fines de afiliación y para mostrarte publicidad relacionada con sus preferencias en base a un perfil elaborado a partir de tus hábitos de navegación. Al hacer clic en el botón Aceptar, acepta el uso de estas tecnologías y el procesamiento de tus datos para estos propósitos. Ver Política de cookies
Privacidad