La anatomía de un titular de noticias falsas


A medida que las confrontaciones entre los manifestantes de Black Lives Matter y la policía estallaron en todo el país a principios de este mes, algunos residentes de Oregón, en su mayoría personas mayores, vieron un anuncio en Facebook que mostraba un titular sobre cómo un político republicano «quiere que la ley marcial controle a los supersoldados Antifa Obama-Soros».

Huelga decir que no había un ejército de «superventas» de izquierda marchando por Oregón, ni se sabía que el ex presidente Barack Obama y el multimillonario George Soros estaban financiando nada relacionado con antifa. Y el político en cuestión en realidad no dijo que había «superesoldados». El titular, originalmente del blog Wonkette, a menudo sarcástico y progresivo, nunca fue tomado como una noticia directa.

Todo fue un contratiempo nacido de la era moderna de las noticias, en la que los titulares que ves no se deciden por un editor de primera plana, sino por capas de algoritmos diseñados para elegir las noticias y a quién se debe mostrar. Este sistema puede funcionar bien, pero en este caso alimentó a un vorágine de desinformación eso ya inspiraba a algunos occidentales a agarrar sus armas y proteger sus pueblos contra el en gran medida amenaza inexistente de antifa fuera de la ciudad alborotadores

Este fue solo un titular que alimentó una sensación de paranoia reforzada por rumores de muchas fuentes. Pero la deconstrucción exacta de cómo surgió proporciona una ventana a lo fácil que es que una teoría de la conspiración marginal se deslice accidentalmente en el ecosistema de las principales noticias en línea.

El problema comenzó cuando SmartNews retomó la burlona historia de Wonkette. SmartNews es una aplicación de agregación de noticias que atrae a los usuarios al colocar anuncios por un valor de casi un millón de dólares en Facebook, según Facebook. datos publicados. De acuerdo con la declaración de misión de la startup, sus «algoritmos evalúan millones de artículos, señales sociales e interacciones humanas para entregar el 0.01% de las historias más importantes en este momento».

La compañía, que dice que «las noticias deben ser imparciales, de tendencia y confiables», generalmente elige titulares de noticias locales comunes para sus anuncios de Facebook, tal vez de su estación de noticias de televisión local. Los usuarios que instalan la aplicación obtienen titulares sobre su área de origen y temas de interés, seleccionados por los algoritmos de SmartNews. Esta vez, sin embargo, el titular proviene de Wonkette, en una historia que se burla de Jo Rae Perkins, nominada republicana al Senado de EE. UU. provocó controversia por su promoción de las teorías de conspiración.

A principios de junio, cuando surgieron protestas contra la violencia policial en las ciudades rurales de todo el país, Perkins grabó un video de Facebook Live pidiendo una «ley marcial dura» para «aplastar» a los «matones antifa» que supuestamente visitan varias ciudades de Oregón. También relacionó a los manifestantes, sin fundamento, con objetivos comunes de derecha: «Mucha, mucha gente cree que George Soros les está pagando», dijo, y «este es el ejército que Obama formó hace unos años».

Perkins nunca dijo «supersoldado», el término es aparentemente un Broma Twitterverse, en este caso, Wonkette agregó a su titular para burlarse del aparente temor de Perkins a los manifestantes. Para alguien familiarizado con su estilo sardónico inexpresivo, ver el titular hiperbólico en el sitio web de Wonkette no levantaría una ceja: los lectores habituales sabrían que Wonkette se estaba burlando de Perkins. Pero es 2020, e incluso los titulares de los blogs insulares pueden viajar fuera de los canales RSS de sus lectores y abrirse camino a través de las redes sociales en recintos donde Wonkette no es ampliamente conocido. SmartNews, cuando despojó automáticamente el titular de Wonkette de su asociación con Wonkette y lo presentó neutralmente en el anuncio, personificó ese fenómeno.

Los algoritmos de SmartNews seleccionaron ese titular para que los anuncios aparecieran en los canales de Facebook de personas en casi todos los condados de Oregon, con un banner como «Noticias del condado de Charles» que coincidía con el nombre del condado donde se mostró el anuncio. Es una estrategia que la compañía usa miles de veces al día.

El vicepresidente de SmartNews, Rich Jaroslovsky, dijo que en este caso sus algoritmos no hicieron nada malo al elegir el titular irónico para mostrar a los lectores existentes. El problema, dice, fue que el titular se mostró a las personas equivocadas.

SmartNews, dijo, enfoca «una gran cantidad de tiempo, esfuerzo y talento» en sus algoritmos para recomendar noticias a los usuarios de la aplicación SmartNews. Esos algoritmos habrían dirigido la historia antifa a «personas que presumiblemente tienen un interés demostrado en el tipo de cosas en las que Wonkette se especializa». Para esos lectores y en ese contexto, dijo, la historia no fue problemática.

«Los problemas ocurrieron cuando se sacó de su contexto y se colocó en uno diferente» para la publicidad de Facebook que no está dirigida por ningún criterio que no sea la geografía. «Obviamente, esto no debería haber sucedido, y estamos tomando una serie de pasos para asegurarnos de abordar los problemas que usted señaló», dijo Jaroslovsky.

Jaroslovsky dijo que las historias de Wonkette no se usarían en anuncios en el futuro.

SmartNews dirige sus anuncios a personas en áreas geográficas particulares, en este caso, 32 de los 36 condados de Oregón.

Pero Facebook tenía otras ideas: sus algoritmos optaron por mostrar el anuncio de los «superventas antifa» de manera abrumadora a las personas mayores de 55 años, según Facebook. datos publicados sobre anuncios que considera político. Sin lugar a dudas, muchos de esos espectadores ignoraron el anuncio o no se dejaron engañar por él, pero el perfil demográfico que Facebook eligió es un demográfico que reciente estudio de la Universidad de Nueva York mostró que tiende a compartir información errónea en las redes sociales con mayor frecuencia.

Esta elección por los algoritmos de Facebook es poderosa: Un trabajo académico mostró que Facebook evalúa el contenido de los anuncios y luego a veces los dirige desproporcionadamente a los usuarios con un género, raza o visión política en particular. (El periódico no estudió la edad).

Facebook tampoco hace posible saber exactamente cuántas personas vieron el anuncio de superventas de antifa de SmartNews. El portal de transparencia de la compañía dice que el anuncio se mostró entre 197 y 75,000 veces, en alrededor de 75 variaciones (basadas en Android y iPhone y la cantidad de condados). Facebook se negó a proporcionar datos más específicos.

Facebook no considera que los anuncios hayan violado las reglas de la compañía. Los anuncios son revisados ​​»principalmente» por mecanismos automatizados, dijo el portavoz de Facebook Devon Kearns a The Markup, por lo que es poco probable que un ser humano en Facebook vea los anuncios antes de que se publiquen. Sin embargo, «los anuncios que se ejecutan con titulares satíricos que están fuera de contexto son elegibles» para ser verificados, dijo Kearns, y los anuncios que se consideran falsos se eliminan. (Por lo general, la sátira y la opinión en los anuncios están exentos de ser marcados como «información errónea» según la política de verificación de hechos de Facebook, a menos que se presenten fuera de contexto).

La editora de Wonkette, Rebecca Schoenkopf, le dijo a The Markup que no sabía que SmartNews estaba promocionando el contenido de su sitio con anuncios de Facebook, pero que no estaba necesariamente en contra. En teoría, al menos, podría tener el efecto de atraer más lectores a su sitio.

Irónicamente, dice, Wonkette tiene una presencia limitada en Facebook. En los últimos años, el alcance de las publicaciones de Wonkette en la plataforma se había reducido a casi nada.

Seguir la cadena de información desde el video de Perkins en Facebook hasta el anuncio SmartNews hace que sea fácil ver cómo una serie de actores tomaron el mismo contenido original, un video de Perkins que defiende las teorías de conspiración, y lo amplió para adaptarlo a sus propios motivos. . Cada uno de esos enlaces creó un potencial de desinformación, donde el contexto necesario para la comprensión podría ser eliminado.

Lindsay Schubiner, directora del programa en el Centro de Estados del Oeste de Portland, Oregon, que trabaja para contrarrestar el extremismo de extrema derecha en el noroeste del Pacífico, dijo a The Markup que, si bien las redes sociales han tenido un efecto democratizador en la información, también ha sido Un formato ideal para difundir información errónea.

«El anuncio de SmartNews, inadvertidamente o no, se unió a un coro de publicaciones falsas, engañosas y racistas de nacionalistas blancos en respuesta a las protestas de Black Lives Matter», escribió Schubiner en un correo electrónico. «Muchos de estos mensajes se intercambiaron con antisemitismo, que durante mucho tiempo ha sido una respuesta para los nacionalistas blancos que buscan explicar sus pérdidas políticas».

En este caso, el anuncio, dijo, potencialmente promulgó el tropo común de derecha que Soros, que es judío, financia protestas masivas por causas de izquierda.

«Estas teorías de conspiración intolerantes han ayudado a impulsar un aumento en la actividad y organización de extrema derecha», continuó. «Ciertamente es posible que los anuncios hayan contribuido a la organización de extrema derecha en Oregon en respuesta a rumores falsos sobre reuniones antifascistas en pueblos pequeños».

Esas teorías de conspiración han tenido consecuencias en el mundo real. Residentes portadores de armas de fuego en el cercano estado de Washington acosado una familia multirracial que estaba acampando en un autobús escolar convertido, atrapándolos con árboles caídos, aparentemente creyendo erróneamente que eran antifa. La familia solo pudo escapar con la ayuda de algunos estudiantes de secundaria locales armados con motosierras para abrirse camino hacia la libertad.

Este articulo fue publicado originalmente en The Markup por Jeremy B. Merrill y Aaron Sankinand y fue republicado bajo el Creative Commons Reconocimiento-No Comercial-Sin Derivados licencia.

Publicado originalmente en themarkup.org

Pssst, ¡hola!

¿Desea recibir el boletín técnico diario más atrevido todos los días, en su bandeja de entrada, GRATIS? Por supuesto que sí: regístrate en Big Spam aquí.



Fuente: TNW

Compartir:

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Esta web utiliza cookies, puedes ver aquí la Política de Cookies