Lo que revela el libro An Ugly Truth sobre Facebook y la interferencia rusa


Como la segunda temporada del gran drama criminal de la década de 2000 El alambre comienza, el detective de la policía de Baltimore Jimmy McNulty se encuentra en un bote. Después de pasar la temporada anterior haciendo sonar la alarma sobre el narcotraficante local Avon Barksdale, ante la indiferencia y el enfado de sus varios superiores, McNulty es exiliado a la unidad marina de la ciudad. (Sus jefes se han enterado de que se marea y lo castigan en consecuencia). El equipo de investigación especial del que formaba parte se disuelve por la fuerza; el tráfico de drogas en Baltimore continúa sin control.

Algo similar le sucede a Alex Stamos, el ex director de seguridad no ficticio de Facebook, a raíz de su investigación de 2016-17 sobre la interferencia rusa en la plataforma. En Una fea verdad: dentro de la batalla por la dominación de Facebook, las autoras Sheera Frenkel y Cecilia Kang detallan la creciente conciencia de la empresa sobre los adversarios extranjeros que se encuentran entre ellos. Para cuando todo haya terminado, Donald Trump será presidente y la respuesta vacilante de Facebook desencadena un ajuste de cuentas internacional sobre el tamaño y el poder de las plataformas tecnológicas.

Las líneas generales de esta historia son bien conocidas y se han contado con regularidad desde entonces, incluso en esta columna. (Las secuelas de las elecciones de 2016 y el papel de Facebook en ellas fueron la inspiración original para este boletín). El valor de Una fea verdad proviene de los detalles que aporta a la investigación de Rusia, tal como la experimentaron algunos de sus participantes en ese momento. Y aunque finalmente llego a conclusiones diferentes a las de los autores, vale la pena leer el libro para todos los interesados ​​en las redes sociales, la confianza y la seguridad y la ciberseguridad. (Y, por supuesto, para cualquier otra persona como yo que esté fascinada con la historia de Facebook).

Primero, algunas revelaciones: Frenkel y Kang han sido colegas míos en el ritmo de Facebook durante años, y he sido fanático de su trabajo durante mucho tiempo. También soy amiga de Stamos: ningún periodista puede resistirse a un bocazas que siempre se mete en problemas con sus jefes por decirles cosas que no quieren escuchar, ya que así es en secreto como todos pensamos de nosotros mismos.

Stamos llegó a Facebook en septiembre de 2015 después de un período de alto perfil en Yahoo, donde descubrió una vulnerabilidad en el correo de Yahoo que permitía al gobierno de los EE. UU. Monitorear los mensajes de los usuarios de Yahoo Mail. La vulnerabilidad había sido aprobada por la entonces directora ejecutiva Marissa Mayer; Stamos renunció unas semanas después por principio.

En realidad, hubo dos campañas rusas separadas en Facebook durante las elecciones de 2016. El primero provino de la agencia de inteligencia militar de Rusia, el GRU. Facebook descubrió por primera vez la actividad de GRU en marzo de 2016, según una autopsia que circuló internamente el año siguiente. Los agentes de GRU crearon páginas y cuentas de Facebook falsas y las utilizaron para difundir desinformación y noticias falsas. El equipo de Stamos compartió informes sobre lo que encontró con el FBI (no escuchó nada de la agencia) y también con sus supervisores directos.

Facebook tardó en eliminar parte de lo que encontró, en parte porque en ese momento no tenía ninguna regla contra los grupos extranjeros que establecían grupos y páginas para manipular la opinión estadounidense. Después de que Facebook se dio cuenta de que una página operada por Rusia conocida como DCLeaks estaba distribuyendo correos electrónicos robados de la campaña de Clinton a los periodistas en la plataforma, la compañía inicialmente no tomó ninguna medida. Solo después de que un analista de seguridad descubrió que los documentos contenían información personal, una clara violación de las reglas de Facebook, se prohibió DCLeaks.

Pero incluso mientras la empresa investigaba, no dijo nada públicamente. Los autores escriben:

Dentro del grupo de inteligencia sobre amenazas, hubo un debate sobre qué se debería hacer. Facebook era una empresa privada, argumentaron algunos, no una agencia de inteligencia; la plataforma no estaba obligada a informar sobre sus hallazgos. Por lo que Facebook sabía, la Agencia de Seguridad Nacional estaba rastreando las mismas cuentas rusas que la compañía estaba viendo y posiblemente planeando arrestos. Puede ser una irresponsabilidad que Facebook diga algo. Otros argumentaron que el silencio de Facebook estaba facilitando los esfuerzos rusos para difundir la información robada. Dijeron que la compañía necesitaba hacer público que las cuentas vinculadas a Rusia estaban difundiendo documentos pirateados a través de Facebook. Para ellos, la situación se sintió como una posible emergencia nacional. «Fue loco. No tenían un protocolo establecido, por lo que no querían que tomáramos medidas. No tenía sentido ”, dijo un miembro del equipo de seguridad. «Sentí que este era quizás un momento para romper precedentes».

Mientras Facebook consideraba qué hacer con la campaña de piratería y filtración de los rusos, una operación de influencia separada se estaba desarrollando bajo sus narices. La Agencia de Investigación de Internet, una «granja de trolls» que la New York Times había perfilado por primera vez en 2015, estaba ejecutando su propio ataque. Fue descubierto solo después de las elecciones, en 2017, cuando un senador alertó a los funcionarios de Facebook sobre su existencia. Una investigación posterior de Facebook descubrió que la IRA había publicado 80.000 publicaciones, gastó $ 100.000 en 3.300 anuncios y llegó a 126 millones de estadounidenses.

Esa investigación había sido realizada por el equipo de Stamos sin el conocimiento del CEO de Facebook, Mark Zuckerberg o la COO Sheryl Sandberg – este es el momento en el libro en el que comencé a verlo como Jimmy McNulty – y Frenkel y Kang informan que esto lo puso en una situación difícil. posición tenue. Las tensiones se desbordaron durante una presentación de los hallazgos del equipo a Zuckerberg y su equipo de liderazgo en diciembre de 2016, un mes después de las elecciones:

Su investigación podría exponer a la compañía a responsabilidad legal o supervisión del Congreso, y Sandberg, como enlace entre Facebook y Washington, eventualmente sería llamado a DC para explicar los hallazgos de Facebook al Congreso. «Nadie dijo las palabras, pero tenía la sensación de que no se puede revelar lo que no se sabe», según un ejecutivo que asistió a la reunión. El equipo de Stamos había descubierto información que nadie, incluido el gobierno de EE. UU., Había conocido anteriormente. Pero en Facebook, no siempre se agradeció ser proactivo. “Al investigar lo que estaba haciendo Rusia, Alex nos había obligado a tomar decisiones sobre lo que íbamos a decir públicamente. La gente no estaba contenta con eso ”, recordó el ejecutivo. “Se había encargado de descubrir un problema. Eso nunca se ve bien ”, observó otro participante de la reunión.

Stamos pasaría el próximo año gestionando las consecuencias de las revelaciones y elaborando varios planes para reestructurar las operaciones de seguridad de Facebook. Una de sus ideas era integrar al personal de seguridad en toda la organización, en lugar de aislarlo del resto de Facebook. La empresa aceptó esta idea, pero terminó dejándolo como McNulty en el barco, un hombre sin país:

Cuando regresó al trabajo en enero, el equipo de seguridad de más de 120 personas que había construido se disolvió en gran parte. Como había sugerido, se trasladaron a varias partes de la empresa, pero él no tenía ningún papel ni visibilidad en su trabajo. En cambio, quedó a cargo de un equipo reducido de aproximadamente cinco personas.

Stamos dejó Facebook en el verano de 2018 para crear el Observatorio de Internet de Stanford, donde creó un equipo que analiza las operaciones de influencia en las plataformas sociales de todo el mundo.


¿Qué lecciones han aprendido las plataformas, en su caso, desde 2016? Facebook expandió masivamente su equipo dedicado a la «integridad de la plataforma», que monitorea las campañas al estilo de Rusia y publica informes mensuales sobre las redes de adversarios que interrumpe en todo el mundo. (Esto se ha vuelto tan rutinario que ahora normalmente reciben poca cobertura más allá de las publicaciones de blog de Facebook sobre el tema).

«Desde 2017, hemos eliminado más de 150 operaciones de influencia encubierta que se originaron en más de 50 condados», me dijo Facebook hoy, «y un equipo de investigación dedicado continúa protegiendo atentamente la democracia en nuestra plataforma tanto aquí como en el extranjero».

Mientras tanto, la desinformación en las elecciones estadounidenses se ha convertido en una preocupación principalmente nacional, impulsada por políticos como el expresidente Donald Trump, que difundió mentiras con impunidad y a menudo fue recompensado por ello por sus votantes.

El alambre es un programa sobre cómo las personas son moldeadas por los sistemas en los que trabajan, y Una fea verdad ofrece una historia como esa también. La policía de Facebook encontró mucha actividad sospechosa mientras patrullaba, pero lucharon por hacer un caso hermético, para decir, definitivamente, lo que estaban viendo. En medio de esa incertidumbre, la omnipotente inercia de la burocracia se hizo cargo: a quien le contamos ¿Qué hacen con lo que les dicen? ¿Quién es el responsable en última instancia? Y en la confusión, la campaña de Rusia tuvo éxito.

Al mismo tiempo, la historia de las elecciones de 2016 es mucho más grande que Rusia y Facebook. Es una historia sobre la polarización acelerada de nuestro país; ansiedad blanca por los cambios demográficos; el declive del periodismo local; y la fractura de nuestro ecosistema de información más amplio. Incluso la historia de Rusia no se trataba simplemente de Facebook: el país fue pionero en la estrategia de «piratear y filtrar» – robar documentos y compartirlos con los principales medios de comunicación mientras se oculta su origen, lo que otorga a esos documentos una mayor legitimidad cuando se publican.

Facebook tuvo muchas fallas durante 2016, pero la más grande fue la imaginación: la incapacidad de ver que una plataforma que había reunido a miles de millones de personas crearía un poderoso punto de influencia para los adversarios extranjeros que buscan remodelar la opinión pública y beneficiarse de la la propia mecánica de intercambio viral de la plataforma.

Desde entonces, Facebook ha aprendido esa lección; Nunca ha sido más difícil configurar una red de cuentas falsas en la red y mantenerla operativa. Y, sin embargo, el hecho de que Facebook sea menos vulnerable a los ataques de los actores estatales no significa que su entorno de información actual sea bueno o saludable. Las noticias de alta calidad se relegan con demasiada frecuencia a una pestaña secundaria, mientras que, dependiendo de su amigo y el gráfico de seguimiento, su News Feed podría ser tan tonto, partidista y polarizador como siempre.

¿Cuál será el resultado de que las personas consuman años de publicaciones de noticias que los desinforman o los llevan a la indignación? ¿Quién es el McNulty dentro de Facebook habilitado para funcionar? que ¿investigación?

Parece que también hay algunos fallos de imaginación allí.


Si bien la historia de Rusia está en el corazón de Una fea verdad, el libro también sirve como una especie de compendio de los escándalos de más alto perfil de Facebook a lo largo de los años. En busca de un hilo conductor, los autores atribuyen la historia de crisis de relaciones públicas de la empresa a sus orígenes capitalistas: «la plataforma se basa en una dicotomía fundamental, posiblemente irreconciliable: su supuesta misión de hacer avanzar la sociedad conectando a las personas y, al mismo tiempo, sacar provecho de ellas».

Ciertamente, Facebook desencadenó varias crisis como resultado directo de perseguir el crecimiento y las ganancias por encima de todo: el lanzamiento inicial de News Feed; la Faro desastre publicitario; establecer publicaciones como públicas de forma predeterminada en 2009; y lo más condenatorio, la trágica, despreocupada expansión en un genocida Myanmar, donde Facebook inicialmente solo tenía un moderador que hablaba birmano.

Sin embargo, otros temas que se tratan aquí no encajan tan bien en esa narrativa. El uso de moderadores humanos por parte de la empresa para seleccionar «temas de tendencia» para el feed, que tiene mucho espacio en el libro, en realidad mejorado Facebook al mantener la información errónea fuera de la vista. En la medida en que fue un escándalo, fue solo porque la selección de noticias de alta calidad puso en desventaja a los blogueros republicanos indignados.

En otros casos, la compañía se enfrenta a un retroceso porque ejerce su derecho a moderar el contenido como mejor le parezca: dejar un video manipulado de Nancy Pelosi, por ejemplo, o defender una política de una década que permite a los negadores del Holocausto en la plataforma. (Esa política se revirtió el año pasado). Independientemente de lo que piense de esas decisiones, no me parecen trucos del crecimiento capitalista.

Para mí, los escándalos de Facebook más alarmantes siempre han sido los que reflejan la capacidad de la empresa para afectar la psicología humana, normalmente sin nuestro conocimiento. Como la vez en 2012 en que la empresa experimentó alterando el estado de ánimo de los usuarios mostrándoles publicaciones felices o tristes en la sección de noticias. O la revelación de que Cambridge Analytica utilizó datos de Facebook para crear «perfiles psicográficos» de los usuarios con la esperanza de orientarlos mejor con anuncios en beneficio de la campaña de Trump. (Este esfuerzo parece haber sido un fracaso total, pero el hecho de que esto pareciera posible alimentó gran parte de la indignación hacia esa empresa y Facebook).

Puede ver la historia de la interferencia rusa en Facebook como un escándalo de crecimiento y ganancias, yo adivinar – si quiere sugerir que sucedió solo porque la compañía invirtió poco en seguridad y moderación, lo que todos en Facebook ahora reconocen que sucedió. Pero para mí, este cae en el último campo: el de la psicología humana. En última instancia, me preocupa menos que a Facebook le tomó tanto tiempo encontrar a los rusos como a mí sobre lo que era posible que hicieran. utilizando Facebook. Después de todo, la misma maquinaria viral que utilizaron con tanto éxito en 2016 sigue siendo utilizada todos los días, por estadounidenses contra otros estadounidenses, y por varios gobiernos extranjeros contra sus propios ciudadanos.

Para mí, esa no es una historia sobre la «ruptura» del modelo de negocio, como suele decirse de la empresa. Si Facebook hubiera desactivado los anuncios en 2015 y se hubiera convertido en una organización sin fines de lucro, la gran mayoría de la operación de influencia rusa de 2016 aún habría sido posible. Para mí, esta es una historia sobre una red social que es masiva, poderosa, en su mayoría no regulada y, debido a que sus datos son de propiedad privada, aún no se comprende bien. En 2021, Facebook ahora tiene las herramientas para lidiar con adversarios extranjeros. Pero los estadounidenses todavía no tienen muchas herramientas para lidiar con Facebook.

Así que, por supuesto, sigamos debatiendo esos proyectos de ley ahora en el Congreso. Aprobemos una ley de privacidad nacional. Examinemos las fusiones futuras y estemos atentos sobre las ambiciones de realidad virtual de Facebook. E invirtamos en redes sociales públicas – y los medios públicos en general – para ver qué tipo de bien podemos hacer en línea cuando eliminamos el afán de lucro.

Pero tampoco nos permitamos la consoladora ilusión de que los problemas en nuestro entorno de información comienzan y terminan en Menlo Park. Todo el año, los ciberataques han estado devastando nuestro país, muchos de ellos parecen tener su origen en Rusia. Esa es una historia diferente a la que se contó en Una fea verdad, pero también es parte de una sola historia, y es que durante más de cinco años, varias partes de nuestra infraestructura crítica de Internet han estado bajo ataque. Hasta hace muy poco, gracias al presidente que ayudaron a elegir, Rusia ha sufrido muy pocas consecuencias por sus acciones. Y entre todas las verdades desagradables que se exhiben aquí, esa podría ser la que más me desconcierta.


Esta columna fue coeditada con Platformer, un boletín diario sobre Big Tech y democracia.



Fuente: The Verge

Compartir:

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Esta web utiliza cookies propias y de terceros para su correcto funcionamiento y para fines analíticos y para fines de afiliación y para mostrarte publicidad relacionada con tus preferencias en base a un perfil elaborado a partir de tus hábitos de navegación. Al hacer clic en el botón Aceptar, aceptas el uso de estas tecnologías y el procesamiento de tus datos para estos propósitos. Ver Política de cookies
Privacidad