YouTube comparte cuántas personas ven videos problemáticos antes de que se eliminen


YouTube quiere que el mundo sepa que está haciendo un mejor trabajo que nunca para hacer cumplir sus propias reglas de moderación. La compañía dice que un número cada vez menor de personas ve videos problemáticos en su sitio, como videos que contienen violencia gráfica, estafas o discursos de odio, antes de que se eliminen.

En los últimos meses de 2020, hasta 18 de cada 10,000 vistas en YouTube fueron videos que violan las políticas de la empresa y deberían haberse eliminado antes de que alguien los viera. Eso es menos de 72 de cada 10,000 vistas en el cuarto trimestre de 2017, cuando YouTube comenzó a rastrear la cifra.

Pero los números vienen con una advertencia importante: si bien miden qué tan bien le está yendo a YouTube para limitar la propagación de clips preocupantes, en última instancia se basan en los videos que YouTube cree que deberían eliminarse de su plataforma, y ​​la empresa aún permite algunos videos obviamente preocupantes quedarse despierto.

La estadística es una nueva adición a Informe de cumplimiento de las normas de la comunidad de YouTube, un informe de transparencia actualizado trimestralmente con detalles sobre los tipos de videos que se eliminan de la plataforma. Esta nueva cifra se llama Tasa de vistas en violación, o VVR, y rastrea cuántas vistas en YouTube ocurren en videos que violan sus pautas y deben eliminarse.

Esta cifra es esencialmente una forma en que YouTube mide qué tan bien lo está haciendo moderando su propio sitio, según sus propias reglas. Cuanto mayor sea el VVR, los videos más problemáticos se están difundiendo antes de que YouTube pueda capturarlos; cuanto más bajo sea el VVR, mejor le va a YouTube a la hora de eliminar el contenido prohibido.

YouTube hizo un gráfico que muestra cómo ha caído la cifra desde que comenzó a medir el número para uso interno:

El gráfico muestra que el VVR comienza en 0.63% - 0.72% en el cuarto trimestre de 2017 y cae abruptamente durante el próximo año a 0.23% - 0.27% antes de nivelarse alrededor de 0.16% - 0.18% en los años siguientes.

Un gráfico de YouTube que muestra VVR desde que comenzaron las mediciones.
Imagen: YouTube

La fuerte caída de 2017 a 2018 se produjo después de que YouTube comenzó a confiar en el aprendizaje automático para detectar videos problemáticos, en lugar de depender de los usuarios para informar problemas, dijo Jennifer O’Connor, directora de productos de YouTube para la confianza y la seguridad, durante una sesión informativa con los periodistas. El objetivo es «lograr que este número sea lo más cercano a cero posible».

Los videos que infringen las pautas publicitarias de YouTube, pero no las pautas generales de la comunidad, no se incluyen en la cifra de VVR, ya que no justifican su eliminación. Y el llamado «contenido límite» que choca pero que no infringe ninguna regla tampoco se incluye por la misma razón.

O’Connor dijo que el equipo de YouTube usa la cifra internamente para comprender qué tan bien lo están haciendo para mantener a los usuarios a salvo de contenido perturbador. Si aumenta, YouTube puede intentar averiguar qué tipos de videos se están filtrando y priorizar el desarrollo de su aprendizaje automático para capturarlos. «La estrella del norte de nuestro equipo es mantener seguros a los usuarios», dijo O’Connor.



Fuente: The Verge

Compartir:

Deja una respuesta

Tu dirección de correo electrónico no será publicada.

Esta web utiliza cookies propias y de terceros para su correcto funcionamiento y para fines analíticos y para fines de afiliación y para mostrarte publicidad relacionada con sus preferencias en base a un perfil elaborado a partir de tus hábitos de navegación. Al hacer clic en el botón Aceptar, acepta el uso de estas tecnologías y el procesamiento de tus datos para estos propósitos. Ver Política de cookies
Privacidad