Una nueva herramienta impulsada por inteligencia artificial puede mostrarle cuánto tiempo de pantalla pasan diferentes figuras públicas y temas en la televisión.
Los investigadores de la Universidad de Stanford crearon el sistema para aumentar la transparencia en torno a las decisiones editoriales, analizando quiénes reciben cobertura y de qué están hablando.
“Al permitir que los investigadores, periodistas y el público midan cuantitativamente quién y qué aparece en las noticias, la herramienta puede ayudar a identificar sesgos y tendencias en la cobertura de noticias de la televisión por cable”. dijo líder del proyecto Maneesh Agrawala.
Normalmente, las organizaciones de supervisión y las salas de redacción se basan en un minucioso recuento manual para averiguar quién y qué está recibiendo tiempo frente a la pantalla. Pero el analizador de noticias de televisión por cable de Stanford utiliza visión por computadora para calcular esto automáticamente.
Luego, la IA muestra lo que las personas están discutiendo sincronizando el video con las transcripciones de su discurso. Los diferentes temas y oradores se pueden comparar en fechas, horas y canales.
[Leer:[Read: ]
Puede usar la herramienta para contar el tiempo de pantalla de los políticos, revisar la cobertura de las elecciones de EE. UU. O ver cómo los diferentes canales informan sobre ciertos temas.
El siguiente ejemplo muestra cuánto CNN, Fox y MSNBC han presentado el controvertido término «virus chino».

Como era de esperar, el término ha aparecido regularmente en Fox. Pero también se ha debatido con frecuencia en CNN y MSNBC.
Sin embargo, eso no significa que CNN respalde el insulto. Hacer clic en el enorme pico rojo muestra que la abundante cobertura del canal sobre el término el 22 de junio fue muy crítica con el uso de la frase por parte de Trump.

Sin embargo, la cobertura de Fox tendió a defender la xenofobia de Trump. La transcripción a continuación ofrece un buen ejemplo de cómo la red cubrió el término:

Riesgos y recompensas de la IA
La herramienta también puede identificar sesgos de género en la cobertura televisiva. En el gráfico siguiente, el movimiento hacia la paridad de género en el aire parece haber invertido desde 2015.

Sin embargo, este ejemplo plantea una de las preocupaciones éticas en torno al proyecto. El sistema utiliza visión por computadora para realizar una evaluación binaria del género de cada presentador, en función de la apariencia de su rostro. Pero su apariencia podría ser diferente a su identidad de género o sexo de nacimiento. Esta deficiencia corre el riesgo de confundir a las personas y excluir a las personas no binarias del análisis.
Además, el reconocimiento facial es notoriamente sesgado y propenso a errores. Pero los investigadores afirman que su aplicación tiene un bajo potencial de daño.
También dicen que todas las personas en su base de datos fueron identificadas por la API de reconocimiento de celebridades de Amazon Rekognition, que solo incluye figuras públicas. Sin embargo, Amazon no ha revelado su definición de figura pública.
A pesar de estos escrúpulos, la herramienta podría proporcionar información útil sobre los sesgos de los medios de comunicación, en particular con otra campaña electoral desagradable y divisiva en Estados Unidos en curso.
Puede probar la herramienta usted mismo en el Sitio web de Stanford Cable TV News Analyzer.
Entonces, ¿le gusta nuestra marca de medios Neural? Debieras únete a nuestra pista de eventos neuronales en TNW2020, donde escuchará cómo la inteligencia artificial está transformando industrias y empresas.
Publicado el 28 de agosto de 2020-14: 59 UTC