Hoy aprendí sobre los controles deslizantes de inteligencia artificial de Intel que filtran el abuso de los juegos en línea


El mes pasado durante su presentación virtual de GDC Intel anunció Emitir pitidos, una nueva herramienta impulsada por IA que espera reducir la cantidad de toxicidad que los jugadores tienen que experimentar en el chat de voz. Según Intel, la aplicación «utiliza IA para detectar y censurar el audio según las preferencias del usuario». El filtro funciona con el audio entrante, actuando como una capa de moderación adicional controlada por el usuario además de lo que ya ofrece una plataforma o servicio.

Es un esfuerzo noble, pero hay algo tristemente divertido en la interfaz de Bleep, que enumera en detalle todas las diferentes categorías de abuso que las personas pueden encontrar en línea, junto con controles deslizantes para controlar la cantidad de maltrato que los usuarios quieren escuchar. Las categorías van desde «Agresión» a «LGBTQ + Odio», «Misoginia», «Racismo y xenofobia» y «Nacionalismo blanco». Incluso hay un interruptor para la palabra N. La página de Bleep señala que aún no ha entrado en la versión beta pública, por lo que todo esto está sujeto a cambios.

Los filtros incluyen «Agresión», «Misoginia» …
Crédito: Intel

… y un interruptor para la «N-palabra».
Imagen: Intel

Con la mayoría de estas categorías, Bleep parece darles a los usuarios una opción: ¿le gustaría que no se filtrara ninguno, algunos, la mayoría o todo este lenguaje ofensivo? Al igual que elegir entre un buffet de lodo tóxico de Internet, la interfaz de Intel ofrece a los jugadores la opción de agregar una ración ligera de agresión o insultos en sus juegos en línea.

Bleep ha estado en proceso durante un par de años. PCMag notas que Intel habló sobre esta iniciativa en GDC 2019, y está trabajando con especialistas en moderación de IA Espíritu AI en el software. Pero moderar espacios online usando inteligencia artificial no es una hazaña fácil como lo han demostrado plataformas como Facebook y YouTube. Aunque los sistemas automatizados pueden identificar palabras claramente ofensivas, a menudo no tienen en cuenta el contexto y los matices de ciertos insultos y amenazas. La toxicidad en línea se presenta en muchas formas en constante evolución que pueden ser difíciles de detectar incluso para los sistemas de moderación de IA más avanzados.

«Si bien reconocemos que soluciones como Bleep no borran el problema, creemos que es un paso en la dirección correcta, que brinda a los jugadores una herramienta para controlar su experiencia», dijo Roger Chandler de Intel durante su demostración de GDC. Intel dice que espera lanzar Bleep a finales de este año, y agrega que la tecnología se basa en la detección de voz de IA acelerada por hardware, lo que sugiere que el software puede depender del hardware de Intel para ejecutarse.



Fuente: The Verge

Compartir:

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Esta web utiliza cookies propias y de terceros para su correcto funcionamiento y para fines analíticos y para fines de afiliación y para mostrarte publicidad relacionada con tus preferencias en base a un perfil elaborado a partir de tus hábitos de navegación. Al hacer clic en el botón Aceptar, aceptas el uso de estas tecnologías y el procesamiento de tus datos para estos propósitos. Ver Política de cookies
Privacidad