Instagram lanza herramientas para filtrar mensajes directos abusivos basados ​​en palabras clave y emojis, y para bloquear personas, incluso en cuentas nuevas.


Facebook y su familia de aplicaciones han lidiado durante mucho tiempo con el tema de cómo administrar mejor, y erradicar, el acoso y otros tipos de acoso en su plataforma, recurriendo tanto a algoritmos como a humanos en sus esfuerzos por abordar mejor el problema. En el último desarrollo, hoy, Instagram está anunciando algunas nuevas herramientas propias.

En primer lugar, está introduciendo una nueva forma para que las personas se protejan aún más del acoso en sus mensajes directos, específicamente en las solicitudes de mensajes mediante un nuevo conjunto de palabras, frases y emojis que podrían indicar contenido abusivo, que también incluirá errores ortográficos comunes de esos. términos clave, a veces utilizados para tratar de evadir los filtros. En segundo lugar, ofrece a los usuarios la posibilidad de bloquear a las personas de forma proactiva incluso si intentan ponerse en contacto con el usuario en cuestión a través de una nueva cuenta.

La función de bloqueo de cuentas se activará a nivel mundial en las próximas semanas, dijo Instagram, y me confirmó que la función para filtrar los mensajes directos abusivos comenzará a implementarse en el Reino Unido, Francia, Alemania, Irlanda, Canadá, Australia y Nueva Zelanda. en unas pocas semanas antes de estar disponible en más países durante los próximos meses.

En particular, estas funciones solo se están implementando en Instagram, no en Messenger ni en WhatsApp, las otras dos aplicaciones enormemente populares de Facebook que permiten la mensajería directa. El portavoz confirmó que Facebook espera llevarlo a otras aplicaciones en el establo a finales de este año. (Instagram y otros han publicado actualizaciones periódicas sobre aplicaciones individuales antes de considerar cómo implementarlas más ampliamente).

Instagram dijo que la función para escanear los mensajes directos en busca de contenido abusivo, que se basará en una lista de palabras y emojis que Facebook compila con la ayuda de organizaciones contra la discriminación y el acoso (no especificó cuáles), junto con los términos y Los emoji que puede agregar usted mismo deben activarse de manera proactiva, en lugar de estar disponibles de forma predeterminada.

¿Por qué? Más licencia de usuario, al parecer, y para mantener las conversaciones privadas si los usuarios quieren que lo sean. «Queremos respetar la privacidad de las personas y darles a las personas control sobre sus experiencias de la manera que mejor les funcione», dijo un portavoz, señalando que esto es similar a cómo funcionan sus filtros de comentarios. Vivirá en Configuración> Privacidad> Palabras ocultas para aquellos que quieran activar el control.

Hay una serie de servicios de terceros en la naturaleza que ahora están creando herramientas de moderación de contenido que detectan el acoso y el discurso de odio, incluidos los de Sentropy y Hive, pero lo que ha sido interesante es que las empresas de tecnología más grandes hasta ahora han optado por construir estas herramientas ellos mismos. Ese también es el caso aquí, confirmó la compañía.

El sistema está completamente automatizado, aunque Facebook señaló que revisa cualquier contenido que se informa. Si bien no guarda los datos de esas interacciones, confirmó que usará palabras informadas para continuar construyendo su base de datos más grande de términos que desencadenarán el bloqueo del contenido y, posteriormente, la eliminación, el bloqueo y la denuncia de las personas que lo envían.

Sobre el tema de esas personas, ha pasado mucho tiempo desde que Facebook ha comenzado a ser más inteligente en la forma en que maneja el hecho de que las personas con malas intenciones no han perdido tiempo en la creación de múltiples cuentas para tomar el relevo cuando sus perfiles principales bloquearse. Las personas se han visto agravadas por esta laguna desde que existen los mensajes directos, a pesar de que las políticas de acoso de Facebook ya habían prohibido a las personas contactar repetidamente a alguien que no quiere saber de ellos, y la compañía ya había prohibido la reincidencia, que como Facebook lo describe, significa «si la cuenta de alguien está deshabilitada por infringir nuestras reglas, eliminaríamos cualquier cuenta nueva que cree cada vez que tengamos conocimiento de ello».

El enfoque de la empresa hacia los mensajes directos ha sido una especie de modelo de cómo otras empresas de redes sociales los han desarrollado.

En esencia, son abiertos de forma predeterminada, con una bandeja de entrada reservada para contactos reales, pero una segunda para que cualquiera pueda contactarlo. Si bien algunas personas simplemente ignoran ese segundo cuadro por completo, la naturaleza de cómo funciona y está construido Instagram es para más, no menos, contacto con otros, y eso significa que las personas usarán esos segundos buzones de entrada para sus mensajes directos más de lo que podrían, por ejemplo, profundizar en sus bandejas de entrada de spam en el correo electrónico.

Sin embargo, el problema más grande sigue siendo un juego de whack-a-mole, y no solo sus usuarios están pidiendo más ayuda para resolverlo. A medida que Facebook sigue estando bajo la mirada escrutadora de los reguladores, el acoso, y una mejor gestión del mismo, ha surgido como un área muy clave que deberá resolver antes de que otros lo resuelvan.



Fuente: TechCrunch

Compartir:

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Esta web utiliza cookies propias y de terceros para su correcto funcionamiento y para fines analíticos y para fines de afiliación y para mostrarte publicidad relacionada con tus preferencias en base a un perfil elaborado a partir de tus hábitos de navegación. Al hacer clic en el botón Aceptar, aceptas el uso de estas tecnologías y el procesamiento de tus datos para estos propósitos. Ver Política de cookies
Privacidad