Así es como suena un clon de voz falso usado en un intento fallido de fraude


Una de las aplicaciones más extrañas de deepfakes, la tecnología de inteligencia artificial utilizada para manipular contenido audiovisual, es la estafa de audio deepfake. Los hackers usan el aprendizaje automático para clonar la voz de alguien y luego combinan ese clon de voz con técnicas de ingeniería social para convencer a la gente de que mover dinero donde no debería estar. Tales estafas han tenido éxito en el pasado, pero ¿qué tan buenos son los clones de voz que se utilizan en estos ataques? En realidad, nunca hemos escuchado el audio de una estafa falsa, hasta ahora.

La consultora de seguridad NISOS tiene lanzó un informe analizando uno de esos intentos de fraude, y compartió el audio con tarjeta madre. El siguiente clip es parte de un correo de voz enviado a un empleado de una empresa de tecnología no identificada, en el que una voz que suena como el CEO de la compañía le pide al empleado «asistencia inmediata para finalizar un negocio urgente».

La calidad ciertamente no es excelente. Incluso bajo la cobertura de una mala señal telefónica, la voz es un poco robótica. Pero es pasable. Y si usted era un empleado junior, preocupado después de recibir un mensaje supuestamente urgente de su jefe, es posible que no esté pensando demasiado en la calidad del audio. “Definitivamente suena humano. Marcaron esa casilla en cuanto a: ¿suena más robótico o más humano? Yo diría que más humanos «, dijo Rob Volkert, investigador de NISOS. tarjeta madre. «Pero no suena como el CEO lo suficiente».

El ataque finalmente fracasó, ya que el empleado que recibió el mensaje de voz «inmediatamente pensó que era sospechoso» y lo marcó al departamento legal de la firma. Pero tales ataques serán más comunes a medida que las herramientas de deepfake sean cada vez más accesibles.

Todo lo que necesita para crear un clon de voz es acceder a muchas grabaciones de su objetivo. Cuantos más datos tenga y mejor calidad de audio, mejor será el clon de voz resultante. Y para muchos ejecutivos de grandes empresas, tales grabaciones se pueden recopilar fácilmente de llamadas de ganancias, entrevistas y discursos. Con suficiente tiempo y datos, los deepfakes de audio de la más alta calidad son mucho más convincente que el ejemplo anterior.

El ejemplo más conocido y el primer informe de una estafa de audio falso ocurrió en 2019, donde el director ejecutivo de una empresa de energía del Reino Unido fue engañado para enviar € 220,000 ($ 240,000) a un proveedor húngaro después de recibir una llamada telefónica supuestamente del CEO de la empresa matriz de su empresa en Alemania. Al ejecutivo le dijeron que la transferencia era urgente y que los fondos debían enviarse dentro de una hora. El lo hizo. Los atacantes nunca fueron atrapados.

A principios de este año, la FTC advirtió sobre el aumento de tales estafas, pero los expertos dicen que hay una manera fácil de vencerlos. Como Patrick Traynor de la Facultad de Ingeniería Herbert Wertheim dicho El borde en enero, todo lo que necesita hacer es colgar el teléfono y volver a llamar a la persona. En muchas estafas, incluida la informada por NISOS, los atacantes están utilizando una cuenta VOIP para contactar a sus objetivos.

«Cuelga y devuelve la llamada», dice Traynor. «A menos que sea un actor estatal que pueda redirigir llamadas telefónicas o un grupo de piratería muy, muy sofisticado, lo más probable es que esa sea la mejor manera de averiguar si estaba hablando con quién creía que era».



Fuente: The Verge

Compartir:

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Esta web utiliza cookies, puedes ver aquí la Política de Cookies