Nueva estafa por WhatsApp: usan IA para copiar la voces y roban dinero del banco

A través del robo de cuentas de la aplicación de Meta, los ciberdelincuentes se acercan a la víctima de forma sencilla.

Sociedad29/10/2024

746685890_231450299_1024x576

Se ha hecho viral un video de un joven que muestra como a través de WhatsApp su mamá le envía una serie de audios, pidiéndole dinero. Sin embargo, detrás de toda esta situación está la inteligencia artificial, copiando la voz de ella para hacerle creer a su hijo que está en una situación en la que necesita el dinero pronto, algo que también es posible al robo de cuentas en la aplicación.

Esta modalidad de ataque se conoce como visihing, en la que se usa la IA para clonar la voz de una persona para suplantar su identidad y enviar un mensaje falso para solicitar dinero o datos personales, todo justificado mediante una petición cercana a la víctima.

22263_landscapeFuertes subas en el mercado de criptomonedas: Bitcoin se dispara y supera los u$s71.000

Cómo es la estafa viral de clonación de voz en WhatsApp
 
En el video publicado, un joven muestra el chat que tiene con su mamá en la aplicación de Meta, allí aparecen una serie de audios en los que ella le está pidiendo con urgencia que le envíe dinero a una cuenta.

Ante esta situación, él le responde a su supuesta mamá que ya mismo le hace la transferencia a la cuenta de siempre. Sin embargo, desde los audios le insisten que no lo haga porque no tiene la tarjeta para retirar el dinero de esa cuenta habitual y le envían los datos de transferencia para otra persona, que supuestamente es una amiga de ella.

Toda esta situación es grabada con la mamá al lado y en los audios se evidencian errores en la dicción, que normalmente son generados al clonar una voz con inteligencia artificial, lo que le permitió identificar a la víctima la falsedad del ataque.

Si bien lo que sucede puede parecer fácil de captar y no caer en la trampa, este tipo de amenazas cada vez están más pulidas y si los usuarios revelan datos personales, será mucho más sencillo para los ciberatacantes personalizar los audios para aumentar la percepción de realidad de la situación.

Con información de Infobae

Más noticias
Destacadas

Recibí información en tu mail