El FBI emite alerta de estafa a través de voces de amigos o familiares creadas mediante Inteligencia Artificial
Contesta una llamada y escucha la voz de su padre, esposa o la de un amigo. Esta persona necesita ayuda urgente porque se le bajó una llanta o necesita dinero. Sin embargo, no es real, ya que detrás de ese tono familiar, hay un sistema que imita voces humanas a la perfección.
Se trata de un nuevo tipo de estafa, cada vez más común y sofisticada, creado con inteligencia artificial. El FBI alerta sobre este tipo de engaños, que se ejecutan a nivel mundial.
Este método se denomina vishing, una técnica que combina llamadas telefónicas y audios generados por algoritmos para manipular emocionalmente a las víctimas y robar información o fondos.
Le puede interesar: La Fiscalía alerta sobre modalidad de estafa el billetazo: ¿qué es y cómo evitarla?
Los estafadores crean mensajes de voz o llamadas que imitan casi a la perfección a la persona suplantada a través de las voces disponibles en videos o audios que se publicaron en redes sociales o que fueron enviadas a través de aplicaciones de mensajería. Luego las procesan mediante modelos de Inteligencia Artificial entrenados para replicar patrones de habla, entonaciones y frases características.
En muchos casos, el objetivo es que la víctima transfiera dinero con urgencia o proporcione datos sensibles, haciéndole creer que está ayudando a alguien de confianza.
¿Cómo evitar ser víctima del vishing o estafa telefónica?
Le puede interesar: Personaje creado con IA estafa a una mujer y le roba USD 15 mil