Estos fraudes son especialmente efectivos porque los estafadores no solo imitan las voces de un familiar, sino que también manipulan la identificación de llamadas, falsificando números telefónicos para que parezcan auténticos.
Por Canal26
Miércoles 25 de Diciembre de 2024 - 11:50
Las estafas de voz mediante inteligencia artificial experimentaron un preocupante aumento, aprovechando los avances tecnológicos para replicar voces humanas y engañar a víctimas.
Este tipo de fraude, conocido como “estafas de los abuelos”, se dirige especialmente a personas mayores, quienes son más vulnerables a ser manipuladas emocionalmente debido a su desconocimiento sobre estas tecnologías.
Clonación de voz con inteligencia artificial: el nuevo modus operandi de los estafadores. Foto: Pexels.
Los delincuentes emplean herramientas de clonación de voz que replican con gran precisión el tono y timbre de una persona. De esta forma, pueden hacerse pasar por familiares en situaciones de emergencia ficticias, solicitando ayuda financiera inmediata.
Para incrementar la credibilidad del engaño, los estafadores también falsifican los números de teléfono, simulando que la llamada proviene de alguien conocido por la víctima.
En 2023, los adultos mayores en Estados Unidos sufrieron pérdidas por 3.400 millones de dólares a causa de delitos financieros, según datos del FBI. La agencia destacó que el uso de inteligencia artificial hace que las estafas sean más convincentes y elimina errores que podrían advertir a las víctimas.
Según la Oficina Federal, gran parte de estas estafas se basa en la manipulación psicológica. Esto significa que los estafadores provocan miedo para inhibir el juicio crítico de las personas.
Te puede interesar:
La Comisión de Comercio Justo de Japón podría culpar a Google de violar la ley antimonopolio
Frente a este panorama, los expertos recomiendan medidas simples pero eficaces para protegerse de estos delitos. Una de las más importantes es la implementación de palabras de seguridad familiares, es decir, códigos preestablecidos que permitan verificar la identidad de la persona que solicita ayuda.
Clonación de voz con inteligencia artificial: el nuevo modus operandi de los estafadores. Foto: X / Grok AI.
Estas palabras deben ser únicas y difíciles de adivinar, evitando información que pueda ser obtenida fácilmente a través de internet, como nombres de calles, ciudades o fechas importantes. Una frase compuesta por al menos cuatro palabras ofrece un nivel adicional de seguridad.
Además, se sugiere establecer protocolos claros dentro de la familia para verificar la identidad de quienes llaman pidiendo ayuda. En cualquier situación que involucre una solicitud financiera, es fundamental exigir que la persona que llama proporcione la palabra de seguridad antes de realizar cualquier transferencia.
A su vez, estas medidas deben ir acompañadas de una adecuada educación para evitar errores comunes. Por ejemplo, en momentos de estrés, algunas víctimas podrían ofrecer la palabra de seguridad al estafador en lugar de exigirla.
Clonación de voz con inteligencia artificial: el nuevo modus operandi de los estafadores. Foto: Unsplash.
El avance de la inteligencia artificial plantea un desafío constante en materia de ciberseguridad. Mientras que las tecnologías se vuelven más accesibles, los delincuentes encuentran nuevas formas de explotarlas. Sin embargo, con la implementación de medidas preventivas adecuadas y un enfoque en la educación y la concienciación, es posible reducir el impacto de estas estafas.
1
Estafas en Navidad y Año Nuevo: los 5 nuevos engaños de los hackers que ponen en peligro las cuentas bancarias
2
Alarmante aumento de fraudes con IA: cómo protegerse de esta nueva amenaza, según el FBI
3
WhatsApp: cómo activar el "Modo Navidad" en la aplicación de Meta
4
Adiós a la PlayStation 4: a partir de qué fecha Sony dejará de dar soporte a la consola
5
ChatGPT llegó a WhatsApp: paso a paso, cómo interactuar con la inteligencia artificial desde el celular