Cuidado a Quién le Mandas Audios, Podrías Ser Víctima de Voice Hacking, Fraude que Clona tu Voz

|

Rafael Trejo Vázquez

-

Aplicaciones de inteligencia artificial permiten a delincuentes clonar la voz de seres queridos para cometer fraudes, robar información o extorsionar

Ahora delincuentes usan voces clonadas con inteligencia artificial para suplantar a víctimas de hackeo de WhatsApp y pedir dinero prestado.

Ahora delincuentes usan voces clonadas con inteligencia artificial para suplantar a víctimas de hackeo de WhatsApp y pedir dinero prestado.

COMPARTE:

Los ciberdelincuentes están aprovechando las herramientas de inteligencia artificial para perfeccionar sus fraudes. Una de las técnicas más alarmantes es el voice hacking, o clonación de voz, que ha incrementado hasta 20% solo en el último mes, según reportes de especialistas en ciberseguridad.

¿Cómo operan los estafadores con voice hacking?

Jorge, una víctima reciente de esta modalidad, relata su experiencia:

"Recibí una llamada en la que me pedían 3 mil pesos. Lo sorprendente fue que la voz era idéntica a la de una compañera del trabajo. Pensé que era ella de verdad".

Sin embargo, al colgar, Jorge decidió llamarla directamente para verificar, y ahí descubrió que todo había sido un engaño. Los estafadores habían clonado la voz de su compañera utilizando inteligencia artificial.

Video Recomendado: Un Falso Brad Pitt Estafa con Más de 300 Mil Dólares a Dos Mujeres en España

Inteligencia artificial al servicio del fraude

Expertos explican que los delincuentes obtienen muestras de voz de plataformas como redes sociales, mensajes de voz o grabaciones públicas. Con apenas unos segundos de audio, las aplicaciones de IA logran reproducir la voz de cualquier persona casi a la perfección.

Enrique Poceros, especialista en ciberseguridad, advierte que una de las tácticas más comunes es que los estafadores se hacen pasar por repartidores de compras en línea para robar cuentas de WhatsApp.

"Pueden revisar conversaciones y mensajes de voz para clonar la voz de un contacto cercano y así pedir dinero a familiares o amigos, simulando una emergencia", explica Poceros.

Video Relacionado: Alerta: Ciberdelincuentes Suplantan la Identidad del SAT

¿Quiénes son las principales víctimas?

Los ataques con voice hacking no discriminan, pero hay grupos más vulnerables.

De acuerdo con expertos en ciberseguridad, los más afectados son:

  • Ejecutivos y empleados de empresas: Los delincuentes buscan robar información confidencial.
  • Adultos mayores: Suelen ser más susceptibles a llamadas de emergencia falsas.

Datos que alarman: aumento del 20% en fraudes con voice hacking

El crecimiento de esta modalidad es preocupante. Solo en el último mes, los fraudes y robos de identidad mediante clonación de voz han aumentado un 20% en diversos países. Esto ha encendido las alertas en el sector de la ciberseguridad.

¿Cómo protegerse?

Especialistas recomiendan:

  • Verificar siempre cualquier solicitud de dinero mediante otro canal antes de hacer transferencias.
  • Evitar compartir audios o mensajes de voz personales en redes sociales abiertas.
  • Configurar la privacidad en WhatsApp y otras plataformas para restringir el acceso a desconocidos.

El voice hacking es una amenaza creciente que se aprovecha de la confianza y el avance tecnológico. Estar alerta y verificar siempre antes de actuar puede ser la clave para evitar caer en este nuevo tipo de fraude.

Historias recomendadas: