Voces clonadas con IA, la última moda entre los ciberdelincuentes para hacer estafas telefónicas

estafa con inteligencia artificial
estafa con inteligencia artificial

Los ciberdelincuentes están utilizando a la IA para clonar voces de personas de nuestro entorno con el objetivo de estafarnos.

Recibes una llamada telefónica de un número desconocido, descuelgas y sorpresa, es un familiar que te pide con voz desesperada ayuda. Te indica que está en serios problemas porque la han secuestrado, ha tenido un accidente o la han arrestado. ¿La única solución? Necesita dinero cuánto antes.

No es un relato de misterio, terror o ficción, se trata de una estafa telefónica reciente: la clonación de voces con inteligencia artificial.

Voz clonada con IA, la nueva estafa telefónica que usan los ciberdelincuentes

Basta con tres segundos de audio para que una inteligencia artificial clone tu voz y los ciberdelincuentes lo usen para estafarte a ti o a tus seres queridos. Es la conclusión a la que llegan los expertos de McAfee tras realizar un estudio global que reveló que de las 7000 personas encuestadas, una de cada cuatro dijo que había experimentado una estafa de clonación de voz con IA.

Sin duda alguna, esta modalidad de estafa es una de las más elaboradas, creíbles y, por desgracia, sumamente perjudicial para cualquier persona de nuestro entorno, incluso para nosotros mismos.

Ya sabemos lo que es, pero ¿cómo se produce? Los ciberdelincuentes replican una voz concreta a partir de una pequeña muestra que introducen en un software de generación de voz. Esta IA analiza la muestra partiendo de patrones (edad, género, acento) y busca en su base de datos voces similares para predecir patrones y recrear la voz que interesa a los ciberdelincuentes.

Tras copiar la voz, los estafadores la utilizan contra los familiares de la víctima. Normalmente es una llamada telefónica en un contexto de emergencia: por favor, necesito ayuda, necesito que me mandes x dinero a x cuenta, etc. Las voces copiadas son casi indistinguibles de las originales, por lo que es muy fácil caer en el timo.

estafa con inteligencia artificial clonacion voces
estafa con inteligencia artificial clonacion voces

Según recoge Xakata, una anciana de 73 años, Ruth Card, recibió una llamada de alguien que parecía ser su nieto, Brandon, pero que en realidad era un grupo de estafadores que habían usado la clonación de voces para llevar a cabo su estafa.

Otro ejemplo nos lleva hasta el norte de China, donde un hombre recibió una videollamada por WeChat de su mujer, quién le pidió 3600 euros. Lo que no sabía este hombre era que estaba siendo victima de un deepfake con voz e imagen clonada.

Prácticamente en todo el globo se están produciendo estafas de este tipo: dos falsos secuestros en Canadá, casos en Arizona (USA) y más de 55 casos de estafa por IA en Perú.

¿Cómo evitar la estafa de las voces clonadas?

Al tratarse de una estafa elaborada, desde Electronic Frontier Foundation recomiendan crear para la familia una contraseña o palabra clave para casos de emergencia.

Además, también debemos verificar siempre el número de la llamada, analizar bien el tono de voz y dudar siempre y cuando nos soliciten dinero o los números de la tarjeta bancaria.

Por último, a falta de contraseñas, siempre podemos realizar preguntas personales que solo conozcan nuestros familiares.

stats