Mujer virtual

Voces clonadas con inteligencia artificial: la nueva arma de los estafadores

Vamos a hablar en este artículo un poco más sobre esa modalidad de estafa, cómo la logran, cuáles son las trampas más frecuentes y cómo identificarlas.

Los estafadores se aprovechan de las nuevas tecnologías para engañar a sus víctimas: enviando correos electrónicos para robar información o vendiendo productos falsificados. Los métodos de estafas online son muy variados, pero ahora debido a la aparición de la Inteligencia Artificial se usan voces clonadas para estafar.

Ya se han visto afectadas muchas personas con un modus operandi común: se reciben llamadas telefónicas aparentemente de familiares, aunque usando una voz imitada.

Vamos a hablar en este artículo un poco más sobre esa modalidad de estafa, cómo la logran, cuáles son las trampas más frecuentes y cómo identificarlas.

¿En qué consiste la estafa de voces clonadas con inteligencia artificial?

Las voces clonadas con inteligencia artificial son registros sonoros generados mediante tecnologías de IA que son idénticos a las voces originales, muy difíciles de identificar. Para conseguirlas se realiza un proceso donde se graba y analiza la voz de la víctima, para luego copiarla con el software de IA. 

Las grabaciones de voz se obtienen desde varias fuentes, como llamadas telefónicas, notas o mensajes de voz, e incluso vídeos. Después se valen de las poderosas funciones y algoritmos de los programas de IA para realizar análisis del tono, velocidad, ritmo de la voz y clonarlas. Esta práctica también se conoce como deepfake, usada para falsificar grabaciones de vídeo.

El resultado es una voz idéntica a la de una persona, que luego el estafador usa para hacerse pasar por ella y engañar a otros. Es tan fácil como escribir el texto de lo que quieren que se diga y después hacer que el ordenador reproduzca el audio con la voz clonada.

Cuáles son los métodos para engañar a las víctimas

El principal método para usar fraudulentamente las voces clonadas con inteligencia artificial es llamar a los familiares de la persona cuya voz se duplicó. Luego le piden al familiar, amigo o conocido que deposite dinero urgentemente en cierta cuenta bancaria o mediante pago móvil debido a un accidente. También suelen decir que están en la cárcel, en el hospital o en cualquier situación parecida para preocupar a la víctima.

Por supuesto, al escuchar \»la voz de su familiar\», la víctima de esta estafa en lo que menos piensa es en que se trata de un engaño. Lo que le preocupa es que su hijo, padre, sobrino o nieto esté bien y le depositan el dinero pensando que efectivamente están hablando con ese familiar.

La trampa es muy efectiva, dado que es relativamente nueva la utilización de voces clonadas con inteligencia artificial y suena muy similar a la voz original. Es muy común que se intente estafar a personas cuya actividad social ha sido previamente estudiada y tienen recursos económicos. Sin embargo, cualquiera pude ser objeto de esta estafa. Todos usamos Internet y compartimos a diario información personal en redes sociales. 

Por otro lado, también se usan las voces clonadas con inteligencia artificial para hacerse pasar por famosos que dan mensajes para campañas publicitarias o recaudar fondos. No obstante, resulta que el personaje del mundo del espectáculo o la política no es quien envía el mensaje. Como resultado, quienes lo apoyan son estafados.

Cómo identificar una posible estafa por voces clonadas con inteligencia artificial

Aunque son muy parecidas las voces, hay ciertos detalles que te permitirán saber que una llamada se trata de una estafa aunque hable un conocido. 

  1. El \»conocido que llama por teléfono\» hace una petición extraña o que no es habitual en él.
  2. Aunque el timbre de voz es idéntico, quizá hay detalles en la forma de expresarse que no cuadran con su perfil o personalidad.
  3. Como se trata de una grabación, la conversación suelen tardar un poco. No es tan fluida mientras el estafador pausa y reproduce el sonido.
  4. El número telefónico del que hacen la llamada no está en tu agenda de contactos. 
  5. En caso de no estar seguro, cuelga la llamada y llama a la persona a su número de teléfono para ver que todo marcha bien.
  6. Si sospechas que puede ser una de las voces clonadas con inteligencia artificial, haz preguntas de seguridad para constatar que la persona es quien dice ser.
https://www.www.giztab.com/profesiones-inteligencia-artificial-etica-y-derecho/

Periodista de tecnología.

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Este sitio usa Akismet para reducir el spam. Aprende cómo se procesan los datos de tus comentarios.

Scroll al inicio