Los estafadores utilizan la inteligencia artificial (IA) para mejorar sus planes de emergencia familiar

Recibes una llamada. Hay una voz de pánico en la línea. Es tu nieto. Dice que está metido en un buen lío: ha destrozado el coche y ha ido a parar a la cárcel. Pero puedes ayudarle enviándole dinero. Respiras hondo y piensas. Has oído hablar de estafas a abuelos. Pero caray, suena igual que él. ¿Cómo puede ser una estafa? Clonación de voz, así es cómo.
La inteligencia artificial ya no es una idea descabellada sacada de una película de ciencia ficción. Vivimos con ella, aquí y ahora. Un estafador podría utilizar la IA para clonar la voz de un ser querido. Todo lo que necesita es un breve clip de audio de la voz de su familiar -que podría obtener de contenidos publicados en Internet- y un programa de clonación de voz. Cuando el estafador le llame, sonará igual que su ser querido.
Entonces, ¿cómo saber si un familiar tiene problemas o si se trata de un estafador que utiliza una voz clonada?
No te fíes de la voz. Llame a la persona que supuestamente se ha puesto en contacto con usted y verifique la historia. Utiliza un número de teléfono que sepas que es el suyo. Si no puedes localizar a tu ser querido, intenta ponerte en contacto con él a través de otro familiar o de sus amigos.
Los estafadores le piden que pague o envíe dinero de formas que dificultan la devolución de su dinero. Si la persona que llama le pide que transfiera dinero, envíe criptomonedas o compre tarjetas de regalo y le da los números de las tarjetas y los PIN, podrían ser indicios de una estafa. Si detecta una estafa, denúnciela a la FTC en ReportFraud.ftc.gov.
*Traído a usted por el programa de Asesoramiento Financiero y de Vivienda (320) 650-1664.
Noticias recientes

