AI está haciendo que una estafa de larga duración sea aún más efectiva

Sin duda, ha oído hablar de la estafa en la que el perpetrador llama a una persona mayor y se hace pasar por su nieto o algún otro pariente cercano. La rutina habitual es actuar en un estado de angustia, fingir que se encuentran en una situación complicada y solicitar una transferencia de efectivo urgente para resolver la situación. Si bien muchos abuelos se darán cuenta de que la voz no es la de su nieto y colgarán, otros no se darán cuenta y, demasiado ansiosos por ayudar a su ansioso pariente, seguirán adelante y enviarán dinero a la cuenta de la persona que llama.

Un informe del Washington Post del domingo revela que algunos estafadores han llevado la estafa a un nivel completamente nuevo al implementar tecnología de inteligencia artificial capaz de clonar voces, lo que hace que sea aún más probable que el objetivo caiga en la trampa.

Una persona mayor sosteniendo un teléfono.

Para lanzar esta versión más sofisticada de la estafa, los delincuentes requieren "una muestra de audio con solo unas pocas oraciones", según el Post. Luego, la muestra se ejecuta a través de una de las muchas herramientas en línea ampliamente disponibles que usan la voz original para crear una réplica a la que se le puede indicar que diga lo que quiera simplemente escribiendo frases.

Los datos de la Comisión Federal de Comercio sugieren que, solo en 2022, hubo más de 36 000 informes de las llamadas estafas de impostores, de las cuales más de 5000 ocurrieron por teléfono. Las pérdidas reportadas alcanzaron los $ 11 millones.

El temor es que con las herramientas de IA cada vez más efectivas y más ampliamente disponibles, incluso más personas caigan en la estafa en los próximos meses y años.

Sin embargo, la estafa aún requiere algo de planificación, ya que un perpetrador determinado necesita encontrar una muestra de audio de una voz, así como el número de teléfono de la víctima relacionada. Las muestras de audio, por ejemplo, podrían ubicarse en línea a través de sitios populares como TikTok y YouTube, mientras que los números de teléfono también podrían ubicarse en la web.

La estafa también puede tomar muchas formas. The Post cita un ejemplo en el que alguien que fingía ser abogado contactó a una pareja de ancianos y les dijo que su nieto estaba bajo custodia por un presunto delito y que necesitaban más de $15,000 para los costos legales. El falso abogado luego fingió entregarle el teléfono a su nieto, cuya voz clonada suplicó ayuda para pagar los honorarios, lo cual hicieron debidamente.

Solo se dieron cuenta de que habían sido estafados cuando su nieto los llamó más tarde ese día para conversar. Se cree que el estafador pudo haber clonado su voz de los videos de YouTube que publicó el nieto, aunque es difícil estar seguro.

Algunos piden que las empresas que fabrican la tecnología de inteligencia artificial que clona voces sean responsables de tales delitos. Pero antes de que esto suceda, parece seguro que muchos otros perderán dinero a través de esta nefasta estafa.

Para escuchar un ejemplo de una voz clonada y ver qué tan cerca puede llegar a estar del original, consulte este artículo de Digital Trends .