Se hacen pasar por su nieto pidiendo ayuda con la Inteligencia artificial y resultó que era una estafa

El hombre que llamó a Ruth Card sonaba igual que su nieto Brandon. Así que cuando le dijo que estaba en la cárcel, sin cartera ni móvil, y que necesitaba dinero para pagar la fianza, Card se apresuró a hacer todo lo posible por ayudar.

“Fue sin duda una sensación de… miedo”, dijo. “De que tenemos que ayudarle ahora mismo”.

Card, de 73 años, y su marido, Greg Grace, de 75, corrieron a su banco en Regina, Saskatchewan, y retiraron 3.000 dólares canadienses (2.207 dólares estadounidenses), el máximo diario. Se apresuraron a ir a una segunda sucursal en busca de más dinero. Pero el director del banco les hizo pasar a su despacho: otro cliente había recibido una llamada similar y se había enterado de que la voz, inquietantemente precisa, había sido fingida, recuerda Card que dijo el banquero. Probablemente, el hombre del teléfono no era su nieto.

Fue entonces cuando se dieron cuenta de que les habían engañado.

“Nos engañaron”, dijo Card en una entrevista con The Washington Post. “Estábamos convencidos de que estábamos hablando con Brandon”.

A medida que aumentan las estafas por suplantación de identidad en Estados Unidos, la experiencia de Card es indicativa de una tendencia preocupante. La tecnología está haciendo que sea más fácil y más barato para los malos actores imitar voces, convenciendo a las personas, a menudo ancianos, de que sus seres queridos están en peligro. En 2022, las estafas de impostores fueron la segunda estafa más popular en Estados Unidos, con más de 36.000 denuncias de personas estafadas por quienes se hacían pasar por amigos y familiares, según datos de la Comisión Federal de Comercio. Más de 5.100 de esos incidentes se produjeron por teléfono, lo que supuso más de 11 millones de dólares en pérdidas, según funcionarios de la FTC.

Los avances en inteligencia artificial han añadido un nuevo nivel aterrador, permitiendo a los malos actores replicar una voz con sólo una muestra de audio de unas pocas frases. Gracias a la inteligencia artificial, una serie de herramientas baratas en línea pueden traducir un archivo de audio en una réplica de una voz, lo que permite a un estafador hacer que “hable” lo que escriba.

Los expertos afirman que los reguladores federales, las fuerzas de seguridad y los tribunales están mal equipados para frenar esta estafa en auge. La mayoría de las víctimas tienen pocas pistas para identificar al autor y a la policía le resulta difícil rastrear las llamadas y los fondos procedentes de estafadores que operan en todo el mundo. Y hay pocos precedentes legales para que los tribunales responsabilicen a las empresas que fabrican las herramientas de su uso.

“Es aterrador”, afirma Hany Farid, profesor de análisis forense digital en la Universidad de California en Berkeley. “Es una especie de tormenta perfecta… [con] todos los ingredientes necesarios para crear el caos”.

Aunque las estafas de impostores adoptan muchas formas, en esencia funcionan de la misma manera: un estafador se hace pasar por alguien de confianza -un hijo, amante o amigo- y convence a la víctima para que le envíe dinero porque está en apuros.

Pero la tecnología de voz generada artificialmente está haciendo más convincente el engaño. Las víctimas dicen reaccionar con horror visceral al oír a sus seres queridos en peligro.

Se trata de una oscura consecuencia del reciente auge de la inteligencia artificial generativa, que respalda el software que crea textos, imágenes o sonidos a partir de los datos que se le suministran. Los avances en matemáticas y potencia de cálculo han mejorado los mecanismos de entrenamiento de este tipo de software, impulsando a una flota de empresas a lanzar chatbots, creadores de imágenes y creadores de voz extrañamente realistas.

El software de generación de voz por IA analiza qué hace única la voz de una persona (edad, sexo, acento, etc.) y busca en una amplia base de datos de voces para encontrar otras similares y predecir patrones, explica Farid.

A continuación, puede recrear el tono, el timbre y los sonidos individuales de la voz de una persona para crear un efecto general similar, añadió. Requiere una muestra corta de audio, tomada de lugares como YouTube, podcasts, anuncios, TikTok, Instagram o vídeos de Facebook, dijo Farid.

“Hace dos años, incluso hace un año, necesitabas mucho audio para clonar la voz de una persona”, dijo Farid. “Ahora … si tienes una página de Facebook … o si has grabado un TikTok y tu voz está ahí durante 30 segundos, la gente puede clonar tu voz”.

Empresas como ElevenLabs, una start-up de sintetización de voz por IA fundada en 2022, transforman una breve muestra vocal en una voz generada sintéticamente a través de una herramienta de texto a voz. El software de ElevenLabs puede ser gratuito o costar entre 5 y 330 dólares al mes de uso, según el sitio, con precios más altos que permiten a los usuarios generar más audio.

ElevenLabs saltó a las noticias tras las críticas a su herramienta, que se ha utilizado para replicar voces de famosos diciendo cosas que nunca hicieron, como Emma Watson recitando falsamente pasajes del “Mein Kampf” de Adolf Hitler. ElevenLabs no devolvió la solicitud de comentarios, pero en un hilo de Twitter la empresa dijo que está incorporando salvaguardias para frenar el uso indebido, incluida la prohibición de que los usuarios gratuitos creen voces personalizadas y el lanzamiento de una herramienta para detectar audio generado por IA.

Pero esas salvaguardias llegan demasiado tarde para víctimas como Benjamin Perkin, cuyos ancianos padres perdieron miles de dólares por una estafa de voz.

Su pesadilla de clonación de voz empezó cuando sus padres recibieron una llamada telefónica de un supuesto abogado, diciendo que su hijo había matado a un diplomático estadounidense en un accidente de coche. Perkin estaba en la cárcel y necesitaba dinero para los gastos legales.

El abogado puso al teléfono a Perkin, de 39 años, quien dijo que les quería, que les apreciaba y que necesitaba el dinero. Unas horas más tarde, el abogado volvió a llamar a los padres de Perkin, diciéndoles que su hijo necesitaba 21.000 dólares (15.449 dólares) antes de una cita en el juzgado ese mismo día.

Los padres de Perkin le dijeron más tarde que la llamada les había parecido inusual, pero que no podían quitarse de la cabeza la sensación de que realmente habían hablado con su hijo.

La voz sonaba “lo bastante cercana como para que mis padres creyeran de verdad que habían hablado conmigo”, dijo. En su estado de pánico, corrieron a varios bancos para conseguir dinero en efectivo y enviaron al abogado el dinero a través de un terminal bitcoin.

Cuando el verdadero Perkin llamó a sus padres esa noche para hacer una comprobación casual, estaban confusos.

No está claro de dónde sacaron su voz los estafadores, aunque Perkin ha publicado vídeos en YouTube hablando de su afición a las motos de nieve. La familia ha presentado una denuncia ante las autoridades federales canadienses, explica Perkin, pero eso no ha servido para recuperar el dinero.

The Washington Post 2023

¡Deja tu comentario!

avatar
  Suscribete  
Notificar a