A través de Inteligencia Artificial ahora es posible emular la voz de cualquier persona para realizar estafas:
Microsoft puede emular la voz en 3 segundos con su proyecto Vall-E:
Pensaron que sus seres queridos les pedían ayuda: era una estafa con inteligencia artificial
El hombre que llamó a Ruth Card sonaba igual que su nieto Brandon. Así que cuando le dijo que estaba en la cárcel, sin cartera ni móvil, y que necesitaba dinero para pagar la fianza, Card se apresuró a hacer todo lo posible por ayudar.
“Fue sin duda una sensación de… miedo”, dijo. “De que tenemos que ayudarle ahora mismo”.
Card, de 73 años, y su marido, Greg Grace, de 75, corrieron a su banco en Regina, Saskatchewan, y retiraron 3.000 dólares canadienses (2.207 dólares estadounidenses), el máximo diario. Se apresuraron a ir a una segunda sucursal en busca de más dinero. Pero el director del banco les hizo pasar a su despacho: otro cliente había recibido una llamada similar y se había enterado de que la voz, inquietantemente precisa, había sido fingida, recuerda Card que dijo el banquero. Probablemente, el hombre del teléfono no era su nieto.
Fue entonces cuando se dieron cuenta de que les habían engañado.
“Nos engañaron”, dijo Card en una entrevista con The Washington Post. “Estábamos convencidos de que estábamos hablando con Brandon”.
A medida que aumentan las estafas por suplantación de identidad en Estados Unidos, la experiencia de Card es indicativa de una tendencia preocupante. La tecnología está haciendo que sea más fácil y más barato para los malos actores imitar voces, convenciendo a las personas, a menudo ancianos, de que sus seres queridos están en peligro. En 2022, las estafas de impostores fueron la segunda estafa más popular en Estados Unidos, con más de 36.000 denuncias de personas estafadas por quienes se hacían pasar por amigos y familiares, según datos de la Comisión Federal de Comercio. Más de 5.100 de esos incidentes se produjeron por teléfono, lo que supuso más de 11 millones de dólares en pérdidas, según funcionarios de la FTC.
Los avances en inteligencia artificial han añadido un nuevo nivel aterrador, permitiendo a los malos actores replicar una voz con sólo una muestra de audio de unas pocas frases. Gracias a la inteligencia artificial, una serie de herramientas baratas en línea pueden traducir un archivo de audio en una réplica de una voz, lo que permite a un estafador hacer que “hable” lo que escriba.
Los expertos afirman que los reguladores federales, las fuerzas de seguridad y los tribunales están mal equipados para frenar esta estafa en auge. La mayoría de las víctimas tienen pocas pistas para identificar al autor y a la policía le resulta difícil rastrear las llamadas y los fondos procedentes de estafadores que operan en todo el mundo. Y hay pocos precedentes legales para que los tribunales responsabilicen a las empresas que fabrican las herramientas de su uso.
“Es aterrador”, afirma Hany Farid, profesor de análisis forense digital en la Universidad de California en Berkeley. “Es una especie de tormenta perfecta… [con] todos los ingredientes necesarios para crear el caos”.
Aunque las estafas de impostores adoptan muchas formas, en esencia funcionan de la misma manera: un estafador se hace pasar por alguien de confianza -un hijo, amante o amigo- y convence a la víctima para que le envíe dinero porque está en apuros. Pero la tecnología de voz generada artificialmente está haciendo más convincente el engaño. Las víctimas dicen reaccionar con horror visceral al oír a sus seres queridos en peligro.
Se trata de una oscura consecuencia del reciente auge de la inteligencia artificial generativa, que respalda el software que crea textos, imágenes o sonidos a partir de los datos que se le suministran. Los avances en matemáticas y potencia de cálculo han mejorado los mecanismos de entrenamiento de este tipo de software, impulsando a una flota de empresas a lanzar chatbots, creadores de imágenes y creadores de voz extrañamente realistas.
El software de generación de voz por IA analiza qué hace única la voz de una persona (edad, sexo, acento, etc.) y busca en una amplia base de datos de voces para encontrar otras similares y predecir patrones, explica Farid.
A continuación, puede recrear el tono, el timbre y los sonidos individuales de la voz de una persona para crear un efecto general similar, añadió. Requiere una muestra corta de audio, tomada de lugares como YouTube, podcasts, anuncios, TikTok, Instagram o vídeos de Facebook, dijo Farid.
“Hace dos años, incluso hace un año, necesitabas mucho audio para clonar la voz de una persona”, dijo Farid. “Ahora… si tienes una página de Facebook… o si has grabado un TikTok y tu voz está ahí durante 30 segundos, la gente puede clonar tu voz”.
Empresas como ElevenLabs, una start-up de sintetización de voz por IA fundada en 2022, transforman una breve muestra vocal en una voz generada sintéticamente a través de una herramienta de texto a voz. El software de ElevenLabs puede ser gratuito o costar entre 5 y 330 dólares al mes de uso, según el sitio, con precios más altos que permiten a los usuarios generar más audio.
ElevenLabs saltó a las noticias tras las críticas a su herramienta, que se ha utilizado para replicar voces de famosos diciendo cosas que nunca hicieron, como Emma Watson recitando falsamente pasajes del “Mein Kampf” de Adolf Hitler. ElevenLabs no devolvió la solicitud de comentarios, pero en un hilo de Twitter la empresa dijo que está incorporando salvaguardias para frenar el uso indebido, incluida la prohibición de que los usuarios gratuitos creen voces personalizadas y el lanzamiento de una herramienta para detectar audio generado por IA.
Pero esas salvaguardias llegan demasiado tarde para víctimas como Benjamin Perkin, cuyos ancianos padres perdieron miles de dólares por una estafa de voz.
Su pesadilla de clonación de voz empezó cuando sus padres recibieron una llamada telefónica de un supuesto abogado, diciendo que su hijo había matado a un diplomático estadounidense en un accidente de coche. Perkin estaba en la cárcel y necesitaba dinero para los gastos legales.
El abogado puso al teléfono a Perkin, de 39 años, quien dijo que les quería, que les apreciaba y que necesitaba el dinero. Unas horas más tarde, el abogado volvió a llamar a los padres de Perkin, diciéndoles que su hijo necesitaba 21.000 dólares (15.449 dólares) antes de una cita en el juzgado ese mismo día.
Los padres de Perkin le dijeron más tarde que la llamada les había parecido inusual, pero que no podían quitarse de la cabeza la sensación de que realmente habían hablado con su hijo.
La voz sonaba “lo bastante cercana como para que mis padres creyeran de verdad que habían hablado conmigo”, dijo. En su estado de pánico, corrieron a varios bancos para conseguir dinero en efectivo y enviaron al abogado el dinero a través de un terminal bitcoin.
Cuando el verdadero Perkin llamó a sus padres esa noche para hacer una comprobación casual, estaban confusos.
No está claro de dónde sacaron su voz los estafadores, aunque Perkin ha publicado vídeos en YouTube hablando de su afición a las motos de nieve. La familia ha presentado una denuncia ante las autoridades federales canadienses, explica Perkin, pero eso no ha servido para recuperar el dinero.
“El dinero ha desaparecido”, dijo. “No hay seguro. No se puede recuperar. Ha desaparecido”.
Will Maxson, director adjunto de la división de prácticas de marketing de la FTC, dijo que localizar a los estafadores de voz puede ser “especialmente difícil” porque podrían estar utilizando un teléfono con sede en cualquier parte del mundo, lo que hace difícil incluso identificar qué agencia tiene jurisdicción sobre un caso concreto.
Maxson instó a una vigilancia constante. Si un ser querido le dice que necesita dinero, ponga esa llamada en espera e intente llamar a su familiar por separado, dijo. Si una llamada sospechosa procede del número de un familiar, tenga en cuenta que también puede ser falsificada. No pague nunca con tarjetas regalo, porque son difíciles de rastrear, añadió, y desconfíe de cualquier petición de dinero en efectivo.
Eva Velásquez, directora ejecutiva del Identity Theft Resource Center (Centro de Recursos contra el Robo de Identidad), afirma que a las fuerzas de seguridad les resulta difícil localizar a los ladrones que clonan la voz. Velásquez, que trabajó 21 años en la Fiscalía del Distrito de San Diego investigando el fraude al consumidor, dijo que los departamentos de policía pueden no tener suficiente dinero y personal para financiar una unidad dedicada a rastrear el fraude.
Los departamentos más grandes tienen que asignar los recursos a los casos que pueden resolverse, dijo. Las víctimas de estafas de voz pueden no tener mucha información que dar a la policía para las investigaciones, lo que hace difícil que los funcionarios dediquen mucho tiempo o personal, sobre todo para las pérdidas más pequeñas.
“Si no tienen ninguna información al respecto”, dijo. “¿Por dónde empiezan?”.
Farid afirmó que los tribunales deberían exigir responsabilidades a las empresas de IA si los productos que fabrican provocan daños. Juristas, como el juez del Tribunal Supremo Neil Gorsuch, dijeron en febrero que las protecciones legales que protegen a las redes sociales de demandas podrían no aplicarse al trabajo creado por IA.
Para Card, la experiencia la ha hecho más vigilante. El año pasado habló con su periódico local, el Regina Leader-Post, para advertir a la gente sobre estas estafas. Como no perdió dinero, no lo denunció a la policía.
Sobre todo, dice, se siente avergonzada.
“No era una historia muy convincente”, dice. “Pero no tenía que ser mejor de lo que era para convencernos”.
Compartir artículo en:
Más artículos
Avance del Proyecto de Ley
Víctimas de estafa se unen en denuncia colectiva contra entidades bancarias
Víctimas de estafas bancarias llevarán proyecto de ley a Congreso para proteger a clientes