NY Report News
Image default
Artificial Intelligenceaudio-neutral-immersiveaudio-neutral-informativeBank of America CorporationBanking and Financial InstitutionsComputer SecurityFrauds and SwindlingHigh Net Worth IndividualsIdentity TheftVoice and Speech

Qué son los deepfakes de voz, la nueva estafa bancaria

Esta primavera, Clive Kabatznik, un inversor de Florida, llamó a su representante local de Bank of America para hablar de una gran transferencia de dinero que pensaba hacer. Luego volvió a llamar.

Excepto que la segunda llamada no era de Kabatznik. En su lugar, un programa informático había generado de manera artificial su voz e intentó engañar a la empleada del banco para que transfiriera el dinero a otro destino.

Kabatznik y su banquera fueron objeto de un intento de estafa de última generación que ha captado la atención de los expertos en ciberseguridad: el uso de la inteligencia artificial para generar deepfakes (o ultrafalsos) de voz, interpretaciones vocales que imitan la voz de personas reales.

El problema es aún tan nuevo que no existe un recuento exhaustivo de la frecuencia con que se produce. Pero un experto cuya empresa, Pindrop, supervisa el tráfico de audio para muchos de los bancos más importantes de Estados Unidos, dijo que este año había visto un aumento de su prevalencia y de la sofisticación de los intentos de fraude con voz por parte de los estafadores. A finales del año pasado, otro gran proveedor de autenticación de voz, Nuance, sufrió su primer ataque exitoso con ultrafalsos contra un cliente de servicios financieros.

En el caso de Kabatznik, el fraude fue detectable. Sin embargo, la velocidad del desarrollo tecnológico, la caída de los costos de los programas de inteligencia artificial generativa y la amplia disponibilidad de grabaciones de voces de personas en internet han creado las condiciones perfectas para las estafas ayudadas por programas de IA relacionados con la voz.

Los datos de clientes, como las cuentas bancarias que roban los piratas informáticos —y están disponibles en los mercados clandestinos— ayudan a los estafadores a llevar a cabo estos ataques. Resultan aún más fáciles con clientes adinerados, cuyas apariciones públicas, incluyendo discursos, suelen estar ampliamente disponibles en internet. Encontrar muestras de audio de clientes cotidianos también puede ser tan fácil como realizar una búsqueda en línea —por ejemplo, en aplicaciones de redes sociales como TikTok e Instagram— del nombre de alguien cuyos datos bancarios ya tienen los estafadores.

“Hay mucho contenido de audio por ahí”, afirmó Vijay Balasubramaniyan, consejero delegado y fundador de Pindrop, que revisa los sistemas automáticos de verificación por voz de ocho de las 10 mayores entidades crediticias de Estados Unidos.

En la última década, Pindrop ha revisado las grabaciones de más de 5000 millones de llamadas recibidas en los centros de atención telefónica de las empresas financieras a las que presta servicios. Los centros gestionan productos como cuentas bancarias, tarjetas de crédito y otros servicios ofrecidos por grandes bancos minoristas. Todos los centros de atención telefónica reciben llamadas de estafadores, normalmente entre 1000 y 10.000 al año. Es habitual que se reciban 20 llamadas de estafadores a la semana, según Balasubramaniyan.

Hasta ahora, las voces falsas creadas por programas informáticos solo representan “un puñado” de estas llamadas, según Balasubramaniyan, y no habían empezado a producirse sino hasta el año pasado.

La mayoría de los ataques con voces falsas que ha visto Pindrop se han producido en centros de atención telefónica de tarjetas de crédito, donde representantes humanos atienden a clientes que necesitan ayuda con sus tarjetas.

Balasubramaniyan le mostró a un periodista una grabación anónima de una de estas llamadas, que tuvo lugar en marzo. Aunque se trata de un ejemplo muy rudimentario —la voz en este caso suena robótica, más parecida a la de un lector de libros electrónicos que a la de una persona—, la llamada ilustra cómo podrían producirse estafas a medida que la IA facilite más la imitación de voces humanas.

Se oye a un empleado bancario que saluda al cliente. Luego la voz, similar a una automatizada, dice: “Mi tarjeta ha sido rechazada”.

“¿Puedo preguntar con quién tengo el gusto?”, responde el empleado bancario.

“Mi tarjeta ha sido rechazada”, vuelve a decir la voz.

El empleado bancario vuelve a preguntar el nombre del cliente. Se hace un silencio durante el cual se oye el débil sonido de unas teclas. Según Balasubramaniyan, el número de pulsaciones corresponde al número de letras en el nombre del cliente. El estafador teclea palabras en un programa que luego las lee.

En este caso, el habla sintética del interlocutor llevó al empleado a transferir la llamada a otro departamento y marcarla como potencialmente fraudulenta, explicó Balasubramaniyan.

Llamadas como esta, que utilizan tecnología de texto a voz, son algunos de los ataques más fáciles de combatir: los centros de atención telefónica pueden utilizar software de detección para identificar indicios técnicos de que el discurso ha sido generado por una máquina.

“El habla sintética deja rastros, y muchos algoritmos antifalsificación los detectan”, explicó Peter Soufleris, director general de IngenID, un proveedor de tecnología de biometría de voz.

No obstante, como ocurre con muchas medidas de seguridad, se trata de una carrera armamentística entre atacantes y defensores, y esta ha evolucionado en fechas recientes. Ahora, un estafador puede solo hablar por un micrófono o teclear un mensaje y traducirlo rápidamente a la voz del objetivo.

Balasubramaniyan señaló que un sistema de inteligencia artificial generativa, VALL-E de Microsoft, podía crear una imitación de voz que dijera lo que el usuario deseara a partir de una muestra de audio de solo tres segundos.

En mayo, en un episodio de 60 Minutes, Rachel Tobac, una consultora de seguridad, utilizó un software para clonar de manera tan convincente la voz de Sharyn Alfonsi, una de las corresponsales del programa, que logró engañar a un empleado de 60 Minutes para que le diera el número de pasaporte de Alfonsi.

El ataque sólo tardó cinco minutos en elaborarse, dijo Tobac, directora ejecutiva de SocialProof Security. La herramienta que utilizó está disponible para su compra desde enero.

Brett Beranek, director general de seguridad y biometría en Nuance, un proveedor de tecnología de voz que Microsoft adquirió en 2021, afirma que, aunque las aterradoras demostraciones de ultrafalsos son habituales en las conferencias de seguridad, los ataques reales siguen siendo muy poco frecuentes. El único ataque exitoso contra un cliente de Nuance, en octubre, le llevó al atacante más de una docena de intentos.

La mayor preocupación de Beranek no son los ataques a centros de atención telefónica o sistemas automatizados, como los sistemas biométricos de voz que muchos bancos han desplegado. Le preocupan las estafas en las que la persona que llama llega directamente a un individuo.

“Tuve una conversación a principios de esta semana con uno de nuestros clientes”, dijo. “Me dijeron, oye, Brett, es fantástico que tengamos nuestro centro de contacto asegurado, pero ¿qué pasa si alguien llama a nuestro director ejecutivo directamente a su teléfono celular y se hace pasar por otra persona?”

Eso fue lo que ocurrió en el caso de Kabatznik. Según la descripción de la banquera, parecía que el estafador intentaba convencerla de transferir el dinero a un nuevo destino, pero la voz era repetitiva, hablaba por encima de ella y utilizaba frases confusas. La banquera colgó.

“Era como si estuviera hablando con ella, pero no tenía sentido”, contó Kabatznik que le había dicho la banquera. (Un portavoz de Bank of America se negó a permitir que la empleada estuviera disponible para una entrevista).

Kabatznik explica que, tras recibir otras dos llamadas similares seguidas, la banquera informó al equipo de seguridad de Bank of America. Preocupada por la seguridad de la cuenta de Kabatznik, dejó de responder a sus llamadas y correos electrónicos, incluso a los que procedían del verdadero Kabatznik. Tardaron unos diez días en restablecer la conexión, cuando Kabatznik organizó una visita a su oficina.

“Capacitamos de manera constante a nuestro equipo para que identifique y reconozca las estafas y ayude a nuestros clientes a evitarlas”, comentó William Halldin, portavoz de Bank of America, quien agregó que no podía hacer comentarios sobre clientes concretos ni sus experiencias.

Aunque los ataques son cada vez más sofisticados, se derivan de una amenaza básica de ciberseguridad que ha existido durante décadas: una filtración de datos que revela la información personal de los clientes bancarios. Entre 2020 y 2022, datos personales de más de 300 millones de personas cayeron en manos de piratas informáticos, lo que provocó pérdidas de 8800 millones de dólares, según la Comisión Federal de Comercio.

Una vez que han recopilado un lote de números, los piratas informáticos examinan la información y la relacionan con personas reales. Los que roban la información casi nunca son las mismas personas que acaban teniéndola. En su lugar, los ladrones la ponen a la venta. Los especialistas pueden utilizar cualquiera de un puñado de programas de fácil acceso para falsificar los números de teléfono de los clientes que pretenden estafar, y eso es lo que muy probablemente ocurrió en el caso de Kabatznik.

Es fácil encontrar grabaciones de su voz. En internet hay videos de él hablando en una conferencia y participando en una recaudación de fondos.

“Creo que es bastante aterrador”, concluyó Kabatznik. “El problema es que no sé qué hacer al respecto. ¿Te metes bajo tierra y desapareces?”.

Audio producido por Tally Abecassis.

Emily Flitter cubre finanzas. Es autora de The White Wall: How Big Finance Bankrupts Black America. Más de Emily Flitter

Stacy Cowley es periodista de economía especializada en temas vinculados al consumidor y seguridad de datos. Anteriormente reportó sobre una variedad de temas comerciales, incluidos tecnología y economía, en CNN Money, Fortune Small Business y otras revistas y sitios web. Más de Stacy Cowley


Enlace a la fuente

Notas relacionadas

Tengo una cita con un chatbot

NY Report News

Uno de los pioneros de la IA advierte de su peligro

NY Report News

¿Comer menos me hará vivir más?

NY Report News