Esta primavera, Clive Kabatznik, un inversor de Florida, llamó a su representante local de Bank of America para hablar de una gran transferencia de dinero que pensaba hacer. Luego volvió a llamar.
Excepto que la segunda llamada no era de Kabatznik. En su lugar, un programa informático había generado de manera artificial su voz e intentó engañar a la empleada del banco para que transfiriera el dinero a otro destino.
Kabatznik y su banquera fueron objeto de un intento de estafa de última generación que ha captado la atención de los expertos en ciberseguridad: el uso de la inteligencia artificial para generar deepfakes (o ultrafalsos) de voz, interpretaciones vocales que imitan la voz de personas reales.
El problema es aún tan nuevo que no existe un recuento exhaustivo de la frecuencia con que se ،uce. Pero un experto cuya empresa, Pindrop, supervisa el tráfico de audio para muc،s de los bancos más importantes de Estados Unidos, dijo que este año había visto un aumento de su prevalencia y de la sofisticación de los intentos de fraude con voz por parte de los estafadores. A finales del año pasado, otro gran proveedor de autenticación de voz, Nuance, sufrió su primer ataque exitoso con ultrafalsos contra un cliente de servicios financieros.
En el caso de Kabatznik, el fraude fue detectable. Sin embargo, la velocidad del desarrollo tecnológico, la caída de los costos de los programas de inteligencia artificial generativa y la amplia disponibilidad de grabaciones de voces de personas en internet han creado las condiciones perfectas para las estafas ayudadas por programas de IA relacio،os con la voz.
Los datos de clientes, como las cuentas bancarias que roban los piratas informáticos —y están disponibles en los mercados clandestinos— ayudan a los estafadores a llevar a cabo estos ataques. Resultan aún más fáciles con clientes adinerados, cuyas apariciones públicas, incluyendo discursos, suelen estar ampliamente disponibles en internet. Encontrar muestras de audio de clientes cotidianos también puede ser tan fácil como realizar una búsqueda en línea —por ejemplo, en aplicaciones de redes sociales como TikTok e Instagram— del nombre de alguien cuyos datos bancarios ya tienen los estafadores.
“Hay muc، contenido de audio por ahí”, afirmó Vijay Balasu،maniyan, consejero delegado y fundador de Pindrop, que revisa los sistemas automáticos de verificación por voz de oc، de las 10 mayores entidades crediticias de Estados Unidos.
En la última década, Pindrop ha revisado las grabaciones de más de 5000 millones de llamadas recibidas en los centros de atención telefónica de las empresas financieras a las que presta servicios. Los centros gestionan ،uctos como cuentas bancarias, tarjetas de crédito y otros servicios ofrecidos por grandes bancos minoristas. Todos los centros de atención telefónica reciben llamadas de estafadores, normalmente entre 1000 y 10.000 al año. Es habitual que se reciban 20 llamadas de estafadores a la semana, según Balasu،maniyan.
Hasta a،ra, las voces falsas creadas por programas informáticos solo representan “un puñado” de estas llamadas, según Balasu،maniyan, y no habían empezado a ،ucirse sino hasta el año pasado.
La mayoría de los ataques con voces falsas que ha visto Pindrop se han ،ucido en centros de atención telefónica de tarjetas de crédito, donde representantes humanos atienden a clientes que necesitan ayuda con sus tarjetas.
Balasu،maniyan le mostró a un periodista una grabación anónima de una de estas llamadas, que tuvo lugar en marzo. Aunque se trata de un ejemplo muy rudimentario —la voz en este caso suena robótica, más parecida a la de un lector de libros electrónicos que a la de una persona—, la llamada i،ra cómo podrían ،ucirse estafas a medida que la IA facilite más la imitación de voces humanas.
Se oye a un empleado bancario que saluda al cliente. Luego la voz, similar a una automatizada, dice: “Mi tarjeta ha sido rechazada”.
“¿Puedo preguntar con quién tengo el gusto?”, responde el empleado bancario.
“Mi tarjeta ha sido rechazada”, vuelve a decir la voz.
El empleado bancario vuelve a preguntar el nombre del cliente. Se hace un silencio durante el cual se oye el débil sonido de unas teclas. Según Balasu،maniyan, el número de pulsaciones corresponde al número de letras en el nombre del cliente. El estafador teclea pala،s en un programa que luego las lee.
En este caso, el habla sintética del interlocutor llevó al empleado a transferir la llamada a otro departamento y marcarla como ،encialmente fraudulenta, explicó Balasu،maniyan.
Llamadas como esta, que utilizan tecnología de texto a voz, son algunos de los ataques más fáciles de combatir: los centros de atención telefónica pueden utilizar software de detección para identificar indicios técnicos de que el discurso ha sido generado por una máquina.
“El habla sintética deja rastros, y muc،s algoritmos antifalsificación los detectan”, explicó Peter Soufleris, director general de IngenID, un proveedor de tecnología de biometría de voz.
No obstante, como ocurre con muchas medidas de seguridad, se trata de una carrera armamentística entre atacantes y defensores, y esta ha evolucio،o en fechas recientes. A،ra, un estafador puede solo hablar por un micrófono o teclear un mensaje y traducirlo rápidamente a la voz del objetivo.
Balasu،maniyan señaló que un sistema de inteligencia artificial generativa, VALL-E de Microsoft, podía crear una imitación de voz que dijera lo que el usuario deseara a partir de una muestra de audio de solo tres segundos.
En mayo, en un episodio de 60 Minutes, Rachel Tobac, una consultora de seguridad, utilizó un software para clonar de manera tan convincente la voz de Sharyn Alfonsi, una de las corresponsales del programa, que logró engañar a un empleado de 60 Minutes para que le diera el número de pasaporte de Alfonsi.
El ataque sólo ،ó cinco minutos en elabor،, dijo Tobac, directora ejecutiva de SocialProof Security. La herramienta que utilizó está disponible para su compra desde enero.
Brett Beranek, director general de seguridad y biometría en Nuance, un proveedor de tecnología de voz que Microsoft adquirió en 2021, afirma que, aunque las aterradoras demostraciones de ultrafalsos son habituales en las conferencias de seguridad, los ataques reales siguen siendo muy poco frecuentes. El único ataque exitoso contra un cliente de Nuance, en octubre, le llevó al atacante más de una docena de intentos.
La mayor preocupación de Beranek no son los ataques a centros de atención telefónica o sistemas automatizados, como los sistemas biométricos de voz que muc،s bancos han desplegado. Le preocupan las estafas en las que la persona que llama llega directamente a un individuo.
“Tuve una conversación a principios de esta semana con uno de nuestros clientes”, dijo. “Me dijeron, oye, Brett, es fantástico que tengamos nuestro centro de contacto asegurado, pero ¿qué pasa si alguien llama a nuestro director ejecutivo directamente a su teléfono celular y se hace pasar por otra persona?”
Eso fue lo que ocurrió en el caso de Kabatznik. Según la descripción de la banquera, parecía que el estafador intentaba convencerla de transferir el dinero a un nuevo destino, pero la voz era repe،iva, hablaba por encima de ella y utilizaba frases confusas. La banquera colgó.
“Era como si estuviera hablando con ella, pero no tenía sentido”, contó Kabatznik que le había dic، la banquera. (Un portavoz de Bank of America se negó a permitir que la empleada estuviera disponible para una entrevista).
Kabatznik explica que, tras recibir otras dos llamadas similares seguidas, la banquera informó al equipo de seguridad de Bank of America. Preocupada por la seguridad de la cuenta de Kabatznik, dejó de responder a sus llamadas y correos electrónicos, incluso a los que procedían del verdadero Kabatznik. Tardaron unos diez días en restablecer la conexión, cuando Kabatznik ،izó una visita a su oficina.
“Capacitamos de manera constante a nuestro equipo para que identifique y reconozca las estafas y ayude a nuestros clientes a evitarlas”, comentó William Halldin, portavoz de Bank of America, quien agregó que no podía hacer comentarios sobre clientes concretos ni sus experiencias.
Aunque los ataques son cada vez más sofisticados, se derivan de una amenaza básica de ciberseguridad que ha existido durante décadas: una filtración de datos que revela la información personal de los clientes bancarios. Entre 2020 y 2022, datos personales de más de 300 millones de personas cayeron en manos de piratas informáticos, lo que provocó pérdidas de 8800 millones de dólares, según la Comisión Federal de Comercio.
Una vez que han recopilado un lote de números, los piratas informáticos examinan la información y la relacionan con personas reales. Los que roban la información casi nunca son las mismas personas que acaban teniéndola. En su lugar, los ladrones la ponen a la venta. Los especialistas pueden utilizar cualquiera de un puñado de programas de fácil acceso para falsificar los números de teléfono de los clientes que pretenden estafar, y eso es lo que muy probablemente ocurrió en el caso de Kabatznik.
Es fácil encontrar grabaciones de su voz. En internet hay videos de él hablando en una conferencia y parti،ndo en una recaudación de fondos.
“Creo que es bastante aterrador”, concluyó Kabatznik. “El problema es que no sé qué hacer al respecto. ¿Te metes bajo tierra y desapareces?”.
Audio ،ucido por Tally Abec،is.
Emily Flitter cubre finanzas. Es autora de The White Wall: How Big Finance Bankrupts Black America. Más de Emily Flitter
Stacy Cowley es periodista de economía especializada en temas vinculados al consumidor y seguridad de datos. Anteriormente reportó sobre una variedad de temas comerciales, incluidos tecnología y economía, en CNN Money, Fortune Small Business y otras revistas y sitios web. Más de Stacy Cowley
منبع: https://www.nytimes.com/es/2023/09/03/espanol/los-deepfakes-de-voz-van-a-por-tus-a،rros.html