Los profesionales de CaixaBank han advertido de nuevos métodos de estafa que utilizan los ciberdelincuentes, pero esta vez utilizando la Inteligencia Artificial (IA) y suplantando las voces de otras personas. Supone un peligro para las víctimas, a las que los ciberdelincuentes intentan robar su dinero.
En los últimos años la Inteligencia Artificial ha dado pasos de gigante y aún se espera que siga haciéndolo en los años venideros. En teoría, la IA llega para establecer una serie de mejoras en la vida de los ciudadanos.
Sin embargo, los ciberdelincuentes ya están utilizando la IA para generar nuevas estafas online hacia los ciudadanos. Una de estas estafas consiste en la clonación de voz mediante la Inteligencia Artificial y creación de filtros que emulan una voz concreta.
CAIXABANK AVISA DE ESTAFA CON LA IA
Los expertos de CaixaBank indican que «no estamos hablando de un uso lúdico, como por ejemplo utilizar un filtro para hablar como un personaje de ficción, sino imitar la voz de una persona con un fin delictivo. Este uso ya es una realidad en países como Estados Unidos, donde se empiezan a registrar los primeros casos de suplantación de voz para, mediante un engaño, obtener un dinero».
![Estafa con la Inteligencia Artificial CaixaBank](https://vibes.okdiario.com/wp-content/uploads/2023/08/CaixaBank-estafa-IA.jpg)
Esta estafa se basa, mayormente, en hacerse pasar por un familiar que se encuentra en apuros y solicita dinero. Además, también pueden simular que se trata de secuestradores que tienen a un familiar en su poder y suplantan su identidad.
Es decir, los delincuentes utilizan el filtro de voz de la Inteligencia Artificial para suplantar a la persona que supuestamente se encuentra secuestrada. Esto puede generar una situación de tensión sobre la víctima de la estafa, ya que los secuestradores solicitan una determinada cantidad de dinero por su rescate.
No obstante, existen otros métodos de estafa que utilizan la IA para suplantar la voz. Otra estrategia de los ciberdelincuentes consiste en hacerse pagar por abogados de la familia e informar de que uno de los miembros de dicha familia se encuentra involucrado en un caso. Igualmente, con los filtros de voz, se hacen pasar por un familiar en apuros.
CLONACIÓN DE VOZ CON LA IA
Estas estafas de clonación de voz con la Inteligencia Artificial se están empezando a detectar en Estados Unidos. Así, no es de extrañar que pronto llegue a Europa y también a España.
Llegados a este punto, es normal que te preguntes cómo es posible que se lleve a cabo una clonación de voz. En este sentido, los profesionales de CaixaBank argumentan que «existen plataformas a las que puedes subir fragmentos de audio de una persona hablando y se genera un filtro que clona la voz de esa persona, coincidiendo en tono, timbre y vibración. Los algoritmos de la plataforma son capaces de detectar y medir cada pequeño parámetro de nuestra voz y reproducirlo».
Con todo ello, los ciberdelincuentes acuden a redes sociales como Youtube o TikTok para obtener las grabaciones de voz de una persona concreta. Igualmente, estos estafadores recaban información específica antes de cometer un fraude de este tipo utilizando la Inteligencia Artificial.