A través de videos y audios compartidos en redes sociales, cibercriminales usan voz para cometer estafas, aquí te decimos cómo prevenirlo
Cualquiera puede ser víctima de deepfakes, y más allá del daño moral que esto puede causar, las víctimas se enfrentan a un problema más grande, el fraude financiero; el ejemplo más claro de esto lo tiene Estados Unidos, y es que de acuerdo con un estudio, solo en 2023 el país registró una pérdida de 2,700 millones de dólares por estafas realizadas con inteligencia artificial.
De acuerdo con los datos de la Comisión Federal de Comercio de Estados Unidos, recopilados por la compañía especializada en ciberseguridad, ESET, los más de 2 millones de dólares perdidos por estafas se realizaron luego de que los estafadores obtuvieran grabaciones de voz o videos publicados en redes sociales como en Instagram o TikTok.
Pero el país vecino no es el único, Reino Unido ha tenido su propio caso, y es que Starling Bank, un banco online alertó que al menos una vez en el año más de una cuarta parte de 3 mil adultos fueron víctimas de una estafa de clonación de voz a través de inteligencia artificial , pero a pesar de estas cifras, un 46% ni siquiera sabía que existían dichas estafas.
¡Síguenos en GOOGLE NEWS!
¿Cómo usan los cibercriminales tu voz para cometer estafas?
En un comunicado compartido a esta redacción el 11 de marzo de 2025, ESET mencionó que los cibercriminales obtienen pequeños fragmentos de voz de una grabación real de una persona a través de videos o audios que comparten en redes sociales, y a través de inteligencia artificial clonan los patrones de voz para hacerse por la persona.
Los cibercriminales crean conversaciones y frases para engañar a familiares, amigos o conocidos de la víctima a través de de canales digitales con el objetivo de obtener información privada o dinero, por ello, la Oficina Federal de Investigación, FBI por sus siglas en inglés, señaló en mayo de 2024, que ante el aumento en el número de estafas por inteligencia artificial, los ciudadanos deben cuidarse.
El FBI explicó que el origen del problema es porque “los atacantes están aprovechando la IA para crear mensajes de voz o video y correos electrónicos muy convincentes", mediante acciones que permiten "esquemas de fraude contra individuos y empresas por igual", y llegan a convertirse en "pérdidas financieras devastadoras, daño a la reputación y compromiso de datos confidenciales”.
Prevenir el fraude por clonación de voz con IA
Ante la creciente problemática que hay por la clonación de voz e imagen, que cada vez es más sofisticada, ESET advirtió sobre los peligros de fraude relacionados con ingeniería social que nos obligan a mantenernos "alerta"; y para ello es necesario poner atención a los mensajes inesperados que llegan con urgencia para solicitar dinero o credenciales.
En caso de que seas contactado por mensajes o correos para compartir información personal o prestar dinero a alguien conocido, llama de inmediato a la persona en cuestión para corroborar que se trata de la persona; otra manera es tener una "frase segura" que solo la conozcan tú y tus familiares para comprobar que quien te contacta es quien realmente dice ser.
Otra recomendación es implementar la autenticación multifactor, la cual consiste en agregar una capa de seguridad extra para que los ciberdelincuentes no puedan acceder a tus cuentas y sistemas.