Créditos de la imágen: Imagen creada por Gemini Pro
MIE 25/03
TDC 17.8047
MAR 10/02
INPC 144.3070
DOM 01/03
RECARGOS FEDERALES 2.07%
DOM 01/02
UMA 117.31
El uso de inteligencia artificial para clonar voces y rostros obliga a las empresas a desarrollar estrategias de ciberseguridad para evitar pérdidas millonarias
Actualmente, los ciberdelincuentes se apoyan de la inteligencia artificial para mejorar sus estrategias de ataque contra personas y específicamente a grandes corporativos. Este fue el caso de la empresa de ingeniería británica Arup, que en 2024, un empleado fue engañado a través de una supuesta videollamada de alta dirección generada con deepfake que derivó en la transferencia de 25 millones de dólares, según lo reporta un comunicado del Foro Económico Mundial
En este escenario de vulnerabilidad para las empresas, resulta necesario apoyarse de servicios de ciberseguridad que no solo se enfoque a reforzar sistemas de cómputo y comunicación, también es indispensable capacitar a los trabajadores para identificar estas señales y generar hábitos que cuide a la organización, así lo recomienda Check Point, proveedor en soluciones de ciberseguridad en la nube.
ÚNETE A IDC en nuestro canal de Whatsapp
¿Cómo la deepfake se aprovecha de la limitación humana?
El caso de estafa que sufrió Arup es un referente en cómo los ciberdelincuentes aprovechan el avance de la IA para engañar la percepción humana, ya que no fue necesario que sus sistemas se vieran comprometidos, que un virus infectara sus computadoras, sino que generar confianza fue el punto medular para extraer dinero.
Esto se logró a través de una reunión donde un empleado participó con gerentes de la compañía para trasferir recursos. Sin embargo, todos los participantes excepto el empleado eran falsos. Aunque las voces de los gerentes eran idénticas y los rostros coincidían, se trataba de una estrategia que cada vez más aplican los ciberdelincuentes.
El riesgo de los deepfakes en videos, audios o imágenes generados con IA, es que pueden replicar con gran precisión la identidad de una persona, incluyendo voz, gestos y expresiones.
De acuerdo con el Foro Económico Mundial, este tipo de estafa representa una evolución del cibercrimen, ya que combina tecnología avanzada con manipulación psicológica, haciendo más difícil distinguir entre lo real y lo falso.
Además, los ataques ya no dependen de correos mal redactados o señales evidentes, sino de interacciones en tiempo real que parecen completamente legítimas y logran confundir el juicio humano.
¿Cómo detectar un deepfake antes de que sea tarde?
Expertos advierten que, aunque los deepfakes son cada vez más sofisticados, aún existen señales que pueden levantar alertas como:
- retrasos o desincronización entre voz y labios
- expresiones faciales poco naturales o rígidas
- iluminación inconsistente en el rostro
- comportamientos inusuales en la comunicación
Sin embargo, estas señales pueden desaparecer conforme la tecnología mejora, por lo que confiar únicamente en la observación ya no es suficiente.
¿Cómo pueden protegerse las empresas?
El caso de Arup dejó claro que la defensa ya no puede basarse solo en tecnología, sino en procesos y cultura organizacional. De acuerdo con Check Point, las empresas deben adoptar medidas como:
- Protocolos de verificación obligatorios: cualquier instrucción relacionada con transferencias, cambios de cuentas o información sensible debe confirmarse por un segundo canal independiente
- Capacitación continua del personal: los empleados deben entrenarse para reconocer nuevas formas de fraude, especialmente aquellas impulsadas por inteligencia artificial
- Simulaciones de ataques: recrear escenarios reales (phishing, llamadas, videollamadas) permite preparar a los equipos ante amenazas sofisticadas
- Evaluación de riesgos internos: identificar qué áreas (finanzas, recursos humanos, dirección) son más vulnerables a este tipo de engaños
Es así, que en un entorno donde una videollamada puede ser completamente falsa, la diferencia entre evitar o sufrir una estafa puede reducirse a una sola acción que se puede frenar si el personal humano es capaz de reaccionar ante la duda de lo real o lo generado por la inteligencia artificial.