Campañas electorales en México, ¿amenazadas por la IA?

La Inteligencia artificial se ha convertido en un arma de doble filo en las campañas electorales de las y los candidatos

En México, las más afectadas por el uso de deepfakes hechas con IA son las candidatas.
 En México, las más afectadas por el uso de deepfakes hechas con IA son las candidatas.  (Foto: Fotos: Captura de pantalla IG: @claudia_shein, Gede Wirayasa de eka ysdsgn's, ARHARYTA MARKO de Getty Images, George Lovic e INE editadas en Canva.)

La inteligencia artificial (IA) está poniendo en jaque a los candidatos presidenciales, municipales, locales e incluso a quienes contienden por un lugar en el poder legislativo en todo el mundo, y es que en plenas campañas electorales y con ayuda de la tecnología, no ha faltado quien aproveche la situación para atacar a través de deepfakes.

¿Qué son las deepfakes y por qué podrían poner en peligro las campañas de los candidatos, especialmente en México? De acuerdo con información del portal de la compañía multinacional de ciberseguridad, Kaspersky, “deepfake es una palabra compuesta por "deep" de "deep learning", o aprendizaje profundo, (método avanzado de IA) y "fake", que significa falsificación”.

Lo anterior quiere decir que a través de la IA, se usan diferentes algoritmos de aprendizaje automático que ayudan a extraer características de una persona que van desde el rostro, hasta la voz o incluso movimientos físicos, y estos suele usarse de forma posterior para hacer videos o fotos mediante una GAN (Red generativa antagónica) que tarda de uno a 2 días en realizarlo.

Al ser una tecnología de aprendizaje automático que usa características de personas, se pueden hacer fotos y videos falsos que llegar a ser convincentes, y aunque algunos son usados para divertir, otros intentan manipular opiniones, de hecho, datos de Kaspersky consultados el 6 de mayo de 2025 señalan que actualmente hay más de 15 mil videos deepfake publicados.

De acuerdo con el proveedor de soluciones de ciberseguridad en la nube basadas en inteligencia artificial, Check Point Research, este tipo de contenido tiene 4 objetivos esenciales:

  1. engañar a los votantes
  2. promover candidatos
  3. atacar a adversarios políticos
  4. manipular la opinión pública

Forma parte de IDC en nuestro canal de Whatsapp

@idconline Escucha nuestro episodio sobre ¿Riesgoso aplicar la Inteligencia Artificial en los negocios? Una entrevista de@nanessba en #BrújulaLegal #inteligenciaartificial #IA #propiedadintelectual ♬ sonido original - IDConline - IDC ONLINE

IA amenaza propaganda electoral de mujeres

Cada minuto Google recibe más de 4 millones de peticiones de búsqueda, Facebook recoge 300 millones de fotos y X acumula 400 millones de tuits diarios, compartió la consejera y Presidenta de la Comisión de Vinculación con Organismos Externos del Instituto Electoral de la Ciudad de México (IECM), Erika Estrada Ruiz, en el evento “Red Flag: La inteligencia artificial en el escenario Electoral” de marzo de 2024.

Asimismo, la experta dijo que “cada mail, mensaje de WhatsApp, descarga, compra online o cualquier interacción en redes sociales deja un rastro sobre cómo actuamos, nos sentimos, nos movemos o reaccionamos ante problemas personales, nuevos o decisiones políticas”, lo cual puede ser usado por la IA como una oportunidad o amenaza en la propaganda electoral.

La consejera añadió que la difusión de propaganda electoral con IA corre el “riesgo de difundir noticias falsas a gran velocidad, poniendo a prueba a la democracia” mediante “contenidos fraudulentos o la creación de campañas con mensajes distorsionados” en las que las mujeres son las principales víctimas.

La Directora Regional para América Latina y el Caribe del Instituto Internacional para la Democracia y Asistencia Electoral (IDEA Internacional), Marcela Ríos Tobar, reconoció que hay una preocupación por las mujeres que están en la política, las candidatas, las que ejercen cargos de poder y quienes ocupan espacios públicos, ya que son víctimas de ataques y campañas de odio virtual que “puede traducir en violencia psicológica y física”.

Sobre este punto, aunque en México se busca cada vez más la paridad de género en los puestos de gobierno, e incluso las mujeres son mayoría como candidatas a la presidencia (Claudia Sheinbaum Pardo y Xóchitl Gálvez Ruiz), es una realidad que, especialmente a través de redes sociales, hay deepfakes de ellas, algunas realizadas por sus seguidores, otras por sus detractores.

Un ejemplo es lo que ocurrió con la candidata de Morena, Claudia Sheinbaum, quien denunció en su cuenta de Instagram un video donde supuestamente invitaba a la gente a invertir dinero en una plataforma financiera, sin embargo, ella nunca grabó eso pero se usaba su voz e imagen.

LEE: Propuestas laborales de candidatos presidenciales, ¿lo que mexicanos esperan?

Riesgos de la Inteligencia Artificial en campañas electorales

El Informe de “Riesgos Globales 2024” del Foro Económico Mundial destacó que “el fácil acceso a la inteligencia artificial es una combinación peligrosa”, tanto que esta está situada en el puesto número 14 de riesgo a 2 y 10 años debido a la “creciente facilidad con la que se puede generar información falsa y manipulada”.

Al respecto, la división de Inteligencia de Amenazas Check Point® Software Technologies señaló en un comunicado fechado al 2 de mayo de 2024, que de más de 36 campañas electorales analizadas a nivel mundial, una tercera parte usa audio y video generado por IA.

“Hasta ahora, en lugar de atacar directamente las infraestructuras electorales, la aplicación principal de la IA en la política ha sido influir en los votantes a través de campañas de desinformación, lo que incluye audio deepfake y vídeos, así como la difusión de contenido manipulado para influir en la opinión pública”, dijo el director del Grupo de Inteligencia sobre Amenazas de Check Point Researc, Sergey Shykevich.

Pero eso no es todo, Check Point Software añadió que en los períodos electorales aumentan las cuentas falsas que desinforman, alcanzando hasta un 80%, según Meta, y aunque son cada vez más difíciles de identificar, Kaspersky recomienda poner mucha atención en los contenidos que se ven, especialmente videos, ya que hay características de los deepfakes que se pueden considerar:

  • movimientos bruscos
  • cambios de iluminación de un fotograma al otro
  • cambios en el tono de la piel
  • parpadeo extraño o ausencia de parpadeo
  • falta de sincronía de los labios con el habla
  • artefactos digitales en la imagen

Elecciones, ¿en riesgo?

Sergey Shykevich de Check Point reconoció que hasta ahora la IA solo ha impactado en las campañas electorales, sin embargo, los sistemas electorales corren un riesgo debido a que los “atacantes continúan mejorando sus métodos” y si esto sigue así, podrían “apuntar a la infraestructura técnica de las elecciones”.

Por lo anterior, resaltó la importancia de “implementar medidas legislativas y soluciones tecnológicas para contrarrestar el avance de la tecnología deepfake y mantener la confianza en los procesos democráticos”.

En ese sentido, el pasado 19 de marzo de 2024, el vicepresidente de IA en la Cámara Nacional de la Industria Electrónica, de Telecomunicaciones y Tecnologías de la Información (CANIETI), Manuel Pliego Ramos, dijo en la conferencia “Elecciones 2024: las redes sociales y la inteligencia artificial”, que es necesario “establecer regulaciones y controles para garantizar su uso ético y responsable”.

Estamos en medio de un proceso democrático sin precedentes, si bien, la tecnología puede ser una herramienta útil para quienes buscan ganar una elección, también puede convertirse en un arma de doble filo que afecte la decisión de los votantes, por ello, es importante que antes de compartir información, verifiques siempre la fuente y antes de ir a votar, analices las propuestas de las y los candidatos en sus cuentas y/o páginas oficiales.

¿Candidatos piensan en los hogares?

¡SÍGUENOS EN GOOGLE NEWS!