¿Deepfakes verbales?

Una nueva herramienta permite modificar las palabras que se expresan en un vídeo

.
 .  (Foto: Redacción)


Con editar un campo de texto se puede modificar lo que una persona dice en un video. Esa manipulación la hace posible un software basado en aprendizaje automático que permite adicionar, eliminar o cambiar las palabras que se pronuncian en una grabación.

LEE: UNA CLAVE PARA EVITAR LA SUPLANTACIÓN DE IDENTIDAD

Dicho trabajo fue elaborado por científicos de la Universidad de Stanford, el Instituto Max Planck de Informática, la Universidad de Princeton y Adobe Research, lo cual muestra cómo cada día es más sencillo crear deepfakes.

La investigación titulada Text-based Editing of Talking-head Video detalla los métodos usados para editar el video basado en su transcripción para producir un video de salida realista en el que se ha cambiado el diálogo del orador.

Las técnicas para la edición pueden ser complejas, pero su aplicación termina siendo sencilla, pues ya desarrollado el software este las efectúa automáticamente.

Son tres las fases para llevarlo a cabo:

  • escaneo del video del sujeto y aislamiento de los fonemas pronunciados; esto es la articulación mínima de un sonido vocálico y consonántico
  • emparejamiento de esos fonemas con los visemas relativos, es decir, con la postura que toman los órganos articulatorios de la cara durante la emisión de un fonema, y
  • crear un modelo tridimensional de la mitad inferior de la cara

Al mezclar los datos conseguidos de cada una de las tres fases y escribiendo el texto deseado, este software genera una animación del rostro de la persona en la que realmente parece decir lo que se ha escrito, pero que nunca se pronunció frente a la cámara.

Es una tecnología con algunas limitaciones, pero que abona en la preocupación sobre el futuro en que la manipulación masiva de los videos sea una actividad cotidiana y simple. Según la investigación, los videos falsos fueron presentados a 138 personas para que respondieran sobre si las imágenes ahí presentadas parecían reales o no, el 60 % de ellos contestaron afirmativamente.

El software no está disponible públicamente, pero empresas como Adobe han compartido por años detalles de un prototipo de aplicación denominada VoCo que permitiría introducir frases que nunca pronunció una persona. Esa situación puede generar problemas, toda vez que sería sencillo alterar declaraciones o menoscabar la imagen de los individuos.