Los Deepfake: la manipulación mediática en su máxima expresión

Era 2016 cuando supuestamente el ex presidente de Estados Unidos, Barack Obama, pronunciaba una frase que podría generar una gran polémica mediática: “El presidente Trump es un total y completo idiota”. Las redes sociales se polarizaron. El problema es que no era verdad. No la dijo. Esas palabras no salieron de su boca, pero lo parecía. Fue un simple experimento de la Universidad de Washington bautizado Synthesizing Obama, pero empezaba a demostrar la capacidad de manipular un vídeo por medio de algoritmos de inteligencia artificial (AI). El resultado era tan real que asustaba.

 

La suplantación de identidad es una de las mayores preocupaciones de los ciudadanos. En una era en la que cualquiera puede abrirse un perfil en redes sociales para hacerse pasar por otra persona, los algoritmos de inteligencia artificial han alcanzado una notable perfección que, aplicado a contenidos multimedia, ha dado paso a un preocupante fenómeno que ya se conoce como deepfakes. El problema es que se pueden manipular no solo vídeos con un sorprendente índice de realismo sino también la voz humana.

 

Los deepfakes son una técnica de síntesis de la imagen humana basada en inteligencia artificial que mezclaba las palabras deep learning (aprendizaje profundo) y fake (falso). En sí, su IA es tan potente que permite cambiarle el rostro a una persona por el de otra, pero no en una foto estática, sino en un vídeo, y ver cómo el rostro nuevo se superpone y se adapta en tiempo real al rostro real de la persona en cuestión.

 

El deep learning pertenece a la inteligencia artificial que intenta imitar al cerebro humano para emplear múltiples datos y reconocer patrones utilizando redes neuronales en un proceso por capas. Las primeras capas unen datos para llegar a conclusiones sencillas y en cada capa hay más nivel de complejidad y abstracción en los resultados, de forma que el sistema aprende por sí mismo.

 

 

El deep learning se utiliza en múltiples campos hoy día: en la precisión diagnóstica de una enfermedad al analizar imágenes médicas; en la lucha contra el fraude de tarjetas de crédito; en los dictáfonos de los teléfonos móviles que reconocen lo que les decimos; en la conducción autónoma y en el reconocimiento facial y de imágenes.

 

Anteriormente se trataba de algo parecido a la técnica de armar un modelo a partir de las diferentes vistas del mismo en Autocad; pero, hoy en día, gracias a la inteligencia artificial y a la gran cantidad de datos que los usuarios han compartido en redes sociales, es un proceso que se ha simplificado a tal punto que algunas aplicaciones que corren en nuestros smartphones pueden realizarlo sin dificultad.

 

El tema de los deepfakes puede llegar a ser tan crítico que es posible que tan solo los Amish y similares (que no han tenido contacto alguno con las selfies, redes sociales, procesos de reconocimiento facial de los aeropuertos y, sobre todo, cuyas fotos solamente han sido generadas por el tradicional proceso de revelar el rollo) podrían llegar a sentirse seguros de que su rostro no será protagonista de un falso vídeo porno, discurso político ajeno a su voluntad, una llamada de usura o algún contenido multimedia falso.

 

 

En este sentido, un truculento caso ha permitido dar la voz de alarma ante una posible tendencia que, según los expertos, tiene todos los atributos para generalizarse en el futuro. Según desveló a finales de agosto el medio The Wall Street Journal, un grupo de cibercriminales empleó un software basado en inteligencia artificial para hacerse pasar por la voz de un director ejecutivo y transferir, de manera fraudulenta, unos 220.000 euros de una empresa energética británica. La estafa se produjo en marzo, pero no fue sino recientemente cuando ha trascendido.

 

Por otro lado, el Pentágono, a través de la Agencia de Proyectos de Investigación Avanzada de la Defensa (DARPA, por sus siglas en inglés), está trabajando con varias instituciones de investigación para adelantarse a estos vídeos manipulados. El objetivo de estos nuevos mecanismos es adelantarse al fenómeno, aunque para deben conocer cómo funcionan.

 

El pasado año, Google presentó una tecnología propia, Duplex, que es capaz de conversar con personas por teléfono. El objetivo con el que nació era ahorrar a sus usuarios el esfuerzo de llamar directamente. El software era capaz de imitar los principales atributos de la voz humana, desde el color, el acento, la entonación o la modulación.

 

Los expertos creen que estas técnicas van a crecer en los próximos años, y acompañadas de la viralidad que brindan las redes sociales, puede anticipar la llegada de audios manipulados que pueden llegar a cambiar la interpretación de los hechos noticiosos. Sin embargo, apuntan a que a diferencia de los deepfakes de vídeo se requiere de conocimientos avanzados y una tecnología muy sofisticada que no está al alcance de cualquiera.

 

 

 

Frente a esta amenaza, el 5 de septiembre pasado varios grandes grupos tecnológicos, incluyendo los famosos Gafam (GoogleAmazonFacebookAppleMicrosoft), así como universidades estadounidenses de primer orden lanzaron el Deepfake Detection Challenge, que promete un premio millonario a quien resulte capaz de desarrollar herramientas de detección de esta tecnología.

 

Del lado positivo, esta iniciativa muestra que estas organizaciones reconocen los riesgos ligados a esta tecnología. Pero desde una perspectiva más pesimista, también puede ser interpretada como una muestra de sus propias limitaciones: resulta preocupante que tengan que convocar a ingenieros externos a sus propios centros de investigación para encontrar la forma de contrarrestarlo.

 

El proceso consistirá precisamente en crear deepfakes. Un grupo de investigadores producirá vídeos falsos muy realistas para generar un buen volumen de datos sobre el que probar las herramientas de detección que tienen actualmente.

 

Facebook ha señalado en un comunicado que contratará actores que den su consentimiento para el uso de su imagen con este fin. Después, un grupo de desarrolladores trabajará en mejorar las plataformas de detección de vídeos manipulados.

 

Los comentarios están cerrados.