09 de octubre de 2018
09.10.2018

«Deepfakes», una nueva arma de desinformación masiva

La avanzada tecnología que fabrica montajes de vídeo muy realistas se suma a la lista negra de la falsedad - Una tecnología basada en algoritmos e inteligencia artificial hace natural lo imposible

08.10.2018 | 23:07
«Deepfakes», una nueva arma de desinformación masiva

Ataques a la verdad. Tras las fake news (noticias falsas) llegan las deepfakes (profundas mentiras) en forma de vídeo. Gracias a la inteligencia artificial corren por la red vídeos en los que un personaje, alguien popular, dice o hace cosas que ni dijo ni hizo: una manipulación de la realidad donde lo imposible puede ser creíble.

Sexo, mentiras y cintas de vídeo. Así empezó todo. Pornografía falsa e identidades usurpadas por manos tecnológicamente hábiles y moralmente reprobables. Lo que hoy corre por la pólvora por los circuitos virtuales bajo el nombre putrefacto de deepfakes (profundas mentiras) tiene corta vida pero patas muy largas: no hace ni un año que por canales contaminados de internet empezaron a circular a toda velocidad montajes de imágenes agarrados a la inteligencia artificial en las que una persona hace o dice cosas que nunca hizo o dijo. Mentiras (que parecen) verdaderas. Una falacia y, superados ciertos márgenes, un potencial delito.

Recordemos: se desvanecía el año 2017 y por la red de redes empezaron a pescarse vídeos pornográficos. Nada nuevo: el porno, entre otras cosas, es un negocio global que mueve cantidades desmesuradas de dinero. Pero aquellas imágenes tenían algo diferente: estaban protagonizadas por estrellas del cine o de la música. Y parecían bastante reales, no eran burdos fakes de corta y pega a los que estamos acostumbrados ya desde hace el mismo nacimiento de la urbe virtual. Una nueva tecnología basada en algoritmos e inteligencia artificial hacía natural lo imposible: ver a una celebridad del mundo del espectáculo convertida en una experimentada y desinhibida actriz porno.

La ofensiva, claro, no se quedó ahí. El engaño, como era de esperar, se trasladó a la esfera política como campo fértil para la falsificación. La tecnología en semejantes términos de manipulación es demasiado golosa como para dejarla pasar de largo. Un genio llamado Orson Welles, que hizo creer a todo un país que estaba siendo invadido por los marcianos y rodó al final de su carrera un esclarecedor documental sobre los engaños en el mundo del arte, dijo: «La falsedad es tan antigua como el árbol del Edén». Lo que se puede hacer hoy con un ordenador es un paraíso para embaucadores.

Barack Obama fue usado por una web alarmista como profeta involuntario de los desastres que pueden venir al poner en sus labios un insulto hacia Donald Trump demasiado soez para ser verdad. No es un asunto para tomarlo a broma aunque en este mundo de memes y chistes encadenados la frivolidad esté tomando demasiadas cartas de autoridad en el asunto político. Desinformación rima con diversión cuando se trata de colgar cortinas de humo en el entramado público. No es de extrañar que hayan surgido voces de alerta en Estados Unidos advirtiendo de los peligros que entraña una manipulación semejante de la realidad porque ahora no se trata de  montajes fácilmente detectables por su mala calidad: esto va en serio y lo imposible puede ser creíble. En noviembre habrá elecciones y la experiencia de las que dieron el triunfo a Trump, con injerencias rusas y cascadas de noticias falsas al servicio de su candidatura, demuestran cómo una parte de la opinión pública puede ser fácilmente engañada, condicionada y empujada hacia el voto por vías tóxicas.

Deepfake tiene una pata en el deeplearning (profundo aprendizaje) y otra en fake (falso). Con ambas se pone en pie una falsa realidad en la que, por ejemplo, se podría conseguir que un determinado político se convierta en un atracador o una actriz pase a protagonizar escenas de sadomasoquismo. A simple vista, sin pasar algún tipo de «algodón» digital que lo desenmascare, la realidad supera a la imaginación por desbocada que sea. Y ya sabemos cómo avanza la tecnología en estos tiempos que vuelan: incluso los sistemas de verificación podrán ser burlados antes de que nos demos cuenta. Vivimos una sociedad en la que la imagen domina por aplastamiento. Los teléfonos móviles ya no se activan con teclas o huellas, les basta con reconocer la cara del dueño. La carrera de un político puede ser aniquilada si alguien en algún sitio posee un vídeo que lo muestre en situaciones que lo dejen en mal lugar. Una imagen vale mil mentiras si un cerebro en la sombra puede reconstruirla a su gusto.  Y tampoco hace falta ser un genio porque las herramientas ya empiezan a estar al alcance de casi cualquiera y los programas se abaratan que es una barbaridad.

Contra el nuevo ataque a la verdad ya hay, por fortuna, talentos no contaminados que intentan levantar cortafuegos para que la mentira tenga sus dos patas muy cortas. La batalla está servida pero su resultado no solo debería depender de lo que puedan hacer los investigadores o los gobiernos. Los ciudadanos también tienen una gran responsabilidad. Dada la pasividad con la que los gigantes tecnológicos actúan frente a esos desmanes (baste ver la insuficiente reacción de Facebook o Twitter ante la epidemia de las fake news), los usuarios deben poner de su parte sentido común, mesura y espíritu crítico para no creerse de inmediato lo que les entra por los ojos.

No es un asunto banal, aunque a veces te puedas reír viendo a Nicolas Cage haciendo de Gladiator o de DiCaprio en el Titanic. Los progresos en esa tecnología, que hoy presenta fisuras importantes que cualquier experto puede detectar sin problemas, pueden extender sus tentáculos venenosos por cualquier escenario de la sociedad para idear estafas sofisticadas, argumentos para declarar una guerra o excusas para extender el pánico masivo con atentados que no existieron o discursos que nunca se pronunciaron.

Recuerden: Welles convenció con un programa de radio a miles de personas que los marcianos estaban invadiendo sus casas. No se crean todo lo que ven si lo que ven les hace frotarse los ojos: podría ser una "deepfake".

Compartir en Twitter
Compartir en Facebook