Todo comenzó con la pornografía

A finales del año pasado comenzaron a circular por Internet videos pornográficos cuyas principales protagonistas eran algunas de las actrices y cantantes más famosas de estos tiempos. Naturalmente, los videos se hicieron virales y fueron vistos por millones de personas en todo el mundo.  A los pocos días se supo que Scarlett Johansson, Taylor Swift, Katy Perry y otras artistas de renombre no eran las verdaderas protagonistas de estos videos sino las víctimas de una nueva tecnología que, utilizando inteligencia artificial y otros avanzados instrumentos digitales, permite insertar la imagen facial de cualquier persona en un video.

Ese fue solo el comienzo. Muy pronto Ángela Merkel, Donald Trump y Mauricio Macri también fueron víctimas de lo que se conoce como deepfake o falsificación profunda.  Barack Obama fue utilizado, sin su consentimiento, para ejemplificar los posibles usos nefastos de esta tecnología.  Vemos a Obama diciendo en un discurso lo que el falsificador quería que él dijera y que el ex presidente jamás había dicho. Pero el resultado es un video muy real.    

La manipulación de imágenes no es nada nuevo. Los gobiernos autoritarios tienen una larga historia “desapareciendo” de las fotos oficiales a líderes caídos en desgracia.  Y ya desde 1990 PhotoShop permite al usuario alterar fotografías digitales. 

Pero deepfake es diferente. Y mucho más peligroso.  Diferente porque desde que circularon los videos falsos de las actrices hasta hoy esa tecnología ha mejorado muchísimo. La imagen corporal y la expresión de la cara son hiperrealistas y la imitación de la voz y la gestualidad de la persona son tan exactas que resulta imposible descubrir que es una falsificación, a menos que se cuente con sofisticados programas de verificación digital.  Y el peligro de deepfake es que esta tecnología está al alcance de cualquier persona.  

Un ex novio despechado y sociópata  puede producir y diseminar anónimamente por las redes sociales un video que imita perfectamente la voz, los gestos y la cara de la mujer que lo dejó y en el cual ella aparece haciendo o diciendo las más vergonzosas barbaridades.  Las imágenes de policías propinándole una brutal paliza a una anciana que participa en una protesta contra el gobierno pueden provocar violentos enfrentamientos entre la muchedumbre que protesta y los agentes policiales.  El respetado líder de un grupo racial o religioso puede instigar a sus seguidores a atacar a miembros de otra raza o religión.  Algunos estudiantes pueden producir un comprometedor video de un profesor a quien repudian.  Extorsionadores digitales pueden amenazar a una empresa con divulgar un video que dañará su reputación si la empresa no paga lo que le piden.

Los posibles usos de deepfake en la política, la economía o las relaciones internacionales son tanto variados como siniestros.  La divulgación de un video mostrando a un candidato a la presidencia de un país diciendo o haciendo cosas reprobables poco antes de los comicios  se volverá una treta electoral más comúnmente usada. Aunque el rival de este candidato en la pugna electoral no haya aprobado el uso de esta indecente táctica, sus seguidores más radicales pueden producir el video y distribuirlo sin pedirle permiso a nadie. 

El potencial de los videos falsificados para enturbiar las relaciones entre países y exacerbar los conflictos internacionales también es enorme.

Y esto no es hipotético; ya ha ocurrido.  El año pasado el emir de Qatar, Tamim bin Hamad al-Thani, apareció en un video elogiando y apoyando a Hamas, Hezbollah, a los Hermanos Musulmanes y a Irán. Esto provocó una furibunda reacción de Arabia Saudita, los Emiratos Árabes Unidos (EAU), Bahréin y Egipto, que ya venían teniendo fricciones con Qatar. Denunciaron el discurso del emir como un apoyo al terrorismo y rompieron relaciones diplomáticas, cerraron las fronteras y le impusieron un bloqueo de aire, mar y tierra. La realidad, sin embargo, es que el emir de Qatar nunca dio ese discurso; el video que escaló el conflicto era falso. Lo que es muy real es el boicot que sigue vigente. 

La amenaza que constituye deepfake para la armonía social, la democracia y la seguridad internacional es obvia.  Los antídotos contra esta amenaza lo son mucho menos aunque hay algunas propuestas. Todas las organizaciones que producen o distribuyen fotografías o videos deben obligarse a usar bloqueos tecnológicos que hagan que su material visual sea inalterable. Las personas también deben tener acceso a tecnologías que los protejan de ser víctimas de deepfakes. Las leyes deben adaptarse para que quienes difamen o causen daños a otros a través del uso de estas tecnologías tengan que responder ante la justicia.  Hay que hacer más difícil el uso del anonimato en la red. Todo esto es necesario pero insuficiente. Habrá que hacer mucho más.

Hemos entrado en una era en que la diferencia entre verdad y mentira, entre hechos y falsedades se ha ido erosionando. Y con ello la confianza en las instituciones y en la democracia.  Deepfake no es sino otra arma en el arsenal que tienen a su disposición los mercaderes de la mentira. Hay que enfrentarlos. 

@moisesnaim