La escena inició en una habitación con un sofá rojo, una planta en una maceta y el tipo de arte moderno insulso que verías en la pared de un terapeuta.
En el cuarto estaba Michelle Obama, o alguien que lucía exactamente como ella. Usando una blusa escotada con un sostén negro que se veía por debajo, se movía sensualmente frente a la cámara y mostraba su inconfundible sonrisa.
Entonces, la doble de la ex primera dama comenzó a desvestirse.
El video, que apareció en el foro de internet Reddit, era lo que se conoce como un deepfake: un videomontaje ultrarrealista hecho con software de inteligencia artificial. Se creó utilizando un programa llamado FakeApp, que sobrepuso el rostro de Obama en el cuerpo de una actriz de películas pornográficas. El híbrido era espeluznante: de no estar bien enterado, podrías haber pensado que de verdad era ella.
Hasta hace poco, los videos realistas generados por computadora eran un formato laborioso que solo estaba disponible para las producciones hollywoodenses con grandes presupuestos o investigadores de punta. Aplicaciones de redes sociales como Snapchat incluyen algunas tecnologías rudimentarias para transformar el rostro.
Sin embargo, en meses recientes, una comunidad de aficionados ha comenzado a experimentar con herramientas más poderosas, entre ellas FakeApp, que creó un desarrollador anónimo utilizando software de código abierto escrito por Google. FakeApp hace que sea gratis y relativamente fácil crear transformaciones faciales realistas y dejar pocos rastros de manipulación. Según su creador, desde que apareció una versión de la aplicación en Reddit en enero, se ha descargado más de 120.000 veces.
Los videomontajes son una de las formas más nuevas de manipulación digital, y una de las más susceptibles a utilizarse para difamar a políticos, crear pornografía vengativa o tender trampas a las personas para culparlas de crímenes. Los legisladores estadounidenses han comenzado a preocuparse por la manera en que esos videos podrían usarse como sabotaje político y propaganda.
Incluso en sitios moralmente laxos como Reddit, los videomontajes han dejado perpleja a la gente. Hace poco, FakeApp desató pánico después de que el sitio de tecnología Motherboard informó que la gente lo estaba usando para crear videos pornográficos falsos de celebridades. Pornhub, Twitter y otras páginas rápidamente prohibieron los videos, y Reddit cerró algunos grupos de deepfakes, entre ellos uno con casi 100.000 miembros.
Antes de que se clausuraran, los grupos en Reddit tenían una mezcla de usuarios que intercambiaban consejos de edición de video y mostraban sus falsificaciones más recientes. Una publicación titulada “Reconstrucción 3D para ángulos adicionales” estaba al lado de videos con títulos como “(No es) Olivia Wilde tocándose”.
Algunos usuarios de Reddit defendieron los videos y culparon a los medios por exagerar su potencial de daño. Otros subieron sus videos a plataformas alternativas, anticipándose al cierre de esos grupos en Reddit debido a sus reglas en contra de la pornografía no consensuada. Además, algunos expresaron dudas morales acerca de difundir esta tecnología… Después, siguieron haciendo más.
Crear los videomontajes
Después de explorar durante semanas la comunidad de videomontajes en Reddit, decidí ver cuán fácil era crear uno (no pornográfico, sino apto para todo público) utilizando mi propio rostro.
Comencé descargando FakeApp y colaborando con dos expertos técnicos para que me ayudaran. El primero fue Mark McKeague, un colega en el departamento de desarrollo e investigación de The New York Times. El segundo fue un creador de videomontajes que encontré en Reddit y utiliza el alias Derpfakes, debido a la naturaleza controvertida de los videos.
Derpfakes comenzó a publicar videos falsos en YouTube hace unas semanas, especializándose en clips humorísticos, como uno en el que Nicolas Cage interpreta a Superman. La cuenta también ha publicado algunos videos tutoriales acerca de la creación de esos videos.
Aprendí que no es sencillo hacer un deepfake. Elegir la fuente de datos adecuada es crucial. Los videos cortos son más fáciles de manipular que los largos, y las escenas filmadas con un solo ángulo dan mejores resultados que las grabadas con ángulos múltiples. La genética también ayuda. Cuanto más se parezcan los rostros, mejor.
Soy un hombre de cabello castaño y uso barba corta, así que Mark y yo decidimos probar con otros hombres blancos de cabello castaño con barba. Comenzamos con Ryan Gosling (hay que apuntar a lo más alto, ¿no?). También le envié a Derpfakes, mi experto externo de Reddit, varias opciones de videos para elegir.
A continuación, tomamos cientos de fotos de mi rostro y reunimos las imágenes del rostro de Gosling utilizando un video reciente de una aparición en televisión. FakeApp utiliza esas imágenes para entrenar al modelo de aprendizaje profundo y enseñarle a imitar nuestras expresiones faciales.
Para obtener la gama de fotografías más amplia, giré mi cabeza en distintos ángulos e hice tantos gestos distintos como pude.
Mark después utilizó un programa para recortar esas imágenes y dejar solo nuestros rostros; eliminó manualmente cualquier fotografía borrosa o mal recortada. Después subió las tomas en FakeApp. En total, utilizamos 417 fotografías mías y 1113 de Gosling.
Cuando las imágenes estuvieron listas, Mark presionó “Comenzar” en FakeApp y el entrenamiento comenzó. La pantalla de su computadora se llenó de imágenes de mi rostro y del de Gosling, mientras el programa intentaba identificar patrones y similitudes.
Casi ocho horas después, después de que nuestro modelo se entrenó lo suficiente, Mark utilizó FakeApp para terminar de poner mi rostro en el cuerpo de Gosling. El video era borroso y extraño, y el rostro de Gosling a veces podía entreverse. Solo las personas legalmente ciegas confundirían conmigo a la persona del video.