Lorsque le documentariste David France a décidé de faire la chronique des purges anti-gay et lesbiennes qui avaient déclenché une vague de peur et de violence en Tchétchénie, il lui fallait plus qu’une caméra.
Il avait vu des interviews télévisées de la république russe, majoritairement musulmane: les sujets étaient obscurcis, leurs voix altérées numériquement, mais il avait du mal à se connecter avec eux. «C’étaient des histoires horribles et il ne fait aucun doute qu’elles étaient réelles», a déclaré France, un cinéaste activiste nominé aux Oscars. «Mais je savais que je voulais raconter une histoire beaucoup plus approfondie sur ce que quelque chose d’aussi hideux que cela signifiait pour les personnes qui y ont survécu.
Comment protégerait-il l’identité des Tchétchènes gays et lesbiennes à risque fuyant la région via un réseau de refuges, tout en préservant leurs émotions, leurs affections et leurs expressions? La solution provocante de la France est «Bienvenue en Tchétchénie» le film troublant qui a fait ses débuts mardi sur HBO et implique un travail de postproduction étendu: il rassemble une technologie informatique de pointe pour superposer des visages souples et entièrement fabriqués sur 23 individus chassés.
Brouiller un informateur de la foule? Donc au siècle dernier. Dire bonjour à deepfake. Jusqu’à présent, son utilisation était largement limitée à des méfaits en ligne anonymes de divers degrés de gravité, comme insérer le sourire de Nicolas Cage dans les films dans lesquels Cage n’a jamais joué. Mais les politiciens sont également devenus des cibles. (Le réalisateur de «Get Out», Jordan Peele, a tenté de sensibiliser étrange deepfake de Barack Obama.) Même Facebook, non connu pour son contrôle strict du contenu, s’est engagé à interdire les deepfakes en janvier. Un documentaire qui embrasse expressément la technique aidera-t-il les choses?
France, un ancien monteur de Newsweek devenu cinéaste («Comment survivre à une peste», 2012), se hérisse au terme, un portemanteau de «deep learning» et de «faux» assistés par ordinateur.
«Deepfake change ce que les gens disent et font», a déclaré la France. «Et cela ne change rien. Cela permet à mes sujets de raconter leurs propres histoires. Et cela leur redonne leur humanité d’une manière qui n’aurait pas été possible dans d’autres circonstances.
Pourtant, pourquoi devrions-nous faire confiance à un documentaire qui utilise des deepfakes? La France ne voit pas cela comme ouvrir une nouvelle boîte de vers autant que la même ancienne. «Si vous dites que d’autres pourraient être moins diligents ou moins éthiques, je pense que c’est vrai pour tous les films documentaires», a-t-il déclaré. «Il s’agit de faire confiance au processus.»
Regarder le dernier en France, c’est être confronté aux dimensions morales du cinéma documentaire – et peut-être à quelque chose de plus profond, concernant la nature glissante de l’identité elle-même. Dès le départ, un avertissement stipule que certains sujets ont été «déguisés numériquement» pour leur sécurité. Viennent ensuite les visages eux-mêmes, légèrement doux, comme dans «The Irishman» de Martin Scorsese. Fumer des cigarettes, élaborer des stratégies, avoir l’air nerveux. Nous en venons à nous soucier d’eux. L’effet n’est jamais tout à fait transparent. Peut-être que ça ne devrait pas l’être.
«C’est une partie essentielle de notre histoire culturelle totale: le visage comme fenêtre, le noyau de notre identité, la caractéristique la plus distinctive du corps», a déclaré Bill Nichols, professeur émérite à la San Francisco State University et pionnier dans le domaine du documentaire. études. «Lorsque vous n’avez pas le visage réel, dans la plupart des cas, cela induira un sentiment de perturbation.»
Mais «Bienvenue en Tchétchénie» pourrait représenter l’introduction d’un nouveau type de «masque souple», un masque qui cache l’identité d’un sujet tout en permettant un attachement émotionnel complexe. Nichols s’est dit convaincu par le film français. «C’est une énorme entreprise mais je pense que cela fonctionne», a-t-il ajouté. «Cela nous permet de ressentir ce malheur de: ce type a été battu, torturé et électrocuté et je le vois – lui étant son« visage »- nu son âme. »
D’où viennent réellement les nouveaux visages? Ryan Laney, superviseur des effets visuels en France et vétéran de 30 ans dont les crédits incluent «Harry Potter et la chambre des secrets» (2002), a persuadé le réalisateur qu’un processus informatique d’apprentissage en profondeur était la réponse la plus simple, même avec le budget serré d’un documentaire . Pour «Bienvenue en Tchétchénie», il a mis en place une suite d’édition secrète et est resté entièrement hors ligne pendant son travail.
«C’était une théorie, et ensuite cela a mieux fonctionné que ce à quoi nous nous attendions», a déclaré Laney à propos du travail visuel minutieux d’un an, qu’il a comparé aux coups de pinceau, aux prothèses faciales et aux implants virtuels de joue. «Il y a eu des moments où nous avons reculé dans certains domaines, la machine a fait mieux ou plus net, et nous craignions de ne pas dire au public que quelque chose se passait.
Ce «dire» est important, a déclaré Laney. Il l’a appelé un « underblur » ou « halo », a intentionnellement ajouté pour que vous soyez conscient de la manipulation. Sa méthode consistait essentiellement à filmer des sujets indépendants dans un studio avec un réseau de neuf caméras capturant leurs visages sous tous les angles. Leurs informations visuelles ont été mariées à un niveau d’apprentissage profond avec les images tchétchènes.
Les sujets non liés «étaient pour la plupart des militants queer à New York que j’ai trouvés sur Instagram et ailleurs», a déclaré France. «Je leur ai demandé s’ils prêteraient leur visage comme bouclier humain pour protéger l’identité des personnes que j’avais filmées. Et ils ont signé comme acte d’activisme.
Cette fusion de techniques a abouti à une illusion qui a reçu des notes élevées d’un groupe d’étude de Dartmouth recherchant la soi-disant vallée étrange, une métrique d’empathie pour les visages non humains.
En un sens, «Bienvenue en Tchétchénie» est un effet spécial appliqué qui dure tout un film. Jusqu’à ce que ce ne soit pas le cas: dans l’un des moments les plus époustouflants du film, les effets disparaissent après qu’un réfugié gay, Maksim Lapunov, a repris son nom – et son vrai visage – lors d’une conférence de presse. « Je voulais que vous ressentiez ce qu’il ressentait à ce moment-là », a déclaré France.
D. Fox Harrell, professeur de médias numériques et d’intelligence artificielle au Massachusetts Institute of Technology, a déclaré qu’il y avait un potentiel éducatif dans les «médias synthétiques» – le terme qu’il préfère à deepfake – le rachetant de la simple tromperie. Entraîner les téléspectateurs à rechercher même les signes évidents aiderait, a-t-il déclaré. «Pour avoir le savoir-faire nécessaire pour négocier un paysage médiatique politique où une vidéo pourrait potentiellement être un deepfake, ou une vidéo légitime pourrait être qualifiée de deepfake, je pense que ce sont des cas dont les gens doivent être conscients», a-t-il déclaré.
Un projet créatif issu du programme de Harrell, le Center for Advanced Virtuality, est une vidéo de sept minutes intitulée «In Event of Moon Disaster». Dans celui-ci, un discours notoire de 1969 écrit pour Richard Nixon – destiné à être prononcé uniquement à la suite d’un accident catastrophique d’Apollo 11 – est fusionné avec le discours de démission télévisé de 1974, ce qui donne un peu effrayant d’histoire alternative. La pièce sera mise en ligne le 20 juillet à moondisaster.org.
« Je viens du milieu de l’actualité, alors j’adore l’idée de faire quelque chose qui aurait vraiment pu arriver », a déclaré Francesca Panetta, codirectrice de la vidéo. S’exprimant par Zoom de Londres, elle a résumé le tourbillon d’émotions – nervosité, libération, voire illumination possible – déclenché par l’arrivée de deepfake dans le monde du documentaire.
Panetta se souvient avoir parlé avec sa mère, qui lui avait envoyé de mauvaises informations sur Covid-19. «Elle disait: ‘Mais mon ami m’a envoyé un texto.’ Et la conversation que j’ai eue avec elle est ce que je veux que les gens aient après avoir vu mon film: d’où vient-il?
D’une certaine manière, a-t-elle déclaré, cette discussion est «plus importante que des techniques spécifiques sur la façon de repérer les deepfakes, car la technologie va s’améliorer si vite.»
« Pour le moment », a-t-elle ajouté, « la plupart des deepfakes que vous pouvez repérer à l’œil nu. »
La France ne cache pas la sienne. Il veut que vous les voyiez. «Toute technologie a un double objectif moral», a-t-il soutenu. «Ce que notre film prouve, c’est que cela peut être fait de la bonne manière.»