Bref. Vous avez dit « deepfake » ?

On l’a vu, la désinformation en ligne peut prendre de multiples apparences -mêmes les plus trompeuses-. Présentés come l’évolution -presque- ultime des fake news, les deep fake, ces vidéos dans lesquelles des internautes font dire et faire tout et n’importe quoi à des célébrités comme à des hommes politiques inquiètent de par leur réalisme et leur potentiel de persuasion. Mais selon une récente étude (et de nombreux articles), on ne devrait finalement peut-être pas plus s’inquiéter que cela.

Et Jordan Peele lâcha une bombe.

Crédits photo : BuzzFeed

En 2018, le réalisateur américain Jordan Peele (Get Out) créait le « buzz » en publiant une vidéo, en partenariat avec le site BuzzFeed (sic) dans laquelle il utilise la technique du deep fake pour faire dire tout et n’importe quoi à l’ancien Président des États-Unis, Barack Obama.

En 1 minute et 13 secondes, Peele réussit deux choses : 1) faire dire au Président que « Trump est une merde totale et absolue » et 2) alerter sur ces nouvelles techniques de production d’images de synthèse qui pourraient jouer un rôle considérable dans la désinformation. Le réalisateur commençait ainsi cette vidéo en expliquant que le monde entrait dans un ère « où nos ennemis peuvent faire croire que n’importe qui dit n’importe quoi à n’importe quel moment« .

Si le sujet était déjà bien connu des journalistes, chercheurs et membres de la communauté informatique, il a cependant été en quelque sorte révélé au « grand public » (la vidéo a été vue plus de 8,2 millions de fois à l’heure où nous écrivons ces lignes).

À l’origine du phénomène, le « GAN »

Crédits image : 01Net

Le deep fake est un contenu digital, généré en utilisant une technique de deep learning [« entraînement profond » d’une intelligence artificielle à laquelle on soumet des jeux de données] connue sous le nom de Generated Adversarial Network (GAN). D’après Laurence Allard, « c’est autour d’une bière dans une célèbre brasserie de Montréal » que le chercheur à l’origine de cette technique, Ian J. Goodfellow en aurait eu l’idée.

Schématisation du concept du Generated Adversarial Network (GAN) | Crédits : 01Net

Le processus utilisé par le GAN est relativement simple : il met en concurrence (d’où le terme « adversarial ») deux algorithmes. En premier lieu, le « générateur« , dont le rôle est de générer des images de synthèse ; en second lieu, le « discriminant » dont le rôle est de comparer les images générées à un échantillon de véritables images. Si le second détermine qu’une image produite par le premier est fausse, alors le processus recommence, et le générateur apprend de ses erreurs, tout comme le discriminant apprend de ses « victoires » lorsqu’il réussit à déterminer une image comme « fausse ». Le produit final du programme est obtenu lorsque les deux algorithmes s’accordent, c’est-à-dire lorsque les images produites par le générateur sont considérées comme « vraies » par le discriminant, et qu’il n’est plus possible aux deux algorithmes « d’apprendre ».

De la pornographie…

Crédits photo : Dazed

À l’origine des deep fakes et de leur utilisation par des internautes, on retrouve la pornographie et, dans une certaine mesure, le revenge porn. Selon de multiples sources, le phénomène serait apparu à l’automne 2017 sur le réseau social Reddit, connu pour fédérer un très grand nombre de communautés. Un utilisateur anonyme, connu sous le pseudonyme de « Deepfakes » publie alors plusieurs vidéos pornographiques mettant en scène des actrices comme Daisy Ridley, Gal Gadot, ou encore Scarlett Johansson. À mesure que ses publications attirent l’attention des utilisateurs et leurs retours, « Deepfakes » corrige ses versions, les rendant « plus vraies que nature ». En cela, il est d’ailleurs intéressant de constater qu’il reproduit le concept du machine learning. L’utilisateur a cependant rapidement été suspendu par les modérateurs de Reddit, mais le mal était fait.

Le deep fake refait ensuite surface dans les débats après la publication en janvier 2018 de l’application russe Fake App, accessible à n’importe qui sur Internet et permettant de créer de fausses vidéos en utilisant la technique du deep fake. Son utilisation devient rapidement hors de contrôle : l’application est utilisée dans plusieurs affaires des revenge porn et rapidement retirée des sites de téléchargement. Enfin, sur le papier.

… à tout le reste.

Crédits photo : KnowYourMeme

En 2019, le monde de la recherche et de l’information se voulait légèrement alarmiste sur la question des deep fakes et de leur potentiel. Dans un numéro de Complément d’Enquête, cela n’avait d’ailleurs pas empêché le présentateur Jacques Cardoze de se faire passer pour Emmanuel Macron. Mais il faut aussi prendre cette information avec du recul, et en se remémorant le contexte : dans la campagne présidentielle étasunienne de 2016 opposant Donald Trump à Hillary Clinton, les fake news avaient certainement joué un rôle capital. S’ils demeurent d’actualité, surtout au vu du contexte politique outre-Atlantique, ces éléments de désinformation n’ont toutefois pas encore standardisé la production et la diffusion de productions aussi développées que les deepfake.

Dans un article paru fin 2020 dans le MIT Technological Review, Karen Hao et Will Douglas Heaven expliquent justement que son usage s’est même diversifié en 2020, et que le procédé est devenu « mainstream ». On retrouve ainsi des deepfake utilisés pour préserver l’anonymat de sources dans un documentaire, pour créer des memes (« surprise! »), pour faire la promotion d’une marque ou de produits en période de confinement, pour promouvoir des campagnes de sensibilisation politique… Les exemples sont nombreux, et rassurent quant au potentiel bienveillant -et les champs d’application !- de cette technique.

Et si ?

Crédits photo : France Inter

Mais en ce début d’année 2021, c’est une autre vision du potentiel des deepfakes qui apparaît… Dans un article publié sur NiemenLab, Joshua Benton révèle que cette technique peut effectivement faire passer de la désinformation pour véridique auprès d’un public, mais pas plus que d’autres moyens -moins en vogue- de faire passer un mensonge. En s’appuyant sur une étude publiée par Soubhik Barari, Christopher Lucas et Kevin Munger, le journaliste propose une observation qui tient -au moins- à deux facteurs.

Dans un premier temps, la complexité de production d’un deepfake réaliste ne doit pas être mise de côté. À partir du moment où vous voulez essayer de berner le plus d’internautes possibles, votre production doit être la plus crédible possible. Et avec de nombreux spécialistes à l’affut sur les réseaux sociaux (merci r/quityourbullshit) et/ou les forums spécialisés, il faudrait un peu (beaucoup) d’entraînement à un.e utilisateur.ice lambda pour produire un deepfake convaincant sur le long terme. Et si vous ne me croyez pas, allez donc voir ce que cela a donné chez les journalistes au journal Le Monde. Vincent Nozick, maître de conférences à l’Université de Paris-Est et créateur du logiciel de détection de deepfakes MesoNet expliquait alors aux journalistes :

« Le plus difficile, c’est d’avoir une bonne base de données de milliers d’images de bonne qualité et variées. Ensuite, il va falloir comprendre les paramètres et bien les estimer, pour rendre un visage un peu plus grand par exemple. Si on ne choisit pas les bons, ce n’est pas joli. Et ça, on ne le sait qu’au bout d’une journée. Ça demande de l’expérience. »

Vincent Nozick, créateur de MesoNet

Pour en revenir à notre sujet, ne peut pas produire des deepfakes qui veut. De fait, des techniques alternatives de désinformation numérique apparaissent, comme les cheapfakes (à l’origine de la vidéo supposée montrer la femme politique Nancy Pelosi en état d’ivresse) ou encore (mais là, c’est extrêmement basique) de simples montages photo présentant une citation erronée attribuée à une personnalité politique.

Dans un second temps, l’association d’images et de son truqués pour amener à croire en une fausse information n’est pas forcément le cocktail le plus pertinent. Dans leur étude, Barari, Lucas et Munger ont présenté à un échantillon de personnes un ensemble d’informations, pour certaines vraies, pour d’autres fausses. Ces dernières étaient présentées sous plusieurs formes : texte écrit, enregistrement audio, ou encore deepfake.

Les résultats de cette recherche ont en effet démontré que les deepfakes conduisaient 47% de l’échantillon à croire en la fake news présentée. Mais l’audio seul, lui, atteint le « score » de 48%, quand le format textuel réussissait à convaincre 43% des personnes interrogées. De ces observations, les chercheurs tirent notamment cette conclusion :

« Dans l’ensemble, l’expérience d’exposition fournit peu de preuves que les vidéos truquées [deepfakes, ndlr] aient une capacité unique à tromper les électeurs ou à modifier leur perception des politiciens. En fait, la condition audio a eu l’effet trompeur moyen le plus important, bien que la différence soit statistiquement insignifiante par rapport à la vidéo dans tous les sous-groupes sauf deux ; certains modèles qui estiment les coefficients marginaux de tromperie ajustés pour chaque groupe dégagent une différence significative. »

Soubhik Barari, Christopher Lucas, Kevin Munger – Political Deepfake Videos Misinform the Public, But No More than Other Fake Media

Enfin, Joshua Benton pointe du doigt un phénomène intéressant dans cette étude : lorsqu’on leur demande de discerner une fausse vidéo d’une vraie, les individus sont plus enclins à désigner une production comme étant fausse si elle donne une mauvaise image de leurs orientations politiques. Le journaliste complète : « c’est à la fois la raison pour laquelle notre écosystème d’information est un désastre et pourquoi les deepfakes ne sont pas aussi mauvais que ce que les gens craignaient ». Alors que l’on s’attend à ce que les internautes puissent discerner le vrai du faux sur la base d’arguments réels et d’une analyse (même fournie par un internaute tiers), il semblerait qu’iels soient à même de « détecter » les trucages sophistiqués… parce qu’ils ne correspondent pas à leur vision du monde.

Ah ben finalement ça va, l’être humain peut gérer seul. | Crédits : GIPHY

Visiblement, le prochain -faux- Watergate ne sera donc pas partagé sur Twitter, YouTube et Instagram. Mais en attendant, vous pouvez toujours vous demander ce que la technique GAN -à l’origine des deepfakes, on le rappelle- implique dans le monde de l’art… Mais ça, c’est une autre histoire.

Publié par Quentin-Mathéo PIHOUR

Étudiant en journalisme à l'IUT de Lannion, fondateur d'All In. et rédacteur pour le média urbain 1863

Votre commentaire

Entrez vos coordonnées ci-dessous ou cliquez sur une icône pour vous connecter:

Logo WordPress.com

Vous commentez à l’aide de votre compte WordPress.com. Déconnexion /  Changer )

Photo Google

Vous commentez à l’aide de votre compte Google. Déconnexion /  Changer )

Image Twitter

Vous commentez à l’aide de votre compte Twitter. Déconnexion /  Changer )

Photo Facebook

Vous commentez à l’aide de votre compte Facebook. Déconnexion /  Changer )

Connexion à %s

<span>%d</span> blogueurs aiment cette page :