Les deepfakes, ces rejetons sexistes issus du porno et de l’intelligence artificielle

Les deepfakes, ces rejetons sexistes issus du porno et de l’intelligence artificielle

photo de profil

Par Pierre Schneidermann

Publié le

Ils pullulent depuis quelques semaines et sont désormais censurés par les grandes plateformes. Retour généalogique sur les deepfakes… qui mettent principalement des femmes en scène.

À voir aussi sur Konbini

Pauvre Martin, pauvre misère

Black Mirror, saison 5, épisode 1 : Martin est une personne introvertie, pas vraiment à l’aise dans ses baskets, avec des comportements un peu étranges qui déclenchent régulièrement l’hilarité de ses collègues. En ce vendredi aprèm de février 2019, on se la coule douce dans les bureaux et voilà qu’une vidéo embarrassante circule entre les collègues : on surprend Martin en train de se masturber dans un lieu inhabituel. LOL général.

Manque de bol, Martin tombe malencontreusement sur la vidéo. Le temps se creuse. Martin baisse les yeux, creuse sa tombe et démissionne. Tout le monde savait pourtant – Martin le premier – que cette vidéo était un fake. Un deepfake, pour être précis. Mais la honte aura triomphé des faits, une fois encore. Car des Martin blessés, il y en a eu d’autres avant lui. Quelques hommes, beaucoup de femmes. Musique de fin.

Une éclosion toute récente

Ce deepfake dévastateur, dans la vraie vie, a commencé à faire parler de lui en décembre 2017, quand une journaliste du site Motherboard découvre une série de vidéos glaçantes : des célébrités se retrouvent, à leur insu, dans des vidéos pornos. Il s’agit évidemment de montages aussi factices que peuvent l’être des photos retouchées sur Photoshop. Parfois réussis, parfois moins. Mais dans l’ensemble suffisamment bluffants pour que le journal décortique le phénomène et la technologie qui se trouve derrière.

Très vite, l’article de Motherboard embrase les âmes, libère les fantasmes, et déclenche une ruée vers les deepfakes qui, jusque-là, n’étaient qu’un micro-phénomène. Un fil de discussion sur la plateforme Reddit – fermé le 7 février – voit le jour. Y défile une tripotée de vidéos “deepfakées” où des célébrités, presque toutes des femmes, se retrouvent métamorphosées en actrices pornos. On y croise Emma Watson, Angelina Jolie, Taylor Swift ou encore Natalie Portman. Avant sa fermeture, plus de 91 000 personnes suivaient le fil “r/deepfakes”.

Ces deepfakes, qui au départ étaient cantonnés sur Reddit, s’envolent ensuite vers des contrées moins confidentielles. On les retrouve en des lieux fréquentés qui n’interdisent pas le porno : sur des plateformes de vidéos, de gifs animés ou forums de discussion. Le deepfake gagne ses lettres de noblesse : il devient viral et la presse lui accorde toute son attention.

Derrière le deepfake, le deep-learning

Le deepfake n’aurait jamais vu le jour sans l’explosion, ces dernières années, du très tentaculaire “deep-learning”, LA nouvelle manière de concevoir des intelligences artificielles (IA) qui apprennent toutes seules et imitent, très schématiquement, nos réseaux de neurones.

À l’origine de cette prolifération de vidéos porno sur Reddit, un développeur informatique opérant sous le pseudonyme de “deepfakes” et donc découvert en décembre dernier par Motherboard. Cet utilisateur deepfakes, comme beaucoup d’autres développeurs de son domaine, n’a eu qu’à adapter des technologies de deep-learning disponibles en open-source pour mettre au point son algorithme d’échange de visages.

À ce stade des événements, créer un deepfake est encore une activité réservée à ceux qui touchent leur bille en informatique. Mais voilà que débarque le 8 janvier dernier un autre protagoniste sur le fil de discussion Reddit : deepfakeapp. Grand seigneur, il balance à la communauté un petit programme, FakeApp, téléchargé plus de 100 000 fois. Ce logiciel user-friendly permet à chacun, avec très peu de connaissances techniques, de créer ses deepfakes.

FakeApp, mode d’emploi

Comment fabrique-t-on son deepfake avec FakeApp ? La recette n’est pas très compliquée. On récupère, sur Internet, des photos de visages de bonne qualité de la personne que l’on souhaite mettre en scène dans sa vidéo. Si l’on ne trouve pas beaucoup de photos, pas de panique : cinq secondes de vidéo à peine de la personne face caméra permettent d’obtenir des dizaines d’images fixes.

On reproduit la même opération avec la personne que l’on souhaite gommer : on réunit beaucoup de photos pour que l’algorithme puisse bien spotter son visage dans la vidéo.

Une fois le matériel réuni, il est temps de lancer “l’apprentissage” qui va permettre d’éduquer son propre algorithme. Ce gros travail plein de calculs prendra quelques heures si l’on possède un GPU puissant, plusieurs jours avec du matériel de moindre envergure.

Vous êtes encore un peu noyés et demanderiez bien quelques conseils ? Pas de problème, Internet recèle de bonnes volontés. Des tutos pour la prise en main de FakeApp traînent déjà sur YouTube, et presque n’importe qui peut ensuite se lancer.

Côté finitions, pour optimiser son deepfake, des outils en ligne comme PornStarByFace vous permettent de trouver le bac à sable de vos rêves, autrement dit la vidéo porno idéale, celle par exemple où le visage de l’actrice porno ressemble déjà un peu à celui Britney Spears si vous voulez faire un deepfake avec Britney Spears. Au fait : ce catalogue n’est composé que d’actrices pornos féminines.

Fake News et riposte

Pour des raisons évidentes, le deepfake soulève de nombreux problèmes. Concernant les célébrités introduites à leur insu dans du porno, quasi toutes féminines, leur image en prend un sacré coup.

Mais, comme nous l’avons vu plus haut avec notre pauvre Martin, il est tout à fait possible de fabriquer un deepfake avec n’importe qui. Quelqu’un vous veut du mal ? En allant pêcher des photos persos sur Instagram, Facebook ou en récupérant une vidéo publique, votre ennemi peut ensuite vous deepfaker – gageons que d’ici deux ans, le verbe sera dans le Petit Robert d’Alain Rey.

Le deepfake peut très bien proliférer hors du porno. En matière d’information, il serait redoutable. On peut, par exemple, tout à fait intervertir des visages sur des vidéos de caméras de surveillance. Pratique pour faire suspecter des innocents. Les résultats ne sont pas parfaits aujourd’hui. Ils le seront demain. Et la chasse au Fake News reprendra de plus belle.


(Nicolas Cage ou pas Nicolas Cage ?)

Conscientes du caractère vicieux propre aux deepfakes, les grandes plateformes les ont d’ores et déjà interdits : l’interface de discussion Discord, Pornhub, l’hébergeur de gifs animés Gfycat, Twitter et maintenant Reddit, leur incubateur repenti, ne veulent plus en entendre parler. Pour un temps, voilà les deepfakes reléguées dans les confins du Dark Web.

On avait peur de l’avènement des machines intelligentes. C’était sans compter sur le porno saupoudré d’algorithmes bêtes, sexistes et méchants.