En poursuivant votre navigation sur ce site, vous acceptez l'utilisation de nos cookies afin de vous offrir une meilleure utilisation de ce site internet. Pour en savoir plus et paramétrer vos cookies, cliquez ici.

TensorFlow, l'outil qui a favorisé l'émergence des deepfakes

Ce framework a largement démocratisé le développement de l’intelligence artificielle à travers le monde, comme l’a prouvé dernièrement l'essor des deepfakes.

Même les chantres de l’Apocalypse ne les avaient pas vus venir. Depuis plusieurs semaines, des deepfakes porno pullulent sur Internet. Certes, leur prolifération a ralenti depuis que des plateformes comme Twitter, Reddit ou Pornhub ont décidé de leur faire la guerre. Mais soyons réalistes : il ne sera jamais possible d’éradiquer leurs germes.

Un deepfake consiste à utiliser un algorithme pour remplacer un visage par un autre sur une vidéo. Si la plupart des deepfakes à succès sont de nature pornographique, on peut tout aussi bien faire des choses plus légères, comme mettre Nicolas Cage dans des situations incongrues, ou des choses plus vicieuses (comme introduire son ex dans une vidéo embarrassante). On peut aussi virer dans la malhonnêteté la plus basse en faisant du chantage à la diffusion.

Derrière le deep-learning

Dans "deepfake", il y a "deep". "Deep" de "deep learning", l’une des techniques les plus sollicitées pour mettre au point des intelligences artificielles efficaces, révolutionnaires et bluffantes, qui apprennent par elles-mêmes en imitant, très schématiquement, le fonctionnement de nos neurones.

Quand les spécialistes ont commenté l’essor des deepfakes et leur recette de fabrication, un nom barbare a souvent été cité : TensorFlow. Et, de fait, quand on parle d’intelligence artificielle tout court, TensorFlow revient très souvent dans les explications savantes. Certains analystes ne mâchent pas leurs mots. Dans un article récent de Quartz, on pouvait ainsi lire : "TensorFlow a changé notre manière de faire de la recherche et développement en IA dans le monde entier."

Le grand public ne connaît pas TensorFlow. Mais il est beaucoup plus familier de l’entreprise qui l’a créé. TensorFlow est né dans la tête des ingénieurs de Google Brain, la section chargée de l’IA dans les entrailles du mammouth #1 de la tech.

En 2015, Google a décidé de déployer son bébé mammouth en open source : aujourd’hui, absolument tout le monde peut télécharger TensorFlow, analyser son code source, l’améliorer, le commenter, le bidouiller et jouer avec. Cela a notamment permis la création de toutes sortes d’algorithmes, comme celui ci-dessous, de reconnaissance faciale.

Les frameworks

TensorFlow est – pour utiliser un terme jargonnant, mais très courant dans l’informatique – un "framework". En gros, il simplifie considérablement la vie des développeurs qui veulent se lancer dans le deep-learning. N’importe qui peut donc, avec plus de facilité que jamais, développer des outils de reconnaissance visuelle (que l’on retrouvera par exemple dans les voitures autonomes ou les outils d’imagerie pour diagnostiquer des cancers) ou de reconnaissance linguistique – permettant, entre autres, de faire de la traduction, de la reconnaissance vocale ou de concevoir des chatbots.

TensorFlow, cependant, n’a pas le monopole du code. Comme presque tout le temps en informatique, ce framework a de sérieux concurrents. Citons PyTorch, développé par Facebook, Caffe, né à l’université de Berkeley, Cognitive Toolkit, conçu par Microsoft, ou encore MXnet, développé par Apache. Tous ces frameworks ont leurs spécificités – et donc des avantages et des inconvénients. Pour autant, Tensor Flow est aujourd’hui le plus utilisé d’entre eux. Peut-être parce que c’est un produit Google, c’est-à-dire solide et connu de beaucoup.

Deep simplification

TensorFlow et ses copains ont bouleversé la donne. Avec eux, n’importe qui armé de quelques connaissances informatiques – et d’un (bon) ordinateur portable – peut développer et éduquer une IA dans sa chambre. Domestication d’un feu sacré qui, avant TensorFlow, demeurait l’apanage des chercheurs.

"Ces logiciels sont suffisamment bien faits pour que quelqu’un d’assez faible en informatique puisse obtenir un résultat", nous explique Morgan Giraud, développeur en machine-learning et cofondateur de la start-up Explee. Lui-même s’est initié tout seul au deep-learning avec TensorFlow.

Son étincelle à lui s’est allumée il y a deux ans, quand il a entendu parler d’une IA capable de transformer n’importe quelle photo en peinture imitant le style d’un grand maître. En six mois, il a réussi à reproduire l’algorithme, en vue de faire une appli pour le commercialiser – sans succès, hélas, car il fut pris de court par des entrepreneurs russes.

Extrait de la publication "A Neural Algorithm of Artistic Style". (© Leon A. Gatys, Alexander S. Ecker, Matthias Bethge)

Deep emulation

De fait, l’émulation dans le domaine de l’IA est permanente. "Il y a au moins un papier de recherche par semaine qui fait le buzz. Il y a deux ans, on disait que ça s’arrêterait, et ça continue aujourd’hui", souligne Morgan Giraud.

La particularité désormais, c’est que cette émulation concerne qui veut. Le fil Machine Learning sur Reddit, suivi par plus de 200 000 personnes, est une sorte de Doctissimo de l’IA. C’est d’ailleurs sur Reddit que sont nés et se sont propagés les deepfakes porno, avant qu’ils n’y perdent leur droit de cité.

Capture d’écran du subreddit MachineLearning. (© Reddit)

Ce marathon foufou d’apprentis sorciers n’est pas près de s’arrêter, nous fait comprendre Alexandre Allauzen, maître de conférences à l’université Paris-Sud et spécialiste du machine-learning. Pour initier ses étudiants en douceur au deep-learning, il leur fait faire leurs premières armes sur Keras, une "surcouche" qui permet de s’essayer à TensorFlow beaucoup plus simplement et rapidement.

Keras ne sort pas de nulle part : il a été imaginé puis développé par un ingénieur français, François Chollet, en poste chez… Google Brain (ce qui nous fait donc, si vous suivez bien, deux bébés mammouths "made in Google" au total). Le créateur de Keras confiait récemment dans une interview :

"Se lancer dans le machine-learning est devenu extrêmement facile ces cinq dernières années. Il y a 5-7 ans, c’était difficile. Il fallait un diplôme universitaire pour confectionner soi-même ses propres algorithmes de 'bas niveau'.

C’est la seule manière par laquelle nous arriverons à déployer l’IA à son potentiel maximal : en la rendant le plus accessible possible."

Pourquoi l’open source ?

Pourquoi mettre ces outils prométhéens en open source ? Les raisons sont nombreuses. Chez certains de ces acteurs, déjà, l’open source n’est pas nouveau. Chez Google par exemple, de nombreux produits ont un code ouvert. Leurs communautés respectives sont en permanence invitées à mettre leur nez dans la liste des ingrédients pour optimiser les recettes de la maison.

Concernant le cas plus spécifique de l’IA, où l’enjeu est immense, les explications peuvent s’affiner. En premier lieu, ces frameworks "pour tous" dynamisent l’écosystème de l’IA en général. Vu les sommes, les espoirs et les fantasmes que le secteur nourrit en ce moment dans la Silicon Valley, c’est une opération win/win généralisée.

Avoir un framework à son nom est aussi gage de prestige : cela montre que l’entreprise est active, à la pointe et donc attirante dans ce secteur concurrentiel. Et, dans le meilleur des cas, recruter un brillant ingénieur qui connaît déjà le framework maison constitue un gros gain de temps.

Voilà comme Google présente TensorFlow. Avouez que ça vend un peu du rêve, quand même.

L’open source, une bonne chose ?

Étant donné toutes les bêtises que l’on peut commettre avec cette potion magique si généreusement distribuée, on est en droit de se demander s’il n’aurait pas fallu rendre l’accès à l’IA un peu plus sélect.

Pour Quartz, cette situation est une bonne chose : l’open source offre une transparence générale sur les algorithmes concoctés par les géants de la tech. Les esprits critiques peuvent les relire, les vérifier, les éprouver, les interroger. "C’est effectivement un bel effort de transparence", confirme Alexandre Allauzen. Avec une nuance : "Il faut garder en tête qu’il reste quand même une grande opacité sur les très nombreuses données que les géants utilisent."

On est aussi en droit de penser que TensorFlow et les autres n’ont fait qu’avancer la marche de l’Histoire de quelques années. Si les géants de la tech n’avaient pas livré leurs formules, des hacktivistes, mus par des motivations variables, auraient très bien pu s’octroyer ce rôle en nous livrant des outils plus ou moins similaires.

"L’infocalypse"

Un chercheur américain, Aviv Odvadya, a popularisé en 2016 le terme "infocalypse" pour décrire le monde "dystopico-journalistico-post-vérité" qui pourrait nous cueillir après ce long sommeil. Car, au-delà des deepfakes, l’IA et le deep-learning sont de formidables opportunités pour les fake news.

Le programme Face2Face permet, en live et grâce à une webcam, de faire parler Bush ou Poutine en procédant à une simple interversion de visages. Une IA encore plus impressionnante a analysé pendant des heures et des heures les discours d’Obama, ce qui permet de lui faire dire ce que l’on veut…

Le monde de demain est déjà là. Un framework est un outil comme un autre : neutre à l’état naturel, mais à double tranchant quand l’homme pose ses mains dessus. Lorsque l’on sait que le big boss de Google, Sundar Pichai, déclarait en janvier dernier que l’IA était une révolution "encore plus profonde que l’arrivée de l’électricité et même du feu", on ne peut que se préparer psychologiquement et dès maintenant aux beaux débats que le monde post-TensorFlow nous prépare.

slash, tech et médias.