On ne sait toujours pas si cette photo est le fruit d’une intelligence artificielle (et c’est assez inquiétant)

On ne sait toujours pas si cette photo est le fruit d’une intelligence artificielle (et c’est assez inquiétant)

Image :

Via Twitter

photo de profil

Par Lise Lanot

Publié le

Une question qui va sûrement devenir récurrente, au vu des progrès des intelligences artificielles créatives.

Vous avez sans doute vu passer l’image, difficile à soutenir parmi tant d’autres ces dernières semaines, d’un vieil homme au visage ensanglanté entouré de CRS. Si les photographies de violences policières sont de plus en plus visibilisées à mesure que se poursuivent les manifestations contre la réforme des retraites, celle qui nous préoccupe aujourd’hui a la particularité de faire douter les réseaux. Depuis sa première occurrence connue à ce jour, le 19 mars dernier, l’image fait débat : est-elle, oui ou non, réelle ou a-t-elle été générée par une intelligence artificielle ?

À voir aussi sur Konbini

L’interrogation survient alors que les “fausses” images pullulent et effraient quelque peu les internautes tant elles semblent “vraies”. Ces derniers jours, des photos, toutes artificielles, du pape en Balenciaga, de Macron encerclé de CRS et de Trump arrêté ont fait couler beaucoup d’encre, témoignant des incroyables progrès réalisés par les intelligences artificielles – encore incapables il y a quelques semaines de reproduire des mains convaincantes, à moins de sept ou dix doigts.

Chargement du twitt...

Face aux inquiétudes suscitées par ces clichés si réalistes, ont été partagés des conseils censés nous aider à repérer les images artificielles. Seul problème, ici, les astuces semblent inutiles. Sur Twitter, un fil de l’AFP Factuel conseillait par exemple de repérer les filigranes parfois laissés par les programmes (une barre multicolore pour DALL-E, un crayon rouge pour Crayion) ; d’effectuer des recherches inversées sur les moteurs de recherche ; de repérer les détails incohérents des scènes présentées ; et d’étudier le grain de l’image et ses perspectives. Mais aucun de ces procédés ne permet une conclusion claire et dénuée de doutes, souligne l’AFP.

Lorsque Numerama a tenté de passer l’image à un détecteur de GAN (programme de réseaux antagonistes génératifs en français, soit la classe d’algorithme qui permet de générer des images), le résultat est revenu comme “probablement artificiel”. Nous avons testé le détecteur avec la même image, au même cadrage que Numerama, et le site nous a affiché la mention “probablement non générée par un GAN”, ce qui nous prouve qu’on ne peut s’y fier totalement.

Capture d’écran effectuée le vendredi 31 mars 2023 sur le détecteur de GAN imaginé par des ingénieur·e·s de Mayachitra.

Vue dans son ensemble, l’image nous fait fortement douter. Guillaume Brossard, cofondateur du site HoaxBuster, décrit que “le visage du policier derrière son masque n’a rien de naturel” et que “le visage du vieil homme est flou et plusieurs éléments sont “étranges” (rides du menton, absence de mâchoire supérieure, problèmes sur les yeux…)”. Pour l’AFP, c’est “l’absence de signes distinctifs des forces de l’ordre françaises (bandes de couleur, insignes) ou encore l’apparence étrange de la visière visible en haut à gauche de l’image” qui sont douteuses.

Chargement du twitt...

De notre côté, les étrangetés de superpositions des matières et des formes nous poussent également à penser que l’image est fausse. Cela dit, ce n’est pas tant le fait que la photographie soit vraie ou fausse qui est important – les violences policières sont réelles et existent en-dehors de cette scène – mais plutôt sa viralité et celle de son débat.

En plus de l’évidente problématique posée par les possibilités de créer de fausses images d’actualité, ce genre de questionnements peut devenir l’occasion de réfuter toute image qui ne colle pas à ses convictions (sous l’excuse qu’elle peut être fausse) et ouvrir la porte à de nombreuses théories de complots et de désinformation.