Une artiste demande à une IA de générer des photos d’un keffieh (et ça ne passe pas)

Une artiste demande à une IA de générer des photos d’un keffieh (et ça ne passe pas)

Image :

© Ameera Kawash

photo de profil

Par Donnia Ghezlane-Lala

Publié le

Non, ce n’est ni un bonnet ni une écharpe.

Ameera Kawash, artiste palestinienne, irakienne et états-unienne, a voulu tester les limites de l’intelligence artificielle et ses biais à travers un projet sur la représentation de la Palestine, notamment sur Internet et ses différents outils technologiques. Elle a donc demandé à un programme d’IA très populaire de générer des images d’un chat portant un keffieh palestinien, posant devant des lieux de culte à Jérusalem. Le résultat est quelque peu décevant.

À voir aussi sur Konbini

L’intelligence artificielle a représenté un chat arborant tantôt un bonnet en laine à rayures noires et blanches, tantôt une écharpe d’hiver. Une fois sur deux, l’IA semblait avoir compris que le keffieh était un tissu qui se portait autour du cou ou de la tête mais elle échouait irrémédiablement sur son motif.

“De toute évidence, les 100 millions d’images utilisées […] pour alimenter cette intelligence artificielle ne lui ont pas suffi à produire le keffieh le plus générique. Les systèmes populaires d’IA reproduisent les préjugés existant sur Internet contre les Palestiniens, créant de nouvelles formes d’effacement numérique et de discrimination”, analyse l’artiste auprès de 972 Magazine.

Kawash remarque également que lorsque des lieux de culte musulmans sont recréés, le chat troque étrangement son écharpe pour un bonnet de ski, alors que dans d’autres lieux de culte, la forme du keffieh est plus respectée. Elle note que logiciel a bien réussi à dépeindre le mont des Oliviers, le Saint-Sépulcre ou la vieille ville.

Chargement du twitt...

Si les IA sont désormais capables de créer des mains à cinq doigts et des images d’un réalisme photojournalistique bluffant, il faut croire qu’elles ne savent toujours pas ce qu’est un keffieh et restent très occidento-centrées. À 972 Magazine, l’artiste détaille son expérience en dénonçant le “biais antipalestinien” d’Internet et de ces outils technologiques, qui reflètent l’opinion publique :

“J’ai compris en quelques clics que je naviguais dans un paysage de préjugés opaques au sein du programme. […] La programmation et l’indexation des données qui sous-tendent l’IA générative ne sont pas neutres ; elles renforcent les hégémonies politiques et économiques existantes. […]

En tant qu’artiste palestinienne et états-unienne, je me suis inquiétée ces dernières années de la façon dont les outils technologiques réduisent les droits humains dans les espaces numériques, renforcent la fracture numérique ou normalisent les technologies de surveillance et le manque de protection des données.

Et cette petite expérience a souligné comment, pour les Palestiniens, l’adoption d’outils populaires d’IA générative signifie suivre et contester de nouveaux préjugés, pratiques discriminatoires et formes d’effacement dans un paysage en ligne déjà biaisé”, explique-t-elle en citant ChatGPT et le terme “territoire contesté” utilisée par l’IA quand on évoque Jérusalem-est, au lieu de “territoire occupé” ou “colonisé”.