Protéger ses œuvres du plagiat des méchantes IA, c’est possible grâce à ce logiciel gratuit

Protéger ses œuvres du plagiat des méchantes IA, c’est possible grâce à ce logiciel gratuit

Image :

© Midjourney

photo de profil

Par Konbini avec AFP

Publié le

Alléluia ! Cet outil permettra de protéger les œuvres artistiques des IA qui les exploitent sans vergogne et de freiner la circulation de fake news.

Des étudiant·e·s de l’université de Chicago ont mis au point un logiciel qui permet de générer une version “masquée” d’une œuvre originale, pour la protéger des programmes d’intelligence artificielle. Ce nouvel outil au service des artistes et photojournalistes concerne tout type de média : peinture, photographie, dessin, etc.

À voir aussi sur Konbini

Appelé Glaze (“vernis”), ce logiciel ajoute en filigrane une couche d’informations quasiment invisible à l’œil nu, qui “brouille les pistes”. L’auteur·rice peut ensuite publier en ligne l’image modifiée. Si une IA générative essaie de s’en servir, les données informatiques ajoutées empêcheront la machine d’analyser correctement le style et de le reproduire.

Le SAND Lab de l’université de Chicago a décidé de concevoir Glaze après avoir été contacté par des artistes, outré·e·s que des programmes comme Stable Diffusion ou Midjourney permettent à leurs utilisateur·rice·s de générer en quelques secondes des images imitant leur style de façon très sophistiquée. “C’est le projet le plus concret et le plus important sur lequel nous ayons travaillé”, assure Shawn Shan, l’étudiant chargé de Glaze.

“Nous travaillons sur les questions de sécurité et de confidentialité des systèmes d’IA, mais d’habitude, nous travaillons plutôt sur des outils au cas où tel ou tel problème se pose”, explique-t-il à l’AFP. “Cette fois-ci le problème existe déjà, cela entraîne des dommages réels pour les artistes, qui ont besoin d’outils pour les protéger.”

Glaze peut être téléchargé gratuitement depuis le 15 mars. L’équipe a travaillé en collaboration avec des artistes, dont Karla Ortiz, une des plaignantes dans les poursuites lancées en nom collectif à San Francisco contre plusieurs entreprises. “Avec Glaze, Stable Diffusion ne pourra pas apprendre le style de Karla. Le modèle identifiera son art différemment (comme si c’était du van Gogh, par exemple)”, détaille un communiqué. “Si quelqu’un demande ensuite à Stable Diffusion de générer une œuvre dans le style de Karla Ortiz, il obtiendra des images dans le style van Gogh (ou quelque chose d’hybride).”

L’équipe reconnaît cependant que Glaze n’est pas une solution permanente contre l’imitation par l’IA. Les entreprises spécialisées seront sans doute capables de contourner l’obstacle, forçant les étudiant·e·s à améliorer leur outil, et ainsi de suite. “L’IA évolue très vite, trop vite”, remarque Shawn Shan. “L’idée est de gagner du temps en attendant qu’il y ait plus de régulation.”

L’initiative est accueillie avec enthousiasme, mais aussi scepticisme car la responsabilité revient aux artistes, banques d’images et photojournalistes. Les spécialistes craignent que la prochaine génération ne se décourage.

Les artistes font front contre l’intelligence artificielle

Des années de pratique, des heures minutieuses de travail, contre quelques secondes pour la machine qui a avalé et digéré leurs œuvres : l’intelligence artificielle désespère les artistes et photojournalistes, qui n’ont pas dit leur dernier mot, sur Internet ou au tribunal. L’été dernier, les artistes et photojournalistes ont découvert avec effroi que des programmes d’IA dite “générative” pouvaient désormais produire, sur simple requête, un dessin de chien “comme Sarah Andersen”, une image de nymphe “façon Karla Ortiz” ou reprendre une photo d’actualité pour créer une fake news. Une appropriation sans que les intéressé·e·s n’aient donné leur autorisation, soient crédité·e·s ou rémunéré·e·s, et qui peut s’avérer dangereuse si elle devient virale.

En janvier, des artistes ont collectivement porté plainte contre Midjourney, Stable Diffusion et DreamUp, trois modèles d’IA formés grâce à des milliards d’images récoltées sur Internet. Sarah Andersen, l’une des principales plaignantes, s’est sentie “intimement lésée” quand elle a vu un dessin généré avec son nom, dans le style de sa BD Fangs.

Sa réaction indignée sur Twitter a été largement relayée, puis d’autres artistes l’ont contactée. “Nous espérons créer un précédent judiciaire et forcer les entreprises spécialisées dans l’IA à respecter des règles”, indique-t-elle. Les artistes et photojournalistes veulent notamment pouvoir accepter ou refuser que leurs œuvres soient utilisées par un modèle – et non devoir demander leur retrait, même quand c’est possible. Dans ces conditions, on pourrait imaginer un “système de licences, mais seulement si les commissions sont suffisantes pour en vivre”, note Karla Ortiz, une autre plaignante.

Pas question “de recevoir des centimes pendant que l’entreprise empoche des millions”, insiste cette illustratrice qui a notamment travaillé pour les studios Marvel. Sur les réseaux sociaux, des artistes racontent leur perte de contrats à cause des IA. “L’art est mort, mec. C’est fini. L’IA a gagné. Les humains ont perdu”, a déclaré Jason Allen au New York Times en septembre 2022, après avoir soumis une image générée par Midjourney à un concours d’art, qu’il a remporté.

Le musée Mauritshuis de La Haye expose en ce moment une image générée avec de l’IA pour un concours de création d’œuvres inspirées par La Jeune Fille à la perle de Vermeer. Le Ballet de San Francisco a, de son côté, fait débat en utilisant Midjourney pour sa campagne de promotion de Casse-Noisette en décembre. “C’est facile et pas cher, alors même des institutions n’hésitent pas, même si ce n’est pas éthique”, s’indigne Sarah Andersen.

Apocalypse de la création

Emad Mostaque, le patron de Stability AI (Stable Diffusion), aime comparer ces programmes à de simples outils, comme Photoshop. Ils vont permettre “à des millions de personnes de devenir des artistes” et de “créer des tonnes de nouveaux emplois créatifs”, a-t-il affirmé, estimant qu’un usage “non éthique” ou “pour faire des choses illégales” est le “problème” des utilisateur·rice·s, pas de la technologie.

Les entreprises vont se réclamer du concept juridique de “fair use” (“usage raisonnable”), une sorte de clause d’exception aux droits d’auteur·rice, explique le juriste et développeur Matthew Butterick. “Le mot magique, c’est ‘transformation’. Est-ce que leur système propose quelque chose de nouveau ? Ou est-ce qu’il remplace l’original sur le marché ?”, détaille le consultant.

Avec le cabinet d’avocats Joseph Saveri, il représente les artistes, mais aussi des ingénieur·e·s dans une autre plainte contre un logiciel de Microsoft, qui génère du code informatique. “Quand la science-fiction imagine l’apocalypse par l’IA, des robots débarquent avec des fusils laser”, remarque le juriste. “Mais je pense que la victoire de l’IA sur l’humanité, c’est quand les gens abandonnent et cessent de créer.”