Ça y est, les IA peuvent lire dans nos pensées ?

Finito les scénarios imaginaires

Ça y est, les IA peuvent lire dans nos pensées ?

Image :

© Icons8 Team/Unsplash

photo de profil

Par Julie Morvan

Publié le

Même la petite voix dans votre tête n’est plus à l’abri…

Quoi ? Les intelligences artificielles sont passées au niveau supérieur ? Même nos pensées les plus secrètes sont à leur portée ? Lundi dernier, des scientifiques de l’université du Texas à Austin ont en tout cas réussi à décoder des pensées humaines pour les transformer en texte intelligible… et on vous explique ce que ça veut vraiment dire.

À voir aussi sur Konbini

Concrètement, comment ça marche ? Bon, déjà, qu’on se rassure : on est encore loin d’être surveillé·e·s par une pseudo-police de la pensée. Toute l’étude, publiée dans le journal Nature Neuroscience, repose sur trois vaillant·e·s participant·e·s qui ont accepté d’écouter 16 heures de podcasts pour le bien de la science – quel dévouement. Pendant qu’iels écoutaient des gens raconter des histoires sur des gens, un scanner IRMf (Imagerie par Résonance Magnétique fonctionnelle) surveillait leur cerveau. Plus précisément, le niveau d’oxygénation dans des zones cérébrales bien précises, explique The New York Times.

Mais pas question de se reposer uniquement sur ces implants pour en déduire un semblant de phrase ! Cette fois-ci, les scientifiques ont fait appel à un modèle de langage génératif. Son boulot : associer des schémas identifiés dans l’activité du cerveau à des mots et à des phrases entendus par les valeureux·euse·s participant·e·s.

Une sorte de décodeur qui utilise l’intelligence artificielle pour interpréter des imageries d’IRMf et les convertir en mots et phrases intelligibles, qui ont du sens. Voici les résultats des tests préliminaires :

Alors qu’un·e des auditeur·rice écoutait la phrase suivante : “Nous avons commencé à échanger des histoires sur nos vies, nous sommes tou·te·s les deux originaires du Nord”, l’IA a retranscrit le message suivant en se basant sur les données du scanner : “Nous avons commencé à parler de nos expériences dans la zone où il était né, j’étais du Nord”. Un test imparfait mais déjà très prometteur. Après avoir entraîné le décodeur sur chaque cerveau, l’expérience en soi a donc été lancée.

Les participant·e·s ont dû imaginer une histoire dans leur tête ; au décodeur de la retranscrire, uniquement en se basant sur les signaux du cerveau. Le résultat est bluffant pour une première tentative. Voici l’histoire imaginée par l’un·e d’entre eux : “Recherchez un message de ma femme disant qu’elle avait changé d’avis et qu’elle revenait.”

Et la version comprise par l’IA : “Pour la voir pour une raison quelconque, je pensais qu’elle viendrait me voir et me dirait que je lui manque.”

Bon, vu que c’est en anglais, pas évident de faire la distinction entre les pronoms et la conjugaison des verbes. Mais la ressemblance entre les deux énoncés est tout de même spectaculaire car l’IA ne se contente pas d’assembler des mots sans réelle signification, mais tente au contraire de recréer du sens entre eux.

Pour l’instant, l’IA doit encore surmonter de nombreux obstacles avant de pouvoir lire dans vos pensées et connaître l’identité de votre crush ultime : par exemple, les scanners IRMf sont encombrants, chers. Quant à l’entraînement du modèle de langage, il est long… et doit être renouvelé pour chaque individu. Chaque cerveau aurait sa propre façon de créer du sens, et ça, d’une certaine façon, ça nous arrange. Sans oublier que l’étude insiste évidemment sur le caractère “non-intrusif” de la démarche… et soulève une nouvelle notion éthique : “Les interfaces cerveau-ordinateur doivent respecter la vie privée mentale”. Ouf, on va pouvoir continuer à se créer des scénarios imaginaires dans nos têtes pendant longtemps.