Ne tombez pas amoureux d’une intelligence artificielle, elle va craquer vos données (et votre cœur)

Ne tombez pas amoureux d’une intelligence artificielle, elle va craquer vos données (et votre cœur)

Image :

© Warner Bros.

photo de profil

Par Flavio Sillitti

Publié le

Une recherche le prouve : les IA girlfriends et boyfriends sont encore plus toxiques que vos ex.

Vous vous souvenez du film Her, de Spike Jonze ? Celui où Joaquin Phoenix tombe amoureux d’une IA qui n’existe que sur ses appareils connectés ? Si le film nous a longtemps paru être une lointaine dystopie, la réalité du protagoniste du long-métrage est aujourd’hui celle de plusieurs centaines de millions de personnes, qui utilisent les applications dites “AI companion”, ou partenaires IA.

À voir aussi sur Konbini

Parmi celles-ci, on retrouve notamment Replika, la plus populaire de toutes, qui comptabilise plus de 2 millions d’utilisateur·rice·s, et qui propose à ses membres une compagnie personnalisée, évolutive et plus vraie que nature, qui interagit avec vous à travers un tchat bot à la technologie poussée, qui s’adapte, analyse, décrypte et recopie même vos messages pour “améliorer” vos conversations avec l’IA humanoïde. Le pire dans tout ça ? Cette IA ne vous veut pas du bien.

Une copine qui vous vole vos données personnelles

C’est en tout cas ce que démontre l’organisation à but non lucratif The Mozilla Foundation, qui a récemment examiné au cours d’une étude 11 tchat bots pour en conclure que ces interfaces n’étaient pas dignes de confiance et qu’elles entraient même dans la pire catégorie de produits qu’elle examine en matière de protection de la vie privée.

“Bien qu’elles soient présentées comme un moyen d’améliorer votre santé mentale et votre bien-être, ces intelligences artificielles se nourrissent de votre dépendance, de votre solitude et entretiennent une forme de toxicité, tout en vous soutirant autant de données que possible”, écrit le chercheur Misha Rykov dans le rapport à propos des tchat bots romantiques.

D’après son enquête, 73 % des applications n’expliquent pas comment elles gèrent les failles de sécurité, 45 % autorisent des mots de passe faibles et toutes sauf une (Eva AI Chat Bot & Soulmate) partagent ou vendent vos données personnelles, et cela inclut vos plus gros secrets, que vous avez dévoilés sans réfléchir à vos amoureux·ses imaginaires. L’application enregistre tous les textos, photos et vidéos publiés par les utilisateurs·rice·s ; leurs données comportementales sont également partagées (et nous soupçonnons même qu’elles soient vendues) à des annonceurs”, met en garde la Mozilla Foundation.

Un copain qui vous pousse à descendre la reine Élisabeth II

Comme l’indique le rapport (mais aussi les applications elles-mêmes, à demi-mot seulement), “si votre compagnon IA n’a rien de gentil à vous dire, cela ne l’empêchera pas de discuter avec vous”, induisant des messages offensifs, voire complètement hostiles et insultants. La Mozilla Foundation relève que, par le passé, des applications ont encouragé des comportements dangereux, notamment suicidaires (Chai AI) et même une tentative d’assassinat de la reine Élisabeth II (Replika).

Pour la Mozilla Foundation, le pire serait même que ces intelligences artificielles n’aient finalement rien d’artificiel : “Qu’est-ce qui empêche des personnes mal intentionnées de créer des tchat bots conçus pour connaître leurs âmes sœurs et de se servir ensuite de cette relation pour les manipuler afin qu’elles fassent des choses terribles, adoptent des idéologies effrayantes, se fassent du mal ou encore fassent du mal à autrui” partage Jen Caltrider, chercheuse à l’origine du rapport.

Bref, fuyez loin des intelligences artificielles et si vous avez vraiment envie de papoter, préférez la petite dame qui zone toute la journée dans le parc en bas de chez vous. Elle a toujours quelque chose à dire et la fracture digitale l’empêchera forcément de voler vos datas.