Mais pourquoi l’I.A. de Bing a l’air de perdre la boule ?

Mais pourquoi l’I.A. de Bing a l’air de perdre la boule ?

Image :

© yucelyilmaz/Getty

photo de profil

Par Konbini

Publié le

Microsoft explique les raisons des couacs qui ont surpris tout Internet.

Depuis l’intégration de ChatGPT au moteur de recherche Bing, les internautes s’extasient – ou se morfondent – devant les réponses du bot. Passant des larmes à la menace, sans oublier sa terrible crise existentielle, l’agent conversationnel se comporte parfois d’une étrange façon. Bonne nouvelle pour celles et ceux qui s’inquiétaient de son état : Microsoft vient de publier un article de blog pour expliquer les raisons d’un tel comportement, rapporte Engadget.

À voir aussi sur Konbini

La firme déclare tout d’abord ne pas avoir prévu que les internautes utiliseraient le chat “pour en apprendre plus sur le monde en général, et pour se divertir entre eux”. Elle en révèle ensuite un peu plus sur le sujet qui brûle les lèvres de tout le monde : si le bot donne parfois l’impression d’en vouloir à la terre entière dans ses réponses, c’est à cause de la longueur des conversations.

“Pendant de longues sessions d’échanges de plus de 15 questions, Bing peut devenir redondant ou être incité/amené à fournir des réponses qui ne sont pas nécessairement utiles ou conformes au ton que nous avons choisi.” Mais pourquoi ? D’abord, parce que face à une série de plusieurs questions, le bot risque de se mélanger les pinceaux dans ses réponses.

Le second souci, c’est que l’I.A. a été conçue pour imiter le ton que son interlocuteur·rice a employé dans sa question. Mais ce mimétisme peut parfois mener à des effets de style que Microsoft dit ne pas avoir choisis.

Pour remédier à tout cela, Microsoft promet donc d’ajouter un outil permettant de réinitialiser la conversation pour repartir à zéro avec le bot et lui éviter de partir dans tous les sens. Côté stylistique, elle annonce “chercher comment donner un contrôle plus précis” aux utilisateur·rice·s.

En attendant, dans le subreddit r/Bing, certain·e·s se plaignent déjà du nouveau bot, plus “neutre” qu’avant, et limitant les échanges à 11 messages avec cette indication : “Cette conversation est sympa, mais elle doit se terminer ! Continuons à discuter – cliquez sur ‘Nouveau sujet'” :

Les tests en tout genre ne sont pas prêts de s’arrêter : dans son article de blog, Microsoft relève plusieurs conversations d’une durée de deux heures avec le chatbot Bing. La fonctionnalité a été lancée en accès limité il y a seulement une semaine.