Wall-e (c) Pixar

Créer de la "stupidité artificielle", cette fausse bonne idée

Parlons plus simplement d’encadrement.

Wall-E (c) Pixar

Un concept aussi contre-intuitif qu’inattendu vient d’éclore dans le petit milieu de l’intelligence artificielle.

À voir aussi sur Konbini :

Pour voir les vidéos Konbini, merci de désactiver AdBlock.

Dans un papier publié sur arXiv.org, un chercheur en informatique à l’Université de Louisville (États-Unis), Roman Yampolskiy, et un étudiant en informatique à la Sorbonne, Michaël Trazzi, encouragent leurs pairs à s’adonner à la "stupidité artificielle".

Comme beaucoup d’autres chercheurs, ingénieurs et bons connaisseurs, à l’instar d’un Elon Musk ou d’un Bill Gates, les deux auteurs de la publication craignent le jour où l’intelligence de l’ordinateur dépassera celle de l’humain, jour où tout pourrait devenir incontrôlable. Pour le moment, on est loin : une IA excelle dans une tâche qu’on lui a assignée et n’outrepasse jamais ses prérogatives.

Pour envisager l’avenir sereinement, il faudrait donc une IA qui ne dépasse pas le cerveau humain et ne recherche pas la perfection.

Publicité

Se rabaisser, artificiellement, au niveau de l’humain, n’est pas une idée tout à fait nouvelle, nous rappelle le papier. Comme le préconisait le Grand Turing, certains chatbots font exprès de se planter pour paraître plus humains. Autre exemple : le Google Duplex - l’IA de Google qui passe des appels à notre place pour nous simplifier la vie - ferait parfois exprès de mimer nos hésitations ("huuum…") pour nous ressembler.

Les deux chercheurs proposent de pousser à fond cette démarche d’humanisation en allant plus loin, en bridant volontairement la puissance et les capacités de nos futures IA. Ce qui serait donc une sorte de stupidité artificielle.

Pour cela, deux moyens :

Publicité

  • En limitant leur partie matérielle - le hardware - pour le faire correspondre au maximum les capacités de l’ordinateur aux capacités de calcul de nos neurones. Pour cela, il faudrait envisager de limiter les processeurs, les différentes mémoires ou encore les capacités de stockage.
  • La deuxième mesure préventive serait d’ordre immatériel, en programmant les algorithmes autrement. Ici, deux sous-sections :
    • Interdire à l’IA de réécrire son propre code pour l’empêcher de progresser exponentiellement.
    • Introduire des "biais cognitifs", autrement dit des formes de pensée imparfaites propres à l’humain et, a priori, étrangères aux machines, même si l’on découvre que ça n’est pas vrai.

Alors ? Avons-nous réellement affaire, ici, à de la stupidité artificielle ? L’expression nous paraît (peut-être volontairement) exagérée. Il ne s’agit ni plus ni moins que de proposer des règles d’encadrement strictes et éthiques. Noble tâche à laquelle s’adonnent déjà certaines organisations, OpenAI en tête de peloton.

Par ailleurs, il paraît peu probable que les labos ou les entreprises acceptent de limiter la puissance de leurs IA. La compétition est féroce, partout. Encadrer le progrès paraît plus réaliste que vouloir le freiner. D’ailleurs, que se passerait-il si l’on limitait l’IA des futures voitures autonomes ? Pas sûr que la Sécurité Routière validerait la chose.

Vous aimiez les débats sur l’homme augmenté ? Vous serez servis avec la machine diminuée.

Par Pierre Schneidermann, publié le 24/08/2018

Copié

Pour vous :