Des centaines d’experts (dont Elon Musk) veulent qu’on se calme avec les IA

Publié le par Konbini avec AFP,

(© Getty Images)

Un appel collectif réclame une pause d’au moins six mois pour mieux combattre les risques de "désinformation à grande échelle ou de cyberattaques".

A voir aussi sur Konbini

Elon Musk et des centaines d’experts mondiaux ont signé mercredi un appel à une pause de six mois dans la recherche sur les intelligences artificielles plus puissantes que ChatGPT 4, le modèle d’OpenAI lancé mi-mars, en évoquant “des risques majeurs pour l’humanité”.

Publicité

Dans cette pétition parue sur le site futureoflife.org, ils réclament un moratoire jusqu’à la mise en place de systèmes de sécurité, dont de nouvelles autorités réglementaires dédiées, la surveillance des systèmes d’IA, des techniques pour aider à distinguer le réel de l’artificiel et des institutions capables de gérer les “perturbations économiques et politiques dramatiques (en particulier pour la démocratie) que l’IA provoquera”.

Publicité

La pétition réunit des personnalités qui ont déjà publiquement exprimé leurs craintes envers des IA incontrôlables qui surpasseraient l’être humain, dont Elon Musk, propriétaire de Twitter et fondateur de SpaceX et de Tesla, et Yuval Noah Harari, l’auteur de Sapiens.

Le patron d’OpenAI, concepteur de ChatGPT, Sam Altman a lui-même reconnu être “un petit peu effrayé” par sa création si elle était utilisée pour de “la désinformation à grande échelle ou des cyberattaques”. “La société a besoin de temps pour s’adapter”, avait-il déclaré à ABC News mi-mars.

Publicité

“Ces derniers mois ont vu les laboratoires d’IA s’enfermer dans une course incontrôlée pour développer et déployer des cerveaux numériques toujours plus puissants que personne – pas même leurs créateurs – ne peut comprendre, prédire ou contrôler de manière fiable”, estiment les experts.

“Devons-nous laisser les machines inonder nos canaux d’information de propagandes et de mensonges ? Devrions-nous automatiser tous les emplois, y compris ceux qui sont gratifiants ? Devons-nous développer des esprits non humains qui pourraient un jour être plus nombreux, plus intelligents, plus obsolètes et nous remplacer ? Devons-nous risquer de perdre le contrôle de notre civilisation ? Ces décisions ne doivent pas être déléguées à des leaders technologiques non élus”, concluent-ils.

Les signataires comprennent aussi Steve Wozniak, cofondateur d’Apple, des membres du laboratoire d’IA de Google DeepMind, Emad Mostaque, le patron de Stability AI, concurrent d’OpenAI, ainsi que des experts en IA et universitaires américains, ingénieurs cadres de Microsoft, groupe allié d’OpenAI.

Publicité