AccueilArchive

Des associations se mobilisent contre les “robots tueurs”

Des associations se mobilisent contre les “robots tueurs”

Par Astrid Van Laer

Publié le

Image :

© Page Facebook de Stop Killing Robots

Au sujet des armes létales autonomes, Elon Musk alertait en avril dernier : “Une fois cette boîte de Pandore ouverte, elle sera difficile à refermer.”

À voir aussi sur Konbini

Lundi 27 août s’ouvre la sixième réunion internationale sur les systèmes d’armes létales autonomes (Sala) de l’Organisation des Nations unies (ONU) à Genève, en présence de 70 pays et pour une durée de cinq jours. À cette occasion, des associations se mobilisent pour l’adoption d’un traité international qui interdirait les “robots tueurs”.

Si le terme peut faire sourire, faisant penser à de simples vedettes de films de science-fiction, il s’agit pourtant d’armes létales autonomes potentiellement très dangereuses contre lesquelles protestent 76 organisations, regroupées sous le nom de “Stop Killers Robots”. Ces dernières souhaitent à tout prix une “interdiction préventive” des armes autonomes par la mise en place d’une législation internationale.

Comme le soulignaient Les Échos en avril dernier, la menace est réelle puisque ces robots existent déjà. En Corée du Sud notamment, à la frontière de la Corée du Nord, ces derniers peuvent “détecte[r] des silhouettes humaines en mouvement dans le no man’s land entre les deux pays, une zone ‘démilitarisée’ mais sous tension et déjà truffée de mines”.

Un algorithme potentiellement capable de permettre à une machine de tirer à distance sur une personne qui s’approche, sans qu’aucun humain n’intervienne ou n’ait de pouvoir de décision dans le processus. C’est la dérive crainte par les ONG. Pour Amnesty International, ça ne fait aucun doute, il faut interdire les Sala “avant qu’il ne soit trop tard” pour éviter des “scénarios cauchemars”.

Même son de cloche du côté de Bénédicte Jeannerod, la directrice d’Human Rights Watch France, qui a cosigné l’appel du mouvement anti-robots et qui plaide pour un “contrôle humain significatif dans l’usage de la force”. Selon elle, “personne ne sera en sécurité face aux armes entièrement autonomes”.

“Nous n’avons pas beaucoup de temps pour agir”

Dans un communiqué de presse, l’ONG Stop Killers Robots rappelle qu’à ce jour 26 États se sont déjà prononcés en faveur de l’interdiction des Sala, parmi lesquels la Chine, l’Autriche, la Colombie ou encore Djibouti.

Aussi, des experts de l’intelligence artificielle et des entreprises se sont engagés à “ne pas participer à la conception, au développement ou à la commercialisation des armes létales autonomes”. Le magnat de l’intelligence artificielle Elon Musk avait également mis en garde contre les robots tueurs en cosignant cette lettre ouverte à la convention des Nations Unies sur les armes.

Les “armes offensives autonomes […] permettront des conflits armés à une échelle jamais vue auparavant et à des vitesses difficiles à concevoir pour les humains”, écrivaient-ils notamment, soulignant l’urgence qu’il y a à prévenir ces risques :

“Nous n’avons pas beaucoup de temps pour agir. Une fois ouverte cette boîte de Pandore, elle sera difficile à refermer. C’est pourquoi nous [vous] implorons de trouver le moyen de nous protéger de ces dangers.”

Mais lors de cette réunion qui s’ouvre aujourd’hui et qui a lieu dans le cadre de la Convention sur certaines armes classiques (CCAC), il faut qu’un consensus soit trouvé entre les États pour permettre l’adoption d’un traité. C’est-à-dire “qu’un seul État peut s’opposer et potentiellement bloquer le début des négociations pour un nouveau traité”, comme l’explique Human Rights Watch.

Emmanuel Macron s’était pour sa part déclaré “catégoriquement opposé” à un système d’armes létales totalement autonomes dans un entretien accordé en avril dernier au magazine Wired au sujet de la stratégie de la France en matière d’intelligence artificielle.

Le chef d’État français avait insisté sur la nécessité de garder une dimension humaine : “La décision de donner le feu vert [pour tuer, ndlr] doit être prise par un être humain parce qu’il faut quelqu’un qui en prenne la responsabilité.”

Une volonté réaffirmée par la ministre des Armées Florence Parly, qui a quant à elle déclaré : “Notre position est très claire : la France ne laissera pas émerger des robots tueurs, les systèmes respecteront les conventions internationales sur le droit de la guerre et l’homme sera à tout moment dans la boucle.”