Les géants de la technologie créent un lobby pour contrôler le débat sur les intelligences artificielles

Les géants de la technologie créent un lobby pour contrôler le débat sur les intelligences artificielles

photo de profil

Par Thibault Prévost

Publié le

Derrière une façade d’organisation philanthropique, Partnership on AI permet à des grandes entreprises de la Silicon Valley de contrôler les futurs débats éthiques sur les intelligences artificielles.

À voir aussi sur Konbini

Le mercredi 28 septembre, Google, Microsoft, Facebook, Amazon et IBM ont annoncé la création de l’organisation Partnership on Artificial Intelligence (PAI), une organisation dont le but officiel est de développer un cadre éthique autour du développement des intelligences artificielles (IA), en “conduisant des recherches, recommandant les meilleurs usages et publiant des études en licence ouverte sur des sujets tels que l’éthique, l’équité, la transparence, la vie privée […], la collaboration entre humains et systèmes d’IA et la fiabilité et la robustesse de la technologie”. Un genre de think tank aux ressources gigantesques, entièrement dédié à la réflexion sur l’avenir de l’IA et la façon de l’intégrer dans la société humaine sans friction.

L’initiative, sur le papier, est louable car nécessaire, et rappelle la lettre ouverte signée en 2015 par une assemblée de pontes de la technologie — dont Elon Musk, Stephen Hawking et Bill Gates — pour alerter sur les dangers de l’intelligence artificielle. Toutefois, le but de la lettre ouverte était de sensibiliser l’opinion publique, alors que celui de cette organisation est de confisquer le débat. Et pas n’importe lequel : celui de l’avenir des sociétés humaines.

Un “conseil de l’éthique” (presque) entièrement privé

Ne nous y trompons pas : malgré le discours humaniste de ces organisation, qui jurent la main sur le cœur que leur seule motivation est le bien de l’espèce humaine, PAI n’est rien de moins qu’un conseil d’éthique sur l’IA créé par des entreprises qui la développent. En publiant des études scientifiques issues de différents groupes de travail thématiques (santé, transports, etc.), à un rythme qu’on imagine soutenu, et en contrôlant toute la chaîne de production de ces travaux, l’organisation va inévitablement orienter le débat public sur les questions qu’elle choisira, reléguant dans l’ombre celles qui fâchent ou peuvent nuire aux intérêts de ses membres.

Pour répondre à ces critiques, l’organisation — dont sont notoirement absents Elon Musk et Apple, occupés à définir leur propre éthique chacun dans leur coin — assure que la moitié des sièges de son conseil d’administration sont réservés à des membres extérieurs aux entreprises partenaires. Un geste purement symbolique, puisque ce sont les entreprises qui financeront le think tank, et certainement pas ces chercheurs. Enfin, rien n’explique comment seront sélectionnés ces experts “indépendants” et quel poids auront leur voix au sein du conseil d’administration.

En allouant des ressources inégalables à son entreprise de lobbying, les membres de PAI anticipent non seulement l’émergence (certaine) de mouvements de protestation dans la société civile mais aussi celle de projets concurrents, comme l’initiative OpenAI d’Elon Musk, organisme indépendant au budget d’un milliard de dollars. In fine, PAI veut dominer le débat et faire figure d’autorité sur les questions relatives à l’IA, qui ne manqueront pas d’agiter les débats des gouvernements nationaux dans les décennies à venir. Identifier les futurs problèmes éthiques, les mettre sous les yeux de la société civile… et fournir des solutions qui ne menaceront pas l’activité commerciale. La question qui se pose désormais est la suivante : veut-on vraiment laisser ces conglomérats être à la fois les fabricants, les vendeurs et les régulateurs d’une technologie au potentiel aussi gigantesque que l’IA ?