AccueilÉDITO

En cas de dilemme, la Google Car devra-t-elle choisir de sacrifier ses passagers ou les piétons ?

Publié le

par Théo Chapuis

Une voiture autonome devra-t-elle parfois faire le choix de sacrifier ses propres occupants ? Question d'éthique appliquée à la Google Car, la réponse ne va pas de soi.

Que devra choisir la voiture autonome Google en cas d'accident pour être certaine de rencontrer son public ? (Crédits image : Google)

L'été 2010, les automobilistes qui empruntaient la Highway 1 entre Los Angeles et San Francisco ont pu remarquer une curieuse Toyota Prius ornée d'un aileron surmonté d'une caméra. Comme le racontait alors le NYT, il était plus difficile de remarquer que l'être humain assis à la place du pilote ne conduisait pas. C'était le temps des premières sorties de la Google Car, voiture autonome qu'on qualifiait alors de "prochaine révolution" dans le secteur de l'automobile.

Or, la voiture sans pilote pose forcément certaines questions de sécurité : après tout, c'est un robot qui conduit. C'est pourquoi Jean-François Bonnefon, de la Toulouse School of Economics, Azim Shariff, de l’Université de l’Oregon et Iyad Rahwan, du MIT Media Lab, ont planché sur trois séries d’études relatives au facteur risque d'une voiture autonome en juin dernier. Les scientifiques ont interrogé un millier d'Américains autour de plusieurs questions dont l'idée générale pourrait se résumer ainsi : en cas d'accident imminent, s'il n'y a pas le choix, faut-il opter pour le sacrifice du piéton ou celui du passager de la voiture ?

"La grande majorité des internautes a réclamé le sacrifice du passager plutôt que celui du piéton", explique Bonnefon auprès de BFMTV, ajoutant que les résultats ne sont pas si catégoriques si on demande aux sondés de s'imaginer à bord de la voiture : étonnamment, ils sont en faveur de la mort de l'occupant du véhicule tant qu'ils n'ont pas à en conduire une elle-même.

Aux confins de la morale appliquée à nos objets connectés, les chercheurs se heurtent à des questions que personne ne voudrait donc devoir se poser un jour : dois-je sauver cette vie ou bien celle-là ? C'est l'éthique expérimentale, un domaine de recherche où la population a son rôle à jouer, car les Google Cars ou autres véhicules autonomes ont encore à se faire accepter : êtes-vous prêt à abandonner tout contrôle à un robot qui pourrait potentiellement décider de vous tuer ? Auprès de MIT Technology Review, Bonnefon fait part des cruelles questions auxquelles il aura à répondre :

Est-ce préférable pour un véhicule autonome d'éviter un motocycliste en fonçant dans un mur, sachant que les probabilités de survie sont plus grandes pour les passager de la voiture que pour le pilote de moto ? Des décisions différentes doivent-elles être prises lorsque des enfants sont à bord, puisque ils ont une vie plus longue devant eux que les adultes [...] ? Si un fabricant offre différentes versions de cet algorithme moral et que le consommateur choisit l'un d'eux en conscience, est-ce le consommateur qui est à blâmer pour les conséquences des décisions prises par l'algorithme ?

La plateforme d'étude de l'équipe de Bonnefon demandait d'opter entre plusieurs situations critiques auxquelles on n'aimerait ne jamais avoir à être confronté : comme choisir de se planter dans un mur ou faucher un deux-roues, réduire en bouillie plusieurs passants ou un seul piéton... Le chercheur ne prend pas pour autant les réponses des sondés pour argent comptant : "Il ne s’agissait pas d’obtenir un pourcentage mais plutôt de situer les réponses sur une échelle afin d’obtenir les variantes les plus fines possibles", détaille-t-il.

Le dilemme du tramway

Ces questions ont déjà été formulées avec une expérience de pensée qui a fait date dans l'histoire des sciences cognitives : le dilemme du tramway. La philosophe britannique Philippa Foot le définissait ainsi :

Imaginez qu'un juge se retrouve face à des émeutiers qui demandent qu'un coupable soit trouvé pour un certain crime et, si cela n'est pas fait, qui menacent de se venger de manière sanglante sur une partie spécifique de la communauté. Le coupable réel étant inconnu, le juge se retrouve avec pour seule solution de condamner à mort un innocent pour prévenir le bain de sang.

Imaginons parallèlement un autre exemple où le pilote d'un avion qui est sur le point de s'écraser se doit de choisir un point de chute dans une aire plus ou moins habitée. Afin de rendre les deux situations les plus semblables possibles, imaginons plutôt le conducteur d'un tramway hors de contrôle qui se doit de choisir sa course entre deux voies possibles : cinq hommes travaillent sur l'une et un homme est situé sur l'autre. La voie prise par le tram entraînera automatiquement la mort des personnes qui s'y trouvent.

Dans le cas des émeutiers, ces derniers ont en otage cinq personnes, ce qui fait en sorte que les deux situations amènent le sacrifice d'une vie pour en sauver cinq.

Aussi sangrenues que ces situations puissent paraître, Google va bel et bien devoir les intégrer. Car le questionnement a pour l'instant des allures de casse-tête insoluble : il faut pouvoir obtenir un comportement cohérent du véhicule, ne pas scandaliser l'opinion, ni décourager les consommateurs. Bon courage. Ce n'est qu'un début.

À voir aussi sur konbini :