AccueilArchive

Ce jeu à base de voiture autonome va vous confronter au pire des dilemnes

Ce jeu à base de voiture autonome va vous confronter au pire des dilemnes

avatar

Par Thibault Prévost

Publié le

Le mini-jeu Moral Machine, développé par le Massachusetts Institute of Technology (MIT), vous met dans la peau d’une voiture sans conducteur confrontée à un dilemme : il faut choisir qui meurt.

À voir aussi sur Konbini

Nous sommes en 2030. Vous êtes tranquillement en train de rouler en ville dans l’habitacle confortable de votre voiture autonome. Le volant et les pédales ont beau se trouver là devant vous, vous avez presque oublié leur utilité. D’ailleurs, vous ne regardez même pas la route, trop occupé à regarder le dernier épisode de votre série du moment. Au début, bien sûr, vous avez eu du mal à déléguer la conduite à votre ordinateur de bord, comme tout le monde. Surtout quand vous fonciez à 140 km/h sur d’interminables portions d’autoroute. Mais après quelques mois sans aucun incident, vous avez tout simplement accepté l’idée de ne plus être un conducteur.

C’est fou comme on s’adapte rapidement à des changements d’attitude aussi radicaux, pensez-vous, tandis que dans les entrailles, un réseau neuronal observe, évalue, jauge et prend des millions de décisions à la seconde pour vous maintenir en vie. Sauf qu’à une dizaine de mètres, un enfant vient de traverser au rouge, trop tard pour que votre véhicule l’évite. L’ordinateur de bord sait déjà qu’un être humain va mourir, mais en 2016, personne ne sait encore lequel. Alors que le défi technique des véhicules autonomes est en passe d’être définitivement relevé, un autre, autrement plus complexe, s’invite dans le débat public : quelle éthique doit-on insuffler aux machines ?

Alors que d’éminentes publications et conférences scientifiques ont commencé à réfléchir au sujet —le MIT Technology Review penche du côté des voitures tueuses de piétons, quand l’IEEE Spectrum s’interroge sur les conséquences judiciaires des accidents — et que la réalité nous offre les premiers accidents mortels dans des véhicules autonomes, le MIT propose pour sa part une manière ludique de collaborer au débat : un mini-jeu, qui vous offre une suite de dilemmes éthiques et vous demande tout simplement qui vous tueriez si vous étiez une voiture responsable.

Hiérarchie des vies humaines

Au-delà de la simple dualité entre piéton et conducteur, le jeu Moral Machine explore une multitude de scénarios qui dessinent, in fine, un portrait plus riche des valeurs éthiques majoritaires — dans la société occidentale, du moins — et établissent une hiérarchie instinctive des vies humaines, loin des tortueux débats rationnels sur la question. Impossible, de toute façon, de ne répondre autrement qu’arbitrairement à ces dilemmes insolubles avec les armes de la raison. Exemple : une famille de cinq personnes, dont trois enfants, contre cinq piétons — dont, disons, quatre enfants — et un chien, qui traversent au rouge… Qui meurt ? Et ainsi de suite.

En proposant aux utilisateurs d’élaborer eux-mêmes leurs scénarios, le jeu offre un nombre impressionnant de variables : âge, genre, nombre, espèce, mais aussi forme physique (un obèse mérite-t-il plus de mourir qu’un athlète ?) et “valeur sociale” (la vie d’un criminel est-elle moins importante que celle d’un médecin urgentiste ?). En affichant les résultats et en permettant de les comparer avec ceux de la moyenne, le jeu offre en outre une intéressante perspective de soi-même et de ses convictions (certaines de vos certitudes morales pourraient en prendre un coup, nous déclinons donc toute responsabilité).

Enfin, et c’est peut-être là sa plus grande réussite, Moral Machine responsabilise sans en avoir l’air le grand public sur l’un des débats les plus importants de la décennie à venir, qui devra obligatoirement être réglé dans un cadre démocratique. Rassurons-nous, cependant : selon les résultats observés actuellement, les routes de demain devraient, dussent-elles être dominées par des véhicules autonomes, être infiniment plus sûres que celles d’aujourd’hui.