AccueilArchive

Pour Halloween, le MIT transforme une intelligence artificielle en machine à cauchemars

Pour Halloween, le MIT transforme une intelligence artificielle en machine à cauchemars

avatar

Par Thibault Prévost

Publié le

Avec Nightmare Machine, le MIT a appris à l’intelligence artificielle à générer des images flippantes à partir de photos communes. Et vous pouvez l’y aider.

À voir aussi sur Konbini

Zombies, vallées infernales, abattoirs hantés et hôpitaux psychiatriques délabrés : juste à temps pour Halloween, une équipe de chercheurs du Massachusetts Institute of Technology (MIT) a trouvé une manière ludique et inédite de mettre à profit la puissance de l’intelligence artificielle (IA) : lui donner pour mission de générer les images les plus flippantes possibles, rien que pour le plaisir. Le résultat s’appelle Nightmare Machine et publie, sur son site officiel, des séries de clichés à faire froid dans le dos.

L’algorithme, déjà entraîné par le MIT et l’équipe australienne de la Commonwealth Scientific and Industrial Research Organisation (CISRO) à générer des visages humains après en avoir étudié des milliers, a patiemment appris à reconnaître ce que l’être humain considère comme angoissant, révulsant ou terrifiant en soumettant ses créations à la critique. D’abord à celle des chercheurs, puis à celle du grand public : les créations sont soumises au vote populaire via Instagram, ce qui permet au programme de s’améliorer sans cesse dans sa recherche de l’image la plus terrifiante. “Scary” ou “Not scary”, telle est la question.

Mieux que les lois d’Asimov, l’apprentissage

Mais derrière la trivialité de l’idée (pourquoi diable voudrions-nous apprendre à une IA comment nous faire flipper de la meilleure manière ?) se cache néanmoins un enjeu essentiel du développement algorithmique : enseigner aux machines à nous transmettre des émotions, les habituer à les comprendre et, pour terminer, leur apprendre à ne pas nous faire peur.

“Les émotions sont quelque chose que les machines pourraient apprendre à instiller aux humains, explique Manuel Cebrian Ramos, l’un des chercheurs de l’étude, au Sydney Morning Herald. Dans le cas d’émotions positives, comme la confiance ou la tendresse, ça pourrait leur signifier : Travaille avec moi, je veux collaborer avec toi’.” Pour lui, l’approche coercitive – implanter des règles inaltérables, similaires aux lois d’Asimov, dans les programmes – finira forcément par échouer, et la solution réside dans une approche plus pédagogique : “Le mieux serait de traiter les machines de la même manière que les humains. Leur enseigner comment leurs actions ont des conséquences sur les autres et, une fois qu’elles l’auront compris, leur apprendre à éviter ces actions.”

De même, selon le chercheur, apprendre aux machines à nous effrayer pourrait, paradoxalement, faciliter les relations entre humains et algorithmes à l’avenir. Visiblement, il n’avait pas encore vu “Playtest”, l’épisode 2 de la saison 3 de Black Mirror.