Une entreprise japonaise va tester un système de prédiction des crimes

Le géant japonais de la technologie Hitachi a annoncé le lancement d'un programme de prédiction des crimes, basé sur l'analyse de données.

À l'heure où sort la version série de Minority Report, la réalité du présent se prend de plus en plus sérieusement pour l'univers de science-fiction imaginé en 1956 par Philip K.Dick. Un logiciel capable de prédire, avec une précision infaillible, les crimes sur le point de se produire ? La firme japonaise Hitachi, qui fabrique aussi bien des composants d'ordinateur que des ascenseurs, prétend l'avoir mis en place.

Baptisé Hitachi Visualization Predictive Crime Analytics (PCA), le système sera testé à partir d'octobre dans "une demi-douzaine de villes aux États-Unis... dont l'une pourrait très bien être Washington D.C", rapporte Quartz. Le système de vidéosurveillance à l'œuvre dans la capitale américaine est en effet géré par Hitachi.

C'est bien beau, mais comment ça fonctionne, alors ? Selon l'entreprise, le PCA n'est rien d'autre qu'un puissant logiciel d'analyse de données couplé à un programme de machine learning, qui permet à l'ordinateur d'affiner ses résultats à chaque nouvelle quantité d'information reçue en apprenant tout seul. Ces données vont des conditions météorologiques au taux de fréquentation des transports en commun, en passant par les données de criminalité existantes et... les conversations sur les réseaux sociaux, par exemple.

Twitter, la messagerie des gangs

Ces dernières, et particulièrement Twitter, peuvent accélérer la précision des analyses de 15%, explique Hitachi à Fast Company. "Les gangs, par exemple, utilisent des mots-clés pour se rencontrer ou mettre en place des opérations", révèle Darrin Lipscomb, l'un des responsables du PCA.

"Personnellement, je ne connais pas ces mots-clés... mais avec notre approche, nous pouvons remarquer quand quelque chose sort de l'ordinaire, comme lorsque quelqu'un utilise un mot hors-sujet et l'utilise beaucoup sur une courte période, et plus ce comportement se répétera plus le programme le remarquera."  Une approche basée sur les probabilités, connue sous le nom de loi de Dirichlet.

3051578-inline-hitachi-visualization-suite-45-predictive-crime-analyticsdc

Les conversations sur les réseaux sociaux permettent également d'identifier la montée de tensions sociales et territoriales, notamment entre quartiers d'une ville. Là où les agents humains, tout Sherlock qu'ils soient, ne peuvent que constater l'envenimement d'un conflit territorial une fois celui-ci ouvertement déclaré, Hitachi explique que le PCA permet de le voir venir... et d'y répondre en conséquence, en déployant plus de patrouilles sur la zone en question.

Le machine learning, système anti-préjugés?

Fort de ces centaines de variables, le système est ensuite capable d'identifier des récurrences et de faire des recoupements dont un être humain serait parfaitement incapable. Selon ses concepteurs, le PCA identifie ensuite les scènes de crimes potentielles avec une précision de 200 mètres carrés et leur assigne des niveaux de probabilité, en pourcentage, selon le type de menace (vol, agression, viol, cambriolage...). De cette façon, les policiers (humains, on vous rassure) pourront sélectionner quelles zones patrouiller en fonction de leur dangerosité potentielle, selon l'heure de la journée.

Si Hitachi n'est pas la première entreprise à proposer un système de surveillance basé sur la prédiction analytique, elle prétend être la seule à utiliser le machine learning, système dans lequel les données "parlent" toutes seules, sans aucun biais humain. Selon l'un des responsables du programme, "les modèles prédictifs utilisés par les forces de l'ordre se basent tous sur l'expérience personnelle des agents en choisissant certaines variables particulières, comme certains mots d'argot à surveiller sur Twitter ou la localisation de certaines écoles".

Ce faisant, ils donnent dès le départ un poids plus important à certaines données plutôt qu'à d'autres, ce qui biaise l'analyse. Et peut conduire, notamment, à des arrestations au faciès, un comportement très... humain. Depuis l'adoption de la loi "stop-and-frisk" aux États-Unis, qui permet à la police d'arrêter et de fouiller n'importe qui sans motif particulier dans un certain nombre de quartiers, des chiffres ont montré que 85% des victimes de cette loi étaient des Noirs ou des Latinos. Le PCA entend éradiquer ces comportements.

3051578-inline-hitachi-visualization-suite-predictive-crime-analyticsdc-datasheet-copy

La France prépare aussi son Minority Report

La mise en place d'un tel système pose immédiatement deux questions éthiques. La première est de savoir dans quelle mesure les forces de l'ordre peuvent se fier à la prétendue infaillibilité d'un programme, la seconde concerne l'éventualité d'un échec. Comment, dans le cadre d'une prédiction criminelle, savoir si la personne arrêtée est coupable ou innocente, puisque le Droit se base sur la punition d'une action répréhensible commise par un individu ?

Pour Darrin Lipscomb, il faut laisser le PCA prouver tout seul son efficacité : lors des essais, un protocole en double aveugle sera mis en place (comme pour toute étude scientifique), certains commissariats travaillant comme d'habitude tandis que le système tournera en arrière-plan avant, ensuite, de comparer les résultats. D'autres villes, en revanche, suivront immédiatement les directives du PCA. Tous les résultats seront publics, assure Hitachi.

Si une telle initiative vous inquiète mais que vous vous rassurez en vous disant que cela se passe loin de nos frontières, détrompez-vous. Comme l'analysaient très justement Slate et Télérama au printemps dernier, la loi Renseignement (votée puis très largement validée par le Conseil constitutionnel fin juillet) intègre un dispositif qui ressemble dangereusement à la Division Précrime du roman de Philip K.Dick : une "boîte noire dans les équipements de réseau" pour "détecter automatiquement une succession suspecte de données de connexion". 

En langage humain, un algorithme de surveillance des flux de données privées, ou l'équivalent informatique d'une équipe cynophile. Sauf qu'au lieu de renifler l'odeur de la bombe artisanale comme son homologue canin, l'algorithme flaire lui l'odeur – beaucoup plus subtile – du terrorisme potentiel. Potentiel, pas avéré.

En France, depuis juillet, "prévention" et "répression" se rapprochent patiemment de la synonymie. Et apparaît le délit de "pré-terrorisme", fondé sur la seule présomption de culpabilité et pourtant suffisant pour être écroué. Nouvelle terminologie, nouveaux critères pénaux, nouvelle utilisation de la technologie : tiens, on ne serait pas déjà dans un bouquin de SF ?

Par Thibault Prévost, publié le 01/10/2015