AccueilÉDITO

Champions League 2017 : à Cardiff, l’échec retentissant de la reconnaissance faciale

Publié le

par Thibault Prévost

Le stade de Cardiff lors de Real-Juve, le 3 juin 2017. Crédit: WikipediaCC

Le logiciel de reconnaissance faciale expérimental des forces de l’ordre, utilisé aux abords du stade de Cardiff, a affiché un taux de 92 % d’erreur.

Avis à ceux qui trouvent que l’automatisation de la détection des hooligans et autres "IDS" ("interdits de stade") par des algorithmes de reconnaissance faciale couplés à des réseaux de caméras de surveillance est un concept digne de la pire des dystopies : pour le moment, l’actualité vous donne raison. Le 5 mai, les services de police de la région galloise des South Wales ont publié le rapport d’activité de neuf mois d’utilisation expérimentale du système AFR ("automated facial recognition") Locate, capable d’identifier en temps réel des personnes fichées ou recherchées grâce au flux vidéo des caméras de surveillance CCTV.

Si le rapport vante, en titre, 2 000 correspondances réussies et 450 arrestations en 9 mois, la première phrase du document a de quoi inquiéter : "bien sûr, aucun système de reconnaissance faciale n’est précis à 100 %." Et pour cause : déployé le 3 juin 2017 lors de la finale de la Champion’s League entre le Real et la Juve, qui a vu près de 170 000 personnes affluer autour du stade de Cardiff, le système a identifié 2 470 suspects potentiels… dont 2 297 faux positifs, soit un taux d’échec de 92 %. Effectivement, on est à des années-lumière de la perfection.

Aucun innocent emprisonné

"Tous les systèmes de reconnaissance faciale connaissent des problèmes techniques, ce qui signifie que les faux positifs seront toujours un problème dans le développement de la technologie", s’est défendu un porte-parole des forces de l’ordre cité par le Guardian, avant de préciser que "depuis son déploiement initial lors de la finale de juin 2017, la précision du système utilisé par la police de South Wales a continué à augmenter."

Pour les autorités, l’échec à peu près total de cette opération de scan humain géant s’explique par "la mauvaise qualité des images" des suspects fournies par les agences, notamment l’UEFA et Interpol, qui aurait obligé le système à ratisser trop large à partir de quelques caractéristiques faciales. À la décharge des autorités, aucun suspect faussement identifié par l’algorithme n’a terminé en cellule, ce qui prouve que les garde-fous mis en place par les services fonctionnent au moins à peu près.

L’AFR, une longue histoire d’échecs

Ce qui fonctionne un peu moins, en revanche, c’est la politique de déploiement de ce type de systèmes à l’occasion de manifestations sportives et culturelles. En 2016, déjà, les supporters du foot écossais, regroupés sous la bannière de la Scottish Football Supporters Association (SFSA), avaient même décrété l’union sacrée et vu des ultras du Celtic et des Rangers main dans la main pour dénoncer le déploiement par la ligue de systèmes de reconnaissance faciale à l’intérieur et aux abords des stades, qu’ils considéraient comme une mesure criminalisante et surtout pas suffisamment au point pour être généralisée. Sur ce point technique, les exemples actuels leur donnent plutôt raison.

Outre la finale de la Champion’s League, la reconnaissance faciale de masse n’en est pas à son premier fiasco : au carnaval de Notting Hill de 2016, le système AFR n’avait pas identifié un seul suspect… alors que 454 personnes avaient été arrêtées, selon un rapport de la Metropolitan Police de Londres. L’année précédente, les autorités du Leicestershire s’étaient déjà permises de scanner les visages des 90 000 visiteurs du Download Festival sans prévenir personne, et sans aucun résultat concret. Enfin, selon des données obtenues par Wired, le système utilisé par les autorités galloises s’est planté plusieurs fois au cours de l’année passée, affichant 90 % d’échec lors d’un match de boxe d’Anthony Joshua en octobre et 42 négatifs pour 6 positifs lors du match de rugby Pays de Galles/Australie.

Un processus jugé "effrayant"

Des résultats embarrassants pour le Royaume-Uni alors que TruePublica révélait en décembre les grandes lignes d’une politique de généralisation des outils de reconnaissance faciale sur tout le territoire, provoquant l’inquiétude de plusieurs groupes de défense des libertés individuelles et de la protection des données personnelles comme BigBrotherWatch. Sur Twitter, l’ONG a réagi à l’annonce de ces résultats en expliquant que "la reconnaissance faciale en temps réel n’est pas uniquement une menace pour les libertés civiles, c’est également un outil dangereusement imprécis." Une position soutenue par l’association de supporters britannique FSF et l’association Liberty, qui ont fustigé le manque de transparence d’un processus jugé "effrayant".

Pas suffisant pour empêcher le Royaume-Uni de poursuivre ses expérimentations : si les algorithmes britanniques sont encore à la traîne par rapport aux systèmes chinois, embarqués dans les lunettes des agents de police et désormais capables d’identifier un suspect seul dans une foule de 60 000 personnes, Albion compte bien s’appuyer sur son réseau tentaculaire de caméras de surveillance (en 2014, on comptait 91 caméras pour 1 000 citoyens britanniques) pour faire progresser ses systèmes d’identification. Sans aucune garantie de protection des données biométriques récoltées, de stockage… ou d’effacement des images.

À voir aussi sur konbini :