Twitter fait polémique à cause de son algorithme photo raciste

Publié le par Lise Lanot,

© US Government ; © Pete Souza/The White House

Des internautes ont mené l'enquête : l'algorithme de Twitter semble privilégier les visages blancs aux noirs.

A voir aussi sur Konbini

Vous l’avez sans doute remarqué en faisant défiler votre fil Twitter : le réseau social est doté d’un algorithme qui recadre automatiquement les images de trop grande taille sur les visages. Ainsi, les aperçus présentent toujours la tête d’un·e des protagonistes photographié·e·s et pas un morceau du paysage ou de leurs vêtements.

Publicité

Ce week-end, des internautes ont cependant mené l’enquête : quel visage l’algorithme choisit-il lorsque lui sont proposés le visage d’une personne noire et le visage d’une personne blanche ? France Inter rapporte que l’idée de tester l’algorithme de Twitter est venue à un utilisateur, un certain Tony Arcieri, après avoir lu que, “sur l’application de vidéoconférence Zoom, une personne noire n’était pas prise en compte par la détection automatique des visages”.

Publicité

L’internaute a essayé cette “horrible expérience”, selon ses propres termes, en publiant deux longues images verticales. La première présente, en haut, un portrait du sénateur blanc américain Mitch McConnell et, en bas, un portrait de Barack Obama. La deuxième photo inverse les deux images. Dans les deux cas, l’algorithme a présenté en aperçu le visage du sénateur blanc.

Publicité

“J’essaie une horrible expérience… Qui l’algorithme Twitter choisira-t-il : Mitch McConnell ou Barack Obama ?”

Face aux commentaires arguant qu’il s’agissait sûrement d’une coïncidence ou que l’algorithme préférait tout simplement la teinte d’un des fonds ou la couleur d’une des deux cravates, les internautes ont multiplié les essais. Qu’importe que le 44e président des États-Unis et le sénateur portent la même couleur de cravate ou qu’il y ait davantage de photos de Barack Obama que de Mitch McConnell sur une image, le résultat est le même : c’est toujours le visage blanc qui est “choisi” par l’algorithme.

La seule fois où le visage d’Obama s’est retrouvé en aperçu, c’est lorsque Tony Arcieri a créé un négatif des couleurs des portraits et que le visage de l’ancien président est devenu plus clair que celui de McConnell. Les expérimentations (avec des personnages fictifs par exemple) ont continué de pulluler, avec un dénouement quasiment toujours identique.

Publicité

La seconde fois où le visage de Barack Obama s’est retrouvé en aperçu, c’est lorsqu’il arborait un grand sourire. Les retweets n’en finissant de pleuvoir, Twitter a réagi – concédant que ces choix informatiques étaient bien “biaisés”.

“Nous avions mené des tests sur notre modèle avant son lancement et n’avions pas constaté de biais raciaux ou liés au genre. Mais il est clair que nous devons poursuivre nos analyses. Nous continuerons de partager ce que nous apprenons, quelles actions nous prendrons et ouvrirons nos sources pour que d’autres puissent les passer en revue et les reproduire.”

Publicité

Une problématique récurrente

Plus les intelligences artificielles intègrent nos quotidiens, plus on leur découvre de prolongements racistes. L’année dernière, d’ailleurs, Kate Crawford (une chercheuse et professeure spécialisée dans l’intelligence artificielle) et Trevor Paglen (un artiste et chercheur) organisaient une exposition visant à souligner les problèmes systémiques entourant le futur de la technologie.

Le binôme souhaitait rappeler, via des exemples d’intelligences artificielles faisant preuve de racisme, à quel point toute réalité robotique existante n’est qu’un miroir de la façon dont vivent les humains, puisqu’elles sont créées par des humains.

Publicité

À l’unisson, de nombreuses d’entreprises affirment vouloir mettre fin à ces biais raciaux. France Inter rappelle que Facebook “avait annoncé avoir l’intention de revoir les règles de son algorithme pour éviter toute forme de discrimination” : Nous continuerons à travailler en étroite collaboration avec l’équipe Facebook Responsible AI pour nous assurer que nous examinions les potentiels préjugés raciaux sur nos plateformes respectives.”

De son côté, l’entreprise IBM avait carrément affirmé sa volonté de mettre fin aux “développement[s] de technologie de reconnaissance faciale basée sur l’intelligence artificielle”, expliquant que celle-ci ne peut pas être sciemment utilisée “pour la surveillance de masse, le contrôle au faciès, les violations des droits et des libertés humaines”.

Les progrès informatiques et robotiques peuvent bien être source d’émerveillement, mais ils peuvent également être porteurs d’inégalités et nécessiter une grande surveillance, autant concernant les libertés individuelles que l’égalité.

À lire également –> Quand une intelligence artificielle fait preuve de racisme