AccueilArchive

TG : Alexa t’écoute bien plus souvent que tu ne le penses

TG : Alexa t’écoute bien plus souvent que tu ne le penses

avatar

Par Thibault Prévost

Publié le

Un journaliste du Washington Post a écouté quatre ans de conversations enregistrées inopinément par son assistant vocal Alexa.

(© Amazon)

À voir aussi sur Konbini

Alexa vous écoute. Si, si, vraiment. Et pas seulement quand vous lui demandez – après tout, c’est le principe d’un assistant vocal –, mais bien plus souvent que vous ne l’imaginez. Bien plus souvent, en tout cas, que Geoffrey Fowler ne l’imaginait. Dans une enquête publiée le 6 mai, le journaliste tech du Washington Post s’est intéressé à une option que peu de propriétaires d’Amazon Echo (l’enceinte connectée d’Amazon, équipée de l’assistant vocal Alexa) connaissent et qui permet, en quelques sous-menus, d’accéder à l’archive sonore conservée par votre appareil.

Car oui, Alexa garde une copie de tout ce qu’il enregistre après avoir entendu son nom. Soit, dans le cas du journaliste, quatre ans de conversations résumés en milliers de fragments vocaux. Et parmi une immense majorité de requêtes légitimes (“Alexa, donne-moi la météo du jour”, etc.), le journaliste liste “des dizaines de fois” où l’appareil semble s’être déclenché sans avoir été au préalable activé. Résultat : des conversations, parfois sensibles, se trouvent désormais sur les serveurs d’Amazon, sans consentement explicite de l’utilisateur.

L’information n’est qu’une demi-surprise pour quiconque s’intéresse un peu au monde de la technologie. Amazon n’en est pas à sa première gaffe, Alexa ayant déjà envoyé par erreur 1 700 fichiers audio d’un utilisateur… à un autre. Et au fond, Alexa et les autres assistants vocaux vous écoutent bel et bien en permanence, sans quoi ils ne pourraient pas réagir au quart de tour quand vous les invoquez. Les vrais problèmes surgissent une fois que l’appareil est allumé : pourquoi Alexa est-il “trop attentif” ? Quid du stockage des conversations ? Quid, enfin, de leur exploitation ?

Riez, vous êtes écoutés

Soyons parfaitement honnêtes et distribuons quelques bons points concernant l’enregistrement et le stockage. Amazon (comme Apple, comme Google), probablement inspiré par le RGPD, vous permet d’accéder à votre archive et de supprimer à votre guise ce que vous ne voulez pas voir conservé. C’est… un début, au moins. Vous avez (encore un peu) le choix. Même si, comme le rappelle le journaliste du Washington Post, vous avez intérêt à savoir exactement où chercher, et vous ne pouvez pas empêcher l’appareil de vous écouter (sauf si vous installez des modules spéciaux, comme Projet Alias, qui bloquent les micros d’Alexa et chiffrent les communications entre l’assistant et vous). Étonnamment, relève le journaliste, le seul appareil qui propose cette option est celui de… Google.

Ensuite, pour ce qui est de la sensibilité de la bête, Amazon plaide le problème technique. L’entreprise indique au Washington Post avoir amélioré la précision de la reconnaissance vocale de près de 50 % : le 29 mars, les chercheurs derrière Alexa révélaient une nouvelle méthode d’identification audio. Une explication recevable, mais étonnamment facile et désespérément prévisible. Il semble qu’en termes de technologie, le consommateur soit bien plus indulgent que dans d’autres domaines. Autrement, jamais les marques ne pourraient se permettre d’affirmer que le produit vendu n’est pas tout à fait au point – car au fond, si cette explication est sincère, c’est bien de ça qu’il s’agit.

Reste maintenant la question de l’exploitation des données enregistrées. Une fois collectée par l’appareil, votre voix est utilisée par Amazon pour améliorer Alexa (notamment dans sa compréhension des accents), voire même sa technologie de reconnaissance vocale automatique (ASR), baptisée Transcribe. Le 10 avril dernier, une enquête de Bloomberg révélait que des milliers d’employés d’Amazon à travers le monde étaient chargés d’écouter l’audio collecté par les appareils Echo, afin de les transcrire et de les annoter, avant de les renvoyer au logiciel. Des journées de neuf heures, pendant lesquelles chaque employé écoute près de 1 000 enregistrements. Comme souvent, l’IA qui s’améliore toute seule depuis le pays magique du cloud est en fait constamment alimentée par des humains qui font le sale boulot d’annotation, du Costa Rica à la Roumanie. Et c’est aussi vrai chez Google et Apple, assure Bloomberg.

Ne pas “facebookiser” notre intimité

Depuis deux ans, donc, la grande mode des familles occidentales modernes est de s’offrir mutuellement, à Noël, de puissants appareils d’écoute vendus par des conglomérats américains de la technologie. Des appareils capables non seulement de reconnaître votre langue mais de la contextualiser, de vous répondre en conséquence et de contrôler pour vous les autres machines connectées de votre maison. Tout ce qu’ils demandent en échange, c’est votre voix. Une donnée biométrique, unique, extrêmement sensible – et suffisante pour vous identifier dans une base de données ou permettre à quelqu’un d’usurper votre identité. Oh, et vous ne savez jamais trop quand les micros seront allumés, au passage.

Alors quoi ? Après tout, rétorquerons les plus technophiles, les gens font le choix d’acheter ces appareils et de sacrifier leur vie privée sur l’autel de la domotique. C’est vrai, mais le réalisent-ils seulement ? Pour Geoffrey Fowler, il y a urgence à ne pas reproduire avec notre espace intime les mêmes erreurs qu’avec Facebook : se laisser éblouir par les possibilités, laisser s’installer la dépendance, puis réaliser avec horreur qu’au fond, lâcher des tonnes de données privées en échange de la possibilité de partager gratuitement des photos de soi avec ses potes n’était pas un si bon deal que ça.

À terme, les assistants vocaux ont le potentiel pour modifier en profondeur notre interaction avec la technologie de tous les jours. Sous leur forme actuelle, cependant, pas sûr qu’échanger son intimité biométrique contre le pouvoir de discuter avec son frigo soit très malin. Cette fois-ci, vaccinés par les nombreux précédents des dernières années, soyons un peu plus réactifs. Un peu plus précautionneux. Un peu plus critiques. Questionnons le fonctionnement de la magie algorithmique, et exigeons de savoir.

Déjà, des solutions alternatives émergent, comme les assistants Snips ou Mycroft, qui ne jurent que par l’open source et le privacy by design. Déjà, la cybersécurité s’attelle à la protection des données utilisateur contre de futurs piratages d’assistants vocaux. Déjà, des régulateurs, en Californie ou en Illinois, préparent des textes “anti-écoute” qui obligeraient les constructeurs à demander le consentement de l’utilisateur pour stocker ses enregistrements sur leurs serveurs. En Europe, le RGPD constitue notre plus solide garde-fou contre l’appétit du capitalisme de surveillance. En France, la Cnil, via son Laboratoire d’innovation numérique, reste vigilante. Alors Alexa, arrête de m’espionner, tu veux ?