Des chercheurs de l’Université de Chicago ont développé un prototype de bracelet capable de parasiter les micros. Leur objectif : s’assurer de la confidentialité des conversations les plus privées, dans un monde où les appareils connectés sont autant d’oreilles tendues.

L’appareil sort tout droit d’un scénario dystopique de rébellion contre la technologie. Criblé de 24 haut-parleurs, l’imposant bracelet diffuse des ultrasons dans toutes les directions. Son rôle : neutraliser les appareils connectés dotés de microphones en brouillant les enregistrements.

Les chercheurs de l’université de Chicago derrière ce projet ont publié une vidéo de démonstration le 14 février 2020, que le New York Times a repéré.

Le fonctionnement du bracelet est extrêmement simple. Lorsque l’utilisatrice dans la vidéo veut s’assurer qu’elle n’est pas enregistrée, elle active l’appareil en appuyant sur l’unique bouton. Il commence à diffuser des ultrasons (entre 24 et 26 kHz) dans l’ensemble de la pièce, de sorte que sur l’enregistrement de l’enceinte connectée, un bruit blanc couvre entièrement la discussion.

Encore au stade de prototype, le bracelet — surnommé « bracelet du silence » — fera l’objet de recherches plus poussées et d’un article de recherche. D’après le Times, les créateurs affirment qu’ils pourraient le produire en masse pour seulement 20 dollars, et que plusieurs investisseurs sont intéressés pour le commercialiser.

Image d'erreur

Avec les 24 haut-parleurs et le mouvement des mains de l’utilisateur, les créateurs pensent que les ultrasons se diffusent dans l’ensemble de la pièce, sans angle mort. // Source : HCI lab UChicago

Se protéger de la défaillance de « Dis, Siri » et « OK Google »

Les micros des appareils connectés sont constamment allumés, mais ils ne peuvent comprendre que les mots déclencheurs. Vous les connaissez : « OK Google », « Dis Siri », ou « Alexa ». Le petit modèle d’intelligence artificielle, faible en consommation, est entraîné à repérer uniquement l’expression désignée par son constructeur. S’il l’entend, il va déclencher un second modèle, plus complexe, qui sera capable de comprendre des milliers de mots et expressions.

Problème : les modèles derrière ces mots déclencheurs ne fonctionnent pas parfaitement. L’enregistrement se déclenche donc parfois sans que vous prononciez « Dis Siri » ou « Ok Google ». En plus, il n’est pas possible de savoir pourquoi : la façon dont l’appareil reconnaît la sonorité « Dis Siri » n’est pas semblable à la nôtre.  Les activations par erreur ne sont pas forcément déclenchées par des homophones, et sont donc imprévisibles.

Les appareils connectés ne vous enregistrent pas en permanence, mais parfois, ils vous enregistrent alors qu’ils ne le devraient pas. Deux chercheurs de la Northeastern University ont fait écouter la télévision à des enceintes connectées pendant 120 heures. Ils ont trouvé que les machines s’activaient des douzaines de fois et commençaient à enregistrer, à cause de phrases similaires à leur mot déclencheur.

Toujours plus de micros

Enceintes, smartphones, ordinateurs, robots-cuiseurs… : le nombre d’appareils connectés dotés de micros ne cesse de grandir. L’introduction de la commande vocale est censée faciliter l’usage de la technologie, sauf qu’elle accroit aussi le risque d’espionnage.

L’an dernier, l’ensemble des constructeurs d’assistants connectés  — Apple (Siri), Amazon (Alexa) et Google (Google Assistant) — ont concédé qu’ils embauchaient des personnes pour écouter certains enregistrements d’utilisateurs de quelques secondes, sans leur accord. Les géants de la tech ont alors évoqué comme alibi la nécessité de ce travail d’écoute pour améliorer leurs modèles de reconnaissance du langage. La pratique a été, depuis, soit stoppée soit encadrée par une demande de consentement.

Chaque nouveau micro représente un nouveau risque de piratage

Pour les utilisateurs, le message devrait être clair : lorsque l’assistant connecté est actif, les propos sont enregistrés, et potentiellement écoutés. Ils pourraient alors éviter de lui donner des informations importantes. Mais puisque les utilisateurs ne peuvent savoir exactement ce qui déclenche l’enregistrement, mes constructeurs échouent à respecter cette promesse.

Dans le pire des cas, certaines attaques complexes permettent d’activer les micros à distance, sans que le propriétaire de l’appareil en ait conscience. Des exemples de hack de babyphone ont récemment rappelé cet enjeu de cybersécurité.

Est-ce à l’utilisateur de réguler les écoutes ?

Ce bracelet n’est pas le premier appareil inventé pour bloquer l’oreille des assistants connectés, mais il a l’avantage sur d’autres d’être portable. Et pour la plupart, les solutions existantes neutralisent un seul appareil connecté à la fois. En revanche, si les ultrasons qu’utilise le bracelet sont imperceptibles pour la majorité des humains, les plus jeunes et certains animaux comme les chiens pourraient l’entendre. Son usage pourrait rapidement devenir désagréable pour une partie de la population.

Ben Zhao, un des créateurs de l’appareil, se montre très pessimiste sur la situation. Il faut dire que malgré certaines lois, l’usage des données par les géants de la tech mène régulièrement à des abus. « Dans l’Internet des objets, la bataille est perdue (…). Dans le futur nous aurons ces appareils tout autour de nous, et nous devrons présumer qu’elles seront peut-être hackées. Votre cercle de confiance devrait être bien plus petit, et parfois même réduit à votre corps. »


Abonnez-vous à Numerama sur Google News pour ne manquer aucune info !