Des chercheurs de l'Université de Chicago ont développé Fawkes, un outil d'altération des images, destiné à faire dérailler la reconnaissance faciale. Problème : l'outil n'est pas encore abouti, et il faudrait généraliser son utilisation pour le rendre efficace.

Sommes-nous condamnés à être identifiés par les logiciels de reconnaissance faciale ? Une équipe de chercheurs de l’Université de Chicago pense que non. Pour s’opposer à l’émergence de cette technologie,  ils ont développé un outil nommé Fawkes.

Leur objectif : empoisonner la reconnaissance faciale en altérant les photos disponibles sur Internet. Aujourd’hui, toute entreprise ou tout individu peut aspirer des photos pour alimenter une base de données, et s’en servir pour entrainer des algorithmes. La pratique navigue en zone grise, voire en zone interdite, mais est généralisée.

En février 2020, le New York Times a braqué ses projecteurs sur un exemple caricatural de ces dérives : Clearview AI. Cette start up américaine se targuait d’aspirer plus de trois milliards d’images publiques sur le web afin d’entrainer ses algorithmes, puis de vendre sa technologie à des forces de l’ordre (et à d’autres…).  Choqués par cette pratique, des citoyens ont ouvert une procédure en justice contre l’entreprise, qui évite depuis les situations épineuses. Malgré tous ces déboires, elle est toujours debout.

Avec Fawkes, l’université de Chicago a les mêmes références que les Anonymous. // Source : Needpix

Puisque la loi ne suit pas, les chercheurs de l’Université de Chicago veulent écraser techniquement le modèle de Clearview et d’autres entreprises comme PimEyes. Ils veulent paralyser l’entrainement des algorithmes grâce à l’altération des photos. Mais si l’outil est relativement performant, il se confronte aux multiples coups d’avance dont disposent les entreprises de reconnaissance faciale.

Fawkes est disponible gratuitement, et peut être testé par toute personne avec certaines compétences en développement informatique. Les chercheurs ont précisé qu’ils travailleraient prochainement sur une version accessible au grand public..

Modifier l’invisible à l’œil nu pour embrouiller les algorithmes

Pour construire un logiciel de reconnaissance faciale comme Clearview, il faut entrainer un algorithme à partir de photos. Plus les images seront nombreuses, variées, et précises, plus le résultat sera efficace. Il existe différentes méthodes d’entrainement de l’algorithme, mais le plus souvent, il va définir lui-même les critères qui lui serviront à analyser un visage. En conséquence, ses développeurs ne sauront pas exactement quelles caractéristiques l’algorithme utilise pour reconnaître un visage. C’est le phénomène de la boîte noire : on connaît les données d’entrées, celles de sorties, mais pas ce qu’il se passe au milieu.

La machine verra les changements, pas l’humain

Certains critères choisis par l’algorithme peuvent être appréhendés par un humain, comme la forme du visage ou la longueur des cils. D’autres sont invisibles aux yeux d’une personne lambda, et ne sont « visibles » que dans les formules mathématiques derrière les pixels et leur répartition.

Ce sont ces critères invisibles que Fawkes veut corrompre. L’outil les identifie puis les modifie, afin de réduire drastiquement les points communs entre les photos d’une même personne. Fawkes va, en théorie, transformer l’empreinte en pixels de l’image sans bouleverser son apparence visible. Résultat : un humain ne verrait pas ces changements infimes, alors qu’ils seraient évidents pour la machine.

Pour modifier les empreintes des visages, Fawkes va puiser dans sa propre base de données, constituée de photos de célébrités. Il superposera votre empreinte avec une empreinte la plus éloignée possible. Certaines caractéristiques de cette célébrité, souvent du genre opposé, seront appliquées à votre visage.

La course à la reconnaissance faciale est trop déséquilibrée

Pour tester l’efficacité de Fawkes, les ingénieurs de l’université de Chicago ont entrainé différents algorithmes du marché à partir de photos modifiées par leurs soins. Ils affirment au site OneZero qu’ils ont obtenu des algorithmes inefficaces en utilisant les logiciels de Microsoft, de Amazon ou encore de Google avec leur base de données modifiée.

La journaliste du New York Times Kashmir Hill a quant à elle testé des photos modifiées d’elle et de sa famille sur Facebook. Bingo ! Le réseau social ne les reconnaît pas. Problème : la modification des caractéristiques « invisibles »… se voit à l’œil nu. Par exemple, la journaliste distingue l’ombre d’une moustache sur sa photo modifiée, et des ombres étranges autour des yeux de son compagnon. Preuve que la technologie n’est pas encore aboutie, les développeurs lui expliquent qu’ils ont accentué les modifications pour assurer la réussite de l’expérience.

Ce n’est pas tout : si Fawkes démontre son efficacité sur les logiciels généralistes, il pourrait avoir plus de difficultés à entraver l’efficacité des programmes spécialisés. Le fondateur de Clearview, Hoan Ton-That, explique au NYT que ces modifications ne perturbent pas le fonctionnement de son app. « En pratique, c’est sûrement trop tard pour perfectionner une technologie comme Fawkes et la déployer à l’échelle », assène-t-il. Pire, il ajoute qu’il pourrait s’en servir pour affiner l’efficacité de son logiciel controversé. Il a ainsi plusieurs coups d’avance sur les chercheurs, et peut déjà envisager des parades aux projets de recherche.

Pas de limitation technique sans loi pour l’accompagner

Dernière limite, peut-être la plus insurmontable : le travail de sape de Fawkes ne prouve son efficacité que si la très grande majorité des photos a subi son traitement. Mais pour bon nombre d’internautes, c’est déjà trop tard : des dizaines, voire des centaines, de nos photos circulent déjà sur Internet. Comment s’en sortir alors ? Faut-il espérer que des plateformes comme Facebook traitent leurs données avec un outil similaire à Fawkes ? Faut-il ne garder espoir que pour la génération qui n’est pas encore arrivée en ligne ?

Dans tous les cas, les chercheurs insistent ; leur solution technique ne suffira pas à elle seule. Contrôler les débordements de la reconnaissance faciale passera également par l’évolution de la loi. En France, la Cnil — l’autorité des données — exige un droit de regard sur les dispositifs qui utilisent cette technologie, mais la loi ne l’encadre pas encore. Au jeu du chat et de la souris, les logiciels de reconnaissance faciale caracolent pour l’instant en tête.

Partager sur les réseaux sociaux