Dîtes "cheese" et montrez vos belles dents bien blanches : vous êtes filmé.e!
À la Gare de Südkreuz, à Berlin, les usagers se retrouvent dans un scénario orwellien, dans le quel le gouvernement teste un nouveau système de surveillance via reconnaissance faciale. C'est le dernier exemple en date de son utilisation en Europe, et cette technologie est déjà très répandue dans le monde entier.
Mais, malgré son usage généralisé, la technologie de reconnaissance faciale est pratiquée dans un flou juridique très inquiétant. Tandis que les contestations judiciaires de ce type de surveillance émergent progressivement, les tribunaux se placent de plus en plus du côté des droits des citoyen.nes, et limitent l'utilisation de ces tactiques de surveillance qui enfreignent le respect de la vie privée.
La dernière décision judiciaire de ce type en date remonte au mois dernier, lorsque la Cour européenne des droits de l'Homme a estimé dans son verdict que le système de surveillance de masse du Royaume-Uni portait atteinte aux droits fondamentaux.
Rien de nouveau
La surveillance par reconnaissance faciale utilise des caméras pour capturer les visages des passant.es dans les lieux publics, puis sélectionne ces images et les compare avec des images issues des données des bases de données de la police (comme les photos signalétiques, par exemple). Ensuite, toutes les nouvelles images sont ajoutées à la base de données, que la photo de la personne ait correspondu à une image existante ou non.
En réalité, la reconnaissance faciale remonte aux années 1960. L'un des premiers systèmes, développé par Bell Labs aux USA, se basait sur des traits tels que la longueur du nez ou des oreilles et constituait des modèles. Le premier système avait été lancé en 1973, mais ce dernier n'était que très peu fiable : tout ce que la personne avait à faire pour y échapper était de porter des lunettes et le taux de reconnaissance chutait de 75% à moins de 3%.
Les systèmes les plus récents sont bien plus fiables, mais leur mode de fonctionnement reste quant à lui peu clair, puisque les gouvernements comme les entreprises développent de leur côté leurs propres systèmes. Même avec un taux d'efficacité supérieur à 97%, que Facebook affirme avoir mis au point, cela se traduit quand même par un nombre très élevé de "faux positifs" (erreurs) tous les jours (des milliers) si le système est utilisé pour surveiller des espaces publics.
Et n'oublions pas un point essentiel : quand une image correspond à une photo issue des bases de données de la police, les fonctionnaires de police doivent consacrer du temps et des ressources pour effectuer un suivi et vérifier s'il ne s'agit pas d'un faux positif (alter spoil : il y a de grandes chances pour que ce soit le cas). La police l'a bien cherché, mais restons sur nos gardes : chaque minute que la police consacre à détecter les faux positifs réduit intrinsèquement la sécurité de chacun.e d'entre nous.
Les systèmes actuels sont-ils efficaces ?
L'utilisation de la surveillance par reconnaissance faciale devient monnaie courante en Europe. Elle a été utilisée lors de la finale de Ligue des Champions de football de 2017 aux Pays de Galle, et le système avait produit 2297 faux positifs : en d'autres termes, le système estimait (à tort) reconnaître 3000 personnes suspectées de terrorisme. Il ne s'agissait que de supporters de foot, complètement ivres. Terrifiants, certes, mais pas des terroristes.
Au Royaume-Uni, la police de la Galles du Sud a utilisé la technologie de reconnaissance faciale entre mai 2017 et mars 2018. Résultats? Le système a identifié 2685 personnes suspectées de terrorisme, pour un total de 2451 faux-positifs. Un taux d'échec épatant.
Mais retournons à Berlin, où le système a été activement employé cette année. Au cours d'un test isolé du système de surveillance à la Gare de Südkreuz, 300 volontaires ont soumis des photos comme s'ils représentaient des personnes "recherchées", et ont accepté de traverser la gare en portant avec un transpondeur. Le système n'a pas su identifié plusieurs participant.es, et a produit un taux de faux positifs de 0,3%. Ça paraît faible? Ça ne l'est pas.
A Kerstin Demuth, une porte-parole de l'ONG de protection des données Digitalcourage, a déclaré à DW : "je pense personnellement qu'il s'agit d'un résultat catastrophique". Et elle a raison : imaginez une énorme plateforme de correspondance (dans le métro ou un aéroport) traversée par 100000 personnes par jour. Ce 0,3% se traduit en 300 faux positifs produits chaque jour.
Et nous ne sommes pas au bout de nos peines : dans la mesure où cette technologie est utilisée en complément des pratiques actuelles de la police, dont le profilage ethnique ou contrôle au faciès, il est particulièrement troublant de constater que la technologie de reconnaissance faciale obtient des résultats encore plus mauvais sur des personnes à la couleur de peau plus foncée. Mais, en dépit ce manque cruel d'efficacité, la reconnaissance faciale est déployée par les forces de l'ordre dans le monde entier : nous seront tou.t.es dans des bases de données, ce n'est qu'un question de temps. En 2016, une étude de la Georgetown Law School aux États-Unis a conclu que la moitié des Américain.es adultes se trouve déjà dans les bases de données de reconnaissance faciale.
Pourquoi c'est important pour tout le monde
Pourquoi devrions-nous nous préoccuper? Le respect de la vie privée est un droit fondamental que chacun.e de nous possède, et personne n'a à le sacrifié ou le bafouer sans notre consentement et sans motif valable. Mais la reconnaissance faciale roule comme un train sans fin sur notre vie privée et sans que nous en soyons informé. Et il y a de fortes chances pour que tout cela se fasse illégalement.
La sécurité est importante : c'est l'une des raisons pour lesquelles nous avons décidé de vivre en communautés. Mais la surveillance généralisée, en l'absence de tous soupçons, n'améliore en rien notre sécurité. En réalité, elle la dégrade. Tous ces faux positifs pompent des ressources et du temps aux forces de l'ordre et forces de sécurité, tout ça pour identifier des supporters du Réal Madrid saouls dans les rues de Cardiff. Tout cela, alors qu'il existe de meilleures alternatives à la surveillance de masse.
Si vous vous opposez à l'utilisation non contrôlée de ce mode de surveillance de masse, vous êtes loin d'être seul.e! Des manifestations dénonçant cette surveillance se sont déjà tenues dans de nombreuses villes européennes. 30000 personnes ont récemment manifesté contre cette technologie dans les rues de Munich. Parce que les gens tiennent à leur vie privée et surtout quand elle se voit menacée par un système aussi peu fiable. Big Brother ne frappe pas à notre porte : il est déjà chez nous, bien à son aise.
Pour rejoindre les autres personnes qui se battent contre la surveillance de masse et l'érosion de notre vie privée, partagez notre vidéo et demandez à vos ami.es et proches de faire de même.