Faire d’Internet un monde meilleur

Le vrai visage de la reconnaissance faciale

, par La Quadrature du Net , LABONDE Mathieu

La Quadrature du Net milite contre la reconnaissance faciale, d’accord : mais pourquoi ? Dès qu’on aborde le sujet en public, on voit se dessiner deux attitudes a. D’un côté, le solide bon sens qui ne voit pas pourquoi on se priverait de la possibilité d’identifier efficacement les criminels dans une foule, et pour qui tous les moyens sont bons, puisque la fin est juste. De l’autre côté, la peur réflexe devant cette technique de surveillance, exploitée au cinéma comme outil emblématique d’un pouvoir policier totalitaire. C’est en se faufilant entre ces deux pôles, fantasme contre fantasme, qu’on peut essayer de comprendre les enjeux de la reconnaissance faciale, et la nécessité de son interdiction.

Reconnaissance facile

Un terroriste est en fuite dans les rues d’une grande ville : il suffit d’analyser en direct les images des caméras de surveillance de la ville pour le situer en quelques minutes. Un enfant s’est perdu ? Vite, les caméras de tous les lieux publics sont interrogées, et l’enfant est retrouvé en moins d’une demi-heure.

On le voit, les personnes chargées de vendre des systèmes de reconnaissance faciale ne manquent pas d’imagination pour convaincre le grand public de l’efficacité de leurs produits. Le contexte sécuritaire, accentué par les attaques terroristes de 2015, entretenu par le personnel politique et amplifié par les médias de masse, leur ouvre un boulevard idéologique et des lignes de crédit généreuses.

Autant dire qu’en matière de fantasme, les partisans de la reconnaissance faciale généralisée ne sont pas en reste. Le seul fait que la surveillance permanente des rues et des espaces publics soit considérée comme une solution miracle à l’insécurité dans la société devrait suffire à disqualifier l’outil : il est incapable de répondre aux objectifs qu’on veut lui donner.

Comment ça marche ?

Il existe plusieurs types de reconnaissance faciale. Leur point commun, c’est un logiciel capable de repérer dans une image (photo ou vidéo) des structures de visage et de les comparer point à point avec d’autres images. Il faut ensuite distinguer deux formes de « reconnaissance ».

Si on compare les images avec d’autres images de la même source – les différents angles de vue dans une galerie commerciale, par exemple – alors on veut « identifier » quelqu’un : c’est-à-dire isoler une personne (« identique » à elle-même !) parmi d’autres et la suivre ainsi dans ses déplacements, soit parce qu’on estime qu’elle a un comportement suspect, soit pour renseigner la galerie commerciale sur le parcours de ses clients. Quand on reconnaît les visages dans une foule pour les comparer à un jeu de visages de personnes recherchées, il s’agit aussi de les « identifier ».

En revanche, on parle d’« authentification » quand on compare le visage d’une personne à un visage de référence. L’authentification est couramment utilisée comme système de déverrouillage : le visage saisi par la caméra doit correspondre à l’image enregistrée dans un badge (c’est le cas du système prévu pour les lycées de la région Sud) ou dans une base de donnés de personnes autorisées (par exemple à l’entrée d’une entreprise). C’est un procédé testé aussi pour le retrait d’argent à un distributeur, en renfort du PIN. C’est le seul exemple où la reconnaissance faciale vise toujours à protéger la confidentialité des données et l’intimité de la personne : quand on choisit de déverrouiller son téléphone avec la reconnaissance faciale, c’est parce qu’on espère que personne d’autre ne pourra le faire.

L’identification est utilisée par la police pour reconnaître des personnes recherchées. On peut en voir un exemple concret sur le site d’Interpol. Des exemples comme celui-ci alimentent le fantasme qui sous-tend la reconnaissance faciale : si on peut scanner tous les passants et identifier ceux qui sont suspects, alors la criminalité reculera et la sécurité augmentera.

Méconnaissance faciale

Mais le moindre défaut de la reconnaissance faciale, c’est qu’elle ne marche pas très bien. On le sait parce que de nombreuses expériences sont conduites dans le monde, et que les résultats publiés sont assez étonnants, en comparaison des espoirs démesurés que suscite la technique. La société SenseTime, en Chine, se vante par exemple de pouvoir identifier un individu qui commet une « incivilité » dans la rue, et d’afficher son visage sur des écrans géants pour le soumettre au mépris public. Mais à l’inverse, une expérience menée aux États-Unis s’est conclue sur le constat que la reconnaissance faciale sur des automobilistes ne fonctionne pas encore.

Ce document de la police britannique fuité par Big Brother Watch recense, pour chaque expérience de reconnaissance faciale (Event), le nombre d’identifications réussies (True-positives), le nombre de faux positifs (False-positives), et le nombre d’interpellations injustifiées (Incorrect police stops).

Nos collèges anglais de Big Brother Watch, au Royaume-Uni, qui militent notamment contre l’utilisation de la reconnaissance faciale, ont publié des chiffres à propos des expériences menées par la police britannique. Ils montrent que le taux de reconnaissance est très bas, et que les « faux positifs », c’est-à-dire les identifications erronées, sont nombreuses. Certaines ont même entraîné des interventions infondées de la police.

La sécurité des forts

L’échec des identifications n’est pas imputable seulement à un défaut de la technique : le germe de l’échec est dans les hommes qui programment la reconnaissance faciale. Le logiciel qui analyse les visages et les compare à d’autres visages est dans la plupart des cas conçu par des hommes blancs. Surprise : la reconnaissance faciale des femmes racisées atteint un taux d’échec et de faux positifs supérieur à la moyenne.

Que ses concepteurs le veuillent ou non, ce qu’on appelle « les biais de l’algorithme », ses effets indésirables, sont en réalité les biais cognitifs de ceux qui le conçoivent : le racisme et le sexisme de l’algorithme dérivent du racisme et du sexisme institués par la société, et consciemment ou inconsciemment reproduits par les développeurs des logiciels. Cet article donne plusieurs exemples des effets de ce biais. Dans le cadre d’un usage policier de la reconnaissance faciale, les personnes les plus faibles socialement seront aussi plus souvent victimes d’erreurs policières que les autres.

Société de contrôle

Les philosophes Michel Foucault et Gilles Deleuze ont défini de façon très précise plusieurs types de coercitions exercées par les sociétés sur leurs membres : ils distinguent en particulier la « société disciplinaire » (telles que la société en trois ordres d’Ancien Régime, ou la caserne-hôpital-usine-prison du XIXe siècle) de la « société de contrôle » qui est la nôtre aujourd’hui.

Dans une « société du contrôle », les mécanismes de coercition ne sont pas mis en œuvre par des autorités constituées qui les appliquent au corps social par contact local (autorité familiale, pression hiérarchique dans l’usine, surveillant de prison, etc.), mais sont incorporées par chacun, qui se surveille lui-même et se soumet à la surveillance opérée par d’autres points distants du corps social, grâce à une circulation rapide et fluide de l’information d’un bord à l’autre de la société. Wikipédia donne un bon aperçu du concept, dont on trouvera ici une lecture plus approfondie.

Qui peut souhaiter d’être soumis à un contrôle dont les critères lui échappent ? C’est pourtant ce que nous acceptons, en laissant s’installer partout la vidéosurveillance et la reconnaissance faciale. Plus légère en apparence que la surveillance exercée par un gardien, la surveillance de la société de contrôle est en revanche permanente, en tout lieu, et en tout temps.

La ville de Nice, dirigée par par Christian Estrosi (LR), a fait scandale au printemps 2019 en organisant une expérience lors du carnaval de la ville. Sur la base du volontariat, certaines personnes préalablement identifiées devaient être reconnues dans la foule. La ville de Nice envisage aujourd’hui d’aller plus loin, en authentifiant les passagers du tramway dont le comportement serait « suspect ». Mais qu’est-ce qui définit un comportement suspect ? Avoir un type maghrébin et un sweat à capuche entre sûrement dans les critères . Quoi d’autre ? Une expression faciale fermée, une nervosité visible ? Quelles émotions sont-elles considérées comme étant un danger pour la société ? Où peut-on consulter la liste ? On voit bien la part fantasmatique et arbitraire qui fonde tout projet d’anticiper la criminalité.

Sous prétexte que « prévenir vaut mieux que guérir », on organise en réalité, dans des usages quotidiens bien réels aujourd’hui, une inversion générale de la charge de la preuve. En temps normal, la police judiciaire doit rassembler par l’enquête des preuves à charge pour inculper quelqu’un. C’est à l’accusation de faire la preuve de la culpabilité du suspect. Ce travail est collectif, encadré par une procédure et un tribunal.

En revanche, sous l’œil de la caméra et face aux algorithmes de reconnaissance faciale, c’est à chacun que revient, à tout instant et en tout lieu, la charge de prouver son innocence. Comment ? En offrant son visage à l’identification et en adoptant un comportement qui ne déclenchera aucune alarme au fond d’un ordinateur de la police.

On peut penser qu’il s’agit, sous nos yeux, d’un choix de société délibéré. En l’absence de cadre juridique clair, les dispositifs de reconnaissance faciale s’installent dans la hâte, avec un effet immédiat : chacun intériorise la contrainte de la surveillance et adapte insensiblement son comportement à ce regard abstrait. Il est psychologiquement moins coûteux de s’y plier, même avec une ironie protectrice, plutôt que de remettre en cause les décisions arbitraires qui sont imposées sans discussion.

L’intériorisation de la surveillance, la culpabilité par défaut, s’accompagne d’un ajustement inconscient à une loi non écrite. C’est une forme de l’effet Hawthorne, ou du « chilling effect » : le fait de savoir qu’on est peut-être surveillé entraîne qu’on modifie plus ou moins consciemment son attitude. La surveillance n’a pas besoin de punir chaque individu pour s’exercer sur tous, et elle n’a même pas besoin d’être réelle à chaque instant.

Refuser la reconnaissance faciale et inscrire ce refus dans la loi est une première nécessité.

Éducation au contrôle

Pourquoi vouloir installer un dispositif de reconnaissance faciale à l’entrée d’un lycée ? C’est un projet porté par monsieur Estrosi et combattu par La Quadrature du Net. Quel intérêt, alors que des surveillant·es à l’entrée de l’établissement pourraient tout aussi bien reconnaître les élèves autorisé·es, repérer les intrus, et régler les problèmes éventuels avec humanité ? La réponse est triste : parce que la machine est censée être moins chère.
La dépense s’amortit en quelques années et les services publics croient faire ainsi des économies, dans un contexte général où les problèmes sociaux sont délégués à l’entreprise privée ou plus souvent laissés à l’abandon, et abordés sous l’angle unique de la répression.

L’installation de caméras est le signe assez sûr d’une politique qui a baissé les bras. La reconnaissance faciale pousse seulement le curseur plus loin dans la prise en charge des relations humaines par des arbres de décisions préprogrammés. On renonce ostensiblement à l’ambition de construire une société.

Bénéfices et usage commerciaux

Les bénéfices attendus de la reconnaissance faciale sont en grande partie des mesures d’économie : moins de personnel pour surveiller de plus grandes surfaces urbaines, et meilleur ajustement des moyens d’intervention. Les expériences de « safe city » menées aux États-Unis (Chicago, Detroit, en particulier) avaient pour but de mieux définir les quartiers et les rues où les patrouilles devaient circuler, en fonction des heures de la journée et même des saisons, pour être au plus près des faits de délinquances à réprimer. Dans la logique de la moindre dépense et de la réduction des effectifs, il faut bien « optimiser » le temps de présence des agents et le peu de moyens dont on dispose.

Malheureusement, le raisonnement est faussé : les dispositifs techniques de vidéosurveillance exigent un entretien très coûteux. Les communes ne feront aucune économie, et financent les caméras avec des sommes qui manquent cruellement sur d’autres lignes de leur budget. Entre temps, elles auront supprimé un certain nombre de salarié·es.

Mais il ne faut pas perdre de vue que la reconnaissance faciale est également un « marché » aux bénéfices importants. Pour l’heure, les entreprises se livrent à une course pour concevoir les outils et trouver des villes où les essayer. Ça tombe bien, les villes sont en demande : des appels d’offre plus ou moins transparents sont donc lancés un peu partout en France, la transparence des décisions n’est pas entière, et tandis que les communes sabrent les subventions, l’argent magique ne semble pas manquer pour payer des « solutions » sécuritaires à grand frais, en vue des prochaines échéances électorales. Derrière l’engouement pour la vidéosurveillance et la reconnaissance faciale, on voit une convergence d’intérêts entre un agenda politique qui joue volontiers sur la corde de la sécurité publique, et des entreprises qui cherchent les entrées de l’immense marché municipal qui s’ouvrent à elles, en France d’abord et dans le monde ensuite.

Le profit à tirer de la reconnaissance faciale ne s’arrête pas là. On voit la technique s’installer aussi dans des centres commerciaux. Les caméras sont le plus souvent cachées dans les panneaux d’informations qui affichent le plan de la galerie commerciale, comme au Québec, ou dans les « totems » qui affichent des vidéos publicitaires. Les réactions des passant·es sont épiées : quelles images retiennent leur attention, quelles boutiques envisagent-ils de visiter, quels sont leurs déplacements, etc. Le but étant bien sûr d’offrir aux visiteur·ses la meilleure expérience possible… Parfois, comme dans les couloirs du métro parisien, la curiosité de ces panneaux peut être encore plus intrusive, par exemple en allant chercher par ondes radio l’adresse MAC de la puce wifi ou Bluetooth du téléphone personnel des passant·es, afin de mieux tracer leur déplacement dans le réseau de la RATP, et d’adapter l’affichage des publicités à ces déplacements.

À aucun moment le consentement des passants n’est demandé, et on ne voit pas bien comment il pourrait l’être, sauf à leur donner le choix entre subir la vidéosurveillance ou quitter les lieux. Devra-t-on bientôt faire ses courses avec un sac sur la tête ?

La question du consentement est centrale dans la protection des données personnelles et de la vie privée, elle est d’ailleurs au centre des exigences du RGPD. Ce n’est donc pas un argument léger. Les lois européennes disent aussi que le consentement ne peut pas être obtenu en échange d’un service qui reviendrait à lui donner une valeur marchande : justifier la reconnaissance faciale dans les galeries commerciales en prétextant que les client·es auront de meilleurs prix ou de meilleures offres n’est pas un argument recevable. C’est au pire un cache-misère pour l’avidité sans limite des marchands, qui traitent tous les passant·es comme des proies.

Les utilisations commerciales ou municipales de la reconnaissance faciale prospèrent dans une faille juridique : le phénomène est mal encadré, alors qu’il devrait faire l’objet d’un débat collectif. Mais la sécurité policière et la prospérité des entreprises commerciales sont devenues dans le monde entier l’alpha et l’oméga des politiques publiques.

La possibilité d’interdire

Les personnes les mieux averties des applications de la reconnaissance faciale sont tellement inquiètes qu’elles demandant un encadrement juridique de cette technique. C’est la leçon qu’on peut tirer de la lecture des articles écrits par Brad Smith, juriste de Microsoft. En juillet 2018, il appelait le gouvernement états-unien a légiférer sans délai pour encadrer les usages de la reconnaissance faciale. Bien placé pour constater les progrès de la technique, il redoute avec gravité qu’elle puisse être utilisée contre les libertés des personnes, aussi bien par des entreprises privées que par des États. En décembre 2018, il pose même quelques jalons pour délimiter le contour de cet encadrement juridique.

On n’est pas obligé de partager son enthousiasme pour certaines applications « positives » de la reconnaissance faciale, dont il donne des exemples qui mériteraient d’être regardés de plus près (dans la recherche médicale par exemple). Mais on doit entendre son inquiétude, parce qu’elle n’est pas celle d’un militant habitué à crier au loup : au plus haut niveau de décision, là où une vision panoramique peut embrasser à la fois la connaissance du droit et la connaissance des projets techniques réels, on n’en mène pas large, et ce n’est pas bon signe.

Toutefois, l’empressement de Brad Smith à voir naître une réglementation peut aussi être lu différemment, quand on le rapproche des déclarations récentes de Andy Jassy, président de Amazon Web Services, qui développe le logiciel Rekognition. Il se trouve qu’entre les articles de Brad Smith et l’interview de Andy Jassy, un événement important est survenu : la ville de San Francisco, en Californie, au plus près de la Silicon Valley et des grands sièges des multinationales du numérique, a voté le 14 mai 2019 une décision interdisant à la police locale d’utiliser la reconnaissance faciale. Amazon veut une réglementation parce que l’interdiction pure et simple ne fait pas de bien à ses affaires…

Quant à nous, nous retiendrons qu’il est possible d’interdire les pratiques de surveillance de masse, par la délibération locale et par la loi.

Le visage perdu

La reconnaissance faciale change le visage du monde. Il n’est pas pas nécessaire de renvoyer aux pire dystopies et à 1984 pour voir tout ce que les pratiques actuelles ont de dangereux. On peut même percevoir un changement anthropologique possible dans le rapport avec le visage.

La reconnaissance faciale attribue au visage, non plus une valeur de personnalité, l’expression même de la singularité d’une personne humaine, mais une fonction de dénonciation : le visage ne vaut plus pour lui-même, comme singularité prise avec son épaisseur et son secret, mais comme signe en lien avec des bases de données de toutes sortes, qui permettent de prendre des décisions concernant la personne visée, à son insu. Dans ce contexte, le visage devient l’identifiant unique par excellence, plus efficace encore que la carte d’identité : il est infalsifiable. Lors de l’expérience du carnaval de Nice, la ville se vantait même d’avoir pu identifier un cobaye dont la photo de référence datait de trente ans auparavant. Le visage comme mouchard, le visage qui trahit à travers les âges, merveilleux progrès.

On peut s’opposer à un prélèvement d’ADN. Mais comment s’opposer aux photos de soi ? Facebook applique un logiciel de reconnaissance faciale aux photos postées par ses utilisateurs. Si un « ami » n’est pas reconnu, le site invite même les utilisateurs à identifier leurs proches. Même en n’ayant jamais eu de compte Facebook, vous figurez peut-être dans cette immense base de données, et Facebook sait mettre votre nom sur votre visage, et peut vous reconnaître parmi toutes les nouvelles photos postées par vos amis…

Malgré vous, votre visage a un sens pour les caméras qui vous filment. Les pseudo-sciences du XIXe siècle prétendaient lire des traits psychologiques dans les traits du visage. Aujourd’hui, chaque visage dans la rue ouvre potentiellement l’accès à un nom, une adresse, un casier judiciaire, des relations professionnelles, amicales, amoureuses, des opinions exprimées sur les réseaux sociaux, des habitudes de consommation, des engagements divers, et qui sait quoi d’autre encore.

Quand les inconnu·es qui vous croisent dans la rue peuvent accéder à des données sur vous par le simple fait que l’image de votre visage a été captée par des Google Glass, on amène la puissance coercitive du réseau jusque dans la rue. Sur le réseau social, il est possible de prendre plusieurs identités. Mais nos prises de position politiques, notre réseau amical, notre réseau professionnel, notre CV, etc., se retrouvent, dans la rue, associés à un élément unique, visible, et facilement accessible à tous. Les créateurs des Google Glass ont fini par interdire cette possibilité, pour ne pas tuer leur création dans l’œuf. Si cette technique devenait courante, qui peut assurer que nous n’assisterons pas de notre vivant à la suppression de l’anonymat dans l’espace public ?

Une société de la défaite

Une anthropologue britannique, Sally A. Applin, a récemment publié un article très intéressant sur les dégâts sociaux causés, et surtout révélés, par la reconnaissance faciale (à lire ici, en anglais). Elle part de la question posée par un dirigeant d’entreprise états-unienne sur Twitter : « Vivons-nous vraiment dans une société aussi dangereuse, pour avoir à ce point besoin de la reconnaissance faciale ? », et la précise : la reconnaissance faciale, pourquoi ?

Elle évoque bien sûr les intérêts industriels, et la facilité politique consistant à remplacer le personnel humain par des machines. Mais elle va plus loin : derrière le succès politique et médiatique de la technique à visée sécuritaire, elle voit la peur de l’autre. Le regard désincarné remplace la parole, et la distance remplace la rencontre. Même les agents de surveillance ne regardent plus les gens, mais des écrans. Ce qui devrait être média est devenu une vitre isolante. C’est une logique de traitement des symptômes qui ne s’adresse jamais aux causes.

Elle remarque aussi que la « démocratisation » des caméras, maintenant que chacun porte sur soi un smartphone, a sans doute aussi contribué à leur banalisation, en faisant de chacun le surveillant potentiel de l’autre. C’était d’ailleurs l’idée principale de l’application « Reporty », retoquée à Nice par la CNIL au printemps 2018 : la mairie voulait lancer une application pour smartphone afin que les habitant·es signalent par vidéo les incivilités dont ils seraient témoins. Elle souligne par ailleurs que l’accumulation de millions d’heures de vidéosurveillance que personne n’a le temps de regarder voir explique peut-être en partie l’enthousiasme des décideurs politiques pour la reconnaissance faciale numérique : le fantasme de la surveillance totale est matériellement hors d’atteinte, sauf si l’humanité s’y consacre à temps plein, ou si elle délègue le travail à des machines (biaisées).

Est-ce vraiment le monde que nous voulons ? Cette société sans contact, cette société qui a peur de la parole et de l’engagement physique des uns avec les autres est une société déprimée, qui ne s’aime pas. Il est permis d’en vouloir une autre. Elle commence par interdire la reconnaissance faciale.