10 menaces contre les migrant·es et les réfugié·es

, par Privacy International

Hotel Hara, camp de réfugié-es. Crédit photo : Frantisek Trampota (domaine public)

Au cours des vingt dernières années, nous avons vu tout une série de technologies numériques se déployer aux frontières, dans le cadre du renforcement du contrôle de l’immigration, avec des pratiques de surveillance et des politiques migratoires basées sur les données numériques qui engendrent des formes de discriminations qui portent atteinte à la dignité des personnes.

Cependant, cela se passe en marge du débat public, souvent dans le cadre de flous juridiques, et sans considération ou compréhension réelle des impacts sur les communautés de migrant·es à la frontière et au-delà.

Ces pratiques impliquent que les migrant·es doivent porter le fardeau de ces nouveaux systèmes et voient leur capacité d’action réduite dans leur expérience migratoire, en particulier lorsque leur sort se trouve entre les mains de systèmes régis par les données numériques et autres supposées innovations technologiques. Il est urgent d’adopter une approche plus humaine dans la formulation des politiques migratoires, basée sur les principes de justice, d’accessibilité, et de respect des droits humains.

Dans cet article, nous présentons quelques-uns des outils et des techniques les plus utilisées, avec une attention particulière à la situation au Royaume-Uni.

1. Partage de données : ces fonctionnaires qui deviennent des gardes frontières

De plus en plus, chaque interaction des migrant·es avec les contrôles migratoires exige le traitement de données personnelles. L’utilisation de ces données et les nouvelles technologies sont aujourd’hui le fer de lance d’une révolution dans les modes de contrôle migratoire, et risquent de porter atteinte aux droits des personnes. Il est urgent de dénoncer cette situation.

Les migrant·es doivent communiquer de grandes quantités de données, depuis leurs empreintes digitales jusqu’à leur historique de traces numériques sur Internet, ce qui les met en situation de surveillance permanente. Des décisions cruciales sont prises en fonction de la façon dont les données sont collectées mais également déduites et observées ; et pourtant, les gardes-fou sont bien minces pour réguler et superviser l’utilisation des technologies et procédés de traitement des données dans le cadre des procédures d’immigration.

Avec la publication du rapport Care Don’t Share (C’est important, ne partage pas), l’organisation Liberty écrivait :

Au Royaume-Uni, dans le cadre de leur politique (aujourd’hui discréditée) de « l’environnement hostile », le Gouvernement a mis en place une série d’accords douteux qui permettent aux équipes du Bureau Central de l’immigration d’avoir accès à des données – comme l’adresse personnelle – collectées par les écoles, les hôpitaux, les centres de travail, et la police, et de les utiliser pour localiser les enfants et les adultes pour les déporter.

Les personnes doivent pouvoir accéder aux services publics de base – comme envoyer leurs enfants à l’école, se faire soigner et porter plainte – sans avoir peur des contrôles migratoires.

Au vu du recours effectif et en pleine expansion à des politiques et des pratiques de traitement de données dans des visées de contrôle migratoire, il est urgent de réguler et superviser les entités qui interviennent de près ou de loin dans le traitement des données des migrant·es afin de s’assurer qu’elles respectent les principes et standards internationaux de protection des données et des droits humains.

Les autorités de contrôle migratoire et frontalier ne peuvent être exemptes de responsabilité en termes de protection des droits des migrant·es et de leurs données personnelles. C’est pourquoi en 2019 Privacy International et diverses organisations de défense des droits de migrant·es et de droits numériques, ont officiellement porté plainte au nom de la Plateforme pour la Coopération Internationale sur les Migrant·es Sans-papiers (PICUM, selon le sigle en anglais) contre le Royaume-Uni, pour manquement au respect de la Régulation Générale de Protection des Données (GDPR, selon le sigle en anglais) avec l’inclusion d’une exception pour le contrôle de l’immigration dans l’Acte de Protection des Données en 2018.

2. Extraction de données des téléphones portables : tous les coups sont permis

Les gouvernements utilisent de plus en plus les appareils électroniques des migrant·es comme outil de vérification, souvent pour corroborer les informations qui leur sont soumises. Cette pratiqueautorise l’usage d’outils d’extraction de téléphone portable qui permet de télécharger les données les plus importantes d’un smartphone, dont les contacts, les appels, les textos, les dossiers téléchargés, l’information de localisation, entre autres.

Ces pratiques constituent une grave atteinte au droit à la vie privée, en plus de n’être ni nécessaires ni proportionnées. De même, le présupposé que les données obtenues des appareils numériques apportent des preuves fiables est biaisé. Si une personne affirme qu’une information est vraie, et qu’il existe dans le téléphone une information qui suggère autre chose, ce n’est pas une preuve de malhonnêteté. Toute une série de raisons tout à fait légitimes peuvent expliquer que les données extraites diffèrent de l’information fournie par un·e demandeur·se.

L’Allemagne, le Danemark, l’Autriche, la Norvège, le Royaume-Uni et la Belgique font partie des pays où des lois autorisent la saisie de téléphones portables de demandeur·ses d’asile ou de migrant·es, d’en extraire des données qui seront ensuite utilisées dans les procédures de demande d’asile.

Ces technologies sont également utilisées par la police locale : en mars 2018, nous avons découvert que 26 des 47 forces de police britanniques utilisaient l’extraction de données de téléphones portables – et trois autres étaient sur le point de les tester pour la première fois.

3. Service de renseignement des réseaux sociaux : qu’est ce qu’un like sur Facebook dit de toi ?

Au cours des dix dernières années, des gouvernements ont eu recours aux services de renseignement des réseaux sociaux (SOCMINT en anglais) dans différents secteurs, dont le contrôle migratoire. Ces techniques et technologies permettent aux entreprises ou aux gouvernements de surveiller les sites de réseautage des réseaux sociaux (SNS en anglais) comme Facebook ou Twitter.

Certaines de ces activités sont directement entreprises par les gouvernements ; mais dans certains cas, les gouvernements font appel aux entreprises afin qu’elles leur fournissent les outils et/ou le savoir-faire pour exercer ce type d’activités.

En septembre 2010, Frontex, l’Agence européenne de garde-frontières et de gardes-côtes, publiait un appel d’offres d’une valeur de 400 000€ pour une entreprise de surveillance afin de « localiser les gens sur les réseaux sociaux ». Nous avons demandé si Frontex s’était assurée que ce projet était bien légal ; ils ont par la suite décidé d’annuler l’appel d’offre.

Notre récent rapport « Vos autorités locales regardent-elles vos ‘like’ sur Facebook ? » se penche sur la manière dont les conseils et autorités locales au Royaume-Uni font de plus en plus régulièrement usage de cette technique dans le cadre de leur pratique de renseignement et tactique d’enquête dans des secteurs comme l’acquittement des taxes immobilières, des services à l’enfance, et de la surveillance des manifestations. Seriez-vous susceptible d’en faire l’objet ?

4. Police prédictive : une boucle de feedback qui renforce les biais racistes

Les programmes de police prédictive sont utilisés par les forces de l’ordre dans le but de faire une estimation d’où et quand les crimes seront le plus probablement commis – ou encore qui, probablement, les commettra. Ces programmes fonctionnent par le biais d’algorithmes informatiques alimentés par les historiques policiers. Par exemple, un programme peut analyser des données en relation à des crimes passés afin de prédire où les futurs crimes auront lieu – tout en identifiant des « points chauds » sur la carte.

Mais les données traitées par ces programmes sont incomplètes et biaisées, et engendre ce qui est appelé une « boucle de feedback » (« feedback loop » en anglais). Cela envoie notamment des policier·es dans des communautés déjà injustement sur-policées. D’autres programmes de police prédictive peuvent suggérer le type de comportement des individus. Ces programmes sont alimentés par de l’information sur une personne, puis décident s’il est probable que cette personne commette un délit ou un crime.

Bien qu’il soit très tentant de considérer qu’un programme informatique et des algorithmes sont des éléments neutres, c’est loin d’être le cas. L’information qui est fournie pour alimenter ces systèmes est incomplète ou basée sur des biais d’origine humaine, et provoque des prises de décision qui renforcent des inégalités sociales pré-existantes. Par exemple, les programmes de cartographie renvoient souvent les policier·es à surveiller les mêmes communautés déjà sous forte pression policière, encore et encore. Comme le suggèrent plusieurs études, les pratiques policières basées sur des données numériques peuvent conduire à un renforcement des contrôles au faciès et des biais racistes dans le système de justice pénale.

Au Royaume-Uni, l’utilisation des programmes de police prédictive n’est encadrée par aucune norme ni loi. Il devient alors très difficile de comprendre comment ces programmes sont utilisés, comment ils prennent des décisions sur nos vies et nos communautés, et comment remettre en question ces décisions. Et pourtant les forces de police aux quatre coins du Royaume-Uni utilisent ou ont utilisé des programmes de police prédictive :

  • La police de Kent a fait la une des journaux à cause de son utilisation de PredPol, un programme développé aux États-Unis, qui donne des instructions aux officiers de police sur les zones à patrouiller en fonction d’un programme de cartographie prédictive.
  • Durham Constabulary est connu pour son Outil d’Evaluation des Risques de Dommages (HART – Harm Assessment Risk Tooll – en anglais), qui détermine le degré de probabilité de récidive en fonction d’un profilage brut à partir de données sur la famille, la situation du logement et le statut financier d’une personne.
  • La police d’Avon et de Somerset a régulièrement utilisé des plateforme d’analyse.
  • La police de West Midlands a fait des essais avec des outils de police prédictive.
    Tout comme dans le cas de la surveillance des réseaux sociaux, le fait que nos données soient captées et utilisées pour prendre des décisions à notre sujet peut potentiellement, à terme, impliquer des formes d’autocensure de nos comportements. Par exemple, si notre communauté est un « point chaud » pour les activités policières, il se peut que l’on décide de changer de route ou de faire autre chose dans la zone, et même de changer de cercle social.
  • Lire ici les explications

5. Détecteurs de mensonges : la sécurité sur des bases scientifiquement douteuses

La frontière d’un pays étranger est sans doute l’un des lieux où une personne est la plus vulnérable au monde.

L’utilisation des outils d’extraction de données fait partie d’une tendance plus large visant à centrer la surveillance et d’autres technologies de sécurité sur les demandeur·ses d’asile et les migrant·es, souvent sur des bases scientifiquement douteuses. En Europe, cela comprend entre autres l’utilisation de technologies qui sont censées identifier le mensonge en fonction des « micro-gestes », l’origine d’une personne en fonction de leur voix, et leur âge en fonction de leurs os.

Le programme de recherche et d’innovation de l’Union Européenne Horizon 2020 a financé un projet appelé iBorderCtrl, défini comme « un projet d’innovation qui vise à rendre le contrôle aux frontières plus rapide et plus complet pour les ressortissants extra-communautaires qui franchissent les frontières des États membres de l’UE ». Outre d’autres caractéristiques, le système réalise une détection de mensonges automatisée.

Cette technologie est hautement expérimentale, ses résultats ne sont pas fiables, selon des enquêtes journalistiques ; et malgré cela, elles sont utilisées pour prendre des décisions qui peuvent changer le cours d’une vie.

6. Externalisation des frontières : délocalisation des contrôles frontaliers et de la surveillance

« L’externalisation des frontières », le transfert des contrôles frontaliers à des pays étrangers, est devenu depuis plusieurs années l’instrument privilégié des États-Unis et l’Union Européenne pour tenter de stopper les flux migratoires.

Cette technique repose sur l’utilisation de technologies modernes, sur la formation et l’équipement des autorités de pays tiers pour exporter les frontières loin de ses rivages.

Les pays aux plus forts budgets de défense et sécurité transfèrent leurs technologies et pratiques aux gouvernements et organismes du monde entier, dont plusieurs des pays les plus autoritaires de la planète. La Chine, les pays européens, Israël, les États-Unis et la Russie sont les plus grands fournisseurs de ce type de surveillance au niveau mondial, tout comme des organisations multilatérales comme l’Union Européenne. L’industrie de la surveillance joue un rôle crucial dans ce processus.

Leur intervention est favorisée par l’adoption de fonds ad hoc, comme le polémique « accord UE-Turquie », par lequel 6 milliards d’euros ont été versés à la Turquie en échange de son engagement à fermer la frontière avec la Grèce et la Syrie, ou encore le Fond Fiduciaire de l’UE pour l’Afrique (EUTF en anglais).

Cela autorise de graves violations des droits humains, renforce l’autoritarisme, affaiblit la gouvernance, et alimente la corruption. Cela détourne également l’argent et d’autres ressources des du développement et d’autres formes d’aide, en octroyant à la place des milliards de dollars à des entreprises de sécurité et surveillance.

7. Traitement des données biométriques : un festin pour les base de données

Comme ailleurs, nous avons vu se déployer des systèmes biométriques dans les mécanismes de gestion frontalière et de l’immigration. La technologie biométrique est fournie par des entreprises pour différentes utilisations, dont le filtrage et/ou la détermination du droit d’asile dans la cadre de la vérification de l’âge et de l’origine, autant que l’enregistrement, l’authentification et la vérification de l’identité.

Des incohérences et des erreurs dans les bases de données sont à l’origine de nombreuses fausses identifications. Le taux d’échec dans l’identification impacte disproportionnément les personnes de certains groupes de race, de classe et d’âge.

En 2003, l’Identification des demandeur·ses (EURODAC) a été adopté et l’Union Européenne a mis en place la base de données centrale d’empreintes digitales des exilé·es. C’est à cette base de données centrale que sont envoyées les empreintes digitales de toute personne de plus de 14 ans demandant l’asile n’importe où en Europe. Elles sont utilisées comme preuve par comparaison pour aider à déterminer quel État Membre est responsable d’examiner la demande d’asile déposée dans l’Union Européenne, en application de la Régulation (UE) n°604/2013 (‘Régulation Dublin’), qui exige que la demande d’asile soit déposée dans le premier pays de l’UE dans lequel la personne est entrée. Les négociations législatives ont bon train pour étendre cette base de données, dans le but de centraliser plus de données personnelles d’un plus grand nombre de personnes, ainsi que d’abaisser l’âge minimum de prélèvement de ces données de 14 à 6 ans.

En aout 2018, selon le Rapport sur la Stratégie de Contrôle des Stupéfiants au niveau International, du Département d’État des États-Unis, le programme de partage des données biométriques entre les gouvernements états-uniens et mexicains était en activité dans les 52 stations de traitement des migrations au Mexique. Le programme utilise des informations biométriques pour filtrer des migrant·es arrêté·es au Mexique qui auraient supposément déjà essayé de traverser la frontière vers les États-Unis, ou encore qui serait « membre d’un groupe criminel ».

Le manque de transparence dans ces processus est flagrant : par exemple, malgré des preuves contradictoires, l’Institut National de la Migration mexicain a nié le fait de traiter de données biométriques lorsque notre partenaire mexicain, R3D, a demandé à accéder à de l’information, s’appuyant sur la liberté d’accès.

Au Royaume-Uni, même une épidémie n’arrête pas le gouvernement : le Bureau Central exige toujours des demandeur·ses d’asile qu’ils et elles se présentent physiquement à différents centres pour faire enregistrer leur demande d’asile. Cette obligation persiste malgré la législation qui autorise la suspension du prélèvement des données biométriques en cas de crise sanitaire majeure.

  • Lire de rapport « Protection des données, contrôle migratoire et droits fondamentaux : ce que les régulations de l’UE sur l’interopérabilité implique pour les sans-papiers », de notre partenaire Statewatch et PICUM

8. Reconnaissance faciale : quand la surveillance devient sans frictions

Le terme de reconnaissance faciale fait généralement référence à des systèmes qui récoltent et traitent des données en relation au visage d’une personne. Ces systèmes sont particulièrement intrusifs, dans la mesure où il s’agit de prendre en photo, extraire, sauvegarder et partager les données biométriques faciales d’une personne.

Dans le cadre des pratiques policières, la reconnaissance faciale peut prendre des photos du visage d’une personne et les traiter en temps réel (« live FRT » en anglais) ou en différé (« FRT statique » ou « rétrospective »). La collecte d’images faciales aboutit à la création de « signatures numériques de visages identifiés », qui sont analysées par rapport à une ou plusieurs bases de données (« Watchlist »), qui en général contiennent des images de visages obtenues par d’autres moyens, pour déterminer s’il y a correspondance. Ce traitement des images peut servir à identifier une personne à un moment donné, aussi bien qu’à entraîner le système de reconnaissance faciale à mieux identifier, ou encore à enregistrer ce visage dans le système afin de l’utiliser ultérieurement.

L’utilisation de cette technologie, à la fois par la police et/ou par des acteurs privés, a provoqué une onde de choc dans la façon dont la société est surveillée et plus généralement contrôlée, en particulier les communautés racisées. Les erreurs de faux positif dans l’identification sont bien plus fréquentes dans le cas des groupes minoritaires ; ceux-ci sont alors plus susceptibles de subir une pression policière excessive, avec des arrestations et des interrogations abusives. Par exemple, de précédents essais de reconnaissance faciale à Londres ont présenté un taux d’erreur supérieur à 95 %, et ont mené les policier·es à prélever les empreintes digitales d’un écolier noir de 14 ans suite à une erreur d’identification.

Le déploiement de ce genre de technologie intrusive ne soulève pas seulement d’importantes questions en termes de vie privée et de protection des données ; il pose également des questions éthiques : les démocraties modernes doivent-elles ne serait-ce que permettre leur utilisation, et dans quelle mesure ?

Suite à d’importantes campagnes de la société civile, certaines villes ont interdit la reconnaissance faciale, et des entreprises comme Amazon, IBM et Microsoft ont annoncé des moratoires temporaires de leur utilisation de la reconnaissance faciale. Malgré tout, il semblerait qu’il s’agit plus d’un effet d’annonce publicitaire concédé sous pression qu’un réel engagement.

9. L’Intelligence Artificielle : ton sort entre les mains du système

Le terme d’ « IA » (intelligence artificielle) fait référence à toute une série d’applications et de techniques d’un niveau de complexité, d’autonomie et d’abstraction variable. Cet emploi large recouvre le « machine learning » (apprentissage machine, qui réalise des déductions, des prédictions et prend des décisions au sujet des individus), des algorithmes d’IA spécifiques à un domaine particulier, les objets entièrement autonomes et connectés, et même l’idée futuriste d’une « singularité » IA. Les différentes applications et utilisations de l’IA peuvent porter atteinte au droit à la vie privée et à d’autres droits fondamentaux et libertés de différentes façons.

Les méthodes d’IA sont utilisées pour identifier les personnes qui désirent rester anonymes ; pour déduire et générer de l’information sensible sur des personnes à partir d’information non sensible ; pour dresser le profil d’une personne à partir de données à l’échelle d’un groupe ; et pour prendre des décisions cruciales en s’appuyant sur ces données, décisions qui peuvent avoir des conséquences très graves sur la vie des personnes. Et cette liste d’exemple n’est pas exhaustive.

Les nouvelles technologies, dont l’IA et les prises de décisions automatisées, ont été déployées de différentes façons dans le cadre du contrôle migratoire. On retrouve par exemple des détecteurs de mensonge à la frontière (voir numéro 5), des prises de décisions automatisées pour les demandes de visa touristique, pour l’identification des réfugié·es ou encore dans les systèmes de contrôle numérique des frontières.

Ces pratiques implique que, pour de nombreux migrant·es, leur sort est entre les mains d’un système automatisé.

10. Les entreprises privées : quand la frontière est un marché juteux

L’utilisation de technologies puissantes et intrusives qui permettent aux autorités de collecter des détails de la vie intime des gens présente plusieurs dangers.

Dans ce contexte, des entreprises militaires et de sécurité privées ont commencé à jouer un rôle crucial en fournissant aux gouvernements tout un éventail de « solutions » technologiques de surveillance et d’exploitation des données. L’intervention dans les mécanismes de contrôle migratoire d’acteurs à but lucratif, comme des entreprises de surveillance qui proposent ce qu’elles présentent comme des solutions technologiques simples, est intrinsèquement dangereux.

Cellebrite, une entreprise de surveillance, se présente comme le « leader mondial dans l’intelligence numérique ». En 2019, l’entreprise faisait la promotion de ses appareils d’extraction numérique en direction d’une nouvelle cible : les autorités qui interrogent les demandeur·ses d’asile.

L’United States Immigration and Customs Enforcement (ICE), l’agence au cœur du déploiement de l’approche « tolérance zéro » de Donald Trump et de la séparation des familles, emploie depuis des années une entreprise de surveillance états-unienne pour intercepter les communications des gens aux quatre coins des États-Unis.

Des millions de personnes sont poussées sur les routes de l’exil à cause de la guerre, de la persécution, et du changement climatique : c’est un cri de détresse qui exige des interventions politiques et sociales urgentes, pas une opportunité commerciale. Ces entreprises installent et souvent administrent des systèmes de surveillance des frontières et de l’immigration sans aucune considération pour la protection des droits des migrant·es.

Mais la technologie à la frontière semble être un marché juteux pour elles.

  • Lire ici notre requête auprès du « Groupe de travail sur l’utilisation de mercenaires de l’ONU » sur le rôle des entreprises privées dans la gestion des frontières et les contrôles migratoires et son impact sur les droits des migrant·es.

Conclusion

Pour répondre aux flux migratoires, les gouvernements du monde entier ont favorisé une approche qui criminalise la migration et se centre sur la question sécuritaire.

Les frontières ne sont pas seulement ce que l’on voit : nous sommes témoins d’une externalisation croissante des contrôles migratoires avec le transfert de la gestion des frontières par des pays tiers et avec la frontière numérique, comme les portails numériques et les bases de données. Les développements technologiques tels que mentionnés plus haut rendent les contours du contrôle migratoire invisibles.

Cette liste n’est pas exhaustive – et elle sera bientôt dépassée.

Nous continuerons à nous battre pour que les gouvernements et les autorités publiques arrêtent d’utiliser des techniques intrusives dans le contrôle migratoire, et pour que les entreprises arrêtent de fournir des techniques qui restreignent les droits des migrant·es.

Voir l’article original en anglais sur le site de Privacy International