Low tech : face au tout numérique, se réapproprier les technologies

Les articles

Combattre le capitalisme identitaire

, par Okhin

Il ne fait désormais plus aucun doute que le marché de la surveillance est en plein essor. Des sociétés vendent aux États des systèmes d’identification des populations, à des fins de contrôle, pour des marchés se comptant en milliards d’euros. En France, de plus en plus de villes mettent en place des systèmes invasifs, qu’il s’agisse d’ériger des portiques de reconnaissance faciale dans les lycées (comme à Nice et Marseille), de déployer des drones (en dépit de la faune locale qui ne les apprécie que peu, comme à Paris [1]) ou de forcer les habitant·es à s’identifier sur des services en ligne pour interagir avec leur administration – comme l’illustre notamment le site Technopolice.

Il existe également un autre marché plus insidieux, que l’on suppose parfois moins nuisible que celui, brutal, de la surveillance par les États. C’est celui de l’économie de l’attention, de la marchandisation de nos comportements et de nos identités. Ne nous trompons pas de sujet, la plupart des multinationales hégémoniques du numérique (Google, Apple, Facebook, Amazon et Microsoft – GAFAM par la suite) parlent [2] de vente et d’exploitation de données personnelles et non de comportement, car la donnée est abstraite et omniprésente. Il est difficile de s’opposer à une collecte de données personnelles ou de métadonnées. La donnée est abstraite, une modélisation mathématique, qui peut-être isolée et dont il est difficile de percevoir l’effet au quotidien. Pourtant, si l’on parle des comportements que décrivent ces données, il devient beaucoup plus évident de s’opposer à cette collecte et à sa marchandisation.

Illustration graphique de l’Intelligence Artificielle. Crédit : geralt via Pixabay

Parler de capitalisme des comportements, de capitalisme des identités, de capitalisme identitaire, au lieu de capitalisme de surveillance ou de l’économie de l’attention, permet de rendre concret et palpable ce que font réellement les GAFAM. Ils analysent nos comportements dans le but de nous forcer à nous comporter de certaines façons. De plus, cela permet de mettre en lumière le fait que les pratiques de surveillance des États et ce capitalisme du comportement sont les deux faces d’une même pièce de cette surveillance, d’autant que les acteurs sont souvent les mêmes. Palantir, par exemple, la société qui a obtenu un marché d’analyse de grandes quantités de données pour la DGSI en France, a été fondée par Peter Thiel, qui est également le fondateur de PayPal, le premier financeur externe de Facebook et qui, via le fonds d’investissement dont il fait partie, investit également dans Airbnb, Lyft, Space X (le programme spatial d’Elon Musk) et Spotify.

Palantir est loin d’être le seul exemple. La société Amesys, ancienne filiale du groupe Bull, s’est faite connaître par la vente d’un système de surveillance à Mouammar Kadhafi ; ou Amazon, qui héberge le cloud de la CIA (un petit contrat à 600 millions de dollars tout de même) ; ou encore Google qui, via le projet Maven (officiellement abandonné en 2019 suite à des pressions des employé·es de Google), entraîne les drones à faire de la reconnaissance de cible. C’est un phénomène global qui touche énormément d’entreprises du numérique, comme le documentent, par exemple, Transparency Toolkit et Privacy International [3].

Ce n’est pas la qualité intrinsèque du contenu de ce que vous publiez, ou de ce que vous lisez, qui compte. C’est le score que vous attribue une entreprise de manière arbitraire qui décide de votre valeur, de ce que vous êtes pour la société, de ce à quoi vous aurez accès. Ces gigantesques entrepôts d’information sur les comportements et les identités sont gérés par des entreprises qui cherchent à gagner toujours plus et à n’importe quel prix, au mépris de l’éthique et même des lois. Elles n’hésitent pas à collaborer et à renforcer les systèmes oppressifs existants pour conquérir de nouveaux marchés. Ces entreprises ne l’ont pas fait exprès, elles en sont désolées et, « promis juré », la prochaine fois elles feront mieux, développant une culture de l’excuse [4] et s’exonérant de toutes responsabilités.

Ces entrepôts comportementaux permettent aux États de renforcer encore plus leurs appétits pour obtenir toujours plus de moyens de contrôle des populations dans une forme de « partenariat public-privé de la surveillance », appétits qui sont ensuite nourris par les nouvelles avancées technologiques proposées par les GAFAM, créant ainsi un cercle vicieux, asservissant encore plus les prolétaires au contrôle sur leurs comportements et identités, afin de toujours donner plus aux mêmes et de permettre à cette classe de très riches cyberbourgeois de continuer de bénéficier d’un pouvoir de plus en plus total sur nous.

Il existe cependant des moyens pour mettre à mal ce capitalisme identitaire. Se saisir des moyens de production apparaît comme l’une des façons les plus efficaces, qu’il s’agisse des machines de production des ouvrier·es industriel·les ou des systèmes de production et de consommation d’information. De la même manière que le travail à la chaîne a retiré aux ouvrier·es leurs statuts et les ont asservi·es aux machines en les dépossédant de leurs compétences et connaissances, les systèmes centralisateurs des GAFAM cherchent à nous empêcher de comprendre comment fonctionnent les échanges d’information pour nous déposséder de notre connaissance.

Leur force, en plus de l’appétence des États en quête de toujours plus de contrôle, est d’être parvenus à transformer un système géré en communauté – Internet – en un système géré par eux. Pour s’affranchir de leur contrôle, il faut s’affranchir de leurs solutions, de leurs outils. L’Internet des protocoles, par exemple, est un premier pas dans cette direction. Mais seul, il ne suffit pas. Il faut que nous prenions tou·tes conscience que ce problème s’étend bien au-delà de nos simples espaces en ligne. L’identification systématique requise pour utiliser des services, quels qu’ils soient, en forçant la création (ou l’association) d’un « compte » nous identifiant, de préférence avec un système d’identification centralisée, renforce le pouvoir des GAFAM et des États sur nous. Cela nous force également, nous militant·es, à nous soumettre à leur bon vouloir pour constituer les archives de nos luttes, pour coordonner nos actions ou simplement pour prendre des nouvelles les un·es des autres.

Requérir d’une personne qu’elle dispose d’un compte Google pour accéder aux discussions internes à un groupe est dangereux et nous coupe des personnes qui refuseraient d’avoir un tel compte. Mais exiger qu’elle ouvre un compte sur une plateforme « sécurisée » quelconque n’est pas forcément une meilleure idée. Si une liste de militant·es pour l’environnement est rendue publique, il y a fort à parier que le mouvement en pâtisse. En France comme ailleurs, les services de renseignements utilisent de plus en plus les médias sociaux comme source de renseignement. [5] Lorsqu’un réseau social privé est compromis, le fait que les communications soient chiffrées ne le protégera pas. Utiliser un protocole de chiffrement est un bon premier pas, mais ne suffit pas à lui seul. L’analyse des données comportementales – qui parle à qui et quand ? – via les métadonnées suffit à mettre en danger les personnes. Savoir comment sont chiffrées nos communications, ou qui a accès à tel ou tel élément de la conversation, est tout aussi important. Les systèmes de messageries privées mis en place par les GAFAM et les entreprises qu’elles financent, directement ou non (WhatsApp, Messenger, iMessage, etc.), ne permettent pas de répondre à ces questions, même si le logiciel est à code ouvert.

Un mur couvert de caméras de surveillance semblent observer deux femmes. Crédit : Burst via Pexels.com

Car un programme, quel qu’il soit, s’exécute dans un environnement social et technique. Cet environnement est tout aussi important que le code source. Les nombreux échecs de l’utilisation d’algorithmes pour essayer de modérer les discussions sont très souvent liés aux biais personnels des personnes développant ces logiciels, celles-ci étant souvent des hommes blancs, relativement aisés, vivant sur la côte ouest des États-Unis. Mais, au-delà des problématiques politiques, des limitations matérielles et légales existent. Par exemple, si le système de génération de nombres aléatoires d’un ordinateur est modifié pour ne générer que des nombres prédictibles (par exemple, que des 1), alors tous les algorithmes de chiffrement utilisant cet ordinateur sont instantanément cassés et inefficaces, sans pour autant que l’utilisateur·rice du service ne remarque quoi que ce soit. Par ailleurs, il existe des territoires sur lesquels les États obligent des entreprises à ajouter des faiblesses dans leurs logiciels, via des « portes dérobées » communément appelées backdoors [6] ou du « chiffrement responsable [7] ». Ces pratiques sont de plus souvent tenues secrètes par des procédures-bâillons. De fait, il est malheureusement illusoire de penser qu’un logiciel à code ouvert soit à lui seul une garantie suffisante de protection des communications.

Il est donc impératif de résister aux sirènes de l’identification systématique sur les pages et services en ligne. La plupart des contenus que nous consultons ne changent pas en fonction de notre identité, du moins ne devrait pas. Que je sois Arthur, Ahmed ou Amélie ne devrait pas changer le contenu d’un journal ou d’un livre que je consulte. Certes, une personne me connaissant pourra me recommander tel ou tel livre en fonction de mes goûts personnels, pour peu que je les partage avec elle, mais il m’est possible de prendre un média au hasard et son contenu sera le même pour moi que pour les autres, ou devrait être le même. Les commentaires, les idées, etc. que je produis et souhaite rendre publics ne devraient pas être limités par l’accès aux seul·es membres d’un club privé et restreint, mais rendus disponibles à toute personne voulant les lire, les commenter, les critiquer ou les partager avec ses ami·es.

Au-delà du simple contenu, la manière dont nos comportements transitent en ligne est aussi importante et est souvent associée à une identité. Les adresses IP, attribuées par des fournisseurs d’accès à Internet, ou les numéros IMEI de vos téléphones portables, très souvent associés à une déclaration d’identité, sont également utilisés pour faire du profilage (par exemple, bon nombre de publicités nous localisent géographiquement relativement précisément [8]). Il est donc fondamental, pour se réapproprier les moyens de production numérique, de se réapproprier nos collectifs et nos identités, de questionner les structures s’occupant de convoyer ces petits bouts de comportements d’un point à l’autre de la planète.

Au plus bas niveau, cela peut être de créer ou de rejoindre un fournisseur d’accès à Internet associatif, comme l’un de ceux fédérés autour de la FFDN [9]. À un niveau plus élevé, il peut s’agir d’utiliser d’autres moyens de se connecter à Internet que de passer par la seule ligne fournie par le fournisseur d’accès, en utilisant des protocoles de routage alternatif comme Tor ou GNUNet. Mais il est également de notre responsabilité à tou·tes de documenter nos usages, d’archiver nos luttes, de les partager et de les faire circuler. Sans que tout le monde ne devienne ingénieur·e en systèmes et réseaux, permettre à chacun·e d’accéder au contenu de la manière qui le·la protège le plus sans qu’il ou elle n’ait à décliner son identité est fondamental.

Les réflexions sur la gouvernance et l’Internet des protocoles doivent aussi s’inscrire dans une vision politique plus large. Par exemple, les archives de discussions d’il y a cinq ans sont-elles réellement nécessaires ? Et si oui, ne serait-il pas possible de les conserver sous la forme d’un texte de positionnement reprenant les éléments clefs de cette conversation, supprimant le nom des personnes qui ont tenu ces propos à l’époque et permettant aux nouveaux·elles venu·es d’avoir la réponse à une question qu’ils ou elles auraient pu poser et de rejouer de nouveau cette discussion ?

À l’inverse, les conversations quotidiennes, qui font le sel du travail militant, qui nous permettent de tenir le coup et de veiller les un·es sur les autres, n’ont pas nécessité à être mises à disposition du public au-delà de l’intervalle de temps où elles prennent place. C’est le deuxième point important et nécessaire pour s’affranchir du contrôle des capitalistes identitaires. Il faut se poser la question de ce que l’on garde comme données, comme traces de comportement. Même les inscriptions aux casiers judiciaires sont censées être limitées dans le temps car on considère qu’au-delà d’une certaine date, la personne a suffisamment changé pour ne pas se voir chargée à vie de ses actions passées. [10] Même à des fins d’observation des comportements à l’échelle de la société, il est plus efficace de ne conserver que des données dites consolidées, c’est-à-dire celles qui sont le résultat d’un traitement statistique et non le détail de chaque donnée. Enfin, dans le cadre d’une étude scientifique, notamment médicale, mais aussi sociologique, le consentement des personnes participantes est un préalable à toute forme de travail scientifique, il devrait en être de même pour l’analyse comportementale, expérimentale ou non.

Distribuer la responsabilité de la gestion au plus grand nombre, se poser la question de la persistance des données et de l’accès à celles-ci sont les moyens par lesquels il devient possible de se réapproprier nos moyens de production culturelle et informationnelle, de reprendre le contrôle sur l’identité que nous voulons afficher. C’est aussi le meilleur moyen d’attaquer les GAFAM là où il est possible de leur faire le plus de dégâts : le portefeuille. Si un Internet hors des plateformes se développe, alors ces entreprises n’auront plus la possibilité de fournir toujours plus de données aux États, brisant ainsi le cercle vicieux et la course à la plus grande quantité de comportements analysés et disséqués.