Faire d’Internet un monde meilleur

Nos propositions positives sur l’interopérabilité

, par La Quadrature du Net

Si – au début du Web – Internet était décrit comme un réseau a-centralisé, force est de constater que l’époque où on pouvait dire que le principe était d’installer « l’intelligence aux extrémités » est révolue. Ce principe dit « de bout-en-bout » [1] était pourtant l’idée fondatrice de l’architecture de ce réseau, qui se devait d’être la plus simple possible en déportant la complexité sur les ordinateurs qui s’y connectaient.

L’exemple peut-être le plus parlant de cette évolution est celui du standard HTML, qui fut créé pour décrire un contenu côté serveur en laissant au navigateur côté client la tâche de l’afficher au mieux en fonction du terminal utilisé.

Au fil du temps ce standard a évolué pour afficher des contenus interactifs, jusqu’à permettre de créer des « applications Web » aussi complexes que des logiciels. C’est ce que l’on a nommé le « Web 2.0 », et l’intelligence revenait au centre plutôt qu’aux extrémités.

L’hyper-centralisation inéluctable

Ce phénomène a logiquement conduit à une centralisation des services. La complexité croissante de ces « applications Web » demandant toujours plus de compétences, ce phénomène s’est encore amplifié en réservant aux plus gros services – qui attirent les meilleurs développeurs – la capacité de rester innovants.

Dans le même temps s’est développé le principal modèle économique du réseau : la gratuité en échange de la publicité. Là encore il ne pouvait que conduire à toujours plus de centralisation en favorisant les plus gros (capables d’afficher les contenus publicitaires sur davantage d’écrans et donc d’attirer plus de publicitaires) au détriment des plus petits.

Enfin le phénomène du « winner takes all » (le gagnant remporte tout) permet non seulement aux plus gros d’étouffer les plus petits, mais aussi – dans le rare cas où un nouveau venu obtiendrait un succès inattendu – de les racheter à des prix stratosphériques. [2]

L’impression que cette hyper-centralisation était inéluctable s’impose donc, parfois au point d’oublier les dangers qu’elle suppose. Or ces dangers sont bien réels, même s’il a fallu le scandale révélé par Edward Snowden pour que le grand public en prenne conscience.

Les dangers pour la démocratie

Quand, d’une part, la quasi-totalité de notre vie numérique se passe sur un petit nombre de services et que, d’autre part, ces services ont choisi de conserver le maximum d’informations sur nous pour mieux « cibler » la publicité (et ainsi attirer toujours plus d’annonceurs), la tentation pour les États d’obliger ces services à espionner pour eux leur population devient forte. Et les arguments de la lutte antiterroriste, de la protection contre la haine en ligne, du respect des droits d’auteurs… permettent aux gouvernements de justifier une surveillance quasi-totale de leur population.

C’est ainsi qu’aujourd’hui, même en Europe, les gouvernements n’hésitent plus à déléguer à ces entreprises privées certaines de leurs fonctions régaliennes en leur imposant – en dehors de toute procédure judiciaire – de censurer tel ou tel contenu. [3]

Enfin, les algorithmes, qui trient les flux d’informations (tant des moteurs de recherche que des réseaux sociaux) en fonction des intérêts de leurs utilisateur·rices créent une « bulle de filtres » qui – elle aussi – peut devenir un danger pour nos démocraties, en présentant une vision tronquée de la réalité (quand ce ne sont pas carrément des « fake news » qui la remplacent).

Sortir de « Big Brother » pour inventer le Meilleur des mondes

Si la centralisation et l’exploitation de nos données personnelles mettent en danger nos démocraties, alors il semble logique de limiter la collecte de ces données aux seules situations où l’utilisateur·rice l’accepte de façon explicite : c’est l’objet du Règlement Européen pour la Protection des Données (RGPD).

L’histoire, en 2019, n’est pas encore écrite sur l’efficacité du RGPD : à ce stade il a plutôt renforcé la position des GAFAM, mais des procédures sont en cours et conduiront peut-être à plus de respect des données personnelles. Pour autant un tel système, basé sur le consentement, ne peut avoir que peu d’effet sur un public trop habitué à accepter sans les lire les centaines de « pop-ups » qui s’affichent dès qu’il accède à un contenu. [4]

Un règlement qui ne règle presque rien

Surtout, il arrive beaucoup trop tard : il n’a aucun effet décentralisateur sur un oligopole déjà installé, ni sur la puissance (financière et politique) déjà acquise par les « géants du Web ». Au mieux, un RGPD parfaitement respecté n’aura d’effet que sur leur expansion, mais on voit mal comment il pourrait faciliter l’éclosion de nouveaux services. Le seul élément allant dans ce sens – le « droit à la portabilité des données » inclus dans ce règlement – ne peut servir qu’à transférer, d’un service existant à l’autre, quelques rares éléments (images, emails, agendas, listes de contacts et de morceaux de musique). Il ne décentralise donc qu’à la marge, et ne traite que de données déjà transférables.

Or ce n’est pas le sujet.

Une conclusion logique

Si ce sont la disparition de vie privée et la centralisation du Web qui créent ce danger pour la démocratie, alors la seule protection des données personnelles ne permettra jamais d’y remédier. Il faut aussi décentraliser. Non pas pour revenir à un état antérieur trop souvent idéalisé, mais bien pour créer un nouvel espace, plus ouvert, qui permettra la multiplication des services et des offres.

De là vient l’idée de les contraindre à ouvrir l’accès à nos propres données.

De quoi s’agit-il ? L’appel lancé par 70 organisations l’expose assez bien : il faut contraindre les grandes plate-formes à devenir interopérables, c’est-à-dire à permettre à des applications tierces d’accéder directement à nos données, depuis l’extérieur des silos [5] déjà installés.

Et quand on parle ici de données personnelles, c’est de toutes ces données dont il est question : non seulement nos profils, mais aussi nos contacts, le contenu de nos échanges, et y compris la structure même des graphes sociaux [6] que nous y avons construit. L’objectif est de faire en sorte qu’un·e utilisateur·rice puisse cesser d’utiliser telle ou telle plate-forme sans pour autant perdre le contact avec les relations qu’il ou elle s’y est fait, donc de pouvoir continuer d’échanger avec eux. De l’extérieur.

Le paradigme n’est pas neuf : le courrier électronique – par exemple – a toujours permis d’écrire à des ami·es n’utilisant pas le même serveur de messagerie. Mais, évidemment, les plate-formes modernes – basées sur l’économie de l’attention – n’ont aucun intérêt à autoriser ce type d’échanges, et au contraire tout intérêt à garder au maximum leurs utilisateur·rices captif·ves. Il faut donc les y contraindre par la régulation.

Passons d’abord sur la faisabilité politique de la chose : le RGPD, justement, a au moins permis de démontrer qu’il était possible d’imposer aux plus grands acteurs le respect des lois européennes. Intégrer, par exemple, au futur règlement européen e-Privacy une obligation d’ouverture des données aurait donc un effet certain.

Voyons ensuite la possibilité technique d’une telle obligation. Comment, par exemple, imaginer pouvoir échanger avec un utilisateur de Facebook depuis Linkedin alors que ces deux réseaux ne proposent pas les mêmes fonctionnalités ?

Ça semble impossible, mais en réalité la question n’est pas là, et il ne s’agit pas d’obliger tous ces services à adopter les mêmes standards. Il ne s’agit pas non plus de créer des concurrents à l’identique.

Ce dont il s’agit, c’est de les contraindre à ouvrir leur API [7], c’est-à-dire à donner accès de l’extérieur (et après authentification) aux données que nous y avons créées.

Car ce sont NOS données. Tout simplement.

Techniquement, ce n’est pas beaucoup plus complexe que le « Data Transfer Project » dans lequel les GAFAM sont déjà engagés. Ce projet est déjà basé sur des API spécifiques à chacun, même si celles-ci sont très limitées.

L’effet d’une telle ouverture ne serait pas immédiat. Même s’il existe déjà des services tiers qui gagneraient à une régulation de ce genre (les applications tierces pour l’accès à Twitter, comme Twidere ou Plume, retrouveraient les fonctionnalités qu’elles ont perdues quand Twitter a fermé certaines de ses API), il faudra du temps pour que naissent les nouveaux services qui pourront s’inventer.

Et ces nouveaux services n’auront de toute façon pas la puissance financière suffisante pour réellement concurrencer les géants : mais ce n’est pas le but. Le but c’est la décentralisation, pas la concurrence (même si c’est sans doute un des effets possibles). N’oublions pas, d’ailleurs [8] que certaines des plate-formes d’aujourd’hui se sont justement bâties grâce à ce modèle : Facebook a pu grandir en proposant un outil qui permettait à ses utilisateurs de garder le contact avec le géant MySpace du passé.

La possibilité d’un choix

Mais pour autant cet effet ne serait pas négligeable. L’algorithme de Twitter, aujourd’hui, propose par défaut de n’afficher que les messages qu’il considère comme « les plus importants » pour vous. Vous n’avez pas la possibilité d’en choisir un autre : tout ce que vous pouvez faire, c’est de n’effectuer aucun tri (ce qui dans le Web actuel est déjà beaucoup). Un client tiers pourrait, quant à lui, vous proposer un autre algorithme de tri, plus adapté à vos besoins. Par exemple. Et déjà, le danger d’une « bulle de tri » imposé par un algorithme s’éloigne.

Quand les conditions d’utilisation de Facebook ou Tumblr interdisent certains contenus, qu’ils considèrent comme pornographiques, vous pouvez bien sûr y adhérer. Mais vous pourrez aussi choisir un service tiers qui, tout en affichant les contenus que ces plate-formes acceptent, auront fait d’autres choix de modération et permettront d’autres contenus.

Et si à l’inverse vous trouvez que les discours de haine prennent trop de place sur tel ou tel réseau social, vous pourrez décider d’utiliser un autre service qui aura choisi, lui, de bannir les contenus trop agressifs. Et tout ceci sans avoir besoin d’une loi imposant à quelques géants technologiques de décider de ce qui est permis de dire en ligne ou non.

Il est impossible de deviner tout ce qui deviendra possible si une telle ouverture des données était imposée, mais on peut en imaginer quelques grandes lignes : tel service permettra d’afficher vos « timelines » Facebook, Twitter et Mastodon dans une seule application, tel autre de réunir la totalité de vos messageries. Les uns seront payants, les autres afficheront de la publicité. Certains défendront votre vie privée et d’autres non. Certains proposeront une sélection des contenus quand d’autres choisiront d’être exhaustifs…

Mais vous aurez le choix. Sans rien y perdre.

Ici, tout le monde gagne

Dans tous les cas, tous n’ont que peu à perdre dans un tel choix de société.

Les grandes plate-formes y perdront sans doute quelques utilisateurs, et un peu de la manne publicitaire, mais leur succès économique le leur permet très largement, d’autant plus qu’elles n’auront pas à changer quoi que ce soit à leur fonctionnement actuel. Pour un géant comme Facebook, il est même possible qu’une telle ouverture coûte moins que l’obligation légale de censurer certains contenus en fonction de législations nationales toutes différentes.

L’écosystème numérique, lui, a tout à y gagner. C’est précisément l’interopérabilité qui a créé l’Internet et permis le développement qu’on lui connaît.

Les États, sans doute, y perdront un peu de leur capacité à surveiller la quasi-totalité des échanges numériques, et, probablement, devront recourir à des moyens de surveillance plus ciblés pour garantir leur sécurité. Est-ce si grave que ça ? Ils auront, en échange, l’espoir de voir se créer dans leurs frontières les potentiels géants de demain. Ce n’est pas rien.

Le public, lui, y gagnera une plus grande liberté de choix, une démocratie un peu mieux garantie, une vie privée un peu plus respectée, et une liberté d’expression un peu moins limitée.

Alors que la France semble s’enfermer dans un rejet de toute mesure « jugée excessivement agressive pour le modèle économique des grandes plates-formes », il devient urgent de se mobiliser et d’exiger l’interopérabilité des services, comme nous avons défendu la neutralité des réseaux : ce sont les deux faces d’un même combat pour la liberté.

Notes

[1Le principe de bout en bout (en anglais : end-to-end principle) est un principe central de l’architecture du réseau Internet. Il énonce que « plutôt que d’installer l’intelligence au cœur du réseau, il faut la situer aux extrémités : les ordinateurs au sein du réseau n’ont à exécuter que les fonctions très simples qui sont nécessaires pour les applications les plus diverses, alors que les fonctions qui sont requises par certaines applications spécifiques seulement doivent être exécutées en bordure de réseau. Ainsi, la complexité et l’intelligence du réseau sont repoussées vers ses lisières. Des réseaux simples pour des applications intelligentes. » https://fr.wikipedia.org/wiki/Principe_de_bout_en_bout

[2En 2014, Facebook a par exemple racheté Whatsapp pour un montant de 19 milliards de dollars.

[3Règlement de censure antiterroriste européen, loi contre la haine en France, pour les exemples les plus récents d’une telle dérive.

[4Le dernier baromètre européen http://ec.europa.eu/commfrontoffice/publicopinion/index.cfm/survey/getsurveydetail/instruments/special/surveyky/2222 fait état de seulement 13% d’utilisateurs lisant les informations sur le traitement de leurs données personnelles.

[5Un silo de données est un ensemble de données maintenu sous le contrôle d’un service, et qui se trouve isolé du réseau à la manière d’un silo agricole qui isole le grain des éléments extérieurs. On parle également de « cloisonnement des données ».

[6Le graphe social d’un utilisateur est le réseau de ses connexions et de ses relations avec ses contacts.

[7« Application programming interface », c’est l’ensemble des fonctions qu’utilisent entre autres nos navigateurs pour dialoguer avec les applications côté serveur.