Tout acte de lecture est un jeu avec des structures de pouvoir – Entretien avec Peter Szendy

© LHB

Peter Szendy est l’un des théoriciens de la littérature les plus importants de notre époque. Nous l’avons rencontré à l’occasion de la parution de son ouvrage, Pouvoirs de la lecture. De Platon au livre électronique (La Découverte, 2022), dans lequel il étudie l’expérience de la lecture comme une scène, psychologique, sociale et politique complexe. Il se penche également sur les récentes transformations technologiques de cette expérience et notamment sur les implications anthropologiques de la croissance significative du marché du livre audio. Entretien réalisé par Simon Woillet.

LVSL – À l’heure où les technologies numériques bouleversent notre rapport aux savoirs, vous proposez de réinterroger l’expérience fondamentale de la lecture, dans une approche qui tente de faire droit aux zones d’ombres entre lecteur et texte. Vous déclarez, ce faisant, vouloir sortir de la vision de la lecture produite par les Lumières, où la relation au texte était principalement conçue selon vous sur le mode de la transparence en termes de transmission des connaissances. Pouvez-vous nous éclairer sur le sens de cette démarche ?

Peter Szendy – Il y a dans votre question deux marqueurs temporels importants : le passage au numérique d’une part et les Lumières d’autre part. Il ne s’agit pas pour moi de tenir ces balises chronologiques pour des frontières historiques intangibles. Au contraire, mon travail consiste à faire droit à ce que l’on pourrait appeler des hétérochronies, c’est-à-dire des temporalités différentes mais simultanées. Autrement dit, la relation des lecteurs d’aujourd’hui aux textes qu’ils lisent obéit à des régimes anciens en même temps que contemporains, des régimes qui peuvent coexister, s’hybrider ou s’affronter, ce qui implique une vision stratifiée des paradigmes historiques de l’expérience de la lecture.

J’essaie d’être attentif à la coexistence de vitesses contrastées, par exemple : qu’il s’agisse des vitesses propres aux systèmes de renvois internes à un texte (la consultation d’une note en fin d’ouvrage n’implique pas la même vitesse de renvoi qu’un lien hypertexte à cliquer) ou bien des vitesses de réception, de diffusion d’un ouvrage dans la texture de l’espace dit public (où la lecture qu’on a pu qualifier d’intensive, à savoir la rumination des mêmes textes, comme ce fut longtemps le cas de la Bible, coexiste avec la lecture dite extensive, celle des journaux, des nouvelles, des romans-feuilletons au XIXe siècle, des tweets ou autres notifications aujourd’hui…).

S’il y a donc des différences de vitesse dans la circulation des Lumières et dans leurs inscriptions sur papier ou sur écrans rétroéclairés, c’est aussi qu’il se crée des zones d’ombre, aujourd’hui comme au XVIIIe siècle. Non seulement parce qu’il y a de l’incompréhension, de l’inattention, disons, en un mot, de l’inéclairé qui résiste ou se reforme dans les plis de l’hétérochronie, mais aussi (j’imagine que nous y reviendrons) parce que tout acte de lecture implique de la violence, de la soumission, de l’irraisonné et de l’infondé. Il faudrait dire en outre, si l’on considère cette fois l’histoire matérielle des supports d’inscription des savoirs, que la propagation des « lumières » actuelles — les lasers, les systèmes de gravure et de décodage, les fibres optiques… — repose sur l’obscurité des tractations géopolitiques, du secret industriel et de la raison d’État ainsi que sur l’aveuglement face aux conséquences environnementales de ces technologies du visible ou du lisible.

LVSL – Vous proposez également une interprétation fascinante de notre rapport ambigu au livre audio.

PS – Je voulais d’abord faire un pas en arrière face à ce que l’on appelle un peu vite la crise de la lecture à l’ère numérique. Car le premier effort de réflexion devrait d’ores et déjà consister à ne pas tenir pour acquis que la lecture serait strictement cantonnée à un rapport silencieux à un texte écrit. Je ne suis bien évidemment pas le seul à le penser : beaucoup d’autres avant moi ont travaillé sur l’histoire de l’expérience de la lecture et sur les formes de résistance de l’oralité face au scriptural. C’est notamment ce qu’a pu développer Roger Chartier. Mais il reste que la puissance du paradigme scriptural continue de faire écran à une compréhension plus fine des voix intérieures de la lecture.

Toujours est-il que, en adoptant une perspective décentrée par rapport au seul support écrit, il me semble que l’on peut éviter d’en rester aux mêmes discours nostalgiques sur la perte du goût de la lecture ou la « mort du livre ». Qu’il suffise de penser à l’importance immense que revêt aujourd’hui le livre électronique (tant sur un plan économique qu’anthropologique). Il se présente sous deux formes : le livre numérisé lu sur écran, certes, mais également le livre audio, qui représente une part de marché toujours plus importante. « 9,9 millions d’audio-lecteurs en 2022 », pouvait-on lire dans un communiqué du Syndicat national de l’édition qui annonçait le lancement, en mai 2022, du « mois du livre audio », accompagné du slogan « lire ça s’écoute » (www.sne.fr/actu/parce-que-lire-ca-secoute).

Même si l’idée que lire peut consister à écouter un livre commence à faire son chemin, ce type de propos ne va pourtant pas de soi. Matthew Rubery, dans sa belle histoire du « livre parlant » (The Untold Story of the Talking Book), se fait l’écho d’une attitude fréquente : « écouter des livres », écrit-il, « est une des rares formes de lecture pour lesquelles les gens s’excusent ». Il met ainsi le doigt sur un malaise diffus mais sensible, révélateur en tout cas, dès lors qu’on applique le verbe « lire », voire un verbe d’action tout court, au fait d’écouter un livre audio. Il semble que l’on hésite à concevoir cette écoute comme un acte, car on ne sait pas très bien ce que l’on fait, au juste, avec ou face à un livre audio. Comme si écouter un livre n’était pas vraiment faire quelque chose, surtout lorsqu’on se consacre en même temps, comme c’est souvent le cas, à une activité parallèle (les courses, le ménage, la marche, la conduite…). Sans doute qu’une partie de cette drôle de honte ressentie à l’égard du format audio tient à la prétendue « passivité » de ce type d’expérience.

Quoi qu’il en soit, l’hésitation quant au statut de la lecture audio en tant qu’acte de lecture me semble révélatrice d’un changement de paradigme. Les failles du langage quotidien révèlent ici la tectonique des plaques en jeu dans les transformations anthropotechniques de la lecture. Il faut rouvrir le chantier de l’analyse de la lecture à l’aune de ces formes nouvelles.

LVSL – Selon vous, sommes-nous réellement sortis de ces représentations passives de la lecture oralisée ? Dans un chapitre de votre livre intitulé « l’anagnoste et l’archonte », vous convoquez les formes antiques de la lecture et les rôles sociaux liés à cette activité pour construire une grille d’interprétation des différentes « voix » qui cohabitent dans notre psychisme de lecteur. Pouvez-vous revenir sur ces concepts et ce qu’ils impliquent pour l’époque actuelle, notamment du point de vue des nouvelles formes de subordination de la lecture impliquée par les algorithmes de recommandation des contenus ?

PS – L’anagnoste, dans l’antiquité gréco-romaine, c’est l’esclave spécialisé dans la lecture à haute voix pour d’autres. C’est un rôle défini au sein d’une hiérarchie économique et politique précise, un rôle qui s’inscrit dans un réseau de relations aussi bien sociales que symboliques. Tout d’abord, l’anagnoste est bien évidemment une figure du dominé ou du subalterne — c’est un esclave —, mais qui est d’emblée complexe car il s’agit d’un travail auquel on associe une haute valeur symbolique. Son labeur ouvre la voie, facilite l’accès à la sphère idéalisée du sens.

Dans ses rares représentations ou apparitions (rares, car il est voué par essence à s’effacer devant le texte), l’anagnoste est une figure qui oscille de manière fascinante entre ces deux extrêmes que sont l’activité totale et la passivité totale. En effet, en lisant pour son maître, il est actif face à ce dernier, qui l’écoute passivement. Mais en même temps, l’anagnoste prête son corps et sa voix à un texte par lequel il se laisse traverser et littéralement posséder. Dans le lexique qui était celui de la pratique grecque de la lecture (comme l’a montré Jesper Svenbro dans sa remarquable Anthropologie de la lecture en Grèce ancienne), l’esclave lecteur, l’anagnoste peut être décrit à la fois comme l’« éraste », l’amant en position active, et l’« éromène », l’aimé en position passive. Il est actif en tant qu’il lit pour l’autre ; il est passif en tant qu’il est le simple relais du discours lu qui passe par lui.

LVSL – De ce point de vue, la figure de l’anagnoste vous semble-t-elle pertinente pour décrire notre propre situation vis-à-vis des algorithmes de recommandation de contenus sur les technologies numériques ? Puisque nous sommes autant producteurs des données qui les alimentent qu’esclaves des techniques de manipulation émotionnelle et attentionnelle qui constituent leur raison d’être économique ?

PS – C’est une idée intéressante. On pourrait déjà faire l’hypothèse que l’anagnoste antique se dilue ou se dissémine dans toute sorte de machines, de logiciels, d’algorithmes qui font ce travail de « faire exister » des textes en les lisant pour nous. L’exemple le plus évident serait la voix automatisée du GPS qui vous « lit » la carte de votre trajet, qui est l’anagnoste de votre itinéraire. Mais il existe aussi quantité d’applications pour la vocalisation des textes, à l’instar de Speechify ou NaturalReader, qui vous permettent de choisir le genre ou l’âge ou les caractéristiques ethniques de la voix lisante ainsi que sa vitesse de lecture.

Ceci dit, votre question nécessite que l’on considère la position de l’anagnoste au sein de la scène de lecture antique d’une manière à la fois plus précise et plus vaste. Car l’anagnoste n’est qu’une des voix ou qu’une des instances dans cette scène. Il y a également le texte lui-même, bien sûr, à savoir le texte lu par l’anagnoste lorsqu’il prête sa voix à celle de l’auteur. Il y a ensuite la place de l’auditeur, de celle ou celui qui écoute la lecture : j’ai proposé, pour désigner cette instance, le néologisme de lectaire, par analogie avec destinataire. Enfin, et c’est le plus important peut-être dans la perspective ouverte par votre question, il y a cette figure implicite et pourtant centrale qui peut, je crois, éclairer notre relation aux algorithmes de recommandation dans la lecture numérique : il s’agit de l’instance qui commande la lecture, à ne pas confondre avec le lectaire, car un personnage peut, comme on le voit par exemple dans certains dialogues de Platon, commander à l’anagnoste de lire à haute voix pour quelqu’un d’autre que lui-même, pour un tiers.

Avant d’en venir à cette antique instance prescriptive et à ce qu’elle pourrait bien nous dire sur les prescriptions de lecture actuelles, je voudrais souligner que la structure de la scène de lecture, telle qu’elle nous apparaît depuis son histoire lointaine et largement oubliée, est fondamentalement triangulée. Il est en effet impossible d’en dégager ou d’y identifier une relation simplement et purement duelle, à l’image de ce que nous avons fini par construire comme l’expérience par excellence de la lecture, à savoir le face-à-face du lecteur et du texte, l’immersion de celui-là dans celui-ci. Lorsque l’anagnoste s’entend commander de lire à haute voix pour un lectaire, c’est déjà une relation à trois, c’est déjà un réseau qui s’ébauche, une circulation réticulée plutôt qu’une absorption frontale, immédiate, transparente.

On pourrait donc faire l’hypothèse que la lecture a toujours été une affaire de « réseaux ». C’était le cas pour la lecture pratiquée par l’anagnoste antique, mais c’est également vrai lorsque c’est le phonographe qui « lit » des « livres parlants » ou lorsqu’on lit aujourd’hui des livres électroniques. L’une des premières idées de Thomas Edison, dans son texte intitulé The Phonograph and its Future(1878), était précisément que son invention servirait à enregistrer des textes pour que d’autres puissent les écouter. Le phonographe ainsi utilisé, c’est, si vous voulez, la mécanisation de la fonction de l’anagnoste, sa rationalisation technique et sa reproductibilité à une échelle industrielle.

Mais je reviens à votre question concernant les algorithmes de recommandation. Là où l’ordre de lire adressé à l’anagnoste avait la structure simple d’un impératif (« prends le livre et lis ! », disent l’un des personnages du prologue du Théétète de Platon à l’esclave lecteur), les modalités actuelles de la prescription, à l’ère du capitalisme numérique, impliquent des bouquets de données (ce que Gilles Deleuze, dans son « Post-scriptum sur les sociétés de contrôle », avait analysé comme la désagrégation de l’individu en flux dividuels). Cela modifie et l’injonction de lecture sur les réseaux sociaux et la signification même de l’acte de lire, qui se redouble d’un ensemble d’activités d’enregistrement et de formatage invisible de votre comportement, en temps réel et à votre insu. Sur Kindle par exemple, vous pensez être seul face à votre livre, mais en réalité vous êtes vous-même « lu », c’est-à-dire observé, et constitué en travailleur numérique inconscient par les technologies de ce type d’entreprises : vous êtes une série de points, un nœud de données (vitesse de lecture, types de contenus choisis, fréquence de la consultation de l’outil, passages relus…) dans un réseau plus vaste et dont la finalité est en général purement commerciale (l’ergonomie servant souvent à cacher ces formes de surveillance et de formatage autant qu’à les rendre possibles en renforçant la fluidité de l’expérience de l’utilisateur).

Je raconte dans Pouvoirs de la lecture une anecdote personnelle à ce propos. Me pensant bien assis chez moi, dans l’intimité d’une scène de lecture domestique idéalisée, je m’aperçois soudain, en touchant naïvement le texte à l’écran de ma tablette et en voyant s’afficher une petite case de commentaire, que je suis le nième utilisateur à souligner telle phrase précise. Une expérience comme celle-ci, que nous sommes tous susceptibles de faire, nous ramène brutalement à la puissance des technologies de prescription qui structurent désormais nos vies sans que nous en ayons suffisamment conscience.

Au début des années 1990, Bernard Stiegler avait initié un beau projet à la Bibliothèque nationale de France, qui consistait à produire des outils numériques de « lecture assistée par ordinateur » afin de matérialiser et de rendre transmissibles les traces laissées par les lecteurs dans leur élaboration du texte (je renvoie à son article intitulé « Machines à écrire, machines à penser », paru dans le n° 5 de la revue Genesis en 1994). Ce système d’annotations devait permettre de rendre visibles les gestes de lecture autrement invisibles au sein d’une sorte de communauté de lecteurs qui se formerait autour d’une œuvre. Et ce que montre ce type de démarche, c’est qu’il est possible de concevoir des régimes numériques de circulation de la lecture, des mises en réseau d’actes de lecture qui ne soient pas pensés uniquement dans la perspective d’une prescription marchande.

L’une des questions passionnantes que soulèvent les annotations des lecteurs, c’est sans doute celle de la singularité de l’acte de lecture. Une marque de lecture doit-elle ou peut-elle être signée, et si oui, comment ? Ce n’est pas le même type d’anonymat qui est en jeu dans l’impersonnalité machinique des algorithmes de recommandation de contenu, dans les commentaires de lecteurs identifiés par des pseudonymes sur les plateformes de vente en ligne ou dans les griffonnages dus à d’autres lecteurs inconnus que l’on rencontre en feuilletant un ouvrage emprunté à une bibliothèque. L’anonymat des modes de prescription propres au capitalisme numérique tend à être celui, statistique, du nivellement, de l’homogénéisation des singularités. Mais l’anonymat d’une trace de lecture, ce peut être aussi ce qui ouvre la possibilité de l’accident, la chance de l’imprévu.

LVSL- Vous parlez de « phonoscène » intérieure de la lecture notamment pour désigner les développements que vous venez de nous présenter et vous suggérez qu’il faut se pencher sur les relations entre les parties prenantes implicites de toute « scène de lecture ». Vous montrez dans votre livre et comme nous venons de le voir qu’il existe toujours une instance que l’on peut appeler « l’impératif de lecture ».

PS – En effet, cette instance impérative fait partie intégrante de toute scène de lecture, c’est-à-dire de tout acte de lecture. Mais elle est susceptible d’être configurée et appropriée — sur le plan psychique, social et technologique — de manière extrêmement différente selon les contextes et les époques historiques. Il semble n’y avoir rien de commun entre, par exemple, l’enfant qui exige qu’on lui lise une histoire et l’injonction implicite de lecture qui se loge dans la nécessité de cocher la case « lu et aprouvé » des « conditions générales d’utilisation ». Mais il y va, dans l’une comme l’autre de ces situations de lecture, d’une certaine configuration de l’impératif dont nous parlons. Il arrive aussi que cette instance impérative ou prescriptive (« lis ! ») soit détachée, présentée pour elle-même, pour ainsi dire sur le devant de la scène de lecture. Pensons au cas de La philosophie dans le boudoir de Sade, que j’analyse dans Pouvoirs de la lecture : l’impératif de lecture vient se loger sur la couverture du livre, sous la forme d’une sorte d’exergue (« la mère en prescrira la lecture à sa fille »).

Si l’impératif de lecture fait donc partie intégrante de toute scène de lecture, c’est parce que lire implique toujours quelque chose qui est de l’ordre de la soumission. Une soumission à déjouer, à contester, à refouler, mais implicitement à l’œuvre, avec laquelle il faut compter. Pas de lecture sans soumission du lecteur à l’ordre (typographique, syntactique, argumentatif, rhétorique, narratif…) du texte. Ce qui ne veut pas dire, loin de là, que la lecture se réduit à cette passivité. Les lecteurs ne cessent de subvertir l’autorité de cet ordre, consciemment ou inconsciemment, volontairement ou non. Qu’on pense à l’attention flottante, aux formes variées de l’interprétation, érudite ou spontanée, des textes : le lecteur est en permanence dans une relation équivoque, tendue, avec le tissu des « micropouvoirs » dont est constitué tout ordre textuel. On pourrait dire, en reprenant ce mot proposé par Deleuze et Guattari, que tout acte de lecture est un acte « micropolitique ». Autrement dit : la lecture rejoue en miniature, sur un mode micrologique, des rapports de pouvoir que l’on retrouve ailleurs, sur d’autres scènes, sociales, politiques… Tout acte de lecture est un tel jeu avec des structures de pouvoir. C’est ce qui fait de la lecture un espace intrinsèquement politique (bien au-delà du fait que tel ou tel texte puisse proposer ou non des idées ou des thèmes explicitement identifiés comme politiques).

LVSL – Pouvez-vous revenir sur votre analyse magistrale du Léviathan de Hobbes et la relation entre politique et lecture dans ce texte fondamental ?

PS – Comme nous l’évoquions à l’instant, tout acte de lecture est à la fois un acte de soumission et d’affrontement, de contestation et d’assimilation critique des règles du pouvoir. En ce qui concerne le Léviathan de Hobbes, on est face à un moment-clé de l’histoire de la philosophie politique, bien sûr, mais également face à un moment-clé dans l’histoire des discours sur la lecture, des réflexions sur la performativité, l’efficacité des dispositifs de lecture. Il y a, dans ce texte, une sorte de correspondance entre, d’une part, le dispositif micropolitique des prescriptions adressées au lecteur (le Léviathan est en effet ponctué de conseils, explicites ou implicites, sur la manière de lire ce livre qu’il est) et, d’autre part, le dispositif macropolitique de l’État moderne tel qu’il est élaboré théoriquement au fil de l’ouvrage. Ces deux niveaux s’articulent en permanence et de manière souvent paradoxale. Le lecteur est ainsi appelé à devenir une sorte de souverain pour s’assimiler pleinement le sens du texte, en même temps qu’il est incité explicitement par Hobbes à se soumettre au dispositif de lecture. Hobbes construit une sorte de machine textuelle qui identifie les opérations de lecture et les opérations du bon gouvernement. La souveraineté politique et la souveraineté du lecteur sont superposées ou repliées l’une sur l’autre tout au long du texte.

Les conseils de lecture qui ponctuent le Léviathan sont parfois explicites, par exemple quand Hobbes recommande à son lecteur de ne pas faire comme ces oiseaux qui perdent la mémoire de l’entrée dans la pièce où ils sont dès lors bloqués et condamnés à virevolter (une belle métaphore pour l’inattention du lecteur distrait ou vagabond dans sa lecture). Mais certaines prescriptions de lecture du Léviathan restent implicites, sans être moins efficaces pour autant, au contraire. C’est le cas lorsque Hobbes performe l’acte de lecture pour le lecteur, en employant par exemple des expressions apparemment anodines mais en réalité puissamment configurantes telles que « en somme », ou encore en proposant au lecteur des résumés de ce qui a été lu. C’est ainsi que s’établit, que s’impose un dispositif de lecture cumulative, une lecture additive. À savoir un régime de lecture (entendez ce mot de « régime » à la fois dans son sens mécanique ou moteur et dans son sens politique) qui en exclut beaucoup d’autres possibles.

Cette petite machine de lecture, implicite et explicite, explose toutefois lorsque Hobbes conclut sur deux prescriptions contradictoires, enjoignant simultanément le lecteur à opérer une somme intégrale de tout ce qui a été préalablement énoncé et à contester chaque aspect. Car, dit-il sans réaliser pleinement les conséquences de ce qu’il dit, c’est en objectant que l’on peut renforcer sa conviction de la nécessité des arguments et de leur ordre précis d’énonciation. Ce moment, ce point de lecture aux exigences contradictoire est fascinant, car on y voit le code des prescriptions se déconstruire lui-même et faire signe vers son caractère impossible ou aporétique.

LVSL – Vous proposez également une interprétation philosophique du passage du volumen au codex puis du codex à l’écran, pouvez-vous revenir là-dessus. On parle fréquemment de l’infinite scrolling, est-ce un nouveau temps de lecture ?

PS – C’est une question que pose Giorgio Agamben dans « Du livre à l’écran » (l’un de ses textes recueillis dans Le Feu et le récit). Il oppose, d’une part, un temps circulaire et continu qui serait propre au volumen, c’est-à-dire à la forme enroulée d’un rouleau de papyrus ou de parchemin, et, d’autre part, un temps linéaire qui serait celui du codex, c’est-à-dire le cahier paginé, voire indexé, donc discontinu. L’écran paraît conjuguer ces deux propriétés opposées. D’une part, le scrolling se présente comme un déroulement potentiellement infini, même s’il est en réalité bel et bien bordé, limité par des caractéristiques matérielles et spatio-temporelles (il ne saurait y avoir de page infinie car tout stockage est par essence fini). Mais d’autre part, l’hypertexte sur écran se compose d’innombrables renvois sous forme de liens qui sont autant d’indexations, autant de discontinuités, autant de « paginations », si l’on veut, interrompant la continuité du déroulement. Bref, à l’écran, le codex devient volumen et le volumen devient codex.

On est donc face à un déroulement en forme de flux, certes, mais infiniment accidenté, discrétisé ou discrétisable. Cette discrétisation fluide ou cette fluidité discrète de l’espace de lecture relève de ce que Deleuze et Guattari, reprenant une distinction proposée par Pierre Boulez, appelaient le « temps lisse » (ici : celui de la lecture continue) et le « temps strié » (ici : celui de la lecture discontinue, ponctuée par des renvois référentiels). Ces temporalités contrastées se replient sans cesse l’une sur l’autre dans notre expérience contemporaine de la lecture numérique. Et ce faisant, elles invitent à instituer, mais aussi et aussitôt à destituer, de nouveaux dispositifs de lecture-pouvoir constitués par des injonctions — souvent invisibles pour les lecteurs — qui se trament entre ces divers registres, entre ces strates que sont le texte lu, le sous-texte de son encodage ainsi que le formatage inhérent aux supports logiciels et matériels qui les portent.

Plus que jamais, l’acte de lecture, à l’ère du numérique, est tramé, transi de micropouvoirs.

Antonio Casilli : « La menace d’un grand remplacement par les robots est une manière d’assurer la discipline »

© Malena Reali pour LVSL

Le récent engouement autour de ChatGPT a de nouveau ravivé l’éternel débat sur la fin à venir du travail humain, remplacé par des intelligences artificielles et des robots. Pour le sociologue Antonio Casilli, auteur de En attendant les robots : Enquête sur le travail du clic (Seuil, 2019), ces annonces relèvent surtout d’un discours téléologique vénérant excessivement le progrès et de slogans marketing. Ayant étudié finement le fonctionnement concret de ces outils digitaux, il montre combien ceux-ci s’appuient sur du travail humain, généralement gratuit ou très mal rémunéré et reconnu. Plus qu’une disparition du travail, nous devons selon lui craindre, une plus grande précarisation et atomisation de celui-ci.

LVSL : Les médias spéculent régulièrement sur une fin à venir, sans cesse repoussée, du travail humain. Par exemple, en relayant l’étude The future of employment: how susceptible are jobs to computerization qui voudrait que 47% des emplois soient susceptibles d’être automatisés. Comme le titre de votre ouvrage semble l’indiquer (En attendant les robots), vous ne partagez pas cette analyse. Pourquoi ?

A. Casilli : Pour commencer, le titre n’est pas de moi. Ce n’était censé être à la base qu’un des chapitres de cet ouvrage, en l’occurrence le dernier. Cette référence renvoie à deux ouvrages majeurs : d’une part la poésie de Kavafys « En attendant les barbares » et de l’autre la pièce de Beckett « En attendant Godot », deux œuvres majeures du XXe siècle dans lesquelles on évoque une menace qui n’arrive jamais. Il s’agit d’une présence transcendante expliquant l’ambiguïté qui demeure aujourd’hui sur ce type d’automatisation qu’on attend tantôt avec impatience, tantôt avec crainte, mais qui finit toujours par être repoussée.

Moi-même, dans ma jeunesse j’ai eu droit aux vagues de rhétorique sur la fin du travail, à travers notamment l’ouvrage « La fin du travail » de Jeremy Rifkin (1995), qui annonçait la même chose que l’étude de Frey et Osborne dans « The future of employment ». Le message revenait à dire que l’automatisation anticipée allait être telle qu’un nombre important d’emplois disparaitrait sous peu, selon une logique de substitution. Mais si l’on avait face à nous une personne qui aurait vécu par exemple depuis le début du XIXe siècle, elle aurait pu témoigner de rhétoriques et de prophéties comparables parce qu’il n’a pas fallu attendre les intelligences artificielles pour se retrouver face ce type d’annonces.

Ce type de communication s’adresse avant tout aux investisseurs, dotés de ressources matérielles et d’un imaginaire constamment sollicité. L’investisseur est une personne qui doit, comme disait Keynes, se soumettre aux esprits animaux, se démarquer et les suivre dans une espèce de quête chamanique. De l’autre côté, ce discours s’adresse aussi à une force de travail qui a besoin d’être disciplinée. Dans ce contexte-là, la menace d’un grand remplacement par les robots est une manière d’assurer la discipline en les ramenant à une condition purement machinique, à un travail sans qualité, sans talent, sans compétences. C’est donc une manière de déprécier ce travail et de démontrer son inutilité alors qu’il s’agit bien d’un travail nécessaire.

« La menace d’un grand remplacement par les robots est une manière d’assurer la discipline ».

C’est en me concentrant sur ce travail vivant nécessaire qui nourrit la nouvelle vague d’innovation qui émerge avec les intelligences artificielles au début du XXIe siècle, en montrant « l’essentialité » (c’est-à-dire le fait qu’ils requièrent du travail humain, ndlr) de ces métiers de la donnée, que je m’efforce de montrer que l’innovation n’est pas forcément destructrice de travail. Plutôt elle déstructure l’emploi – ou en tous cas la version formalisée et protégée du travail, qui cesse alors d’être un travail encadré selon des principes établis par de grandes institutions internationales comme l’OIT. Ces avancées technologiques rendent le travail de plus en plus informel, précaire, sujet à un ensemble de variabilité et de fluctuations qui répondent autant au marché classique qu’à un nouveau type de marché, celui des plateformes, qui ont leurs propres fluctuations, dues à des logiques moins économiques qu’algorithmiques.

LVSL : Dans ce que vous évoquez justement de déstructuration du travail, en parlant de « travail numérique » nous désignons souvent les travailleurs ubérisés soumis au capitalisme de plateforme, mais vous rappelez aussi dans votre livre qu’il existe d’autres types de « travailleurs du clic ». Lesquels ?

A. Casilli : Ce que je cherche à faire dans cet ouvrage, c’est prendre comme point de départ le travail de plateforme visible qui concerne les métiers de la logistique, des passeports, des mobilités en général. Cela concerne parfois les métiers des services personnels comme ceux du « care » qui soignent des personnes ou s’occupent de tâches domestiques, etc. Tout cela fait partie de la première famille de métiers qu’on qualifie parfois d’« ubérisés ». C’est un terme qu’un industrialiste français, Maurice Levy, a choisi et que l’on a imposé à tout, en « brandisant » c’est-à-dire en attribuant une marque à un phénomène social.

Mais je m’efforce de dire : « Regardons aussi ailleurs ». Le travail plateformisé visible, les nouveaux métiers du clic ou de l’algorithme ne sont que la partie émergée de l’iceberg. Tout le reste est composé de travailleurs qui sont sous la surface de l’automatisation. Il existe deux grandes familles sur lesquelles se concentre la partie centrale de cet ouvrage : d’une part le nombre vraiment important de personnes qui, partout dans le monde, préparent, vérifient et parfois imitent les intelligences artificielles – ce sont les annotateurs de données, les personnes qui génèrent des informations pour entraîner les algorithmes ou pour conduire l’intelligence artificielle.

Dans la continuité de cela, il y a un travail de moins en moins vu, connu, reconnu et payé, tellement informel qu’il devient presque un travail de bénévole voire d’utilisateurs-amateurs, comme chacun et chacune d’entre nous l’est à un moment ou à un autre de sa vie et de sa journée. Par exemple le fait de se servir d’un moteur de recherche en améliorant la qualité des résultats, comme cela arrive à chaque fois qu’on utilise Google, ou de s’insurger contre une intelligence artificielle comme ChatGPT en améliorant par la même occasion la qualité de ses réponses. Il y a donc une continuité entre les personnes qui ne sont pas payées pour réaliser du clic, pour réaliser de l’amélioration de contenu et de service algorithmique, et les travailleurs du clic des pays émergents ou à faible revenu, généralement payés 0,001 centime la tâche. Sur le papier, la différence est vraiment minuscule mais c’est important de la souligner.

« Afin de rendre les travailleurs interchangeables, il faut faire en sorte que l’activité humaine soit standardisée et réduite à son minimum, son unité minimale est alors le clic. »

© Marielisa Ramirez

LVSL : Pour reprendre les termes que vous utilisez dans le livre, vous distinguez trois formes de « travail digital ». Le travail des petites mains du numérique, c’est-à-dire le travail à la demande (prestation de petites interventions comme Uber, Deliveroo, etc.) ; le micro-travail qui fournit le soutien aux algorithmes par des tâches standardisées de mise en relation de données et le travail social en réseau qui est la participation des usagers à la production de valeur. Dans la droite lignée du taylorisme, ces nouvelles tâches témoignent-elles d’une nouvelle organisation du travail qui n’est pas aboli par le numérique mais simplement fractionné et décentralisé à un degré supérieur ?

A. Casilli : Oui, vous avez bien résumé les trois familles de travail, mais on peut encore faire un effort supplémentaire pour caractériser cette activité dont on parle. Pour qualifier ce « travail numérique », on peut aussi bien employer deux autres adjectifs. C’est un travail qui est « datafié » et « tâcheronisé ». « Datafié » signifie qu’il produit de la donnée et qu’il est lui-même produit par la donnée. « Tâcheronisé » c’est-à-dire atomisé, segmenté en petites tâches. Afin de rendre les travailleurs interchangeables, il faut faire en sorte que l’activité humaine soit standardisée et réduite à son minimum, son unité minimale est alors le clic.

Sommes-nous là face à une continuation du taylorisme ? La réponse est un peu compliquée dans la mesure où le taylorisme, tel qu’on le connaît historiquement, était synthétiquement dû à la gestion scientifique et non à la gestion algorithmique. Il y a une différence importante entre ces deux conceptions parce que la définition de Taylor était celle d’un travail sur plan, avec un cahier des charges pour des personnes intermédiaires puis des exécutants et des ouvriers. Il y avait une chaîne hiérarchique et une manière d’organiser ce travail par des échéances précises : chaque semaine, chaque jour, chaque mois, chaque année. Il s’agissait donc d’un travail de plan tandis que le travail de plateformes qui sert à produire ces intelligences artificielles est un travail à flux tendu. Cela signifie que les manières d’associer un exécutant et une tâche passe plutôt par un modèle mathématique qu’est l’algorithme qui apparie un être humain et un contenu (ex : quel chauffeur va s’occuper de quelle course). Dans la mesure où cette logique est différente, elle bouleverse également l’équilibre politique auquel le taylorisme avait conduit, que l’on résume parfois par l’économie du fordisme-taylorisme qui repose sur une production de masse, qui, à son tour, produit des marchés de consommation de masse.

Là, on est face à une organisation plus compliquée et à des micro-marchés, des marchés de niche qui sont réalisés ad hoc, créés par l’algorithme même. Pour terminer, le type de protection sociale qui allait de pair avec le fordisme-taylorisme a été complètement abandonné pour la raison qu’on ne se trouve pas dans une situation dans laquelle il faut assurer un salaire stable afin que ces employés puissent se permettre de consommer la production même de leur propre usine ou de leur entreprise. Aujourd’hui, ce n’est pas à Uber de s’occuper de donner suffisamment d’argent à une personne pour qu’elle puisse s’offrir des produits ou des services Uber. Il y a effectivement une séparation totale entre ces deux aspects, ce qui débouche sur un travail beaucoup moins protégé, qui offre beaucoup moins de certitudes quant à son existence même et à son activité, donc à sa rémunération. En outre, cela génère moins de protection sociale du point de vue de l’assurance, de la carrière, de la formation, de la retraite, et ainsi de suite. Tout ce qui faisait l’équilibre sociopolitique dans la deuxième moitié du XXe siècle – du moins dans les pays du Nord – est aujourd’hui laissé de côté et les plateformes qui produisent l’intelligence artificielle et qui se basent sur ce concept de « digital labour » sont finalement la réalisation et l’achèvement ultime de l’idéal néolibéral du chacun pour soi et du travail pour personne.

« Moi j’ai jamais rencontré les gens avec lesquels je travaille et encore moins les gens pour lesquels je travaille parce que, tout simplement, je me connecte sur un site et je coche des cases »

LVSL : Vous évoquez dans votre livre des tâches comme l’incorporation de données dans les IA, le tri des doublons, la mise en lien de recommandations, etc. Il s’agit d’un travail qui ne met pas directement en jeu les forces du travailleur mais plutôt des qualités cognitives comme la faculté de discernement, de jugement ou encore de discrimination. En outre, nous avons affaire à des personnes qui sont individualisées du simple fait qu’il s’agisse d’un travail qui s’effectue la plupart du temps seul, face à un écran. Par conséquent, face à la fois à ce changement de lieu de travail, à cette atomisation du travail et au fait que les facultés qui sont mobilisées sont d’ordre cognitives, est-ce pour vous le signe d’un nouveau prolétariat de type cognitif ou digital ?

A. Casilli : Je dirais qu’il y a clairement la formation d’une nouvelle subjectivité politique, qu’on peut appeler « nouveau prolétariat ». À la fin du livre, je fais d’ailleurs tout un effort pour étudier dans quelle mesure on peut parler de classe mais ma réponse est assez dubitative. Pour l’instant, j’insiste beaucoup sur le fait que la nouveauté présentée, par exemple par le microtravail plateformisé, c’est-à-dire des personnes qui se connectent sur des applications spécialisées où elles réalisent des micro-tâches rémunérées à la pièce, est un cas de freelancing extrême, parce qu’extrêmement fragmenté. Selon des estimations de nos collègues d’Oxford à peine en moyenne deux dollars par heure ; même si par ailleurs ils n’ont pas un contrat horaire mais sont payés à la pièce.

Vous ne travaillez plus par projet, même s’il demeure certaines caractéristiques du freelancing qui s’est imposé depuis l’arrivée du télétravail dans les années 90. Il s’agit alors d’un aboutissement, d’une version poussée à l’extrême de cette tendance. Il subsiste toutefois un autre élément important qui nous permet de complexifier ce qu’on peut dire aujourd’hui à propos de ce microtravail. Je le caractérise comme un travail en solitaire, où les personnes travaillent chacune depuis [leur] foyer, et nous avons par ailleurs réalisé avec France Télévisions un documentaire nommé Invisibles dans lequel nous avons interviewé des microtravailleuses. La première chose qu’une d’entre elles nous a dite est : « Moi j’ai jamais rencontré les gens avec lesquels je travaille et encore moins les gens pour lesquels je travaille parce que, tout simplement, je me connecte sur un site et je coche des cases ».

Quelle est l’autre caractéristique de ce freelancing extrême ? Et bien, c’est tout simplement que le travail se déplace vers les pays dans lesquels la main d’œuvre est moins chère. Comme les rémunérations sont à la baisse et que cela se transforme en une espèce de foire d’empoigne, les pays dans lesquels on rencontre un nombre plus important de microtravailleurs ne sont pas forcément les pays du Nord mais ceux de l’hémisphère Sud. On a beaucoup parlé de la Chine et de l’Inde mais ce sont des cas complexes dans lesquels vous avez autant de grandes startups qui font de la valeur ajoutée que des microtravailleurs. Il y a aussi des pays qui sont dans des situations d’extraction néocoloniale poussées à l’extrême.

Les pays sur lesquels nous avons travaillé avec mon équipe de recherche DiPLab sont des pays d’Afrique francophones et des pays d’Amérique latine. Dans les deux dernières années et dans la foulée de cet ouvrage, nous avons réalisé plusieurs milliers d’entretiens et de questionnaires avec des travailleurs dans des pays comme Madagascar, l’Égypte, le Venezuela, le Mexique, la Colombie et le Brésil. Dans ce dernier cas, on rencontre souvent de véritables fermes à clics responsables des faux followers sur Instagram ou des visionnages YouTube ou TikTok. C’est une manière de tricher avec les algorithmes bien qu’il s’agisse du bas de la pyramide, et ces personnes peuvent travailler depuis chez elles. Dans d’autres contextes par contre, à Madagascar ou en Égypte, de gros marchés de l’offshoring (externalisation ndlr) se sont créés. Là-bas, les microtravailleurs ne travaillent pas depuis chez eux, mais depuis des structures variées : certains travaillent depuis chez eux, certains depuis un cybercafé, d’autres vont taxer le wifi de l’université et certains ont de véritables bureaux avec des open spaces plus ou moins structurés. Il y a donc des situations très différentes, avec parfois des petits jeunes de banlieue d’Antananarivo qui organisaient une espèce d’usine à clics avec d’autres copains du quartier et d’autres personnes qui utilisaient une maison avec 120 personnes, vingt dans chaque pièce, réalisant des microtravaux. Cette atomisation semble donc concerner principalement les pays à plus hauts revenus. Dans les pays à plus faibles revenus, les formes de travail du clic sont très variées, du bureau classique à la plateforme.

LVSL : Cette diversité des travailleurs du clic semble assez symptomatique d’un milieu du numérique qui serait encore relativement une zone de non-droit du travail dans la mesure où il s’agit d’un domaine relativement récent et décentralisé. Le travail y est mal reconnu, souvent ingrat, organisé de manière nébuleuse, etc. Est-ce en raison de ce flou que le capitalisme y prospère ou est-ce que ce flou est lui-même un produit de la dérégulation capitaliste ?

A. Casilli : La question de la dérégulation a une longue histoire, c’est la doctrine du laisser-faire du XVIIe siècle dont la doctrine capitaliste hérite. Elle concerne principalement le fait d’enlever un nombre important de dépenses, de cotisations et d’impôts qui pèsent sur les entreprises et ensuite de laisser ces entreprises faire des profits et les redistribuer à leurs investisseurs. Ici, le problème se pose en termes très classiques selon la différence en économie politique entre profits et salaires. Grosso modo, cette dérégulation s’est soldée par un déplacement important de ressources qui faisaient partie des salaires, ce qu’on appelle le « wage share », la part des salaires vers les profits. Toute la rhétorique actuelle sur les superprofits porte aussi sur cela ; la montée en flèche lors des dernières décennies, des profits et des dividendes pour les investisseurs et les chefs d’entreprise. A contrario, on a vu une diminution drastique du salaire réel, du pouvoir d’achat et en général de la masse salariale. Pour réduire cette masse salariale, soit on vire des personnes – mais on ne peut pas virer tout le monde –, soit on remplace des personnes bien payées par des personnes moins bien payées. De cette manière-là, à parité des effectifs et de quantité de travail, on se retrouve à payer moins pour la masse salariale.

« On n’a pas vu une diminution drastique du travail en termes de temps de travail mais plutôt une diminution drastique du travail payé et une augmentation du travail non payé. Là est la base de cette économie des plateformes. »

Ce que je m’efforce de montrer, avec d’autres, c’est qu’on n’a pas vu une diminution drastique du travail en termes de temps de travail mais plutôt une diminution drastique du travail payé et une augmentation du travail non payé. Là est la base de cette économie des plateformes qui crée une concurrence entre les travailleurs pour revoir à la baisse leur rémunération, parce que l’algorithme va favoriser celui qui va réaliser la même tâche à un prix moindre, comme on le voit avec les livreurs express. C’est vrai notamment depuis le Covid, avec un nombre important de nouveaux inscrits sur ces plateformes et une baisse drastique des rémunérations en plus d’une réaction interne de conflictualité syndicale. La même chose se passe évidemment aussi sur les plateformes dites « de contenu », qui se disent « gratuites » mais ne le sont pas vraiment : parfois il faut payer pour y être et souvent elles payent les personnes qui sont actives d’une manière ou d’une autre. Le cas classique est celui de la monétisation des contenus qui est devenue un geste désormais banal pour pouvoir exister sur certaines plateformes comme Instagram, TikTok ou YouTube et y avoir une présence véritable. Cela signifie que l’on a une coexistence dans les mêmes espaces d’un travail non rémunéré, d’un travail faiblement rémunéré, d’un travail micro-rémunéré et tout ça crée une baisse progressive de la masse salariale pour une équivalence voire une augmentation de la production en termes de contenu, d’informations, de service, etc.

LVSL : Pour vous, la dérégulation est donc le produit de la structure et de son fonctionnement, elle n’est pas seulement le terreau dans lequel elle s’épanouit même si de fait elle crée un terrain qui est propice à sa propre perpétuation.

A. Casilli : Tout à fait. Si on regarde du côté des entreprises, on remarque qu’elles tendent à favoriser de plus en plus la redistribution de dividendes importants plutôt que le réinvestissement pour créer de nouvelles ressources, etc. Si l’on regarde ensuite comment les entreprises fonctionnent, on a des surprises qui sont parfois amères : durant nos recherches sur le travail de plateforme, on s’est rendu compte du chaos qui domine au niveau de la gestion de cette force de travail dans la mesure où les plateformes ne reconnaissent pas que ces microtravailleurs effectuent des tâches importantes pour la production de valeur de l’entreprise et donc ne les encadrent pas. Il n’y a donc pas de « ressources humaines ». Ce sont par exemple le responsable des achats ou les ingénieurs qui s’occupent d’organiser le pipeline pour la mise en place du machine learning.

Or, ce ne sont pas des personnes formées pour gérer des êtres humains donc ils engendrent des désastres parce qu’ils ne savent pas entendre les problématiques, ils ne comprennent pas que ces personnes-là sont habituées à une certaine protection de leur travail, en connaissance de leurs droits, ce qui est tout à fait normal. On a donc une forte conflictualité dans ces entreprises qui ne sont pas capables de gérer la transition vers la plateformisation totale.

Mobilisation des livreurs © Marion Beauvalet
Mobilisation de livreurs Deliveroo
© Marion Beauvalet

LVSL : Toutefois, il n’y a pas que les travailleurs du clic rémunérés : dans notre présence virtuelle, nous fournissons régulièrement des matériaux à des systèmes dits « collaboratifs » (cookies, avis, évaluations, etc.) qui mettent en place des systèmes de gratification affective (ce que vous appelez des « produsagers », contraction de « producteur » et « usager »). Le fonctionnement des plateformes numériques abolit-il la séparation entre travail et loisir ?

A. Casilli : C’est un peu plus complexe que cela car c’est comme si les plateformes cherchaient constamment à monter au maximum le volume tant du travail que du plaisir. L’exemple récent qui me vient à l’esprit, c’est ChatGPT. ChatGPT est une intelligence artificielle qui n’a rien d’extraordinaire sauf qu’elle fait bien semblant d’entendre et de répondre à des questions. C’est un système assez classique qu’on appelle « question answering » comme modèle de machine learning, mais entouré d’une espèce d’aura de grande innovation, voire de révolution. Cela oblige tout un tas de personnes à se connecter à ChatGPT, à interagir avec elle et par la même occasion à l’améliorer, puisque chaque réponse négative ou à côté de la plaque de ChatGPT est systématiquement dénoncée par la personne qui la reçoit, ce qui améliore l’IA.

« Tout ça n’est une opération de marketing de OpenIA, qui est arrivée à créer un engouement lui offrant une main d’œuvre non rémunérée massive pour tester ChatpGPT. »

Il y a là une espèce de joie perverse de jouer à ce jeu, de se faire mener un bateau par un système qui est seulement dominé par une logique de marketing. Tout ça, en effet, n’est qu’une opération de marketing de OpenIA, qui est arrivée à créer un engouement lui offrant une main d’œuvre non rémunérée massive pour tester ChatpGPT.

La dimension de travail se comprend bien si on voit la continuité entre les utilisateurs lambda et non rémunérés de ChatGPT et de l’autre côté les personnes qui sont dans le back office de ChatGPT : un mois et quelques après le lancement de cette intelligence artificielle, on a découvert que ça fait des années qu’OpenIA recrute systématiquement des microtravailleurs kenyans payés 1$ de l’heure pour sélectionner les réponses, taguer des contenus etc. À côté de cela, puisque ChatGPT est aussi un outil utilisé pour produire du code informatique, il y a eu un recrutement de personnes qui sont des tâcherons du code pendant l’année 2020. Ces tâcherons du code devaient produire des bouts de code, débuguer des codes alors qu’elles n’avaient parfois pas une compétence informatique très élevée. C’étaient parfois des petits étudiants en première année ou des personnes qui savaient à peine reconnaître que dans cette ligne de code il y avait une parenthèse qui ouvrait mais il n’y en avait pas qui fermait et c’était suffisant pour débuguer la ligne. Il y a un continuum entre ces tâcherons du clic et nous-mêmes, qui fait bien de ChatGPT avant tout une entreprise de travail humain vivant. J’aurais pu dire la même chose du moteur de recherche de Google mais il est là depuis un quart de siècle donc c’est un peu moins d’actualité.

LVSL : Avec cet entrelacs du producteur à l’usager qui s’est formé, l’outil numérique ne semble plus être une extension de la main de l’homme. Le travail humain tend au contraire à devenir une extension de l’outil. Identifiez-vous le travail digital comme une nouvelle forme d’aliénation double car le travailleur n’est plus seulement soumis à la machine (comme c’est déjà le cas depuis le taylorisme) mais disparaît derrière elle parce que l’aliénation ne concerne plus seulement le travailleur mais aussi le « produsager » qui n’est même pas reconnu comme travailleur ?

A. Casilli : Pour résumer, les deux types d’aliénation dont vous parlez sont une aliénation de la visibilité et une aliénation du statut pour faire court. La question de la visibilité est un problème important mais en même temps c’est aussi un problème qui nous permet d’identifier où est le nœud problématique. Ça fait longtemps qu’en sciences sociales, on s’occupe de reconnaître des formes de travail non visibles : on l’appelle shadow work, ghost work, virtual work, etc., chaque auteur a sa propre définition. Moi j’ai cherché à mon tour à parler de ce travail non ostensible, « unconspicuous labor », qui est une manière de jouer sur la notion de consommation ostentatoire. C’est une manière de dire que si notre consommation se fait visible, on s’affiche en train de consommer, on ne s’affiche pas en train de produire et on a presque honte de ce qu’on produit quand on le produit. C’est pour ça que nous-mêmes nous adhérons à la rhétorique du « C’est pas un travail, c’est un plaisir : je ne suis pas un journaliste précaire, je suis un blogueur », « Je ne suis pas une animatrice télé qui ne trouve pas d’emploi, je suis une influenceuse Twitch ».

C’est une [façon] de se raconter d’une manière ou d’une autre que la précarité est moins grave que ce qu’elle est. Il ne faut pas sous-estimer le côté aliénant de cela, surtout un terme de désencastrement des individus de leur réseau de solidarité et d’amitié qui est normalement assuré par les activités de travail formel. Je ne veux pas dire que la vie avec les collègues est un paradis, mais que le travail formel crée un cadre qui permet de situer un individu au sein d’un réseau de relations. Ce qui devient beaucoup moins simple à faire pour le travail du clic. Il y a un vaste débat dans ma discipline sur l’encastrement ou le désencastrement social des travailleurs des plateformes, qui porte sur cette confusion énorme qui existe entre le côté productif et le côté reproductif des plateformes. Le côté productif, on le voit à chaque fois qu’on nous demande de produire une donnée, mais parfois cette injonction est là pour stimuler notre plaisir, nos attitudes, nos désirs, nos envies de se mettre en valeur, de se mettre en visibilité, et ainsi de suite. Cela peut se transformer en loisir, dans une activité sociale, et qui est alors plutôt du côté de la reproduction. Là c’est effectivement une aliénation qui renforce cette confusion.

De cela découle directement la deuxième aliénation qui est l’aliénation de statut, c’est-à-dire la difficulté à obtenir un statut de travailleur de la reproduction sociale. Mais ce n’est pas impossible : regardons par exemple les combats féministes, qui ont fait en sorte que tout un tas d’activités auparavant considérées comme purement reproductives soit inscrites dans la sphère du travail socialement reconnu, avec des rémunérations et des protections sociales : le travail domestique, le travail de care, etc. Toutefois, cette rupture de l’aliénation n’arrive pas de manière spontanée, par simple progression du capitalisme vers des formes plus douces et sociales-démocrates, mais cela arrive au fil et au bout des luttes sociales.

LVSL : Puisque votre ouvrage critique une conception téléologique du progrès technologique où l’on avance vers la fin du travail, comment envisagez-vous l’avenir du travail numérique, surtout avec l’explosion récente des plateformes d’intelligence artificielle ?

A. Casilli : Pour ma part je pense qu’il faut se méfier des effets d’annonce médiatiques. Je suis assez bien placé pour savoir comment la fabrique médiatique de ces phénomènes sociotechnologiques est structurée à coups de communiqués de presse d’entreprises qui produisent un nouveau service, une nouvelle application, une nouvelle intelligence artificielle et de rédactions de journaux ou de presse qui, pour chercher à produire du contenu, cèdent au plaisir de se faire porte-voix de ce type d’allégations.

Je ne pense pas qu’il y ait une explosion de l’intelligence artificielle. Au contraire, je remarque que l’intelligence artificielle rame, qu’il y a des échecs de l’intelligence artificielle, il y a des domaines de l’intelligence artificielle qui se sont cassé la gueule, par exemple l’intelligence artificielle des machine learnings non supervisés dont on annonce toujours des trucs merveilleux qui n’arrivent jamais. Ou alors on a des effets de mode durant quelques temps, comme la blockchain récemment, qui est sujette à des échecs répétés tous les quelques mois. Je ne suis pas technophobe, mais plutôt dans une forme de scepticisme qui permet de voir l’innovation là où elle est vraiment. Or, l’innovation n’est pas dans l’intelligence artificielle, qui ne fait pas de progrès par pas de géants.

« Certains métiers du clic se sont aussi imposés comme des métiers essentiels, par exemple la livraison ou la modération de contenus. »

En revanche il y a eu des chocs exogènes, par exemple le Covid, la crise sanitaire, la crise économique et la crise géopolitique qui ont suivi. Ces enchaînements de catastrophes ont fait en sorte que le marché du travail de 2023 soit assez différent par rapport aux marchés du travail des années précédentes : en 2019, le nombre de personnes employées formellement était supérieur à toutes les époques précédentes de l’humanité, ce qui est évident parce qu’il y a aussi un nombre plus important d’êtres humains. Avec le Covid, on a eu d’abord un moment d’arrêt généralisé des échanges internationaux et parfois des croissances importantes de certains pays en termes de performances industrielles et d’autre part on a vu aussi ce prétendu « triomphe du télétravail », qui ne s’est pas soldé dans une espèce de dématérialisation de toutes les activités mais qui nous a aidés à identifier certaines activités qu’on appelle aujourd’hui « essentielles » (logistique, commerce, agroalimentaire, santé…).

Mais certains métiers du clic se sont aussi imposés comme des métiers essentiels, par exemple la livraison ou la modération de contenus, tous des travailleurs qui ont été classifiés comme « essentiels » par de grandes entreprises telles que Facebook et YouTube comme prioritaires pour revenir au travail en présentiel, alors que les autres ont été tranquillement mis au télétravail pendant deux ans et demi, avant d’être licenciés. C’est quelque chose d’important car on peut difficilement se passer du travail de modération, qui est d’ailleurs difficile à faire à distance, parce qu’il est difficile de modérer des vidéos de décapitation quand derrière vous il y a vos enfants qui jouent, ou de regarder des contenus vraiment problématiques, violents, déplacés alors qu’on passe à table. À moyen terme, je ne vois pas ce travail disparaître, je le vois devenir de plus en plus central, mais malheureusement je ne le vois pas non plus devenir plus digne et reconnu pour autant.

« Les microtravailleurs ne sortent pas dans la rue mais on les voit beaucoup dans les tribunaux, lors d’actions de recours collectif ou d’actions pour la reconnaissance de leur travail. »

C’est là le nœud conflictuel des prochaines années, celui de la reconnaissance de ces travailleurs. Plusieurs signes indiquent qu’on est face à de nouveaux conflits sociaux au niveau international, car on commence à avoir une structuration précise et cohérente des travailleurs et de nouvelles luttes sociales émergent. On voit notamment apparaître beaucoup de revendications qui passent par les cours de justice. Les microtravailleurs ne sortent pas dans la rue mais on les voit beaucoup dans les tribunaux, lors d’actions de recours collectif ou d’actions pour la reconnaissance de leur travail. Au Brésil, on a eu une victoire importante contre une plateforme de microtravail qui a été obligée de requalifier comme « salariés » quelques milliers de travailleurs.

LVSL : Au fondement de toutes ces activités, les algorithmes reposent essentiellement sur une approche positiviste du monde où tout est classable, identifiable et mesurable. En mettant en lumière le travail des tâcherons du numérique qui trient et jugent en support des algorithmes, ne révélez-vous pas l’insuffisance de cette vision positiviste ?

A. Casilli : J’ai, si l’on veut, une approche un peu plus « irrationnaliste » du tissu social. Je pense que la mise en données est une entreprise qui a une longue histoire : elle puise ses racines dans le positivisme historique à la fin du XVIIIe siècle, début XIXe, au niveau de la création d’une attitude positiviste et en même temps des ancêtres de ce qu’on appelle aujourd’hui les intelligences artificielles. Dans le nouveau livre sur lequel je travaille, je m’intéresse aux origines du travail du clic, par exemple le fait qu’en France et dans d’autres pays d’Europe, on avait créé à cette époque des ateliers de calcul dans lesquels des centaines de personnes, souvent pas des mathématiciens du tout, des personnes qui avaient d’autres formations (des ouvriers, des instituteurs ou institutrices souvent), qui calculaient un peu tout : des tables trigonométriques pour le cadastre de Paris, les positions du Soleil pour l’observatoire de Greenwich, etc. On pourrait l’interpréter comme une mise en chiffres du réel, mais celle-ci est d’un type particulier car il ne s’agit pas seulement d’une quantification faite par le biais des grandes institutions statistiques étatiques : recensements, mesures, etc. Ce ne sont pas des géomètres ou des statisticiens qui ont opéré cette mise en donnée du monde, ce sont souvent des personnes dont on n’a pas conservé le nom ou les coordonnées, qui ont calculé pendant des années et des années des entités mathématiques qui ont été nécessaires pour créer un type particulier de machines, par exemple les machines à calculer ou pour observer certains phénomènes astronomiques, des machines balistiques pour l’armement, etc. Ce fut un grand élan de mise en données qui ne fut pas seulement de la quantification, mais une manière de créer de la connaissance précalculée qui est ensuite utilisée pour produire des machines qui calculent.

C’est le même principe que celui des intelligences artificielles d’aujourd’hui. ChatGPT s’appelle « GPT » parce que le « P » signifie « pretrained », tout ce que la machine sait faire a été précalculé par des êtres humains. On voit là réapparaître ce type de positivisme un peu particulier parce que ce n’est pas un positivisme de grands idéaux, de grands systèmes, mais un positivisme de la microdonnée, de la microtâche, du microtravail, quelque chose de beaucoup plus terre à terre et de beaucoup plus intéressé à un résultat économique assez immédiat. Si l’on veut, malgré les grands discours de colonisation de l’espace et de réforme de l’esprit humain par certains milliardaires de la Silicon Valley, on est en face de personnes qui cherchent à gratter un peu d’argent pour arriver à la fin du mois, même du côté des milliardaires.

De quoi les data centers sont-ils le nom ?

© Rosa Menkman

Depuis quelques années, le système énergétique français est bouleversé par l’arrivée massive et sans précédents des opérateurs privés du numérique, qui transforment l’espace, les réseaux énergétiques et les consommations. C’est à ce « continuum électrico-numérique » que Fanny Lopez s’intéresse dans son dernier ouvrage À bout de flux (Éditions divergences, octobre 2022). L’historienne de l’architecture et des techniques revient sur le développement de ces infrastructures numériques, à la fois omniprésentes et invisibles, et sur les risques liés à leur insertion dans les télécommunications et infrastructures énergétiques nationales.

Ces données qui modifient le territoire

Moins visibles que les autres infrastructures de télécommunication, les centres de données, enjeu de stockage industriel et de traitement des données, sont le signe du déploiement sans précédent des infrastructures numériques. Fanny Lopez, auteure d’un rapport pour l’Ademe intitulé « L’impact énergétique et spatial des infrastructures numériques » (2019) revient dans son dernier ouvrage, sur leur insertion à la fois territoriale et énergétique dans les réseaux des télécommunications.

À bout de flux, Fanny Lopez ((Divergences, octobre 2022)

Accompagnant les besoins nouveaux des citoyens, mais surtout des entreprises, le nombre et la superficie des centres de données a explosé en quelques années, reconfigurant les territoires. La réduction du prix des câbles – les coûts ayant été divisés par dix pour une capacité multipliée par 50 en vingt ans – a en effet conduit à l’hyper-concentration de ces centres de données et au développement monofonctionnel des territoires, un phénomène que la maîtresse de conférence qualifie d’« effet magnet ». L’étude Data Gravity de l’Université de Berkeley[1] montre ainsi que les données échangées par les 2000 plus grandes entreprises mondiales s’accumulent autour de 50 villes dans le monde. En France, RTE prévoit une multiplication par trois de la consommation des centres de données à l’horizon 2050[2].

Spatialement, cette hyper-concentration se traduit par l’émergence de grandes banlieues autour des grands hubs mondiaux, à l’instar de Ashburn en Virginie, au Nord de Washington qui compte 270 centres de données consommant 2000 MG soit l’équivalent de 200 centrales nucléaires.  Économiquement, le développement de ces « zones numériques monofonctionnelles » est corrélé à une tendance à la monopolisation croissante des acteurs. En 2019, Microsoft comptait 115 partenaires de centres de données, et 20 en 2022.  

Éclairer la matérialité du grand système technique électrique 

Ce renforcement économique et spatial de l’hyperconcentration des données incite Fanny Lopez à produire une déconstruction méthodique des présupposés idéologiques et technologiques qui guident ces processus historiques. L’objectif de l’auteure est de mettre en lumière les conséquences spatiales, environnementales, urbanistiques des « grands systèmes électriques » et les enjeux et perspectives inhérents à ces infrastructures, à l’heure où elles doivent être renouvelées. Selon l’auteur « Éclairer la matérialité du grand système électrique, c’est tenter de recomposer une intelligibilité technique. S’intéresser à la transmission et à la distribution, c’est revenir sur la forme et l’échelle des mailles du réseau et donc questionner les fondamentaux de l’urbanisme des flux : rapport centre-périphérie, production-consommation, densité-étalement, phénomènes de métropolitisation et de hubs ». En d’autres termes, la considération des effets de ces infrastructures invite mécaniquement à une réflexion critique sur l’imaginaire qui sous-tend ce qu’elle nomme « le productivisme des flux ». 

« Avec la digitalisation, les infrastructures numériques et électriques tendent à se confondre dans un continuum électrico-numérique » 

L’électricité a permis l’essor des télécommunications, en assurant la mobilité de toutes les machines. Mais c’est avec l’arrivée de l’informatique couplée aux possibilités permises par l’électricité qu’on assiste à une convergence des machines, et à une fusion de celles-ci dans le cadre d’un système d’interconnexion croissant. Dans la continuité de la pensée du philosophe Günther Anders, Fanny Lopez revient sur cette nouvelle « ontologie des appareils », avec l’idée que le développement sans limite de ces machines fait de l’homme un prolongement de celles-ci et non l’inverse. Ainsi, l’électricité couplée à l’outil numérique forme une « méga-machine » (Günther Anders). Du fait de l’interconnexion de celles-ci, les machines s’autorégulent et précèdent l’intervention humaine. Les échanges « d’individus à machine » (échanges de mails, envoi de données par smartphone, etc.) ne représentent que 20 % des flux de données, tandis que 80 % de la création de données est produite par les entreprises. 

 « Il n’y a pas de problèmes de production d’électricité en France »

Contrairement à l’opinion courante selon laquelle la numérisation des activités économiques et administratives permettrait d’alléger la facture énergétique de la planète, on constate au contraire que   les infrastructures numériques sur lesquelles reposent les services numériques pèsent de plus en plus lourd sur nos infrastructures électriques et, partant, sur notre consommation énergétique globale. En effet, les grands opérateurs privés très énergivores se rattachent au réseau de distribution ou de transport électrique selon l’importance de leur consommation pour leur usage quotidien, tout en s’assurant une production électrique de secours au besoin. Les centres de données disposent de générateurs de secours pour leurs besoins propres, en cas de panne sur le réseau électrique. Ainsi constate-t-on avec la digitalisation à la fois la hausse de la consommation de l’électricité et une redondance infrastructurelle, alors même que les opérateurs publics n’ont pas de leviers d’action vis-à-vis de cette demande croissante. 

D’un côté, les limites de notre modèle énergétique semblent évidentes. À l’heure actuelle, les réacteurs nucléaires vieillissent, l’EPR de Flamanville ne fonctionne toujours pas. De l’autre, tous les grands scénarios énergétiques présentées par RTE à l’horizon 2050 prévoient l’augmentation de la production d’électricité en lien avec l’électrification des usages. À l’occasion de la présentation des scénarii « Futurs énergétiques 2050 », les dirigeants de RTE insistaient en outre sur la nécessité de restructurer les réseaux à court terme, en s’appuyant sur les outils numériques pour optimiser le réseau électrique. L’idée étant que le numérique assure une utilisation plus flexible de l’électricité, notamment avec les « smart grid » et l’Intelligence artificielle. Pour Fanny Lopez, cela revient à dire qu’« avec la digitalisation, les infrastructures numériques et électriques tendent à se confondre dans un continuum électrico-numérique ». 

« L’hégémonie technicienne repose sur la croissance et le renforcement du grand système électricité comme unique perspective »

Les investissements économiques importants déployés pour soutenir ce modèle de grand système technique centralisé hérité du début du siècle semblent pourtant de plus en plus incompatibles avec les différentes limites planétaires. L’amélioration de l’efficacité énergétique ne garantit pas à l’heure actuelle des effets équivalents en termes des émissions de gaz à effet de serre à ceux qu’auraient des modifications structurelles des modes de productions qui les conditionnent et les déterminent. Notre modèle de production énergétique reste adossé à la production massive de données, encouragée par des acteurs privés et conduit à l’explosion de ces data centers qui transforment nos territoires. Ainsi, « l’hégémonie technicienne repose sur la croissance et le renforcement du grand système électricité comme unique perspective ».

Tandis que le débat public énergétique tourne généralement autour des sources d’énergie et dudit « mix énergétique » sans jamais porter sur les infrastructures en elles-mêmes, Fanny Lopez soutient que « sortir de ce cycle infernal, c’est assumer une discussion sur la transformation de toute la structure du réseau, depuis la production jusqu’à la distribution ».  

De la privatisation croissante des infrastructures

La crise de notre système électrique et énergétique actuel met en évidence les limites de notre modèle, et invite à prendre pleinement la mesure de la déstabilisation des territoires par l’arrivée massive des opérateurs numériques privés : « Alors que les politiques urbaines et les politiques publiques ont fait de la ville connectée, autrement appelé smart city, un objet de prospective urbaine, la réalisation de l’infrastructure reste aux mains d’une industrie privée poussée par la fièvre connectique et les parts de marché associées au grands projet de l’interconnexion des machines dont le nombre, la consommation électrique et le poids environnemental ne pourront se perpétuer, alors même que le cercle de la logique technologique du capitalisme tardif rend la technique de plus en plus étrangère aux besoins fondamentaux ». 

Le déploiement des infrastructures numériques se réalise aujourd’hui sous l’emprise d’entreprises privées. Or, comme le montre l’auteur, l’ampleur des infrastructures des télécommunications a été rendue possible par d’importants investissements publics. Dans le secteur des télécommunications, l’inflexion libérale a été particulièrement manifeste malgré l’invisibilité de ces infrastructures qui nous empêche de prendre la mesure de l’évolution du déploiement de celles-ci.

Or la dynamique actuelle des infrastructures du numérique se révèle de plus en plus incompatible avec les missions remplies par les infrastructures des services publics, compris au sens large comme un « objet socio-technique dont l’usage partagé est réglementé dans une perspective d’accessibilité et de respect de l’environnement » (p. 33). En effet, les infrastructures numériques captent l’énergie des infrastructures publiques selon le principe de la file d’attente qui prévoit que le premier arrivé est le premier servi sans hiérarchisation ni priorisation des usages. En outre, la consommation électrique et numérique est favorisée, dans le cadre de ce que Günther Anders appelle la « mégamachine » susmentionnée, sans qu’une optimisation des usages ne soient envisagée à l’aune des impératifs climatiques. Pour ces raisons, Fanny Lopez estime ainsi que « les réseaux numériques se développent dans un « âge post-service public ».

 « Changer de société, c’est changer d’infrastructure » (Castoriadis)

À l’heure où nous avons de nombreux débats publics autour des sources d’énergie et d’électricité, peut-être devrions nous réfléchir aux systèmes mêmes de nos infrastructures, caractérisées par leur interconnexion pour repenser des reconfigurations structurelles. C’est en tout cas ce à quoi ce livre nous invite. 

À la fin de l’ouvrage, Fanny Lopez propose ainsi des pistes de réflexion pour penser une alternative à notre modèle actuel de réflexion sur les infrastructures. Contre l’idée selon laquelle remettre en question notre modèle imposerait d’en passer par des positions technophobe ou réactionnaire, l’auteure avance des éléments de résolution pour reconsidérer notre technostructure électrique. Ce qui suppose d’éviter deux écueils. Le champ de cette réflexion est en effet selon elle considérablement limité, du fait de deux conceptions antinomiques de la technologie. L’imaginaire technique est soit cantonné à l’ « hégémonie culturelle libérale » très techno-solutionniste, soit restreint à l’« imaginaire effrondiste ».

À rebours de ces conceptions réductrices, il faudrait selon elle réinvestir l’imaginaire des machines, pour nourrir l’idéal d’un réseau efficace et garant d’une égale distribution des services sur l’ensemble du territoire. Pour ce faire, elle invite à considérer deux échelles de gouvernance, nationale et communale : « Parvenir à re-utopiser la grande échelle infrastructurelle tout en tenant la technique proche serait un défi de l’hypothèse redirectionniste ». Cette dialectique du proche et de la grande échelle invite ainsi à penser des infrastructures « habitables », proches des besoins et soucieuses de prévenir les risques environnementaux. 

Guillaume Pitron : « Le numérique n’a pas été conçu pour être vert »

© Bastien Mazouyer pour LVSL

Guillaume Pitron consacre son dernier livre L’enfer numérique : voyage au bout d’un like (Les liens qui libèrent, 2021) à déconstruire le mythe de la pseudo-immatérialité du numérique. Data centers polluants, câbles sous-marins tentaculaires, métaux rares extraits au mépris des normes environnementales… les fondements matériels de l’industrie digitale sont peu apparents mais cruciaux pour comprendre son fonctionnement. Le coût écologique des GAFAM commence ainsi tout juste à être pris en compte. Face aux critiques émises les géants du numérique, ceux-ci se livrent à une savante opération de greenwashing. Entretien réalisé par Pierre-Louis Poyau.

Le Vent Se Lève – À la lecture de votre ouvrage, la dématérialisation de l’économie, tant vantée depuis des années, semble relever de l’illusion la plus totale. Comment se fait-il que l’avènement des technologies digitales se traduise au contraire par une consommation croissante de ressources ?

Guillaume Pitron – Les technologies digitales sont faites de matières premières. Au vu de leur complexité, elles nécessitent toujours plus de matière première, dans une grande variété, aux propriétés chimiques peu communes. Je prends l’exemple d’un téléphone portable : aujourd’hui, il contient entre 50 et 60 matières premières, contre une dizaine pour un téléphone des années 1960 et 30 pour un téléphone des années 1990. On observe donc une inflation de l’usage de matière premières. Parce qu’un téléphone aujourd’hui, ça ne sert pas qu’à téléphoner. Il sert à rencontrer l’âme sœur, commander une pizza, prendre une photo, se géolocaliser, etc. L’inflation des ressources s’explique par la multiplicité des usages permis par les les technologies numériques.

Par ailleurs, ces technologies sont extrêmement puissantes. Un téléphone aujourd’hui contient sous sa coque plus de puissance que l’ensemble des outils informatiques qui ont permis d’envoyer l’homme sur la lune. Pour parvenir à une telle performance, il faut toujours plus de métaux aux propriétés extraordinaires, qu’on appelle souvent les métaux rares. Ils sont dilués dans l’écorce terrestre, leur raffinage est particulièrement complexe et il faut mobiliser beaucoup de ressources : électricité, produits chimiques, etc. La dématérialisation est donc une multi-matérialisation, puisqu’il faut toujours plus de ressources pour parvenir à fabriquer les technologies numériques. Les avancées technologiques que nous connaissons se traduisent par une utilisation toujours plus variée de tous les éléments de la table de Mendeleïev. La marche de la dématérialisation est en réalité une grande marche historique vers toujours plus de matérialisation. Ce discours de la dématérialisation vient se fracasser sur cette réalité.

NDLR : Pour une synthèse sur les métaux rares, lire sur LVSL l’article de Nathan Dérédec « Métaux rares : l’empire global de la Chine »

LVSL – Les années qui viennent devraient voir la multiplication non seulement d’objets mais également d’êtres vivants connectés. Vous évoquez ainsi l’exemple d’un père recevant sur son téléphone des alertes lorsque le taux de sucre dans le sang de sa fille diabétique devient trop élevé. C’est ce que vous qualifiez d’« internet du tout ». Ce n’est pas sans rappeler un épisode de la série télévisée technocritique Black Mirror, qui met en scène une mère espionnant les faits et gestes de sa fille grâce à une puce intégrée. Est-ce aujourd’hui la science fiction qui nous permet de penser de la manière la plus pertinente l’avenir du numérique ?

G. P. – Je pense que la science fiction excite les imaginaires. Qui a envoyé l’homme sur la lune sinon Hergé ? Il y a toujours, à l’amorce d’une révolution technologique, un imaginaire créé notamment par la littérature. La science fiction permet de se projeter dans un univers plus ou moins réaliste. À propos de Black Mirror, on pourrait presque parler d’anticipation : à certains égards, on est déjà dans la réalité. Entre la puce sous la peau et le téléphone à la disposition du père pour sa fille diabétique, nous sommes dans des phénomènes très proches. D’une certaine manière, ce n’est plus la science fiction qui rejoint la réalité mais la réalité qui rejoint la science fiction.

Permettez-moi un pas de côté. Pour enquêter, je me figurais parfois des scénarios possibles, en me demandant s’ils pouvaient être réalistes. Prenons l’exemple du chapitre 8 sur la finance passive. Je me suis d’abord demandé si l’usage, dans le monde de la finance, d’un nombre de plus en plus important de machines paramétrées pour prendre des décisions pouvait aboutir à des conséquences environnementales non prévues. Et c’est le cas, la finance passive est plus gourmande en énergies fossiles, notamment en charbon, que la finance active. En partant du résultat pour arriver à la cause, on a réalisé que ça existait réellement. Dans la méthode et l’enquête, il faut parfois être dans l’anticipation.

LVSL – Le terme d’agnotologie, inventé dans les années 1990 par l’historien des sciences Robert N. Proctor, désigne l’étude de la production du doute ou de l’ignorance. Il a été utilisé par les historiens travaillant sur la façon dont les pollutions industrielles ont été occultées par le patronat et les pouvoirs publics au cours du XIXe siècle. Assiste-t-on aujourd’hui à un phénomène similaire avec les pollutions numériques ? Vous évoquez le rôle des premiers théoriciens d’internet, des publicitaires et des designers

G. P. – Je pense que le numérique n’a pas été conçu pour être « vert » ou pour régler un quelconque problème environnemental. À mon sens il n’y pas non plus, au départ, de greenwashing ou d’intention de cacher quoi que ce soit. Cette tentative de relier internet aux questions environnementales est venue après. Je pense qu’elle est apparue très récemment, il y a moins d’une dizaine d’années, dans un contexte de prise de conscience de la gravité de la crise climatique. C’est à ce moment que l’industrie du numérique commence à faire du greenwashing, à établir cette connexion entre numérique et environnement. C’est à partir de là qu’on commence à entendre ce discours du numérique qui va sauver la planète. On l’a encore entendu lors de la COP26, c’était très prégnant. Ces discours sont apparus parce qu’il y a un enjeu de réputation à la clé. Ils sont à mon avis fallacieux. Il ne s’agit même plus de fabrique du doute ou de l’ignorance, c’est la fabrique d’une réalité alternative. L’industrie n’a pas dit « on ne sait pas », elle a affirmé, chiffres précis à l’appui, que le numérique permettait une réduction des émissions de CO2, qu’il allait sauver la planète, etc. L’industrie a été capable de prendre tôt le sujet à bras le corps et d’imposer son narratif. Il s’agit aujourd’hui de le déconstruire pour en proposer un autre.

LVSL – Peut-on vraiment parier sur une auto-régulation des multinationales du numérique ou sur une régulation fondée sur les mécanismes du marché ? Vous évoquez l’échec des crédits d’énergie verte, qui ne sont pas sans faire écho au marché carbone issu du protocole de Kyoto en 2005.

G. P. – Il y a aujourd’hui une pression de plus en plus forte qui pèse sur les entreprises du numérique, sur leur action climatique. D’abord au sein même de ces entreprises : chez Google et Amazon, des pétitions circulent pour demander la diminution des émissions. De l’extérieur surtout. Historiquement, la critique a été portée par Greenpeace, qui est aujourd’hui moins active sur ce sujet. Mais d’autres ONG prennent le relais et font pression, il y a un enjeu de réputation. Les entreprises essaient donc de verdir leur mix électrique, leur approvisionnement d’électricité. L’une des premières réponses à apporter, pour les entreprises, consiste à pouvoir dire qu’elles consomment moins de charbon. Ces entreprises sont d’ailleurs très actives : les GAFAM ont un mix électrique infiniment plus vert que la moyenne mondiale.

Pour autant, il y a des tour de passe-passe comptables, notamment ces crédits d’énergie verte qui sont une escroquerie intellectuelle, pour reprendre les mots de Philippe Luce que j’interroge dans le livre. Une entreprise produit de l’électricité verte et vend cette production, d’un point de vue strictement comptable, à une autre entreprise qui lui achète à un coût fixe. Les sommes versées doivent être réinvesties dans le déploiement des énergies vertes. Cela permet à Netflix de prétendre que son mix électrique est 100% vert, ce qui n’est absolument pas le cas : Netflix dépend, pour son stockage d’informations, d’Amazon Web Service, qui n’est pas une entreprise propre sur ce plan là. C’est doublement fallacieux : d’une part l’entreprise prétend être verte alors qu’elle ne l’est pas, d’autre part ce mécanisme ne permet pas générer suffisamment de fonds pour pouvoir réellement accélérer le déploiement des énergies vertes. C’est évidemment discutable de penser que le marché pourra régler ces problèmes par lui-même, la puissance publique doit toujours plus s’en mêler pour pouvoir assainir tout cela.

LVSL – Plusieurs mesures pourraient selon vous êtres mises en place par la puissance publique : l’établissement de forfaits dont le prix serait fonction des données consommées, etc. Le salut vient-il de la régulation étatique ?

G. P. – Je pense qu’il doit évidemment venir de la régulation étatique. Se pose aujourd’hui la question d’un interdit, ou tout du moins d’une limite à la consommation de certains produits numériques. Une baisse concrète de la pollution générée par internet passe nécessairement par une consommation moindre. Or nous n’en prenons absolument pas le chemin. Néanmoins, s’il faut relever quelques actions prises par les États, ce qui me frappe est la tentative de régulation des plateformes de réseaux sociaux. Aux États-Unis, en Australie, en Europe, en Chine, toutes sortes de mesures législatives sont prises pour mieux encadrer les réseaux sociaux, notamment l’accès des jeunes à ces réseaux. En l’occurrence l’État n’intervient pas pour des raisons écologiques mais au nom de la protection des mineurs. Mais cela montre que seule la loi est en mesure de mettre des barrières. On ne pourra pas faire sans, mais il faudra également qu’émergent de nouveaux modes de consommation. Le consommateur est totalement désensibilisé aux pollutions générées par le numérique, notamment parce qu’il consomme des services qui n’ont pas de prix. L’idée d’établir des forfaits dont le prix serait fonction des données consommées permettrait de remettre de la modération dont la consommation. Or c’est un outil de marché. Je ne pense pas qu’il faille nécessairement opposer régulation étatique, outil de marché et responsabilisation du consommateur, c’est un tout.

LVSL – Vous évoquez la confiance de certains industriels dans des avancées technologiques qui permettraient à un internet plus « vert » de voir le jour. Ainsi des progrès de la physique quantique, qui pourraient permettre de réduire la taille d’un data center à celle d’un livre. Ce n’est pas sans faire écho, en ce qui concerne le réchauffement climatique, aux espoirs placés par certains dans la géo-ingénierie. Pensez-vous que tout cela soit crédible ?

G. P. – Il faut en effet constater que pas un jour ne passe sans qu’on nous annonce l’avènement d’une nouvelle technologie censée permettre une gestion plus efficiente de l’information, un stockage plus efficace, etc. Ce serait une sorte de cercle vertueux, la bonne technologie venant corriger les effets néfastes de la technologie dont on s’est rendu compte après-coup des défauts. Il s’agit effectivement d’un véritable solutionnisme technologique.

Il y a un problème de concordance des temps dans le débat qui oppose les critiques et ceux qui soutiennent ces technologies. Le critique regarde ce qu’il se passe aujourd’hui quand le technologue regarde ce qu’il se passe demain. Quand on fait le constat d’un problème à un instant T, en 2021, souvent la réponse du technologue consiste à dire : « Pourquoi vous vous intéressez à cette question là puisque le futur lui a déjà donné tort, puisque les technologies futures vont régler le problème ? ». Personnellement, j’ai eu l’occasion de faire un débat sur BFM business avec un monsieur charmant qui s’appelle David Lacombled, dirigeant du think tank La villa numeris. Quand je pointais un problème, il ne niait pas la réalité de ce dernier mais sa manière de répondre consistait à opposer à la réalité un futur certain, qui donnerait tort à mon présent. A propos des data centers, il était ainsi convaincu que de nouvelles technologies permettraient bientôt de stocker de manière plus efficiente. C’est un procédé rhétorique qui me fascine. C’est pour moi de la réalité alternative, on ne regarde plus le présent. C’est extrêmement dangereux dans le débat. Si on applique cela à tous les débats, on ne parle plus du présent. Le futur, c’est quand ? Dans deux ans, dans cinq ans, dans vingt ans ? On nous avait promis le cloud il y a trois décennies, on se retrouve avec 3,5 millions de data centers sur terre. Cet optimisme qui convoque sans cesse le futur me paraît très dangereux.

LVSLVous évoquez l’importante consommation d’énergies fossiles, croissante, nécessaire au fonctionnement des infrastructures dont dépend Internet. De même, vous faîtes par exemple la liste de la cinquantaine de métaux rares nécessaires à la fabrication d’un smartphone. Le coup d’arrêt à l’expansion des TIC et du numérique ne pourrait-il pas tout simplement venir de l’épuisement des ressources ? Le pic du pétrole conventionnel aurait ainsi été atteint en 2008, or moins de pétrole, cela veut dire globalement moins de matières premières dépendantes de flux logistiques rapides et à longue portée : terres rares, cobalt, etc.

G. P. – En réalité, les métaux rares ne sont pas rares. Ce sont des métaux dilués mais pas nécessairement rares. Le cobalt, le graphite, on en trouve dans des quantités colossales sur terre et au fond des océans. La consommation de ces matières premières explose. L’Agence internationale de l’énergie a publié un rapport en mai 2021 selon lequel les seuls besoin de la transition énergétique exigeront, en 2040, quarante fois plus de lithium qu’en 2020. Le lithium est également nécessaire au fonctionnement des batteries de téléphone portable, la hausse de la consommation est donc indéniable.

Il y a d’abord la question des ressources : il y en a assez. Ensuite il y a les réserves, c’est-à-dire les stocks connus exploitables compte tenu des technologies d’extraction que l’on maîtrise actuellement et du prix du marché (il faut que cela soit rentable). Il y a nécessairement moins de réserves que de ressources : un stock de cobalt peut ne pas être exploitable de façon rentable ou être trop profond pour que la technologie actuelle en permette l’extraction. On constate par exemple qu’il n’y aurait pas assez de réserves de cobalt par rapport au besoin, il y a donc déjà de premiers signes d’alerte, sur le cuivre également. Pour autant, les technologies évoluent, le coût des matières premières est susceptible d’augmenter, etc. Il est difficile de donner une date précise d’épuisement de ces ressources. La question la plus intéressante est donc la suivante : à quel coût va-t-on extraire ces matières premières ? Théoriquement on peut le faire, mais il va falloir creuser plus profondément, y-compris au fond des océans : il va donc y avoir un coût écologique, un coût économique, un coût en matière de consommation d’énergie et donc un coût social. L’opposition des populations est de plus en plus forte : le Nicaragua a interdit l’extraction minière sur son territoire ; le Pérou de Pedro Castillo veut reconsidérer un certain nombre de projets miniers, qui doivent profiter à la population péruvienne ; en Patagonie, l’entreprise Barrick Gold a du abandonner un projet d’extraction de minerais à Pascua Lama parce que les Diagitas s’opposaient à la fonte des glaciers sous lesquels se trouvaient le métal. Il en va de même pour la mine de Peble en Alaska : les Américains ont suspendu l’extraction car elle risquait d’avoir un impact sur la population de saumons du lac situé à proximité. En définitive, je pense qu’on peut manquer de ressources non pas parce qu’elles feraient défaut mais parce qu’il y a des oppositions sociales de plus en plus fortes.

LVSL – Vous évoquez la priorité que devrait avoir un hôpital connecté sur la diffusion de vidéos sur la plateforme Tiktok. Certaines courants technocritiques défendent même le démantèlement pur et simple d’Internet. En définitive, ne faudrait-il pas se résoudre, a minima, à un usage moindre du numérique ?

G. P. – On entend beaucoup ces mots: dé-numérisation, désinformatisation, sobriété, etc. Ce dernier terme relève d’ailleurs bien souvent du greenwashing le plus éhonté, ce sont généralement ceux qui utilisent le plus ces outils numériques qui évoquent la sobriété. Il faut être méfiant à l’égard de ces mots. Qui va revenir à des Iphones 2, avec un temps de téléchargement multiplié par dix ? Qui est prêt à revenir à cet internet là ? Quelques-uns c’est certain. A chaque conférence que je donne, il y a toujours une ou deux personnes qui ont un vieux Nokia à la place d’un smartphone. Mais cela représente au mieux 5% de la population.

Je ne crois absolument pas à la dé-numérisation. Même s’il y a des gens qui sont prêt à cela, et je comprends parfaitement cette volonté de revenir à un mode de vie plus cohérent, la dynamique d’internet est aujourd’hui aux antipodes de cela : explosion de l’économie des données, « internet de tout », etc. Les deux tiers des adolescents américains utilisent Roblox [ndlr : jeu massivement multijoueur en ligne dans lequel le joueur incarne un avatar personnalisable] : quand vous voyez la façon dont les enfants consomment ce type de contenus, la dé-numérisation apparaît comme un rêve.

Le numérique, danger pour les institutions démocratiques ?

© Le Vent Se Lève

Le 15 janvier 2020, Le Vent Se Lève organisait une série de conférences sur la souveraineté numérique en partenariat avec l’Institut Rousseau, le Portail de l’intelligence économique et Le Vent du Changement à l’Université Panthéon-Assas. Les nouvelles technologies de l’information et de la communication numérique bouleversent les stratégies et tactiques conventionnelles du marketing et de la mobilisation politique. Qu’on songe à l’influence des réseaux sociaux révélée par l’affaire Cambridge analytica ou aux logiques de désintermédiation apparentes entre leaders politiques et électeurs notre époque impose de nouvelles grilles d’analyse des relations entre sphère publique et conquête du pouvoir. Diana Filippova, romancière et essayiste (auteure de Technopouvoir. Dépolitiser pour mieux gouverner), est revenue sur ces enjeux avec Fabienne Greffet (en science politique, spécialiste des campagnes électorales en ligne et du militantisme numérique). La discussion a été modérée par Anastasia Magat, secrétaire générale de l’Institut Rousseau.

Souveraineté numérique : les enjeux géopolitiques

© Le Vent Se Lève

Le 15 janvier 2020, Le Vent Se Lève organisait une série de conférences sur la souveraineté numérique en partenariat avec l’Institut Rousseau, le Portail de l’intelligence économique et Le Vent du Changement à l’Université Panthéon-Assas. La lutte pour l’indépendance numérique engage désormais l’avenir industriel, démocratique et géopolitique des nations. Des données critiques de nos services publics (en particulier de santé et de sécurité) à celles de nos grandes entreprises industrielles, rien ne semble échapper à la prédation des géants numériques américains. Durant cette première conférence consacrée aux enjeux géopolitiques de la souveraineté numérique, Tariq Krim (entrepreneur et pionnier du web français), Ophélie Coelho (membre du conseil scientifique de l’Institut Rousseau), Clothilde Bômont, (chercheure au centre de recherche GEODE) et Jean-Paul Smets (fondateur de Nexedi et créateur du logiciel libre ERP5) sont intervenus. La discussion a été modérée par Simon Woillet, directeur de la rubrique Idées du Vent Se Lève.

Andrés Arauz : « L’ignorance des mécanismes financiers à gauche est inquiétante »

Cryptomonnaies, NFT, tokens… On ne compte plus les innovations financières rendues possibles par la blockchain, dont la popularité a explosé ces derrières années. Cet enthousiasme s’explique par les aspirations libertariennes à une monnaie libérée des États… mais aussi, plus largement, par un rejet des Banques centrales perçues comme des institutions au service des élites financières. Andrés Arauz, ex-directeur de la Banque centrale d’Équateur puis candidat à la présidence du pays, revient sur ces enjeux dans cet entretien-fleuve. Il est mené par Evgeny Morozov, auteur d’ouvrages de référence sur le numérique et fondateur du site The crypto syllabus, avec lequel Le Vent Se Lève a noué un partenariat. Traduction par Florian Bru.

Evgeny Morozov – Les NFT, des tokens et autres DAO [organisation autonome décentralisée] ont le vent en poupe, entre autres innovations liées à la blockchain. Une étrange forme de populisme vaguement de gauche surfe sur cette vague. Pour citer, en substance, un investisseur américain de premier plan : « tout est déjà financiarisé – arrêtons donc de nous plaindre et passons à l’action, nous devrions tous trouver un moyen de faire tourner la financiarisation en cours à notre avantage ». Que pensez-vous de cet enthousiasme à l’égard de ces produits de la blockchain ?

Andrés Arauz : Il est important d’inscrire ces processus dans le contexte de la crise financière de 2008, puisqu’elle n’a pas seulement donné naissance au Bitcoin, mais aussi à l’assouplissement quantitatif et aux politiques monétaires non conventionnelles. La création de monnaie par les Banques centrales paraissait alors infinie – avant que la pandémie ne vienne pousser cela encore bien plus loin.

Toute cette monnaie n’a pas été utilisée pour la satisfaction de besoins concrets ; elle n’a pas été utilisée pour mettre à niveau notre système énergétique. Elle est allée ailleurs. Une partie s’en est allée vers le Dow Jones et les marchés boursiers. Une autre est à destination d’usages complètement neufs dans la cryptosphère, comme les NFT.

« Continuons à injecter de la monnaie là-dedans. Si nous arrêtons de pédaler, le vélo s’effondre. Donc continuons ainsi jusqu’à ce que quelque chose se passe » : il est difficile de combattre la financiarisation quand de telles postures politiques sont aussi répandues. C’est une bulle si grande que nul ne se risquera à la faire éclater, et elle continuera à grossir jusqu’à provoquer un bouleversement. Par conséquent, les vendeurs de NFT et de cryptomonnaies innovantes vont probablement continuer à connaître du succès tant que la politique par défaut est de continuer à alimenter le système en monnaie.

Pour parler plus spécifiquement de la génération Z, je crois percevoir une certaine excitation jusque chez les jeunes d’Amérique latine, qui sortent du lycée ou de l’université mais ne veulent rien savoir du travail réel et productif… Ils ne parlent que d’une chose : comment obtenir leurs propres NFT, ou acheter du Bitcoin pour pouvoir se faire de l’argent sur le court terme. On perd ainsi un immense réservoir de talents, d’êtres humains qui investissent leur intelligence et leurs efforts dans la poursuite de la financiarisation dans sa dimension proprement équatorienne – c’est-à-dire, l’offshorisation.

Evgeny MorozovPensez-vous qu’il y a un sens pour les progressistes à tenter de « chevaucher le tigre » ? Des penseurs sérieux à gauche, par exemple Michel Feher en Belgique, affirment que la lutte n’est plus dans l’usine Volkswagen mais dans l’application Robinhood. Pensez-vous que quelque chose de progressiste puisse sortir de telles expériences ?

Andrés Arauz – À ce propos, trois choses. Premièrement, les gens de gauche, comme tous les êtres humains, peuvent jouer au casino et parfois gagner de l’argent. Je ne vois pas de problème au fait d’agir individuellement pour se faire un peu d’argent.

Mais deuxièmement, il faut comprendre les processus en cours plutôt que de les ignorer. Et l’ignorance à gauche sur ces sujets m’inquiète réellement. La gauche se contente de condamner moralement le Bitcoin, les NFT, la finance, les banques… sans chercher à comprendre les mécanismes internes de ce système. Une chose positive qui est advenue avec le monde des cryptos est la popularisation des mécanismes de la finance. Nous devrions utiliser cette popularisation de la bulle spéculative amenée par le monde des cryptos pour tenter de mieux comprendre la financiarisation du monde conventionnel. Cela devrait être une tâche majeure pour la gauche.

Les données financières sont un sujet central ; les gouvernements devraient mobiliser toutes leurs ressources pour fonder sur elles leur souveraineté numérique.

Et puis troisièmement : si nous jouons selon les règles du jeu du capital financier, il n’y aura aucun moyen de gagner cette bataille. Ce que nous devons faire, c’est continuer à se battre pour les institutions régulatrices qui définissent les standards et les règles du jeu.

Il y a des investisseurs institutionnels, mais qui régule les investisseurs institutionnels internationaux ? Nous devons changer les lois, nous devons prendre le contrôle des banques centrales, nous devons nous assurer que les personnes qui travaillent comme régulateurs financiers sont ne sont pas liées aux banques privées… Nous devons commencer à exiger des régulations autour des conflits d’intérêt pour les personnes qui sont en charge de ces institutions.

Evgeny MorozovQuel est le lien entre la souveraineté monétaire et la souveraineté numérique ? Qu’est-ce que cela signifierait en termes de politiques concrètes pour un pays comme l’Équateur, mais aussi internationalement ? Qu’est-ce que cela signifie pour la propriété de la stack, des données, pour les lois antitrust ? Quelles sont les conséquences en termes de politiques publiques de penser ces deux formes de souveraineté comme étant imbriquées ?

Andrés Arauz – Les données financières – les données de l’argent, comme je les appelle – sont un sujet central ; les gouvernements devraient mobiliser toutes leurs ressources pour fonder sur elles leur souveraineté numérique. Je ne m’attarderai pas sur le cas de l’Équateur, car c’est un trop petit pays pour tenter de faire cela. L’Inde, en revanche, a promulgué des normes nationales autour des données financières. Ils ont dit à Visa que si elle voulait continuer à travailler en Inde, toutes les données sur les transactions financières des citoyens indiens utilisant Visa devraient être stockées en dans le pays. Il faut qu’elles soient physiquement localisés là-bas, avec du personnel indien pour les réguler, de sorte qu’elles soient soumis aux demandes d’information des autorités dans le cadre d’enquêtes judiciaires.

Bien sûr, cela bouleverse le jeu puisque, tout d’un coup, les données deviennent un actif de l’économie intérieure. Si elles sont utilisées à bon escient, avec une anonymisation correcte, une propriété commune et une prise en compte de la vie privée dès la conception, tout cela peut être utilisé pour construire un système très complet de connaissances qui peut servir aux universitaires, à la société civile, aux institutions gouvernementales, au secteur privé, etc. Cela permet de fournir davantage de services à la société, et de meilleure qualité. Et l’on évite ainsi la monopolisation de toutes ces données par des acteurs extérieurs à l’économie intérieure.

Quelque chose de similaire a été ébauché au Brésil, mais sans succès. Évidemment, ce qui a été mis en place en Chine est allé un cran plus loin, pas seulement avec la domiciliation des données mais également leurs propres applications et interfaces. Pour réfléchir au futur de la souveraineté numérique, nous devons penser aux aspects politiques et économiques non seulement des données sur les transactions financières mais aussi aux services de messagerie les plus importants et même aux interfaces utilisateur des applications. C’est quelque chose qui doit être fait par tout pays qui voudrait conserver ne serait-ce qu’un minimum de souveraineté.

Evgeny MorozovLes succès putatifs de la Chine dans cette sphère ont été très critiqués en Occident. Appuyés sur le très décrié système de crédit social, elle est parvenue à se déconnecter de l’économie mondiale dominée par les États-Unis. Même les entreprises de FinTech l’ont utilisé pour promouvoir l’inclusion financière, qui est l’un des éléments-clés de votre travail. Alors, avons-nous quelque chose à apprendre de la Chine ?

Andrés Arauz – Oui, nous avons à coup sûr à apprendre de la Chine, parce que leur système fonctionne depuis des décennies. Le gouvernement chinois, à son entrée dans l’OMC au début des années 2000, a poussé avec succès pour retarder l’introduction des cartes de crédit étrangères dans ses marchés. C’est pourquoi Union Pay a un monopole en Chine. Les Chinois ont été très intelligents à propos des normes, en particulier dans les systèmes bancaire et marchand, auxquelles ils exigeaient que l’on se conforme.

Ils ont à présent leur propre système de cartes de crédit qui est numériquement souverain et propriété de l’État. Ce système peut se penser hors de Chine. Pourquoi si peu de pays dans le monde refusent-ils d’accepter Visa et MasterCard comme systèmes de paiement ? Comment peut-il n’y avoir aucune alternative à leur monopole ? Bien sûr, il peut y en avoir, mais nous devons les imaginer et les construire de manière intelligente. Évidemment, les gouvernements jouent un grand rôle ici. À rebours d’une démarche de privatisation de la monnaie, ils devraient exercer une politique proactive pour étendre la souveraineté numérique et financière dans la sphère des paiements.

Bien sûr, la même chose est arrivée avec les fournisseurs chinois comme AliPay, ou WeChat. Ils sont à présent supervisés par une chambre de compensation de la Banque centrale, la Banque populaire de Chine. De cette façon, non seulement les données, mais également les politiques qui concernent leur déploiement dans le pays sont surveillés par le gouvernement.

Mon intention ici n’est pas de justifier les aspects totalitaires du Parti communiste chinois ! Simplement, il y a des solutions aux monopoles mondiaux (et majoritairement étasuniens) si on les conçoit de manière appropriée et que l’on utilise des techniques d’anonymisation.

Evgeny MorozovComme responsable politique, vous vous êtes montré enthousiaste quant à l’utilisation de technologies numériques à des fins progressistes. Alors que vous étiez en fonction, vous avez introduit une monnaie numérique contrôlée par l’État en Équateur, ce que nous pourrions aujourd’hui appeler une monnaie centrale numérique (Central Bank Digital Currency, CBDC). Pourriez-vous expliquer les raisons derrière l’initiative de cette monnaie numérique ? Quels objectifs progressistes devait-elle servir ?

NDLR : Pour une analyse de l’expérience politique équatorienne menée sous Rafael Correa (2007-2017), lire sur LVSL notre entretien avec Guillaume Long, ex-ministre des Affaires étrangères : « Comment la Révolution citoyenne d’Équateur a été trahie »

Andrés Arauz – Cette aventure a commencé en 2009 alors que la crise financière mondiale faisait rage. Nous nous attendions à ce que l’économie équatorienne coule, avec une crise de la balance des paiements arrivant peu après. En tant que pays dollarisé, nous dépendons des flux de dollars – ils nous sont littéralement livrés en avion depuis le bureau de la Réserve fédérale à Miami. Nous avions peur qu’à cause de la crise, le flux de dollars soit gelé, alors mêmes que nos revenus d’exportation étaient en train de s’effondrer.

Tout d’abord, nous pensions qu’il nous fallait un moyen de paiement national. Et parce que nous étions dollarisés, nous savions qu’abandonner le dollar pour le remplacer par une monnaie nationale ne serait pas possible pour des raisons politiques. Comment faire, donc, pour accéder à des moyens de paiement nationaux sans que le dollar reparte à la hausse ?

De toute évidence, l’alternative était une monnaie électronique. À l’époque, nous l’appelions monnaie mobile, et elle était inspirée des expériences kényane et philippine. Nous avons ensuite décidé que cela ne pourrait pas être seulement un projet mené par les entreprises de télécommunications, et par conséquent, dans sa conception et sa régulation, elle devait faire partie d’un projet monétaire mené par notre Banque centrale.

La deuxième raison avait à voir avec l’économie politique du système de paiement lui-même. Il était clair pour nous que si nous donnions un compte à la Banque centrale à chaque citoyen d’Équateur, nous pourrions briser de nombreux monopoles nationaux du secteur bancaire privé. Cela permettrait aussi une inclusion financière massive à court terme. Ouvrir un compte à chaque citoyen était, d’une certaine manière, un effort pour modifier les relations entre les banques privées et le gouvernement.

La troisième raison avait trait à nos efforts politiques pour transformer et faire de la Banque centrale non plus une institution élitaire mais une institution populaire. Si la Banque centrale, tout d’un coup, commence à ouvrir des comptes pour tous les citoyens d’Équateur, qu’ils soient ruraux ou urbains, pauvres, riches, jeunes ou vieux, hommes ou femmes – l’inclusion financière des femmes est plus difficile – alors cela pourrait aider à démocratiser la Banque centrale. Si les citoyens commençaient à se poser des questions – « Qu’est-ce que c’est que ça, cette Banque centrale qui m’a donné un compte, déjà ? » -, alors ils commenceraient à parler de cette institution au dîner, en déjeunant dans la rue, dans le bus…

Le simple fait d’avoir cette discussion sur ce que la Banque centrale devrait améliorer, quelles régulations sont bonnes et lesquelles ne le sont pas, même les discussions plus critiques sur ce que l’État fait de leur argent et de leurs données – était pour nous un grand succès, car cette discussion mènerait inéluctablement à une nation plus démocratique. Finalement, la Banque centrale pouvait sortir de l’ombre, ne plus être l’institution des élites avec leur savoir exclusif, mais de citoyens normaux, avec leur savoir profane.

Evgeny MorozovL’Équateur est non seulement le premier pays à avoir développé une monnaie centrale numérique, mais sa Banque centrale a été la première à publier les standards de sa plateforme de monnaie numérique et à développer une interface de programmation [API] pour que les citoyens puissent développer de nouvelles solutions pour l’accessibilité financière dans les zones rurales, le transport, les applications internet, entre autres. Pourriez-vous nous parler de cette expérience et de ce qui l’a motivée ?

Andrés Arauz – C’était, peut-être, l’un des aspects les plus prometteurs du système de monnaie électronique que nous avons conçu en Équateur. Nous étions engagés, même si c’était difficile, à en faire un système ouvert d’innovation où la Banque centrale rendrait son interface de programmation disponible. Nous voulions que des développeurs, issus des universités, des entreprises etc., se connectent pour développer de meilleures innovations et plateformes, pour que la monnaie électronique puisse circuler dans tout le pays. Ce fut un succès. En quarante-huit heures, des équipes venues de tout le pays ont proposé quatorze prototypes, allant d’une monnaie électronique qui pourrait être utilisée par les citoyens avec un protocole de type USSD assez primitif pour transférer de l’argent par SMS à une application, pour payer son ticket de bus quotidien.

Il y avait d’autres exemples d’inclusivité, comme des plateformes pour les personnes handicapées, malvoyantes, qui pouvaient utiliser le système de paiement avec une aide audio. Et de nombreuses autres, y compris des initiatives pour les coopératives, etc. Donc, en quarante-huit heures, nous avons montré que le réservoir de talents disponibles était immense. Tout ce qu’il nous fallait faire était de rendre un bien public largement disponible par un API ouvert.

C’est ce qu’il faut faire si vous voulez avoir de vraies FinTech qui ne soient pas basées sur les privilèges ou dépendant de grandes banques. On ne devrait pas avoir des CBDC avec simplement une Banque centrale qui développe l’application, les protocoles, les systèmes de paiement. Je ne peux pas imaginer une Banque centrale qui aurait un bureau rempli d’agents chargés de clientèle essayant d’installer des services et des systèmes de point de vente sur chaque bus dans chaque pays. Il faut que ce soit un service ouvert de type plateforme, afin que de nombreux innovateurs et entreprises puissent s’y arrimer et profiter d’une plateforme universellement disponible.

Evgeny MorozovSelon vous, y a-t-il une chose que vous auriez dû faire différemment dans la conception de la monnaie numérique équatorienne ?

Andrés Arauz – Peut-être aurions-nous dû ajouter un aspect de crédit à ce système. C’est-ce qu’on appelle le nano-crédit, qui a une dimension encore plus petite que le micro-crédit ; cela revient concrètement à prêter à un citoyen 30 ou 50 ou 100 dollars, à rembourser à un terme indéfini – ce peut être 10 ans, 30 ans, 50 ans – et d’avoir ce nano-crédit disponible dans la plateforme électronique, de sorte que quand il y a besoin de créer de la monnaie, elle soit créée, et de la monnaie pourrait circuler dans ce système en tant que moyen de paiement. C’est une vraie alternative au système bancaire conventionnel.

La Banque de France (…) se place donc délibérément sous la hiérarchie de JP Morgan

Evgeny MorozovVos premiers travaux saisissaient certaines des contre-dynamiques de nombreux processus qui étaient jusqu’alors célébrés de manière acritique. Les institutions en place, en particulier celles du système financier mondial, survivent à de nombreux défis auxquels leur hégémonie fait face. Comment évaluez-vous les premières réponses institutionnelles aux cryptomonnaies et ce qui les motive ?

Andrés Arauz – Tout d’abord, l’avènement du Bitcoin a changé le système de nombreuses manières radicales. Même s’il est rapidement devenu un instrument spéculatif, ses bénéfices considérables en termes de paiement sont toujours présents. Quelqu’un qui achète du Bitcoin en Thaïlande peut l’encaisser en monnaie domestique au Pérou sans toucher les grandes institutions bancaires. C’est un grand changement.

La dimension transfrontalière de ces paiements est la partie la plus critique. Le Bitcoin fait trembler les fondations du système existant au point que SWIFT s’inquiète de perdre son monopole sur les paiements transfrontaliers. SWIFT, bien sûr, est une coopérative possédée par les grandes banques privées. Ce système canalise la plupart des transactions transfrontalières mondiales, effectuées par les grandes banques correspondantes dans le monde, comme JP Morgan ou le Wolfsberg Group, qui est le groupe de treize banques d’envergure mondiale qui font des transactions internationales par le Conseil de stabilité financière.

NDLR : pour une analyse du système SWIFT, lire sur LVSL l’article d’Eugène Favier-Baron, Victor Woillet, Sofiane Devillers Guendouze et Yannick Malot : « SWIFT : une arme géopolitique impérialiste »

Si vous ajoutez à cette analyse une lecture géopolitique, vous constatez que le gouvernement des États-Unis et les régulateurs belges possèdent – pour aller vite – une connaissance totale des transactions transfrontalières. Une fois que vous créez une alternative, comme le Bitcoin ou d’autres cryptomonnaies, qui permettent des paiements internationaux qui ne sont pas enregistrés dans la base de données Swift, alors les pièces centrales du système capitaliste commencent à trembler. C’est la raison pour laquelle des alternatives comme TransferWise ou PayPal ont été créées ; on peut aussi penser aux initiatives philanthropiques comme la Better Than Cash Alliance, qui inclut entre autres Visa et MasterCard et qui vise à diminuer l’usage du liquide.

Les institutions internationales y donnent aussi beaucoup d’importance. La BCE porte l’alternative d’une monnaie numérique de Banque centrale mais JP Morgan avance que, puisqu’ils sont la plus grande banque en termes de transactions internationales, il vaudrait peut-être mieux avoir la JPM Coin (une monnaie privée émise par la banque) pour servir cette fonction. Il y a donc beaucoup d’initiatives en ce moment, mais elles constituent toutes une réponse au Bitcoin.

Evgeny MorozovComment voyez-vous l’entrée d’entreprises comme Facebook dans cet espace ? Pensez-vous qu’il y ait toujours un avenir pour le Libra de Facebook – ou le Diem, son nouveau nom ? Ou bien ces efforts sont-ils en train d’échouer ?

Andrés Arauz – Je suis convaincu qu’il existe un avenir pour tout cela. Certains sont optimistes quant à la capacité de la société civile de vaincre Facebook. Ceci, toutefois, passe outre une question plus large : Diem est une tentative géopolitique, au nom des États-Unis, pour préserver l’hégémonie du dollar. Et si Facebook échoue, un autre – PayPal ou Google – le fera.

Les récentes auditions au Congrès montrent que les États-Unis ont besoin de trouver une solution face à la montée en puissance de la Chine. Des systèmes de paiement numériques chinois ont émergé avec succès, d’abord avec le soutien de capitaux privés mais progressivement re-centralisés dans une sphère dirigée par l’État. Cependant, l’internationalisation de ces instruments atteindra bientôt une échelle globale grâce aux FinTechs chinoises comme Alibaba, Baidu et Tencent. Facebook a l’outil pour s’y confronter et étendre l’hégémonie étasunienne : WhatsApp, qui est déjà une sorte de bien mondial, même s’il n’est pas public.

Evgeny Morozov Quelles autres considérations géopolitiques devrions-nous avoir à l’esprit si nous réfléchissons au futur des systèmes de paiement mondiaux ?

Andrés Arauz – Traditionnellement, la monnaie est organisée de façon hiérarchique, avec des banques qui ont des comptes chez d’autres banques qui ont elles-mêmes des comptes chez d’autres banques, et elles sont organisées hiérarchiquement autour du monde. Par exemple, les transactions entre gouvernements sont menées par les Banques centrales et presque chaque Banque centrale a un compte au Système fédéral de réserve. Donc, pour l’argent public, la banque de la Réserve fédérale de New-York est au plus haut sommet. L’argent privé a de « méga banques » au sommet : JP Morgan, HSBC, Santander, Citibank et d’autres.

Dans la conception originale de la hiérarchie monétaire, les institutions gouvernementales ; comme la Fed ou le FMI, ou bien la BCE, sont toujours au sommet. De nos jours, on voit d’étranges tendances. Par exemple, la Banque de France a récemment mené une expérience avec l’Autorité monétaire de Singapour et, au lieu qu’elles soient au sommet de la hiérarchie de leur transaction, elles ont traité avec du JPM Coin, un passif émis par JP Morgan. Elles se placent donc délibérément sous la hiérarchie de JP Morgan.

Plus haut vous vous situez dans la hiérarchie monétaire, plus vous avez de pouvoir géopolitique ; vous avez également le pouvoir financier de créer de la monnaie et de vous assurer que les gens mènent leurs transactions avec vos billets, passifs, titres ou tokens… La présence de JP Morgan au sommet nous en dit beaucoup à propos de l’équilibre des pouvoirs dans le monde actuel.

Evgeny MorozovLors des élections présidentielles équatoriennes de l’année dernière, vous vous êtes opposé à la « Loi de privatisation de la Banque centrale », une réforme qui pourrait laisser le gouvernement sans réels outils pour alléger les dettes de l’économie nationale (principalement celles des ménages et entreprises locales). Cette loi a été promue un an après que l’Équateur a obtenu un accord de 6,5 milliards de dollars avec le FMI en échange de réformes structurelles. Pouvez-vous revenir sur le contexte de la mise en place de cette loi et sa signification ?

Andrés Arauz – Je vais vous répondre en évoquant l’architecture monétaire qui prévaut. Dans toute économie a minima souveraine, une Banque centrale se trouve au sommet ; en dessous, des banques privées, et ensuite des institutions plus modestes, régionales, rurales ou sectorielles. Encore en-dessous : des clients, des citoyens, particuliers ou entreprises qui ont des comptes dans ces institutions. Chacune d’elles, la petite ou la grande banque, a un compte à la Banque centrale, qui a aussi des comptes dans les banques internationales.

Quel est le contenu de cette loi ? Elle pose que l’argent du gouvernement équatorien – par exemple les fonds de la sécurité sociale ou les comptes des entreprises publiques – déposé à la Banque centrale aurait un statut inférieur aux comptes que les banques privées possèdent à la même Banque centrale. Cela voulait également dire que la monnaie que la Banque centrale avait à l’étranger devrait être destinée à l’usage des banques privées. En fait, la loi privatise le système de réserves internationales de l’Équateur, qui appartient à l’État.

La loi force le gouvernement à sacrifier tous ses bénéfices de l’exportation du pétrole, les devises étrangères qui entrent, afin de subventionner la fuite de capitaux du secteur privé. Cela a d’importantes conséquences. Pour l’économie dans son ensemble, le seul moyen d’assumer cette subvention permanente de la fuite des capitaux privés est de continuer à s’endetter. Et c’est pour cela que le prêt du FMI est le corollaire de cette politique de privatisation de la Banque centrale : les fonds du FMI seront utilisés pour payer la fuite des capitaux du secteur privé. Une Banque centrale plus hétérodoxe, alternative ou démocratique, comme celle que nous avions avant cette loi, tenterait de maintenir les liquidités dans l’économie nationale et de les recycler pour le bénéfice du peuple équatorien.

Evgeny MorozovPensez-vous que les pays du Sud souhaitant échapper au consensus de Washington peuvent passer outre les CBDC ?

Andrés Arauz – Les CBDC sont un outil nécessaire pour tout pays en développement qui veut établir une forme de contrôle sur son économie. Le débat sur les caractéristiques technologiques des CBDC, bien qu’important, n’est pas le sujet principal.

Ce qui importe bien plus est la gouvernance de l’entité qui va gérer ces CBDC – c’est-à-dire la Banque centrale. La Banque centrale n’est-elle qu’une institution gérée par des banquiers privés ? Alors, laissez-moi vous dire ce qui va se passer : ce sera une plateforme liée aux comptes des grandes banques privées, puisque ce sont celles qui ont les capacités technologiques pour organiser une telle chose. Mais pour des CBDC qui aspirent à une approche alternative, plus hétérodoxe, il vous faut quelque chose de similaire à ce que nous avons fait en Équateur.

Au XXIe siècle, les Banques centrales, en tant qu’institutions publiques, devraient faire l’objet de discussions constantes autour de la manière dont elles rendent des comptes, de leur transparence, de leur architecture institutionnelle

Evgeny Morozov – Que pensez-vous de l’adoption du Bitcoin comme monnaie officielle au Salvador ?

NDLR : Lire sur LVSL l’article de Hilary Goodfriend : « Rien ne va plus au paradis salvadorien du Bitcoin »

Andrés Arauz – Le Bitcoin n’est qu’un vernis superficiel pour éviter de discuter de ce qu’il se passe vraiment là-bas.

Une innovation intéressante a été mise en place par le gouvernement : le portefeuille Chivo. Ce n’est pas qu’un projet libertarien, c’est un portefeuille universel, émis pas l’État, pour chaque citoyen. Il permet des transactions qui ne sont pas uniquement en Bitcoin, mais également en dollars américains, c’est-à-dire qu’il facilite un système d’échanges commerciaux au sein de l’économie nationale. Chivo tente de faire ce que l’on a fait en 2009, contourner le dollar américain pour les paiements intérieurs et le remplacer par des moyens de paiement électroniques nationaux…

Je suis sûr que de nombreux autres pays suivront dans ce sillage, parce que la pandémie en a forcé beaucoup à distribuer de la monnaie gratuite aux individus, comme des chèques aux États-Unis. D’un autre côté, comme la discussion autour d’un revenu de base universel gagne du terrain, beaucoup dépendra de la manière dont le gouvernement interagit financièrement et monétairement avec ses citoyens pour délivrer des subventions. Cela mènera inévitablement sur le chemin des CBDC. Et s’il y a un minimum de décence dans des pays comme l’Espagne, le Mexique ou le Brésil, l’option publique devrait être soulevée.

Evgeny Morozov – Il est rafraîchissant de vous entendre vous concentrer sur le portefeuille Chivo plutôt que sur le Bitcoin en tant que tel dans le système salvadorien. Beaucoup à gauche ignorent complètement le portefeuille et se concentrent sur la critique du Bitcoin…

Andrés Arauz – Nayib Bukele [le président salvadorien NDLR] ne figure pas au nombre de mes alliés politiques. Mais je perçois les mérites de ce portefeuille. Bien qu’il puisse encore avoir des défauts, je comprends ce qu’il souhaite mener à bien. Il fait face à une pénurie d’échanges internationaux et doit être créatif, autrement il ne pourra pas continuer à faire tourner la machine. L’alternative serait de s’agenouiller et de supplier le FMI d’accorder un prêt, mais depuis quand est-ce une solution progressiste ?

Ainsi, je pense qu’il y a du mérite à tenter cette expérimentation : je vois une entreprise étatique qui est une alternative à celle des États-Unis. Le gouvernement Bukele a créé une subvention de 30 dollars pour inciter les citoyens à utiliser le portefeuille Chivo ; ils ont éliminé les frais bancaires et les amendes, placé ces distributeurs de monnaie partout dans le pays. Cela a de toute évidence ouvert la voie à l’innovation dans les pays progressistes, qui pourraient compléter ces expériences avec des interfaces de programmation ouvertes où les gens pourraient développer d’autres types d’initiatives autour de cette interface.

Evgeny MorozovRevenons à ce que vous disiez autour de la démocratisation des Banques centrales. Le gouvernement auquel vous avez participé en Équateur a hérité de l’ère néolibérale une Banque centrale indépendante. Cependant, votre gouvernement ne concevait pas l’action de la Banque centrale comme neutre, bien au contraire. Vous avez souhaité ouvrir ces enjeux à la discussion et faire délibérer la population à propos de son rôle…

Andrés Arauz – Absolument, nous étions parfaitement conscients que l’indépendance et l’autonomie des Banques centrales était une construction néolibérale, qui en a fait une institution élitaire au service du capital financier – et plus spécifiquement du capital financier international. Nous étions sortis de la crise financière de 1999, dans laquelle un tiers du système bancaire avait coulé ; il était détruit et les banquiers s’enfuyaient avec l’argent des gens qu’ils mettaient sur des comptes offshore à Miami et ailleurs.

Ainsi, la Banque centrale n’était pas l’institution la plus appréciée. Au contraire, elle était vue comme une complice des banquiers corrompus. Nous avons donc fait de notre mieux pour réduire l’indépendance de la Banque centrale et en faire une composante centrale du pouvoir exécutif, en en faisant une institution démocratique, qui rendrait des comptes.

Mais nous voulions aussi en faire une force pour la démocratisation du système financier. Notre initiative pour la monnaie électronique était une tentative de démocratisation du système de paiement national. Quand j’ai travaillé pour la première fois à la Banque centrale, les banques avaient accès à ce système de paiement. Nous l’avons ouvert et rénové pour que près de 400 coopératives, caisses populaires et petites institutions rurales puissent directement avoir un compte à la Banque centrale. Notre pari était qu’à long terme, la Banque centrale deviendrait une force pour réguler le capital et mettre en place un nouvel ensemble d’institutions autour de l’argent public : en d’autres termes, une économie alternative socialiste qui promouvrait la vision du Buen Vivir (bien vivre) qui est inscrite dans notre constitution.

Evgeny MorozovVos remarques offrent un contraste intéressant avec la manière dont beaucoup de « crypto-enthousiastes » pensent le rôle des Banques centrales. Il semble qu’ils aient identifié certains des nombreux problèmes du modèle néolibéral. Mais au lieu de le soumettre à une forme de contestation démocratique et de délibération citoyenne, ils portent des solutions individualistes. Les « crypto-enthousiastes » ont certainement permis une forme de délibération autour de ces questions, mais on est bien loin de la contestation politique de la finance que vous esquissiez…

Andrés Arauz – J’ai de la sympathie pour la critique des Banques centrales en général parce que dans le monde, les Banques centrales ont été conçues comme des institutions du néolibéralisme et les gardiennes des privilèges du capital financier et des banquiers privés. Et je suis sympathisant d’une alternative technologique ou technique construite pour les éviter et les contourner entièrement.

Néanmoins, ce que nous savons tous est qu’à la fin, le système de la monnaie fiduciaire sera toujours là. Même la dimension spéculative de la cryptosphère est ancrée au système de la monnaie fiduciaire, par exemple quand vous échangez des cryptomonnaies pour des dollars, des euros ou une autre monnaie locale de votre choix : vous devez interagir avec les banques conventionnelles et le système des Banques centrales.

Au XXIe siècle, les Banques centrales, en tant qu’institutions publiques, devraient faire l’objet de discussions constantes autour de la manière dont elles rendent des comptes, de leur transparence, de leur architecture institutionnelle ; répondent-elles à des intérêts privés ? Qui sont ceux qui y travaillent ? Leurs choix sont-ils au bénéfice de la majorité de la population ? Et ainsi de suite. Les ignorer totalement est un très mauvais pari. Nous devons construire une large alliance de mouvements populaires, alternatifs, partants de la base, autour de la monnaie et de la finance, avec des alternatives technologiques, mais nous ne pouvons pas ignorer l’importance radicale que possèdent les Banques centrales dans toute économie.

Evgeny MorozovQuelles formes alternatives de Banques centrales peut-on concevoir ?

Andrés Arauz – Nous devons entrer au cœur du système et le combattre. Récemment j’étais à un séminaire, invité par l’Assemblée constituante du Chili, pour discuter de ce qu’ils devraient faire à propos de la Banque centrale. C’est une discussion tabou : il s’agissait presque d’une réunion secrète, parce que les militants craignent de parler de changer la Banque centrale, comme s’il s’agissait d’une institution de l’ombre dont personne ne pourrait discuter.

Pourquoi s’en tenir au récit majoritaire selon lequel c’est uniquement par les experts que ses paramètres et ses normes devraient être établis, à Bâle ou à Washington ?

Je pense que l’on peut démocratiser la Banque centrale sans affecter la stabilité macroéconomique ou la valeur de la monnaie. Et le faire libérera des leviers, pour permettre aux gens ordinaires de vivre décemment.

La « révolution » numérique est profondément conservatrice

Photo @Sigmund

À chaque nouveau tour de vis numérique, ce sont les structures (sociales, économiques) du présent que l’on verrouille un peu plus. Ne sommes-nous pas en train d’assister à une révolution numérique conservatrice, impactant nos modes de vie, de pensée, voire nos modes de régulation sociale, au profit d’une gouvernance algorithmique dangereuse pour les libertés publiques et la démocratie ? L’urgence de développer des points de vue critiques sur ces transformations s’impose tous les jours un peu plus. Par Matthieu Belbèze.

Comment une photo de femme en bikini s’est-elle retrouvée classée dans la catégorie « souillon » par un algorithme de reconnaissance visuelle ? Comment le portrait d’un enfant portant des lunettes de soleil lui a-t-il valu de se voir affublé du qualificatif de « loser » ? Ce sont les résultats obtenus il y a quatre ans par Kate Crawford, chercheuse et professeure dans le domaine de l’intelligence artificielle, et Trevor Paglen, artiste, géographe et photographe. Ensemble, ils se sont intéressés à l’histoire de la reconnaissance d’images par des systèmes automatiques et des algorithmes.

Leur but : comprendre comment ces systèmes, à qui l’on accorde une confiance de plus en plus aveugle, sont entraînés à « voir » et « catégoriser » le monde. Le projet « Training Humans » a depuis été largement documenté. Sa conclusion : « il n’existe à ce jour aucune méthode « neutre », « naturelle » ou « apolitique » d’entraîner une intelligence artificielle ». La tendance systématique à collecter, catégoriser, qualifier des données soulève des questions cruciales. Qui décide de ce que ces images signifient ? Qui définit les catégories ? Quelles représentations sociales se retrouvent inévitablement embarquées dans un tel travail ?

Pour Kate Crawford et Trevor Paglen, vouloir s’affranchir des biais embarqués dans la création d’un modèle mathématique est une entreprise impossible. Les tentatives d’IBM pour « mathématiser la représentativité » leur semblent vaines et particulièrement alambiquées. En effet, utiliser un algorithme qui pondère les choix faits par des opérateurs humains pour entraîner un autre algorithme de reconnaissance visuelle par une méthode à mi-chemin entre poupée russe et Turc mécanique produit très souvent des résultats fragiles et dangereux d’un point de vue normatif. Cette pratique est symptomatique d’une course en avant qui semble à chaque étape amplifier un peu plus les erreurs du passé.

Les algorithmes, arme de reproduction massive

Après tout, comme l’écrit Marianne Bellotti, développeuse autodidacte et anthropologue passée notamment par le Département américain du numérique : « les gens ne prennent pas de meilleures décisions avec plus de données, alors pourquoi penser qu’il en serait différemment pour une intelligence artificielle ? ».

Comme Sisyphe, condamné par les dieux à remonter chaque matin un énorme rocher le long d’une pente raide avant qu’il ne la dégringole à nouveau chaque soir, les spécialistes passent 80% de leur temps à nettoyer les jeux de données dont ils disposent. Dans l’espoir que de « meilleures informations » permettent – enfin – d’obtenir de meilleurs résultats.

Sisyphe peint par Titian, exposé au Musée du Prado à Madrid
Le data scientist moderne, une allégorie – Sisyphe peint par Titian, exposé au Musée
du Prado à Madrid

Or la rationalité dont nous entendons charger les systèmes informatiques que nous créons n’existe pas. En contexte réel, les décisions publiques, politiques, économiques, sont prises non pas dans un souci de précision et d’exactitude – mais de façon à minimiser l’effort requis. Marianne Bellotti encore : « la compréhension totale d’une situation est moins désirable que des outils permettant de prendre une décision plus rapide ». Une décision sera donc toujours le résultat d’une négociation entre les différents acteurs impliqués, compte tenu de leurs enjeux et de leur environnement. Un processus qu’aucun échantillonnage parfait de données (si tant est qu’il existe) ne pourra jamais contraindre.

Les développements technologiques de l’intelligence artificielle (IA) seront toujours soumis aux biais et aux impératifs (personnels, financiers, mentaux) de celles et ceux qui les contrôlent. Une direction très largement héritée du passé – et qui explique sans doute que les systèmes de reconnaissance faciale vendus par Microsoft, IBM ou par le géant chinois Megvii se montrent particulièrement défectueux face à des femmes noires, alors qu’ils présentent de meilleurs résultats face à des hommes blancs… Mireille Hildebrandt, juriste et philosophe néerlandaise spécialiste des sciences informatiques, met derrière l’acronyme d’IA (Intelligence Artificielle) le concept particulièrement juste d’« Inférence Automatisée ». Ce qu’on nous présente comme une révolution n’est qu’une prolongation de systèmes de pensée déjà en place.

Gender Shades Project
Données du Gender Shades project qui souligne les biais des algorithmes développés par les plus grandes entreprises – ici leur incapacité à être efficaces sur des visages de femmes noires

La numérisation du travail : nouveaux ingrédients, vieilles recettes

Une consolidation des structures existantes qui se retrouve largement dans le monde du travail. À commencer par la façon même dont les outils numériques de « productivité » sont codés. Le logiciel de visioconférence Zoom, qui a su tirer son épingle du jeu durant la pandémie en passant de 10 millions d’utilisateurs quotidiens à plus de 300 millions en quelques mois en est l’illustration parfaite. Hubert Guillaud, journaliste et infatigable arpenteur d’internet interviewé par Xavier de La Porte explique comment certaines fonctionnalités du logiciels ne sont accessibles qu’à l’organisateur de la réunion en ligne. L’« host » peut ainsi couper le micro d’un participant, autoriser ou interdire le partage d’écran, voire éjecter purement et simplement un utilisateur d’une réunion.

Revoilà le pouvoir hiérarchique du passé codé « en dur » dans les fonctionnalités de l’outil du futur. La collaboration horizontale née du confinement, qui devait mettre tout le monde sur un pied d’égalité, a fait long feu. Dans un fameux article paru en 2000 (Le code fait loi – De la liberté dans le cyberespace), le professeur de droit à Harvard et activiste Lawrence Lessig attirait déjà l’attention sur ce nouveau pouvoir qui émergeait, loin des yeux du grand public ou des instances représentatives. Car l’entreprise privée qui code un outil utilisé par des centaines de millions de personne contrôle pleinement ce qu’ils ou elles y feront – ou ne pourront pas y faire. « Code is law ».

« Le conservatisme, c’est estimer qu’il y a un groupe de personnes qui doit être protégé mais pas contraint, et qu’un autre doit être contraint mais pas protégé ». Les mots sont d’un commentateur de forum dont on ne connaît que le nom, Frank Wilhoit, mais ils sonnent terriblement juste : il faut donc qu’en renforçant les gagnants habituels, la technologie affaiblisse aussi les perdants usuels. Dans le monde du travail, l’irruption (la « disruption » ?) de la robotique, censée remplacer les emplois les moins qualifiés, n’a pas eu lieu (SoftBank, le géant japonais, vient de renoncer à la production de ses robots Pepper, destiné à prendre soin des populations vieillissantes). Mais elle a servi d’épouvantail à beaucoup d’entreprises, Amazon en tête, pour faire accepter son ersatz : le contrôle informatisé et constant des employés.

The Constant Boss, Labor Under Digital Surveillance - un rapport d’‌Aiha Nguyen, Institut Data & Society ; illustration Yichi Liu
The Constant Boss, Labor Under Digital Surveillance – un rapport d’‌Aiha Nguyen, Institut Data & Society ; illustration Yichi Liu

C’est ce que Callum Cant, journaliste, écrivain, auteur notamment de « Riding for Deliveroo » appelle le « management algorithmique ». Amazon, Uber, ont transformé le travail en une succession de micro-instructions mesurées, limitées dans le temps, qui retirent à l’employé toute autonomie et toute compréhension de ce qui est à l’œuvre. Il compare cette situation à celle du Détroit des années 50 et 60, où les ouvriers des lignes d’assemblage automobiles avaient la liberté pendant leur pause d’aller se promener dans les usines pour voir se dérouler sous leurs yeux l’ensemble de la chaîne de production. Une clarté qui paraît totalement inaccessible aujourd’hui.

Cette stratégie de contrôle vient de loin, et est tout sauf innovante. L’« organisation scientifique du travail » prônée par l’ingénieur américain Frederick Winslow Taylor au début du XXe siècle a donné le taylorisme, puis le fordisme. L’employé étant embauché pour sa force de travail potentielle, comment faire pour que ce potentiel soit utilisé à plein, tout le temps ? Autrement dit, pour en prendre le contrôle ? Pendant longtemps, l’ouvrier était celui qui connaissait le mieux son travail, une connaissance qui échappait à son employeur et qui lui permettait donc de garder la main sur son « potentiel » et sur son effort. Taylor entreprit d’étudier le travail, d’inverser la connaissance pour la mettre entre les mains de ceux qui l’organisent. De découper et de chronométrer les tâches pour en éliminer toute marge, latence, autonomie.

Du taylorisme à l’« amazonification » du travail, l’hérédité est flagrante. Dans les entrepôts de Jeff Bezos, votre « temps hors tâche » (« Time Off Task » ou « TOT ») est précisément mesuré, et un jeu vidéo maison appelé « Mission Racer » invite les employés à rentrer en compétition les uns avec les autres pour aller plus vite …

Les rentiers numériques

Au sommet de la pyramide conservatrice trônent celles et ceux « qui doivent être protégés mais pas contraints ». On a écrit ailleurs comment l’innovation, censée, dans la théorie économique du marché, bousculer les acteurs en place, avait dans les faits perdu son pouvoir de « briseuse de rente » pour la raison que les grandes entreprises innovent trop vite et ralentissent volontairement la diffusion technologique, disposent de données et de capitaux massifs qui les rendent impossibles à rattraper. En outre, Amazon, Apple, Facebook et Google consolident ainsi leur métier initial tout en avalant à un rythme effréné les acteurs des secteurs qu’ils convoitent. Le résultat ? Des monstres hybrides, qui ont fini par attirer l’attention de certains parlementaires américains, inquiets de leurs « conflits d’intérêts » et de l’« auto-promotion de leurs services. »

How Big Tech got so big, infographie du Washington Post qui liste toutes les acquisitions d’Amazon, Apple, Facebook et Google
How Big Tech got so big, extrait d’une infographie du Washington Post qui liste toutes les acquisitions d’Amazon, Apple, Facebook et Google

Kean Birch et D.T. Cochrane, professeur et chercheur au sein de l’université de York au Canada, parlent de la formation d’« écosystèmes » entiers dont la survie et la croissance reposent non plus sur la capacité à innover, mais sur la construction expertes de rentes qu’ils classent en quatre catégories :

Rentes d’enclaves
La majeure partie de ces écosystèmes est fermée, alors qu’ils sont devenus des passages obligés. Il est alors nécessaire pour cela de payer Apple pour diffuser des application aux détenteurs d’iPhones, ou accepter de partager les données d’utilisateurs pour proposer un service sur le casque de réalité virtuelle Oculus de Facebook.

Rentes liées aux anticipations positives des marchés
Grosses et particulièrement rentables, ces entreprises peuvent emprunter à bas prix sur les marchés financiers, ce qui leur permet de financer leur croissance et leurs achats externes tout en renforçant les anticipations positives… et ainsi de suite.

Rente d’engagement
Par l’ancienneté et la multiplicité de leurs points de contact (appareils connectés, logiciels professionnels, de santé, de musique…) les grands acteurs technologiques ont construit et continuent à élaborer en temps réel une connaissance sans égale des populations. Ce qui leur permet de vendre l’accès à des segments très fins, ou au contraire de développer eux-mêmes de nouveaux services sur des besoins qu’ils sont les seuls à anticiper.

Rente de réflexivité
Les auteurs désignent ainsi ce que nous évoquions plus haut (« code is law »), à savoir que ces entreprises, opérant hors de tout contrôle externe, peuvent établir voire tordre les règles du jeu à l’intérieur de leur propre écosystème. Facebook a ainsi longtemps menti sur la portée réelle de ses publicités auprès de ses clients, et Amazon a modifié les algorithmes de recherche sur sa plate-forme pour avantager ses propres produits.

Renverser le rapport de force

Algorithmes qui perpétuent les biais sociétaux à grande échelle, monde du travail plus hiérarchisé que jamais grâce au taylorisme numérique, géants technologiques qui construisent à grande vitesse des rentes indéboulonnables…

Le changement technologique est une bonne excuse pour ne rien changer du tout.

Nous voilà de plus en plus proches des visions techno-futuristes cauchemardesques de William Gibson, auteur notamment de Neuromancien et père du Cyberpunk. Un genre littéraire, cinématographique, visuel, qui dépeint une humanité qui s’est largement abandonnée à la technologie dans les moindres recoins de sa vie et même de ses corps (via des prothèses, ou des « augmentations » diverses et variées). Des mondes aussi très stratifiés, où l’écart entre « ceux d’en haut » (rappelez-vous, qu’il faut protéger sans contraindre) et ceux d’en bas est définitivement impossible à combler et assumé comme tel. Des mondes enfin où les grandes entreprises privées sont les nouvelles puissances politiques et régulatrices de nos vies. Or William Gibson le dit lui-même : « le changement technologique est une bonne excuse pour ne rien changer du tout ».

Logo d’Evil Corp dans la série télévisée Mr. Robot, décrite par son créateur Sam Esmail comme une tentative « d’amener le cyberpunk à la télévision
Logo d’Evil Corp dans la série télévisée Mr. Robot décrite par son créateur Sam Esmail comme une tentative « d’amener le cyberpunk à la télévision – un logo très proche de celui d’Enron, entreprise un temps la plus prisée de Wall Street avant de s’effondrer en 2001

En temps de crise, il est tentant et (trop) humain de se raccrocher au passé, pour le faire vivre dans tout ce qu’il a de rassurant. Mais, écrit Eva Illouz, sociologue franco-israélienne, « vouloir illuminer le présent par le passé revient à chercher un objet perdu sous un lampadaire parce que c’est le seul endroit où il y a de la lumière ». L’usage actuel de la technologie s’assure de l’ordre (préserver celui en place) plutôt que de la justice (rééquilibrer les rapports), pour paraphraser une interview récente de l’acteur et réalisateur Jean-Pierre Darroussin.

Sous couvert de marche en avant progressiste, le néo-libéralisme technologique nous conduit tout droit à une mise en stase qui figerait la société actuelle. On peut alors, avec la philosophe Barbara Stiegler, faire appel à la grande figure du pragmatisme américain John Dewey. Rejetant « une adaptation passive des masses à l’environnement dégradé créé par la révolution industrielle, Dewey n’a cessé de lui opposer ce qu’il pensait être le véritable sens de la révolution darwinienne : le fait que les êtres vivants s’étaient toujours adaptés en modifiant activement leurs environnements ».

Plutôt que de figer les structures du passé, il faudrait par le travail expérimental de l’intelligence collective, multiplier les initiatives démocratiques, inventer « par le bas » un autre avenir commun. Un mouvement qui germe ça et là dans le développement technologique : défense du « design participatif », de la transparence, ou encore réappropriation des savoirs et des données face à la confiscation et l’asymétrie de l’information auxquelles nous soumettent les grands acteurs technologiques.

Industrie 4.0 : les ambitions dévorantes de l’Allemagne

La chancellière Angela Merkel en visite dans la “Digital Factory” du groupe Siemens en 2015. Capture d’écran Youtube /DR © Siemens

Avec le programme « Industrie 4.0 », l’État allemand soutient la numérisation et l’automatisation de ses chaines de production afin de renforcer la compétitivité de son industrie. Ce projet d’ampleur s’accompagne d’une offensive politique à l’échelle européenne, où Berlin propose de construire une « souveraineté numérique » face à la Chine et aux États-Unis. Cette stratégie sert pourtant davantage les intérêts de l’économie allemande que ceux de ses partenaires.

Au lendemain de la crise économique majeur qu’a traversé le monde en 2008, nombre de cabinets de consulting ainsi que d’économistes adaptent radicalement leurs préconisations. Plutôt que d’inciter les pays occidentaux à des stratégies de désindustrialisation et de délocalisation, politique par ailleurs largement créatrice de chômage de masse, ils se font les chantres d’une « réinvention » de l’industrie manufacturière. Dès 2011, le World Economic Forum de Davos met ainsi en place les stratégies « Futur de l’industrie manufacturière » et « Commission d’agenda global relatif à l’industrie manufacturière » auxquelles sont associées de nombreuses multinationales. L’objectif de ces initiatives est de numériser les entreprises dans l’espoir incertain de voir leur productivité augmenter. Dans des usines connectées, des machines dites intelligentes coordonnent de façon autonome des chaînes de production. Tandis que la plupart des opérations de montage sont automatisées et que des véhicules de transport autonomes gèrent logistique et flux de matériaux, les êtres humains supervisent la production et n’interviennent qu’en cas de défaillance du système.

En visite dans « l’usine digitale » du groupe Siemens en 2015, Angela Merkel assène que « l’automatisation permise par le numérique va considérablement transformer la production industrielle » (les citations suivantes sont extraites de ce même discours, ndlr). Cette déclaration résume l’objectif principal du programme « Industrie 4.0 » : gonfler la productivité de l’économie d’Outre-Rhin. Cette « numérisation » de l’industrie demeure avant tout une stratégie nationale d’hégémonie économique face à la concurrence étrangère. La chancelière allemande déclarait ainsi : « Nous devons faire en sorte de gagner la course en Europe et surtout en Allemagne. Cette compétition se déroule entre ceux qui sont actuellement en avance dans l’économie de l’Internet et nous, qui sommes en avance dans de nombreux domaines de l’économie réelle ». En clair, si l’industrie allemande veut conserver ses avantages actuels dans les circuits capitalistes européens et mondiaux, elle doit numériser leurs chaînes de production.

Pour l’Allemagne, la numérisation de l’industrie est impérative

En février 2015 déjà, Merkel annonçait : « L’Allemagne fait encore partie des pays avec une très forte production industrielle, et nous voulons maintenir cela ». Représentant 15 millions d’emplois directs et indirects, l’industrie allemande est en effet présente dans tous les domaines. L’automobile, la construction mécanique (portée par des entreprises comme Siemens, ThyssenKrupp et Bosch), l’industrie chimique (BASF), électrique (Siemens) ou pharmaceutique (Bayer) ainsi que la sidérurgie (ThyssenKrupp) sont autant de secteurs où l’Allemagne conserve un avantage certain face à ses partenaires européens. Avec les bouleversements anticipés dans les processus de création de valeur, l’Allemagne table sur une augmentation de la productivité estimée à 78 milliards d’euros d’ici 2025 et sur une croissance supplémentaire de 1,7 % par branche en moyenne. Une seule conclusion s’impose alors à la dirigeante du gouvernement fédéral : « nous devons franchir le pas vers de la numérisation de la production. Elle est essentielle à notre prospérité. Nous appelons cela “Industrie 4.0”. Maintenant il s’agit de définir des normes et de trouver les bons partenaires de coopération pour donner avant tout aux moyennes et aux grandes entreprises une plateforme commune. Je suis ravie de voir que l’industrie allemande y contribue très activement ».

Afin de parfaire ce programme économique, l’Etat allemand a mis sur pied une alliance avec les industriels, les institutions de recherche et les syndicats.

Depuis 2011, les responsables politiques allemands ont ainsi fait de ces nouvelles technologies une priorité absolue. Dans le cadre des deux programmes de financement « Autonomik für Industrie 4.0 » (« autonomique pour Industrie 4.0 ») et « Smart Service Welt » (« monde smart service »), le Ministère fédéral de l’économie met à disposition près de 100 millions d’euros de financements publics dans l’objectif de faire avancer la recherche et le développement d’innovations importantes dans ce domaine. Le ministère fédéral de l’Éducation et de la Recherche a quant à lui subventionné plus de 470 millions d’euros de recherches autour de l’économie 4.0. Dans toute l’Allemagne, 26 centres de compétence subventionnés par ce ministère proposent aux petites et moyennes entreprises (PME) des offres complètes de sensibilisation, d’information et de formation sur les applications de l’industrie 4.0. Afin de parfaire ce programme économique, l’État allemand a mis sur pied une alliance avec les industriels, les institutions de recherche et les syndicats. Jörg Hofmann, le président du puissant syndicat IG Metall, fait ainsi partie du comité de direction du programme. Ce dernier, dénommé la Plateforme pour l’industrie 4.0, a pour objectif de mettre en place un cadre juridique ainsi que des infrastructures nécessaires à cet objectif de numérisation et d’automatisation de l’industrie. L’industrie 4.0 s’apparente donc à un programme gouvernemental visant à catapulter le capital allemand au sommet du marché mondial grâce aux débouchés offerts par les nouvelles technologies.

Selon la chancelière allemande, cette « numérisation des processus de production ainsi que des processus entre les entreprises et les clients » a permis à l’économie outre-Rhin de se doter « de nombreux champions mondiaux ». Néanmoins, l’Allemagne reste largement fière de ses Mittelstand, des entreprises de taille moyenne qui renvoient à l’idéal d’un capitalisme familial et patriote. Angela Merkel constate ainsi que son pays « n’a peut-être pas encore fait autant de progrès que nous le devrions pour faire avancer la masse des entreprises de taille moyenne ». Selon cette dernière, il est ainsi primordial « de voir les grands pionniers entraîner les autres » dans la numérisation de leurs activités.

Une féroce concurrence intra-européenne

La numérisation de l’économie n’est pourtant pas l’apanage unique de l’économie allemande. Partout dans le monde, les nations soutiennent leur capital national dans la compétition pour la croissance avec des programmes dédiés. En 2014, un projet américain dénommé Industrial Internet Consortium a été lancé, tandis que l’équivalent français, l’Alliance Industrie du Futur ainsi le programme chinois Made in China 2025 ont tous deux vu le jour en 2015. 

Cette peur d’être en retard en matière de digitalisation a progressivement amené l’Allemagne à déguiser son programme national d’hégémonie économique en coopération européenne.

Sous Donald Trump, de nombreux États américains sont devenus de vastes champs d’expérimentation pour les véhicules autonomes, l’une des technologies numériques les plus prometteuses. Les capitaux accumulant le plus de kilomètres d’essai sont susceptibles d’avoir les meilleures chances de dominer le marché automobile à l’avenir. Sous cette même administration, les attaques contre les capitaux chinois se sont multipliées. L’offensive du gouvernement américain contre TikTok en est un exemple frappant dans le secteur des technologies de l’information. L’interdiction de la plate-forme, qui compte plusieurs millions d’utilisateurs aux États-Unis, a été évitée uniquement parce que Donald Trump a « convenu » avec le propriétaire chinois Bytedance le transfert de ses activités américaines à une société dont le siège sera vraisemblablement au Texas. Le nouveau président américain Joe Biden, alors qu’il révise la politique de son prédécesseur dans d’autres domaines, poursuit explicitement une ligne dure contre la Chine. Ces dernières années, la Chine est passée du statut d’atelier de l’Occident à celui de son concurrent le plus féroce. Avec son programme « Chine 2025 » et sa récente mise à jour en 2020, la Chine vise le sommet. Avec sa stratégie de « double circulation », elle veut renforcer son marché intérieur (première circulation) et intensifier sa coopération avec d’autres pays asiatiques dans le domaine de la numérisation (seconde circulation) afin d’intensifier la guerre commerciale contre les États-Unis. Avec toutes ces mesures, la Chine poursuit au final le même objectif que les États-Unis : dominer le marché mondial en tant que puissance technologique de premier plan.

Cette peur d’être en retard en matière de numérisation face à d’autres puissances mondiales a progressivement amené l’Allemagne à déguiser son programme national d’hégémonie économique en coopération européenne. Selon les termes de la chancelière, il est ainsi « toujours important pour nous, en Allemagne, d’utiliser les avantages du marché unique européen. […] Après tout, les 500 millions de personnes qui composent le marché unique européen constituent déjà une force du marché. Et cela nous donne aussi la possibilité de nous affirmer au niveau mondial. »

Cette « souveraineté numérique » ne se matérialise actuellement qu’en tant que concurrence entre pays-membres de l’UE.

L’émergence d’un marché unifié du numérique à l’échelle européenne est en effet un des objectifs majeurs des dernières années. L’Union européenne (UE) a ainsi annoncé le lancement de sa « stratégie numérique » en 2014. Six ans plus tard, la présidente de la Commission européenne, Ursula von der Leyen, proclamait l’objectif de « souveraineté numérique ». L’UE a ainsi prévu de subventionner ces efforts à hauteur de 55 milliards d’euros dans le cadre du programme DigitiseEU. Concrètement, outre un programme d’expansion de l’infrastructure numérique dans toute l’Europe (déploiement de la fibre et de la 5G notamment), les institutions européennes cherchent à bâtir un cadre juridique européen commun à tous les États, afin que les entreprises puissent utiliser ce marché et se développer en conséquence. Les entreprises européennes pourraient ainsi acquérir une taille critique et seraient alors capable de rivaliser avec les géants américains (Amazon, Google ou Facebook) ou chinois (Tencent, Alibaba ou Baidu).

Pourtant, cette « souveraineté numérique » ne se matérialise actuellement qu’en tant que concurrence entre pays-membres de l’UE ayant avant tout tous l’intention d’utiliser le marché commun dans leurs propres intérêts nationaux. La construction de la « superpuissance européenne numérique de demain », selon les termes du secrétaire d’État français chargé du numérique Cédric O, cache en réalité une rude concurrence à l’échelle européenne, dans laquelle les entreprises allemandes sont très bien positionnées. Le ministre fédéral des Affaires européennes Michael Roth appelle ainsi à « surmonter l’esprit des particularismes nationaux et à regrouper la multitude de programmes et de stratégies à travers l’Europe dans une politique commune ». Or, une telle politique conduit les États européens les moins industrialisés et numérisés à devenir de simples ateliers pour les entreprises allemandes.

Protection des données, taxation des GAFAM… l’Allemagne donne le ton

Les normes sont l’un des moyens que les entreprises ont à leur disposition pour se procurer un avantage au sein de la concurrence mondiale. Avec sa propre norme, une entreprise tente d’exclure les autres producteurs et fournisseurs afin de disposer exclusivement de sa propre norme comme moyen de réussite. Les multinationales comme les États ont intérêt à imposer leurs normes et à les rendre compatibles avec le plus grand nombre possible d’autres produits afin d’obtenir des effets de réseau. Les différents câbles de recharge ainsi que des câbles de connexion demeure un exemple bien connu de cette stratégie. Avec son connecteur Lightning, Apple tente d’enfermer les clients dans ses propres produits, car seuls ceux-ci peuvent communiquer directement entre eux sans produit intermédiaire. De cette stratégie économique découle une autre pour les États. Ces derniers étant responsables de définir le cadre juridique de l’approbation et de l’utilisation des produits vont alors essayer que le pouvoir de marché de leurs propres entreprises nationales soit assuré dans ce processus. Il est alors évident que l’Allemagne cherchera à définir des normes juridiques à même de protéger son industrie. Comme l’analysait Angela Merkel, si l’économie allemande veut parfaire la numérisation de ses activités économiques, il est alors primordial de « faire évoluer certaines normes ». Une fois ces normes définies et mises en place au niveau national, la chancelière préconisait alors de « les ancrer au niveau européen ».

Dans le domaine numérique, les clouds, ces services d’hébergement de données ou logiciels en ligne, sont un nouveau terrain d’affrontement. Pour l’instant, quatre fournisseurs américains (Amazon, Google, Microsoft et IBM) ainsi que le chinois Alibaba dominent près de 75% du marché mondial. Avec le projet Gaia-X, l’Allemagne et la France ont pour objectif de développer un cloud européen et d’établir une norme européenne dans ce domaine. Ce projet, dirigé contre la dominance des GAFAM, se retrouve cependant confronté à une contradiction évidente : créer une infrastructure de données susceptible de pouvoir concurrencer les entreprises dominant ce secteur nécessite une masse immense de capital. Afin que leur cloud atteigne une taille critique pour être compétitif, les Européens ont donc associé les GAFAM au projet Gaia-X. Ainsi, la concurrence européenne contre les GAFAM aboutit donc… à coopérer avec eux !

NDLR : Pour en savoir plus sur le projet Gaia-X, lire sur LVSL l’article de Florent Jourde : « l’Allemagne en quête de souveraineté face aux GAFAM ». 

Force est de constater que l’Allemagne cherche avant tout à réunir les conditions nécessaires à la mise en place de ses ambitions globales. Le gouvernement allemand considère que la législation de ses partenaires reflète une « mentalité de petit État ». Les entreprises allemandes utilisant le marché intérieur afin de créer et de consolider leur poids économique global sont gênées par le manque de cadre juridique uniforme ou de normes communes qu’ils considèrent être un frein à leur croissance. Si le ministre fédéral de l’Économie, Peter Altmeier, affirme que « nous avons besoin de technologies d’avenir ‘Made in Europe’ » et qu’il faudrait « créer par des incitations à l’investissement des projets européens communs tels que la production de cellules de batteries, la microélectronique et le projet GAIA-X pour une plus grande souveraineté numérique », il est évident que celle-ci fait avant tout avancer les intérêts allemands.

Berlin souhaite en réalité que ces « champions européens », c’est-à-dire des capitaux compétitifs au niveau mondial, soient sous la direction d’entreprises allemandes comme Infineon (leader mondial des composants pour cartes à puce). L’espoir repose désormais également sur les “licornes”, ces start-ups non cotées en Bourse valorisées plus d’un milliard de dollars : Celonis (traitement de données), Trade Republic (investissement), N26 (banque) ou FlixMobility (transport). Les législations des autres États membres, avec lesquelles ceux-ci veulent rendre leurs sites attractifs pour les capitaux d’entreprises numériques étrangères, à l’image de l’Irlande ou les Pays-Bas avec des impôts sur les sociétés peu élevées, sont accusées de « dumping fiscal ». En revanche, dans les domaines où le capital américain est supérieur, l’Europe défend ses propres règles contre les États-Unis.

Etant donné le retard de l’UE, et plus spécifiquement de l’Allemagne dans la data economy, l’adoption de règles de protection des données particulièrement strictes est peu surprenante.

Parmi les normes européennes sur le numérique, le RGPD (Règlement Général sur la Protection des Données, voté en 2016 par le le Parlement européen) a fait date. Ce texte est pour l’heure l’une des lois les plus strictes en matière de protection de la vie privée des utilisateurs. D’aucuns pourraient ainsi avoir l’impression que la politique économique allemande est guidée par des impératifs éthiques. C’est du moins l’impression que l’on a en écoutant le ministre allemand des Affaires européennes : « Notre chemin doit être centré sur l’individu, s’appuyer sur des principes éthiques clairs, des normes élevées de protection des données et de sécurité. […] Ce faisant, nous nous différencions clairement du capitalisme des données des géants américains de la technologie et du modèle chinois basé sur le contrôle de l’État et la répression numérique. » Pourtant, plutôt que de représenter un regain d’intérêt pour les libertés numériques de la part de l’UE, cette décision est en réalité guidée par des motifs économiques. En effet, si l’industrie 4.0 allemande repose surtout sur la mise en réseau des usines, Berlin conserve un net désavantage vis-à-vis des États-Unis en matière de technologie business-to-consumer, illustré par la domination des GAFAM dans ce domaine. Etant donné le retard de l’UE, et plus spécifiquement de l’Allemagne dans la data economy, l’adoption de règles de protection des données particulièrement strictes est donc peu surprenante.

Il ne faut cependant pas se fourvoyer quant aux bénéfices attendus d’une numérisation de l’économie. Il y a fort à parier que la stratégie L’industrie 4.0 bénéficiera avant tout à la bourgeoisie nationale allemande et non à ses travailleurs. Les voix qui professent que cette numérisation permettra une réduction des accidents au travail et l’avènement d’une « société de loisirs » se trompent fortement. La mise en œuvre du plan « Industrie 4.0 » répond en effet à des impératifs capitalistes primaires : la technologie sera principalement utilisée pour économiser les coûts de fonctionnement et pour contrôler la masse salariale. De même, cette « quatrième révolution industrielle » reposant sur des infrastructures digitales très polluantes et énergivores, est-elle compatible avec les objectifs environnementaux que l’Humanité s’est fixée ? Cette doctrine de la numérisation de l’industrie, si elle permet d’indéniables progrès en matière de productivité, risque donc de bénéficier à une petite poignée de groupes allemands, au détriment de leurs concurrents étrangers, des travailleurs et de la nature.

 

Alain Gras : « Je suis pour une électricité à la mesure de ce dont on a besoin »

Envoyé par A. Gras
Alain Gras lors d’une conférence à Valencia, Espagne.

L’électricité est souvent considérée comme une solution miracle face aux changements climatiques. Décrite comme propre et durable, nombre de personnalités la pensent comme une alternative concrète aux énergies fossiles. Nous avons interrogé le chercheur Alain Gras, spécialiste des techniques et fondateur du centre d’études des techniques, des connaissances et des pratiques. Dans son dernier livre La Servitude électrique, du rêve de liberté à la prison numérique qu’il signe avec Gérard Dubey, il nous invite à réfléchir et à penser la relation malsaine qu’entretiennent nos sociétés avec l’électricité et notre rapport à la consommation énergétique.

LVSL – Vous montrez dans votre livre que depuis son invention, l’électricité est perçue comme une énergie propre, presque « magique ». Quelles sont les conséquences de ce discours, qui n’a que très peu évolué depuis plusieurs siècles ?

Alain Gras – La « fée électricité » est un terme inventé lors de l’exposition universelle de 1889. L’idée de magie conférée à cette technique était déjà présente chez les alchimistes du XVIIIe siècle. Le seul courant électrique que l’on connaît est la foudre, apanage des dieux, de Jupiter dans le cas des Romains et de Taranis chez les Gaulois. Tous les premiers dieux de l’espace indo-européen possèdent la foudre comme pouvoir suprême. Ce discours qu’on tient aujourd’hui est lié à cette apparition première de l’électricité. Elle est pensée comme quelque chose qui est hors de la terre, qui n’est pas susceptible d’avoir les difficultés et les défauts de ce qui est terrestre. C’est ce phénomène qui lui confère son aspect magique. L’électricité apparaît comme un élément qui n’a aucun aspect négatif. Pourtant, elle est produite par des éléments terrestres fossiles, le charbon au XIXe siècle, le pétrole, le gaz et l’uranium aujourd’hui. L’électricité n’est donc pas propre en soi, elle a l’apparence de la propreté.

LVSL – Certains politiques, à l’instar de Joe Biden, misent sur les énergies renouvelables pour stimuler une « croissance verte » et vertueuse. Pourtant, ce mode de développement, en apparence durable, est-il à même de nous sortir de l’impasse climatique ?

A. G. – Si je veux vous parler de manière sincère, je dois alors répondre à votre question par la négative. Premièrement car les énergies dites renouvelables sont intermittentes et ne peuvent ainsi assurer un courant continu à nos industries ou à nos ménages. Il nous sera impossible de remplacer l’électricité industrielle par des éoliennes ou du solaire. Ensuite, ces énergies conduisent irrémédiablement aux mêmes problèmes que les carburants thermiques. S’il n’est pas possible d’affirmer que ces dernières sont prédatrices de la même manière que les énergies fossiles, nous pouvons néanmoins penser qu’elles restent destructrices. Les technologies solaires ou éoliennes nécessitent ainsi une extraction d’une multitude de terres et de métaux rares. Ces processus d’extraction sont très énergivores et in fine nocifs pour l’environnement. Par exemple, pour obtenir 1 kilogramme de lutécium, il faut extraire 1200 tonnes de roche. Il est par ailleurs dommage que nous n’abordions que le problème du Peak Oil, ou pic pétrolier, dans l’espace public. Comme l’a montré dans ses ouvrages Philippe Bihouix, nous allons également devoir affronter un Peak All, à savoir le déclin des réserves mondiales de métaux. Cela vaut aussi bien pour le cuivre que pour les terres rares…

LVSL – De même, certains responsables promettent de réduire drastiquement nos émissions de gaz à effet de serre grâce aux nombreuses innovations relatives aux batteries électriques ou à l’hydrogène. Certains pays, à l’instar de l’Allemagne, financent de larges projets afin de développer ces technologies. Ces inventions, souvent destinées à des usages individuels, sont-elles réellement des « révolutions » capables de répondre aux problèmes environnementaux modernes ?

A. G. – Pour moi, l’hydrogène comme la batterie ne peuvent être considérés comme des révolutions. L’hydrogène est un leurre total. Il est fabriqué par électrolyse à l’aide de l’électricité, elle-même étant en général produite par une énergie thermique. L’hydrogène est également comprimé à 700 bars dans de très lourds réservoirs, ce qui exige de l’énergie, pour ensuite redonner de l’électricité au moteur, curieux cycle plus vicieux que vertueux ! Un ensemble de conditions rend cette technologie non rentable mais l’hydrogène sert en réalité à compenser les défauts du renouvelable, à savoir son imprévisibilité et son intermittence. Il remplace la batterie, c’est pourquoi on le range dans la catégorie « piles à combustible ». Contrairement à ce qu’affirment nombre de responsables politiques, son usage pour l’aéronautique est largement incertain. Gérard Théron, membre de l’Académie de l’air et de l’espace, estime qu’avec un trafic aérien égal à celui d’avant la crise sanitaire que nous traversons, l’aviation à hydrogène consommerait entre 30% et 40% de la production électrique mondiale. Malgré tous les doutes que nous pouvons émettre vis-à-vis de l’hydrogène, dont la liste que nous avons dressée ici n’est pas exhaustive, la France suit l’exemple de l’Allemagne et a investi 7 milliards d’euros dans l’hydrogène.

Pour une analyse détaillée de l’utilisation de l’hydrogène dans la transition énergétique, lire sur Le Vent Se Lève la synthèse de Julien Armijo : l’hydrogène : quel rôle dans la transition énergétique ?

LVSL – D’autant plus qu’en donnant à ces technologies un caractère sacro-saint, on oublie bien souvent de réfléchir à des moyens de faire décroître notre production et nos besoins.

A. G. – Totalement ! On nous vend ces technologies en nous promettant que rien ne changera par rapport à aujourd’hui. Ni notre mode de consommation, ni notre façon d’habiter la terre. On nous promet un monde propre et parfait sans que l’on change notre façon d’être. C’est une pure illusion ! Je donne toujours l’exemple du premier usage domestique de l’électricité lorsque Edison a introduit l’éclairage électrique dans le quartier de Manhattan à Pearl Street. Les bourgeois ont vu que leur intérieur n’était plus pollué par le gaz, ce qui était formidable. Pourtant à cinq kilomètres de là, il y avait deux centrales thermiques qui consommaient plusieurs tonnes de charbon par jour et jetaient leurs déchets dans l’Hudson. C’était une simple délocalisation de la pollution et le processus est resté le même. C’est pourquoi ce subterfuge originel joue un rôle éminent dans la promotion de l’électrique et nous avons baptisé « modèle Edison » cette propreté apparente.

LVSL – Les énergies « renouvelables » sont finalement l’apanage de la « société d’externalisation » …

A. G. – Actuellement en Chine, les voitures électriques fonctionnent en partie avec la fumée du pays Ouïghour qui est le plus grand producteur d’électricité du pays. On pollue quelque part et on fait croire que c’est propre ailleurs. Pour la planète, ça ne change rien… Le problème majeur aujourd’hui est celui de la démesure. 

Les États et les GAFAM sont habités par la même « quantophrénie », autrement dit la même fascination pour la quantification du réel.

Je ne suis pas contre l’électricité, au contraire, je suis pour une électricité à la mesure de ce dont on a besoin. Toutefois la question philosophique voire métaphysique, si j’ose dire, qui se pose aujourd’hui est celle de l’abondance du superflu qui conduit à des absurdités. A-t-on besoin d’une électricité verte obtenue par la destruction de nos milieux de vie ? Avons-nous besoin de produire cette énergie pour faire rouler des voitures faussement « propres », alimenter des datacenters [centres de données, ndlr.] ou faire fonctionner des « mines » à bitcoins d’une gourmandise gigantesque, apogée de la futilité marchande et financière totalement hors-sol?

LVSL – Dans votre livre, vous montrez d’ailleurs que « derrière le fonctionnement automatique des machines est un jeu de volonté, consciente ou non, d’effacement du sujet, soit une stratégie « d’évitement du politique », de la conflictualité sociale et des rapports de force qui le définissent ».

A. G. – Ce que vous dites là vaut pour l’ensemble de la technologie moderne qui est une façon de nier les rapports de force. Nous nous projetons dans un avenir qui n’a plus aucun sens mais un seul objectif : le développement technologique pour le compte du marché libéral. On nous donne maintenant le modèle du numérique, issu de l’électricité, comme étant l’avenir de ce monde. Seulement, avons-nous envie d’être des objets numériques ? La technologie n’est pas neutre contrairement à ce que prétendent nombre de cercles bien-pensants. Les algorithmes nous imposent une logique binaire du comportement, une véritable morale qui est celle de l’ingénieur informaticien mais pas celle de l’humain ordinaire. Inutile de chercher bien loin, le distanciel numérique en est un exemple flagrant. Nous avons tous pu faire à cette occasion l’expérience que le monde « en distanciel » n’est plus celui de l’animal social que nous sommes. On nous fait perdre l’intérêt pour le jeu politique qui s’efface petit à petit derrière des contraintes apparemment objectives.

LVSL – Justement, la technologie nous est imposée, et il n’est plus possible de la remettre en cause.

A. G. – Absolument, il n’y a qu’à regarder la 5G. Il y avait un mouvement en Angleterre qui dégradait des antennes mais la crise sanitaire a très vite occulté cette question. On ne discute plus du tout de cette technologie, qui est pourtant un élément éminemment politique.  Nous sommes dans une période de rupture sur tous les plans. On a urgemment besoin d’un débat sur la technologie, de savoir où nous emmène la science. Je défends la technique tant qu’on la maîtrise. La technologie est fournie par la science qui est devenue, à mon sens, totalement anémique sur le plan éthique. Je pense qu’en réfléchissant à notre usage de la technologie comme peut le faire François Ruffin [député français affilié à la France Insoumise, ndlr.], on peut questionner sa rationalité scientifique. La science est perçue comme bonne et souhaitable en soi et le progrès scientifique trop souvent pensé comme un horizon immaculé, sans tâches.

Pour en savoir plus sur le dernier livre de François Ruffin, lire sur LVSL l’entretien réalisé par Arthur Beuvry : François Ruffin : « Emmanuel Macron poursuit une politique au service de sa classe »

LVSL – Comme vous l’analysez dans votre livre, la numérisation de nos activités n’est pas à voir d’un bon œil, tant pour des raisons écologiques que sociales. Les États se posent-t-il en protecteurs face à ce phénomène ou favorisent-ils son déploiement ?

A. G. – Avez-vous déjà entendu un État parler contre le numérique, contre le « progrès » technologique que nous apporte la numérisation du monde ? On n’en connaît aucun qui s’y oppose. Le RGPD – Règlement Général sur la Protection des Données, par exemple peut donner l’impression que les États ont le souci de protéger les libertés fondamentales des individus contre les géants du numériques comme les GAFAM – Google, Amazon, Facebook, Apple, Microsoft. Mais entre ces fameux GAFAM, parfois présentés comme de dangereux prédateurs plus puissants que n’importe quel pays, et ces mêmes États, il y a plus qu’une connivence, un lien de parenté. Tout d’abord les États modernes partagent avec les GAFAM le même goût pour la puissance et la démesure. Ensuite leur puissance repose très largement sur leur capacité à compter, dénombrer, recenser tout ce qui existe. La même « quantophrénie », autrement dit la même fascination pour la quantification du réel les habite. À l’échelle moléculaire leur rivalité est donc en partie factice, sur jouée, puisqu’ils ne peuvent en réalité ni exister ni croître les uns sans les autres. Les États modernes ont besoin de la puissance algorithmique et des grands réseaux pour accroître leur contrôle des populations qu’ils administrent. Les GAFAM ont besoin d’eux pour installer et protéger leurs infrastructures vitales. On pense souvent ces dernières comme des entités déterritorialisées, mais elles sont pourtant physiquement implantées sur nos territoires. Nos paysages sont par ailleurs remodelés par des travaux de transformation titanesques engagés à l’occasion de chaque changement de standard technologique, comme le montre la 5G.  Les débats actuels sur le « passeport covid » ou la cybersécurité en apportent chaque jour de nouvelles preuves. Pour ne prendre que ce dernier exemple, les cyber-attaques récentes sur des centres hospitaliers français à Dax et Villefranche-sur-Saône, ont mis le doigt sur les dangers qui existent quant à la numérisation de nos données les plus personnelles. Mais rien n’y fait. En réponse à ces attaques, l’État français annonce le déblocage d’un milliard d’euros pour le financement des recherches en cybersécurité. Il valide et accélère à cette occasion le processus de numérisation de la santé et de l’intimité qui va avec. Les besoins en cybersécurité vont continuer à se faire sentir et vont directement provoquer une consolidation du système numérique qui entrainera à son tour de nouvelles menaces et de nouveaux besoins en protection. La seule manière de sortir ce cercle vicieux électro-numérique passe sans doute par la prise de conscience du caractère mortifère de cette puissance sécuritaire. Nous avons besoin pour ce faire d’opérer un travail sur les couches les plus enfouies de l’imaginaire social. Peut-être a-t-il déjà commencé ?