Protectionnisme numérique : quand les États-Unis tournent le dos à l’OMC

Protectionnisme numérique - Le Vent Se Lève

Coup de tonnerre, le 24 octobre dernier, dans le petit monde feutré des négociations commerciales internationales. Les États-Unis annoncent un revirement majeur dans leur position vis-à-vis de l’accord sur le commerce électronique en discussion au sein de l’OMC1. Partisan jusque-là des mesures les plus « ambitieuses » – comprendre « contraignantes » – en matière de « libre-circulation des données à travers les frontières », d’interdiction faite aux États d’imposer des mesures de stockage ou de traitement des données sur leur sol, ou encore de « protection des codes sources », Washington ne les soutiendra finalement plus. La raison invoquée : se donner davantage de temps et de marges de manœuvre pour mieux réguler en interne avant de se lier au niveau international. Derrière, on trouve également la volonté diffuse d’endiguer la progression de la Chine en matière numérique.

Un argument d’autant plus surprenant que c’est précisément un de ceux que mobilisaient jusqu’ici en vain les principaux opposants à ces négociations. Lancées en janvier 2019 en marge du Forum de Davos, celles-ci étaient accusées de faire le jeu des géants – essentiellement américains – du numérique, qui cherchent depuis une dizaine d’années à instrumentaliser les accords de libre-échange pour se prémunir contre deux menaces croissantes2. D’une part, les tentations de « protectionnisme numérique » en vogue dans de nombreux pays du Sud. D’autre part, les appels de plus en plus pressants à mieux réguler un secteur accusé de favoriser le pillage des données personnelles, l’abus de position dominante ou encore la désinformation en ligne.

Grâce à un travail de lobbying qui a porté ses fruits3, les grandes plateformes ont pu enregistrer des victoires importantes dans des accords comme le Partenariat Transpacifique (dont les États-Unis se sont toutefois retirés suite à l’élection de Donald Trump) ou le nouvel accord Canada-États-Unis-Mexique (qui a remplacé l’ALENA en 2020). Des traités qui reprennent quasiment mot pour mot les listes de doléances des entreprises du numérique dans les chapitres consacrés au « commerce électronique »4. Depuis 2017, cette offensive s’était donc également déplacée vers l’OMC, aboutissant en 2019 au lancement de négociations « plurilatérales », c’est-à-dire menées par un groupe d’États « volontaires », mais ouvertes à tous les États membres.

Un dispositif à la légalité douteuse, censé permettre de contourner l’opposition véhémente de nombreux pays du Sud – Inde et Afrique du Sud en tête – qui rejetaient le principe même de ces négociations au motif qu’elles étaient non seulement prématurées, mais aussi largement biaisées en faveur des États-Unis et de leurs entreprises technologiques. Or, voilà que le gouvernement américain semble leur donner raison ce 24 octobre, par la voix du porte-parole du représentant américain au commerce (USTR) : « de nombreux pays, dont les États-Unis, examinent leurs approches en matière de données et de code source, ainsi que l’impact des règles commerciales dans ces domaines. Afin de laisser suffisamment d’espace politique à ces débats, les États-Unis ont retiré leur soutien aux propositions susceptibles de porter préjudice ou d’entraver ces considérations de politique intérieure »5.

Vent de colère

Signe de l’importance et du caractère inattendu de cette décision, elle a immédiatement suscité l’ire des principaux lobbys du numérique aux États-Unis et de leurs nombreux relais au Congrès, tant du côté Républicain que Démocrate. Le sénateur démocrate de l’Oregon, Ron Wyden, qui préside l’influent comité sur les finances, a ainsi fustigé une décision qui, selon lui, « laissera un vide que la Chine sera plus qu’heureuse de remplir »6. Un argument également martelé par la Chambre de commerce américaine, qui s’insurge : « les règles commerciales numériques américaines bénéficient d’un large soutien bipartisan au Congrès, dans les milieux d’affaires et parmi les gouvernements alliés. Les abandonner, c’est saper les efforts déployés pour tenir en échec les gouvernements autoritaires et créer un vide qui cède le leadership à d’autres nations »7.

Une personne en particulier concentre l’essentiel des attaques : Katherine Tai. Cette jeune avocate a été nommée au poste de USTR par Joe Biden en 2020, après s’être fait un nom à la chambre des représentants en défendant un rééquilibrage de la politique commerciale américaine en faveur des travailleurs. Un objectif qu’elle entend poursuivre malgré les oppositions qu’il suscite jusqu’au sein même de l’administration Biden8. Mise sous pression suite au revirement du 24 octobre, on lui reproche d’avoir agi de façon unilatérale au risque de sacrifier les intérêts des entreprises américaines. Des accusations qu’elle balaye, en expliquant : « cela ne veut pas dire que nous n’aiderons pas nos grandes entreprises. Mais cela signifie que nous devons nous arrêter et nous poser la question de savoir si ce qu’elles veulent est dans l’intérêt des États-Unis. Parce qu’en fin de compte, je travaille pour Joe Biden, et il travaille pour le peuple des États-Unis. Je ne travaille pas pour ces entreprises »9.

Or, Mme Tai n’est pas totalement seule au moment de s’attaquer au pouvoir croissant des Big Tech. À la Federal Trade Commission (FTC, l’agence anti-trust), par exemple, une autre nominée « progressiste » de M. Biden, Lina Khan, s’en prend aux pratiques anti-concurrentielles des grandes plateformes, avec notamment un important procès qui vient de démarrer contre Amazon10. D’autres procédures similaires sont également en cours contre Google ou Meta, tandis que Joe Biden lui-même vient de signer un décret présidentiel visant à mieux encadrer le développement de l’intelligence artificielle (IA)11. Il est donc évident que le climat général est plutôt favorable à un meilleur encadrement des pratiques des Big Tech aux États-Unis, ce qui explique et justifie la volonté affichée par Mme Tai de ne pas corseter ces initiatives par le biais de traités commerciaux contraignants12.

Endiguer la Chine

Mais d’autres facteurs ont également pu jouer. Pour le chercheur indien Parminder Jeet Singh, par exemple, il faut également lire la récente décision américaine à la lumière de la rivalité entre les États-Unis et la Chine. En effet, selon lui, « Le monde plat faisait le bonheur des États-Unis lorsqu’il signifiait leur hégémonie numérique sur ce monde. Mais avec la Chine qui les talonne rapidement sur la voie de la superpuissance numérique, la situation est devenue plus complexe »13. Échaudés par la façon dont la Chine a su tirer profit de son admission à l’OMC, en 2001, pour se hisser au rang de deuxième puissance économique mondiale, certains dirigeants américains (dont Mme Tai) craignent la répétition d’un scénario similaire en cas de libéralisation du commerce électronique dont la Chine pourrait également bénéficier. Sans compter qu’un accord trop contraignant viendrait également compliquer la stratégie de « découplage technologique » promues par l’administration américaine depuis plusieurs années pour contenir la montée en puissance numérique de Pékin14.

Dans ce contexte, toujours selon Singh, « La déclaration historique des États-Unis peut donc être vue sous deux angles différents. D’une part, elle indique un consensus de plus en plus large sur le fait que la préservation de l’espace politique national en matière de flux de données, de code source et de localisation des installations informatiques est essentielle à la réglementation numérique. Il s’agit là d’une évolution tout à fait bienvenue. Mais à un autre niveau, ce qui est plutôt inquiétant, c’est qu’elle pourrait renforcer la division de l’espace numérique mondial, des structures et des chaînes de valeur en deux blocs concurrents – l’un dirigé par les États-Unis et l’autre par la Chine ».

Pour contrer ce risque, d’aucuns misent sur les Nations Unies, dont le secrétaire général vient justement d’annoncer un projet de « Pacte numérique mondial », censé fournir un cadre de référence pour une réelle gouvernance mondiale du numérique15. Mais si l’ONU constitue indéniablement une instance plus légitime que l’OMC pour aborder des problématiques à la fois mondiales et multidimensionnelles comme la gouvernance des données ou la régulation de l’IA, l’institution souffre également de ses propres contradictions. À commencer, ici aussi, par les rivalités géopolitiques, mais également par le rôle accordé aux multinationales du numérique dans le cadre d’une approche « multipartite » (multistakeholders) historiquement privilégiée en matière de gouvernance d’internet16.

En attendant, reste à savoir ce qu’il adviendra des négociations en cours à l’OMC. Les États-Unis ont bien précisé qu’ils ne remettaient pas en cause l’accord en lui-même, mais seulement les dispositions les plus litigieuses. Dès le 6 novembre, un nouveau texte circulait qui reprenait un langage beaucoup plus consensuel en matière de circulation des données ou de protections des codes sources17. Une capitulation, pour ce négociateur cité (anonymement) par le Third World Network : « La question est de savoir si vous voulez un accord avec des avantages commerciaux substantiels ou simplement un accord pour avoir un accord ».

Mais pour d’autres opposants au texte18, c’en est encore trop. Les clauses problématiques ne se limitent en effet pas aux domaines les plus sensibles visés par la récente décision américaine. La volonté de supprimer définitivement les droits de douanes sur les produits électroniques, par exemple, pourrait avoir des répercussions au moins aussi importantes pour de nombreux pays du Sud19. Et, plus largement, le besoin de se ménager des marges et des espaces de régulation internes pourrait concerner des domaines dont on n’a peut-être même pas encore conscience, tant les choses évoluent vite en matière de numérisation.

De quoi appeler à la plus grande prudence donc, y compris dans d’autres accords de libre-échange qui incluent des clauses sur le « commerce électronique », à l’image de ceux que négocie l’Union européenne. Jusqu’ici, celle-ci s’est plutôt faite le relais des exigences des lobbys numériques américains, quitte à fragiliser ses propres ambitions de régulation interne et de « souveraineté numérique »20. Une conséquence dont se défendait encore il y a peu la Commission, en affirmant qu’il est tout à fait possible de concilier les deux. La récente volte-face américaine sonne toutefois comme un désaveu cinglant de cette position – au mieux – naïve.

Notes :

1 D. Lawder, « US drops digital trade demands at WTO to allow room for stronger tech regulation », Reuters, 26 octobre 2023.

2 C. Leterme, « Bataille autour des données numériques », Le Monde diplomatique, novembre 2019.

3 En particulier sous la présidence Obama. Entre 2014 et 2017, le responsable de la politique commerciale numérique américaine n’était autre que Robert Holleyman, jusque-là président de la Business Software Alliance (BSA).

4 D. James, « Digital trade rules : a desastrous new constitution for the global economy, by and for Big Tech », Rosa Luxemburg Stiftung, Bruxelles, 2020.

5 Cité dans Lawder, « US drops digital trade demands at WTO… », op. cit.

6 « Wyden Statement on Ambassador Tai’s Decision to Abandon Digital Trade Leadership to China at WTO », United States Senate Coommitee on Finance, 25 octobre 2023.

7 D. Palmer, « Biden administration delivers U.S. business a digital trade loss », Politico, 26 octobre 2023.

8 R. Kuttner, « Will Katherine Tai Prevail Over the Corporate Undertow? », The American Prospect, 27 juin 2023.

9 D. Palmer & G. Bade, « USTR Tai on the defensive after digital trade move », Politico Pro, 17 novembre 2023.

10 B. Serrure & P. Neirynck, « Le procès contre Amazon, un test pour l’avenir de la Big Tech », L’Écho, 27 septembre 2023.

11 A. Leparmentier, « Joe Biden annonce un plan de mesures pour contrôler l’intelligence artificielle », Le Monde, 31 octobre 2023.

12 F. Stockman, « Should Big Tech Get to Write the Rules of the Digital Economy? », The New York Times, 27 novembre 2023.

13 P. J. Singh, « The U.S.’s signal of a huge digital shift », The Hindu, 10 novembre 2023.

14 C. Leterme, « Tik Tok ou l’escalade dans la « guerre froide numérique » », CETRI, 13 août 2020.

15 https://www.un.org/techenvoy/global-digital-compact

16 « Pragmatic Deal or Tragic Compromise? Reflections on the UN SG’s Policy Brief on the Global Digital Compact », IT for Change, 6 juin 2023.

17 R. Kanth, « WTO: “Domino effect” of US pullout of proposals from JSI e-com talks », SUNS (n°9894), 10 novembre 2023.

18 À l’image du réseau altermondialiste Our World is not for Sale (OWINFS) qui mobilise sur cet enjeu depuis de nombreuses années : https://ourworldisnotforsale.net/digital.

19 C. Leterme, « E-commerce à l’OMC : l’étau se resserre sur les pays en développement », IRIS, 10 mars 2021.

20 C. Leterme, « Numérique et libre-échange : schizophrénie européenne ? », La revue européenne des médias et du numérique, n°67, automne 2023.

La bataille oubliée de Salvador Allende pour la souveraineté technologique

« La technologie, c’est la géopolitique par d’autres moyens » : telle serait la leçon oubliée de la présidence de Salvador Allende, et du coup d’État qui l’a renversé. C’est ce qui ressort du podcast du chercheur Evgeny Morozov The Santiago boys, fruit d’un long travail dédié au projet Cybersyn. Cet « internet chilien avant la lettre », système sophistiqué de télécommunications développé sous le gouvernement d’Allende, était destinée à asseoir la souveraineté du pays en la matière. La « voie chilienne vers le socialisme » passait par une émancipation vis-à-vis des technologies américaines, perçues comme un facteur de sous-développement. Le podcast d’Evgeny Morozov permet de prendre la mesure de l’ambition du gouvernement de Salvador Allende. En négatif, il souligne le désintérêt que porte une grande partie de la gauche contemporaine à la question de la souveraineté technologique. Recension.

Lorsque Fiona Scott Morton, ex-lobbyiste pour les GAFAM, a été nommée à un poste clef auprès de la commissaire européenne à la Concurrence, il ne s’est trouvée que la France pour protester – bien timidement. Une fois son retrait acté, une grande partie de la gauche européenne a repris son souffle : les institutions européennes étaient sauves, le système de checks and balances avait fonctionné, c’est la loi européenne qui allait s’appliquer, au bénéfice des Européens, et non des Américains.

Des Big Tech américaines, la gauche européenne critique l’opacité, le gigantisme, le coût écologique ou les liens avec l’extrême droite. Elle réclame, toujours à l’échelle européenne, une régulation plus stricte. Il y a peu encore, elle érigeait la commissaire européenne à la Concurrence Magrethe Vestager au rang d’héroïne pour avoir dénoncé les pratiques anti-concurrentielles des GAFAM. Le Digital Markets Act et le Digital Services Act, adoptés par les institutions européennes en 2022 sous son impulsion, étaient censées forcer les géants de la Silicon Valley à respecter leurs obligations auprès des consommateurs européens.

Mais rares sont, au sein de la gauche européenne, ceux qui s’en prennent à la suprématie américaine sur les géants du numérique en tant que telle. Il semble acquis que si ces derniers se plient à leurs obligations légales et offrent un service de qualité, leur nationalité américaine sur tout un continent ne soulève aucun problème particulier. Pas davantage que l’absence de souveraineté numérique des Européens.

Parmi les administrateurs de la multinationale américaine des télécommunications nationalisée par Allende, on trouve John McCone, ancien directeur de la CIA (1961-1965).

Une telle attitude entre dans la catégorie de ce qu’Evgeny Morozov nomme « solutionnisme technologique », qui consiste à analyser les enjeux techniques sous un angle purement fonctionnel, en évacuant leur dimension politique et conflictuelle1. Il n’est donc pas surprenant qu’il se soit intéressé au Chili des années 1970, où les infrastructures techniques – notamment celles liées à la télécommunication – font l’objet d’une intense politisation, et sont pensées sous le prisme de la souveraineté, ou de l’absence de souveraineté. Le plus important, déclarait Salvador Allende (cité par Morozov) n’était pas d’apporter une solution aux problèmes des services téléphoniques et télégraphiques que connaissait le Chili des années 1970 ; le plus important était de « trouver nous-mêmes nos propres solutions ».

Il n’était pas le seul à penser de la sorte. Une grande hétérogénéité caractérisait l’Union populaire, cette coalition qui a dirigé le Chili pendant trois ans sous sa présidence. Dans les ministères, on croisait aussi bien des socialistes bon teint que les marxistes-léninistes du MIR (Movimiento de izquierda revolucionaria, « mouvement de la gauche révolutionnaire »). Mais s’il est un point qui faisait consensus, c’est le caractère néfaste du monopole américain sur le secteur des télécommunications au Chili.

En Amérique latine, la multinationale ITT (International Telephone and Telegraph, basée à Washington) est honnie, d’abord pour les tarifs abusifs qu’elle pratique. C’est en les dénonçant que le jeune avocat cubain Fidel Castro obtient une première notoriété. Mais ce n’est pas la seule raison, ni la principale. Confier un secteur aussi stratégique à des capitaux étrangers et privés, estime-t-on, nuit à la souveraineté des populations latino-américaines – et les condamne à un sous-développement chronique. Une fois élu, Allende entreprend d’exproprier ITT. Une lutte souterraine s’engage.

Intérêts oligarchiques et dépendance technologique

Il ne s’agit pas seulement, on l’a vu, de permettre aux Chiliens d’avoir accès à un système téléphonique et télégraphique fonctionnel. Le problème réside moins dans la piètre qualité des services d’ITT et des multinationales analogues que dans l’asymétrie de pouvoir qu’elles entretiennent avec la population chilienne. ITT elle-même constitue un emblème vivant de la confusion entre le renseignement américain et le secteur privé.

Lorsque Salvador Allende nationalise ITT, les intérêts qu’il heurte n’ont rien d’anodin. Parmi les administrateurs de l’entreprise on trouve John McCone, ancien directeur de la CIA (1961-1965). Quelques années plus tôt, il avait supervisé le coup d’État contre le gouvernement brésilien de Joao Goulart ; il s’était alors appuyé sur cette même ITT, qui avait contribué à paralyser les télécommunications du pays. Et plus tôt encore, il avait participé à des opérations de sabotage contre le gouvernement de Fidel Castro à Cuba, dont les plus importantes concernaient… les télécommunications. Il n’était donc nul besoin d’être un marxiste particulièrement radical pour considérer que ces enjeux n’étaient pas réductibles à des questions techniques…

Ainsi, Allende tente d’attirer des ingénieurs du monde entier afin de poser les fondements d’un système de télécommunications qui permettrait au Chili de se passer des brevets et infrastructures fournis par Washington. Parmi eux, l’excentrique britannique Anthony Stafford Beer, versé dans la cybernétique. Avant les tristement célèbres Chicago boys, d’autres contingents internationaux ont cherché à bouleverser l’organisation sociale du pays : les Santiago boys.

Evgeny Morozov rappelle que ces ingénieurs radicalisés sont influencés par la « théorie de la dépendance ». Selon celle-ci, la faible souveraineté technologique du Chili cantonne le pays au statut d’exportateur de matières premières. Les pays riches, estiment les « théoriciens de la dépendance », monopolisent les savoir-faire technologiques et possèdent les conditions de leur reproduction. Les pays pauvres, de leur côté, condamnés à importer des produits à haute valeur ajoutée, ne possèdent pas les ressources nécessaires pour les concurrencer. Inertie institutionnelle aidant, cet avantage de départ pour les uns et ce handicap pour les autres se maintiennent. Ils tendent même à s’accroître avec le commerce international tel qu’il prédomine sous le capitalisme2. Avec le projet Cybersyn, les Santiago boys cherchent à briser ce cercle vicieux.

C’est ainsi qu’à huis clos, ils travaillent à l’élaboration de moyens de communication révolutionnaires. Ils ébauchent un système télégraphique qui permettrait d’envoyer des messages d’un point à un autre du territoire, et de les afficher sur des téléimprimeurs. À Santiago, une salle secrète, avec un écran, centralise ces échanges. Ce système, estiment les Santiago boys, permettrait de cartographier l’ensemble du pays, et de connaître en temps réel les besoins et les capacités de tout un chacun (la demande et l’offre), de la zone australe à la frontière péruvienne du Chili.

On voit qu’il s’agit de bien autre chose que de remplacer le système téléphonique et télégraphique existant : le projet Cybersyn ouvre la voie à des modes de coordination et de communication inédits. Par bien des aspects, il anticipe les prouesses réalisées plus tard par l’internet de la Silicon Valley.

De l’économie de guerre civile à la planification ?

C’est lors de la grève des camionneurs que le projet Cybersyn révèle son utilité. En 1972, le pays manque d’être paralysé : sous l’impulsion du mouvement d’extrême droite Patria y libertad et de la CIA, les conducteurs routiers se livrent à une obstruction des voies publiques. En face, les militants du MIR tentent de faire échouer le mouvement et d’assurer autant que possible la normalité des échanges.

L’outil des Santiago boys permet alors de faire état, en temps réel, de la situation des uns et des autres : les entreprises dont les routes sont bloquées, celles dont les routes sont libres, les entreprises en pénurie, celles qui sont en excédent, peuvent être mises en rapport. On espère ainsi mettre en échec l’asphyxie de l’économie souhaitée par les grévistes. Bien sûr, Cybersyn demeure encore embryonnaire.

Mais l’idée fait son chemin : ce mode de coordination, si prometteur en temps de guerre civile, ne pourrait-il pas être généralisé en temps de paix ? Si l’ensemble des entreprises du pays étaient connecteés au telex, elles pourraient faire état, en temps réel, de leurs intrants et de leurs extrants. Il serait alors possible d’agréger ces données, d’établir des régularités, et de repérer (avant même que les agents en aient conscience) les éventuels problèmes dans le processus de production.

Révolutionnaire, le projet Cybersyn ? Morozov souligne que la CIA possédait en réalité un réseau de communication similaire, avant même les années 1970.

L’ingénieur britannique Stafford Beer est féru de cybernétique, cette « science des systèmes complexes » généralement associée à une idéologie autoritaire et libérale. Il cherche à en faire un outil d’émancipation au service de la planification. Il expose sa conception « cybernétique » de l’État à Salvador Allende : comme un organe, l’État possède une partie consciente – qui prend des décisions politiques – et une autre non consciente – qui effectue au jour le jour des schémas réguliers, répétés spontanément sans réflexion.

Or, ces schémas réguliers deviennent rapidement obsolètes face à un réel en perpétuelle évolution. Pour qu’ils s’adaptent de manière incrémentale à ses changements, quoi de mieux qu’un système national de télécommunications permettant à chaque organe de connaître, en temps réel, les changement qui surviennent dans n’importe quelle sphère du gouvernement ou de l’économie ?

Morozov souligne l’hostilité encourue par Stafford Beer et les Santiago boys. Les médias conservateurs tirent à boulets rouges sur un projet décrit comme orwellien. Mais l’opposition, plus douce, vient aussi de la gauche : les marxistes-léninistes du MIR défendent le pouvoir ouvrier face à celui de quelques ingénieurs. Cette tension entre démocratie ouvrière et technocratie caractérise, plus largement, l’ensemble du mandat de Salvador Allende3. Couplée à l’intensification des manoeuvres de sabotage de l’opposition, elles expliquent que Cybersyn n’ait, en grande partie, jamais dépassé le stade de projet. Le 11 septembre 1973, il est définitivement enterré.

Quelles leçons du 11 septembre 1973 ?

Révolutionnaire, le projet Cybersyn ? Morozov souligne que la CIA possédait en réalité un réseau de communication similaire, avant même les années 1970. Afin de coordonner la répression anticommuniste, elle avait fourni un système de telex à ses alliés latino-américains, destiné à faciliter la coopération. Plusieurs historiens, interrogés par Morozov, détaillent son fonctionnement. À Washington, un écran géant centralisait l’ensemble des informations et des conversations. Il pouvait afficher les messages échangés entre les uns et les autres, mais aussi des cartes, ou réaliser des agrégations de données.

Les Chicago boys n’ont-ils fait qu’imiter, bien maladroitement, un système de télécommunication déjà existant ? Une autre question plus lancinante traverse ce podcast : durant la présidence d’Allende, ces réseaux parallèles ont-ils continué à opérer, et à faciliter la communication entre la hiérarchie militaire et les services américains ? Des événements troublants, rapportés par Morozov, laissent entendre que les officiers putschistes, le 11 septembre 1973, se sont appuyés sur un tel système pour distiller de fausses informations, générer de la confusion et permettre au coup d’État de parvenir à son terme. Quoi qu’il en soit, ce système a perduré dans les années 1970. Il a garanti aux protagonistes de « l’Opération Condor » des moyens de répression d’une redoutable efficacité.

Le podcast de Morozov offre une plongée dans les canaux souterrains du coup d’État de 1973, avec une précision chirurgicale. Il dévoile à quel point les réseaux de communication abandonnent leur apparente neutralité sitôt que la situation politique se tend, pour devenir des armes de guerre – aux côtés de la finance ou de l’armée.

On ne peut s’empêcher d’effectuer un parallèle avec la situation présente – et de contraster le volontarisme politique de l’Union populaire chilienne avec l’atonie d’une grande partie de la gauche contemporaine. Quant l’une tentait de se débarrasser d’ITT, l’autre semble paralysée face aux GAFAM – quand elle n’y est pas totalement indifférente.

Les multiples affaires d’espionnage du gouvernement américain sur ses homologues européens, permises par leur suprématie technologique, n’ont soulevé qu’une faible indignation. L’affaire Pierucci, qui a vu un cadre français d’Alstom arrêté par le Department of Justice (DOJ) des États-Unis, puis condamné sur la base de messages échangés via Gmail (à laquelle le DOJ avait bien sûr accès), n’a jamais réellement mobilisé la gauche française. Et face au Cloud Act voté sous le mandat de Donald Trump, qui officialise le droit pour les États-Unis de violer la confidentialité des échanges si leur intérêt national le leur intime, la gauche européenne est surtout demeurée muette.

On objectera avec raison que les Big Tech américaines présentent des défis autrement plus importants que les multinationales de la télécommunication d’antan. Mais qui pourra dire que l’expérience de l’Unité populaire face à ITT n’est pas riche d’enseignements pour le présent ? Et que le dédain d’une partie de la gauche française pour toute forme de souveraineté numérique ne constitue pas un problème majeur ?

Notes :

1 Les implications du « solutionnisme technologique » vont au-delà de ce qu’il est possible de présenter dans cet article. On renverra notamment à l’ouvrage d’Evgeny Morozov Le mirage numérique. Pour une politique du Big Data (Les prairies ordinaires, 2015).

2 La « théorie de la dépendance » au sens strict met l’accent sur l’asymétrie technologique entre pays riches et pays pauvres, et l’inertie institutionnelle qui permet à cet état de fait de perdurer. Elle est souvent conjuguée au « théorème Singer-Prebisch » (du nom des deux économistes l’ayant théorisé), qui postule une « dégradation des termes de l’échange » : sur le long terme, le prix des biens à haute valeur ajoutée tendrait à augmenter plus rapidement que le prix des matières premières. Il s’agit, on s’en doute, d’un facteur supplémentaire de maintien ou de renforcement de cette asymétrie technologique…

3 Dans Chili, 1970-1973 – Mille jours qui ébranlèrent le monde (Presses universitaires de Rennes, 2017), Franck Gaudichaud détaille par le menu ces contradictions qui caractérisent l’expérience gouvernementale chilienne.

Le néolibéralisme comme reformatage du pouvoir de l’État – Entretien avec Amy Kapczynski

Le néolibéralisme ne consiste pas dans le simple retrait de l’État au profit du marché : il est l’institution, par l’État, d’une logique de marché. Mais au-delà de ce lieu commun, est-il une simple idéologie, un régime économique ou un paradigme de gouvernance ? Amy Kapczynski, professeur de droit à l’Université de Yale et co-fondatrice du « Law and Political Economy Project », se concentre sur ce troisième aspect. Selon elle, le néolibéralisme consiste en un « reformatage du pouvoir de l’État », qui accouche d’un cadre institutionnel favorable à la maximisation du profit des grandes sociétés dont les géants de la tech et les entreprises pharmaceutiques constituent deux des manifestations les plus emblématiques. Entretien réalisé par Evgeny Morozov et Ekaitz Cancela, édité par Marc Shkurovich pour The Syllabus et traduit par Alexandra Knez pour LVSL.

Evgeny Morozov et Ekaitz Cancela – Comment définissez-vous le néolibéralisme dans votre travail?

Amy Kapczynski – Comme une logique de gouvernance orientée vers l’accroissement du pouvoir des acteurs du marché, et la diminution de l’autorité publique sur ces acteurs. Wendy Brown utilise un terme charmant, le « reformatage du capitalisme ». Il s’agit d’un reformatage du capitalisme qui vise non seulement à accroître le pouvoir des acteurs privés – et donc leur capacité à extraire du profit – mais aussi à combattre le contrôle démocratique sur ces acteurs.

Pour moi, c’est ainsi qu’il faut voir les choses, plutôt que, par exemple, comme un mouvement de déréglementation. Le néolibéralisme est en réalité très régulateur. Il est régulateur avec un paradigme et un objectif particuliers comme horizon. Il est important de garder à l’esprit la manière dont l’économie a été réglementée – par un droit du travail défavorable aux salariés ou une législation antitrust, entre autres – pour d’optimiser la recherche de profit.

Il est également important de comprendre les liens entre cette régulation et les paradigmes réglementaires de l’État-providence, de l’État carcéral, etc. En un mot, la période néolibérale n’est pas une période de déréglementation générale – en particulier aux États-Unis.

EM et EK Si l’on s’en tient à cette définition du néolibéralisme, que vous explorez dans votre excellente conversation avec Wendy Brown, observe-t-on des changements au sein de cette logique au cours des dix ou quinze dernières années ? Ou observe-t-on une continuité depuis les années 1970 ?Quelque chose de distinct est-il apparu à l’horizon, notamment avec l’essor des GAFAM?

AK – Le néolibéralisme a, d’une certaine manière, suspendu les anciennes formes de réglementation juridique pour les grandes entreprises technologiques, puis a amplifié certains aspects de la recherche du profit. Ces intermédiaires technologiques, du paysage des réseaux sociaux à Amazon, contrôlent la vie publique et l’économie d’une manière distincte et nouvelle.

Mais je ne pense pas que ces changements reflètent une mutation dans la logique néolibérale elle-même, mais plutôt sa portée lorsqu’elle est appliqué à un secteur qui peut être transformé à la vitesse d’un logiciel. Aujourd’hui, les processus mis en place par le néolibéralisme peuvent fonctionner avec une vitesse stupéfiante. Et la capacité de ces formes de pouvoir concentré à sillonner les domaines ostensiblement publics et privés est extraordinaire.

EM et EK – Les efforts intellectuels pour penser au-delà du néolibéralisme, sur lesquels vous avez attiré l’attention, se sont concrétisés de deux manières différentes – et vous êtes critique à l’égard des deux. Dans un essai, vous vous concentrez sur le « productivisme », ou libéralisme de l’offre, tel qu’il est défendu par Dani Rodrik et d’autres membres de la gauche progressiste. Dans un autre essai, vous vous attaquez à un mouvement de droite connu sous le nom de « constitutionnalisme du bien commun ».Commençons par le premier. Pouvez-vous nous parler des pièges que vous voyez dans le productivisme ?

Des mutations ont lieu dans la doctrine du droit constitutionnel. Le premier amendement a été interprété dans un sens favorable aux entreprises, qui revendiquent un statut constitutionnel

AK – Le productivisme et le libéralisme de l’offre évoquent tous deux un aspect important de l’incapacité des logiques néolibérales et de la gouvernance économique à produire une économie que nous souhaitons réellement. Ils nomment quelque chose qu’il est important d’aborder. Mais je pense également qu’ils ne doivent pas être considérés comme une réponse au néolibéralisme. Si l’on pense que « là où il y avait le néolibéralisme, il y a maintenant la politique industrielle et le productivisme », alors ce sera un changement très limité…

Le productivisme tel que l’exprime Rodrik – et je pense que le libéralisme de l’offre possède cette même qualité – donne le sentiment que nous nous tournons vers une gestion gouvernementale plus directe des chaînes d’approvisionnement, vers un investissement gouvernemental plus important dans nos secteurs manufacturiers. Le problème est que le secteur des services est bien plus important pour l’avenir des travailleurs américains que le secteur manufacturier. L’ancien concept de « production » ne dit pas grand-chose de l’économie actuelle.

Ainsi, l’idée selon laquelle nous devrions miser sur un nouveau productivisme semble laisser de côté beaucoup de nombreuses dimensions de la critique du néolibéralisme. Qu’en est-il de l’agenda de la santé ? Que fait-on des salariés du secteur des services ? Quid des liens que l’on établit entre le capitalisme et la question environnementale ?

Le productivisme pourrait suggérer, par exemple, que les technologies vertes constitueraient la solution au changement climatique – et on peut bien sûr considérer qu’elles font partie de la solution, si l’on ajoute qu’elles ne seront pas suffisantes. En réalité, le productivisme et le libéralisme de l’offre s’appuient sur des fondements contestables – battus en brèche, par exemple, par les approches féministes et écologistes.

Tout dépend de votre compréhension de l’objectif du productivisme. S’agit-il d’une tentative de fonder une alternative au néolibéralisme ? C’est ainsi que j’ai interprété l’utilisation du terme par Rodrik. Et si c’est le cas, il semble négliger de nombreuses critiques du néolibéralisme en le traitant comme s’il s’agissait uniquement d’un mode de production, et non pas également d’un mode de gouvernement. Si l’on ne voit dans le néolibéralisme qu’un mode étroit de production – dans le sens d’uen consolidation des marché -, on ne comprend rien à la gouvernance à laquelle il est lié. Le néolibéralisme, en effet, consiste également à contraindre certains pour que d’autres puissent être libres.

C’est la raison pour laquelle nous avons investi dans l’État carcéral comme moyen de discipliner les travailleurs et d’éviter les obligations sociales, la raison pour laquelle nous investissons davantage dans la police que dans les travailleurs sociaux, etc.

EM et EK – L’autre approche que vous mentionnez, le constitutionnalisme du bien commun, est mise en avant par certaines franges de la droite théocratique. Avant de discuter de son contenu, pouvez-vous nous parler du rôle de ces écoles juridiques conservatrices dans la consolidation du modèle néolibéral ?

AK – Je considère que le droit, et dans une certaine mesure les écoles de droit et les institutions dans lesquelles elles naissent, assurent la cohésion entre les idées néolibérales et la gouvernance. Ces idées sont toujours reflétées à travers des champs de pouvoir et changent à mesure qu’elles s’intègrent dans la gouvernance.

Le loi relative aux ententes et abus de position dominante en est un bon exemple. Les idées sur les pratiques antitrust introduites dans les facultés de droit sous le titre « Law & Economics » sont devenues très puissantes. Elles ont été utilisées pour normaliser une idée du fonctionnement des marchés. Selon ce point de vue, tant qu’il n’y a pas de barrières à l’entrée érigées par le gouvernement, la concurrence se manifestera toujours et les monopoles seront intrinsèquement instables. Les monopoles étaient considérés comme un signe d’efficacité d’échelle. De nombreuses modifications ont donc été apportées à la législation afin de faciliter les fusions-acquisitions. L’application de la loi antitrust a été soumise à une économétrie extrêmement précise, plutôt qu’à des règles qui auraient pu, par exemple, limiter la taille ou l’orientation structurelle de certaines industries.

La législation antitrust repose également sur une autre idée importante, à savoir que ce domaine juridique ne doit servir qu’un seul objectif : l’efficacité. Dans ce contexte, l’efficacité est définie en grande partie par les effets sur les prix. Les conséquences pour la structuration de notre politique, ou pour les travailleurs en général, n’étaient plus considérées comme importantes. Ce qui importait, c’était de réduire les prix pour les consommateurs. Ainsi, de nombreux modèles d’entreprise se sont bâtis sur l’idée de rendre leurs produits gratuits – comme les réseaux sociaux – ou générer les prix les plus bas possibles pour les consommateurs – comme Amazon. Que le secteur génère un pouvoir structurel démesuré, entre autres effets néfastes, n’est pas pris en compte.

En ce qui concerne le droit de la propriété intellectuelle, de nombreuses modifications ont également été apportées pour faciliter la capitalisation dans l’industrie de l’information. La création de nouveaux types de propriété, les brevets logiciels, les brevets sur les méthodes commerciales, l’extension des droits exclusifs associés à ces types de propriété sont autant de moyens de permettre la capitalisation dans l’industrie. Ils sont apparus en même temps que les formes de réglementation qui auraient pu être utilisées pour limiter la manière dont les entreprises de ces secteurs exerçaient leur autorité. Le Communications Decency Act en est un exemple.

On observe également des changements internes au gouvernement lui-même, comme la montée en puissance de l’analyse coûts-bénéfices.

Enfin, des mutations importantes ont lieu dans la doctrine du droit constitutionnel : que l’on pense à la manière dont le premier amendement est compris. Ce n’est qu’à partir de 1974 qu’il est interprété dans un sens favorable aux entreprises, ce qui revient à revendiquer, pour elles, un statut constitutionnel. Les changements apportés à la loi sur le premier amendement ont eu des répercussions multiformes, des syndicats aux financement de campagnes.

EM et EK – Certaines des caractéristiques que vous critiquez – l’accent mis sur l’efficacité ou l’analyse coût-bénéfice – pourraient également être attribuées au fétichisme de l’économie elle-même. Je ne les attribuerais pas nécessairement au néolibéralisme en tant que tel. Au sein de ce courant, on peut trouver des penseurs – comme James Buchanan – qui refusent de prendre l’efficacité comme horizon. Il semble donc que certaines de ces critiques concernent davantage la pratique que la logique. Lorsqu’il s’agit de la manière dont les tribunaux ou les organismes de réglementation prennent leurs décisions, ils doivent faire appel à certains outils – l’analyse coût-bénéfice étant l’un d’entre eux – mais cette passerelle vers la logique néolibérale pourrait être attaquée par les néolibéraux eux-mêmes…

AK – C’est l’occasion de s’interroger sur ce que signifie appeler le néolibéralisme une « logique ». Plus précisément, nous devons parler du néolibéralisme comme d’un reformatage du pouvoir de l’État. En ce sens, il s’agit d’une politique et non d’une logique pure, je suis tout à fait d’accord.

Lorsque vous examinez de près la logique de l’efficience telle qu’elle est utilisée en droit, il s’avère qu’elle est en réalité utilisée pour signifier de nombreuses choses différentes dans de nombreux contextes juridiques différents. En ce qui concerne la propriété intellectuelle, le type d’efficacité dont on parle donne la priorité à l’innovation sur tout le reste ; mais il n’a pas grand-chose à voir avec le type d’efficacité dont il est question dans la législation antitrust, ou avec le type d’efficacité exprimé par l’analyse coût-bénéfice. En fait, elles sont toutes différentes.

Et elles sont toutes différentes parce qu’elles répondent en fin de compte à des idées sur la prédominance d’un certain type de pouvoir : le pouvoir des marchés sur les formes démocratiques de gouvernance. Ces conceptions de l’efficacité s’expriment alors de différentes manières, en fonction des avantages que procurent ces formes de pouvoir. En ce sens, je suis tout à fait d’accord pour dire que nous ne sommes pas face à l’expression pure d’une certaine logique, mais plutôt de nombreuses expressions d’un projet politique qui prennent des formes différentes dans des contextes différents.

EM et EK – Vous avez également écrit sur la relation entre le néolibéralisme et les droits humains, plus particulièrement sur le droit à la santé. Que nous révèle cette focalisation sur la santé quant à la relation plus large entre les droits de l’homme et le néolibéralisme ?

AK – J’ai écrit l’article que vous évoquez en raison de la frustration que m’inspiraient à la fois la forme de la législation et du discours dominants en matière de droits de l’homme et certaines critiques de ce discours, comme celles de mon collègue Sam Moyn. Ayant participé au mouvement mondial pour l’accès au traitement du VIH et à d’autres médicaments, il est clair que la revendication d’un droit à la santé implique nécessairement des questions d’économie politique. Comment peut-on parler de droit à la santé si les sociétés pharmaceutiques, par exemple, se voient accorder des droits de monopole – des brevets – qui leur permettent d’augmenter les prix de produits vitaux, même sans la moindre justification que cela génère de l’innovation ? Regardez les hausses de prix de l’insuline, ou les hausses de prix du vaccin Moderna (qui a été massivement financé par des fonds publics et qui a clairement amorti tous les coûts d’investissement privés) contre le Covid durant la pandémie.

Si vous vous souciez de la santé, vous devez vous attaquer à la structure du secteur et à son pouvoir. Il existe des moyens de structurer l’industrie (notamment en donnant un rôle plus important à l’investissement public et à la réglementation des prix) qui pourraient conduire à la fois à un meilleur accès aux soins et à plus d’innovation. Les tribunaux et les institutions de défense des droits de l’homme devraient s’en préoccuper, tout comme les militants qui luttent pour le droit à la santé. Mais la plupart du temps ils rejettent cette perspective, parce qu’ils considèrent les brevets et la structure industrielle comme quelque chose d’entièrement distinct de la sphère des droits de l’homme.

C’est la frustration que j’éprouve à l’égard des approches fondées sur les droits de l’homme : ils ont pris forme à une époque de néolibéralisme exacerbé, où l’on pensait que les questions d’économie étaient totalement distinctes des questions de droits. Les droits de l’homme sont même revendiqués au nom des entreprises, qui affirment – parfois avec succès, comme dans l’Union européenne – que leurs droits de propriété intellectuelle méritent d’être protégés dans le cadre des droits de l’homme !

Mais il y a également eu des dissidences dans cette tradition – les organisations de lutte contre le sida soutenant que le droit à la santé pourrait permettre aux tribunaux de limiter le droit des brevets, par exemple. En ce sens, les critiques des droits de l’homme comme celle de Sam Moyn atténuent ou négligent parfois les initiatives inédites visant à utiliser cette tradition, y compris pour contribuer à la mobilisation de l’opinion publique, comme l’a fait le mouvement en faveur d’un meilleur accès aux médicaments.

EM et EK – Quels sont les principaux héritages du néolibéralisme dans la gouvernance mondiale de la santé ? Qu’est-ce que le Covid nous a appris sur leur pérennité et leur contestabilité ?

AK – Nous sommes face à un régime de gouvernance mondiale de la santé qui n’a pas contesté le pouvoir du secteur privé, et qui s’est accommodé de discours et de pratiques marchnades qui nuisent gravement à la santé. Dans le contexte du Covid, nous avons pu produire des vaccins extrêmement efficaces – une merveille scientifique – grâce à un soutien public considérable, y compris un soutien à la recherche sur les coronavirus qui a eu lieu de nombreuses années avant la pandémie, ainsi qu’un soutien à la surveillance mondiale des maladies et à l’analyse génomique qui ont été essentiels pour le processus.

Mais au cours des dernières années, des gouvernements ont décidé de ne pas imposer aux entreprises des conditions qui auraient contribué à garantir la possibilité d’utiliser les vaccins obtenus pour faire progresser la santé de tous. Nous avons autorisé un monopole de production des vaccins ARNm les plus efficaces au sein de chaînes d’approvisionnement privées auxquelles le Nord avait un accès privilégié, et nous avons autorisé les entreprises à refuser toute assistance aux efforts critiques de fabrication de ces vaccins dans le Sud.

Bien qu’il y ait eu une nouvelle prise de conscience que l’ordre commercial mondial et l’accord ADPIC (qui fait partie de l’OMC et protège les brevets sur les médicaments) posaient un réel problème, et qu’il y ait eu de petites tentatives de réforme, nous n’avons finalement pas réussi à surmonter la capacité de l’industrie à dicter les termes de la production et de l’accès aux vaccins – ce, en dépit de subventions publiques massives. Il s’agit d’un héritage de l’ordre néolibéral dans le domaine de la santé.

EM et EK – Vous avez expliqué en détail comment le système actuel des brevets actuel profite aux pays riches et aux entreprises. Y a-t-il des raisons d’être optimistes quant à la possibilité de changer la donne ?

AK – Je vois des raisons d’espérer. Le fait que le gouvernement américain se soit prononcé en faveur de la suspension d’au moins certaines parties de l’accord sur les ADPIC concernant le Covid était sans précédent. J’aurais aimé qu’ils aillent plus loin et que l’Europe ne soit pas aussi récalcitrante, mais il s’agit d’une étape importante et nouvelle. Cela reflète le fait que l’ordre commercial néolibéral est réellement remis en question, même si ce qui le remplacera n’est pas encore clairement défini.

Il s’agit de s’éloigner du principe selon lequel les marchés suivent leurs propres lois. Nous établissons les lois, les formes de pratiques sociales qui donnent leur forme aux marchés

Je fonde encore plus d’espoir sur des expériences comme cette nouvelle installation de production d’ARNm en Afrique du Sud, qui est soutenue par l’Organisation mondiale de la santé, et dans le fait que l’État de Californie travaille maintenant à la fabrication de sa propre insuline. Pour contester l’autorité des entreprises, il faudra non seulement modifier les droits de propriété intellectuelle, mais aussi procéder à de véritables investissements matériels comme ceux-ci, afin de modifier l’équilibre des pouvoirs sur les biens essentiels.

Il existe une coalition, petite mais solide, de groupes de pression dans les pays du Nord qui s’efforcent de remettre en cause le pouvoir et les prix des entreprises pharmaceutiques, et dont beaucoup ont commencé à travailler dans ce domaine en tant que militants pour un meilleur accès aux médicaments à l’échelle mondiale. Ce sont finalement ces liens entre les mouvements qui me donnent le plus d’espoir, parce qu’ils impliquent des personnes brillantes et créatives qui se penchent sur les questions les plus difficiles, comme la manière d’améliorer à la fois l’innovation et l’accès, et parce qu’ils le font d’une manière qui peut être réellement bénéfique pour les populations du Nord comme du Sud.

EM et EK – Nous avons parlé plus tôt du bagage ontologique que les économistes apportent à ce débat.Pensez-vous que l’on puisse effectuer une analyse similaire dans le domaine du droit? Que lorsque le néolibéralisme est abordé dans les facultés de droit, on passe souvent à côté du sujet ?

AK – Inversons les rôles. Qu’en pensez-vous ?

EM – Je pense que certaines réalités sont invisibilisées. Mais je ne pense pas qu’il s’agisse uniquement d’un problème spécifique aux juristes. Même dans le cas de Wendy Brown, il y a une certaine réticence à aborder le néolibéralisme comme quelque chose qui pourrait réellement jouir d’une légitimité – même parmi ses victimes, pour ainsi dire. Pour expliquer cela, je pense qu’il faut reconnaître que dans le néolibéralisme il existe des éléments réellement excitants, voire utopiques – ce qui n’est pas le cas si l’on se concentre uniquement sur le reformatage du pouvoir de l’État. Au niveau de la vie quotidienne, il est difficile de s’enthousiasmer pour les réglementations..

Quelqu’un comme Hayek pense que le marché est un outil de civilisation. Ce n’est pas seulement un outil d’agrégation des connaissances ou d’allocation des ressources, mais plutôt un moyen d’organiser la modernité et de réduire la complexité. Ce qui empêche la société de s’effondrer, compte tenu de sa multiplicité, c’est cette gigantesque boîte noire qu’est le marché, qui nous fait aussi avancer.

Si l’on n’en tient pas compte, si l’on n’introduit pas une sorte d’utopie parallèle et alternative, j’ai beaucoup de mal à imaginer comment une logique alternative pourrait voir le jour. Et je ne vois pas comment cette logique pourrait voir le jour en se concentrant uniquement sur la redistribution, les réparations ou la restauration du pouvoir de l’État administratif.

AK – Je suis d’accord pour dire que qu’à certains égards le néolibéralisme exerce un réel attrait. Les analyses historiques sur la manière dont la gauche, ou du moins les libéraux « progressistes », en sont venus à adopter le néolibéralisme, sont instructives. Ce dernier prétendait revitaliser certaines parties de la société américaine. Il possédait un élan libérateur.

Il allait discipliner un État qui était profondément bloqué, incapable de fournir les choses que les gens souhaitaient. Ayant été formé dans une école de droit, j’ai entendu, en tant qu’étudiante, l’histoire du rôle que le tournant vers cette efficacité était censé jouer, en tant que technologie neutre qui nous permettrait à tous de nous entendre et d’avoir les choses que chacun d’entre nous désirait. À ce titre, je pense qu’il a exercé un attrait puissant.

La question qui se pose alors est la suivante : si nous voulons critiquer le néolibéralisme, quelles sont ses alternatives ? Je suis très intéressée par les écrits de l’un de mes collègues de Yale, Martin Hägglund, en particulier par son livre This Life. Ce livre propose une vision laïque de la libération – être libre d’utiliser son temps comme on l’entend, et avoir une obligation envers les autres, pour partager le travail que personne ne veut faire – qui comporte des aspects de gouvernance très intéressants.

Mais ce n’est pas fondamentalement basée sur l’idée, par exemple, d’un État administratif plus fort. Il s’agit plutôt d’une idée de ce que nous devrions attendre d’un État et de ce que nous devrions attendre de notre politique. Pour moi, c’est passionnant parce que cela correspond bien aux mobilisations politiques contemporaines, qu’il s’agisse des mouvements en faveur la généralisation des soins de santé ou des mouvements visant à remplacer les réponses carcérales par des réponses plus solidaires, enracinées dans des formes de soins.

En d’autres termes, les critiques du néolibéralisme devraient prendre au sérieux une partie de son attrait populaire. Critiquer le néolibéralisme ne dit pas grand-chose sur les alternatives possibles. Avoir une idée de ces alternatives me semble très important.

EM – Dans l’un de vos récents essais, vous parlez de la nécessité de démocratiser la conception des marchés. Qu’est-ce que cela implique ?

AK – Il s’agit notamment de s’éloigner du principe selon lequel les marchés suivent leurs propres lois. Nous devons admettre que nous établissons les lois, les formes de pratiques sociales qui donnent aux marchés leur forme et leurs conséquences. Nous devrions comprendre que nous avons un pouvoir sur la conception des marchés et ne pas nous contenter de dire que l’offre et la demande sont à l’origine de telle ou telle chose.

Les produits pharmaceutiques constituent une manifestation indéniable de la manière dont notre pouvoir collectif, par l’intermédiaire de l’État, est utilisé pour façonner ce que l’on appelle les résultats du marché. Nous conférons une grande autorité aux entreprises pour fixer les prix, puis nous constatons que les prix des médicaments augmentent. Cette situation est en profonde contradiction avec l’idée que nous devrions tous avoir un accès à ce dont nous avons besoin pour être en bonne santé.

EM et EK – Mais toutes les alternatives proposées ne relèvent pas de positions aussi progressistes, y compris cette idée de constitutionnalisme du bien commun, pour finalement y revenir.

AK – C’est vrai. Le constitutionnalisme du bien commun est une évolution du raisonnement juridique qu’un groupe de penseurs essentiellement catholiques est en train de consolider, afin de réinjecter une morale catholique dans le discours constitutionnel. Une manifestation très concrète de ceci dans le contexte politique américain est l’abandon par la droite de l’originalisme, une approche historique de l’interprétation de la Constitution qui revient à ce que voulaient les « pères fondateurs », au profit d’un ordre constitutionnel plus musclé et plus affirmé, fondé sur des principes religieux.

Par exemple, les originalistes ont remporté une victoire célèbre dans la récente bataille autour de l’avortement en soutenant que le texte de la Constitution ne protégeait pas l’avortement et qu’il laissait donc cette question à la discrétion des États. Les constitutionnalistes du bien commun, quant à eux, sont beaucoup plus intéressés par une Constitution qui protégerait la vie du fœtus. Plutôt que de laisser les États choisir de protéger l’avortement, la Constitution du bien commun leur interdirait de le faire. Cette imprégnation de l’ordre constitutionnel américain par des valeurs religieuses est l’expression d’un mouvement plus large que j’observe dans la droite post-néolibérale.

Une caractéristique très forte de ce mouvement est de reconnaître les problèmes posés par le fondamentalisme du marché et le néolibéralisme – ils utilisent même ce terme – et d’affirmer que nous devons réintroduire des valeurs dans la vie américaine. Pour eux, cela devrait prendre la forme d’un retour au salaire familial, d’un retour aux familles normatives et hétérosexuelles, d’un retour à des formes de soutien de l’État pour des modes de vie ordonnés par la religion, d’un retour aux valeurs religieuses même sur le marché.

Aux États-Unis, on peut en observer des manifestations économiques à travers une entreprise comme Hobby Lobby, qui souhaite imprégner le marché d’un caractère religieux – et aller à l’encontre, aussi bien, du progressisme marchand que de la couverture des moyens de contraception. Ce qui me préoccupe à ce sujet – bien qu’il ne s’agisse que d’une petite partie d’une droite très large et diversifiée – c’est que cette mouvance possède une idée assez nette de la manière dont elle pourrait parvenir à la prééminence, c’est-à-dire par le biais de la Cour suprême, étant donné le pouvoir dont celle-ci dispose dans ce pays. Il s’agit donc d’une évolution très importante…

EM et EK – Pour revenir aux thèmes du néolibéralisme et de l’utopie, il semble que nous devrions essayer d’élaborer une théorie sociale capable de nous montrer quelles autres institutions permettent de créer un monde aussi diversifié et dynamique que celui qui est médiatisé par les marchés et le droit – ce qui correspond à la vision de Jürgen Habermas, avec quelques mouvements sociaux en plus.

Il y a vingt ans, les écoles de droit américaines étaient très douées pour imaginer cette dimension utopique, même s’il s’agissait d’une utopie naïve. Mais cette dimension a disparu de l’analyse du néolibéralisme aujourd’hui, ce qui est troublant. Les plus utopistes ont-ils été tellement traumatisés par l’essor de la Silicon Valley qu’ils ont renoncé à réfléchir à ces questions ?

AK – Je pense qu’il y a des idées utopiques – certainement des idées progressistes et ambitieuses – dans les facultés de droit de nos jours. Regardez certains travaux sur l’argent. Les gens réfléchissent à ce que cela signifierait de créer toutes sortes de choses, depuis des autorités nationales d’investissement jusqu’à une Fed fonctionnant selon des principes très différents, en passant par la réorganisation de la structure bancaire afin de permettre de nouvelles formes d’aide sociale et de lutter contre le changement climatique. C’est un exemple de quelque chose d’assez nouveau.

Nous voyons également de nombreuses demandes pour ce que l’on pourrait appeler la démarchandisation : des garanties de logement, des garanties de soins de santé, et même des expressions institutionnelles qui pourraient participer à ce que vous décrivez. En d’autres termes, comment gérer un système complexe tel qu’un établissement de santé en se basant sur les besoins plutôt que sur le profit ? Les gens ont vraiment réfléchi à cette question. Nous avons des expressions réelles de ces principes dans le monde, et elles inspirent des idées sur ce que cela signifierait de faire évoluer d’autres pouvoirs institutionnels dans cette direction.

Si vous deviez rassembler un grand nombre de ces éléments – des idées sur la façon dont les investissements pourraient être dirigés plus démocratiquement, sur la façon dont le logement pourrait être organisé plus démocratiquement, sur la façon dont les soins de santé pourraient être organisés plus démocratiquement ; tous ces éléments font l’objet de discussions au sein des facultés de droit, ainsi qu’en dehors de celles-ci – ils constitueraient les éléments d’une vision beaucoup plus affirmée d’un avenir qui n’est pas organisé selon des lignes néolibérales. C’est l’assemblage de toutes ces pièces, et le fait de leur donner un nouveau nom, qui n’a pas encore été accompli.

Mais je pense que ces éléments sont beaucoup plus intéressants que ce qu’on avait dans les années 2000, par exemple les mouvements autour du libre accès et des Creative Commons auxquels vous avez fait allusion, parce qu’ils abordent aussi directement la nécessité de disposer de certaines formes de pouvoir public pour créer ces choses. Et ils ne reposent pas sur une idée purement volontariste de ce que nous pouvons attendre ou réaliser.

EM – Je suis d’accord pour dire qu’il s’agit d’une vision radicale, mais elle est conservatrice à mon goût en ce qui concerne son mélange institutionnel. Je reconnais que la démarchandisation est radicale après 50 ans de néolibéralisme, mais elle n’est pas radicale si on la compare à l’État-providence britannique des années 1940.

AK – Je vous propose à présent de vous interroger sur les alternatives.

EM – La personne qu’il faut convaincre que le règne du marché est révolu n’est pas tant le juge ordinaire que quelqu’un comme Habermas. Or, il n’y a pas grand-chose qui puisse le convaincre que nous nous sommes éloignés du marché et du droit comme les deux formes dominantes à travers lesquelles la modernité prend forme.

Je ne vois pas beaucoup de réflexion sur les autres façons de formater la modernité. Sans elles, la seule chose que nous pouvons changer est l’équilibre entre les deux formes – que, bien sûr, je préférerais du côté de l’État plutôt que du côté du marché.

AK – Quels sont les nouveaux véhicules qui vous viennent à l’esprit ? Un rapport avec le socialisme numérique ?

EM – En fin de compte, je pense qu’il s’agit de formes alternatives de génération de valeur, à la fois économique et culturelle. Et cela implique de comprendre la contrepartie progressiste adéquate au marché. Pour ma part, je ne pense pas que le pendant progressiste du marché soit l’État. Je pense qu’il devrait s’agir de la culture, définie de manière très large – une culture qui englobe les connaissances et les pratiques des communautés.

AK – En ce sens, vous vous situez davantage dans la lignée des biens communs que dans celle de l’État ?

EM – Oui, c’est un moyen de fournir des infrastructures pour susciter la nouveauté et s’assurer que nous pouvons ensuite nous coordonner pour appréhender les effets qui s’ensuivent. La technologie est un élément clé à cet égard.

Une guerre de géants pour quelques nanomètres

Une guerre mondiale a été déclarée le 7 octobre dernier. Si aucune chaîne d’information n’a couvert l’événement, nous aurons tous à souffrir de ses conséquences. Ce jour-là, l’administration Biden a lancé une offensive technologique contre la Chine, en imposant des limites plus strictes et des contrôles plus durs sur l’exportation non seulement des micro-processeurs, mais aussi de leurs schémas, des machines utilisées pour graver les circuits sur silicone et des outils que ces machines produisent. Désormais, si une usine chinoise a besoin de n’importe lequel de ces composants pour produire des marchandises, les entreprises doivent demander un permis spécial pour les importer. Pourquoi les USA ont-ils mis en place ces sanctions ? Et pourquoi sont-elles si dures ? Article du journaliste Marco D’Eramo, publié dans la New Left Review et traduit par Marc Lerenard pour LVSL.

Comme l’écrit Chris Miller dans son dernier livre, « l’industrie du semi-conducteur produit, chaque jour, plus de transistors qu’il n’y a de cellules dans le corps humain » (La guerre des puces : le combat pour la plus indispensable des technologiques mondiales – 2022). Les circuits intégrés (les « puces ») font partie de chaque produit que nous consommons – c’est-à-dire de tout ce que la Chine fabrique -, des voitures aux téléphones, des machines à laver aux grille-pains, des télévisions aux micro-ondes. C’est pourquoi la Chine consomme plus de 70% des produits semi-conducteurs mondiaux, même si contrairement à ce que l’on peut penser, elle n’en produit que 15%. En réalité ce dernier chiffre est même trompeur : la Chine ne produit aucune des puces les plus récentes, celles utilisées à des fins d’intelligence artificielle ou de systèmes d’armements perfectionnés.

Nous ne pouvons aller nulle part sans cette technologie. La Russie l’a découvert lorsque, après avoir été placée sous embargo par l’Occident à la suite de son invasion de l’Ukraine, elle a été obligée de fermer certaines de ces plus grosses usines automobiles. La rareté des puces participe également de l’inefficacité relative des missiles russes : très peu sont « intelligents », c’est-à-dire disposant de micro-processeurs qui guident et corrigent leur trajectoire. Aujourd’hui la production des micro-processeurs est un processus industriel globalisé, avec quatre points nodaux principaux listés par le Centre pour les Etudes Stratégiques et Internationales : 1) les modèles de puces d’intelligence artificielle, 2) les logiciels d’automatisation de conception électronique, 3) l’équipement de fabrication des semi-conducteurs, 4) les composants d’équipements.

Même un commentateur aussi obséquieux que Martin Wolf du Financial Times ne pouvait s’empêcher d’observer que « les annonces récentes sur le contrôle de l’exportation des semi-conducteurs en direction de la Chine sont plus menaçantes que tout ce que Donald Trump a pu faire. C’est un acte de guerre économique ».

Comme il l’explique, les dernières mesures de l’administration Biden exploitent simultanément la domination américaine sur ces quatre points. Ces mesures montrent le degré jusqu’ici jamais atteint d’interventionnisme du gouvernement américain visant non seulement à préserver son contrôle sur ces technologies, mais également à lancer une nouvelle politique visant à étouffer activement de larges segments de l’industrie chinoise – avec l’intention de la tuer.

Chris Miller est plus modéré dans son analyse. « La logique », écrit-il, « est de mettre du sable dans l’engrenage » même s’il souligne également que « ce nouvel embargo sur les exportations ne ressemble à rien de ce qu’on a pu voir depuis la Guerre Froide ». Même un commentateur aussi obséquieux vis-à-vis des États Unis que Martin Wolf du Financial Times ne peut s’empêcher d’observer que « les annonces récentes sur le contrôle de l’exportation des semi-conducteurs, et des technologies associées, en direction de la Chine sont plus menaçantes que tout ce que Donald Trump a pu faire. Le but est clairement de ralentir le développement économique chinois. C’est un acte de guerre économique. Et cela aura des conséquences géopolitiques majeures. »

« Etouffer avec l’intention de tuer » est une caractérisation convenable des objectifs de l’empire américain, sérieusement préoccupé par la sophistication technologique croissante des systèmes d’armement chinois, de ses missiles hypersoniques à l’intelligence artificielle. La Chine a en effet réalisé d’importants progrès en la matière grâce à l’utilisation de technologies qui sont soit détenues, soit contrôlées par les États-Unis. Pendant des années, le Pentagone et la Maison Blanche ont observé avec sourde irritation leur concurrent faire des pas de géant avec des outils qu’ils lui avaient eux-mêmes fourni. L’anxiété vis-à-vis de la « menace chinoise » n’était pas juste une pulsion transitoire de l’administration Trump. De telles préoccupations sont partagées par l’administration Biden, qui poursuit désormais les mêmes objectifs que son prédécesseur, mais avec une vigueur redoublée.

L’annonce américaine a été effectuée quelques jours après l’ouverture du Congrès national du Parti communiste chinois. En un sens, l’interdiction d’exportation était une manière pour la Maison Blanche d’intervenir dans ces assises, qui devait cimenter la suprématie politique de Xi Jinping. À l’inverse des sanctions imposées à la Russie – qui, blocus sur les micro-puces mis à part, ont été relativement inefficaces -, ces restrictions devraient avoir un impact considérable, étant donné la structure unique du marché des semi-conducteurs et la particularité de sa chaîne de production.

L’industrie des puces de semi-conducteurs se distingue par sa dispersion géographique et sa concentration financière, qui s’expliquent par la forte intensité capitalistique de leur production. Cette intensité en capital s’accélère avec le temps, puisque la dynamique de l’industrie est fondée sur une amélioration continue des performances, c’est-à-dire la capacité à gérer des algorithmes de plus en plus complexes tout en réduisant la consommation électrique. Les premiers circuits intégrés fiables développées au début des années 60 contenaient 130 transistors. Le processeur Intel de 1971 en avait 2.300. Dans les années 90, le nombre des transistors dans une seule puce dépassait le million. En 2010, une puce contenait 560 millions, et en 2022 l’IPhone d’Apple en avait 114 milliards. Puisque les transistors deviennent de plus en plus petits, les techniques de leur fabrication sur un semi-conducteur sont devenues de plus en plus sophistiquées : le rayon de lumière qui trace les plans devait être d’une longueur d’onde de plus en plus petite. Les premiers étaient de l’ordre de 700 à 400 milliardièmes de mètres – autrement dit, de nanomètres (nm). Au fil du temps, ils ont été réduits à 190 nm, puis 130 nm, avant d’atteindre les limites de l’ultraviolet : seulement 3 nm.

Une technologie coûteuse et hautement complexe est nécessaire pour atteindre ces dimensions microscopiques : des lasers et des appareils optiques de précision remarquable ainsi que les diamants les plus purs. Un laser capable de produire une lumière suffisamment stable et précise est composé de 457.329 parties, produites par des dizaines de milliers de sociétés spécialisées réparties à travers le monde – une seule imprimante de micro-puces avec ces caractéristiques possède une valeur de 100 millions de dollar, le dernier modèle ayant un coût prévu de 300 millions. Cela veut dire que l’ouverture d’une usine de micro-processeurs requiert un investissement d’environ 20 milliards – plus ou moins le même montant que pour la construction d’un porte-avion.

Notre modernité technologique est caractérisée par un paradoxe de taille : une miniaturisation infinitésimale nécessite des installations toujours plus titanesques, et d’une ampleur telle que même le Pentagone ne peut se les permettre, en dépit de son budget annuel de 700 milliards de dollars.

L’investissement doit porter ses fruits rapidement, puisqu’en quelques années les micro-puces sont dépassées par un modèle plus avancé, plus compact et plus miniaturisé, ce qui nécessite un équipement, une architecture et des procédures entièrement nouveaux. Il y a bien des limites physiques à ce procédé ; nous avons désormais atteint des couches de quelques atomes d’épaisseur seulement – raison pour laquelle il y a tant d’investissements dans l’informatique quantique, dans laquelle l’incertitude quantique n’est plus une limite, mais une caractéristique à exploiter. Aujourd’hui, la plupart des sociétés de composants électroniques ne produisent plus de semi-conducteurs ; ils se contentent de modéliser et de planifier leur architecture, d’où le nom standard que l’on utilise pour les nommer : fabless (« sans fabrication »). Mais ces entreprises ne sont pas non plus des sociétés artisanales. Pour donner quelques exemples, Qualcomm emploie 45.000 ouvriers et a un chiffre d’affaires de 35 milliards de dollar, Nvidia en emploie 22.400 avec un revenu de 27 milliards, et AMD a 15.000 employés et 16 milliards de revenus.

Ainsi, notre modernité technologique est caractérisée par un paradoxe de taille : une miniaturisation infinitésimale nécessite des installations toujours plus titanesques, et d’une ampleur telle que même le Pentagone ne peut se les permettre, en dépit de son budget annuel de 700 milliards de dollars. Et dans le même temps, un tel processus nécessite un niveau d’intégration lui aussi croissant pour assembler des centaines de milliers de composants différents, produits par diverses technologies, chacune d’entre elles hyper-spécialisées.

La poussée vers la concentration est inexorable. La production de machines qui « impriment » ces micro-puces de pointe est sous le monopole d’une seule société néerlandaise, ASM international, tandis que la production des puces elles-mêmes est réalisée par un nombre restreint de sociétés (qui se spécialisent dans un type particulier de puce : logique, DRAM, memory flash, élaboration graphique…). La compagnie américaine Intel produit presque tous les micro-processeurs d’ordinateur, tandis que l’industrie japonaise – qui atteignait des sommets dans les années 80 avant d’entrer en crise à la fin des années 90 – a été absorbée par la société américaine Micron, qui détient toujours des usines à travers l’Asie du Sud-Est.

Il n’y a, cependant, que deux vrais géants de la production matérielle : l’un est Samsung en Corée du Sud, privilégiée par les États-Unis pendant les années 90 pour contrer la montée du Japon, dont la précocité avant la fin de la Guerre Froide était devenue une menace ; l’autre est TSMC (Taiwan Semiconductor Manufacturing Company, avec 51.000 employés, un chiffre d’affaire de 43 milliards, et un profit de 16 milliards), qui fournit toutes les sociétés fabless américaines, produisant 90% des puces mondiales les plus avancées.

Usine du groupe TSMC à Taiwan. © Briáxis F.Mendes (孟必思)

Le réseau de production des puces est ainsi hautement disparate, avec des usines éparpillées à travers les Pays-Bas, les États-Unis, Taiwan, la Corée du Sud, le Japon et la Malaisie. Il est également concentré dans les mains de quasi-monopoles (ASML pour la lithographie ultraviolet, Intel pour les micro-processeurs, NVIDIA pour les GPUs, TSMC et Samsung pour la production) avec des montants d’investissement astronomiques. C’est ce réseau qui rend les sanctions si efficaces : un monopole américain sur la conception des micro-puces, établi par ses grandes sociétés fabless, à travers lesquelles une influence colossale peut être exercée sur les sociétés dans les États-vassaux qui produisent réellement le matériel. Les États-Unis peuvent efficacement bloquer le progrès technologique chinois puisqu’aucun pays dans le monde n’a la compétence ou les ressources pour développer de tels systèmes sophistiqués. Les États-Unis eux-mêmes dépendent d’infrastructures technologiques développées en Allemagne, en Grande-Bretagne et ailleurs.

Cependant, il n’est pas juste question de technologie : des ingénieurs formés, des chercheurs et des techniciens sont aussi nécessaires. Pour la Chine, donc, la pente à gravir est escarpée – et même vertigineuse. Dans ce secteur, l’autarcie technologique est impossible.

Beijing a naturellement cherché à se préparer à cette éventualité, ayant prévu l’arrivée de ces restrictions il y a quelques temps déjà, en accumulant des puces et en investissant de fortes sommes dans le développement d’une production technologique locale. Elle a fait quelques progrès en la matière : la société chinoise Corporation internationale de production de semi-conducteurs (SIMC) produit aujourd’hui des puces, même si sa technologie est en retard de plusieurs générations sur TSMC, Samsung et Intel. Il sera cependant impossible pour la Chine d’arriver à la hauteur de ses concurrents. Elle n’a pas accès à des machines lithographiques ou aux ultraviolets de haute qualité fourni par ASML, qui a bloqué toute exportation. L’impuissance de la Chine face à cette attaque est évidente : il suffit de considérer l’absence totale de réponse officielle des dirigeants de Beijing, qui n’ont pas annoncé de contre-mesures ou de représailles pour les sanctions américaines. La stratégie qui est préférée semble être la dissimulation : continuer à travailler sous les radars plutôt que d’être jeté à la mer sans bouée.

Les vassaux doivent choisir leur camp lorsqu’un conflit éclate. Un conflit qui se présente comme une gigantesque guerre, même si elle est menée pour quelques millionièmes de millimètres.

Le problème pour le blocus américain est qu’une large proportion des exportations de TSMC (puis celle Samsung, Intel et ASML) est destinée à la Chine, dont l’industrie dépend de l’île qu’ils veulent annexer. Les Taïwanais sont bien conscients du rôle central que joue l’industrie de semi-conducteurs dans leur sécurité nationale, si bien qu’ils parlent de « bouclier de silicone ». En effet, les États-Unis veulent tout faire pour éviter de perdre le contrôle de cette industrie, et la Chine ne peut se permettre de détruire ces infrastructures lors d’une invasion. Mais ce raisonnement était plus tenable avant le déclenchement de la Guerre Froide actuelle entre la Chine et les États-Unis.

En réalité, deux mois avant l’annonce des sanctions sur les micro-processeurs à destination de la Chine, l’administration Biden avait lancé le CHIPS Act, qui allouait 50 milliards au rapatriement d’au moins une partie de la chaîne de production, forçant presque Samsung et TSMC à construire des nouveaux sites de production (et à mettre à jour les anciens) sur le sol américain. Samsung a depuis engagé 200 milliards pour construire 11 nouveaux centres au Texas pour les dix prochaines années – même si le calendrier risque de se compter en décennies, au pluriel. Tout cela indique une chose : si les États-Unis sont certes prêts à « dé-globaliser » une partie de leur appareil productif, il est aussi très difficile de découpler les économies chinoises et américaines après 40 ans d’immixtion réciproque. Et il serait d’autant plus compliqué pour les États-Unis de convaincre ses autres alliés – Japon, Corée du Sud, Europe – de démêler leur économie de la Chine, en particulier puisque ces États ont historiquement utilisé ces liens commerciaux pour se libérer du joug américain.

L’Allemagne constitue un cas d’école : ce pays est le plus grand perdant de la guerre d’Ukraine. Ce conflit a remis en question chacune des décisions stratégiques de ses élites ces cinq dernières décennies. Depuis le début du millénaire, l’Allemagne a fondé sa fortune économique – et donc politique – sur sa relation avec la Chine, devenue son principal partenaire commerciale (leurs échanges commerciaux équivalent à 264 milliards de dollars annuels). Aujourd’hui, l’Allemagne continue de renforcer ses liens bilatéraux avec la Chine, en dépit du refroidissement des relations entre Washington et Beijing et la guerre en cours en Ukraine, qui a perturbé le rôle d’intermédiaire de la Russie entre le bloc allemand et la Chine.

En juin, le producteur chimique allemand BASG a annoncé un investissement de 10 milliards dans une nouvelle centrale au Zhanjiang dans le sud de la Chine. Olaf Scholz a même fait une visite à Beijing plus tôt dans le mois, menant une délégation de directeurs de Volkswagen et de BASF. Le chancelier est venu avec des cadeaux, s’engageant à autoriser l’investissement controversé du Chinois Costco dans un terminal pour containers dans le port d’Hambourg. Les Verts et les libéraux (membres de la coalition au pouvoir avec le SPD d’Olaf Scholz, ndlr) ont critiqué cette décision, mais le chancelier a répondu que la part de Costco ne s’élèverait qu’à 24,9%, sans aucun droit de veto, et ne couvrirait qu’un seul des terminaux d’Hambourg – incomparable avec l’acquisition pure et simple du Pirée en 2016. Finalement, l’aile la plus atlantiste de la coalition allemande a été forcée d’accepter la décision.

Dans la conjoncture présente, même ces petits gestes – le voyage de Scholz à Beijing, moins de 50 millions de dollars d’investissements chinois à Hambourg – semblent être des actes majeurs d’insubordination, surtout après les dernières sanctions américaines. Mais Washington ne pouvait pas s’attendre à ce que ses vassaux asiatiques et européens embrassent simplement cette dé-globalisation comme si l’ère néolibérale n’avait jamais eu lieu : comme si durant ces dernières décennies, ils n’avaient pas été encouragés, poussés, presque forcés à lier leurs économies les unes aux autres, créant une toile d’interdépendances qu’il est aujourd’hui difficile de rompre.

Et pourtant, les vassaux doivent choisir leur camp lorsqu’un conflit éclate. Un conflit qui se présente comme une gigantesque guerre, même si elle est menée pour quelques millionièmes de millimètres…

Evgeny Morozov : « L’Union européenne a capitulé face aux géants de la tech »

Evgeny Morozov © Clément Tissot pour Le Vent Se Lève

Auteur d’ouvrages influents sur la Silicon Valley, Evgeny Morozov analyse les conséquences de la mainmise des géants américains de la tech sur les sociétés occidentales [1]. Il met en garde contre les critiques qu’il estime superficielles de cette hégémonie, focalisées sur la défense de la vie privée ou de la souveraineté du consommateur, tout en restant silencieuses sur les déterminants économiques et géopolitiques de la domination des Big Tech américaines. Nous l’avons interrogé dans le cadre de sa venue à Paris pour une intervention lors de la journée de conférences organisée par Le Vent Se Lève le 25 juin dernier. Entretien réalisé par Maud Barret Bertelloni, Simon Woillet et Vincent Ortiz, retranscrit par Alexandra Knez et Marc Lerenard.

Le Vent Se Lève – En 2021, l’annonce par Joe Biden du démantèlement des Big Tech et la plainte contre Facebook intentée par la procureure démocrate Letitia James avaient suscité un important engouement médiatique. Cette volonté de briser le pouvoir des géants de la tech semble cependant appartenir au passé, en particulier depuis l’invasion de l’Ukraine par la Russie. Comment faut-il comprendre l’agenda de Biden sur les Big Tech ? Était-il une simple annonce médiatique, ou le symptôme de tensions grandissantes entre l’État américain et les entreprises de la tech ?

Evgeny Morozv  Le débat sur les Big Tech aux États-Unis – tout comme en Europe – est fonction de nombreux intérêts divergents et concurrents. Il résulte des conflits entre différentes factions du capital : certaines appartiennent au capital financier, d’autres au capital de type entrepreneurial (start-ups, capital-risque) ou à des industries qui ont un intérêt dans les données, comme le secteur pharmaceutique. La deuxième dimension du débat est géopolitique : elle tient à la volonté de maintenir le statut hégémonique des Etats-Unis dans le système financier international. Après 4-5 années de politiques incohérentes de l’administration Trump, il faut d’une part comprendre ce que l’on fait de la libéralisation des échanges, des traités bilatéraux ou encore des pactes commerciaux, et de l’autre ménager la puissance chinoise qui se profile à l’horizon, comme rivale possible à cette hégémonie.

Au vu des forces en présence, je ne m’attendais personnellement à aucune cohérence quant à l’agenda Biden sur les Big Tech – une farce progressiste, qui renouvelle une critique libérale éculée du capitalisme dominé par les grandes sociétés. Les différences factions du capital, nationales et internationales, tirent dans des directions opposées. La faction qui souhaite maintenir l’hégémonie américaine s’oppose à toute forme d’affaiblissement des Etats-Unis et de renforcement conséquent de la Chine ; cela n’a rien de nouveau. Quand Mark Zuckerberg se rend au Congrès avec une note qui dit déclare en substance : « ne nous démantelez pas, sinon la Chine gagnera », il ne fait que reconduire une vieille stratégie. Pendant les audiences du Congrès de l’ITT, dans les années 1973-74, les cadres de cette entreprise utilisaient la même rhétorique, déclarant que si l’on affaiblissait ITT, Erickson allait arriver et dominer les marchés américains [2].

LVSL – Par rapport au contexte des années 1970, comment caractériseriez-vous la relation actuelle entre l’État américain et les entreprises de la tech ? On a aujourd’hui une idée assez claire des contours du complexe militaire-industriel de l’époque, avec l’investissement de l’État dans la R&D (recherche et développement) et un important financement académique. Quelle est la nature de ce soutien aujourd’hui ?

EM – Il y a toujours d’important financements à travers la National Science Foundation, quoique bien inférieurs aux dépenses de Guerre froide. Walter Lippmann, l’un des penseurs les plus lucides de l’hégémonie américaine, soulignait dans un essai au début des années 1960 à quel point ce n’est que grâce à la Guerre froide que les États-Unis ont véritablement innové et développé la recherche et l’industrie nationales dans le domaine de la science et des technologies. D’une certaine manière, il trouvait ce contexte de Guerre froide bienvenu : une fois terminée, aucun de ces efforts de R&D ne survivrait. La Chine prend aujourd’hui le relai. Des individus comme Peter Thiel ont parfaitement compris que la menace chinoise est l’argument le plus simple pour mobiliser de l’argent pour le financement des entreprises privées. Elle est nécessaire pour maintenir artificiellement en vie les projets bancals du capital-risque – et la valorisation qui leur est associée – ainsi que pour soutenir la Silicon Valley ou la bulle du Bitcoin, qui risqueraient autrement de s’effondrer.

Je ne pense pas que l’Europe ait un quelconque pouvoir face à l’agenda des Big Tech. Il n’y a aucun lobby qui pèse en ce sens, si l’on met à part quelques militants à Bruxelles.

Évidemment, il n’y a pas de compétition nucléaire. Les Chinois ne font pas le poids en termes de capacités militaires. Ils pourraient envahir Taiwan, mais cela n’a rien à voir avec le niveau de compétition que l’Union soviétique imposait aux États-Unis. J’ajoute qu’avec le contexte actuel, les Big Tech elles-mêmes subventionnent la recherche dans les universités sur des thématiques telles que le respect de la vie privée ou la lutte contre les trusts !

LVSL – Nous observons une augmentation des taux d’intérêts, après deux décennies de taux très bas, qui permettaient à l’Etat américain de soutenir les Big Tech dans leur financement. Comme analyser la décision de la FED, après des années de contexte économique qui a permis aux Big Tech prospérer ?

EM : Je ne pense pas que la FED conçoive sa politique de taux d’intérêt en ayant les Big Tech à l’esprit. Les raisons qui la conduisent à relever ses taux ont trait au prix de l’énergie et à la guerre en Ukraine. Leur remontée aura évidemment des conséquences sur l’industrie de la tech : observez la manière dont la bulle des cryptos a explosé ! Cela va certainement engendrer de la pression sur les liquidités, et de nombreuses banques (celles à taux subventionné) vont en souffrir, ainsi que les acteurs qui dont la rentabilité reposait sur la capacité à emprunter de la monnaie à taux faible, investir et satisfaire les investisseurs avec une période d’attente de 5 à 10 ans.

Evgeny Morozov © Clément Tissot pour Le Vent Se Lève

À plus petite échelle, la plupart des acteurs du capital-risque suivent la même logique. Lorsque l’argent coûte plus cher, il est plus difficile de justifier le financement d’une start-up en état de mort cérébrale, alors qu’il est au contraire aisé d’acheter des obligations. Nous avons traversé une période d’accélération massive de cycles de développement technologique associée à un environnement de taux d’intérêt faibles de long terme, ce qui a fait oublier à beaucoup de personnes que l’argent que ces projets attiraient n’avait rien à voir avec leurs mérites ou ceux de leur industrie. On n’avait simplement nulle part ailleurs où investir cet argent. Quand le fonds souverain qatari devait décider où placer son argent, il n’avait pas beaucoup d’autres d’options que de le donner à des banques à taux subventionnés, qui ensuite le réinvestissaient. Il y désormais de nombreuses autres voies pour l’investir. Je m’attends à ce que ce que l’on entre dans une période très dur, avec de nombreux licenciements. Les start-ups n’auront plus d’argent, et celles qui auront besoin de se refinancer ne vont pouvoir le faire qu’à une valorisation plus faible…

LVSL – On peut conjecturer qu’un effet de concentration dans le secteur va en résulter, comme au moment du crash de la bulle internet en 2001. Quelles seront ses conséquences sur le développement technologique ?

EM – Les Big Tech sont toujours assises sur une montagne de cash. Ils continuaient jusqu’à présent d’emprunter parce que ce n’était pas cher. Maintenant ils vont emprunter beaucoup moins et réinvestir leurs bénéfices non distribués au lieu de réinvestir l’argent qu’ils empruntent. Les petites et moyennes entreprises et les start-ups seront les plus affectées, mais ce n’est pas forcément pour le pire : il y aura moins d’idiots en concurrence pour des fonds et les fonds pourront être investis dans des projets qui comptent. C’est difficile de juger de l’impact que cela aura.

LVSL – Mais qu’en est-il de la concentration de données, d’infrastructures de calcul et de travailleurs qualifiés dans ces rares entreprises ?

EM : Cela n’a rien avoir avec la profitabilité du secteur. Du point de vue d’une start-up, la concentration pourrait engendrer un accès bon marché à des biens d’équipement. Plutôt que de les développer, elles pourront emprunter à bas coût des capacités de reconnaissance faciale, de reconnaissance vocale de base, d’analyse d’image, etc. La concentration pourrait aussi permettre de réduire les coûts de transaction, avec un fournisseur unique pour tous ces services. Je n’ai à ce jour trouvé aucun argument convaincant pour dire que la concentration des données dans les mains de ces sociétés technologiques réduit les possibilités de développement technique.

LVSL – Mais l’effet de concentration dans le développement technologique revient à mettre tout acteur extérieur aux Big Tech dans une position d’utilisateur final, comme c’est le cas avec les modèles pré-entrainés dans le domaine du machine learning

EM – On se trouve en position d’utilisateur final à chaque fois que l’on emploie des biens d’équipement. Lorsque, dans une usine, j’utilise une machine, lorsque dans une mine j’utilise un camion, je me trouve dans une position d’utilisateur final. Pourquoi ce fétiche de tout vouloir construire soi-même ? Je ne vois pas pourquoi réduire les coûts d’accès aux biens d’équipement aurait, en soi, des conséquences négatives pour l’économie. Ce serait le cas si l’on pensait à un modèle de conglomérat gigantesque, où certaines sociétés sont présentes dans chaque industrie. On croyait autour de 2012 que ce serait le cas, mais la plupart des entrées des Big Tech dans la santé, l’éducation ou le transport n’ont pas été un succès. Où est cette Google car que tout le monde attend depuis 12 ans ?

LVSL – L’Europe et les États-Unis ont récemment signé un nouvel accord sur les transferts transatlantiques de données, après la révocation de l’accord Privacy Shield l’an dernier en raison du manque de garanties en matière de protection des données. Comment comprenez-vous la situation actuelle ?

EM – Je ne pense pas que l’Europe ait un quelconque pouvoir en la matière. Il n’y a aucun lobby qui pèse dans ce sens, si l’on met à part quelques militants à Bruxelles et peut-être quelques juges allemands attachés la question. L’Europe a cherché à sauver la face en affichant une forme d’exceptionnalisme européen. Poussée dans ses derniers retranchements – c’est ce qui est arrivé il y a quelques mois au moment de ce nouveau compromis – elle a capitulé. Cela est lié à l’existence d’une faction qui essaye de pousser pour une renaissance des traités commerciaux comme le TTIP, le TPP, etc. La libre circulation des données a été mentionnée dans ces traités, peut-être pas de manière très sophistiquée, mais ils pourraient à présent permettre de relancer le sujet de manière beaucoup plus forte.

Au-delà de cela… La vie est trop courte pour y penser : c’est un combat perdu d’avance et je ne sais pas que faire de cette information, pour être honnête.

LVSL – Christine Lagarde, présidente de la Banque Centrale Européenne (BCE), affirmait récemment que « les cryptos ne valent rien ». Comment analysez-vous l’explosion de la bulle des cryptos après des années d’enthousiasme en la matière ?

EM – Peu importe à quel point vous comptez sur les crypto-monnaies ou sur la monnaie numérique d’une banque centrale… tant que vous avez une mauvaise banque centrale. Peu importe si c’est 100% cash, ou 50% cash et 50% crypto, ou 40% crypto et 10% de monnaie numérique de banque centrale (MNBC), tant que la politique monétaire reste orientée vers la stabilité et la stabilisation des prix.

Le débat sur les crypto-monnaies en ce moment, à gauche, substitue un débat sur les imaginaires à un débat de substance. La question est de savoir quelle politique monétaire nous voulons. Qu’est-il possible de faire avec l’euro ? Comment allons-nous le mobiliser pour la reconstruction de l’État-providence ? C’est cette vision plus large qui manque actuellement. Une fois qu’on aura la réponse, alors là, oui, cela deviendra presque un problème technique : compte tenu de la quantité d’émissions de CO2 sur laquelle nous voulons nous engager, compte tenu de l’argent dont nous disposons, compte tenu de l’état de notre pénétration technologique – nous pourrons déterminer les outils techniques appropriés.

Je ne vois pas ce que la gauche gagne à présenter certaines parties du capitalisme actuel comme rétrogrades et impures, comme « féodales ». Dans la théorie marxiste, le féodalisme a une dynamique très particulière que l’on peut étudier et comprendre : ce n’est pas la dynamique que nous vivons.

LVSL : Mais les crypto-monnaies ne sont-elles pas actuellement dans une position critique ? La déclaration de Christine Lagarde risque-t-elle de fragiliser les efforts de stabilisation et de marketing des crypto-activistes avec les grandes entreprises financières ?

EM – Cela dépend de jusqu’où cela va chuter, mais cela, je ne peux pas le prédire. À l’heure actuelle, on trouve encore beaucoup d’acteurs pour les défendre, ainsi que des institutions qui y ont un intérêt direct. Il reste encore beaucoup de résilience institutionnelle et elle n’est pas près de s’estomper. Il y a aussi probablement des hordes de lobbyistes pour cette industrie qui est, ne l’oublions pas, toujours aussi riche qu’auparavant. Andressen Horowitz a encore un fonds de crypto à 3 milliards – avec 3 milliards, vous pouvez acheter beaucoup de lobbyistes [3]. Une fois que vous possédez ces lobbyistes, vous pouvez alors agir par la voix des politiciens.

LVSL – Dans un récent article pour la New Left Review, vous critiquez le recours à gauche au terme de « techno-féodalisme » pour décrire l’économie numérique et le système politique qui lui est associé [4]. Pourquoi estimez-vous qu’il ne rend pas compte de la réalité ?

EM – Je ne vois pas ce que la gauche gagne à présenter certaines parties du capitalisme actuel comme rétrogrades et impures, comme « féodales ». Comme si rendre le capitalisme plus évolué et plus pur pouvait changer quelque chose ! Cela ne me semble pas être une position défendable pour la gauche.

La conclusion principale qui découle de l’analyse en termes de techno-féodalisme est que nous devons combattre les rentiers et les monopoles, faire respecter la concurrence et nous assurer que les données constituent un terrain de jeu équitable. C’est ce que l’on retrouve par exemple dans les essais de Cédric Durand – auteur de Techno-féodalisme – : il fait allusion à de nouvelles formes de planification et ne veut pas démanteler les GAFAM – même s’il veut en quelque sorte faire quelque chose avec eux, mais quoi, il ne nous le dit pas… Si c’est à cela que doit nous amener le diagnostic du techno-féodalisme, je ne vois pas ce que l’on gagne à légitimer cette critique à gauche.

Evgeny Morozov © Clément Tissot pour Le Vent Se Lève

LVSL – On retrouve le concept de féodalisation sous la plume d’Alain Supiot. Dans La gouvernance par les nombres, il soutient que la numérisation relie les individus à des structures d’allégeance variables, sur un mode féodal…

EM – Des critiques intéressantes du pouvoir peuvent découler de positions comme celle de Supiot. Elles offrent un antidote à des positions comme celles de Fukuyama ou de Steven Pinker, qui pensent que le monde avance de manière téléologique et que tout s’améliore obligatoirement.

Elles peuvent être utiles pour leur rappeler au contraire que la répartition du pouvoir dans la société est moins démocratique aujourd’hui qu’il y a 30 ou 40 ans, et qu’en ce sens il s’agit d’un retour en arrière. Mais c’est un retour en arrière dont on s’aperçoit en analysant les effets du capitalisme ; ce n’est pas un nouveau mode de production qui serait féodal dans son fonctionnement. Dans la théorie marxiste, le féodalisme a une dynamique très particulière que l’on peut étudier et comprendre : ce n’est pas la dynamique que nous vivons.

LVSL – En quoi consisterait un programme de gauche en matière de technologie ?

EM – La gauche est prisonnière d’une vision étriquée de l’action sociale, d’inspiration wébérienne : elle croit passionnément que l’action est rationnelle et que l’action économique consiste à maximiser cette action, par le biais d’une planification centrale. Cela revient à s’assurer que tous les besoins sont satisfaits… et ce n’est que par la suite que l’on pourra retirer la raison instrumentale de l’ordre du jour. Les gens seront ces types créatifs, buvant du vin l’après-midi et écrivant de la poésie, tout en chassant. Mais en attendant, il faut d’abord s’occuper des besoins. Cette vision est profondément étriquée. Elle ne correspond en rien à la manière dont les gens rationnels agissent : je n’agis pas en ayant un objectif et en analysant le meilleur moyen de l’atteindre. Non, je commence quelque chose pour atteindre cet objectif et je me rends compte ce faisant que c’est le mauvais objectif, je passe alors à un autre objectif, je reviens en arrière… L’expérience humaine typique est marquée par le jeu, la créativité, l’ingéniosité.

Cette façon naturelle d’agir devrait être soutenue par la technologie et le big data. Si vous parvenez à permettre aux gens de s’engager dans une forme de collaboration, vous produirez bien plus de valeur et bien plus d’innovation qu’avec une planification centrale. Pour moi, ça devrait être cela le programme économique de la gauche ! Les technologies pourraient permettre à chacun d’agir, de se réaliser. L’approche actuelle les aliène les uns des autres, de la technologie et de l’infrastructure.

LVSL – Comment expliquez-vous dans ce cadre que la souveraineté numérique ne soit pas défendue par la gauche ?

EM – Quand on parle de souveraineté technologique, on désigne le plus souvent la capacité d’une nation à avoir accès aux technologies les plus avancées, pour la production industrielle. Mais si vous quittez le jeu de la compétition industrielle, pourquoi en auriez-vous besoin ? Si les services sont la seule chose qui vous intéresse, quel besoin de souveraineté numérique ? Prenez le cas de la Lettonie : ils ont une industrie bancaire, ils ont des touristes et ils ne prévoient pas d’avoir une industrie lourde. Quel est leur besoin de souveraineté numérique ? Ce genre de chose est plus facile à expliquer en Amérique latine. Ils ont essayé l’industrialisation dans les années 50 et 60 – avec la CEPAL et autres – mais ils ont été bloqués dans cette voie par de nombreux coups d’État militaires. Pourtant ils ont essayé de relancer tout le processus. Vous avez encore des gens là-bas – des personnes de 95 ans aujourd’hui – qui se souviennent de cette tradition, des gens qui ont travaillé dans les bureaux de la CEPAL à Santiago en 1965, des gens comme Calcagno et d’autres, qui savent ce que cela représentait dans le temps.

En Europe ce débat n’a pas eu la même ampleur, il a toujours été mené par les corporatistes, des gens comme François Perroux et d’autres. On ne peut plus y faire grand-chose maintenant. La vraie question en la matière est de savoir – et j’utiliserai une expression très populaire en Amérique latine dans les années 70 – quel style de développement souhaitons-nous ? Or, je ne pense pas que la gauche en Europe ait du tout pensé à un style de développement. Elle a un style de défense, oui : défendre le droit que les travailleurs ont acquis et l’État-providence, mais à part ça, les gauches ne savent pas ce qu’elles veulent.

Si vous allez demander aux gauches du monde entier : quel genre de nouvelles industries voulons-nous développer ? Elles vous diront ce dont elles ont besoin dans leur économie – d’informatique quantique par exemple – mais si vous leur demandez sur le fond, si vous interrogez comment cela se relie au développement économique et social, elles n’ont aucune réponse. Elles ne se demandent plus : faut-il des industries qui emploient plus de monde, ou moins de monde, etc. ? En Europe, ce débat a été gagné par les néolibéraux, tout le contraire de ce qui se passe en Amérique Latine. Le débat n’a pas été complètement gagné en Chine. Mais, franchement, en Europe, je pense que c’est une cause perdue.

Notes :

[1] L’aberration du solutionnisme technologique : pour tout résoudre, cliquez ici, Fyp, 2014 et Le mirage numérique : pour une politique du Big Data, Fyp, 2015.

[2] ITT (International Telephone and Telegraph), entreprise américaine de télécommunications, a permis aux États-Unis d’asseoir leur hégémonie dans une partie importante du monde non soviétique au cours de la Guerre froide.

[3] Entreprise américaine de capital-risque fondée en 2009.

[4] La thèse du techno-féodalisme, telle que défendue notamment par Cédric Durand, présente les géants de la tech comme le symptôme d’une régression féodale des économies contemporaines. Par opposition à des entreprises capitalistes plus traditionnelles, qui croîtraient par l’innovation, les tenants du techno-féodalisme estiment que les géants de la tech s’enrichissent par la rente, comme les propriétaires terriens d’antan.

« Le néolibéralisme est avant tout un projet de civilisation » – Conférence d’Evgeny Morozov

« Retour de l’État », « éclipse du néolibéralisme », « réhabilitation de la souveraineté » : à lire les principaux médias, une véritable révolution est en cours depuis la pandémie. Au sortir des législatives 2022, Le Vent Se Lève organisait une discussion avec Evgeny Morozov pour analyser les mutations du système économique dominant. Chercheur spécialiste des implications politiques des géants du numérique, Evgeny Morozov est l’auteur de plusieurs ouvrages de référence sur la question: L’aberration du solutionnisme technologique : pour tout résoudre, cliquez ici (Fyp, 2014) et Le mirage numérique : pour une politique du Big Data (Fyp, 2015). Découvrez la captation de cette conférence, donnée le 25 juin 2022 à la Maison des Métallos à Paris.

Internet : une si longue dépossession (2/2)

À l’occasion de la sortie du livre du théoricien critique Ben Tarnoff, Internet for the people, the fight for the future (Verso, 14 juin 2022), le journaliste spécialiste des conséquences politiques du numérique Hubert Guillaud nous propose de mieux comprendre les enjeux de la privatisation de nos biens sociaux (espaces de communications, services publics, industries…) par la numérisation à l’américaine et d’en retracer le fil historique. Un texte essentiel pour se repérer dans les grands enjeux contemporains d’internet (centralisation, décentralisation, articulation des différents réseaux et des différentes échelles, gouvernance privée versus gouvernance publique et intervention des citoyens dans ces transformations). (Partie 2/2)

Coincés dans les plateformes

Les années 90 sont les années du web. En 1995, l’internet ne ressemble plus tout à fait à un réseau de recherche. Avec 45 millions d’utilisateurs et 23 500 sites web, l’internet commence à se transformer. Chez Microsoft, Bill Gates annonce qu’internet sera leur priorité numéro un. Jeff Bezos lance Amazon. Pierre Omidyar AuctionWeb, qui deviendra eBay. C’est le début des grandes entreprises de l’internet, de celles qui deviendront des « plateformes », un terme qui mystifie plus qu’il n’éclaircit, qui permet de projeter sur la souveraineté qu’elles conquièrent une aura d’ouverture et de neutralité, quand elles ne font qu’ordonner et régir nos espaces digitaux. Si la privatisation d’internet a commencé par les fondements, les tuyaux, au mitan des années 90, cette phase est terminée. « La prochaine étape consistera à maximiser les profits dans les étages supérieurs, dans la couche applicative, là où les utilisateurs utilisent l’internet ». C’est le début de la bulle internet jusqu’à son implosion. 

eBay a survécu au crash des années 2000 parce qu’elle était l’une des rares exceptions aux startups d’alors. eBay avait un business model et est devenu très rapidement profitable. eBay a aussi ouvert un modèle : l’entreprise n’a pas seulement offert un espace à l’activité de ses utilisateurs, son espace a été constitué par eux, en les impliquant dans son développement, selon les principes de ce qu’on appellera ensuite le web 2.0. La valeur technique de l’internet a toujours été ailleurs. Sociale plus que technique, estime Tarnoff (pour ma part, je pense que ce n’est pas si clair, l’industrialisation inédite qui s’est construite avec le numérique, n’est pas uniquement sociale, elle me semble surtout économique et politique). 

En 1971, quand Ray Tomlinson invente le mail, celui-ci devient très rapidement très populaire et représente très vite l’essentiel du trafic du premier réseau. L’e-mail a humanisé le réseau. Les échanges avec les autres sont rapidement devenu l’attraction principale. Avec eBay, Omidyar va réussir à refondre sa communauté en marché. Le succès des plateformes du web 2.0 va consister à «fusionner les relations sociales aux relations de marché », par trois leviers : la position d’intermédiaire (entre acheteurs et vendeurs), la souveraineté (la plateforme façonne les interactions, écrits les règles, fonctionne comme un législateur et un architecte) et bien sûr les effets réseaux (plus les gens utilisent, plus l’espace prend de la valeur). La couche applicative de l’internet va ainsi se transformer en vastes centres commerciaux : des environnements clos, qui vont tirer leurs revenus à la fois de la rente que procurent ces espaces pour ceux qui veulent en bénéficier et de la revente de données le plus souvent sous forme publicitaire (mais pas seulement). La collecte et l’analyse de données vont d’ailleurs très vite devenir la fonction primaire de ces « centres commerciaux en ligne »« La donnée a propulsé la réorganisation de l’internet », à l’image de Google qui l’a utilisé pour améliorer son moteur, puis pour vendre de la publicité, lui permettant de devenir, dès 2002, profitable. C’est la logique même du Capitalisme de surveillance de Shoshana Zuboff. Une logique qui préexistait aux entreprises de l’internet, comme le raconte le pionnier des études sur la surveillance, Oscar H. Gandy, dans ses études sur les médias de masse, les banques ou les compagnies d’assurances, mais qui va, avec la circulation des données, élargir la surface de sa surveillance. 

« Quand le capitalisme transforme quelque chose, il tend à ajouter plus de machinerie »

Malgré toutes ses faiblesses (vous atteignez surtout les catégories produites par les systèmes que la réalité des gens, c’est-à-dire la manière dont le système caractérise les usagers, même si ces caractères se révèlent souvent faux parce que calculés), la surveillance des utilisateurs pour leur livrer de la publicité ciblée va construire les principaux empires des Gafams que nous connaissons encore aujourd’hui. Si la publicité joue un rôle essentiel dans la privatisation, les  «Empires élastiques » des Gafams, comme les appels Tarnoff, ne vont pas seulement utiliser l’analyse de données pour vendre des biens et de la publicité, ils vont aussi l’utiliser pour créer des places de marché pour les moyens de production, c’est-à-dire produire du logiciel pour l’internet commercial. 

« Quand le capitalisme transforme quelque chose, il tend à ajouter plus de machinerie », rappelle Tarnoff avec les accents de Pièces et Main d’œuvre. Avec les applications, les pages internet sont devenues plus dynamiques et complexes, « conçues pour saisir l’attention des utilisateurs, stimuler leur engagement, liées pour élaborer des systèmes souterrains de collecte et d’analyse des données »« Les centres commerciaux en ligne sont devenus les lieux d’un calcul intensif. Comme le capitalisme a transformé l’atelier en usine, la transformation capitaliste d’internet a produit ses propres usines », qu’on désigne sous le terme de cloud, pour mieux obscurcir leur caractère profondément industriel. Ces ordinateurs utilisés par d’autres ordinateurs, rappellent l’enjeu des origines du réseau : étendre le calcul et les capacités de calcul. Tarnoff raconte ainsi la naissance, dès 2004, de l’Elastic Compute Cloud (EC2) d’Amazon par Chris Pinkham et Christopher Brown, partis en Afrique du Sud pour rationaliser les entrailles numériques de la machine Amazon qui commençait à souffrir des limites de l’accumulation de ses couches logicielles. EC2 lancé en 2006 (devenu depuis Amazon Web Services, AWS, l’offre d’informatique en nuage), va permettre de vendre des capacités informatiques et d’analyse mesurées et adaptables. Le cloud d’Amazon va permettre d’apporter un ensemble d’outils à l’industrialisation numérique, de pousser plus loin encore la privatisation. Le Big Data puis les avancées de l’apprentissage automatisé (l’intelligence artificielle) dans les années 2010 vont continuer ces accélérations industrielles. La collecte et le traitement des données vont devenir partout un impératif

La tech est désormais le dernier archipel de super-profit dans un océan de stagnation. Pire, la privatisation jusqu’aux couches les plus hautes d’internet, a programmé la motivation du profit dans tous les recoins du réseau.

Dans le même temps, les utilisateurs ont conquis un internet devenu mobile. L’ordinateur devenant smartphone n’est plus seulement la machine à tout faire, c’est la machine qui est désormais partout, s’intégrant non seulement en ligne, mais jusqu’à nos espaces physiques, déployant un contrôle logiciel jusque dans nos vies réelles, à l’image d’Uber et de son management algorithmique. L’industrialisation numérique s’est ainsi étendue jusqu’à la coordination des forces de travail, dont la profitabilité a été accrue par la libéralisation du marché du travail. La contractualisation des travailleurs n’a été qu’une brèche supplémentaire dans la gestion algorithmique introduite par le déploiement sans fin de l’industrie numérique, permettant désormais de gérer les tensions sur les marchés du travail, localement comme globalement. La force de travail est elle-même gérée en nuage, à la demande. Nous voilà dans le Human Cloud que décrit Gavin Mueller dans Breaking things at Work ou David Weil dans The Fissured Workplace

Coincés dans les profits !

Les biens réelles abstractions de ces empires élastiques ont enfin été rendues possibles par la financiarisation sans précédent de cette nouvelle industrie. Tout l’enjeu de la privatisation d’internet, à tous les niveaux de la pile, demeure le profit, répète Tarnoff. La financiarisation de l’économie depuis les années 70 a elle aussi profité de cette industrialisation numérique… Reste que la maximisation des profits des empires élastiques semble ne plus suffire. Désormais, les entreprises de la tech sont devenues des véhicules pour la pure spéculation. La tech est l’un des rares centres de profit qui demeure dans des économies largement en berne. La tech est désormais le dernier archipel de super-profit dans un océan de stagnation. Pire, la privatisation jusqu’aux couches les plus hautes d’internet, a programmé la motivation du profit dans tous les recoins du réseau. De Comcast (fournisseur d’accès), à Facebook jusqu’à Uber, l’objectif est resté de faire de l’argent, même si cela se fait de manière très différente, ce qui implique des conséquences sociales très différentes également. Les fournisseurs d’accès vendent des accès à l’internet, au bénéfice des investisseurs et au détriment des infrastructures et de l’égalité d’accès. Dans les centres commerciaux en ligne comme Facebook, on vend la monétisation de l’activité des utilisateurs ainsi que l’appareillage techno-politique qui va avec… Dans Uber ou les plateformes du digital labor, on vend le travail lui-même au moins disant découpé en microtranches et micro-tâches… Mais tous ces éléments n’auraient pas été possibles hors d’internet. C’est la promesse d’innovation technologique qui persuade les autorités de permettre à ces entreprises à déroger aux règles communes, qui persuade les investisseurs qu’ils vont réaliser une martingale mirifique. Mais dans le fond, toutes restent des machines non démocratiques et des machines à produire des inégalités. Toutes redistribuent les risques de la même façon : « ils les poussent vers le bas, vers les plus faibles » (les utilisateurs comme les travailleurs) « et les répandent autour d’eux. Ils tirent les récompenses vers le haut et les concentrent en de moins en moins de mains »

Pourtant, rappelle Tarnoff, l’action collective a été le meilleur moyen pour réduire les risques, à l’image des régulations qu’ont obtenues dans le passé les chauffeurs de taxis… jusqu’à ce qu’Uber paupérise tout le monde. L’existence des chauffeurs est devenue plus précaire à mesure que la valorisation de l’entreprise s’est envolée. Le risque à terme est que la machine néolibérale programmée jusqu’au cœur même des systèmes, ubérise tout ce qui reste à ubériser, de l’agriculture à la santé, des services public à l’école jusqu’au développement logiciel lui-même. 

Pourtant, les centres commerciaux en ligne sont très gourmands en travail. Tous ont recours à une vaste force de travail invisible pour développer leurs logiciels, les maintenir, opérer les centres de données, labéliser les données… La sociologue Tressie McMillan Cottom parle d’« inclusion prédatrice » pour qualifier la dynamique de l’économie politique d’internet. C’est une logique, une organisation et une technique qui consiste à inclure les marginalisés selon des logiques extractives. C’est ce que montrait Safiya Umoja Noble dans Algorithms of oppression : les « filles noires » que l’on trouve dans une requête sur Google sont celles des sites pornos, les propositions publicitaires qui vous sont faites ne sont pas les mêmes selon votre niveau de revenu ou votre couleur de peau. Les plus exclus sont inclus, mais à la condition qu’ils absorbent les risques et renoncent aux moindres récompenses. L’oppression et les discriminations des espaces en ligne sont désormais le fait d’une boucle de rétroaction algorithmique qui ressasse nos stéréotypes pour ne plus s’en extraire, enfermant chacun dans les catégories que spécifie la machine. Nous sommes désormais pris dans une intrication, un enchevêtrement d’effets, d’amplification, de polarisation, dont nous ne savons plus comment sortir. 

« L’exploitation des travailleurs à la tâche, le renforcement des oppressions sexistes ou racistes en ligne, l’amplification de la propagande d’extrême-droite… aucun de ces dommages sociaux n’existeraient s’ils n’étaient pas avant tout profitables. » 

Les inégalités restent cependant inséparables de la poursuite du profit pour le profit. La tech est devenuel’équivalent de l’industrie du Téflon. Pour l’instant, les critiques sont mises en quarantaine, limitées au monde de la recherche, à quelques activistes, à quelques médias indépendants. Le techlash a bien entrouvert combien la tech n’avait pas beaucoup de morale, ça n’empêche pas les scandales des brèches de données de succéder aux scandales des traitements iniques. Réformer l’internet pour l’instant consiste d’un côté à écrire de nouvelles réglementations pour limiter le pouvoir de ces monopoles. C’est le propos des New Brandeisians (faisant référence à l’avocat américain Louis Brandeis, grand réformateur américain) qui veulent rendre les marchés plus compétitifs en réduisant les monopoles des Gafams. Ces faiseurs de lois ont raison : les centres commerciaux en ligne ne sont pas assez régulés ! Reste qu’ils souhaitent toujours un internet régi par le marché, plus compétitif que concentré. Pourtant, comme le souligne Nick Srnicek, l’auteur deCapitalisme de plateforme, c’est la compétition, plus que la taille, qui nécessite toujours plus de données, de traitements, de profits… 

Pour Tarnoff, il y a une autre stratégie : la déprivatisation. « Que les marchés soient plus régulés ou plus compétitifs ne touchera pas le problème le plus profond qui est le marché lui-même. Les centres commerciaux en ligne sont conçus pour faire du profit et faire du profit est ce qui construit des machines à inégalités ».« L’exploitation des travailleurs à la tâche, le renforcement des oppressions sexistes ou racistes en ligne, l’amplification de la propagande d’extrême-droite… aucun de ces dommages sociaux n’existeraient s’ils n’étaient pas avant tout profitables. » Certes, on peut chercher à atténuer ces effets… Mais le risque est que nous soyons en train de faire comme nous l’avons fait avec l’industrie fossile, où les producteurs de charbon se mettent à la capture du CO2 plutôt que d’arrêter d’en brûler ! Pour Tarnoff, seule la déprivatisation ouvre la porte à un autre internet, tout comme les mouvements abolitionnistes et pour les droits civiques ont changé la donne en adressant finalement le coeur du problème et pas seulement ses effets (comme aujourd’hui, les mouvements pour l’abolition de la police ou de la prison).

Mais cette déprivatisation, pour l’instant, nous ne savons même pas à quoi elle ressemble. Nous commençons à savoir ce qu’il advient après la fermeture des centres commerciaux (les Etats-Unis en ont fermé beaucoup) : ils sont envahis par les oiseaux et les mauvaises herbes ! Sur l’internet, bien souvent, les noms de domaines abandonnés sont valorisés par des usines à spam ! Si nous savons que les réseaux communautaires peuvent supplanter les réseaux privés en bas de couche technologique, nous avons peu d’expérience des alternatives qui peuvent se construire en haut des couches réseaux. 

Nous avons besoin d’expérimenter l’alternet !

Nous avons besoin d’expérimenter. L’enjeu, n’est pas de remplacer chaque centre commercial en ligne par son équivalent déprivatisé, comme de remplacer FB ou Twitter par leur clone placé sous contrôle public ou coopératif et attendre des résultats différents. Cela nécessite aussi des architectures différentes. Cela nécessite d’assembler des constellations de stratégies et d’institutions alternatives, comme le dit Angela Davisquand elle s’oppose à la prison et à la police. Pour Tarnoff, nous avons besoin de construire une constellation d’alternatives. Nous devons arrêter de croire que la technologie doit être apportée aux gens, plutôt que quelque chose que nous devons faire ensemble.

Comme le dit Ethan Zuckerman dans sa vibrante défense d’infrastructures publiques numériques, ces alternatives doivent être plurielles dans leurs formes comme dans leurs buts, comme nous avons des salles de sports, des bibliothèques ou des églises pour construire l’espace public dans sa diversité. Nous avons besoin d’une décentralisation, non seulement pour combattre la concentration, mais aussi pour élargir la diversité et plus encore pour rendre possible d’innombrables niveaux de participation et donc d’innombrables degrés de démocratie. Comme Zuckerman ou Michael Kwet qui milite pour un « socialisme numérique »  avant lui, Tarnoff évoque les logiciels libres, open source, les instances distribuées, l’interopérabilité…, comme autant de leviers à cet alternumérisme. Il évoque aussi une programmation publique, un cloud public comme nous avons finalement des médias publics ou des bibliothèques. On pourrait même imaginer, à défaut de construire des capacités souveraines, d’exiger d’Amazon de donner une portion de ses capacités de traitements, à défaut de les nationaliser. Nous avons besoin d’un secteur déprivatisé plus gros, plus fort, plus puissant. 

C’est oublier pourtant que ces idées (nationaliser l’internet ou Google hier, AWS demain…) ont déjà été émises et oubliées. Déconsidérées en tout cas. Tarnoff oublie un peu de se demander pourquoi elles n’ont pas été mises en œuvre, pourquoi elles n’ont pas accroché. Qu’est-ce qui manque au changement pour qu’il ait lieu ?, semble la question rarement posée. Pour ma part, pourtant, il me semble que ce qui a fait la différence entre l’essor phénoménal de l’internet marchand et la marginalité des alternatives, c’est assurément l’argent. Même si on peut se réjouir de la naissance de quelques coopératives, à l’image de Up&Go, CoopCycle ou nombre de plateformes coopératives, les niveaux d’investissements des uns ne sont pas les niveaux d’investissements des autres. Le recul des politiques publiques à investir dans des infrastructures publiques, on le voit, tient bien plus d’une déprise que d’une renaissance. Bien sûr, on peut, avec lui, espérer que les données soient gérées collectivement, par ceux qui les produisent. Qu’elles demeurent au plus près des usagers et de ceux qui les coproduisent avec eux, comme le prônent les principes du féminisme de donnéeset que défendent nombre de collectifs politisés (à l’image d’InterHop), s’opposant à une fluidification des données sans limites où l’ouverture sert bien trop ceux qui ont les moyens d’en tirer parti, et plus encore, profite à ceux qui veulent les exploiter pour y puiser de nouveaux gains d’efficacité dans des systèmes produits pour aller à l’encontre des gens. Pour démocratiser la conception et le développement des technologies, il faut créer des processus participatifs puissants, embarqués et embarquants. « Rien pour nous sans nous », disent les associations de handicapés, reprises par le mouvement du Design Justice.

« Écrire un nouveau logiciel est relativement simple. Créer des alternatives soutenables et capables de passer à l’échelle est bien plus difficile », conclut Tarnoff. L’histoire nous apprend que les Télécoms ont mené d’intenses campagnes pour limiter le pouvoir des réseaux communautaires, comme le pointait à son tour Cory Doctorow, en soulignant que, du recul de la neutralité du net à l’interdiction des réseaux haut débit municipaux aux US (oui, tous les Etats ne les autorisent pas, du fait de l’intense lobbying des fournisseurs d’accès privés !), les oppositions comme les régulateurs trop faibles se font dévorer par les marchés ! Et il y a fort à parier que les grands acteurs de l’internet mènent le même type de campagne à l’encontre de tout ce qui pourra les déstabiliser demain. Mais ne nous y trompons pas, souligne Tarnoff, l’offensive à venir n’est pas technique, elle est politique !

« Pour reconstruire l’internet, nous allons devoir reconstruire tout le reste ». Et de rappeler que les Ludditesn’ont pas tant chercher à mener un combat d’arrière garde que d’utiliser leurs valeurs pour construire une modernité différente. Le fait qu’ils n’y soient pas parvenus doit nous inquiéter. La déprivatisation à venir doit être tout aussi inventive que l’a été la privatisation à laquelle nous avons assisté. Nous avons besoin d’un monde où les marchés comptent moins, sont moins présents qu’ils ne sont… Et ils sont certainement encore plus pesants et plus puissants avec le net que sans !

***

Tarnoff nous invite à nous défaire de la privatisation comme d’une solution alors qu’elle tient du principal problème auquel nous sommes confrontés. Derrière toute privatisation, il y a bien une priva(tisa)tion, quelque chose qui nous est enlevé, dont l’accès et l’enjeu nous est soufflé, retranché, dénié. Derrière l’industrialisation numérique, il y a une privatisation massive rappelions-nous il y a peu. Dans le numérique public même, aux mains des cabinets de conseils, l’État est plus minimal que jamais ! Même aux États-Unis, où l’État est encore plus croupion, les grandes agences vendent l’internet public à des services privés qui renforcentl’automatisation des inégalités

Malgré la qualité de la synthèse que livre Ben Tarnoff dans son essai, nous semblons au final tourner en rond. Sans investissements massifs et orientés vers le bien public plutôt que le profit, sans projets radicaux et leurs constellations d’alternatives, nous ne construirons ni l’internet de demain, ni un monde, et encore moins un monde capable d’affronter les ravages climatiques et les dissolutions sociales à venir. L’enjeu désormais semble bien plus de parvenir à récupérer les milliards accaparés par quelques-uns qu’autre chose ! Si nous avons certes besoin de constellations d’alternatives, il nous faut aussi saisir que ces constellations d’alternatives en sont rarement, en tout cas, que beaucoup ne sont que des projets politiques libéraux et qu’elles obscurcissent la nécessité d’alternatives qui le soient. Le secteur marchand produit nombre d’alternatives mais qui demeurent pour l’essentiel des formes de marchandisation, sans s’en extraire, à l’image de son instrumentation de la tech for good, qui conduit finalement à paupériser et vider de son sens la solidarité elle-même. Comme il le dit dans une interview pour The Verge, nous avons besoin de politiques et de mobilisations sur les enjeux numériques, pas seulement d’alternatives, au risque qu’elles n’en soient pas vraiment ! La constellation d’alternatives peut vite tourner au techwashing.  

Il manque à l’essai de Ben Tarnoff quelques lignes sur comment réaliser une nécessaire désindustrialisation du numérique (est-elle possible et comment ?), sur la nécessité d’une définanciarisation, d’une démarchandisation, d’une déséconomisation, voire d’un définancement de la tech, et donc pointer la nécessité d’autres modèles, comme l’investissement démocratique qu’explorait récemment Michael McCarthy dans Noema Mag. Et même ce changement d’orientation de nos investissements risque d’être difficile, les moyens d’influence et de lobbying des uns n’étant pas au niveau de ceux des autres, comme s’en désolent les associations de défense des droits américaines. C’est-à-dire, comme nous y invitait dans la conclusion de son dernier livre le sociologue Denis Colombi, Pourquoi sommes-nous capitalistes (malgré nous) ?, à comment rebrancher nos choix d’investissements non pas sur la base des profits financiers qu’ils génèrent, mais sur ce qu’ils produisent pour la collectivité. C’est un sujet que les spécialistes de la tech ne maîtrisent pas, certes. Mais tant qu’on demandera à la tech de produire les meilleurs rendements du marché pour les actionnaires (15% à minima !), elle restera le bras armé du capital. Pour reconstruire l’internet, il faut commencer par reconstruire tout le reste ! 

Hubert Guillaud

A propos du livre de Ben Tarnoff, Internet for the people, the fight for our digital future, Verso, 2022. 

Journaliste, blogueur, Hubert Guillaud, longtemps rédacteur en chef d’InternetActu.net, décrypte comme nul autre nos vies dans les outils du numérique. @hubertguillaud

Lire la première partie de cet article.

Internet : une si longue dépossession (1/2)

@maximalfocus

À l’occasion de la sortie du livre du théoricien critique Ben Tarnoff, Internet for the people, the fight for the future (Verso, 14 juin 2022), le journaliste spécialiste des conséquences politiques du numérique Hubert Guillaud nous propose de mieux comprendre les enjeux de la privatisation de nos biens sociaux (espaces de communications, services publics, industries…) par la numérisation à l’américaine et d’en retracer le fil historique. Un texte essentiel pour se repérer dans les grands enjeux contemporains d’internet (centralisation, décentralisation, articulation des différents réseaux et des différentes échelles, gouvernance privée versus gouvernance publique et intervention des citoyens dans ces transformations). (Partie 1/2)

Ben Tarnoff est un chercheur et un penseur important des réseaux. Éditeur de l’excellent Logic Mag, il est également l’un des membres de la Collective action in tech, un réseau pour documenter et faire avancer les mobilisations des travailleurs de la tech. 

Il a publié notamment un manifeste, The Making of tech worker movement – dont avait rendu compte Irénée Régnauld dans Mais où va le web ? -, ainsi que Voices from the Valley, un recueil de témoignages des travailleurs de la tech. Critique engagé, ces dernières années, Tarnoff a notamment proposé, dans une remarquable tribune pour Jacobin, d’abolir les outils numériques pour le contrôle social (« Certains services numériques ne doivent pas être rendus moins commodes ou plus démocratiques, mais tout simplement abolis »), ou encore, pour The Guardian, de dé-informatiser pour décarboner le monde (en invitant à réfléchir aux activités numériques que nous devrions suspendre, arrêter, supprimer). Il publie ce jour son premier essai,Internet for the people, the fight of your digital future (Verso, 2022, non traduit). 

Internet for the People n’est pas une contre-histoire de l’internet, ni une histoire populaire du réseau (qui donnerait la voix à ceux qui ne font pas l’histoire, comme l’avait fait l’historien Howard Zinn), c’est avant tout l’histoire de notre déprise, de comment nous avons été dépossédé d’internet, et comment nous pourrions peut-être reconquérir le réseau des réseaux. C’est un livre souvent amer, mais assurément politique, qui tente de trouver les voies à des alternatives pour nous extraire de l’industrialisation du net. Sa force, assurément, est de très bien décrire comment l’industrialisation s’est structurée à toutes les couches du réseau. Car si nous avons été dépossédés, c’est bien parce qu’internet a été privatisé par devers nous, si ce n’est contre nous. 

Nous sommes en train de passer du techlash aux technoluttes, d’une forme d’animosité à l’égard du numérique à des luttes dont l’objet est d’abattre la technologie… c’est-à-dire de dresser le constat qu’internet est brisé et que nous devons le réparer. 

« Les réseaux ont toujours été essentiels à l’expansion capitaliste et à la globalisation. Ils participent à la création des marchés, à l’extraction des ressources, à la division et à la distribution du travail. » Pensez au rôle du télégraphe dans l’expansion coloniale par exemple, comme aux câbles sous-marins qui empruntent les routes maritimes des colons comme des esclaves – tout comme les données et processus de reporting standardisés ont été utilisés pour asseoir le commerce triangulaire et pour distancier dans et par les chiffres la réalité des violences commises par l’esclavage, comme l’explique l’historienne Caitlin Rosenthal dans son livre Accounting for Slavery : Masters & Management.

« La connectivité n’est jamais neutre. La croissance des réseaux a toujours été guidée par le désir de puissance et de profit. Ils n’ont pas été conduits pour seulement convoyer de l’information, mais comme des mécanismes pour forger des relations de contrôle. » La défiance envers le monde numérique et ses effets n’a cessé de monter ces dernières années, dénonçant la censure, la désinformation, la surveillance, les discriminations comme les inégalités qu’il génère. Nous sommes en train de passer du techlash aux technoluttes, d’une forme d’animosité à l’égard du numérique à des luttes dont l’objet est d’abattre la technologie… c’est-à-dire de dresser le constat qu’internet est brisé et que nous devons le réparer. Pour Tarnoff, la racine du problème est pourtant simple : « l’internet est brisé parce que l’internet est un business ». Même « un internet appartenant à des entreprises plus petites, plus entrepreneuriales, plus régulées, restera un internet qui marche sur le profit », c’est-à-dire « un internet où les gens ne peuvent participer aux décisions qui les affectent ». L’internet pour les gens sans les gens est depuis trop longtemps le mode de fonctionnement de l’industrie du numérique, sans que rien d’autre qu’une contestation encore trop timorée ne vienne le remettre en cause. 

Privatisation partout, justice nulle part

Internet for the People, Ben Tarnoff
Ben Tarnoff, Internet for the People (Verso, 2022)

L’internet n’a pas toujours eu la forme qu’on lui connaît, rappelle Tarnoff. Né d’une manière expérimentale dans les années 70, c’est à partir des années 90 que le processus de privatisation s’enclenche. Cette privatisation « n’est pas seulement un transfert de propriété du public au privé, mais un mouvement plus complexe où les entreprises ont programmé le moteur du profit à chaque niveau du réseau », que ce soit au niveau matériel, logiciel, législatif ou entrepreneurial… « Certaines choses sont trop petites pour être observées sans un microscope, d’autres trop grosses pour être observées sans métaphores ». Pour Tarnoff, nous devons regarder l’internet comme un empilement (stack, qui est aussi le titre du livre de Benjamin Bratton qui décompose et cartographie les différents régimes de souveraineté d’internet, qui se superposent et s’imbriquent les uns dans les autres), un agencement de tuyaux et de couches technologiques qui le compose, qui va des câbles sous-marins aux sites et applications d’où nous faisons l’expérience d’internet. Avec le déploiement d’internet, la privatisation est remontée des profondeurs de la pile jusqu’à sa surface. « La motivation au profit n’a pas seulement organisé la plomberie profonde du réseau, mais également chaque aspect de nos vies en ligne ».

En cela, Internet for the people se veut un manifeste, dans le sens où il rend cette histoire de la privatisation manifeste. Ainsi, le techlash ne signifie rien si on ne le relie pas à l’héritage de cette dépossession. Les inégalités d’accès comme la propagande d’extrême droite qui fleurit sur les médias sociaux sont également les conséquences de ces privatisations. « Pour construire un meilleur internet (ou le réparer), nous devons changer la façon dont il est détenu et organisé. Pas par un regard consistant à améliorer les marchés, mais en cherchant à les rendre moins dominants. Non pas pour créer des marchés ou des versions de la privatisation plus compétitifs ou réglementés, mais pour les renverser »

« La “déprivatisation” vise à créer un internet où les gens comptent plus que les profits ». Nous devons prendre le contrôle collectif des espaces en ligne, où nos vies prennent désormais place. Pour y parvenir, nous devons développer et encourager de nouveaux modèles de propriété qui favorisent la gouvernance collective et la participation, nous devons créer des structures qui favorisent ce type d’expérimentations. Or, « les contours précis d’un internet démocratique ne peuvent être découverts que par des processus démocratiques, via des gens qui s’assemblent pour construire le monde qu’ils souhaitent ». C’est à en créer les conditions que nous devons œuvrer, conclut Tarnoff dans son introduction. 

Coincés dans les tuyaux

Dans la première partie de son livre, Tarnoff s’intéresse d’abord aux tuyaux en nous ramenant aux débuts du réseau. L’internet n’est alors qu’un langage, qu’un ensemble de règles permettant aux ordinateurs de communiquer. À la fin des années 70, il est alors isolé des forces du marché par les autorités qui financent un travail scientifique de long terme. Il implique des centaines d’individus qui collaborent entre eux à bâtir ces méthodes de communication. C’est l’époque d’Arpanet où le réseau bénéficie de l’argent de la Darpa (l’agence de la Défense américaine chargée du développement des nouvelles technologies) et également d’une éthique open source qui va encourager la collaboration et l’expérimentation, tout comme la créativité scientifique. « C’est l’absence de motivation par le profit et la présence d’une gestion publique qui rend l’invention d’internet possible »

C’est seulement dans les années 90 que les choses changent. Le gouvernement américain va alors céder les tuyaux à des entreprises, sans rien exiger en retour. Le temps de l’internet des chercheurs est fini. Or, explique Tarnoff, la privatisation n’est pas venue de nulle part, elle a été planifiée. En cause, le succès de l’internet de la recherche. NSFNet, le réseau de la Fondation nationale pour la science qui a succédé à Arpanet en 1985, en excluant les activités commerciales, a fait naître en parallèle les premiers réseaux privés. Avec l’invention du web, qui rend l’internet plus convivial (le premier site web date de 1990, le navigateur Mosaic de 1993), les entreprises parviennent à proposer les premiers accès commerciaux à NSFNet en 1991. En fait, le réseau national des fondations scientifiques n’a pas tant ouvert l’internet à la compétition : il a surtout transféré l’accès à des opérateurs privés, sans leur imposer de conditions et ce, très rapidement. 

En 1995, la privatisation des tuyaux est achevée. Pour tout le monde, à l’époque, c’était la bonne chose à faire, si ce n’est la seule. Il faut dire que les années 90 étaient les années d’un marché libre triomphant. La mainmise sur l’internet n’est finalement qu’une mise en application de ces idées, dans un moment où la contestation n’était pas très vive, notamment parce que les utilisateurs n’étaient encore pas très nombreux pour défendre un autre internet. D’autres solutions auraient pu être possibles, estime Tarnoff. Mais plutôt que de les explorer, nous avons laissé l’industrie dicter unilatéralement ses conditions. Pour elle, la privatisation était la condition à la popularisation d’internet. C’était un faux choix, mais le seul qui nous a été présenté, estime Tarnoff. L’industrie a récupéré une technologie patiemment développée par la recherche publique. La dérégulation des télécoms concomitante n’a fait qu’accélérer les choses. Pour Tarnoff, nous avons raté les alternatives. Les profits les ont en tout cas fermé. Et le «pillage » a continué. L’épine dorsale d’internet est toujours la propriété de quelques entreprises qui pour beaucoup sont alors aussi devenues fournisseurs d’accès. La concentration de pouvoir prévaut à tous les niveaux, à l’image des principales entreprises qui organisent et possèdent l’information qui passent dans les réseaux. Google, Netflix, Facebook, Microsoft, Apple et Amazon comptent pour la moitié du trafic internet. La privatisation nous a promis un meilleur service, un accès plus large, un meilleur internet. Pourtant, le constat est inverse. Les Américains payent un accès internet parmi les plus chers du monde et le moins bon. Quant à ceux qui sont trop pauvres ou trop éloignés du réseau, ils continuent à en être exclus. En 2018, la moitié des Américains n’avaient pas accès à un internet à haut débit. Et cette déconnexion est encore plus forte si en plus d’habiter loin des villes vous avez peu de revenus. Aux États-Unis, l’accès au réseau demeure un luxe. 

Pour Tarnoff, brancher plus d’utilisateurs dans un internet privatisé ne propose rien pour changer l’internet, ni pour changer sa propriété, ni son organisation, ni la manière dont on en fait l’expérience.

Mais l’internet privé n’est pas seulement inéquitable, il est surtout non-démocratique. Les utilisateurs n’ont pas participé et ne participent toujours pas aux choix de déploiements techniques que font les entreprises pour eux, comme nous l’ont montré, très récemment, les faux débats sur la 5G. « Les marchés ne vous donnent pas ce dont vous avez besoin, ils vous donnent ce que vous pouvez vous offrir »« Le profit reste le principe qui détermine comment la connectivité est distribuée »

Pourtant, insiste Tarnoff, des alternatives existent aux monopoles des fournisseurs d’accès. En 1935, à Chattanooga, dans le Tennessee, la ville a décidé d’être propriétaire de son système de distribution d’électricité, l’Electric Power Board. En 2010, elle a lancé une offre d’accès à haut débit, The Gig, qui est la plus rapide et la moins chère des États-Unis, et qui propose un accès même à ceux qui n’en ont pas les moyens. C’est le réseau haut débit municipal le plus célèbre des États-Unis. Ce n’est pas le seul. Quelque 900 coopératives à travers les États-Unis proposent des accès au réseau. Non seulement elles proposent de meilleurs services à petits prix, mais surtout, elles sont participatives, contrôlées par leurs membres qui en sont aussi les utilisateurs. Toutes privilégient le bien social plutôt que le profit. Elles n’ont pas pour but d’enrichir les opérateurs. À Detroit, ville particulièrement pauvre et majoritairement noire, la connexion a longtemps été désastreuse. Depuis 2016, le Detroit Community Technology Project (DCTP) a lancé un réseau sans fil pour bénéficier aux plus démunis. Non seulement la communauté possède l’infrastructure, mais elle participe également à sa maintenance et à son évolution. DCTP investit des habitants en « digital stewards » chargés de maintenir le réseau, d’éduquer à son usage, mais également de favoriser la connectivité des gens entre eux, assumant par là une fonction politique à la manière de Community organizers

Pour Tarnoff, brancher plus d’utilisateurs dans un internet privatisé ne propose rien pour changer l’internet, ni pour changer sa propriété, ni son organisation, ni la manière dont on en fait l’expérience. Or, ces expériences de réseaux locaux municipaux défient la fable de la privatisation. Elles nous montrent qu’un autre internet est possible, mais surtout que l’expérience même d’internet n’a pas à être nécessairement privée. La privatisation ne décrit pas seulement un processus économique ou politique, mais également un processus social qui nécessite des consommateurs passifs et isolés les uns des autres. À Detroit comme à Chattanooga, les utilisateurs sont aussi des participants actifs à la croissance, à la maintenance, à la gouvernance de l’infrastructure. Tarnoff rappelle néanmoins que ces réseaux municipaux ont été particulièrement combattus par les industries du numériques et les fournisseurs d’accès. Mais contrairement à ce que nous racontent les grands opérateurs de réseaux, il y a des alternatives. Le problème est qu’elles ne sont pas suffisamment défendues, étendues, approfondies… Pour autant, ces alternatives ne sont pas magiques. « La décentralisation ne signifie pas automatiquement démocratisation : elle peut servir aussi à concentrer le pouvoir plus qu’à le distribuer ». Internet reste un réseau de réseau et les nœuds d’interconnections sont les points difficiles d’une telle topographie. Pour assurer l’interconnexion, il est nécessaire également de « déprivatiser » l’épine dorsale des interconnexions de réseaux, qui devrait être gérée par une agence fédérale ou une fédération de coopératives. Cela peut sembler encore utopique, mais si l’internet n’est déprivatisé qu’à un endroit, cela ne suffira pas, car cela risque de créer des zones isolées, marginales et surtout qui peuvent être facilement renversées – ce qui n’est pas sans rappeler le délitement des initiatives de réseau internet sans fil communautaire, comme Paris sans fil, mangés par la concurrence privée et la commodité de service qu’elle proposent que nous évoquions à la fin de cet article

Dans les années 90, quand la privatisation s’est installée, nous avons manqué de propositions, d’un mouvement en défense d’un internet démocratique, estime Tarnoff. Nous aurions pu avoir, « une voie publique sur les autoroutes de l’information ». Cela n’a pas été le cas. 

Désormais, pour déprivatiser les tuyaux (si je ne me trompe pas, Tarnoff n’utilise jamais le terme de nationalisation, un concept peut-être trop loin pour le contexte américain), il faut résoudre plusieurs problèmes. L’argent, toujours. Les cartels du haut débit reçoivent de fortes injections d’argent public notamment pour étendre l’accès, mais sans rien vraiment produire pour y remédier. Nous donnons donc de l’argent à des entreprises qui sont responsables de la crise de la connectivité pour la résoudre ! Pour Tarnoff, nous devrions surtout rediriger les aides publiques vers des réseaux alternatifs, améliorer les standards d’accès, de vitesse, de fiabilité. Nous devrions également nous assurer que les réseaux publics locaux fassent du respect de la vie privée une priorité, comme l’a fait à son époque la poste, en refusant d’ouvrir les courriers ! Mais, si les lois et les régulations sont utiles, « le meilleur moyen de garantir que les institutions publiques servent les gens, est de favoriser la présence de ces gens à l’intérieur de ces institutions ». Nous devons aller vers des structures de gouvernances inclusives et expansives, comme le défendent Andrew Cumbers et Thomas Hanna dans « Constructing the Democratic Public Entreprise »(.pdf) (à prolonger par le rapport Democratic Digital Infrastructure qu’a publié Democracy Collaborative, le laboratoire de recherche et développement sur la démocratisation de l’économie).

Lire la deuxième partie de cet article.

Le métavers et l’ordre économique

Le metavers et l’ordre économique © Sandro Katalina Unsplash

Un monde parallèle dans lequel les frontières physiques, les normes sociales, les contraintes économiques sont abolies : la rhétorique du métavers n’est pas neuve et emprunte son idéologie aux pamphlets des années de la construction d’internet. L’apparition des technologies distribuées et des blockchains lui donne pourtant un nouveau souffle, décrivant l’utopie d’un monde structurellement armé contre la concentration des pouvoirs inhérente au web 2.0. Prototype d’un cyberespace refondé sur les principes de la décentralisation ou nouveau terrain d’affrontement pour les mastodontes technologiques, les enjeux du métavers sont plus profonds qu’il n’y paraît. Par Jonathan Bourguignon, auteur de Internet année zéro (éditions Divergences, 2021).

En janvier se renforce la rumeur selon laquelle des centaines d’employés chez Apple travaillent secrètement sur un nouvel appareil de réalité augmentée. Quelques jours plus tard, Microsoft rachète les légendaires studios de jeux vidéo du groupe Activision-Blizzard pour soixante-huit milliards de dollars. Cette opération assoit plus encore la position de la maison-mère de la Xbox comme géant du jeu vidéo, mais elle renforce surtout la crédibilité de son projet Mesh for Teams, qui vise à créer des outils de travail en réalité virtuelle et augmentée, annoncé en novembre 2021.

Ces grandes manœuvres, associées à l’annonce tonitruante du changement de nom du groupe Facebook en Meta – tentative pataude de faire oublier un nom désormais trop associé aux scandales d’atteinte à la vie privée – annoncent une nouvelle offensive du monde technologique dans la course au métavers, hypothétique monde virtuel résilient qui appartient à la mythologie de la création du web. Cette mythologie annonçait un internet imperméable au pouvoir des monopoles et au contrôle des Etats ; les années 2010 l’ont laissée pour morte. Jusqu’à l’essor des cryptomonnaies et, dans leur foulée, la montée en puissance des technologies distribuées. L’imaginaire d’un internet décentralisé se dessine à nouveau, et se projette dans le concept de métavers. En quoi se distingue-t-il du colonialisme des GAFAM ?

Du cyberespace au métavers

Retour en arrière : en 1992, le roman de science-fiction Snowcrash est le premier à utiliser le terme de métavers, et reprend l’idée d’un univers persistant en réalité virtuelle, dans la lignée du cyberespace décrit dans le roman Neuromancer en 1984. Ces deux romans marquent la naissance et l’apogée du genre cyberpunk. Entre les deux, les prophètes de la Silicon Valley reprendront à foison ce terme de cyberespace pour annoncer l’avènement d’internet, nouveau monde émancipateur et sans limites. Plus que la réalité virtuelle, c’est la cohabitation entre des millions de participants et la persistance de l’univers qui distinguent le métavers d’un simple jeu vidéo. Ce sont aussi les usages : le métavers doit être un lieu de commerce, de sport, de travail, de réunion, un lieu dans lequel se transposent la plupart des activités de la vie réelle, affranchies des limites du monde physique.

A la fin des années 80, se représenter un tel devenir pour le réseau internet, qui ne se matérialise que sous forme de lignes de commandes, demande beaucoup d’imagination. Il en faut déjà un peu moins pour comprendre les interfaces graphiques du Web, qui se démocratise à l’époque de la parution de Snowcrash. Dans les années 2000, la troisième dimension donne son heure de gloire au plus célèbre des métavers à date, Second Life. Les joueurs y créent bâtiments et objets virtuels, qu’ils s’échangent au moyen d’une monnaie numérique, générée par les créateurs du jeu ; Suzanne Vega ou U2 y ont donné des concerts virtuels, les plus grandes marques y ont implanté des boutiques et des showrooms, les principales banques s’y sont installées pour financer cette nouvelle économie virtuelle. Une économie qui s’assèche progressivement à partir de 2007 et la crise des subprimes : la panique bancaire se répand jusqu’aux guichets des agences du monde virtuel. Second Life périclite, l’idéologie du cyberespace est passée de mode, la sociabilisation en ligne passe par les messageries des réseaux sociaux plutôt que par des univers en 3D.

En 2018, Steven Spielberg donne sa propre interprétation cinématographique du métavers avec Ready Player One, lui-même adapté d’un roman paru quelqeus années auparavant. Dans le film, c’est un jeu vidéo qui peu à peu en vient à happer toutes les activités sociales de ses utilisateurs. Deux ans plus tard, l’épidémie de Covid-19 montre que Spielberg est toujours un grand observateur de la société. Les confinements successifs marquent le retour en grâce des évènements culturels à l’intérieur même d’univers pensés pour le jeu vidéo. Des marques de luxe participent à la Fashion Week organisée sur Animal Crossing de Nintendo, Parti Démocrate et militants hongkongais investissent World of Warcraft pour s’organiser, les rappeurs Lil Nas X et Travis Scott donnent des concerts virtuels qui rassemblent des dizaines de millions de fans, l’un sur Roblox (une plateforme constituée d’une multitude de mini-jeux créés par ses centaines de millions d’utilisateurs, principalement des enfants et des adolescents), l’autre sur Fortnite (créé par le studio Epic Games, contrôlé par l’entreprise chinoise Tencent, maison-mère de WeChat, la super app qui joue le rôle de Facebook dans l’univers parallèle que constitue l’Internet chinois derrière le Grand Firewall). En parallèle, messageries instantanées et visioconférences deviennent les outils les plus importants du télétravail auquel se rallient à contrecœur des centaines de milliers d’entreprises. Toutes les conditions semblent réunies pour que l’essentiel de la vie en société puisse désormais se dérouler dans des univers virtuels.

Dans le métavers, la spéculation immobilière va bon train : les parcelles les mieux placées s’arrachent à prix d’or, au gré du trafic des utilisateurs et donc du potentiel commerçant.

C’est d’ailleurs Epic Games qui exhume et propulse à nouveau sur le devant de la scène en avril 2021 le terme désuet de métavers. Epic frappe les forts et annonce la levée d’un fonds d’un milliard de dollars pour accomplir sa vision d’un univers virtuel persistant pour les joueurs… Mais le terme est rapidement phagocyté par le Web3, l’industrie qui se fédère derrière les concepts de décentralisation, de blockchain et de cryptomonnaie. Le métavers sera crypto ou ne sera pas. Car Second Life l’a prouvé : le métavers est voué à l’échec s’il reste sous le contrôle de quelques plateformes. Comment convaincre les citoyens du monde – et les développeurs, artistes, entrepreneurs – d’investir leurs efforts dans un monde parallèle qui peut s’effondrer ou être manipulé par quelques acteurs ? Une répartition plus juste de la valeur produite, un univers libéré de la mainmise des banques, des plateformes centralisées ou même des Etats : c’est justement la promesse du paradigme technologique et idéologique directement hérité de Bitcoin.

Les nouvelles promesses du métavers

Il y a une douzaine d’années à peine, Google et Facebook, fiers rejetons d’un internet émancipateur et libertaire, soignaient encore leur image d’entreprises humanistes et progressistes. A l’époque, le pouvoir des GAFAM, acronyme qui d’ailleurs n’existait pas, inquiétait beaucoup moins que celui des banques. Le pouvoir sans partage de ces dernières, et plus particulièrement leur capacité à créer de la monnaie à travers le crédit, venait de conduire à une nouvelle « pire crise financière depuis la Grande Dépression » – encore une, vraisemblablement pas la dernière. C’est dans ce contexte qu’apparaît Bitcoin en 2009, au sein de la communauté des cypherpunks, un groupe informel qui souligne depuis la fin des années 80 le rôle clé que peut jouer la cryptographie comme vecteur de changement social, notamment en garantissant la sécurité et la confidentialité des données. Selon le papier qui le fonde, Bitcoin s’imagine comme une arme contre l’ordre monétaire fondé sur le pouvoir bancaire et le crédit. Bitcoin est décentralisé : il se déploie simultanément sur tous les ordinateurs qui participent au réseau (incluant les « mineurs »), et écrit la blockchain, registre distribué qui ne peut être manipulé par aucun pouvoir centralisé.

Une décennie plus tard, la concentration des données au sein des plateformes de la Silicon Valley a engendré une concentration de richesses et de pouvoir sans précédent. Elle a aussi créé des vulnérabilités fondamentales pour les sociétés occidentales, esquissées par les révélations d’Edward Snowden en 2013, ou par les manipulations démocratiques opérées par Cambridge Analytica à partir de 2014. Ces scandales ont terni l’image des géants du web au point que l’entreprise à l’origine de Facebook s’est récemment résolue à se débarrasser d’un nom devenu difficile à porter. Ils ont aussi vu se réaliser les pires prémonitions des cypherpunks, et ont montré la nécessité de déployer des systèmes distribués, chiffrés, à l’abri du pouvoir des entreprises comme de celui des gouvernements. Bitcoin a été le premier de ces systèmes distribués à se répandre à grande échelle. Un nouveau système financier, offrant des services en miroir à la finance traditionnelle, s’est ensuite construit sous le nom de finance distribuée ou DeFi ; en 2021, la révolution prend d’assaut le monde de l’art sous le nom barbare de NFTs  (Non-Fungible Tokens, jetons non-fongibles, par opposition aux jetons destinés à servir de cryptomonnaie, dont la caractéristique est d’être fongible). Chacun de ces domaines d’application du Web3 esquisse les différences que recèlerait un métavers décentralisé.

Fondamentalement, le métavers doit assurer la résilience de la valeur créée par les utilisateurs, au-delà des entités centralisées telles que Second Life, Epic ou Meta qui maintiennent la plateforme. C’est ce que garantissent les blockchains : les actifs numériques contenus sur les registres d’Ethereum, Tezos et autres Polkadot – que ces actifs soient des cryptomonnaies ou n’importe quel objet numérique, images ou modèles 3D, avatars, morceaux de code, titres de propriété, dans le monde réel ou dans un métavers – survivront tant qu’il y a aura des ordinateurs connectés à internet pour faire tourner leur programme, même si l’entité-mère (par exemple, l’équipe d’origine qui a créé le projet Ethereum) venait à se dissoudre. En 2021, crypto-zombies dessinés sur soixante-quatre pixels et chatons arc-en-ciel s’échangent pour des millions de dollars. On reproche aux NFTs d’être un outil de spéculation, de blanchiment d’argent, d’être victimes de plagiat, profitant de la crédulité de certains, de se négocier sur des plateformes centralisées. En bref, le crypto art épouse pleinement les pratiques historiques du marché de l’art, outil d’affirmation pour l’individu d’appartenance à une caste sociale, et outil d’affirmation pour cette caste de sa domination culturelle. En l’occurrence, les licornes multicolores de pixels affirment désormais l’emprise de l’écosystème technologique sur la culture mondiale. Mais le crypto-art n’est que la face émergée du potentiel des NFTs. Celles-ci permettent aussi l’invention de nouveaux moyens de financer les artistes traditionnels, par des procédés proches de ceux ayant cours sur les plateformes de financement participatif, avec lesquelles des cinéastes tels que Martin Scorsese font déjà des expérimentations. Surtout et fondamentalement, les NFTs sont des actifs numériques.

Ces actifs numériques sont très précisément ce qui distingue les métavers issus de l’univers crypto des univers qu’un Facebook / Meta s’apprête à créer. Sur Decentraland, Cryptovoxels ou The Sandbox, la carte du territoire se décompose en parcelles que peuvent acquérir les usagers. Dans le métavers, la spéculation immobilière va bon train : les parcelles les mieux placées s’arrachent à prix d’or, au gré du trafic des utilisateurs et donc du potentiel commerçant. Le voisinage et les célébrités qui investissent un quartier comptent aussi, de même que les créations sur les parcelles d’architectes libérés des contraintes du monde physique. Une nouvelle mécanique immobilière se met en place : selon la rhétorique du Web3, acquérir les bonnes parcelles revient à une opportunité d’investir dans le Londres des années 50, le New York des années 70, le Berlin des années 2000. Une remise à zéro des compteurs du capitalisme, pour qui sait lire le jeu. Mais un capitalisme qui ne sera pas manipulé par un interventionnisme des banques centrales qui exacerbe les inégalités : selon l’interprétation que font certaines franges libertariennes de l’effet Cantillon, chaque nouveau plan de relance par les banques centrales, en renflouant les banques qui ont la mainmise sur le crédit, vient d’abord nourrir l’inflation dans certains secteurs tels que l’immobilier, augmentant le patrimoine de ceux qui possèdent déjà, tandis qu’au global, l’inflation – sur laquelle est indexée les salaires – n’augmente pas. Le nouveau métavers a bien hérité de Bitcoin sa critique des banques.

D’autres imaginaires anarcho-capitalistes se réinventent par le métavers : ainsi du Liberland, micronation proclamée sur une bande de terre non revendiquée de la rive ouest du Danube entre Serbie et Croatie, et qui, dans le monde réel, n’est guère plus que cela : une bande de terre. Dans le métavers, en revanche, le Liberland s’est associé au cabinet d’architectes de feu Zaha Hadid pour annoncer une cité – dans le métavers, donc – dédiée au cryptomonde, avec incubateur de startups et forums de rencontres.

Les utopies premières du web se sont précisées : « l’information veut être libre », mais l’information veut aussi avoir de la valeur. Le métavers est donc d’abord une utopie capitaliste, qui voudrait rebattre les cartes du pouvoir financier et numérique.

En outre, la dynamique de rareté créée par cette nouvelle carte du territoire illustre comment le métavers pourrait aussi mettre à mal l’hégémonie des GAFAM. Des produits ou des services qui s’exposent dans l’univers virtuel du métavers reviennent à la simplicité des places de marché du monde physique, loin des manipulations obscures des algorithmes de recommandation des plateformes publicitaires. Plus généralement, une plateforme de commerce décentralisée a un fonctionnement prédéfini par des contrats exposés sur la blockchain. Les commissions prises par de telles places de marché sont transparentes, de même que les règles de mise en avant des produits. L’opposé d’un Amazon qui fait évoluer à l’envi ses conditions d’utilisation, décide seul des algorithmes de recommandation qui ont droit de vie ou de mort sur les commerçants de son réseau, a seul accès aux données qui lui permettent de commercialiser des produits sous sa propre marque.

Les moteurs de jeu de Cryptovoxels tournent bien sur des serveurs centralisés, de même que la place de marché OpenSea. Mais la promesse de décentralisation est une conquête qui se fait par étapes : d’abord la monnaie et les échanges de valeurs à travers Bitcoin, puis l’exécution des contrats sur Ethereum ; les bases de données deviennent elles-mêmes décentralisées au travers de technologies comme IPFS, le calcul pourrait se déporter vers la périphérie (le edge computing). Le monde des cryptoactifs a paradoxalement signé le triomphe de l’open source, au sens où aucun projet décentralisé ne peut être crédible sans dévoiler son code, mais surtout au sens où les smart contracts s’exécutent sur la blockchain aux yeux de tous. Mais alors que le mouvement open source voulait promouvoir le tout-libre, le monde crypto se fait le chantre de la monétisation. Car ce que permettent les nouveaux métavers, à travers l’accès verrouillé cryptographiquement à des objets numériques, c’est essentiellement cela : la possession de biens incorporels. La persistance d’une plateforme à l’autre d’un avatar, des vêtements de créateur acquis pour cet avatar, les droits de propriété sur des œuvres artistiques, des objets créés, de l’immobilier, sont garantis par la blockchain. Les utopies premières du web se sont précisées : « l’information veut être libre », mais l’information veut aussi avoir de la valeur. Le métavers est donc d’abord une utopie capitaliste, qui voudrait rebattre les cartes du pouvoir financier et numérique.

Une utopie capitaliste

De l’idéologie affichée à l’implémentation dans les principaux projets émergents, c’est pourtant un champ infini des possibles qui se dessine. La course à la croissance dira si le nouvel univers est une utopie, ou la continuation du précédent paradigme numérique. Ce qui s’illustre fondamentalement dans la diversité des cryptomonnaies qui sous-tendent les transactions dans le métavers. Ces cryptomonnaies sont aujourd’hui en compétition aussi bien comme unité d’échange de valeurs, que comme plateformes par-dessus lesquelles se construisent les projets. Force est de constater que certaines de ces monnaies favorisent la concentration de richesses.

A commencer par le précurseur Bitcoin, dont la quantité d’unités en circulation sera limitée à 21 millions. Par essence, Bitcoin se veut donc déflationniste à terme, la monnaie devenant une ressource rare qu’il est préférable de garder en réserve que de dépenser.

Le métavers pourrait bien n’être rien d’autre qu’une version incarnée, en réalité virtuelle ou augmentée, du web actuel dominé par quelques plateformes centralisées, engendrant encore concentration des richesses, surveillance et manipulation de masse.

Les principales cryptomonnaies de deuxième génération s’appuient elles sur un mécanisme dit de preuve d’enjeu (le staking) pour sécuriser leurs transactions (Ethereum mise à part, dont la transition de la preuve de travail à la preuve d’enjeu devrait être effective en 2022). Avec le staking, l’opération de validation qui existe aussi dans Bitcoin devient réservée aux acteurs en mesure de mettre en jeu une certaine quantité de cryptomonnaie comme collatéral ; s’ils se comportent mal, cette mise en jeu leur est confisquée ; s’ils se comportent bien, ils récupèrent la récompense qui correspond à ce qu’on appelle « minage » dans l’environnement Bitcoin. Dit autrement, posséder de la cryptomonnaie et l’utiliser comme collatéral pour sécuriser le réseau est rétribué. En 2021, la rétribution du staking sur les réseaux majeurs évoluait entre 8 et 19%. Il est légitime que le travail de sécurisation du système monétaire soit rétribué, d’autant que la preuve d’enjeu est à l’heure actuelle le mécanisme de validation le mieux maîtrisé qui permette de résoudre le problème de l’impact environnemental massif de Bitcoin et de sa preuve d’enjeu (même si d’autres mécanismes, tels que les preuves à divulgation nulle de connaissance, pourraient bientôt prendre le pas). La grande jeunesse de ces écosystèmes donne encore peu de recul sur ce que serait un juste niveau de rétribution pour le staking. Il faut néanmoins considérer que les cryptomonnaies sont elles-mêmes en compétition : comme dans l’économie traditionnelle, celles qui rétribuent le mieux l’investissement (et donc avec la preuve d’enjeu : le fait de posséder des actifs en réserve) auront plus de moyens de se développer et d’investir dans le développement de leur écosystème, ce qui crée donc une incitation à favoriser la concentration de richesses.

Et le staking n’est qu’un des mécanismes par lesquels la richesse peut s’accumuler. La plupart des projets cryptographiques s’appuie sur un modèle économique qui prédéfinit les règles d’émission des jetons, leur distribution initiale, leur attribution future aux investisseurs, aux utilisateurs ou aux créateurs de la monnaie. Avec Bitcoin, il n’y avait pas de « pré-minage » : tous les jetons créés l’ont été sous forme de rétribution pour les mineurs qui font tourner le réseau depuis 2009. Fin 2015, lorsque le premier bloc d’Ethereum apparaît, 20% des ethers ont déjà été pré-minés, et sont distribués aux fondateurs, investisseurs, à la fondation elle-même. En 2020, un projet comme Solana a pré-miné 60% de ses jetons Les protocoles présentent une grande disparité, certains rétribuant mieux les investisseurs, d’autres les utilisateurs futurs. Leur adoption par les développeurs n’est pas seulement motivée par leur modèle, difficile à appréhender et à juger pour le commun des mortels, mais surtout par les fonctionnalités, la scalabilité, la vitesse d’exécution, le coût, la communauté active, le succès des projets qui s’y créent, NFTs, métavers et finance décentralisée en particulier. Les cryptomonnaies qui auront survécu dans dix ans seront-elles plus égalitaires que l’euro ou le dollar ?

Dans ses dimensions utopiques, la rhétorique blockchain parle de revenu universel et d’abondance, dont les premiers signes dans le métavers seraient l’apparition de nouvelles formes de revenu, tels que le Play-to-Earn, ou revenus créés par le jeu. Axie Infinity est un jeu qui voit plusieurs millions de joueurs s’affronter chaque mois, dont près de la moitié aux Philippines. Pour commencer à jouer, il faut dépenser plusieurs centaines de dollars pour acquérir ses premières créatures auprès d’autres joueurs, avant de les faire évoluer à la manière d’un Pokemon. S’appuyant sur les différences de niveaux de vie entre régions du monde, le jeu orchestre une économie dans laquelle les joueurs les plus aisés sont prêts à débourser des sommes suffisantes pour assurer un revenu confortable à d’autres joueurs devenus professionnels. Ce Play-to-Earn inventé par Axie Infinity ne semble guère différent du poker : les joueurs les plus doués peuvent s’en sortir et amasser des fortunes ; au détriment des autres joueurs, et pour le plus grand bénéfice du casino, c’est-à-dire des créateurs de la plateforme et de ses investisseurs. Les plateformes décentralisées permettent d’autres types de casino, prohibés avec de la monnaie fiduciaire : ainsi des prediction markets tels que Augur, l’une des premières applications décentralisées créées par-dessus Ethereum, qui permettent de parier sur la survenue d’évènements dans la vie réelle, parmi lesquels des résultats d’élections ; un type de pari interdit pour les biais qu’ils peuvent faire peser sur le processus démocratique…

Les règles imparfaites de ces écosystèmes en construction peuvent changer. Leur loi est écrite dans le code (ils aspirent à être trustless, c’est à dire à ce que leur bon fonctionnement ne dépendent jamais de la volonté d’individus corruptibles). Le code évolue, et est généralement soumis au vote démocratique auxquels peuvent participer ceux qui possèdent des jetons de gouvernance. Mais en démocratie aussi, le diable est dans les détails : ces jetons sont souvent eux-mêmes des actifs financiers qui se monnayent sur des plateformes d’échange, constituant de fait des systèmes plus proches de la ploutocratie que de la démocratie.

Code is law: l’avertissement de Lawrence Lessig en 1999 est devenu un mantra pour l’écosystème blockchain, qui semble avoir oublié que la formule indiquait les risques à se soumettre à la loi d’un code que l’on ne comprend pas, et non l’aspiration à confier au code la confiance perdue dans les institutions et les individus…

L’équilibre des forces

Le métavers pourrait bien n’être rien d’autre qu’une version incarnée, en réalité virtuelle ou augmentée, du web actuel dominé par quelques plateformes centralisées, engendrant encore concentration des richesses, surveillance et manipulation de masse.

S’il doit devenir autre chose, c’est à dire un espace virtuel dans lequel les règles du marché ne sont pas dictées par quelques acteurs, où existent des communs et des espaces d’expression qui ne peuvent être censurés, la tentative la plus sérieuse proviendra de l’écosystème crypto. Rien ne dit que la réalité virtuelle ou augmentée doivent contribuer massivement à ce changement de paradigme : on observe déjà une transformation de la manière dont l’art se finance, dont les marchés financiers s’organisent, pour le meilleur ou pour le pire. La plupart de ces tentatives relèvent d’ailleurs du champ de la monnaie et de l’échange de valeur : le métavers est une utopie profondément capitaliste.

Malgré ces restrictions, malgré les dérives graves et les dangers d’un écosystème encore aussi immature que le web avant l’explosion de la bulle internet, cet écosystème reste l’un des seuls champs d’expérimentation à grande échelle en-dehors de la doxa économique qui gouverne le monde sans partage depuis la chute de l’URSS. L’hégémonie de la doxa libérale l’avait même amenée dans les années 90 à constater la fin de l’Histoire : qu’est-ce qui pourrait bien remettre en cause la supériorité de son modèle ? Finalement bousculée par la réalité géopolitique, en Chine et ailleurs, elle est aussi inquiète de l’essor des cryptoactifs, qui ont démontré au Salvador qu’ils pouvaient mériter le qualificatif âprement contesté de monnaie : grâce à des surcouches technologiques telles que Lightning (qui permet de générer des paiements en Bitcoin sans inscrire chacune de ces transactions dans la blockchain), Bitcoin a désormais résolu ses problèmes d’échelles. Les théoriciens argumentent encore sur le fait qu’une monnaie doit avoir une institution prête à protéger sa valeur contre la volatilité des marchés ; quoiqu’il en soit, le Salvador a déclaré le Bitcoin monnaie officielle en septembre 2021, aux côtés de la seule monnaie en cours dans le pays depuis vingt ans : le dollar américain. Les habituels chiens de garde de l’orthodoxie libérale ont été prompts à la réaction : en janvier, dans une séquence qui n’est pas sans rappeler les faits d’armes de la Troïka pendant la crise grecque, le FMI exhorte le Salvador à retirer au Bitcoin son statut de monnaie, arguant des coûts budgétaires de mise en service des moyens de paiement associés et de la volatilité des cours. Il y conditionne l’accord de financement en cours de négociation. L’avertissement devient prophétie autoréalisatrice : dans la foulée, les agences de notation dégradent les indices de confiance du Salvador. Alors que de nombreux pays aux régimes instables ont vu leur monnaie souveraine s’effondrer ces dernières années, le message est clair : mieux vaut utiliser des dollars américains.

Du côté de l’Europe, en parallèle du projet de règlement MiCA (Markets in Crypto-Assets), la Commission Européenne proposait en mars que les prestataires de services soient tenus de s’échanger les informations personnelles de leurs clients lors de chaque transfert de cryptoactifs, y compris lorsque le transfert est opéré vers un portefeuille auto-détenu – la caractéristique première des cryptomonnaies étant justement que chaque utilisateur peut détenir son propre portefeuille sans passer par l’équivalent d’une banque. Pour justifier cette mesure qui vise à anéantir l’anonymat fondamental que permettent les cryptomonnaies, et dans une réplique parfaite des débats sur la surveillance d’internet au nom de la lutte contre le piratage ou la pédopornographie, les auteurs de la mesure avancent, sans qu’aucune donnée sérieuse ne vienne étayer leur argument (la seule étude mentionnée date de 2014, une époque révolue où Bitcoin, alors seul cryptoactif, circulait effectivement sur des plateformes telles que The Silk Road sur le dark web) qu’il s’agit de lutter contre le blanchiment d’argent et le financement du terrorisme. La vision de la commission est-elle d’anéantir l’anonymat dans toutes les transactions, y compris l’argent liquide ? Quand on n’a rien à se reprocher, on n’a rien à cacher, ont toujours su énoncer les régimes autoritaires…

En attendant, le candidat Macron propose au détours de son programme la création d’un métavers européen, concept que son secrétaire d’Etat chargé au numérique, acculé, a eu quelque peine à éclaircir, au-delà de l’idée de faire émerger des champions européens des moteurs 3D. Une autre séquence vue auparavant : la tentative par les mêmes acteurs de regagner en souveraineté numérique à travers le projet du cloud souverain s’est soldée par la création d’un label au travers duquel des entreprises françaises distribuent la technologie cloud des GAFAM.

Il reste donc peut-être peu de temps à l’écosystème Web3 pour faire apparaître un métavers décentralisé faisant vivre des modèles nouveaux pour la finance, les échanges sociaux, le cyberespace. L’ancien monde ne se laissera pas faire aisément ; si du côté des institutions, l’opposition frontale a commencé, GAFAM et autres géants technologiques affrontent la menace autrement. Leur travail de récupération idéologique a commencé : Meta reprend les éléments de langage des plateformes ouvertes (à rebours de toute l’histoire de Facebook), Epic annonce que le métavers qu’elle construit sera ouvert aux NFTs (contrairement à son grand rival Steam), et surtout, les fonds d’investissement les plus emblématiques du web 2.0, parmi lesquels Andreessen-Horowitz et Softbank, sont aussi les plus actifs dans le Web3. Tous promettent que cette fois, et contrairement au  cyberespace construit par les GAFA, le métavers sera bien un nouvel univers qui étendra le champ des possibles, et non la colonisation du réel, capté au travers de smartphones Apple, indexé à l’intérieur de moteurs de recherche Google, du graphe social de Facebook et autres plateformes d’e-commerce d’Amazon, ne demandant qu’à être instrumentalisés par les services de renseignements étatiques et autres partis politiques.

La bataille idéologique pour le métavers a déjà commencé.

Guillaume Pitron : « Le numérique n’a pas été conçu pour être vert »

© Bastien Mazouyer pour LVSL

Guillaume Pitron consacre son dernier livre L’enfer numérique : voyage au bout d’un like (Les liens qui libèrent, 2021) à déconstruire le mythe de la pseudo-immatérialité du numérique. Data centers polluants, câbles sous-marins tentaculaires, métaux rares extraits au mépris des normes environnementales… les fondements matériels de l’industrie digitale sont peu apparents mais cruciaux pour comprendre son fonctionnement. Le coût écologique des GAFAM commence ainsi tout juste à être pris en compte. Face aux critiques émises les géants du numérique, ceux-ci se livrent à une savante opération de greenwashing. Entretien réalisé par Pierre-Louis Poyau.

Le Vent Se Lève – À la lecture de votre ouvrage, la dématérialisation de l’économie, tant vantée depuis des années, semble relever de l’illusion la plus totale. Comment se fait-il que l’avènement des technologies digitales se traduise au contraire par une consommation croissante de ressources ?

Guillaume Pitron – Les technologies digitales sont faites de matières premières. Au vu de leur complexité, elles nécessitent toujours plus de matière première, dans une grande variété, aux propriétés chimiques peu communes. Je prends l’exemple d’un téléphone portable : aujourd’hui, il contient entre 50 et 60 matières premières, contre une dizaine pour un téléphone des années 1960 et 30 pour un téléphone des années 1990. On observe donc une inflation de l’usage de matière premières. Parce qu’un téléphone aujourd’hui, ça ne sert pas qu’à téléphoner. Il sert à rencontrer l’âme sœur, commander une pizza, prendre une photo, se géolocaliser, etc. L’inflation des ressources s’explique par la multiplicité des usages permis par les les technologies numériques.

Par ailleurs, ces technologies sont extrêmement puissantes. Un téléphone aujourd’hui contient sous sa coque plus de puissance que l’ensemble des outils informatiques qui ont permis d’envoyer l’homme sur la lune. Pour parvenir à une telle performance, il faut toujours plus de métaux aux propriétés extraordinaires, qu’on appelle souvent les métaux rares. Ils sont dilués dans l’écorce terrestre, leur raffinage est particulièrement complexe et il faut mobiliser beaucoup de ressources : électricité, produits chimiques, etc. La dématérialisation est donc une multi-matérialisation, puisqu’il faut toujours plus de ressources pour parvenir à fabriquer les technologies numériques. Les avancées technologiques que nous connaissons se traduisent par une utilisation toujours plus variée de tous les éléments de la table de Mendeleïev. La marche de la dématérialisation est en réalité une grande marche historique vers toujours plus de matérialisation. Ce discours de la dématérialisation vient se fracasser sur cette réalité.

NDLR : Pour une synthèse sur les métaux rares, lire sur LVSL l’article de Nathan Dérédec « Métaux rares : l’empire global de la Chine »

LVSL – Les années qui viennent devraient voir la multiplication non seulement d’objets mais également d’êtres vivants connectés. Vous évoquez ainsi l’exemple d’un père recevant sur son téléphone des alertes lorsque le taux de sucre dans le sang de sa fille diabétique devient trop élevé. C’est ce que vous qualifiez d’« internet du tout ». Ce n’est pas sans rappeler un épisode de la série télévisée technocritique Black Mirror, qui met en scène une mère espionnant les faits et gestes de sa fille grâce à une puce intégrée. Est-ce aujourd’hui la science fiction qui nous permet de penser de la manière la plus pertinente l’avenir du numérique ?

G. P. – Je pense que la science fiction excite les imaginaires. Qui a envoyé l’homme sur la lune sinon Hergé ? Il y a toujours, à l’amorce d’une révolution technologique, un imaginaire créé notamment par la littérature. La science fiction permet de se projeter dans un univers plus ou moins réaliste. À propos de Black Mirror, on pourrait presque parler d’anticipation : à certains égards, on est déjà dans la réalité. Entre la puce sous la peau et le téléphone à la disposition du père pour sa fille diabétique, nous sommes dans des phénomènes très proches. D’une certaine manière, ce n’est plus la science fiction qui rejoint la réalité mais la réalité qui rejoint la science fiction.

Permettez-moi un pas de côté. Pour enquêter, je me figurais parfois des scénarios possibles, en me demandant s’ils pouvaient être réalistes. Prenons l’exemple du chapitre 8 sur la finance passive. Je me suis d’abord demandé si l’usage, dans le monde de la finance, d’un nombre de plus en plus important de machines paramétrées pour prendre des décisions pouvait aboutir à des conséquences environnementales non prévues. Et c’est le cas, la finance passive est plus gourmande en énergies fossiles, notamment en charbon, que la finance active. En partant du résultat pour arriver à la cause, on a réalisé que ça existait réellement. Dans la méthode et l’enquête, il faut parfois être dans l’anticipation.

LVSL – Le terme d’agnotologie, inventé dans les années 1990 par l’historien des sciences Robert N. Proctor, désigne l’étude de la production du doute ou de l’ignorance. Il a été utilisé par les historiens travaillant sur la façon dont les pollutions industrielles ont été occultées par le patronat et les pouvoirs publics au cours du XIXe siècle. Assiste-t-on aujourd’hui à un phénomène similaire avec les pollutions numériques ? Vous évoquez le rôle des premiers théoriciens d’internet, des publicitaires et des designers

G. P. – Je pense que le numérique n’a pas été conçu pour être « vert » ou pour régler un quelconque problème environnemental. À mon sens il n’y pas non plus, au départ, de greenwashing ou d’intention de cacher quoi que ce soit. Cette tentative de relier internet aux questions environnementales est venue après. Je pense qu’elle est apparue très récemment, il y a moins d’une dizaine d’années, dans un contexte de prise de conscience de la gravité de la crise climatique. C’est à ce moment que l’industrie du numérique commence à faire du greenwashing, à établir cette connexion entre numérique et environnement. C’est à partir de là qu’on commence à entendre ce discours du numérique qui va sauver la planète. On l’a encore entendu lors de la COP26, c’était très prégnant. Ces discours sont apparus parce qu’il y a un enjeu de réputation à la clé. Ils sont à mon avis fallacieux. Il ne s’agit même plus de fabrique du doute ou de l’ignorance, c’est la fabrique d’une réalité alternative. L’industrie n’a pas dit « on ne sait pas », elle a affirmé, chiffres précis à l’appui, que le numérique permettait une réduction des émissions de CO2, qu’il allait sauver la planète, etc. L’industrie a été capable de prendre tôt le sujet à bras le corps et d’imposer son narratif. Il s’agit aujourd’hui de le déconstruire pour en proposer un autre.

LVSL – Peut-on vraiment parier sur une auto-régulation des multinationales du numérique ou sur une régulation fondée sur les mécanismes du marché ? Vous évoquez l’échec des crédits d’énergie verte, qui ne sont pas sans faire écho au marché carbone issu du protocole de Kyoto en 2005.

G. P. – Il y a aujourd’hui une pression de plus en plus forte qui pèse sur les entreprises du numérique, sur leur action climatique. D’abord au sein même de ces entreprises : chez Google et Amazon, des pétitions circulent pour demander la diminution des émissions. De l’extérieur surtout. Historiquement, la critique a été portée par Greenpeace, qui est aujourd’hui moins active sur ce sujet. Mais d’autres ONG prennent le relais et font pression, il y a un enjeu de réputation. Les entreprises essaient donc de verdir leur mix électrique, leur approvisionnement d’électricité. L’une des premières réponses à apporter, pour les entreprises, consiste à pouvoir dire qu’elles consomment moins de charbon. Ces entreprises sont d’ailleurs très actives : les GAFAM ont un mix électrique infiniment plus vert que la moyenne mondiale.

Pour autant, il y a des tour de passe-passe comptables, notamment ces crédits d’énergie verte qui sont une escroquerie intellectuelle, pour reprendre les mots de Philippe Luce que j’interroge dans le livre. Une entreprise produit de l’électricité verte et vend cette production, d’un point de vue strictement comptable, à une autre entreprise qui lui achète à un coût fixe. Les sommes versées doivent être réinvesties dans le déploiement des énergies vertes. Cela permet à Netflix de prétendre que son mix électrique est 100% vert, ce qui n’est absolument pas le cas : Netflix dépend, pour son stockage d’informations, d’Amazon Web Service, qui n’est pas une entreprise propre sur ce plan là. C’est doublement fallacieux : d’une part l’entreprise prétend être verte alors qu’elle ne l’est pas, d’autre part ce mécanisme ne permet pas générer suffisamment de fonds pour pouvoir réellement accélérer le déploiement des énergies vertes. C’est évidemment discutable de penser que le marché pourra régler ces problèmes par lui-même, la puissance publique doit toujours plus s’en mêler pour pouvoir assainir tout cela.

LVSL – Plusieurs mesures pourraient selon vous êtres mises en place par la puissance publique : l’établissement de forfaits dont le prix serait fonction des données consommées, etc. Le salut vient-il de la régulation étatique ?

G. P. – Je pense qu’il doit évidemment venir de la régulation étatique. Se pose aujourd’hui la question d’un interdit, ou tout du moins d’une limite à la consommation de certains produits numériques. Une baisse concrète de la pollution générée par internet passe nécessairement par une consommation moindre. Or nous n’en prenons absolument pas le chemin. Néanmoins, s’il faut relever quelques actions prises par les États, ce qui me frappe est la tentative de régulation des plateformes de réseaux sociaux. Aux États-Unis, en Australie, en Europe, en Chine, toutes sortes de mesures législatives sont prises pour mieux encadrer les réseaux sociaux, notamment l’accès des jeunes à ces réseaux. En l’occurrence l’État n’intervient pas pour des raisons écologiques mais au nom de la protection des mineurs. Mais cela montre que seule la loi est en mesure de mettre des barrières. On ne pourra pas faire sans, mais il faudra également qu’émergent de nouveaux modes de consommation. Le consommateur est totalement désensibilisé aux pollutions générées par le numérique, notamment parce qu’il consomme des services qui n’ont pas de prix. L’idée d’établir des forfaits dont le prix serait fonction des données consommées permettrait de remettre de la modération dont la consommation. Or c’est un outil de marché. Je ne pense pas qu’il faille nécessairement opposer régulation étatique, outil de marché et responsabilisation du consommateur, c’est un tout.

LVSL – Vous évoquez la confiance de certains industriels dans des avancées technologiques qui permettraient à un internet plus « vert » de voir le jour. Ainsi des progrès de la physique quantique, qui pourraient permettre de réduire la taille d’un data center à celle d’un livre. Ce n’est pas sans faire écho, en ce qui concerne le réchauffement climatique, aux espoirs placés par certains dans la géo-ingénierie. Pensez-vous que tout cela soit crédible ?

G. P. – Il faut en effet constater que pas un jour ne passe sans qu’on nous annonce l’avènement d’une nouvelle technologie censée permettre une gestion plus efficiente de l’information, un stockage plus efficace, etc. Ce serait une sorte de cercle vertueux, la bonne technologie venant corriger les effets néfastes de la technologie dont on s’est rendu compte après-coup des défauts. Il s’agit effectivement d’un véritable solutionnisme technologique.

Il y a un problème de concordance des temps dans le débat qui oppose les critiques et ceux qui soutiennent ces technologies. Le critique regarde ce qu’il se passe aujourd’hui quand le technologue regarde ce qu’il se passe demain. Quand on fait le constat d’un problème à un instant T, en 2021, souvent la réponse du technologue consiste à dire : « Pourquoi vous vous intéressez à cette question là puisque le futur lui a déjà donné tort, puisque les technologies futures vont régler le problème ? ». Personnellement, j’ai eu l’occasion de faire un débat sur BFM business avec un monsieur charmant qui s’appelle David Lacombled, dirigeant du think tank La villa numeris. Quand je pointais un problème, il ne niait pas la réalité de ce dernier mais sa manière de répondre consistait à opposer à la réalité un futur certain, qui donnerait tort à mon présent. A propos des data centers, il était ainsi convaincu que de nouvelles technologies permettraient bientôt de stocker de manière plus efficiente. C’est un procédé rhétorique qui me fascine. C’est pour moi de la réalité alternative, on ne regarde plus le présent. C’est extrêmement dangereux dans le débat. Si on applique cela à tous les débats, on ne parle plus du présent. Le futur, c’est quand ? Dans deux ans, dans cinq ans, dans vingt ans ? On nous avait promis le cloud il y a trois décennies, on se retrouve avec 3,5 millions de data centers sur terre. Cet optimisme qui convoque sans cesse le futur me paraît très dangereux.

LVSLVous évoquez l’importante consommation d’énergies fossiles, croissante, nécessaire au fonctionnement des infrastructures dont dépend Internet. De même, vous faîtes par exemple la liste de la cinquantaine de métaux rares nécessaires à la fabrication d’un smartphone. Le coup d’arrêt à l’expansion des TIC et du numérique ne pourrait-il pas tout simplement venir de l’épuisement des ressources ? Le pic du pétrole conventionnel aurait ainsi été atteint en 2008, or moins de pétrole, cela veut dire globalement moins de matières premières dépendantes de flux logistiques rapides et à longue portée : terres rares, cobalt, etc.

G. P. – En réalité, les métaux rares ne sont pas rares. Ce sont des métaux dilués mais pas nécessairement rares. Le cobalt, le graphite, on en trouve dans des quantités colossales sur terre et au fond des océans. La consommation de ces matières premières explose. L’Agence internationale de l’énergie a publié un rapport en mai 2021 selon lequel les seuls besoin de la transition énergétique exigeront, en 2040, quarante fois plus de lithium qu’en 2020. Le lithium est également nécessaire au fonctionnement des batteries de téléphone portable, la hausse de la consommation est donc indéniable.

Il y a d’abord la question des ressources : il y en a assez. Ensuite il y a les réserves, c’est-à-dire les stocks connus exploitables compte tenu des technologies d’extraction que l’on maîtrise actuellement et du prix du marché (il faut que cela soit rentable). Il y a nécessairement moins de réserves que de ressources : un stock de cobalt peut ne pas être exploitable de façon rentable ou être trop profond pour que la technologie actuelle en permette l’extraction. On constate par exemple qu’il n’y aurait pas assez de réserves de cobalt par rapport au besoin, il y a donc déjà de premiers signes d’alerte, sur le cuivre également. Pour autant, les technologies évoluent, le coût des matières premières est susceptible d’augmenter, etc. Il est difficile de donner une date précise d’épuisement de ces ressources. La question la plus intéressante est donc la suivante : à quel coût va-t-on extraire ces matières premières ? Théoriquement on peut le faire, mais il va falloir creuser plus profondément, y-compris au fond des océans : il va donc y avoir un coût écologique, un coût économique, un coût en matière de consommation d’énergie et donc un coût social. L’opposition des populations est de plus en plus forte : le Nicaragua a interdit l’extraction minière sur son territoire ; le Pérou de Pedro Castillo veut reconsidérer un certain nombre de projets miniers, qui doivent profiter à la population péruvienne ; en Patagonie, l’entreprise Barrick Gold a du abandonner un projet d’extraction de minerais à Pascua Lama parce que les Diagitas s’opposaient à la fonte des glaciers sous lesquels se trouvaient le métal. Il en va de même pour la mine de Peble en Alaska : les Américains ont suspendu l’extraction car elle risquait d’avoir un impact sur la population de saumons du lac situé à proximité. En définitive, je pense qu’on peut manquer de ressources non pas parce qu’elles feraient défaut mais parce qu’il y a des oppositions sociales de plus en plus fortes.

LVSL – Vous évoquez la priorité que devrait avoir un hôpital connecté sur la diffusion de vidéos sur la plateforme Tiktok. Certaines courants technocritiques défendent même le démantèlement pur et simple d’Internet. En définitive, ne faudrait-il pas se résoudre, a minima, à un usage moindre du numérique ?

G. P. – On entend beaucoup ces mots: dé-numérisation, désinformatisation, sobriété, etc. Ce dernier terme relève d’ailleurs bien souvent du greenwashing le plus éhonté, ce sont généralement ceux qui utilisent le plus ces outils numériques qui évoquent la sobriété. Il faut être méfiant à l’égard de ces mots. Qui va revenir à des Iphones 2, avec un temps de téléchargement multiplié par dix ? Qui est prêt à revenir à cet internet là ? Quelques-uns c’est certain. A chaque conférence que je donne, il y a toujours une ou deux personnes qui ont un vieux Nokia à la place d’un smartphone. Mais cela représente au mieux 5% de la population.

Je ne crois absolument pas à la dé-numérisation. Même s’il y a des gens qui sont prêt à cela, et je comprends parfaitement cette volonté de revenir à un mode de vie plus cohérent, la dynamique d’internet est aujourd’hui aux antipodes de cela : explosion de l’économie des données, « internet de tout », etc. Les deux tiers des adolescents américains utilisent Roblox [ndlr : jeu massivement multijoueur en ligne dans lequel le joueur incarne un avatar personnalisable] : quand vous voyez la façon dont les enfants consomment ce type de contenus, la dé-numérisation apparaît comme un rêve.