Le keynésianisme militaire de Ronald Reagan

Reagan - Le Vent Se Lève
© Aymeric Chouquet pour LVSL

Les mythes ont la vie dure. Celui d’un « tournant » libéral des États-Unis sous Ronald Reagan jouit assurément d’une fortune particulière. Influencé par les économistes Milton Friedman et Friedrich Hayek, le président républicain aurait supposément consacré toute son énergie à baisser les impôts et réduire le déficit budgétaire. L’examen détaillé de son bilan, en particulier de ses réformes fiscales, révèle pourtant l’exact inverse : c’est plutôt une forme particulière de keynésianisme qui a prévalu sous sa présidence – et même une politique industrielle cachée, centrée sur la hausse sans précédent du budget du Pentagone. Loin de signer le triomphe du laissez-faire, les deux mandats de Reagan ont consolidé un capitalisme monopolistique, déterminé moins par une quelconque doctrine que des intérêts stratégiques nationaux. De quoi relativiser les discours sur le « retour de l’État stratège » supposément initié par Joe Biden, dans le sillage de la crise Covid-19 et de l’invasion russe en Ukraine…

Au milieu des années 1980, tandis que François Mitterrand et la social-démocratie française capitulaient face au « mur de l’argent », Ronald Reagan, icône planétaire de la déréglementation néolibérale, présidait à une succession inédite de hausses d’impôts dans l’histoire des États-Unis. Au-delà des légendes noires et des légendes dorées, ces deux expériences de gouvernement illustrent le primat des rapports de force géopolitiques sur « l’idéologie ».

En France, peu de souvenirs politiques s’imposent tant à l’imaginaire collectif que celui du tournant de la rigueur du premier mandat de François Mitterrand. L’histoire retient qu’élus en mai 1981 sur la promesse de « changer la vie », Mitterrand et sa majorité passèrent, au terme d’un ou deux ans de résistance, sous les fourches caudines de la droite et de la finance internationale. Aux nationalisations d’industries stratégiques et du secteur bancaire, à la hausse du SMIC et des prestations sociales, à la retraite à 60 ans, succédèrent le blocage des salaires, l’austérité budgétaire, l’augmentation des impôts indirects et – gâteau sous la cerise – les privatisations entamées après la défaite aux législatives de 1986.

Contrairement à ses engagements de campagne, lorsque Reagan quitte la Maison blanche, la dépense publique a augmenté de 70 % – du fait entre autres d’une hausse, record en temps de paix, du budget de la défense.

L’épisode a profondément marqué le paysage idéologique, en France et au-delà : preuve, pour les uns, de l’absence d’alternative au capitalisme mondialisé, pour les autres, de l’impossibilité de changer les bases de la société par les voies de la démocratie bourgeoise. L’économiste Milton Friedman déclara, cynique, que l’échec de sa politique de relance fit de Mitterrand le bourreau du Parti travailliste britannique et la planche de salut de Margaret Thatcher pour sa réélection en juin 1983 [1].

D’un retournement l’autre

Ce que l’histoire n’a pas retenu c’est qu’au même moment, de l’autre côté de l’Atlantique, s’opérait un revirement sans doute moins prévisible encore. Sept mois avant l’élection de Mitterrand, Ronald Reagan, ancien acteur de cinéma et syndicaliste à Hollywood, électeur du Parti démocrate propulsé gouverneur républicain de la Californie, devient président des États-Unis. Dans une primaire taillée pour lui, Reagan devance Bush père sur une ligne libérale dure – que l’on retiendra sous le surnom de Reaganomics – de baisse des impôts, du coût du travail et de la dépense publique. Le sortant démocrate Jimmy Carter, accablé par la stagflation et la crise des otages américains en Iran, est balayé par 489 grands électeurs contre 49.

À la veille de l’élection, la santé de l’économie américaine inquiète les marchés obligataires. Le premier choc pétrolier a ouvert près d’une décennie à 8 % de chômage et 15 % d’inflation par an, contre moins de 5 % de chômage et 4 % d’inflation en moyenne entre 1950 et 1970. Selon l’expression du sociologue Giovanni Arrighi, les États-Unis plongent dans une « crise d’hégémonie » tandis que les Européens, secoués par l’effondrement du système de Bretton Woods, relancent la dynamique d’unification monétaire à l’ouest du vieux continent. Le propos d’un secrétaire au Trésor sous Nixon, « Big John » Connally, lancé à une assemblée d’économistes après l’annonce de la fin de la convertibilité du dollar en or, illustre l’état d’esprit des décideurs américains : « Les étrangers veulent nous baiser, il nous faut donc les baiser en premier ».

Pour les « faucons monétaristes » de Washington, la conjoncture appelle des mesures drastiques. La première fut la hausse rapide, à partir de mars 1980, des taux d’intérêt de la Réserve fédérale par son nouveau directeur Paul Volcker. La seconde fut la mise en branle, dans les premières semaines de la nouvelle administration, d’une grande réforme fiscale dont le candidat Reagan avait fait son cheval de bataille. L’objectif assumé est d’attirer les capitaux étrangers – y compris de la France « socialiste » – vers l’économie américaine, moins dans une logique de guerre froide que de défense tous azimuts des intérêts nationaux.

N’ayant sans doute en mémoire que le début de son premier mandat, la plupart des commentateurs présentent Reagan comme le guide – avec son alter ego britannique Thatcher – de la révolution néolibérale des années 1980. Répression du mouvement syndical, réduction de la dépense publique aussi massive que les baisses d’impôt, le tout sur fond d’un anti-communisme de combat : tel est d’après la vulgate le bilan des présidences de Reagan. Or, cela reviendrait à ne retenir de quatorze ans de présidence Mitterrand que les premières mesures du gouvernement Mauroy. Si la brutalité à l’égard du monde du travail est largement connue – l’on pense au bras de fer d’août 1981 avec les contrôleurs aériens en grève, que Reagan fit radier à vie et remplacer par des militaires – à examiner dans le détail sa politique économique, le legs reaganien apparaît pour le moins ambigu.

Contrairement à ses engagements de campagne, lorsque Reagan quitte la Maison blanche en 1989, la dépense publique a augmenté de 70 % passant de 678 à 1144 milliards de dollars – du fait entre autres d’une hausse, record en temps de paix, du budget de la défense. Plus étonnant, à partir de 1983, les recettes fiscales ont progressé chaque année durant ses deux mandats. Le 4 aout 1981, quatre mois après une tentative d’assassinat de laquelle il se rétablit avec une rapidité miraculeuse, Reagan fait passer en force la reforme fiscale qu’il avait promise à son électorat. C’est un aplanissement historique de l’impôt sur les salaires, les revenus du capital, le foncier et les bénéfices des entreprises – les principes régulateurs de l’économie américaine depuis le New Deal semblent définitivement abolis.

Reagan s’entoure d’économistes inspirés par la « théorie du ruissellement ». Or les conséquences du « choc fiscal » d’août 1981, frappant de plein fouet les catégories les plus fragiles, firent grincer des dents jusque dans les rangs du Parti républicain. À peine un an après son investiture, plus d’un tiers de ses électeurs ne souhaitent pas que Reagan se représente. Surtout, la réforme est un désastre sur le plan macroéconomique. Contrairement aux prévisions de ses conseillers, la dépense publique ne baisse pas au même rythme que les rentrées fiscales. Les données du Bureau de la gestion et du budget font état d’un trou de 128 milliards de dollars – contre 45 milliards initialement prévus – dans les finances de l’État fédéral. Informé de la situation par son directeur du budget, Reagan aurait déclaré : « En fin de compte, c’est Tip O’Neill [président marqué à gauche de la Chambre des représentants] qui doit avoir raison » [2].

Celui que les médias surnomment le « grand communicateur » mange son chapeau de cow-boy. « Reagan était certainement un partisan de l’allègement fiscal […] sur le plan idéologique », observe l’historien Joseph Thorndike, « mais il lui était difficile d’ignorer le coût de ses baisses d’impôts ». Le 19 août 1982, le Congrès vote une réforme peu connue du grand public mais que les observateurs ont qualifiée de plus importante hausse d’impôts de l’après-guerre. Stupéfaits, les lobbyistes en souliers de luxe qui hantent les couloirs du Joint Committee on Taxation ne sont pas au bout de leurs surprises. À un collègue lui faisant remarquer qu’il y avait « du Gucci de tous les côtés » au comité des finances du Sénat, son président républicain Bob Dole répliqua : « ils seront nombreux à être pieds nus quand on en aura terminé » [3]. En 1984, un rapport indépendant relève que plus de la moitié des 250 entreprises américaines les plus profitables n’ont payé aucun impôt fédéral au cours d’au moins une des trois années précédentes. En 1984 puis 1986, le Sénat républicain fait passer deux lois finissant de défaire l’essentiel des niches fiscales créées par Reagan en 1981.

Ces nouvelles lois ciblent à la fois les contribuables les plus aisés et les grandes entreprises : le taux d’imposition sur les revenus du capital est élevé à hauteur de celui sur les salaires, tandis que les durées d’amortissement comptable sont très fortement réduites. La réforme de 1986 s’attaque même aux avantages du secteur des hydrocarbures, important donateur du Parti républicain mais gorgé de profits par les crises énergétiques des années 1970. Le résultat est immédiat : en 1987 et 1988, les recettes bondissent comme rarement depuis la fin de la guerre.

La politique de Reagan fut-elle réellement inspirée par les fantaisies d’un Milton Friedman ? Ou, comme ce fut le cas de Mitterrand, obéissait-elle à des nécessités plus profondes ?

Aux contre-réformes de 1982, 1984 et 1986 – Reagan signera dix hausses d’impôts cumulées en tant que président – s’ajoute un renforcement considérable des moyens de l’administration fiscale : le budget de l’IRS, l’agence en charge de la collecte des cotisations, augmente de 10 points dans les dépenses non militaires, tandis que 30 000 agents supplémentaires sont recrutés sur la période 1982-89 – 10 000 pour la seule année 1987. Le budget de l’IRS n’a cessé de baisser depuis – en raison directe des recettes – malgré l’alternance des deux partis au pouvoir.

« L’idéologie » à l’épreuve des intérêts stratégiques nationaux

Si en France le Parti socialiste n’a jamais vraiment refermé la « parenthèse libérale » ouverte en 1983, aux États-Unis Reagan ne fut pas le dernier président à pratiquer un keynésianisme dissimulé de cette nature. « Les responsables politiques sont pragmatiques », analysait l’économiste américain James K. Galbraith. « Ils sont bien conscients du fait que les électeurs n’aiment pas le chômage et que les récessions sont impopulaires. L’instinct du politique est de répondre aux récessions par un « plan de relance ». Sous les présidents républicains, on a appelé cela « économie de l’offre » – Reagan l’a beaucoup pratiquée, tout comme George W. Bush entre 2001 et 2004. Il s’agit d’un keynésianisme à courte vue, déguisé, toujours assorti de professions de foi budgétaires et de promesses que la « responsabilité fiscale » reviendra dès le rétablissement des conditions économiques normales. Ça reste toutefois du keynésianisme – des interventions étatiques au profit de la dépense totale, en particulier par le recours aux achats publics, dans le domaine militaire ou ailleurs, pour sortir l’économie du gouffre. »

Une question subsiste : les « tournants » opérés par Mitterrand et Reagan au début des années 1980 furent-ils imposés par les soubresauts de l’économie mondiale ? Ou s’inscrivaient-ils plutôt dans la continuité d’orientations stratégiques de long terme ? S’agissant de la France, de nombreux historiens nuancent à présent le « tournant » qu’aurait constitué mars 1983. En effet, le cadre des « dé-nationalisations » avait été posé bien avant la défaite aux législatives de 1986. La loi bancaire de janvier 1984 – en préparation depuis 1980 au sein du club Échange et Projets, que préside le futur ministre de l’Économie Jacques Delors – harmonise les statuts des différents établissements et introduit de ce fait le principe de la concurrence généralisée dans le secteur bancaire. Le projet de loi sur la « respiration du service public », présenté en novembre 1982, puis la loi de janvier 1983 sur les « titres participatifs », organisent quant à eux le retour des capitaux privés dans le secteur public. Dès février 1982, Jean-Pierre Chevènement toujours en charge de l’Industrie prônait la rentabilité et une « gestion assainie » pour les entreprises d’État. Comme l’observa un ancien conseiller technique de Giscard, cité par Pierre Bourdieu et Rosine Christin dans un article consacré à la libéralisation de la politique du logement, « tout ça, il [fallait] un gouvernement de gauche pour le faire passer ».

De l’aveu d’un proche conseiller de Mitterrand, le but des nationalisations ne fut pas tant de rendre aux travailleurs la propriété de l’appareil productif que de resserrer le tissu économique autour de conglomérats industriels et bancaires cohérents, capables de prendre leur part – au nom de la France – dans la nouvelle division internationale du travail. En témoigne le refus du gouvernement de nationaliser l’empire Michelin, pourtant troisième producteur mondial de pneumatique sur lequel, comme le souligna Georges Marchais, régnait « une seule famille, voire un seul homme ». Le gouvernement ne toucha pas non plus à la filière – stratégique s’il en est – du pétrole, tel le groupe franco-américain Schlumberger dont le PDG Jean Riboud, ami intime du président, comptera parmi les fameux « visiteurs du soir » de l’Elysée.

Début mars 1983, Mitterrand affiche dans la presse son hésitation entre la ligne « européenne » – ou « fataliste » – des Delors, Rocard et Attali, et ce qu’il appela « l’autre politique » portée par Chevènement, Pierre Bérégovoy, Jean Riboud et son frère Antoine, PDG du futur Danone. « Du bluff, pour l’essentiel », opinera trente ans plus tard le journaliste François Ruffin – afin d’arracher à l’Allemagne d’ultimes concessions dans les négociations sur le Système monétaire européen. Plutôt qu’un « tournant de la rigueur », l’historien libéral Jean-Charles Asselain évoquera avec ironie « l’incartade socialiste de 1981 ». « Attention à ne pas jeter l’enfant avec l’eau du bain ! », avertissait déjà le journal Le Monde le 4 mars 1983. Or face au seuil symbolique de trois millions de chômeurs franchi en 1993, que reste-t-il une décennie plus tard des acquis sociaux de la période 1981-83 ? La retraite à 60 ans, votée le 16 mars 1983. « La façade », fulmine Ruffin.

Rendre la planification acceptable

Quid de Reagan ? Sa politique lui fut-elle réellement inspirée par les fantaisies d’un Milton Friedman ? Ou, comme ce fut le cas de Mitterrand, obéissait-elle à des nécessités plus profondes ? Au tournant des années 1980, la puissance américaine est confrontée à l’émergence des « quatre dragons asiatiques » que sont le Japon, la Corée du Sud, Singapour et Taïwan. Le vieux bassin industriel du Midwest, qui connut son apogée durant la Seconde Guerre mondiale, est rendu obsolète par le progrès technique. Le choix s’impose d’orienter l’activité vers les domaines à haute valeur ajoutée. Sans la participation active de l’État, la transition promet d’être lente et difficile et le risque est grand de voir se creuser un écart irrémédiable avec les pays les mieux préparés – en particulier le Japon et son tout-puissant ministère du Commerce international et de l’Industrie (mieux connu sous l’acronyme anglais MITI).

Après la défaite cuisante de Carter et du Parti démocrate en 1980, l’expression « politique industrielle » apparaissait durablement discréditée. Dans le climat idéologique de ce que l’on allait appeler la « seconde guerre froide », l’idée d’un gouvernement allouant des ressources à sa discrétion possède d’insupportables relents planistes. Or si Reagan s’est bien gardé bien d’y faire mention publiquement, ce sont à l’évidence les contours d’un plan que dessine sa pratique du pouvoir.

L’impeccable pedigree anti-communiste de Ronald Reagan conférait une immunité à sa politique économique : « seul Ronald Reagan pouvait rendre respectable l’économie planifiée », écrira le futur secrétaire au Travail sous Clinton

Le premier objectif de cette « politique industrielle cachée » fut d’atrophier les secteurs industriels de base – biens standardisés, automobiles, métaux simples. Ces industries, dont la rentabilité implique une production de masse, sont particulièrement vulnérables à la concurrence par les prix. Par conséquent le moyen le plus sûr d’en réduire la surface est de faire croître leur prix sur les marchés mondiaux, plombant ainsi leurs exportations et poussant les consommateurs américains vers les produits étrangers plus abordables. Et pour provoquer cette hausse des prix, rien de tel qu’un renforcement du dollar – ce à quoi s’applique Volcker depuis sa nomination à la tête de la Banque centrale. La hausse du taux directeur entre 1979 et 1982 fit bondir de 19% le cours de la devise américaine.

Cette stratégie s’avéra d’une efficacité redoutable : quelque deux millions d’emplois d’usine dans la métallurgie, la sidérurgie, la chimie ou encore le textile seront sacrifiés au cours du premier mandat de Reagan. Chacun à sa manière les successeurs de Reagan à la Maison blanche marcheront sur les pas de cette politique. Reagan, Bush père et fils diminuèrent chacun de 9% en moyenne la part de l’emploi industriel, tandis que Clinton signa l’accord de libre-échange avec le Mexique et présida à l’entrée de la Chine dans l’Organisation mondiale du commerce. Si des économistes de renom comme Anne Case et Angus Deaton commencent à prendre la mesure du coût humain de la désindustrialisation, leurs analyses ne vont toutefois pas jusqu’à désigner des responsables puisqu’aucun de ces noms – Reagan, Bush ou Clinton – n’est mentionné dans leur travail [4].

Quant aux patrons de la vieille industrie, la hausse du dollar les poussa à former des co-entreprises avec des concurrents étrangers – General Motors avec Toyota, Chrysler avec Mitsubishi – ou à délocaliser, soit vers les maquiladoras mexicaines, soit les Zones économiques spéciales en Chine créées à partir de 1979 sous Deng Xiaoping. Le coup de grâce viendra de la simplification du code fédéral des impôts, menée tambour battant par l’administration Reagan à partir de 1984. L’élimination des niches et autres incitations à l’investissement dans les secteurs industriels de base – estimée à 200 milliards de dollars de pertes fiscales au total – empêchèrent les filières concernées de se moderniser.

En parallèle, l’État américain s’employa à soutenir les industries de pointe : microprocesseurs, lasers, fibres optiques, polymères, biotechnologies, etc. Les taux d’imposition particulièrement avantageux appliqués à leurs activités de recherche et développement furent systématiquement préservés. Par-dessus tout, ces secteurs profitèrent de l’explosion des dépenses militaires justifiées par la course à l’armement avec l’Union soviétique. Le budget de défense passa de 180 milliards de dollars en 1980 à près de 300 milliards en 1988 – maintenant une moyenne annuelle autour de 6% du PIB. Le comté de Santa Clara, alias la Silicon Valley, dont Reagan fut un ardent promoteur en tant que gouverneur de Californie, en fut le troisième plus important bénéficiaire, recevant chaque année jusqu’à 5 milliards de dollars de contrats du Pentagone.

La signature des accords du Plaza, en septembre 1985, couronnait le plan reaganien de transition industrielle. James Baker, avocat texan fraîchement nommé secrétaire au Trésor, acta avec ses quatre homologues – Japon, Allemagne de l’Ouest, France et Royaume-Uni – le rééquilibrage du dollar vis-à-vis des autres monnaies des pays du G5. La réévaluation du Yen fut concédé par Tokyo sous la menace de voir appliquer à ses produits des droits de douanes prohibitifs à l’entrée des Etats-Unis, son principal marché d’export depuis 1945. Ce tour de force diplomatique ne sauva pas pour autant l’industrie automobile américaine – elle demeurait nettement moins compétitive que ses concurrents nippons, malgré des restrictions « volontaires » de leurs exportations consenties à la demande des grands groupes de Détroit. Les accords du Plaza permirent cependant aux fabricants de puces comme Texas Instruments, l’un des plus importants fournisseurs du département de la Défense, de conquérir 20% du très hermétique marché japonais.

Dans cette guerre commerciale préfigurant celle contre Huawei ou Airbus, les entreprises américaines de haute technologie reçurent un soutien appuyé de leur gouvernement. En 1987 le géant japonais de l’électronique Toshiba fut poursuivi par le Congrès des États-Unis pour avoir vendu, via l’une de ses filiales, du matériel servant à produire les turbines des sous-marins nucléaires soviétiques. Toshiba plaida qu’un groupe français, Machines françaises lourdes, avait le premier fourni à l’URSS des outils équivalents. Sans succès : plusieurs cadres dirigeants de Toshiba seront condamnés à la prison par la justice japonaise, tandis que les produits du groupe furent interdits à la vente aux Etats-Unis pour une période allant de deux à cinq ans selon les branches d’activité.

En marge du vote, une poignée de parlementaires alla jusqu’à mettre en scène, sur les pelouses du Capitole, la destruction à coups de masse d’un radiocassette de la marque japonaise… Dans le rôle du bon flic, le député Chuck Schumer – aujourd’hui chef de file des démocrates au Sénat et grand architecte du CHIPS Act récemment promulgué par l’administration Biden – déclara au New York Times que les sanctions contre Toshiba ne s’appliqueraient pas nécessairement, et qu’elles seraient conditionnées à l’ouverture du marché japonais à la concurrence étrangère. « Je crois qu’ils peuvent [s’]ouvrir encore davantage », affirma-t-il. « Il n’y a rien qui les en empêche ».

Face à la vague réactionnaire de la fin des années 1970, l’intervention soviétique en Afghanistan, l’émergence des néoconservateurs et la montée en puissance du courant évangélique, grand soutien du candidat Reagan lors des campagnes de 1980 et 1984, l’on peine à imaginer un élu démocrate poussant l’ambition réformatrice aussi loin. L’impeccable pedigree anti-communiste de Ronald Reagan, sa rhétorique libertarienne mêlée de populisme conservateur – « le gouvernement n’est pas la solution, le gouvernement est le problème » – conférait l’immunité complète à sa politique économique. « Seul Richard Nixon pouvait ouvrir les relations avec Pékin », écrira le futur secrétaire au Travail sous Clinton, Robert Reich, en référence au rapprochement surprise entre les Etats-Unis et la Chine populaire au début des années 1970 ; « et seul Ronald Reagan pouvait rendre respectable l’économie planifiée. »

Notes :

[1] Difficile en outre, sur un temps plus long, de ne pas relever un lien de cause à effet entre l’échec du Programme commun et la lente émergence du populisme de gauche. En 1985, la parution du livre Hégémonie et stratégie socialiste d’Ernesto Laclau et Chantal Mouffe proclamait « l’irréductible pluralité du social », annonçant du même coup la rupture avec l’analyse concrète de la situation concrète qui caractérisait la pensée radicale de gauche depuis le début de XXème siècle.

[2] Monica Prasad, Starving the Beast: Ronald Reagan and the Tax Cut Revolution, Russel Sage Foundation, 2018.

[3] Alan Murray et Jeffrey Birnbaum, Showdown at Gucci Gulch: Lawmakers, Lobbyists, and the Unlikely Triumph of Tax Reform, Vintage, 1988.

[4] Anne Case, Angus Deaton, Deaths of Despair and the Future of Capitalism, Princeton University Press, 2020.

Distinguer l’intelligence de l’artificiel

L’intelligence artificielle (IA) fait l’objet d’une médiatisation sensationnaliste. Chez les techno-solutionnistes de la Silicon Valley, on y voit la promesse d’une « humanité augmentée ». Chez leurs opposants, on redoute parfois la concurrence entre intelligence humaine et artificielle. Ces mythes sont battus en brèche par Anne Alombert, maîtresse de conférences à l’Université Paris 8, dans Schizophrénie numérique : La crise de l’esprit à l’ère des nouvelles technologies (Allia, 2023). Elle rappelle l’irréductibilité de l’intelligence humaine à un système de traitement de données. Selon elle, la crainte d’un remplacement des hommes par les machines détourne des vrais problèmes politiques. Recension.

« Rien ne nous caractérise davantage, nous, les hommes d’aujourd’hui, que notre incapacité à rester spirituellement up to date par rapport au progrès de notre production. » En 1956, Günther Anders faisait du progrès technologique une nouvelle manière de se rapporter au monde, marquée par une « obsolescence » proprement humaine, une « a-synchronicité chaque jour croissante entre l’homme et le monde qu’il a produit ».

Un tel « décalage prométhéen » n’aura pas manqué d’interpeller l’observateur contemporain. À l’heure du développement des large langage models (dont ChatGPT), il est devenu commun, notamment dans les discours des magnats de la Silicon Valley, de mettre en concurrence intelligences humaine et artificielle. Un discours que les médias s’empressent souvent de reprendre sans distance critique suffisante.

C’est à Friedrich Hayek et Herbert Simon que l’on doit la popularité de l’analogie trompeuse entre le cerveau et la machine dans les sciences économiques et sociales, faisant de l’intelligence une simple affaire de traitement de données.

Or tel est justement le constat que tente de nuancer la philosophe Anne Alombert dans son ouvrage Schizophrénie numérique. Il ne fait pas de doute que les promesses des nouvelles technologies semblent coïncider avec la « destruction progressive des facultés de penser, par une industrie numérique qui fait des énergies psychiques sa première source de profit économique ». En témoigne la parution simultanée en 2019 des ouvrages du chercheur en intelligence artificielle Yann Le Cun Quand la machine apprend. La révolution des neurones artificiels et de l’apprentissage profond et du neuroscientifique Michel Desmurget, La Fabrique du crétin digital. Les dangers des écrans pour nos enfants.

Mais selon la maîtresse de conférences à l’Université Paris 8, cet état schizophrénique – dont l’ambiguïté réside en particulier dans le terme « d’intelligence artificielle » – procède en réalité d’une idéologie solidement ancrée et incorporée à ces outils numériques, qui suggère que la notion de progrès suivrait le seul récit prôné par les entreprises américaines qui dominent aujourd’hui le secteur du numérique.

Les technologies numériques sont ainsi le produit d’un courant cognitiviste et comportementaliste, inspiré par les œuvres de Friedrich Hayek, économiste pionnier du néolibéralisme et d’Herbert Simon, théoricien de l’IA et inspirateur de l’économie comportementale. C’est à ces auteurs que l’on doit la popularité de l’analogie trompeuse entre le cerveau et la machine dans les sciences sociales et économiques modernes, faisant ainsi de l’intelligence une simple affaire de traitement de données. Or, s’appuyant en cela sur la philosophie de Bernard Stiegler et d’André Leroi-Gourhan, Anne Alombert rappelle que l’esprit est bien davantage une construction collective qu’une substance individuelle. L’intelligence procède ainsi d’une activité qui « suppose toujours des corps vivants et un milieu technique pour s’exercer ».

Bien plus, la circulation des esprits suppose « un double processus d’intériorisation psychique et d’extériorisation technique : les expériences se sédimentent dans les supports de mémoire, se conservent dans l’espace et dans le temps et resurgissent dans le présent à travers leur réactivation par les individus vivants ». Les supports techniques sont ainsi porteurs d’une « fonction télépathique », que Bernard Stiegler appelait « rétentions tertiaires », entendues comme sédimentations conscientes et inconscientes accumulées dans l’histoire et qui vont servir de support à la constitution des savoirs, des expériences individuelles et des institutions qui forment le corps social dans son ensemble.

Une fois ce constat effectué, la question n’est donc plus de savoir si les machines sont en mesure ou non de surpasser l’intelligence humaine, mais bien plutôt de déterminer comment les nouvelles technologies du numériques surdéterminent le rapport de notre génération à la connaissance et à la perception du monde dans lequel nous vivons. En tant que « supports de mémoire et de symboles », les technologies numériques « supportent le patrimoine culturel dont les individus héritent, qu’ils interprètent et à partir duquel ils pensent, réfléchissent, imaginent et se projettent ».

Or en incorporant des règles comportementales dans le design et dans la diffusion de l’information, ces nouvelles technologiques de l’information ne s’adressent plus à des citoyens conscients. En réduisant le numérique à des techniques persuasives (la « captologie » de B.J. Fogg par exemple) qui tendent à capter l’attention pour mieux la commercialiser ou en facilitant la diffusion à grande échelle de fausses informations, ces technologies débouchent tout droit vers une « industrialisation des esprits ».

La schizophrénie numérique dénoncée par Anne Alombert ne doit cependant pas conduire à diaboliser toute forme de technologie. En tant que supports de notre mémoire collective, les outils techniques et singulièrement les outils numériques ne sont pas seulement des moyens mais aussi le milieu perceptif et social dans lequel nous vivons en tant que tel, milieu que nous devons nous donner pour tâche de transformer. En guise de proposition, elle se réfère par exemple aux initiatives de recherche-action, dont l’une des illustrations actuelles se trouve dans le cadre de la clinique contributive de Plaine Commune qui vise à placer les populations d’un territoire donné au cœur de la production des savoirs (ici les pédopsychiatres, les parents et les enfants face aux écrans).

Comment le yoga façonne l’être néolibéral

Séance de yoga sur une plage. © Kaylee Garett

Qu’il soit pratiqué dans une salle de sport, devant ses followers Instagram, seul sur son tapis ou même en entreprise, le yoga n’en finit pas de séduire de nouveaux adeptes. En vendant la découverte d’un « soi » intérieur et en promettant d’aider à atteindre une forme de perfection spirituelle et physique, il offre à des millions de personnes l’espoir d’une vie saine et pleinement épanouie. Un horizon que la société ne paraît plus capable d’apporter depuis longtemps. Mais pour Zineb Fahsi, professeure de yoga, cette quête d’un « meilleur soi » n’est rien d’autre qu’une façon de faire accepter son sort à l’individu néolibéral, tout en l’appelant à se dépasser, en particulier au travail. Dans son livre Le yoga, nouvel esprit du capitalisme (éditions Textuel, 2023), elle explique comment cette pratique hindoue a été transformée en vulgaire développement personnel. Extraits.

« Manger équilibré, faire du yoga… Même enfermés, on n’aura donc jamais la paix? » Cet article exaspéré de la journaliste Barbara Krief, est publié sur le site de Rue89 en avril 2020, après les quinze premiers jours du premier confinement en France suite à la pandémie de Covid-19. Soulignant la multiplication des injonctions à « profiter » du confinement, à le considérer comme une opportunité pour tendre vers un meilleur soi et apprendre de nouvelles compétences, bref, à faire du confinement un moment productif et épanouissant, cet article est révélateur de la prééminence de la culture du perfectionnement de soi, quelles que soient les circonstances, et bien souvent au mépris de celles et ceux qui n’ont pas le luxe de pouvoir s’adonner au souci de soi. Comme en écho à cet article, une coach new age et professeure de yoga très suivie sur les réseaux sociaux a récemment partagé sur son compte Instagram le faux dialogue suivant : « Moi : “Utilises-tu la crise mondiale actuelle comme un catalyseur pour te propulser vers la meilleure version de toi-même jamais atteinte?” – Eux : “Non.” – Moi : “Ça serait plus cool que tu le fasses.” » Les discours d’auto-perfectionnement sont donc omniprésents dans le milieu du yoga et constituent son nouveau but : devenir une meilleure personne, atteindre une meilleure existence ici-bas par le développement de son plein potentiel, par le biais d’exercices physiques et d’une transformation psychique [1].

Le narcissisme et la compétition, moteurs de la dépression

Ainsi pullulent dans les discours motivationnels de professeurs de yoga, les affirmations positives issues du new age et du développement personnel selon lesquelles les individus seraient dépositaires d’un potentiel infini, disposent de ressources illimitées, ainsi que les exhortations à « être soi-même », à « devenir soi », bref, à s’accomplir, suggérant ainsi qu’être simplement soi ne suffit pas, mais que ce « soi » que l’on doit devenir nécessite un travail personnel. Si les possibilités humaines sont infinies et que le plein potentiel de l’individu est illimité, s’impose alors une évidence : cette quête d’amélioration de soi ou de quête de soi est par essence infinie,et cette injonction à « devenir soi » est par définition inatteignable. Perpétuellement à remodeler, idéalement par la consommation de multiples techniques disponibles sur le marché, l’individu est entraîné dans une quête de perfection impossible nécessitant une vigilance et une surveillance constante, dépeinte dans sa version cauchemardesque dans la série auto-fictionnelle grinçante de Blanche Gardin, « La meilleure version de moi-même ».

De nombreux déçus du développement personnel [2] ont dénoncé le caractère illusoire de cette quête perpétuelle d’amélioration de soi et de bonheur, qui laissent paradoxalement l’individu épuisé, fragilisé et insatisfait. Sans mentionner les dérives sectaires vers lesquelles cette quête perpétuelle d’amélioration de soi peut mener. Le sociologue Alain Ehrenberg analyse ainsi dès 1998 dans son ouvrage La Fatigue d’être soi, la dépression comme une maladie qui découle de la sur-responsabilisation des individus. Le culte de la performance conduit nécessairement la majorité des gens à faire l’expérience de leur propre insuffisance. Ainsi, pointent Christian Laval et Pierre Dardot : « Le symptôme dépressif fait désormais partie de la normativité comme son élément négatif : le sujet qui ne soutient pas la concurrence par laquelle il peut entrer en contact avec les autres est un être faible, dépendant, soupçonné de n’être pas “à la hauteur”. Le discours de la “réalisation de soi” et de la “réussite de sa vie” induit une stigmatisation des “ratés”, des “paumés” et des gens malheureux, c’est-à-dire incapables d’accéder à la norme sociale du bonheur. Le “ratage social” est à la limite considéré comme une pathologie. » [3] Edgar Cabanes et Eva Illouz renchérissent : « Il paraît que nous n’avons “jamais vécu dans l’histoire humaine plus longtemps et plus heureux que de nos jours”. Les sociétés modernes individualistes permettraient en effet à leurs citoyens de mieux envisager leur propre vie, elles leur octroieraient une plus grande liberté, leur offriraient des choix plus nombreux, un environnement bien plus propice à l’accomplissement personnel et un éventail de possibilités bien plus large, à condition de montrer la volonté nécessaire, d’atteindre leurs objectifs tout en s’améliorant eux-mêmes.

Le culte de la performance conduit nécessairement la majorité des gens à faire l’expérience de leur propre insuffisance.

Or, de telles affirmations semblent contredites par les motivations de ces millions de personnes qui décident de recourir chaque année aux thérapies, aux services et aux produits proposés par les spécialistes du bonheur. En effet, si elles décident d’y recourir, c’est précisément parce qu’elles ne se sentent pas heureuses – ou du moins pas assez. Contredites, ces affirmations le sont également par des travaux et des études au long cours qui établissent un lien de causalité direct entre, d’un côté, dépression, angoisse, maladies mentales, cyclothymie et isolement social – autant de phénomènes de masse toujours plus tangibles  – et, de l’autre, “culture du narcissisme”, “culture du je” et “génération Je m’aime”, pour ne citer que quelques formules bien connues désignant l’individualisme égocentrique et possessif qui prédomine dans nos sociétés capitalistes modernes. Il est permis d’affirmer que cet individualisme égocentrique a affaibli le tissu social,et, par conséquent, tout ce qui pouvait garantir qu’on prenait soin les uns des autres. […] Les propos des prosélytes de la psychologie positive sont par ailleurs mis à mal par nombre d’études sociologiques qui établissent un lien de causalité direct entre l’individualisme et le nombre, particulièrement élevé dans les sociétés développées comme dans celles en voie de développement, de dépressions et de suicides .» [4]

La réécriture du yoga selon des principes individualistes

La reformulation du yoga comme une discipline de réalisation de soi est initiée par Vivekananda (philosophe indien mort en 1902, ndlr) dans son ouvrage Rāja Yoga, qui, dans un processus de sécularisation et de psychologisation du yoga, le définit comme une méthode visant à atteindre « un état de développement avancé de l’être humain, une évolution dans sa condition dans laquelle le potentiel de l’huma-nité est vraiment accompli ». Cette reformulation est le fait de nombreuses influences décrites plus tôt, mais elle repose également sur un glissement sémantique et conceptuel d’une notion védantique, la réalisation du Soi, « atmajnana », réinterprétée comme la réalisation de soi. Le yoga prémoderne se développe comme une méthode qui vise à se libérer de l’individualité, et non à libérer l’individu. Ontologiquement différent du soi personnel (ahamkara), le Soi (atman) à réaliser dans le Vedāntaest impersonnel, ne possède pas de qualités individuelles, il est universel et identique à chacun des individus. Ainsi, la réalisation du Soi poursuivie par le yoga prémoderne est une quête de la part d’universel, d’absolu en chacun. Une conception du Soi aux antipodes de la réalisation de soi du développement personnel qui consiste à affirmer la singularité de l’individu, à la consolider, la développer, la transformer. La « réalisation du Soi » est comprise dans sa forme intransitive, celle de se réaliser, et le Soi devient alors une forme de « personnalité authentique », non corrompue par les exigences sociales, les carcans moraux, l’influence de la société, qui viendraient brimer l’expression pleine d’un être humain aux potentialités toujours insuffisamment exploitées.

La réalisation du Soi poursuivie par le yoga prémoderne est une quête de la part d’universel, d’absolu en chacun. Une conception du Soi aux antipodes de la réalisation de soi du développement personnel.

Des idées initialement émancipatrices qui se transforment en nouvel impératif moral de travail constant sur soi. En le soumettant à des contraintes psychiques de plus en plus fortes, les sociétés modernes font porter à l’individu le devoir de développer et de cultiver un certain nombre de « techniques de soi » pour « se prendre en charge ». Pour citer Véronique Altglas : « L’individu ne veut plus être un instrument de Dieu, et aspire à être l’acteur principal de sa vie; l’immanence reporte le pouvoir dans le monde terrestre et rend l’être humain autonome et responsable de son existence. Celui-ci devient alors une quête pour lui-même. » Son enquête de terrain auprès d’adeptes des lignées Muktananda et Sivananda est à ce titre édifiante, et souligne l’omniprésence de cette quête d’auto-perfectionnement chez les adeptes qu’elle a interviewé.e.s.

Elle note également la réinterprétation d’un autre concept védantique dans le sens d’un auto-perfectionnement, celui du samsara. Le samsara désigne le cycle des renaissances, conçu dans le bouddhisme et l’hindouisme comme un enfermement cause de souffrance et dont il faut se libérer: renaître à nouveau, même dans une existence meilleure, est considéré comme un échec. Dans la conception des adeptes interviewé.e.s par Véronique Altglas la quête de libération du cycle des renaissances est mise de côté au profit de sa réinterprétation comme une opportunité de s’améliorer par-delà cette existence. Une réinterprétation notamment permise par la relecture de certains concepts de l’hindouisme au regard des théories évolutionnistes par les premiers gourous indiens transnationaux. Ainsi, comme le souligne Véronique Altglas, Sivananda désigne la transmigration comme une opportunité d’auto-perfectionnement : « la doctrine de la réincarnation est rationnelle, elle donne de solides chances de rectification, de développement et d’évolution graduelle à l’homme». [5]

Découvrir son « moi intérieur » pour mieux accepter sa position de classe

Cette quête de réalisation personnelle, note le chercheur Mark Singleton, s’articule autour d’une notion socio-religieuse hindoue, celle de dharma. Le dharma est un terme sanskrit qui désigne tout à la fois la norme, le devoir, mais également l’ordre cosmique qui se traduit en une organisation sociale hiérarchisée. La participation des hindous à cet ordre socio-cosmique se fait par l’observation de rituels religieux et d’obligations sociales prédéfinis par la caste, le genre, la famille, l’âge d’appartenance de chacun. Ainsi, suivre son dharma, c’est suivre son devoir social et religieux en respectant un certain nombre de normes, qui ne sont pas personnelles et individualisées. Les non-hindous, par définition hors-caste, en sont donc exclus. Un texte célèbre de l’hindouisme et du yoga, la Bhagavad-Gītā, aborde la question du dharma par une phrase célèbre et particulièrement appréciée dans le milieu du yoga contemporain selon laquelle « mieux vaut faire imparfaitement son propre devoir que d’exceller dans celui d’un autre » [6]. Ce qui signifie dans le contexte de l’époque le fait de se conformer à son devoir social et de classe, est devenu, avec une relecture contemporaine, l’idée que chacun serait dépositaire d’un destin singulier, d’une raison d’être qui lui serait cachée et qu’il devrait découvrir dans le but de s’accomplir. 

Il s’agit donc non plus simplement de suivre son dharma mais de découvrir son dharma, qui se formule alors comme un appel à suivre sa vocation, à accomplir sa destinée, poursuivant la rhétorique du développement personnel selon laquelle chacun disposerait d’une vocation propre, unique et exceptionnelle, et que l’accomplir relèverait du devoir et représenterait la condition sine qua non d’accès à la félicité et au bonheur. Mark Singleton prend pour exemple l’extrait suivant tiré de l’ouvrage de Stephen Cope, The Great Work of your Life, qui illustre parfaitement cette reformulation contemporaine du dharma dans un sens individuel et psychologique, mais aussi l’impératif moral à le « réaliser » : « les yogis insistent sur le fait que chaque être humain a une vocation unique. Ils l’appellent dharma (…). Dharma signifie aussi bien le chemin, l’enseignement, ou la loi. Pour les objectifs de ce livre, dharma prend le sens de “vocation” ou de “devoir sacré”. Il signifie avant tout – et dans tous les cas – la vérité. Les yogis pensent que notre plus grande responsabilité dans cette vie est envers cette possibilité intérieure, ce dharma et ils pensent que le devoir de chaque être humain est d’incarner profondément, complètement, pleinement, son propre et idiosyncratique dharma ». 

Cette reformulation de la notion de dharma dans les termes contemporains d’une quête de sens et réalisation d’un soi « authentique » donne lieu à ce que le chercheur Mark Singleton appelle « l’industrie du dharma », soit autant d’outils de développement personnel visant à découvrir son « soi véritable » comme préalable pour atteindre l’épanouissement et le succès. Selon Stephen Cope, et de façon caractéristique dans les livres de développement personnel, ce « soi » à découvrir est présenté comme un ensemble de caractéristiques individuelles monolithiques et immuables, une identité stable dont nous serions dépositaires à la naissance et qui n’aurait pas été façonné par notre environnement social. Porteuse d’une forte dimension morale, cette quête d’authenticité présuppose un « moi véritable » forcément pur et meilleur, car non entaché par les diktats de la société, représentée comme forcément corruptrice et aliénante pour l’individu. 

Cette conception d’un soi auto-engendré, complètement indépendant et autonome de son milieu social, culturel, économique correspond à la fiction du sujet idéal du néolibéralisme.

Paradoxalement, cette quête du « soi véritable » invite à se débarrasser d’un ennemi intérieur redoutable, l’ego, qui empêcherait d’accéder à ce soi authentique lumineux. L’ego est souvent une traduction du terme ahamkara qui désigne dans les philosophies indiennes « le faiseur de moi » ; c’est la faculté psychique qui installe une continuité dans nos expériences vécues et qui permet de dire « je ». Le terme ahamkara désigne la faculté à se considérer comme un individu séparé, voilant la nature réelle des êtres qui elle est universelle et sans qualité personnelle, le fameux Soi – et c’est à ce titre qu’il s’agit de le dépasser. Ainsi, ahamkara recouvre l’ensemble de ce qu’on appellerait la personnalité, autant les traits jugés socialement « négatifs » que ceux jugés « positifs », considérés comme devant être tous transcendés pour atteindre la libération. Tandis que dans l’acception commune de l’ego développée par le new age et le développement personnel, ce qui serait à dépasser ou à annihiler serait plutôt une sorte de « mauvais soi », des traits jugés indésirables ou délétères, qui empêcheraient l’accès à son essence plus lumineuse. 

Cette conception d’un soi auto-engendré, complètement indépendant et autonome de son milieu social, culturel, économique correspond à la fiction du sujet idéal du néolibéralisme, remise en cause par les apports tant de la biologie, de la psychologie que des sciences humaines et sociales, décrivant le « moi » comme un canevas tissé des fils à la fois de l’hérédité mais également du milieu social, de l’environnement culturel, familial, économique, politique, du genre. Comment démêler alors ce qui est authentique de ce qui ne l’est pas ? Sans compter la vision extrêmement réductrice de la société comme nécessairement corruptrice de l’individu, niant la dimension sociale des êtres humains. Enfin, comme souligné plus tôt, dans de nombreux textes de yoga, la personnalité, le « moi » est considérée comme contingent et mouvant, éphémère. Ce qui est considéré comme le Soi ultime ne dispose d’aucune qualité personnelle.

La poursuite d’un bonheur strictement individuel

Une fois ce «  soi véritable » découvert au moyen de nombreux outils à sa disposition, l’individu a le devoir de le faire fructifier, de lui donner l’opportunité de trouver sa pleine expression, notamment en choisissant un métier qui permettra l’expression la plus totale de ce « moi ». On pense par exemple aux tests MBTI, aussi populaires dans le milieu du yoga qu’en entreprise, qui font correspondre à chaque « type de personnalité » un panel de métiers. En faisant coïncider vocation professionnelle et réalisation de soi, l’industrie du dharma est une déclinaison de la vision évoquée plus tôt du travail productif comme étant le lieu et le vecteur de sens de l’existence, poussant l’individu à mobiliser tout son être à son service en espérant y trouver son accomplissement. Cette quête d’authenticité et de réalisation personnelle via le travail est d’ailleurs souvent formulée comme le moyen de contribuer à changer le monde pour le meilleur, et ce quelle que soit la nature de l’activité de l’entreprise. Un discours messianique, mélange de protestantisme et de croyances new age, qui se retrouve tant dans la bouche des PDG de la Silicon Valley [7] que dans celles d’entrepreneurs du bien-être, selon laquelle trouver sa raison d’être via son activité productive permettrait par ricochet de contribuer à l’amélioration et l’harmonie du monde – et ce quels que soient la nature réelle de l’activité de l‘entreprise et ses impacts concrets environnementaux et sociaux. 

Cet idéal de réalisation de soi par le travail a été depuis fortement ébranlé. L’anthropologue David Graeber a par exemple mis en lumière les « bullshit jobs », soulignant la désillusion rencontrée par bon nombre de jeunes cadres confronté.e.s à la vacuité de leur emploi. Emprunt.e.s de ces discours de réalisation de soi par le travail, ils et elles se retrouvent en réalité dans des emplois dénués de sens, dont la contribution à la société est moindre voire négative. Alors que l’expression de leur autonomie et de leur créativité est encouragée dans les discours, elle se révèle limitée dans les faits, les assignant à des tâches jugées exécutives. Ce désenchantement vis-à-vis du travail a pris une nouvelle ampleur suite à la crise sanitaire de 2020, entre taux historique de démission aux États-Unis puis en France qualifié de « Grande Démission », et « quiet quitting », ou « démission silencieuse », terme utilisé pour désigner des salarié.e.s qui décident de se conformer strictement aux tâches et horaires prévus par leur fiche de poste. 

La formulation de la réalisation de soi et de la poursuite de son bonheur individuel comme le moyen d’améliorer son sort et par ricochet le sort du monde rend obsolète toute notion d’action collective.

Qualifier de « démission » ce qui consiste en réalité à effectuer son travail démontre la normalisation de l’exigence de surimplication des employé.e.s dans leur emploi. L’ultraspécialisation des tâches, qui après s’être déployée dans les usines, s’est désormais étendueaux métiers en col blanc, semble les avoir vidées de leur sens, contrastant encore plus avec les discours d’autonomie et d’épanouissement par le travail promis par le capitalisme tardif. L’industrie du dharma est également révélatrice de deux grands paradoxes du développement personnel : celui qui consiste à déterminer sa vocation propre et singulière, destinée en tant qu’individu par le biais d’outils standardisants qui catégorisent les individus pour mieux les guider ensuite dans leur façon d’être au monde. Et son corollaire, qui consiste à consacrer l’autonomie de l’individu tout en cultivant sa dépendance à tout un panel d’outils, de techniques et d’experts: coachs, séminaires, manuels de développement personnel, objets divers et variés…

La formulation de la réalisation de soi et de la poursuite de son bonheur individuel comme le moyen d’améliorer son sort et par ricochet le sort du monde rend obsolète toute notion d’action collective. Le sociologue Nicolas Marquis, spécialiste du développement personnel, souligne que « cette conception d’une action collective qui, de façon magique, résulterait de l’agrégation d’une série de comportements individuels est d’un point de vue sociologique sujet à questionnement, si ce n’est sujet à inquiétude ». C’est « hypothéquer toute construction d’un agir collectif ». L’idée omniprésente que l’amélioration des sociétés passe exclusivement par l’amélioration des individus tend également à faire oublier que d’autres valeurs que le bonheur ou le bien-être peuvent guider le sens d’une vie et surtout l’action collective : la justice, l’égalité, la liberté. Qui, sans verser dans une idéologie sacrificielle, s’ils ne procurent pas toujours nécessairement plaisir et bien-être, semblent plus à même de contribuer à l’avènement d’une société libérée de ses dynamiques oppressives.

Notes : 

[1] Andrea R. Jain, « Modern Yoga », Oxford Research Encyclopedia of Religion, Oxford University Press, 2016.

[2]  La grande illusion : comment le développement personnel leur a gâché la vie », Society, octobre 2021.

[3] Pierre Dardot et Christian Laval, La Nouvelle Raison du monde, Essai sur la société néolibérale, Paris, La Découverte, 2010

[4] Edgar Cabanes et Eva Illouz, Happycratie – Comment l’industrie du bonheur a pris le contrôle de nos vies, Paris, Premier Parallèle, 2018

[5] Véronique Altglas, From Yoga to Kabbalah. Religious Exoticism and the Logics of Bricolage, Oxford University Press, 2014.

[6] La Bhagavad-Gītā ou le grand chant de l’unité, commentaire de Gisèle Siguier-Sauné, Albin Michel, Paris, 2020.

[7] Voir le documentaire de David Carr-Brown, Silicon Valley, l’empire du futur, 2018.

Le yoga, nouvel esprit du capitalisme, Zineb Fahsi, Editions Textuel, 2023.

Pourquoi la Silicon Valley défend le revenu universel

Mark Zuckerberg Le Vent Se Lève
Mark Zuckerberg en 2012 | JD Lasica from Pleasanton, CA, US

« Nous devrions explorer l’idée d’un revenu universel : non pas en défendant l’extension des protections sociales, comme l’entendent les progressistes ; mais d’un point de vue conservateur, celui de l’État minimal. » Ces mots ont été prononcés par Mark Zuckerberg au Forum économique mondial en 2017, mais c’est une large partie du secteur de la tech qui s’est rallié à l’idée d’un « revenu de base » universel. A priori, cette proposition n’a rien à voir avec celle que défend une partie de la gauche. Pourtant, militants « progressistes » favorables au revenu universel et géants de la tech communient autour d’une vision partagée de l’économie et de la société. Ils avalisent l’idée selon laquelle, à l’ère « post-industrielle » marquée par le délitement des solidarités syndicales, la disparition de l’éthique du travail salarié et la généralisation des modes de sociabilité « informels » et « fluides », les transferts monétaires directs s’avèrent plus efficients que les services publics ou les assurances sociales pour combattre la pauvreté. Au prix du renoncement à toute vision transformatrice du politique. Une alliance politique analysée par Anton Jäger et Daniel Zamora, auteurs de Welfare for Markets: A Global History of Basic Income. Traduction Albane le Cabec [1].

En décembre 2020, le PDG de Twitter, Jack Dorsey, annonçait un don de 15 millions de dollars pour un projet-pilote dans plusieurs villes américaines, après des mois d’une pandémie mondiale qui avait durement frappé les travailleurs. Les réponses offertes par la puissance publique avaient été, au mieux, erratiques. À titre d’exemple, c’est seulement récemment qu’un maigre programme de secours de 1.200 dollars a pu être versé sur le compte des Américains, bloqué par une obstruction parlementaire. C’est dans ce contexte que la start-up « philanthropique » de Jack Dorsey, GiveDirectly, connue pour avoir versé des millions de dollars à des Kényans en situation d’extrême pauvreté, commençait à étendre son activité aux États-Unis – une promesse à la clef : « ce dont les gens ont besoin maintenant, plus que jamais, c’est d’argent liquide ».

Avec le fondateur de Facebook, Chris Hughes, Dorsey se donnait alors comme mission de « combler les écarts de richesse et de revenus, de gommer les inégalités systémiques de race et de genre et créer un climat économique prospère pour les familles », réalisant ainsi « le vieux rêve de Martin Luther King et du mouvement des droits civiques ». Le moyen pour y parvenir ? Un revenu de base universel. Après un silence de vingt ans, c’était le grand retour des transferts en espèces.

Le soutien à cette idée surprend par son œcuménisme. Même le Forum économique mondial, notoirement conservateur, s’y est rallié après la pandémie. Comme le relevait une note pour l’organisation de Guy Standing [professeur britannique d’économie, membre fondateur du Réseau mondial pour un revenu de base NDLR], « le capitalisme de rente, combiné aux révolutions technologiques et à la mondialisation galopante, a donné naissance aux huit géants de notre temps : les inégalités, l’insécurité, la dette, le stress, la précarité, l’automatisation, les extinctions de masse et le populisme néofasciste. » Le coronavirus a rejoint ces cavaliers de l’Apocalypse comme un sinistre « neuvième géant », ou une « étincelle sur la poudrière d’un système mondial croulant ».

De la même manière que le cash était accompagné de conditions d’utilisations très larges, les algorithmes de Facebook étaient d’une parfaite neutralité quant aux normes individuelles.

L’État social dans l’idéologie californienne

Dorsey et Hughes étaient loin d’être les seuls à s’enthousiasmer pour le retour des solutions fondées sur les transferts en espèces dans le secteur de la tech. Au cours des dix dernières années, financiers et entrepreneurs de tous secteurs s’étaient régulièrement prononcés en faveur du revenu universel. Autour de la proposition communient désormais rien de moins que le PDG de Tesla, Elon Musk, le fondateur de Virgin, Richard Branson, le fondateur d’Amazon, Jeff Bezos et le propriétaire de Facebook, Mark Zuckerberg.

À première vue, il est difficile de voir ce qui unit ces magnats de la tech aux partisans de longue date du revenu de base, eux-mêmes d’horizons très divers – Philippe van Parijs, Charles Murray, David Graeber, Greg Mankiw, Mark Zuckerberg, Chris Hughes, John McDonnell, Yannis Varoufakis, Kathi Weeks, Jim O’Neill, Nick Srnicek, Anne Lowrey, Andrew Yang, etc. Un bref retour historique, cependant, permet de rappeler que gauche et droite ont fréquemment défendu les transferts en espèces comme un moyen de pallier les dynamiques qui caractérisent le capitalisme contemporain depuis des décennies : privatisation croissante des besoins, perte d’une identité sociale structurée par le travail, atomisation de la société, etc.

Une vaste littérature issue du secteur de la tech, dans les années 1990, allait apporter sa contribution au débat. Ce sont le gourou du management Peter Drucker et le politologue libertarien Charles Murray qui ont été les principales figures d’inspiration du mouvement pour un revenu de base. Murray s’inspirait des stratégies anti-pauvreté que Daniel Patrick Moynihan [adjoint du secrétaire d’État au travail sous la présidence de Gerald Ford NDLR] avait conçu pour la première fois à la fin des années 1960 – alors que les inquiétudes naissantes concernant les familles noires ont poussé les dirigeants à expérimenter des transferts en espèces. Pour Murray, l’extension des crédits d’impôt de Nixon dans les années 1970 et 1980 offrait une opportunité de taille pour transformer en profondeur l’État-providence américain. Sa configuration serait simplifiée : la redistribution s’effectuerait directement en espèces plutôt que par l’entremise de services publics.

« Puisque le gouvernement américain [allait] continuer à dépenser une énorme somme d’argent en transferts de revenus », déclarait Murray, il serait préférable de « prendre tout cet argent et de le restituer directement au peuple américain sous forme de subventions en espèces ». Le livre de Murray attachait de fortes conditionnalités aux subventions, dans l’espoir de revitaliser un paysage civique atomisé : l’aide serait conditionnée par l’adhésion à un organisme bénévole, qui verserait les subventions et imposerait des normes de comportement aux bénéficiaires. Couplé à un programme plus large de réductions d’impôts, la proposition de Murray entendait à la fois assouplir la rigidité du marché du travail et remédier à la crise des chefs de famille américains. Cette proposition a gagné en popularité dans le secteur de la tech, de l’institut Cato jusqu’à Stanford.​

Bien sûr, la situation post-2008 rendait les débats sur le revenu de base moins perméables aux considérations de Murray sur les chefs de famille. Avec la faillite des dotcoms de 2001, Google, Facebook et Twitter cherchaient à apparaître comme l’avant-garde d’une nouvelle ère d’internet – plus attentive aux enjeux « sociaux ». Focalisées sur les possibilités offertes du commerce de détail, elles ont encouragé une culture du profit de court-terme et du travail à la tâche. Cette économie de plateforme ne présupposait plus une unité familiale stable, fondée autour du chef de famille. L’apocalypse de l’automatisation ne s’était également pas concrétisée : plutôt que d’être remplacée par des robots, la main-d’œuvre de l’économie de services était de plus en plus supervisée et médiatisée par des plateformes numériques – un contrôle par des algorithmes qui, malgré ses promesses, peinait à accroître la productivité. « L’automatisation complète », comme l’analysait Hughes, semblait principalement concerner une couche de cadres intermédiaires qui était de toutes manières conduite à décroître.

Cette nouvelle économie était cependant fondée sur autre chose que la corvée. Les interactions sociales suivaient une évolution similaire à celle du monde du travail : à l’ère post-industrielle, elles devenaient plus informelles et liquides. En net contraste avec les médias, organisations et partis traditionnels, les réseaux sociaux permettaient des échanges plus ouverts et moins hiérarchiques entre citoyens. Les transferts en espèce étaient un complément naturel à cette nouvelle donne.

De la même manière que le cash était accompagné de conditions d’utilisations très larges, les algorithmes de Facebook étaient d’une parfaite neutralité quant aux normes individuelles. Ils permettaient aux utilisateurs de se rassembler spontanément, puis de se disperser avec des coûts de sortie plus faibles que dans les organisations traditionnelles. Pour Chris Hughes en particulier, le fondateur de Facebook, l’histoire américaine offre de nombreuses alternatives pour révolutionner le fonctionnement de l’État-providence.

Il fallait chercher « la cause profonde de la pauvreté », selon les responsables du projet, dans « un manque d’argent ». Un chèque suffirait pour offrir « la dignité et le libre arbitre que tout le monde mérite ».

Les États-Unis « pratiquent déjà les plus importants transferts en espèces de la planète, procurant des dizaines de milliards de dollars sans conditions aux familles pauvres ». Citant les précédents de Moynihan et de Nixon, Hughes dressait une ligne directe entre les années 1960 et 2010 : de la même manière que des plateformes comme Facebook, Twitter et Reddit, le plan Earned Income Tax Credit de Nixon reposait sur l’idée que financer des services publics pilotés par l’État était d’une efficacité moindre que de mettre de l’argent entre les mains des salariés. Sur internet comme dans la vraie vie, les utilisateurs pourraient déterminer leurs propres besoins et préférences.

Le « quantitative easing pour le peuple » promu par Hughes avait des racines anciennes – notamment dans les écrits de Milton Friedman. Comme celui-ci l’indiquait lui-même dans les années 1930, le New Deal avait mis fin à l’ère du laissez-faire : il devenait admis que le devoir de l’État était de stabiliser l’économie de marché. Mais Friedman avait une idée bien précise de la forme que devait revêtir cette stabilisation de l’économie par l’État – aux antipodes de toute forme de contrôle des prix, de services publics ou de planification d’État. L’action économique devait être tout entière déléguée à la Banque centrale, dont l’expertise technique pourrait alimenter le pouvoir d’achat des citoyens par l’entremise de la « monnaie-hélicoptère ». On a là une apologie précoce des transferts monétaires – de type « techno-populiste » – préconisant la distribution directe de cash aux citoyens par la Banque centrale, afin de relancer la consommation.

Pour Hughes et les autres « techno-populistes », cet agenda était viable tant pour les États-Unis que le reste du monde. Après sa rencontre avec GiveDirectly en 2012, l’actionnaire de Facebook s’est persuadé que l’État-providence américain trouverait son salut dans un tel cadre. En 2019, il posait déjà les enjeux en ces termes : « Cela ne veut pas dire que nous n’avons pas besoin d’hôpitaux et d’écoles. Il faut cependant poser la question suivante : est-il préférable de verser un dollar dans un hôpital, ou un dollar en espèces, directement dans la poche des gens, pour qu’ils puissent aller trouver directement les ressources de santé dont ils ont besoin ? ». Une manière, selon un journaliste de l’époque, de « rendre la vie plus facile et plus épanouissante pour les pauvres ». Dans le contexte du tournant philanthropique de la tech, ajoutait-il, l’initiative s’inscrivait ouvertement contre ceux qui estimaient « que les bénéficiaires ne sont pas toujours les mieux placés pour utiliser l’argent versé de façon optimale ».

Ce scepticisme des barons de la tech à l’égard des approches topdown allait être renforcé par l’échec absolu de la tentative – à hauteur de 100 millions de dollars – de Mark Zuckerberg visant à révolutionner l’éducation dans le New Jersey. Inauguré en 2010 avec une armée de consultants, ce projet aux accents paternalistes semblait issu d’un autre temps. Le désastre qui a résulté de cette initiative, censée ouvrir la voie à un système éducatif entièrement neuf, n’était pas sans rappeler l’échec des projets de Jeffrey Sachs en Afrique, destinés à mettre fin à la pauvreté sur le continent – grâce au financement massif de services publics par des fortunes privées. Il a conduit les magnats de la tech vers davantage de prudence.

En 2016, « l’incubateur » de start-ups Y Combinator – qui finançait AirBnb, Dropbox et Twitch – devait mettre en place sa propre expérience-pilote de revenu universel dans l’Oakland. Modeste à l’origine, elle allait progressivement être étendue, alors que des financements considérables affluaient vers les géants de la tech avec la pandémie.

Bientôt rebaptisé Open Research Lab, il allait être renforcé par des financements supplémentaires issus des fonds de Jack Dorsey et de Chris Hughes. Ces projets-pilotes consistaient en des « essais randomisés contrôlés » (ECR), sélectionnant au hasard mille bénéficiaires destinés à recevoir 1.000 dollars par mois pendant trois ans. Le cadre expérimental était explicitement inspiré par les pilotes subsahariens dirigés par GiveDirectly – qui exportaient eux-mêmes le modèle des ECR dans l’hémisphère Sud. En 2018, et par l’intermédiaire de sa propre organisation, l’Economic Security Project, Hughes a financé le projet Stockton Economic Empowerment Demonstration (SEED), une expérience de vingt-quatre mois dans la ville de Stockton, en Californie, qui consistait à envoyer un chèque de 500 dollars chaque mois à 125 habitants de la ville sélectionnés au hasard.

Pour la gauche favorable au revenu de base, celui-ci offre un soulagement au « précariat » croissant et se montre plus efficient que les modèles d’assurance classiques – fondés sur une éthique du travail industriel jugée désuète.

Il fallait chercher « la cause profonde de la pauvreté », selon les responsables du projet, dans « un manque d’argent ». Un chèque suffirait pour offrir « la dignité et le libre arbitre que tout le monde mérite », ajoutaient-ils. On pouvait lire sur le site du projet : « en lieu et place d’une approche paternaliste consistant à dicter comment, où et à quelles conditions les individus peuvent construire leur vie, le versement direct d’argent offre la dignité et l’autodétermination aux citoyens, révélant à quel point la première approche est désuète et enracinée dans la méfiance ».

Les partis politiques devaient progressivement leur emboîter le pas. En 2020, le pilote devenait la pièce-maîtresse du candidat à la primaire démocrate Andrew Yang, qui le qualifiait de « dividende de la liberté » dans sa campagne présidentielle. Le maire de Stockton, Michael Tubbs, a même fondé sa propre organisation, Mayors for Guaranteed Income, pour renforcer cette politique à travers le pays. Soutenue par plus de cinquante maires, la coalition de Tubbs s’est déployée en lançant des pilotes du New Jersey à l’Indiana en passant par New York.

Après le crash de la pandémie, Jack Dorsey a fourni un montant sans précédent pour financer des expériences et des recherches sur le revenu de base. En avril 2020, il a annoncé la création d’une nouvelle initiative philanthropique, #startsmall, qui, grâce à un don personnel d’un milliard de dollars – environ un tiers de la richesse de Dorsey –, est probablement le plus grand bailleur de fonds des initiatives de la sorte. Le fonds a été conçu pour promouvoir la santé et l’éducation des jeunes filles par le biais d’un revenu de base. Pour accélérer le passage aux transferts en espèces, Dorsey a notamment fait don de 18 millions de dollars à la coalition des maires de Tubbs, un autre de 15 millions à l’expérience Y Combinator à Oakland, de 10 millions à la fondation d’Andrew Yang, de 5 millions à la One Family Foundation à Philadelphie et, enfin, de 3,5 millions au Cash Transfer Lab de l’Université de New York, où Dorsey avait fait ses études supérieures.

Si elles sont nées de l’engouement numérique des années 2010, ces initiatives ont aussi une histoire particulière. Elles sont appuyées par un arsenal d’arguments développé par deux générations de militants du revenu de base et renforcées par l’obsolescence des solutions auparavant mobilisées contre la dépendance au marché. Le revenu de base était à la fois un indice de recul – la disparition d’un ancien étatisme social – et un accélérateur du processus en cours. La proposition a fleuri dans le sillage d’une double désorganisation : l’affaiblissement d’un mouvement syndical dense capable de s’ériger en contre-pouvoir et celui des partis de masse qui agissaient en toile de fond. Dans son sillage, une nouvelle politique « techno-populiste » est apparue, axée sur les relations publiques et la sensibilisation des médias, dans laquelle les militants prétendent parler au nom d’une majorité silencieuse. Contrairement aux groupes d’intérêts plus anciens, ceux-ci expriment principalement des demandes abstraites d’amélioration de leur bien-être : verser de l’argent plutôt que consolider l’allocation de ressources spécifiques.

Les Occidentaux « ont besoin de définir un nouveau contrat social pour notre génération » et « d’explorer des idées telles que le revenu de base universel » déclarait Mark Zuckerberg en 2017. Cela implique de redessiner le contrat social conformément aux « principes d’un gouvernement restreint, plutôt que conformément à l’idée progressiste d’un filet de sécurité sociale élargi ». Pour la gauche favorable au revenu de base, il offre un soulagement au « précariat » croissant et se montre plus efficient que les modèles d’assurance classiques – fondés sur une éthique du travail industriel jugée désuète. Dans les années 2000, la proposition s’est imposée comme la condition du bien-être des pays du Nord et du Sud : non plus comme la « voie capitaliste vers le communisme » qu’avait présagée Philippe van Parijs dans les années 1980 ou la nouvelle économie du développement des années 2000, mais comme l’« utopie pour les réalistes ». Au prix d’un renoncement complet à une conception radicale et transformatrice du politique.

Welfare for markets. A global history of basic income.

Anton Jäger et Daniel Zamora Vargas, University of Chicago Press, 2023.

Note :

[1] Cet article constitue une version remaniée et traduite des premières pages de l’épilogue de l’ouvrage.

Diia, l’appli dystopique de l’État ukrainien

Présentation des nouvelles fonctionnalités de l’application Diia par Volodymyr Zelensky en février 2022. Capture d’écran Youtube

Démarches administratives digitalisées, passeport biométrique, création d’entreprise, signalisation des troupes russes… Avec Diia, une application financée par les Etats-Unis, l’Ukraine entend résoudre tous ses problèmes, de la corruption à la bureaucratie qui entraverait le développement économique en passant par la victoire sur la Russie. Une stratégie d’« Etat dans un smartphone » qui pourrait s’exporter ailleurs dans le monde. Article de la journaliste Lily Lynch, publié par la New Left Review et traduit par Pierra Simon-Chaix.

Lors d’un événement organisé à Washington le 23 mai, l’Agence des États-Unis pour le développement international (USAID) et le nouveau ministre ukrainien pour la transformation numérique ont effectué une présentation remarquable devant le peuple américain. Les contribuables états-uniens ont ainsi appris qu’ils étaient à présent des « investisseurs sociaux » dans la démocratie ukrainienne. Le ministre de la transformation numérique, Mykhailo Fedorov, 31 ans, qui portait l’uniforme de la Silicon Valley (jean, t-shirt et micro), a détaillé les différentes caractéristiques de l’application mobile la plus innovante du pays : Diia.

L’application est à présent utilisée par près de 19 millions d’Ukrainiens, soit environ 46 % de la population du pays avant la guerre.

Grâce à celle-ci a-t-il affirmé, l’Ukraine est moins dirigée comme un pays que comme une entreprise d’informatique et deviendra bientôt « l’État le plus pratique du monde ». Samantha Power, administratrice de l’USAID, a surenchéri en rappelant que l’Ukraine, longtemps perçue comme le grenier à blé du monde, était à présent sur le point de « devenir célèbre pour un nouveau produit… un bien public numérique open source qu’elle est prête à partager avec d’autres pays ». Une telle démarche sera effective grâce au partenariat transatlantique entre les deux nations. « Les États-Unis ont toujours exporté la démocratie », a déclaré Mykhailo Fedorov. « À présent, ils exportent la numérisation ».

Lorsque Volodymyr Zelensky a été élu président en 2019, il avait promis de faire de l’Ukraine un « État dans un smartphone » en rendant la plupart des services publics accessibles en ligne. Si d’autres pays ont tenté par le passé de tels programmes de numérisation, notamment l’Estonie, le plan de l’Ukraine éclipse ces tentatives par l’échelle de ses ambitions et la rapidité de son déploiement. Le joyau de ce programme, l’application Diia, a été lancée en février 2020 grâce à d’importants subsides de l’USAID : les financements américains s’élèveraient à 25 millions de dollars pour la seule « infrastructure sous-jacente à Diia ». Des subventions supplémentaires ont été octroyées par le Royaume-Uni, la Suisse, la fondation Eurasia (une ONG basée au Japon, ndlr), Visa et Google. L’application est à présent utilisée par près de 19 millions d’Ukrainiens, soit environ 46 % de la population du pays avant la guerre.

Services administratifs et délation des « collabos »

Le choix de ce nom ne doit rien au hasard : en ukrainien, Diia signifie « action » et le mot est également un acronyme de « l’État et moi » (Derzhava i ia). Ce qui rend cette application remarquable, c’est l’éventail des fonctions qu’elle propose. Elle permet aux Ukrainiens d’accéder à de nombreux documents numériques, comme les cartes d’identité, les passeports biométriques étrangers, les permis de conduire, les cartes grises, les assurances et les numéros fiscaux. L’Ukraine se vante ainsi d’être le premier pays au sein duquel l’identité numérique est considérée comme valide. L’appli propose aussi toute une gamme de services, notamment « l’enregistrement d’entreprise le plus rapide au monde ». Il suffirait ainsi de « deux secondes seulement pour devenir un entrepreneur » et « 30 minutes à peine pour fonder une société à responsabilité limitée ». Diia peut également servir à payer des dettes ou à régler des amendes, à recevoir un certificat de vaccination Covid et, via eMalyatko (« eBébé »), à avoir accès à différents documents et services en lien avec la naissance d’un enfant. Pour garantir l’adoption de l’application à grande échelle, le gouvernement a produit une mini-série mettant en scène des acteurs de cinéma ukrainiens connus (ce que Mykhailo Feodorov qualifie de « Netflix éducatif ») avec en ligne de mire les zones rurales et des personnes âgées.

Après l’invasion russe, les fonctions de l’application se sont multipliées. Diia permet à présent aux utilisateurs de faire des demandes de certificats de déplacés internes et d’aides étatiques (les déplacés internes reçoivent une aide mensuelle de 2000 UAH, soit environ 60 euros). A la suite de la destruction de nombreuses tours de télévision par les forces russes, Diia a lancé un service de diffusion proposant un accès ininterrompu aux informations ukrainiennes. Les Ukrainiens peuvent également indiquer des destructions de biens causées par les frappes militaires russes, ce qui, selon le gouvernement, orientera la reconstruction du pays après la guerre. Outre l’introduction de ces services utiles en temps de guerre, Diia a déployé un éventail de fonctions de « renseignement civil ».

Avec Diia eVorog, les civils peuvent utiliser un chatbot pour signaler les personnes collaborant avec les forces russes, des mouvements de troupes russes, des emplacements d’équipement ennemi et même des crimes de guerre russes.

Avec Diia eVorog (« eEnnemi »), les civils peuvent utiliser un agent conversationnel (chatbot) pour signaler les personnes collaborant avec les forces russes, des mouvements de troupes russes, des emplacements d’équipement ennemi et même des crimes de guerre russes. Ces informations sont traitées par les services de Diia et, si elles sont considérées comme légitimes, elles sont transmises aux quartiers généraux des forces armées ukrainiennes. De prime abord, l’interface ressemble à un jeu vidéo. Les icônes ont l’apparence de cibles ou de casques de l’armée. Si un utilisateur envoie un rapport sur l’emplacement de troupes russes, un émoji de biceps surgit. S’il s’agit d’informations relatives à des crimes de guerre, c’est une goutte de sang qui apparaît à l’écran.

Nation-branding technologique

Diia fait partie d’un exercice plus large d’élaboration d’une nouvelle image de marque de la nation ukrainienne, pour la présenter comme un technologique forgée par la guerre. Selon la mythologie nationale émergente, l’Ukraine possède depuis longtemps une expertise et des talents technologiques, mais le déploiement de ses capacités a longtemps été entravé par l’infériorité de la science soviétique et, plus récemment, par la Russie et sa culture de la corruption. Rien de nouveau dans cette rhétorique pour l’Europe de l’Est. Un certain nombre de villes, comme Vilnius et Kaunas en Lituanie, Sofia en Bulgarie et Constanța et Iași en Roumanie, se sont enorgueillies de disposer de l’internet le plus rapide au monde. Il y a un peu plus de dix ans, la Macédoine inaugurait un ambitieux projet, depuis lors tombé aux oubliettes, destiné à rendre accessible l’internet à haut débit à 95 % de ses habitants. L’Estonie est quant à elle réputée pour avoir embrassé l’informatique au moment de son indépendance en lançant l’initiative « e-Estonie », largement plébiscitée, destinée à rendre accessibles en ligne la plupart des services d’État, y compris le vote.

Plus récemment, le discret Monténégro ambitionne de devenir le premier « État orienté vers la longévité » au monde grâce au soutien actif qu’il octroie aux investissements dans la technologie de la santé, dans la biotechnologie de la longévité, dans la biologie synthétique et dans la biofabrication. Impulsés par Milojko Spajić, le dirigeant du parti Europe Now! qui s’est emparé de la présidence en avril dernier, une série de programmes visent en outre à transformer le Monténégro en un « hub de la cryptomonnaie ». Comme un symbole, Vitalik Buterin, le créateur de l’Ethereum, vient d’ailleurs de se voir octroyer la citoyenneté monténégrine. Au cours de la présentation de Diia à Washington, qui n’était pas sans évoquer l’esthétique et l’esprit de la cérémonie de lancement de l’iPhone par Steve Jobs, il a été annoncé que d’ici 2030, l’Ukraine deviendrait le premier pays sans argent liquide et aurait un système judiciaire gouverné par l’intelligence artificielle.

Au cours de la présentation de Diia à Washington, il a été annoncé que l’Ukraine deviendrait d’ici 2030 le premier pays sans argent liquide et aurait un système judiciaire gouverné par l’intelligence artificielle.

Le programme « e-Estonie » et la recomposition du nationalisme à l’ère numérique a été largement étudié par le chercheur en communication Stanislav Budnitsky. Évaluant la valeur de ces services en ligne, il souligne l’importance de séparer les aspects strictement technologiques de ceux qui relèvent du mythe. Les technologies comme Diia ont clairement des avantages, en particulier pour les déplacés internes et les réfugiés, mais la mythologie qui y est attachée nécessite une réflexion plus approfondie. Diia a par exemple été largement présentée comme un antidote à la corruption, très courante en Ukraine.

L’application promet ainsi de réduire radicalement la corruption en supprimant les agents subalternes qui étaient bien placés pour demander de l’argent en échange de certains services essentiels. Diia introduit également un « caractère aléatoire » dans l’attribution des affaires judiciaires, ce qui, selon les affirmations enthousiastes de l’application, devrait conduire à la diminution de la corruption du secteur judiciaire. Comme l’a récemment fait remarquer Volodymyr Zelensky lors du sommet Diia, « un ordinateur n’a pas d’amis ni de parrains, et il n’accepte pas les dessous de table ». Mais si Diia peut participer à la diminution de la corruption subalterne, l’application risque d’être peu efficace face aux manifestations les plus importantes et les plus dommageables de la corruption, comme la symbiose de longue date entre les oligarques et l’État. Ainsi, comme souvent, la mythologie du techno-solutionnisme ne sert qu’à occulter les problèmes politiques les plus cruciaux.

Diia est plus qu’une application, c’est à présent « la première ville numérique au monde », « un espace fiscal et juridique unique pour les entreprises de l’informatique en Ukraine ». Les entreprises d’informatique qui « résident » à Diia City bénéficient d’un régime fiscal préférentiel. « Il s’agit de l’un des régimes fiscaux les plus avantageux au monde », a affirmé Zelensky. Un espace « où se parle la langue de l’investissement en capital-risque ». Les résidents de la Diia City bénéficieront également d’un « modèle d’emploi flexible », notamment grâce à l’introduction de « contrats à la tâche » précaires, jusqu’alors inexistants en Ukraine.

Techno-solutionnisme

À présent, l’USAID veut déployer Diia dans des « pays partenaires » du monde entier « pour aider d’autres démocraties à se tourner elles aussi vers l’avenir », selon les mots de sa directrice Samantha Power. Durant le Forum économique mondial de janvier dernier à Davos, Samantha Power a annoncé le déblocage de 650 000 $ supplémentaires pour « relancer » la création d’infrastructures destinées à accueillir Diia dans d’autres pays. Récemment, elle a indiqué que la liste des pays envisagés inclut la Colombie, le Kosovo et la Zambie. Cet effort mondial est élaboré en s’appuyant sur la stratégie numérique 2020-2024 de l’USAID, publiée au cours des premières semaines de la pandémie de la Covid-19. Dès lors, il n’est guère étonnant que les conspirationnistes aient tendance à associer Diia avec le prétendu « Grand Reset », une initiative du Forum économique mondial visant à rétablir la confiance dans le capitalisme mondialisé en promouvant des partenariats « multipartites » unissant les gouvernements, le secteur privé et la société civile « de manière transversale dans tous les domaines de la gouvernance mondiale ».

Ce qui est peut-être le plus frappant dans la rhétorique employée pour évoquer Diia, c’est le fait que le solutionnisme technologique proposé par l’appli est complètement anachronique. Une récente vidéo de présentation du secteur informatique ukrainien semble tout droit sortir d’une époque plus simple et plus optimiste. « L’informatique, c’est une histoire de liberté », nous affirme le narrateur. « Tout ce dont vous avez besoin, c’est d’un ordinateur pour inventer toute une variété de choses ». Une personne interviewée explique que le premier ordinateur d’Europe continentale a été fabriqué en Ukraine. « Il y avait alors de nombreux spécialistes en Ukraine, mais les frontières étaient fermées et l’entrepreneuriat privé était en grande partie illégal », nous explique-t-on pendant que des images du pont du Golden Gate, de Ronald Reagan et du logo Pepsi défilent à l’écran.

En 2023, après la faillite des banques de la Silicon Valley, alors que les postes dans la tech sont supprimés par centaines de milliers et que San Francisco semble à l’agonie, faire preuve d’une telle foi indéfectible en la prospérité générée par une application semble aller au-delà de la naïveté.

Il s’agit là d’une rhétorique défraîchie qui fleure bon 1989, associée à une idéologie californienne moribonde. L’idée que Twitter allait apporter la démocratie au Moyen-Orient a pourtant été démentie depuis une décennie. Lorsque le département d’État américain, alors dirigé par Hillary Clinton, a introduit la notion de « diplomatie numérique » et que l’un de ses cadres supérieurs affirmait à l’OTAN que « le Che Guevara du 21siècle, c’est le réseau », le concept sonnait déjà creux. Mais en 2023, après la faillite des banques de la Silicon Valley, alors que les postes dans la tech sont supprimés par centaines de milliers et que San Francisco semble à l’agonie, faire preuve d’une telle foi indéfectible en la prospérité générée par une application semble aller au-delà de la naïveté. Cette croyance reflète l’affaiblissement de l’imagination libérale-démocrate occidentale, incapable de proposer une vision convaincante ou désirable de l’avenir, qu’elle soit en ligne ou hors ligne. Dans ce monde dominé par la pensée impérialiste, la rhétorique de la Guerre froide a été remplacée par la promesse boiteuse d’une technologie qui résoudrait tous les problèmes.

« La concurrence, c’est pour les losers » : Peter Thiel, le libertarien qui défend les monopoles

Peter Thiel © Gage Skidmore

Il n’est pas aussi riche que Jeff Bezos, ni aussi populaire qu’Elon Musk, et c’est encore moins une icône comme Bill Gates, mais il est le plus intéressant des magnats de la Silicon Valley tant il incarne la nouvelle idéologie des maîtres de la tech. Celui qui veut émanciper les capitalistes de « l’exploitation qu’ils subissent de la part des travailleurs », est un libertarien et un monarchiste auto-proclamé. Ce pourfendeur de l’État tire la plus grande partie de sa fortune de Palantir, dont la capitalisation boursière a explosé grâce… à des investissements de la CIA. Cet homme, c’est Peter Thiel. Article du journaliste Marco d’Eramo publié par la New Left Review, traduit par Albane le Cabec.

Allemand de naissance, américain et sud-africain par son parcours, il pèse, selon le magazine Forbes, 4,2 milliards de dollars. Et contrairement à ses pairs, il a une licence de philosophie et un doctorat en droit dont il use à outrance pour jouir d’une posture d’intellectuel. Dans sa publication la plus ambitieuse, The Straussian Moment, parue en 2004, il esquisse une sorte de Geistes Weltgeschichte à la lumière du 11 septembre et fait étalage de sa culture en citant de nombreux auteurs – Oswald Spengler, Carl Schmitt, Leo Strauss, Pierre Manent, Roberto Calasso… ou encore Machiavel, Montaigne, Hobbes, Locke, Hegel, Nietzsche et Kojève.

« L’idéal moteur de PayPal était de créer une nouvelle monnaie mondiale, libre de tout contrôle gouvernemental, qui signerait la fin de la souveraineté monétaire. »

Depuis ses années universitaires, Thiel, qui est un grand admirateur de Reagan, s’est amusé à soutenir des positions toujours plus conservatrices. Selon son biographe Max Chafkin, Thiel estime que « la gauche traditionnelle a accepté les communistes tandis que les conservateurs ont refusé de s’associer avec des membres de l’extrême droite… Thiel souhaitait que les conservateurs s’inspirent davantage de la gauche. »

S’inscrivant à Stanford, la plus réactionnaire des universités d’élite, Thiel a consacré la plupart de son temps à dénoncer ce qu’il considérait comme le progressisme endémique de l’institution. Il co-fonde alors la Stanford Review avec la bénédiction du gourou conservateur Irving Kristol et le soutien financier de la Fondation Olin, une entité-clé dans le financement et l’organisation de la contre-offensive néolibérale aux Etats-Unis.

Il milite également contre le multiculturalisme, le « politiquement correct » et l’homosexualité. Sans surprise, le comité de rédaction de son journal était composé exclusivement d’hommes (à ce jour, une seule femme a été rédactrice-en-chef ; elle a ensuite travaillé pour la secrétaire à l’éducation de Donald Trump : il s’agit de la milliardaire ultraconservatrice Betsy DeVos).

Des thèses réactionnaires à PayPal

Concernant les droits des LGBT, la revue affirmait que « le vrai fléau était l’homophobie-phobie, c’est-à-dire la peur d’être qualifié d’homophobe… Le préjugé anti-gay devrait par ailleurs être rebaptisé “miso-sodomie” – la haine du sexe anal – afin d’insister sur le caractère “déviant” de cette orientation sexuelle ». Selon The Economist, un article de la revue a même défendu un étudiant en droit, Keith Rabois, qui a décidé de tester les limites de la liberté d’expression sur le campus en se tenant devant la résidence d’un enseignant et en criant « Pédé ! Pédé ! J’espère que tu mourras du SIDA ! ».

Celui-ci allait d’ailleurs devenir l’un des partenaires de business les plus proches de Thiel… Le milliardaire co-écrit ensuite The Diversity Myth: Multiculturalism and the Politics of Intolerance at Stanford (1995), publié par un think-tank d’extrême droite, l’Independent Institute, et financé une nouvelle fois par la Fondation Olin. En redoutable joueur d’échecs, Thiel a déjà compris que pour mener efficacement la bataille des idées, il fallait un financement adéquat. Il s’est plaint que « seul un diplômé de Stanford sur quatre soit millionnaire » – preuve ultime, à ses yeux, de l’inutilité du programme universitaire traditionnel…

Après une brève carrière d’avocat et de négociant en produits dérivés au Credit Suisse, Thiel retourne en Californie en 1998 et créé son propre fonds d’investissement, Thiel Capital Management, avec 1 million de dollars levés grâce aux « amis et à la famille ». Tous les biographies du milliardaire passent avec une étonnante pudeur sur cet épisode pour cacher ce que chacun sait : le premier million est toujours le plus dur. Le tournant se produit en 1999, lorsque Thiel fonde PayPal avec un groupe d’amis, parmi lesquels Max Levchin, un cryptographe d’origine ukrainienne qui a imaginé l’algorithme de base du système de paiement en ligne.

Cette entreprise revendiquait une motivation idéologique : « l’idéal moteur de PayPal était de créer une nouvelle monnaie mondiale, libre de tout contrôle gouvernemental, qui signerait la fin de la souveraineté monétaire ». Sur une photo qui est ensuite devenue célèbre, on peut voir une bande de jeunes audacieux habillés en gangsters italo-américains de l’époque de la prohibition. Six d’entre eux sont devenus milliardaires ; trois ont eu un passé dans l’Afrique du Sud de l’apartheid – Thiel, Musk et Roelof Botha, directeur financier de PayPal, plus tard associé du fonds d’investissement Sequoia. Mais Thiel et Musk allaient développer une relation difficile – le premier allait démettre le second de ses fonctions de PDG de PayPal alors qu’il était en pleine lune de miel…

Thiel a gagné 55 millions de dollars avec PayPal en 2002, le propulsant dans le monde du capital-risque. La liste des entreprises dans lesquelles il a investi est longue : Airbnb, Asana, LinkedIn, Lyft, Spotify, Twilio, Yelp et Zynga. Il fait sa renommée en tant que capitaliste clairvoyant en 2004 lorsqu’il donne 500 000 $ à Mark Zuckerberg en échange de 10,2 % des actions de Facebook. Cet investissement lui a rapporté plus d’un milliard de dollars. Mais s’il avait participé à la recapitalisation de Facebook, il possèderait désormais 60 milliards de dollars.

À la croisée du libertarianisme et de l’apologie des monopoles

Enchaînant les erreurs, il refuse également d’investir dans Tesla et YouTube en 2004 (tous deux fondés par d’anciens membres de la mafia PayPal). Et lorsque Musk sollicite des fonds pour développer les voitures électriques de Tesla quelques années plus tard, Thiel laisse de nouveau passer l’opportunité – un choix coûteux, étant donné que la capitalisation a dépassé 2 milliards de dollars en 2010 et a culminé à 1 061 milliards de dollars en 2021, soit une croissance de 50 000 %. Musk attribuait le refus de Thiel à des raisons idéologiques, ce dernier « n’adhèrerait pas au truc du changement climatique ».

Ce défenseur libertarien de la monarchie absolue n’hésite pas non plus à gagner de l’argent grâce à la surveillance de masse. En 2003, il fonde Palantir, une société spécialisée dans l’analyse de données, et reçoit immédiatement un financement du fonds d’investissement de la CIA In-Q-Tel

Mais alors, où Thiel investit-il ? Entre 2004 et 2014, il a activement exposé sa vision du monde lors de conférences. D’abord dans des articles pour le Wall Street Journal ; puis en publiant The Straussian Moment et des essais comme « The Education of a Libertarian » (2009) pour le Cato Institute, un groupe de réflexion financé par les frères Koch, « The End of the Future » pour la National Review ainsi que Zero to One: Notes on Startups, or How to Build the Future (2014).

Da manière tout à fait attendue, Thiel se présente souvent lui-même et ses alliés comme des victimes. Les riches sont harcelés par les pauvres. Et comme tout réactionnaire, il dénonce la décadence : le monde connaîtrait un déclin culturel, « allant de l’effondrement de l’art et de la littérature après 1945 au doux totalitarisme du politiquement correct dans les médias et le monde universitaire, en passant par les mondes sordides de la télé-réalité et du divertissement populaire ».

La cause ? La démocratie, et plus particulièrement son extension aux femmes et aux pauvres (notons l’association entre les deux). Il écrit : « Les années 1920 ont été la dernière décennie de l’histoire américaine au cours de laquelle on pouvait être véritablement optimiste à propos de la politique. Depuis 1920, la forte augmentation des bénéficiaires de l’aide sociale et l’extension du droit de vote aux femmes – deux électorats notoirement défavorables aux libertariens – ont transformé la notion de “démocratie capitaliste” en une oxymore. »

Selon lui, l’élargissement de l’électorat aurait entravé les progrès technologiques et scientifiques qui par le passé permettaient de généraliser une certaine qualité de vie, même à ceux qui ne la méritaient pas. Depuis les années 1970 – à l’exception de l’industrie technologique – les progrès stagnent. Aucune grande innovation n’aurait d’ailleurs été enregistrée dans les transports, l’énergie ou même la médecine. Thiel conclut que le progrès est « rare » dans l’histoire humaine. Il propose néanmoins une solution, celle de revenir à un régime monarchique ; selon lui toujours, les grandes inventions de l’histoire auraient été produites par des entreprises fonctionnant comme des monarchies absolues ou des monopoles.

Thiel s’est principalement consacré à vanter les vertus communes de la monarchie et du monopole en ces termes : « Les entrepreneurs en situation de monopole peuvent se permettre de penser à autre chose qu’à gagner de l’argent ; les non-monopolistes ne le peuvent pas. Dans une concurrence parfaite, une entreprise est tellement concentrée sur les marges à court-terme qu’elle n’a pas de vision d’avenir. La seule chose qui peut permettre à une entreprise de transcender la lutte quotidienne brutale pour sa survie, ce sont les profits monopolistiques ». Dans une intervention pour le Wall Street Journal qui caractérise bien sa pensée, il soutient que « la concurrence, c’est pour les losers », car elle produit des copies ou des améliorations de ce qui existe déjà, mais jamais de véritable nouveauté » – un fait qui l’amène à affirmer qu’« en fait, le capitalisme et la concurrence sont antithétiques ».

Vitupérer contre l’État, faire fortune grâce à la CIA

Il semble presque vain de noter les incohérences logiques de ces arguments. Thiel soutient que le progrès est rare dans l’histoire humaine bien que les monarchies absolues aient été la norme. De même, les monopoles ne viennent pas de nulle part mais surviennent précisément lorsqu’une entreprise bat ses concurrents. On pourrait en fait dire que, dans un marché non régulé, le monopole est un résultat inévitable de la concurrence puisque la concurrence implique des gagnants et des perdants, et à mesure que le gagnant remporte de plus en plus de succès, il devient plus facile pour lui de dominer. C’est pourquoi, dans les débuts du capitalisme de chaque pays, on voit émerger des monopoles. C’est pour éviter leur formation que les États ont toujours mis en place des lois anti-trust car les monopoles cessent d’innover et tendent à se suffire de la rente générée dès qu’ils s’établissent.

Si néanmoins on accordait un semblant de crédit à cette bouillie théorique, on verrait à l’oeuvre une contradiction encore plus fondamentale – entre l’apologie du libertarianisme et d’une forme de monarchie. La liberté pour un très petit nombre, l’esclavage pour la grande majorité ? Beaucoup ont disserté de l’influence de Nietzsche sur Thiel, mais c’est peut-être à Max Stirner qu’il faut en revenir – référence prisée d’une partie des élites de la Silicon Valley. Ce n’est pas pour rien que « l’Unique » ou « l’Ego » de Stirner est défini par « sa propriété », et cet Unique peut utiliser n’importe quel moyen pour maximiser son pouvoir. Pour le philosophe, la libre concurrence est une limitation de la liberté, étant donné qu’elle ne peut être assurée que par un État qui restreint la liberté des individus.

Mais pourquoi dénoncer la tyrannie de l’État et défendre ensuite la monarchie absolue ? Pour résoudre cette contradiction, il faut comprendre Stirner et sa notion d’« instrumentalité absolue de chaque position ». L’Unique peut tout utiliser si cela lui est utile. Si l’on voulait absolument justifier les incohérences et contradictions de Thiel, il faudrait puiser à la source de l’individualisme extrême et nihiliste d’un Stirner.

La manifestation la plus frappante de cette contradiction permanente réside dans l’obsession de Thiel pour le dénigrement de Stanford et de l’enseignement supérieur en général (finançant même, en grande pompe, une fondation pour les étudiants qui ont abandonné l’université pour fonder leur propre startup – avec des résultats extrêmement limités) alors qu’il a ensuite payé pour enseigner dans cette même université. Cette position d’enseignant lui a même permis de publier un livre qui a tiré son succès de sa publication par la marque de Stanford bien que le nombre réel d’exemplaires vendus reste incertain (un million, un million et demi, voire trois millions selon diverses allégations, mais le nombre réel pourrait être bien inférieur).

Cette impulsion séparatiste motive son investissement dans Space X avec Elon Musk : Thiel est beaucoup plus emballé par l’idée de s’isoler dans l’espace que par « le truc du changement climatique ».

Ce défenseur libertarien de la monarchie absolue n’hésite pas non plus à gagner de l’argent grâce à la surveillance de masse. En 2003, il fonde Palantir, une société spécialisée dans l’analyse de données, et reçoit immédiatement un financement du fonds d’investissement de la CIA In-Q-Tel. Contradiction ? Dans The Straussian Moment, alors qu’il fondait Palantir, Thiel écrivait : « Au lieu des Nations Unies, remplies de débats parlementaires interminables et peu concluants qui ressemblent à des contes shakespeariens racontés par des idiots, nous devrions considérer Echelon, la coordination secrète des services de renseignement mondiaux, comme la voie décisive vers une Pax Americana véritablement mondiale », Echelon étant le mécanisme de surveillance planétaire le plus intrusif jamais conçu dans l’histoire de l’humanité.

Les Lumières sombres

Palantir n’a décollé qu’en 2011 grâce à une rumeur selon laquelle l’entreprise avait « aidé à tuer Oussama ». Dès lors, les contrats se multiplient et la police allemande recherche même ses services qui comprennent non seulement des logiciels mais aussi la main-d’œuvre pour les utiliser. Paradoxe de la rentabilité capitaliste, Palantir est évalué à 17,6 milliards de dollars – sans jamais générer de profits – et constitue aujourd’hui la part la plus importante de la fortune de Thiel. D’un côté, le milliardaire gagne son argent en aidant l’État à espionner les gens ; de l’autre, il promeut le Bitcoin et les crypto-monnaies comme instruments d’émancipation de la tyrannie des États. Ce n’est pas qu’une question d’incohérence ou de contradiction, c’est du cynisme pur et simple. Même son image d’idéologue « à contre-courant » est cynique, le but étant de se présenter comme une minorité opprimée, un outsider, un anticonformiste – un anticonformiste qui veut devenir riche et puissant. Même la défense du monopole s’inscrit parfaitement dans l’air du temps : pensez à la réhabilitation du monopole par les néolibéraux, véritable « révolution du droit des sociétés » menée par Henry Manne.

Certes, cette absence totale de scrupules rappelle l’attitude de l’Übermensch nietzschéen pour qui tout est permis. En particulier, la jérémiade de Thiel contre le politiquement correct fait écho à la lamentation de Nietzsche dans De la généalogie de la morale à propos de la révolte de la morale des esclaves : « plus l’homme supérieur est liquidé, plus la moralité de l’homme ordinaire sort victorieuse ». Son désir est de mener une sécession permanente de la plèbe et du patriciat comme cela s’est produit dans la Rome antique. C’est ainsi qu’il faut interpréter son acquisition d’un domaine de presque 200 hectares en Nouvelle-Zélande et le financement de Seasteading, un projet de communauté autosuffisante en marge des eaux internationales qui, après s’être heurté au principe de réalité, est devenu un projet à 25000 kilomètres de la côte avant d’être totalement abandonné. Cette impulsion séparatiste motive son investissement dans Space X avec Elon Musk : Thiel est beaucoup plus emballé par l’idée de s’isoler dans l’espace que par « le truc du changement climatique ».

Où mène cette quête assoiffée de pouvoir ? Da façon caricaturale, Thiel rappelle ces personnages de fiction immensément riche dont la peur de la mort est la motivation centrale. Dans Le Septième Sceau de Bergman, sorti en 1957, un chevalier joue sa dernière partie d’échecs contre la mort. Ce joueur d’échecs accompli pense que la mort n’est « rien d’autre qu’un bug dans l’ensemble des fonctionnalités de l’humanité, et qu’il peut s’en sortir ». C’est pourquoi il jette des sacs d’argent dans des entreprises telles qu’Halcyon Molecular, Emerald Therapeutics, Unity Biotechnology et Methuselah Foundation, finançant des start-up qui promettent d’allonger la vie au-delà de 120 ans ou le remède définitif contre la maladie d’Alzheimer. Et si tout cela ne fonctionne pas, il est prêt à geler son cerveau et à attendre sa réincarnation une fois que la technologie le rendra possible. Comme lui, Thiel n’est pas le seul milliardaire à espérer déjouer la mort ; Jeff Bezos et Larry Page financent tous deux la Alcor Life Extension Foundation « qui a gelé les corps et les cerveaux depuis 1970 ».

Le mépris que Thiel nourrit envers le reste de l’humanité semble presque équivalent à celui qu’il entretient pour le genre féminin. L’infini à la portée des capitalistes de la tech, l’enfer comme le seul avenir pour le troupeau. Le nom qui a été inventé pour cette nouvelle manifestation du capitalisme mondial semble plus approprié que jamais : les lumières sombres (dark enlightenment).

Le métavers et l’ordre économique

Le metavers et l’ordre économique © Sandro Katalina Unsplash

Un monde parallèle dans lequel les frontières physiques, les normes sociales, les contraintes économiques sont abolies : la rhétorique du métavers n’est pas neuve et emprunte son idéologie aux pamphlets des années de la construction d’internet. L’apparition des technologies distribuées et des blockchains lui donne pourtant un nouveau souffle, décrivant l’utopie d’un monde structurellement armé contre la concentration des pouvoirs inhérente au web 2.0. Prototype d’un cyberespace refondé sur les principes de la décentralisation ou nouveau terrain d’affrontement pour les mastodontes technologiques, les enjeux du métavers sont plus profonds qu’il n’y paraît. Par Jonathan Bourguignon, auteur de Internet année zéro (éditions Divergences, 2021).

En janvier se renforce la rumeur selon laquelle des centaines d’employés chez Apple travaillent secrètement sur un nouvel appareil de réalité augmentée. Quelques jours plus tard, Microsoft rachète les légendaires studios de jeux vidéo du groupe Activision-Blizzard pour soixante-huit milliards de dollars. Cette opération assoit plus encore la position de la maison-mère de la Xbox comme géant du jeu vidéo, mais elle renforce surtout la crédibilité de son projet Mesh for Teams, qui vise à créer des outils de travail en réalité virtuelle et augmentée, annoncé en novembre 2021.

Ces grandes manœuvres, associées à l’annonce tonitruante du changement de nom du groupe Facebook en Meta – tentative pataude de faire oublier un nom désormais trop associé aux scandales d’atteinte à la vie privée – annoncent une nouvelle offensive du monde technologique dans la course au métavers, hypothétique monde virtuel résilient qui appartient à la mythologie de la création du web. Cette mythologie annonçait un internet imperméable au pouvoir des monopoles et au contrôle des Etats ; les années 2010 l’ont laissée pour morte. Jusqu’à l’essor des cryptomonnaies et, dans leur foulée, la montée en puissance des technologies distribuées. L’imaginaire d’un internet décentralisé se dessine à nouveau, et se projette dans le concept de métavers. En quoi se distingue-t-il du colonialisme des GAFAM ?

Du cyberespace au métavers

Retour en arrière : en 1992, le roman de science-fiction Snowcrash est le premier à utiliser le terme de métavers, et reprend l’idée d’un univers persistant en réalité virtuelle, dans la lignée du cyberespace décrit dans le roman Neuromancer en 1984. Ces deux romans marquent la naissance et l’apogée du genre cyberpunk. Entre les deux, les prophètes de la Silicon Valley reprendront à foison ce terme de cyberespace pour annoncer l’avènement d’internet, nouveau monde émancipateur et sans limites. Plus que la réalité virtuelle, c’est la cohabitation entre des millions de participants et la persistance de l’univers qui distinguent le métavers d’un simple jeu vidéo. Ce sont aussi les usages : le métavers doit être un lieu de commerce, de sport, de travail, de réunion, un lieu dans lequel se transposent la plupart des activités de la vie réelle, affranchies des limites du monde physique.

A la fin des années 80, se représenter un tel devenir pour le réseau internet, qui ne se matérialise que sous forme de lignes de commandes, demande beaucoup d’imagination. Il en faut déjà un peu moins pour comprendre les interfaces graphiques du Web, qui se démocratise à l’époque de la parution de Snowcrash. Dans les années 2000, la troisième dimension donne son heure de gloire au plus célèbre des métavers à date, Second Life. Les joueurs y créent bâtiments et objets virtuels, qu’ils s’échangent au moyen d’une monnaie numérique, générée par les créateurs du jeu ; Suzanne Vega ou U2 y ont donné des concerts virtuels, les plus grandes marques y ont implanté des boutiques et des showrooms, les principales banques s’y sont installées pour financer cette nouvelle économie virtuelle. Une économie qui s’assèche progressivement à partir de 2007 et la crise des subprimes : la panique bancaire se répand jusqu’aux guichets des agences du monde virtuel. Second Life périclite, l’idéologie du cyberespace est passée de mode, la sociabilisation en ligne passe par les messageries des réseaux sociaux plutôt que par des univers en 3D.

En 2018, Steven Spielberg donne sa propre interprétation cinématographique du métavers avec Ready Player One, lui-même adapté d’un roman paru quelqeus années auparavant. Dans le film, c’est un jeu vidéo qui peu à peu en vient à happer toutes les activités sociales de ses utilisateurs. Deux ans plus tard, l’épidémie de Covid-19 montre que Spielberg est toujours un grand observateur de la société. Les confinements successifs marquent le retour en grâce des évènements culturels à l’intérieur même d’univers pensés pour le jeu vidéo. Des marques de luxe participent à la Fashion Week organisée sur Animal Crossing de Nintendo, Parti Démocrate et militants hongkongais investissent World of Warcraft pour s’organiser, les rappeurs Lil Nas X et Travis Scott donnent des concerts virtuels qui rassemblent des dizaines de millions de fans, l’un sur Roblox (une plateforme constituée d’une multitude de mini-jeux créés par ses centaines de millions d’utilisateurs, principalement des enfants et des adolescents), l’autre sur Fortnite (créé par le studio Epic Games, contrôlé par l’entreprise chinoise Tencent, maison-mère de WeChat, la super app qui joue le rôle de Facebook dans l’univers parallèle que constitue l’Internet chinois derrière le Grand Firewall). En parallèle, messageries instantanées et visioconférences deviennent les outils les plus importants du télétravail auquel se rallient à contrecœur des centaines de milliers d’entreprises. Toutes les conditions semblent réunies pour que l’essentiel de la vie en société puisse désormais se dérouler dans des univers virtuels.

Dans le métavers, la spéculation immobilière va bon train : les parcelles les mieux placées s’arrachent à prix d’or, au gré du trafic des utilisateurs et donc du potentiel commerçant.

C’est d’ailleurs Epic Games qui exhume et propulse à nouveau sur le devant de la scène en avril 2021 le terme désuet de métavers. Epic frappe les forts et annonce la levée d’un fonds d’un milliard de dollars pour accomplir sa vision d’un univers virtuel persistant pour les joueurs… Mais le terme est rapidement phagocyté par le Web3, l’industrie qui se fédère derrière les concepts de décentralisation, de blockchain et de cryptomonnaie. Le métavers sera crypto ou ne sera pas. Car Second Life l’a prouvé : le métavers est voué à l’échec s’il reste sous le contrôle de quelques plateformes. Comment convaincre les citoyens du monde – et les développeurs, artistes, entrepreneurs – d’investir leurs efforts dans un monde parallèle qui peut s’effondrer ou être manipulé par quelques acteurs ? Une répartition plus juste de la valeur produite, un univers libéré de la mainmise des banques, des plateformes centralisées ou même des Etats : c’est justement la promesse du paradigme technologique et idéologique directement hérité de Bitcoin.

Les nouvelles promesses du métavers

Il y a une douzaine d’années à peine, Google et Facebook, fiers rejetons d’un internet émancipateur et libertaire, soignaient encore leur image d’entreprises humanistes et progressistes. A l’époque, le pouvoir des GAFAM, acronyme qui d’ailleurs n’existait pas, inquiétait beaucoup moins que celui des banques. Le pouvoir sans partage de ces dernières, et plus particulièrement leur capacité à créer de la monnaie à travers le crédit, venait de conduire à une nouvelle « pire crise financière depuis la Grande Dépression » – encore une, vraisemblablement pas la dernière. C’est dans ce contexte qu’apparaît Bitcoin en 2009, au sein de la communauté des cypherpunks, un groupe informel qui souligne depuis la fin des années 80 le rôle clé que peut jouer la cryptographie comme vecteur de changement social, notamment en garantissant la sécurité et la confidentialité des données. Selon le papier qui le fonde, Bitcoin s’imagine comme une arme contre l’ordre monétaire fondé sur le pouvoir bancaire et le crédit. Bitcoin est décentralisé : il se déploie simultanément sur tous les ordinateurs qui participent au réseau (incluant les « mineurs »), et écrit la blockchain, registre distribué qui ne peut être manipulé par aucun pouvoir centralisé.

Une décennie plus tard, la concentration des données au sein des plateformes de la Silicon Valley a engendré une concentration de richesses et de pouvoir sans précédent. Elle a aussi créé des vulnérabilités fondamentales pour les sociétés occidentales, esquissées par les révélations d’Edward Snowden en 2013, ou par les manipulations démocratiques opérées par Cambridge Analytica à partir de 2014. Ces scandales ont terni l’image des géants du web au point que l’entreprise à l’origine de Facebook s’est récemment résolue à se débarrasser d’un nom devenu difficile à porter. Ils ont aussi vu se réaliser les pires prémonitions des cypherpunks, et ont montré la nécessité de déployer des systèmes distribués, chiffrés, à l’abri du pouvoir des entreprises comme de celui des gouvernements. Bitcoin a été le premier de ces systèmes distribués à se répandre à grande échelle. Un nouveau système financier, offrant des services en miroir à la finance traditionnelle, s’est ensuite construit sous le nom de finance distribuée ou DeFi ; en 2021, la révolution prend d’assaut le monde de l’art sous le nom barbare de NFTs  (Non-Fungible Tokens, jetons non-fongibles, par opposition aux jetons destinés à servir de cryptomonnaie, dont la caractéristique est d’être fongible). Chacun de ces domaines d’application du Web3 esquisse les différences que recèlerait un métavers décentralisé.

Fondamentalement, le métavers doit assurer la résilience de la valeur créée par les utilisateurs, au-delà des entités centralisées telles que Second Life, Epic ou Meta qui maintiennent la plateforme. C’est ce que garantissent les blockchains : les actifs numériques contenus sur les registres d’Ethereum, Tezos et autres Polkadot – que ces actifs soient des cryptomonnaies ou n’importe quel objet numérique, images ou modèles 3D, avatars, morceaux de code, titres de propriété, dans le monde réel ou dans un métavers – survivront tant qu’il y a aura des ordinateurs connectés à internet pour faire tourner leur programme, même si l’entité-mère (par exemple, l’équipe d’origine qui a créé le projet Ethereum) venait à se dissoudre. En 2021, crypto-zombies dessinés sur soixante-quatre pixels et chatons arc-en-ciel s’échangent pour des millions de dollars. On reproche aux NFTs d’être un outil de spéculation, de blanchiment d’argent, d’être victimes de plagiat, profitant de la crédulité de certains, de se négocier sur des plateformes centralisées. En bref, le crypto art épouse pleinement les pratiques historiques du marché de l’art, outil d’affirmation pour l’individu d’appartenance à une caste sociale, et outil d’affirmation pour cette caste de sa domination culturelle. En l’occurrence, les licornes multicolores de pixels affirment désormais l’emprise de l’écosystème technologique sur la culture mondiale. Mais le crypto-art n’est que la face émergée du potentiel des NFTs. Celles-ci permettent aussi l’invention de nouveaux moyens de financer les artistes traditionnels, par des procédés proches de ceux ayant cours sur les plateformes de financement participatif, avec lesquelles des cinéastes tels que Martin Scorsese font déjà des expérimentations. Surtout et fondamentalement, les NFTs sont des actifs numériques.

Ces actifs numériques sont très précisément ce qui distingue les métavers issus de l’univers crypto des univers qu’un Facebook / Meta s’apprête à créer. Sur Decentraland, Cryptovoxels ou The Sandbox, la carte du territoire se décompose en parcelles que peuvent acquérir les usagers. Dans le métavers, la spéculation immobilière va bon train : les parcelles les mieux placées s’arrachent à prix d’or, au gré du trafic des utilisateurs et donc du potentiel commerçant. Le voisinage et les célébrités qui investissent un quartier comptent aussi, de même que les créations sur les parcelles d’architectes libérés des contraintes du monde physique. Une nouvelle mécanique immobilière se met en place : selon la rhétorique du Web3, acquérir les bonnes parcelles revient à une opportunité d’investir dans le Londres des années 50, le New York des années 70, le Berlin des années 2000. Une remise à zéro des compteurs du capitalisme, pour qui sait lire le jeu. Mais un capitalisme qui ne sera pas manipulé par un interventionnisme des banques centrales qui exacerbe les inégalités : selon l’interprétation que font certaines franges libertariennes de l’effet Cantillon, chaque nouveau plan de relance par les banques centrales, en renflouant les banques qui ont la mainmise sur le crédit, vient d’abord nourrir l’inflation dans certains secteurs tels que l’immobilier, augmentant le patrimoine de ceux qui possèdent déjà, tandis qu’au global, l’inflation – sur laquelle est indexée les salaires – n’augmente pas. Le nouveau métavers a bien hérité de Bitcoin sa critique des banques.

D’autres imaginaires anarcho-capitalistes se réinventent par le métavers : ainsi du Liberland, micronation proclamée sur une bande de terre non revendiquée de la rive ouest du Danube entre Serbie et Croatie, et qui, dans le monde réel, n’est guère plus que cela : une bande de terre. Dans le métavers, en revanche, le Liberland s’est associé au cabinet d’architectes de feu Zaha Hadid pour annoncer une cité – dans le métavers, donc – dédiée au cryptomonde, avec incubateur de startups et forums de rencontres.

Les utopies premières du web se sont précisées : « l’information veut être libre », mais l’information veut aussi avoir de la valeur. Le métavers est donc d’abord une utopie capitaliste, qui voudrait rebattre les cartes du pouvoir financier et numérique.

En outre, la dynamique de rareté créée par cette nouvelle carte du territoire illustre comment le métavers pourrait aussi mettre à mal l’hégémonie des GAFAM. Des produits ou des services qui s’exposent dans l’univers virtuel du métavers reviennent à la simplicité des places de marché du monde physique, loin des manipulations obscures des algorithmes de recommandation des plateformes publicitaires. Plus généralement, une plateforme de commerce décentralisée a un fonctionnement prédéfini par des contrats exposés sur la blockchain. Les commissions prises par de telles places de marché sont transparentes, de même que les règles de mise en avant des produits. L’opposé d’un Amazon qui fait évoluer à l’envi ses conditions d’utilisation, décide seul des algorithmes de recommandation qui ont droit de vie ou de mort sur les commerçants de son réseau, a seul accès aux données qui lui permettent de commercialiser des produits sous sa propre marque.

Les moteurs de jeu de Cryptovoxels tournent bien sur des serveurs centralisés, de même que la place de marché OpenSea. Mais la promesse de décentralisation est une conquête qui se fait par étapes : d’abord la monnaie et les échanges de valeurs à travers Bitcoin, puis l’exécution des contrats sur Ethereum ; les bases de données deviennent elles-mêmes décentralisées au travers de technologies comme IPFS, le calcul pourrait se déporter vers la périphérie (le edge computing). Le monde des cryptoactifs a paradoxalement signé le triomphe de l’open source, au sens où aucun projet décentralisé ne peut être crédible sans dévoiler son code, mais surtout au sens où les smart contracts s’exécutent sur la blockchain aux yeux de tous. Mais alors que le mouvement open source voulait promouvoir le tout-libre, le monde crypto se fait le chantre de la monétisation. Car ce que permettent les nouveaux métavers, à travers l’accès verrouillé cryptographiquement à des objets numériques, c’est essentiellement cela : la possession de biens incorporels. La persistance d’une plateforme à l’autre d’un avatar, des vêtements de créateur acquis pour cet avatar, les droits de propriété sur des œuvres artistiques, des objets créés, de l’immobilier, sont garantis par la blockchain. Les utopies premières du web se sont précisées : « l’information veut être libre », mais l’information veut aussi avoir de la valeur. Le métavers est donc d’abord une utopie capitaliste, qui voudrait rebattre les cartes du pouvoir financier et numérique.

Une utopie capitaliste

De l’idéologie affichée à l’implémentation dans les principaux projets émergents, c’est pourtant un champ infini des possibles qui se dessine. La course à la croissance dira si le nouvel univers est une utopie, ou la continuation du précédent paradigme numérique. Ce qui s’illustre fondamentalement dans la diversité des cryptomonnaies qui sous-tendent les transactions dans le métavers. Ces cryptomonnaies sont aujourd’hui en compétition aussi bien comme unité d’échange de valeurs, que comme plateformes par-dessus lesquelles se construisent les projets. Force est de constater que certaines de ces monnaies favorisent la concentration de richesses.

A commencer par le précurseur Bitcoin, dont la quantité d’unités en circulation sera limitée à 21 millions. Par essence, Bitcoin se veut donc déflationniste à terme, la monnaie devenant une ressource rare qu’il est préférable de garder en réserve que de dépenser.

Le métavers pourrait bien n’être rien d’autre qu’une version incarnée, en réalité virtuelle ou augmentée, du web actuel dominé par quelques plateformes centralisées, engendrant encore concentration des richesses, surveillance et manipulation de masse.

Les principales cryptomonnaies de deuxième génération s’appuient elles sur un mécanisme dit de preuve d’enjeu (le staking) pour sécuriser leurs transactions (Ethereum mise à part, dont la transition de la preuve de travail à la preuve d’enjeu devrait être effective en 2022). Avec le staking, l’opération de validation qui existe aussi dans Bitcoin devient réservée aux acteurs en mesure de mettre en jeu une certaine quantité de cryptomonnaie comme collatéral ; s’ils se comportent mal, cette mise en jeu leur est confisquée ; s’ils se comportent bien, ils récupèrent la récompense qui correspond à ce qu’on appelle « minage » dans l’environnement Bitcoin. Dit autrement, posséder de la cryptomonnaie et l’utiliser comme collatéral pour sécuriser le réseau est rétribué. En 2021, la rétribution du staking sur les réseaux majeurs évoluait entre 8 et 19%. Il est légitime que le travail de sécurisation du système monétaire soit rétribué, d’autant que la preuve d’enjeu est à l’heure actuelle le mécanisme de validation le mieux maîtrisé qui permette de résoudre le problème de l’impact environnemental massif de Bitcoin et de sa preuve d’enjeu (même si d’autres mécanismes, tels que les preuves à divulgation nulle de connaissance, pourraient bientôt prendre le pas). La grande jeunesse de ces écosystèmes donne encore peu de recul sur ce que serait un juste niveau de rétribution pour le staking. Il faut néanmoins considérer que les cryptomonnaies sont elles-mêmes en compétition : comme dans l’économie traditionnelle, celles qui rétribuent le mieux l’investissement (et donc avec la preuve d’enjeu : le fait de posséder des actifs en réserve) auront plus de moyens de se développer et d’investir dans le développement de leur écosystème, ce qui crée donc une incitation à favoriser la concentration de richesses.

Et le staking n’est qu’un des mécanismes par lesquels la richesse peut s’accumuler. La plupart des projets cryptographiques s’appuie sur un modèle économique qui prédéfinit les règles d’émission des jetons, leur distribution initiale, leur attribution future aux investisseurs, aux utilisateurs ou aux créateurs de la monnaie. Avec Bitcoin, il n’y avait pas de « pré-minage » : tous les jetons créés l’ont été sous forme de rétribution pour les mineurs qui font tourner le réseau depuis 2009. Fin 2015, lorsque le premier bloc d’Ethereum apparaît, 20% des ethers ont déjà été pré-minés, et sont distribués aux fondateurs, investisseurs, à la fondation elle-même. En 2020, un projet comme Solana a pré-miné 60% de ses jetons Les protocoles présentent une grande disparité, certains rétribuant mieux les investisseurs, d’autres les utilisateurs futurs. Leur adoption par les développeurs n’est pas seulement motivée par leur modèle, difficile à appréhender et à juger pour le commun des mortels, mais surtout par les fonctionnalités, la scalabilité, la vitesse d’exécution, le coût, la communauté active, le succès des projets qui s’y créent, NFTs, métavers et finance décentralisée en particulier. Les cryptomonnaies qui auront survécu dans dix ans seront-elles plus égalitaires que l’euro ou le dollar ?

Dans ses dimensions utopiques, la rhétorique blockchain parle de revenu universel et d’abondance, dont les premiers signes dans le métavers seraient l’apparition de nouvelles formes de revenu, tels que le Play-to-Earn, ou revenus créés par le jeu. Axie Infinity est un jeu qui voit plusieurs millions de joueurs s’affronter chaque mois, dont près de la moitié aux Philippines. Pour commencer à jouer, il faut dépenser plusieurs centaines de dollars pour acquérir ses premières créatures auprès d’autres joueurs, avant de les faire évoluer à la manière d’un Pokemon. S’appuyant sur les différences de niveaux de vie entre régions du monde, le jeu orchestre une économie dans laquelle les joueurs les plus aisés sont prêts à débourser des sommes suffisantes pour assurer un revenu confortable à d’autres joueurs devenus professionnels. Ce Play-to-Earn inventé par Axie Infinity ne semble guère différent du poker : les joueurs les plus doués peuvent s’en sortir et amasser des fortunes ; au détriment des autres joueurs, et pour le plus grand bénéfice du casino, c’est-à-dire des créateurs de la plateforme et de ses investisseurs. Les plateformes décentralisées permettent d’autres types de casino, prohibés avec de la monnaie fiduciaire : ainsi des prediction markets tels que Augur, l’une des premières applications décentralisées créées par-dessus Ethereum, qui permettent de parier sur la survenue d’évènements dans la vie réelle, parmi lesquels des résultats d’élections ; un type de pari interdit pour les biais qu’ils peuvent faire peser sur le processus démocratique…

Les règles imparfaites de ces écosystèmes en construction peuvent changer. Leur loi est écrite dans le code (ils aspirent à être trustless, c’est à dire à ce que leur bon fonctionnement ne dépendent jamais de la volonté d’individus corruptibles). Le code évolue, et est généralement soumis au vote démocratique auxquels peuvent participer ceux qui possèdent des jetons de gouvernance. Mais en démocratie aussi, le diable est dans les détails : ces jetons sont souvent eux-mêmes des actifs financiers qui se monnayent sur des plateformes d’échange, constituant de fait des systèmes plus proches de la ploutocratie que de la démocratie.

Code is law: l’avertissement de Lawrence Lessig en 1999 est devenu un mantra pour l’écosystème blockchain, qui semble avoir oublié que la formule indiquait les risques à se soumettre à la loi d’un code que l’on ne comprend pas, et non l’aspiration à confier au code la confiance perdue dans les institutions et les individus…

L’équilibre des forces

Le métavers pourrait bien n’être rien d’autre qu’une version incarnée, en réalité virtuelle ou augmentée, du web actuel dominé par quelques plateformes centralisées, engendrant encore concentration des richesses, surveillance et manipulation de masse.

S’il doit devenir autre chose, c’est à dire un espace virtuel dans lequel les règles du marché ne sont pas dictées par quelques acteurs, où existent des communs et des espaces d’expression qui ne peuvent être censurés, la tentative la plus sérieuse proviendra de l’écosystème crypto. Rien ne dit que la réalité virtuelle ou augmentée doivent contribuer massivement à ce changement de paradigme : on observe déjà une transformation de la manière dont l’art se finance, dont les marchés financiers s’organisent, pour le meilleur ou pour le pire. La plupart de ces tentatives relèvent d’ailleurs du champ de la monnaie et de l’échange de valeur : le métavers est une utopie profondément capitaliste.

Malgré ces restrictions, malgré les dérives graves et les dangers d’un écosystème encore aussi immature que le web avant l’explosion de la bulle internet, cet écosystème reste l’un des seuls champs d’expérimentation à grande échelle en-dehors de la doxa économique qui gouverne le monde sans partage depuis la chute de l’URSS. L’hégémonie de la doxa libérale l’avait même amenée dans les années 90 à constater la fin de l’Histoire : qu’est-ce qui pourrait bien remettre en cause la supériorité de son modèle ? Finalement bousculée par la réalité géopolitique, en Chine et ailleurs, elle est aussi inquiète de l’essor des cryptoactifs, qui ont démontré au Salvador qu’ils pouvaient mériter le qualificatif âprement contesté de monnaie : grâce à des surcouches technologiques telles que Lightning (qui permet de générer des paiements en Bitcoin sans inscrire chacune de ces transactions dans la blockchain), Bitcoin a désormais résolu ses problèmes d’échelles. Les théoriciens argumentent encore sur le fait qu’une monnaie doit avoir une institution prête à protéger sa valeur contre la volatilité des marchés ; quoiqu’il en soit, le Salvador a déclaré le Bitcoin monnaie officielle en septembre 2021, aux côtés de la seule monnaie en cours dans le pays depuis vingt ans : le dollar américain. Les habituels chiens de garde de l’orthodoxie libérale ont été prompts à la réaction : en janvier, dans une séquence qui n’est pas sans rappeler les faits d’armes de la Troïka pendant la crise grecque, le FMI exhorte le Salvador à retirer au Bitcoin son statut de monnaie, arguant des coûts budgétaires de mise en service des moyens de paiement associés et de la volatilité des cours. Il y conditionne l’accord de financement en cours de négociation. L’avertissement devient prophétie autoréalisatrice : dans la foulée, les agences de notation dégradent les indices de confiance du Salvador. Alors que de nombreux pays aux régimes instables ont vu leur monnaie souveraine s’effondrer ces dernières années, le message est clair : mieux vaut utiliser des dollars américains.

Du côté de l’Europe, en parallèle du projet de règlement MiCA (Markets in Crypto-Assets), la Commission Européenne proposait en mars que les prestataires de services soient tenus de s’échanger les informations personnelles de leurs clients lors de chaque transfert de cryptoactifs, y compris lorsque le transfert est opéré vers un portefeuille auto-détenu – la caractéristique première des cryptomonnaies étant justement que chaque utilisateur peut détenir son propre portefeuille sans passer par l’équivalent d’une banque. Pour justifier cette mesure qui vise à anéantir l’anonymat fondamental que permettent les cryptomonnaies, et dans une réplique parfaite des débats sur la surveillance d’internet au nom de la lutte contre le piratage ou la pédopornographie, les auteurs de la mesure avancent, sans qu’aucune donnée sérieuse ne vienne étayer leur argument (la seule étude mentionnée date de 2014, une époque révolue où Bitcoin, alors seul cryptoactif, circulait effectivement sur des plateformes telles que The Silk Road sur le dark web) qu’il s’agit de lutter contre le blanchiment d’argent et le financement du terrorisme. La vision de la commission est-elle d’anéantir l’anonymat dans toutes les transactions, y compris l’argent liquide ? Quand on n’a rien à se reprocher, on n’a rien à cacher, ont toujours su énoncer les régimes autoritaires…

En attendant, le candidat Macron propose au détours de son programme la création d’un métavers européen, concept que son secrétaire d’Etat chargé au numérique, acculé, a eu quelque peine à éclaircir, au-delà de l’idée de faire émerger des champions européens des moteurs 3D. Une autre séquence vue auparavant : la tentative par les mêmes acteurs de regagner en souveraineté numérique à travers le projet du cloud souverain s’est soldée par la création d’un label au travers duquel des entreprises françaises distribuent la technologie cloud des GAFAM.

Il reste donc peut-être peu de temps à l’écosystème Web3 pour faire apparaître un métavers décentralisé faisant vivre des modèles nouveaux pour la finance, les échanges sociaux, le cyberespace. L’ancien monde ne se laissera pas faire aisément ; si du côté des institutions, l’opposition frontale a commencé, GAFAM et autres géants technologiques affrontent la menace autrement. Leur travail de récupération idéologique a commencé : Meta reprend les éléments de langage des plateformes ouvertes (à rebours de toute l’histoire de Facebook), Epic annonce que le métavers qu’elle construit sera ouvert aux NFTs (contrairement à son grand rival Steam), et surtout, les fonds d’investissement les plus emblématiques du web 2.0, parmi lesquels Andreessen-Horowitz et Softbank, sont aussi les plus actifs dans le Web3. Tous promettent que cette fois, et contrairement au  cyberespace construit par les GAFA, le métavers sera bien un nouvel univers qui étendra le champ des possibles, et non la colonisation du réel, capté au travers de smartphones Apple, indexé à l’intérieur de moteurs de recherche Google, du graphe social de Facebook et autres plateformes d’e-commerce d’Amazon, ne demandant qu’à être instrumentalisés par les services de renseignements étatiques et autres partis politiques.

La bataille idéologique pour le métavers a déjà commencé.

En Argentine, Amazon remplacé par une plateforme publique ?

© Aymeric Chouquet pour LVSL

Qu’est-ce qui empêcherait qu’un acteur public mette en relation des producteurs et des consommateurs à travers le travail de fonctionnaires ? Dans l’absolu, rien. Mais empiriquement, la concurrence des plateformes déjà existantes comme Amazon et Alibaba est redoutable. Déjà doté de sa propre multinationale du e-commerce, l’Argentine tente désormais de bâtir une alternative publique, voire des plateformes locales, face au géant américain Amazon. Mais la confrontation est inéluctable.

Depuis la mise en place des mesures sanitaires dans la plupart des pays touchés par la pandémie, les géants de la vente en ligne ont connu une accélération exponentielle de leur développement, se muant en mastodontes de la distribution. Le principe est simple : remplacer les intermédiaires traditionnels entre le producteur et le consommateur qui, sans avoir à se déplacer, accède en théorie à des produits similaires qu’en magasin à un prix inférieur. Ainsi, si l’on dissèque le prix d’une marchandise juste avant de devenir un objet de consommation courante aux mains d’un ménage français, la part qui venait rémunérer le commerçant au détail, mais aussi probablement son grossiste, vient rémunérer directement Amazon. Cette croissance engendre des effets de réseau, qui, en retour, viennent renforcer la plateforme en question. Le principe est simple : plus le réseau est étendu et plus les agents économiques, vendeurs ou acheteurs, ont intérêt à l’intégrer, donc le réseau s’étend davantage. Prenons l’exemple d’un smartphone. Si seulement une poignée d’individus à travers la planète en possèdent un, alors il n’y a pas un grand intérêt à en faire partie car il n’y a pas grand monde à joindre par cette voie-là. Au contraire, si la grande majorité de la population en utilise, s’en passer devient très difficile.

Si l’on applique cette logique à Amazon, on comprend bien que, puisque de nombreux consommateurs s’y trouvent, les offreurs ont intérêt à vendre leurs marchandises sur la plateforme en ligne, y compris s’ils doivent moyenner une commission. De leur côté, les consommateurs sont attirés par une offre diversifiée, des prix parfois plus bas et la possibilité de ne pas se déplacer hors de chez eux. La boucle est bouclée, l’entreprise peut désormais croître au rythme de ses capacités de stockage et de distribution et, bien entendu, au prix d’une exploitation particulièrement violente de ses salariés.

Dès lors, de la même manière que Twitter peut annuler la vie politique d’un candidat en un seul clic et que Google peut invisibiliser un média dans ses référencements, Amazon, de par cette dynamique, devient peu à peu l’acteur incontournable de la circulation de biens non pas dans une seule économie – situation déjà rêvée par la bourgeoisie de n’importe quel pays périphérique au moment de mener un putch par exemple [1] – mais de la plupart des économies dites avancées.

En Argentine, Amazon face à une concurrence privée et publique

Si Amazon semble régner sans partage en France, les parts de marché de la vente en ligne argentine sont colonisées par le géant latino-américain Mercado Libre. Ce dernier y concentre la moitié du marché et ses profits ne cessent de croître. Ainsi, tandis que la région enregistrait une récession de 8,1%, les bénéfices de Mercado Libre ont bondi de 45% au premier semestre de l’année 2020. Aujourd’hui présente dans dix-huit pays, cette multinationale basée à Buenos Aires est désormais une alternative régionale à l’hégémonie d’Amazon, tout comme peut l’être Alibaba en Chine. Toutefois, comme ses concurrents, ce mastodonte n’est pas exempt de scandales en matière de respect des droits des travailleurs, du droit à la concurrence ou encore de protection des données des consommateurs.

Si des capitaux privés peuvent simplement mettre en relation des producteurs, des consommateurs, des travailleurs du transport et ceux qui gèrent les stocks dans des entrepôts, alors pourquoi la puissance publique en serait-elle incapable ? En réalité, non seulement l’État en est capable, mais, en plus, il ne peut que mieux faire. Dotée d’un pouvoir de coordination dont le privé dispose rarement et libérée de l’impératif de satisfaire des actionnaires sur le court terme, une entreprise publique peut se permettre de ne pas maximiser ses profits pour, au contraire, maximiser les salaires ou la couverture du service, et par conséquent les externalités positives [2]. Le cas des réseaux ferroviaires en constitue un très bon exemple dans la mesure où aucune entreprise privée ne trouverait suffisamment rentable d’investir dans la construction de chemins de fer sur tout le territoire, notamment dans des zones non rentables du point de vue du secteur privé.

Correos Compras, l’Amazon public argentin

Fort de cette logique, le gouvernement argentin a mis en place Correos Compras. Cette entreprise publique a pour objectif principal de mettre en relation des producteurs et des consommateurs, mais aussi de créer des emplois de qualité correctement rémunérés. Les marges de manœuvre pour réaliser ces objectifs sont d’autant plus importantes qu’il n’y a aucun actionnaire à rémunérer.

La ponction qu’effectuent les détenteurs du capital dans les entreprises privées est dans ce cas inexistante, et ce « manque à perdre » peut être redistribué non seulement entre les salariés mais aussi entre les offreurs adhérents et les consommateurs. Autrement dit, du côté de l’offre, Correos Compras permet de meilleurs revenus dans la mesure où la commission à payer est moins élevée que chez ses concurrents privés. Du côté de la demande, les produits sont plus accessibles en termes de prix, dès lors que les frais de transport sont également plus faibles, tandis que les travailleurs de l’entreprise publique sont mieux rémunérés et jouissent d’un emploi stable et formel contrairement à leurs homologues tertiarisés. De plus, Correos Compras permet d’accéder aux gammes de produits à prix contrôlés par différents programmes gouvernementaux, afin de favoriser l’accès à la consommation de biens et services essentiels pour les classes populaires.

Cet écosystème d’incitations permet d’attirer producteurs et consommateurs vers Correos Compras, ce qui constitue de fait le début de la mise en place d’un effet de réseau : dès lors qu’un premier circuit d’échanges se constitue, il devient intéressant pour les nouveaux entrants de l’intégrer. D’autre part, une fois que l’entreprise publique gagne des parts de marché sur ses homologues privés, se mettent en place des externalités positives qui profitent à d’amples secteurs de l’économie, notamment à travers la réactivation de la production intérieure commandée par la création d’emplois de qualité et les salaires qui vont avec. 

A Rosario, le e-commerce local

Si le système politique argentin peut être considéré comme fédéraliste, Buenos Aires jouit tout de même d’une forte concentration des pouvoirs et des ressources. Dès lors, les provinces fédérées disposent d’une autonomie relativement importante mais demeurent soumises à des contraintes budgétaires en grande partie déterminées par l’administration centrale.

Cette ambivalence pousse la province de Rosario, située au nord-ouest de la capitale, à emboîter le pas à Correos Compras. Le conseil municipal de Rosario a ainsi validé en 2020 un projet nommé Mercado Justo (« marché juste ») qui cherche à concurrencer Mercado Libre, selon la même logique que Correos Compras.

Cette fois-ci c’est l’échelle locale qui est visée, avec le pari sous-jacent que les flux de de valeur circuleront dans la ville de Rosario et aux alentours, en raison des avantages que trouvent les producteurs et les consommateurs en termes de prix, plutôt que de se diriger vers le marché des changes argentin avant de se loger dans des produits dérivés nord-américains. En effet, si le revenu d’un agent augmente, il constituera une demande supplémentaire pour un autre offreur. Cela correspond à l’une des règles fondamentales en économie selon laquelle les dépenses des uns sont les revenus des autres.

Malgré l’enthousiasme que peuvent susciter ces initiatives, a fortiori si elles fleurissent au sein d’un pays périphérique en crise et dominé dans les relations internationales d’échange, de nombreuses limites subsistent et doivent nous pousser à nous questionner de manière critique. En effet, il paraît peu probable que des firmes surpuissantes telles qu’Amazon et Mercado Libre acceptent sans réticences une concurrence publique, dans la mesure où elles n’ont jamais eu l’intention de se plier à une concurrence privée. De plus, ce type de marché tend à devenir monopolistique dans la mesure où les effets de réseau impliquent des rendements d’échelle croissants, ce qui est incompatible avec l’existence d’un équilibre concurrentiel. Par conséquent, si ces firmes capitalistes vont nécessairement s’opposer par tous les moyens à ce genre d’initiatives publiques, pourquoi la puissance publique devrait-elle se limiter à tenter de remplacer les plateformes privées en ne mobilisant que des mécanismes d’incitation individuelle ? Qu’est-ce qui l’empêcherait d’user de tous ses pouvoirs économiques et réglementaires pour imposer un « Amazon public » ?

La réponse à cette question se trouve probablement dans une lecture adéquate du rapport de force entre les différents secteurs socio-économiques à intérêts divergents qui structurent la société d’un pays qui a subi presque dix coups d’État lors du siècle passé. En d’autres termes, si la puissance publique ne peut aller au-delà, c’est probablement parce que la marge de manœuvre du gouvernement d’Alberto Fernandez (Frente de Todos, gauche péroniste) demeure très faible. Si l’avenir de Correos Compras ou de Mercado Justo demeure donc incertain, ces plateformes ouvrent cependant le débat sur la capacité de l’État à remplacer, en mieux les plateformes privées. Et si la France s’en inspirait ?

Notes :

[1] L’exemple le plus emblématique reste celui de la grève des camionneurs financée par la CIA en 1973 au Chili dans le but de paralyser l’économie du pays, de déstabiliser le gouvernement et de préparer le terrain pour le coup d’État de Pinochet.

[2] Une externalité peut être définie comme une interaction entre deux ou plusieurs agents économiques ne passant pas par le marché. Elles peuvent être positives ou négatives. Par exemple, si un apiculteur s’installe à côté d’un producteur d’oranges, les abeilles butineront les fleurs d’oranger et les polliniseront par la même occasion, ce qui augmentera également la production de miel. Il n’y a aucun échange marchand entre l’apiculteur et le producteur d’oranges mais pourtant, du seul fait de leur proximité, leurs productions respectives se voient augmentées. Il s’agit là d’une externalité positive. D’autre part, si un tanneur s’installe sur un cours d’eau en amont d’un pêcheur, alors la pollution qu’il déversera dans ce même cours d’eau aura une incidence négative sur la production du pêcheur. Dans ce cas de figure l’externalité est négative. Dans le cas de Correos Compras, les externalités sont positives car la seule existence de cette entreprise publique constitue un boost de demande pour toutes celles qui interagissent avec elle, directement à travers la plateforme ou indirectement si ces entreprises bénéficient d’une demande issue des revenus tirés de l’échange que permet la plateforme.

Internet Année Zéro : la naissance des monstres numériques

© John Lester – Flickr

Internet Année Zéro (Divergences 2021) est le dernier essai de Jonathan Bourguignon, spécialiste des origines du capitalisme numérique américain. Il y retrace l’avènement de la société de surveillance contemporaine à travers une galeries de portraits (Peter Thiel, Elon Musk) et le récit des chemins de traverse entre la contreculture américaine des années 60-70 et la cyberculture de la Silicon Valley. Fait notable pour un ouvrage de ce genre, une partie conséquente du livre est réservée à l’émergence du numérique chinois, permettant au lecteur de découvrir l’autre empire informatique actuel, celui des BATX et de la « grande muraille numérique », filtrant les influences extérieures. Les lignes suivantes sont extraites de son ouvrage.1

Les héritiers

La bulle Internet connaît son apogée au mois de mars 2000. Son éclatement aurait pu marquer la fin du rêve de cette nouvelle économie vouée à avaler l’ancien monde ; en réalité, il est surtout un assainissement de l’écosystème. Pendant les années de fièvre et d’exubérance de la fin du siècle, certains ont patiemment, rationnellement construit l’infrastructure du web marchand. Alors que les valeurs technologiques s’effondrent et que les industriels et investisseurs traditionnels qui se sont lancés dans l’aventure sauvent ce qu’ils peuvent de leurs investissements, ces bâtisseurs vont consolider durant les années suivantes des actifs qui deviendront des empires. En héritiers de la cyberculture, ils vont investir les fortunes considérables qu’ils ont amassées avant l’explosion de la bulle pour contribuer à l’avènement du monde libertarien, transhumaniste et cybernétique auquel ils croient.

La généalogie de ce nouveau groupe parmi les plus influents de la Silicon Valley remonte à la création du web marchand ; leur action contribuera à faire de la data (données) le nouvel or noir du cyberespace. Entre 1995 et 2000, la croissance du web est stupéfiante : la base d’utilisateurs passe de 16 à 360 millions, près de 6 % de la population mondiale est soudain en ligne. Cette croissance est nourrie par la multiplication des sites web : entreprises, administrations publiques, tous types d’organisations créent soudain leur propre site. Le trafic, anarchique et décentralisé, commence à s’organiser à partir de 1995, sous la forme de portails et annuaires en ligne, tels que AOL et Yahoo!, portes d’entrée dans la toile à partir desquels les utilisateurs n’ont plus qu’à suivre les liens qui sont étalés sous leurs yeux. Les moteurs de recherche les talonnent : Altavista (qui sera racheté par Yahoo!) est créé la même année, Google trois ans plus tard.

Les internautes sont désormais libres de découvrir l’étendue du réseau par simple recherche de mots clés, sans être guidés ou connaître préalablement l’existence et l’adresse précise des sites qu’ils vont visiter. Néanmoins, en 1997, le commerce en ligne aux États-Unis représente moins de 0,1 % de son parent dans la vie réelle. Quelque chose manque pour que les consommateurs et leurs dollars délaissent les devantures désirables des boutiques et magasins. C’est à la même époque que se constituent les trois éléments clés qui permettent à l’écosystème marchand d’éclore : les fournisseurs de services d’applications (l’ancêtre du SaaS ou Software as a Service, littéralement «logiciel en tant que service») qui permettent la multiplication des sites de commerce comme des médias ; les moyens de paiement en ligne qui créent un accès pour dériver l’économie classique vers la nouvelle économie en ligne; et le modèle de revenu publicitaire qui crée la dynamique entre marchands, médias en ligne et entreprises technologiques.

Les entreprises pionnières qui ouvrent la voie à chacune de ces innovations se nomment respectivement Viaweb, Paypal et Netscape. Leurs fondateurs porteront l’héritage idéologique de la vallée. Le modèle publicitaire est l’épine dorsale du web. Fondamentalement, il ne diffère guère de celui qui a fait la fortune des agences publicitaires de Madison avenue. Il fait intervenir trois types d’acteurs : les annonceurs (advertisers), les médias (publishers), et l’ensemble des acteurs publicitaires, agences et plateformes de placement, qui organisent le jeu. Les annonceurs permettent de faire rentrer de l’argent réel dans le cyberespace. Il s’agit essentiellement de commerçants, qui vendent des produits et des services de l’ancien monde, vêtements, objets, billets d’avion, nuits d’hôtel. Leur survie est soumise à une compétition de marché: ils doivent amener les consommateurs sur le cyberespace et les détourner de l’économie classique, mais surtout, ils doivent lutter entre eux. La publicité est leur arme pour attirer les internautes sur leurs services. Les médias ont pour principale valeur leur audience : des sites web et des applications, que visitent des utilisateurs plus ou moins nombreux, plus ou moins qualifiés, c’est-à-dire présentant un profil plus ou moins spécifique et valorisé par les annonceurs.

Les plateformes publicitaires créent les conditions qui permettent aux annonceurs d’atteindre l’audience des médias. Rien de nouveau sous le soleil du cyberespace : qu’ils s’appellent journal, magazine, chaîne de télévision ou station de radio, le modèle économique des médias n’a guère évolué depuis la révolution industrielle au début du XIXe siècle.

Viaweb : audience et données

Le nom Viaweb a laissé assez peu de traces. Et pourtant, l’influence de l’entreprise dans le développement du web marchand est très importante. Viaweb existe sous ce nom entre 1995 et 1998, jusqu’à son acquisition par Yahoo! qui rebaptisera le service Yahoo! Store. Viaweb est une application que l’on accède comme un site web, et qui permet de construire et d’héberger des sites d’e-commerce en ligne. Certains – et en particulier le génie technique derrière Viaweb, Paul Graham – considèrent que le service développé par Viaweb constitue le premier fournisseur d’application en ligne. Il permet de créer des sites web.

Comme son nom l’indique (« via le web ») et contrairement à la plupart des logiciels de l’époque, utiliser cette technologie dispense ses clients d’acheter une version du logiciel, qu’ils devraient ensuite installer sur leurs propres machines, avec laquelle ils généreraient un site qu’ils devraient ensuite héberger sur leurs propres serveurs. Les clients de Viaweb utilisent à distance un logiciel qui tourne directement sur les serveurs de Viaweb, pour générer un site opéré directement par Viaweb, avec des données hébergées elles aussi sur des serveurs gérés par Viaweb. Cette particularité permet d’abaisser le niveau d’expertise requis pour créer des sites web, et contribuera à la multiplication du nombre de services marchands. Des technologies équivalentes, développées pour la publication de contenus, permettront l’émergence du phénomène des blogs, et de transformer les internautes majoritairement visiteurs de site web, jusqu’à présent passifs, en éditeurs actifs (avant que le web 2.0 ne vienne encore brouiller la frontière en rendant les visiteurs eux-mêmes actifs, c’est-à-dire créateurs de contenus et générateurs de données, sur le site web même qu’ils visitent). Surtout, la technologie permet à une entreprise cliente de Viaweb d’héberger ses données chez Viaweb.

Ce qui semble un détail technique en 1995 aura des répercussions très importantes des décennies après : en créant au même endroit des banques de données agrégeant l’activité des employés, clients ou cibles marketing de milliers d’entreprises se constituent les premiers puits de ce nouveau pétrole que le marketing n’appelle pas encore big data ou cloud.

PayPal : le nerf de la guerre

Reste qu’acheter les services de ces nouveaux marchands et nouveaux médias qu’on ne rencontre jamais dans la vie réelle, ni dans un magasin, ni dans un kiosque n’a rien d’évident. Amazon vendait des livres en ligne dès 1994, eBay permettait d’organiser des brocantes virtuelles dès 1995, tandis que Netflix, à partir de 1997, louait des DVDs qui transitaient, aller et retour, par courrier. Le principal moyen de paiements consistait alors à envoyer des chèques par courrier. La promesse d’un univers émancipé et dématérialisé où l’information se transmet à la vitesse des photons dans une fibre optique bute sur les limites mécaniques et musculaires des bicyclettes des facteurs, des camions de ramassage et de l’organisation dans les centres de tri des services postaux fédéraux… Paypal naît du mariage en 2000 de deux entreprises pré-pubères, fondées au cours des dix-huit mois qui précèdent.

La première, x.com, s’est donné pour mission de concurrencer les banques dans le nouvel espace digital. À sa tête : Elon Musk, un jeune entrepreneur sud-africain. À vingt-sept ans, dont à peine quatre dans la Vallée, il a déjà revendu une première startup qui fournissait des outils de développement graphique en ligne aux médias (une époque où un écran standard d’ordinateur affichait des pixels d’environ un demi-millimètre, c’est-à-dire dix fois plus gros que ce que peuvent afficher les smartphones en 2020). La seconde, Confinity, compte un certain Peter Thiel, d’origine allemande, parmi ses fondateurs, et ambitionne de créer une monnaie digitale indépendante des banques et des gouvernements, dix ans avant que la cryptomonnaie Bitcoin ne voie le jour.

Le jeune couple devient Paypal, du nom du produit phare développé par Confinity : un système qui permet de faire circuler de l’argent en ligne de manière sécurisée, de la même façon que le fait une fédération de type VISA à travers ses propres réseaux de terminaux de paiement. À travers son compte en ligne, le payeur donne l’autorisation à Paypal d’effectuer une transaction qui prélève un certain montant du compte bancaire qu’il a spécifié, et le transfère vers le compte du bénéficiaire. Paypal fait circuler cette transaction sur les réseaux bancaires. La banque du payeur débite son compte du montant de la transaction, tandis que la banque du bénéficiaire crédite son compte. Seul Paypal est en mesure de voir les numéros de carte et de compte en ligne du payeur et du bénéficiaire, assurant la sécurité de la transaction. Rapidement, des divergences de culture se font jour entre les anciens de x.com et de Confinity.

En 2000, Elon Musk est évincé de Paypal alors qu’il se trouve dans les airs, un avion l’emportant vers l’Australie pour ses premières vacances depuis la fusion. Peter Thiel reprend les rênes. La compagnie entre en Bourse en 2002, et est rachetée la même année par eBay pour 1,5 milliards de dollars. Musk perçoit plus de 150 millions dans la transaction. Malgré l’audience du web qui explose et les transactions marchandes en ligne qui prennent de l’ampleur, les médias, qui génèrent l’essentiel du trafic, peinent à trouver des revenus. Le volume ne parvient pas à compenser la très faible valeur des emplacements publicitaires, en particulier comparée à la télévision. Une publicité en ligne est perçue comme peu valorisante pour l’image de marque des annonceurs ; leur impact est difficile à mesurer ; à l’instar du commerce, le marché publicitaire en ligne représente en 1997 une fraction de pour-cent.

L’arrivée des cookies

Un détail technique va changer la donne. Il porte le nom inoffensif de cookie. Le cookie est un petit fichier de mémoire, stocké par le navigateur sur l’ordinateur de l’utilisateur, qui ne peut être lu que par le service web qui l’a écrit. Le navigateur transmet le cookie chaque fois qu’une nouvelle connexion est établie avec le service, permettant de créer une relation de longue durée, et privée, entre le service et l’utilisateur. Par exemple, les cookies permettent de maintenir une session ouverte, donc que d’une page à l’autre, l’utilisateur n’ait pas à réintroduire ses identifiants, ou encore que le contenu d’un panier ne disparaisse pas. Le cookie est d’abord développé en 1994 au sein du navigateur Netscape. Trois ans plus tard, une spécification de l’Internet Engineering Task Force (IETF), l’organisme chargé de faire émerger les standards qui composent la suite des protocoles internet, met en garde contre le risque en termes de vie privée de certains types de cookies.

Ces cookies, dits cookies tiers ou third party, sont un cas d’utilisation qui n’avait pas été prévu à leur création – ce que l’industrie appelle, dans la continuité culturelle de l’année 1984, un hack. Les cookies tiers consistent en script hébergé sur le site que visite l’utilisateur, qui s’exécute dans le navigateur, créant une communication invisible avec l’entreprise tierce qui a écrit le code. Il peut y avoir de nombreuses raisons d’intégrer des cookies tiers: ils permettent à des entreprises partenaires de tracer le comportement des visiteurs, et ainsi d’aider à analyser un site web, optimiser son design et ses performances, détecter des bugs, ou… améliorer la publicité en ligne. L’IETF met en garde contre les risques en termes de vie privée pour les internautes : les cookies – tiers permettraient théoriquement à certaines entreprises d’avoir accès à l’activité des internautes sur un grand nombre de sites web, à leur insu. Le cookie est précisément l’un de ces bouts de code au sein desquels se cachent les nouvelles lois invisibles à la majorité des internautes aliénés à la technique.

Cette nouvelle loi révoque tacitement le droit à l’anonymat sur Internet : les cookies permettent de réconcilier facilement les différentes identités endossées par un même utilisateur sur différents sites. L’organisation préconise donc que les navigateurs interdisent nativement les cookies tiers. Pourtant, les deux entreprises qui éditent les navigateurs dominants de l’époque, Netscape de Marc Andreessen et Microsoft de Bill Gates, font la sourde oreille. La mise en garde disparaît de la nouvelle spécification publiée en octobre 2000. En particulier, les cookies vont permettre aux identités de persister entre les trois acteurs du modèle publicitaire: les plateformes technologiques vont être capables d’identifier les mêmes utilisateurs lorsqu’ils visitent le site d’un média ou d’un annonceur. Avant que le traçage des données permette aux publicitaires de prédire le comportement des consommateurs et de générer de la publicité ciblée, les cookies vont révolutionner la mesure de l’efficacité publicitaire. Internet invente la publicité à la performance.

Jusqu’à présent, la publicité était un levier de masse pour les marques et les publicitaires. Des données démographiques et des sondages permettaient d’évaluer l’audience d’un spot publicitaire dans un magazine ou sur une chaîne de télévision. Un spot publicitaire pendant le Superbowl était réservé aux entreprises les plus puissantes. L’impact sur les ventes ne pouvait qu’être grossièrement estimé. Sur Internet, les cookies permettent de savoir si un achat a été influencé par une publicité précise, si une publicité a été suivie d’une visite chez l’annonceur, voire d’un achat. Le jeu se perfectionne alors : les scripts installés par les plateformes publicitaires aussi bien chez leurs clients (les annonceurs) que chez leurs fournisseurs (les médias) captent de plus en plus d’information. Convenablement exploitées, les données d’activité de l’internaute permettent de prédire ses affinités, que ce soit côté marchand (caractéristiques des produits vus et mis au panier) ou côté média (centre d’intérêt, affinités politiques, comportement en ligne…). Nourris de ces données personnelles, les algorithmes sont alors capables de prédire, pour chaque utilisateur, sur chaque emplacement publicitaire et à chaque instant, la probabilité que l’affichage d’une bannière mène à un clic, voire à l’achat du produit mis en exergue.

Chaque fois qu’un utilisateur se présente sur le site d’un média, une mise aux enchères est organisée en quelques millisecondes : le publicitaire le plus offrant décide de ce qui s’affichera sous les yeux de l’internaute. Les annonceurs paient plus cher pour des publicités mieux ciblées. Les médias, eux, maximisent donc la valeur de leur audience à chaque visite. Tout le monde gagne à cette mise en commun de la donnée. Y compris les utilisateurs : alors que le web des premières années est inondé de publicités qui ouvrent des fenêtres pour des services déconcertants jusque dans les recoins les plus saugrenus de l’écran, la valorisation à la performance permet de montrer des publicités mieux ciblées et moins intrusives.

D’un point de vue strictement économique, le système semble vertueux : il met sur un pied d’égalité les mastodontes de la consommation et des petits annonceurs, ces derniers pouvant désormais contrôler leurs investissements marketing. De nouveaux acteurs marchands apparaissent, des pure players (dont l’activité ne s’exerce que dans l’univers dématérialisé du web), qui viennent concurrencer les distributeurs traditionnels. De tout petits médias peuvent eux aussi trouver des lignes de revenu, de nouvelles voix se font entendre. Durant presque vingt ans, les cookies tiers vont se multiplier sans qu’aucune remise en question ne vienne peser sur eux. Ils deviendront la clé de voûte du système économique sur lequel se repose une grande majorité des acteurs du web.

Don’t be evil

Parmi les entreprises de cette nouvelle vague publicitaire générée par les bourrasques violentes de l’année 2000 figure l’icône Google. Google existe depuis deux ans. Il naît du projet de recherche de deux doctorants à l’université de Stanford, Larry Page et Sergey Brin. Contrairement aux moteurs de recherche de l’époque qui se contentent d’indexer les sites web indépendamment les uns des autres à la recherche de mots clés, l’algorithme de Google se déploie en parfaite symbiose avec la philosophie du World Wide Web : il analyse les relations entre sites web, c’est-à-dire les liens hypertexte qui le connectent. Google s’attelle à la tâche monumentale de hiérarchiser l’information à travers le web, et l’écosystème lui sait gré de ce travail de titan: le moteur de recherche supplante tous ses concurrents; les plus prestigieux fonds d’investissement investissent dans Google. À l’époque, Google a plusieurs modèles de revenus. La régie publicitaire Adwords en fait partie mais est alors très minoritaire. Le fonctionnement d’Adwords est assez franc: chaque annonceur peut participer à une enchère pour acquérir un mot spécifique, par exemple dog (chien). S’il gagne, la prochaine fois qu’un utilisateur recherchera le mot dog, il verra apparaître au-dessus de ses résultats de recherche une publicité pour la dogfood (nourriture pour chiens) de l’annonceur.

Google vend aussi des licences pour faire tourner ses modèles au sein des systèmes d’information privés de larges organisations, une offre que n’aurait pas refusée le CERN de Tim Berners-Lee. À l’orée du nouveau millénaire, ce modèle est celui que privilégient ses fondateurs. La devise Don’t be evil («ne sois pas malfaisant»), qui deviendra le code de conduite officiel de l’entreprise, serait née à cette époque. Page et Brin, les fondateurs de Google, font publiquement part de leur sentiment que le mal, evil, ce pourrait bien être la publicité. Dans un papier de recherche, ils soutiennent qu’un moteur de recherche financé par la publicité en viendra tôt ou tard à prioriser les besoins des annonceurs face à ceux des consommateurs. Cette profession de foi ne résiste guère au cataclysme de mars 2000. Alors que les valeurs des stocks technologiques s’effondrent, les sources de financement dans la vallée, qui jusqu’alors semblaient inépuisables, tarissent subitement. Google est né sous les meilleurs auspices : Jeff Bezos, le jeune fondateur d’Amazon, est l’un des trois premiers business-angels à investir dans la startup ; moins d’un an s’écoule avant qu’il soit rejoint par les plus prestigieux fonds de capital-risque de la Vallée. Depuis sa naissance, le gourmand algorithme de Google siphonne les fonds injectés par les fonds de capital-risque – c’est le jeu du capital-risque – sans que personne ne mette en doute la pertinence des algorithmes de Google, qui surclassent la concurrence. Mais en cette période de défiance généralisée, plus personne ne veut risquer le moindre investissement dans une entreprise dont l’horizon de profitabilité est encore flou. Chez Google, c’est l’état d’urgence : il ne reste que quelques mois pour lever des fonds ou l’entreprise fera banqueroute, et pour lever des fonds, il faut réinventer la mécanique financière de l’entreprise. Eric Schmidt entre en jeu.

Poussé à prendre les rênes de l’entreprise par les investisseurs historiques de la firme de Mountain View, l’expérimenté manager orchestre le changement de paradigme qui fait d’Adwords la main de Midas des temps modernes. Ce changement est infinitésimal : à peine une règle du jeu de modifiée ; à peine une loi interne, qui régit la mise aux enchères des mots-clés. Auparavant, qui annonçait la plus forte mise gagnait l’enchère, donc le droit d’afficher un résultat de recherche sponsorisé. Google était payé lorsque (et si) l’internaute cliquait sur la publicité. Désormais, l’enchère est accordée non à l’annonceur le plus offrant, mais à celui dont l’enchère pondérée par la probabilité que l’utilisateur clique sur la publicité est la plus élevée. C’est-à-dire que pour deux enchères égales par ailleurs, Google montrera à l’internaute celle qui a le plus de chances de lui plaire. Cette différence maximise l’espérance de revenu pour chaque publicité montrée par Google; elle augmente aussi le retour sur investissement des annonceurs. Quant aux utilisateurs, ils sont désormais exposés à des publicités plus pertinentes. Il y a encore une conséquence plus profonde. Beaucoup plus profonde.

Pour être capable d’estimer cette probabilité de clic de l’utilisateur, Google doit être capable de prédire ses comportements, ce qui signifie accumuler les données personnelles en vue d’en nourrir ses algorithmes. À cette époque, Google occupe déjà une position de domination presque absolue sur les moteurs de recherche ; le système de surveillance qu’il met ainsi en place s’exerce donc déjà quasiment à l’échelle de la société. Google a découvert le nouvel or noir du cyberespace, la donnée comportementale. Contrairement aux puits de pétrole, propriétés communes pour lesquelles les entreprises pétrolières se voient accorder sous conditions une concession de recherche et d’exploitation, aucune autorité territoriale souveraine ne semble être consciente des forages en cours dans le cyberespace. D’un point de vue technologique, ce nouveau paradigme demande à Google de revisiter profondément ses services. En 2003, Google lance sa régie publicitaire AdSense, qui permet aux médias de mettre aux enchères leur espace publicitaire à travers Google. Deux ans plus tard, l’acquisition de Urchin Software Corp. donne naissance à Google Analytics, un service gratuit qui permet à n’importe quel site d’utiliser le service pour analyser son propre trafic. Pour faire fonctionner AdSense ou Analytics, le propriétaire d’un site web doit installer les scripts ou trackers créés par Google. Tous les visiteurs des sites clients du réseau Google se voient donc poser un cookie-tiers Google. En 2018, on estime que les scripts de Google sont déployés sur 76 % des sites web dans le monde ; c’est donc 76 % du trafic mondial que Google est capable de surveiller. L’état d’urgence instauré par Google en 2000 est devenu l’état permanent qui régit encore internet vingt ans après. Cette transformation était-elle inévitable ?

Dans le contexte de cette crise financière si intimement liée au manifeste libertarien Cyberspace and the American Dream, peut-être. Néanmoins, des moteurs de recherche concurrents ont par la suite su se créer et survivre en gardant un modèle économique publicitaire réduit aux enchères sans prédiction comportementale. La forme que revêt une technologie est indissociable des conditions économiques et idéologiques qui président à son apparition. Et si Google s’est trouvé sur la trajectoire de collision de l’idéologie libertarienne, son héritage techno-utopiste va aussi se révéler par d’autres traits. Pour les idéalistes Brin et Page, le tournant publicitaire de Google – et la prise de pouvoir d’Eric Schmidt – est une désillusion dont ils se rattrapent en prenant les rênes de Google X. Google X est la moonshot factory («fabrique à envoyer des fusées sur la lune») de Google, un laboratoire secret dont naîtront les lunettes de réalité augmentée Google Glass (2013), les voitures autonomes Waymo (2016), le réseau internet Loom (2018) distribué à travers des ballons (qui arrêtent leur ascension à la stratosphère, bien avant la Lune). Google utilise aussi son propre fonds d’investissement pour se diversifier et soutenir massivement les initiatives transhumanistes. En 2012, Ray Kurzweil, fondateur de la Singularity University, l’un des plus éminents penseurs transhumanistes rejoint Google. Dans les années suivantes, Google intensifie ses efforts de recherche dans une informatique quantique qui pourrait accélérer la marche vers le point de singularité technologique. En 2013, la succursale Calico se donne pour objectif ultime d’éradiquer la mort. Parmi les mille entreprises de la grande famille Google – renommée à partir de 2015 Alphabet, Google restant le nom de l’ensemble des entreprises incluses dans l’industrie des médias – fort peu visent à asseoir plus encore l’empire financier basé à Mountain View. Les autres, quoi qu’il en coûte, travaillent à faire advenir le futur espéré par les fondateurs Larry et Sergei. La déclaration fiscale d’Alphabet montre qu’en 2019, 82 % de ses revenus sont toujours basés sur la publicité, ce mal temporaire que Google a concédé face à la crise. Don’t be evil, répètent pourtant sans fin Larry et Sergei. Peut-être ajoutent-ils tout bas : à moins que la fin ne justifie les moyens.

Notes :

1 : Les lignes suivantes sont issues de son ouvrage.

Les GAFAM ne seront pas démantelés

© Aymeric Chouquet pour LVSL

Depuis son investiture, Joe Biden multiplie les clins d’oeil à l’égard des géants de la tech. L’époque où les médias français se réjouissaient d’un possible démantèlement des GAFAM par la justice américaine semble lointaine. La déclaration de guerre de la procureure démocrate Letitia James à l’encontre de Facebook, en décembre dernier, a fait long feu. Elle affichait pourtant une détermination sans faille : l’entreprise monopolistique de Mark Zuckerberg devait tomber sous le coup des lois anti-concentration. S’il n’est pas à exclure qu’une série de régulations soit finalement imposée aux créatures de la Silicon Valley, elles ne mettront pas en cause leur situation de monopole sur le marché global. Celle-ci confère aux États-Unis un ascendant auquel ils ne sont pas prêts de renoncer – et pour le maintien duquel ils mènent d’ores et déjà une guerre judiciaire féroce. Dans ce contexte, quoi de mieux qu’une belle opération de communication destinée à créer un vent de sympathie mondial en faveur de la justice américaine ? La lutte apparente entre les procureurs américains et les GAFAM semble partie intégrante de celle-ci.

Suite à la plainte de quarante-huit États fédérés contre Facebook, accusé d’être en situation de monopole, la procureure démocrate Letitia James a porté en décembre 2019 la procédure au niveau fédéral. 

Cela faisait plusieurs mois que le réseau social de Mark Zuckerberg était dans le collimateur du Parti démocrate ; deux mois plus tôt, un rapport parlementaire recommandait le démantèlement des principaux GAFAM, tandis que des enquêtes d’opinion indiquaient que la majorité des Américains serait favorable à une telle mesure.

De la Commission européenne à la justice américaine : « Offensive générale » contre les GAFAM ?

La procureure Letitia James est elle-même une critique de longue date du monopole qu’exercent les géants de la tech sur l’économie américaine. « Cela fait près d’une décennie que Facebook utilise son pouvoir de monopole pour écraser ses rivaux et éliminer la compétition », a-t-elle déclaré lors d’une conférence de presse visionnée des centaines de milliers de fois sur YouTube (et ironiquement mise en avant par la plateforme, sous la forme de recommandation aux utilisateurs, par le hasard des algorithmes ou un modérateur taquin).

En Europe, cette décision a bénéficié d’une couverture médiatique résolument favorable. Il est vrai que la Commission européenne bataillait depuis plusieurs années pour lutter contre la situation de monopole des géants américains. La commissaire à la concurrence en pointe dans ce combat, Margrethe Vestager, n’avait obtenu que de bien maigres résultats ; un tel renfort venu d’outre-Atlantique était bienvenu.

Le secteur des technologies de la communication et de l’information, aux États-Unis, est intimement lié au complexe militaro-industriel. Non seulement le premier est partiellement le sous-produit du second, mais ils possèdent un rôle analogue comme instruments géopolitiques de la puissance américaine.

Les GAFAM, pris en étau entre la législation concurrentielle de la Commission en Europe, et la plainte de Letitia James aux États-Unis ? « Offensive générale contre les GAFA », conclut un article de Konbini.

L’ex-commissaire européenne à la concurrence, Margrethe Vestager, érigée au rang de « personnalité de l’année » par le Point en 2019. Cette égérie médiatique n’a en réalité remporté aucun succès notable contre l’hégémonie des GAFAM.

Deux mois après le commencement de cette croisade du Parti démocrate contre les GAFAM, Joe Biden était investi président. Certains mauvais esprits faisaient alors observer que les géants de la tech, loin de craindre cet instant, avaient manifestement misé sur son élection. Si parmi les « grands donateurs » en faveur de Donald Trump on ne trouve guère que Peter Thiel, le fondateur de PayPal, Joe Biden a bénéficié du soutien d’une myriade de « poids lourds » de la Silicon Valley – Eric Schmidt, l’ancien PDG de Google, aux côtés de Reed Hastings, le fondateur de Netflix, ou encore Dustin Moskowitz, l’un des pionniers de Facebook. 

Pour une analyse de la composition de l’administration Biden, lire sur LVSL l’article de Politicoboy : « Administration Biden : le retour du statu quo néolibéral »

La nomination de Kamala Harris ne sonnait pas non plus comme une fin de règne pour les GAFAM. Il faut dire que son bilan comme procureure générale de Californie (2011-2017) ne témoigne pas d’une hostilité foncière, de sa part, à l’égard des big tech. Elle avait au contraire signé de nombreux contrats avec Palantir, l’entreprise de data-analyse proche des services secrets, lui confiant notamment la charge d’améliorer les techniques de répression prédictive de la police1.

Le positionnement de Joe Biden et de Kamala Harris à l’égard de la question du démantèlement des GAFAM est pourtant déterminant, car le Department of Justice (DOJ), à partir duquel une telle décision peut être impulsée, dépend directement de l’exécutif… 

Au-delà du seul Parti démocrate, dont la proximité historique avec la Silicon Valley est bien connue, il faut prendre en compte le contexte géopolitique propre à la décennie qui vient. Les implications de celui-ci sont, pour une bonne part, bipartisanes. Et s’il y a bien un constat que Parti républicain et Parti démocrate partagent, c’est celui de la montée en puissance de la Chine, et du danger croissant qu’elle exerce sur la suprématie numérique des États-Unis parvenue à son zénith. Bipartisan fut en conséquence le vote du Cloud Act en 2018, qui permet aux États-Unis d’espionner légalement l’ensemble des acteurs économiques ou politiques qui stockeraient leurs données sur un serveur américain.

Face à cette logique de puissance, visant à réaffirmer la prééminence des géants américains de la tech, que pèse leur violation des règles de la concurrence – qu’au demeurant personne n’avait attendu l’année 2020 pour constater ? On voit ici qu’une approche juridique de la question du démantèlement des GAFAM est inopérante, sans prise en compte de leur fonction géopolitique.

La Silicon Valley, département numérique du complexe militaro-industriel – d’In-Q-Tel à SWIFT

Le secteur des technologies de la communication et de l’information, aux États-Unis, est intimement lié au complexe militaro-industriel. Non seulement le premier est partiellement le sous-produit du second, mais ils possèdent un rôle analogue comme instruments géopolitiques de la puissance américaine. Cette double proximité a conduit certains chercheurs à forger le concept de « complexe industrialo-informationnel » (information-industrial complex).2

Pour une mise en contexte de l’émergence des géants de la Silicon Valley, lire sur LVSL l’article d’Eugène Favier-Baron : « Que cache la défense de l’internet libre ? »

Cette intrication remonte aux années 1990. Le candidat Bill Clinton, dans un contexte post-Guerre froide, avait pour agenda la réduction du budget militaire des États-Unis, visant à réallouer ces fonds au secteur de l’information et de la communication. Une fois élu, il procéda à ce réagencement des subventions étatiques. La frontière entre le secteur de la défense et celui de l’information et de la communication demeurait bien sûr des plus poreuses.

L’agence In-Q-Tel, créée en 1999 afin de fournir la CIA en technologies de pointe, est le symptôme le plus manifeste de cette hybridation. Dotée d’un budget d’une cinquantaine de millions de dollars, elle était destinée à financer les entreprises prometteuses dans le secteur numérique émergeant. Les actuels « géants » sont nombreux à avoir bénéficié des fonds d’In-Q-Tel. Ce fut le cas de Facebook, mais aussi de Google, ou encore de Keyhole, entreprise rachetée par Google et renommée Google Earth.

In-Q-Tel avait un triple objectif : la protection des informations des Américains (information security), la promotion de l’usage d’internet à échelle globale, ainsi que le perfectionnement des techniques permettant de capter, de fusionner et d’agréger un nombre croissant de données (data fusion and integration) collectées dans le monde entier.3 La connexion comme moyen de permettre aux flux américains de pénétrer l’ensemble des territoires, la cartographie du monde comme précondition à une captation de masse des données par la Silicon Valley : la doctrine des États-Unis en la matière n’a pas varié. Les entreprises privées, financées par l’État, en ont été l’instrument.

Le logo d’In-Q-Tel

Tout a par la suite concouru à l’expansion de ce complexe industrialo-informationnel : la marchandisation des données encouragée par le développement des réseaux sociaux, le raffinement des technologies destinées à les capter, ou encore l’agenda sécuritaire initié par le 11 septembre. Rares sont les sujets pour lesquels un consensus bipartisan s’est dégagé aussi nettement. L’impératif de transition numérique des cinq continents, sous l’égide de la Silicon Valley, a été réaffirmé par l’ensemble des administrations démocrates et républicaines – qu’il s’agisse de promouvoir la liberté de connexion dans le monde entier pour les uns (la doctrine Freedom to connect défendue par Hillary Clinton) ou de protéger le monde de la menace terroriste pour les autres (la guerre contre le terrorisme de George Bush comportant un important volet digital).

La place prépondérante qu’occupent désormais les entreprises américaines dans le contrôle des stocks (serveurs, infrastructures de connexion) et la production des flux numériques confère aux États-Unis un avantage géopolitique sans pareil.

Prendre des mesures contre Facebook constituerait une habile opération de communication en direction du reste du monde, à l’heure où les États-Unis appellent l’ensemble du globe à faire bloc face à la Chine.

Le contrôle des stocks permet aux États-Unis d’avoir accès à une masse inquantifiable de données. Toutes celles qui sont hébergées sur un secteur américain sont de facto accessibles au gouvernement et à la justice nord-américaine.4 Le scandale SWIFT en a été l’un des révélateurs. De cette capacité sans pareil d’accès aux données d’entreprises étrangères, couplée au caractère extra-territorial du droit américain, découlent des bénéfices considérables en termes d’intelligence économique. Le rachat d’Alstom par General Electrics en témoigne : Frédéric Pierruci, l’ex-numéro deux d’Alstom, a été condamné par la justice américaine sur la base de messages hébergés par Google mail, auxquels le FBI a pu avoir accès. Plus récemment, c’est le marché européen de la santé qui semble être dans le collimateur des GAFAM ; ils comptent tirer avantage de leur capacité d’hébergement des données pour en prendre le contrôle. La volonté de Microsoft d’héberger les données de santé françaises apparaît comme un signal faible de cet agenda…

Lire sur LVSL la synthèse réalisée par Eugène Favier-Baron, Victor Woillet, Sofiane Devillers Guendouze et Yannick Malot sur le système SWIFT, et celle rédigée par Audrey Boulard, Simon Woillet et Eugène Favier-Baron sur l’agenda de Microsoft quant aux données de santé françaises.

La régulation des flux numériques par des algorithmes majoritairement américains offre quant à elle d’indéniables avantages en termes de softpower. Il suffit, pour s’en convaincre, de songer aux déclarations d’Eric Schmidt, l’un des hiérarques de Google, affirmant en 2018 qu’il « travaillait au déréférencement » des sites de propagande russes…

Et quand le contenu d’un réseau social ne penche pas spontanément en faveur des États-Unis, il arrive à ceux-ci de requérir une régulation légale qui se superpose à la régulation algorithmique préexistante.5

La prise en compte des avantages géopolitiques que confèrent les GAFAM aux États-Unis permet de prendre la mesure des forces qui s’opposeraient aux tentatives de démantèlement. Si l’une d’entre elles aboutit, on peut être certains qu’elle n’aura pas pour conséquence l’apparition d’un marché numérique concurrentiel, mais simplement le réagencement de la structure oligopolistique qui domine aujourd’hui, et qui soutient la puissance américaine.

Clayman Act et Sherman Act : Mark Zuckerberg subira-t-il le destin de John D. Rockefeller ?

La référence aux lois anti-trust du XIXème siècle, mobilisée par nombre de médias américains, est à cet égard éclairante. La plainte déposée par la procureure Letitia James se fonde sur le Clayton Act et le Sherman Act (1890). Ces deux lois anti-concentration avaient permis au président Theodor Roosevelt de briser le monopole pétrolier du milliardaire John D. Rockefeller. Son entreprise, la Standard Oil Company, avait été démantelée en 1911 sur cette base légale.

Titre d’un article des Échos (février 2018), reprenant un leitmotiv des médias américains.

La référence au Clayton Act et au Sherman Act, dans ce contexte, est donc claire : il s’agirait de mettre à mal la position monopolistique d’Amazon et de Facebook comme on avait mis fin à celle de la Standard Oil Company. Cette analogie sonne comme un aveu d’impuissance – ou, selon les points de vue, comme une proclamation de puissance. 

Le Sherman Act et le Clayton Act n’ont en effet permis le démantèlement de la Standard Oil company que pour donner naissance à un gigantesque oligopole pétrolier. Le moins que l’on puisse dire est que les majors pétroliers américains (Exxon, Texaco, Chevron, Mobil…), nés des entrailles de ces lois anti-concentration, ont continué à dominer l’économie américaine, ainsi que le marché pétrolier mondial. Les avantages géopolitiques que les États-Unis ont retiré, durant tout le XXème siècle, de leur prééminence sur l’or noir, ne sont plus à établir.

De la même manière que le Sherman Act et le Clayton Act n’ont aucunement menacé la domination américaine sur le marché pétrolier global, on peut être certain que les éventuelles mesures anti-concentration qui seraient prises dans le domaine de la big tech ne mettraient pas en danger la suprématie des États-Unis sur le marché des données. 

Plusieurs responsables démocrates ont par exemple évoqué la perspective d’une scission entre Facebook et Instagram. Aussi dommageable que puisse devenir celle-ci pour les profits immédiats de l’entreprise de Mark Zuckerberg (qui perdra peut-être deux ou trois rangs dans le classement des plus grandes fortunes mondiales), on admettra qu’une telle décision ne risquerait pas de mettre en cause la domination des Américains sur le marché des données.

Cette nouvelle primauté permet à la Chine de réclamer à cor et à cri un rééquilibrage de l’ordre juridique global dans le domaine des télécommunications et du numérique.

Elle permettrait au Parti démocrate de refaire peau neuve à peu de frais, fournissant un exutoire à la défiance populaire envers Facebook, et envoyant un signal positif au reste du monde – celle d’une puissance capable de se réformer. Une opération de communication qui ne serait pas inutile, à l’heure où les États-Unis appellent l’ensemble du globe à faire bloc face à la Chine.

GAFAM contre BATX : la guerre pour le contrôle des organisations judiciaires internationales

La domination des États-Unis sur le marché mondial des données pourrait difficilement être plus absolue. Parvenue à son apogée, elle est à présent mise en danger par l’éveil de la Chine. L’empire du milieu escompte en effet briser cette prédominance, et lancer à l’assaut de la citadelle des GAFAM ses propres champions, les BATX [sigle désignant les géants chinois : Baidu, Alibaba, Tencet et Xiamoi ndlr]. Les succès commerciaux de Huaweï, l’avance prise par la Chine sur la 5G, ne sont que la pointe avancée d’une réussite croissante dans la poursuite de cet agenda. Il faudrait également mentionner l’expansion des entreprises de télécommunications chinoises dans les pays du Sud, destinées à les doter d’infrastructures facilitant la connexion à internet – moyennant le stockage de leurs données sur des serveurs chinois.

Pour une analyse des rivalités sino-américaines dans le domaine du numérique, lire sur LVSL l’article de Sarah Vennen : « Cyber-colonialisme : comment le régime de surveillance chinois s’impose au Zimbabwe ».

Un an avant le Cloud Act américain, une loi sur la cyber-sécurité était votée en Chine, contraignant les entreprises à transférer leur stock de données au gouvernement lorsque celui-ci l’exigeait – une manne qui croîtra tant que s’étendra le réseau chinois de télécommunications et de serveurs. 

C’est dans le domaine des brevets et des régulations juridiques internationales que la Chine déploie une agressivité maximale. Longtemps dépendante de brevets américains, pour l’acquisition desquels elle a payé le prix fort, la Chine occupe désormais une position confortable en la matière. Huaweï concurrence à présent les GAFAM comme détenteur de brevets et percepteur de redevances. Cette nouvelle primauté permet à la Chine de réclamer à cor et à cri un rééquilibrage de l’ordre juridique global dans le domaine des télécommunications et du numérique. L’International Union of Telecomunications (ITU) et l’Internet Corporation for Assigned Names and Numbers (ICANN, qui alloue les noms de domaines aux sites internet) ont historiquement été dominés par les États-Unis. La Chine est à présent en mesure de contester cet état de fait. Les États-Unis devront déployer un argumentaire juridique pour contenir la progression de l’empire du milieu, et il est à prévoir que le Department of Justice recourt à de nouvelles sanctions contre les géants chinois dans les prochaines années. 

Cet agenda de judiciarisation agressive sera d’autant mieux reçu que les États-Unis seront capables de montrer patte blanche et de procéder à une auto-critique à la face du monde. C’est à la lueur de cet état de fait que l’on peut interpréter la promotion médiatique de la campagne de Letitia James contre Facebook, et les critiques adressées par les démocrates aux GAFAM. Il s’agit de restaurer un softpower abîmé par les quatre années de la présidence de Donald Trump, en donnant des gages à une opinion mondiale inquiète de la croissance sans fin des géants transcontinentaux du numérique. Son blason redoré, le Department of Justice pourra revenir à la charge et faire barrage à la progression chinoise, quitte à sacrifier une fraction de la fortune personnelle de l’un ou l’autre des géants de la tech.

Pour une analyse de la lutte entre la Chine et les États-Unis visant à contrôler les institutions juridiques internationales qui régulent le numérique, lire sur LVSL la recension effectuée par Bérenger Massard de l’ouvrage de M. Powers et S. Jablonsky, The real cyber war.

Une séparation entre Facebook et Instagram ferait sans aucun doute la « Une » des médias européens. Elle susciterait une opposition acharnée de la part de leur PDG et un affrontement féroce avec les procureurs en charge de l’affaire, qui mettraient en avant la protection des données personnelles et la lutte contre les monopoles. Grandie, la justice américaine pourrait alors pointer du doigt la puissance chinoise et rallier ses alliés traditionnels dans sa lutte pour conserver sa prédominance.

Une aubaine pour les commissaires européens ? Ceux-ci se trouvent dans une bien fâcheuse posture. D’un côté, ils refusent d’engager une politique ambitieuse pour construire la souveraineté de l’Europe en matière numérique6. De l’autre, ils souhaitent réguler les géants américains en les soumettant aux normes européennes de concurrence et de protection des données – c’est le sens du RGPD ou, plus récemment du Digital Market Act. En somme, un internet américain soumis – bien docilement – à la législation européenne : comment ne pas esquisser un sourire ?

Des mesures symboliques fortes prises par la justice américaine contre Facebook – en matière de lutte contre les monopoles ou de protection des données – permettraient à la Commission de se dépêtrer de cette situation embarrassante. Si le Department of Justice exécute ce qu’elle est incapable d’imposer, quel besoin de s’inquiéter de la domination numérique des États-Unis en Europe ?

Une aubaine pour Emmanuel Macron ? Il pourrait se reposer sur la Commission européenne, la tête haute, de la même manière que la Commission se reposerait sur la justice américaine. Ainsi, la question de la souveraineté numérique française cesserait même d’être posée. Les critiques de la domination d’outre-Atlantique se verraient marginalisées ; faut-il déployer un anti-américanisme primaire pour se plaindre de la tutelle des États-Unis sur le numérique, alors même que ceux-ci déploient des trésors d’inventivité pour le réguler et défendre la vie privée des utilisateurs !

Par bien des aspects, l’agenda de régulation des GAFAM par le Parti démocrate apparaît comme une énième manoeuvre de séduction à l’égard des élites européennes. Un moyen de présenter à la face du monde une Amérique libérale, progressiste, capable d’auto-critique, à même de conjurer les velléités indépendantistes du vieux continent. Une cuiller de miel destinée à faire avaler de nouveaux litres d’huile de ricin.

Notes :

1 Olivier Tesquet, État d’urgence technologique – comment l’économie de la surveillance tire partie de la pandémie, Premier parallèle, 2020.

2 Shaun Powers et Michael Jablonski, The real cyber war, University of Illinois Press, 2015.

3 Ibid.

4 Le Cloud Act, voté par le Congrès en 2017, permet désormais l’accès du gouvernement à n’importe quelle donnée hébergée sur un serveur américain. Il ne s’agit que de la légalisation d’une pratique largement répandue auparavant, comme en attestent les révélations d’Edward Snowden.

5 Il apparaît douteux que les multiples lois votées par le Congrès américain – et directives édictées par la Commission européenne – visant à lutter contre les fake news n’aient pas été partiellement motivées par la volonté de re-réguler les réseaux sociaux dans un sens plus favorable aux États-Unis, et moins à la Russie.

6 Ce n’est qu’en 2020 que la Commission européenne a commencé à employer le terme de « souveraineté numérique », dans sa « stratégie pour une Europe adaptée à l’ère du numérique ».