Nick Srniček : « On peut imaginer un agenda radical en matière de nouvelles technologies »

Nick Srniček - Le Vent Se Lève

Peut-on imaginer un agenda radical en matière de nouvelles technologies ? C’est là la ligne de fond du travail de Nick Srniček, co-auteur en 2013 du Manifeste accélérationniste, pamphlet qui avait secoué la gauche radicale, aujourd’hui senior lecturer au King’s College London, essayiste, et l’un des plus fins connaisseurs du capitalisme numérique. Entre économie politique de l’IA, stratégie politique et fin du travail domestique, il renouvelle la critique des technologies numériques et œuvre à formuler un agenda émancipateur. Entretien par Maud Barret Bertelloni.

En 2013, deux doctorants londoniens secouaient la gauche radicale en publiant le Manifeste accélérationniste, texte dans lequel ils incitaient la gauche à sortir de l’impasse politique et écologique en se réappropriant les technologies et les formes d’organisation capitalistes à des fins d’émancipation. Accusés de techno-utopisme par leurs détracteurs, qui lisaient dans le Manifeste une invitation à accélérer le techno-capitalisme global pour en provoquer l’effondrement ; attaqués par les partisans de la décroissance qui ne voyaient dans leur proposition qu’une énième variante du productivisme, Nick Snriček et Alex Williams défendaient que c’est précisément à l’échelle du capitalisme que ce dernier peut être dépassé. Sortant de son passéisme et de son refus des techniques et des organisations, la gauche peut réorienter l’infrastructure matérielle du capitalisme, se réapproprier le progrès scientifique et technologique et doit penser la stratégie et les institutions pour ce faire.

Dix ans après le Manifeste, Nick Srniček compte parmi les plus fins économistes politiques du capitalisme numérique. Capitalisme de plateforme, publié en 2017, conceptualisait les plateformes comme les nouvelles formes d’organisation du capitalisme dont la singularité tient aux moyens sociotechniques d’intermédiation par le biais des données. Par-delà les promesses de l’économie numérique, il insérait ce modèle dans la longue histoire du capitalisme post-fordiste. Il travaille aujourd’hui sur l’économie politique de l’intelligence artificielle et, loin des discours imprégnés de craintes et de promesses, en avance une critique qui souligne l’importance du travail et des infrastructures dans la production de l’IA et en illustre les implications géopolitiques.

Son dernier ouvrage, écrit avec la théoricienne féministe Helen Hester, After Work : A History of the Home and the Fight for Free Time, porte sur les technologies domestiques et leur fausse promesse de libérer du temps de travail. Si, au fil des innovations, la charge de travail domestique n’a pas diminué, c’est qu’il faut interroger la culture domestique et parvenir à transformer l’organisation matérielle de la vie quotidienne. Des plateformes aux technologies domestiques, de l’IA à ses infrastructures, Nick Srniček renouvelle la critique des techniques et œuvre à formuler un agenda émancipateur.

Entretien originellement publié sur AOC média.

LVSL – Après le Manifeste accélérationniste et Inventing the future (Verso, 2015), deux essais politiques et programmatiques sur l’avenir de la gauche, les technologies et la fin du travail, vous avez recentré vos recherches sur l’économie politique du numérique, du capitalisme de plateforme à l’industrie de l’IA. Quel fil relie ces différents travaux ?

N. S. – L’économie politique est arrivée dans mon travail en même temps que le Manifeste. Je m’occupais auparavant de philosophie et j’aurais pu rester un deleuzien si la crise de 2008 n’était pas arrivée. Mais tous les théoriciens critiques que je lisais n’avaient rien à dire de pertinent sur la crise financière, la plus grande crise du capitalisme global depuis la Grande Dépression. C’est alors que je me suis tourné vers l’économie politique. Le Manifeste a eu la même genèse : il est né de la frustration qu’Alex Williams et moi ressentions à l’égard de la gauche de l’époque, incarnée notamment par le mouvement Occupy Wall Street, né en réponse à la crise financière.

Son horizontalisme à tout prix, sa démocratie directe à tout prix, sa peur farouche de tout leadership, tous ces éléments nous semblaient absolument contre-productifs pour la construction d’un mouvement de gauche efficace. Les arguments du Manifeste n’étaient en fait que les réponses aux questions : que devrait faire la gauche ? Quelle est l’alternative à la situation actuelle ? Devrions-nous affirmer de grandes revendications ? Y compris sur la question technologique.

Le discours qui entoure les technologies est aujourd’hui imprégné de craintes au sujet des IA génératives. Dans les années autour de 2008, les craintes se concentraient autour de l’automatisation et de la surveillance. Notre position consistait alors à dire que les technologies ne doivent pas être craintes : elles peuvent souvent être réappropriées et constituer des opportunités émancipatrices. Il en va de même aujourd’hui. La question est de savoir comment il est possible de contrôler le développement technologique et l’orienter vers des possibles libérateurs.

LVSL -L’intelligence artificielle a largement défrayé la chronique ces derniers mois. Le succès de modèles comme ChatGPT ou DALL·E, rendus accessibles au grand public, a suscité d’importantes craintes autour de l’automatisation du travail. Leurs performances impressionnantes ont relancé les débats autour de l’intelligence des machines, ses risques et son éthique. Vous étudiez depuis longtemps l’économie numérique et ses innovations : quelle est votre lecture du phénomène ?

N. S. –Par-delà l’engouement médiatique, ce que je propose est d’opérer un geste marxiste tout à fait classique : plutôt que de se concentrer sur les craintes et les conséquences de l’usage de l’intelligence artificielle, il faut s’intéresser à ses conditions de production. Lorsque l’on s’intéresse à l’IA non pas à partir de ses conséquences, mais de sa production, on s’aperçoit qu’il s’agit d’une longue chaîne de travail qui peut être décomposée en quatre étapes : (1) la collecte des données, (2) l’étiquetage de ces données et leur nettoyage, (3) la construction du modèle ; ce n’est qu’alors qu’advient (4) le déploiement de l’intelligence artificielle comme produit pour les utilisateurs. Du côté des chercheurs comme des politiciens, toute l’attention critique s’est concentrée ces derniers temps sur les deux premières étapes, notamment sur la collecte massive de données. Elle requiert beaucoup de travail de nettoyage et de vérification des données et engendre d’importants problèmes de surveillance.

Mais cela ne représente qu’une partie de la chaîne de production. Prenez par exemple l’entraînement des modèles : c’est une étape qui requiert énormément de ressources de calcul. L’entraînement d’un seul modèle d’IA requiert un équipement de calcul massif, des dizaines de milliers de cartes graphiques et des ingénieurs très bien formés, qui sont d’ailleurs une ressource très rare pour les entreprises. Une entreprise comme Deep Mind[1] consacre d’ailleurs une très large partie de son budget pour garder ses meilleures têtes, avec des salaires qui se chiffrent en centaines de milliers de dollars. Tant que l’on ne change pas le regard sur l’IA et que l’on ne considère pas toutes les étapes de sa production, on ne pourra prendre en compte que les problèmes de données et de surveillance, alors que de nombreux enjeux de pouvoir, de propriété et de monopole se concentrent autour des équipements de calcul et des infrastructures (énergétiques, hydriques) qui permettent de les approvisionner.

LVSL – Si l’on s’intéresse aux producteurs d’IA, du moins du côté de la production des modèles, on s’aperçoit que les acteurs sont à peu près les mêmes qui, de l’économie du web au capitalisme de plateforme, ont été au cœur du capitalisme numérique : Google, Amazon, Microsoft, Facebook. L’industrie de IA que l’on voit prospérer aujourd’hui est-elle une ramification du capitalisme de plateforme ?

N. S. – Il y a une continuité claire entre le capitalisme de plateforme et l’industrie de production de l’intelligence artificielle. OpenAI, l’entreprise au cœur de l’engouement actuel autour de l’IA, dépend de Microsoft, qui l’a récemment renflouée à la hauteur de 10 milliards de dollars[2] et dépensé plusieurs centaines de millions de dollars pour construire un « superordinateur » pour OpenAI. L’intelligence artificielle est actuellement dominé par Microsoft, Google et Facebook en moindre mesure. Ce sont des entreprises qui ont acquis leur pouvoir comme plateformes, en recueillant les données des utilisateurs, ce qui leur permettait à l’époque de cibler leurs services, mais l’enjeu crucial aujourd’hui est ailleurs. Ce ne sont plus des plateformes au sens strict : ce sont désormais des fournisseurs d’infrastructures de calcul. C’est pour ça qu’Amazon s’emploie à devenir l’un des acteurs les plus importants de l’IA. En matière d’IA, Amazon n’a développé que quelques petits modèles, rien qui puisse concurrencer l’état de l’art ; ce qui importe cependant est qu’elle fournit aujourd’hui la majeure partie des ressources de calcul nécessaires à l’IA via Amazon Web Services, son service cloud. Même Facebook ne possède pas suffisamment de data centers et doit parfois s’appuyer sur Amazon pour entraîner ses modèles.

Les ressources de calcul, le cloud et leur infrastructure sont devenues le nerf de la guerre de l’IA et leur propriété est de plus en plus concentrée. On peut observer une dynamique semblable à celle des chemins de fer au siècle dernier : en raison des investissements massifs à pourvoir en amont, le secteur tech tend au monopole. Un processeur graphique de pointe coûte aujourd’hui autour de 40 000 dollars et il en faut des centaines, voire des milliers, pour entraîner les modèles d’IA. Cela signifie que c’est hors de portée pour la plupart des entreprises et pour la recherche publique.

LVSL – Est-ce cette concentration qui fait le pouvoir des GAFAM ? Paradoxalement, c’est une position que pourraient défendre une théoricienne libérale comme Shoshana Zuboff dans son travail sur le capitalisme de surveillance ou les commissaires européens, lorsqu’ils incitent à démanteler les géants du secteur tech.

N. S. – Il y a deux manières de considérer les monopoles. La première, qui est celle de la Commission européenne, est une approche anti-trust classique, selon laquelle la libre concurrence est le but ultime de la politique économique. L’objectif est donc d’avoir plusieurs Facebook, plusieurs Google, plusieurs de ces entreprises en compétition les unes avec les autres, avec l’idée que quelques bénéfices finiront par émerger d’un système compétitif. Je ne pense pas que ce soit vrai. Au contraire, c’est bien la concurrence qui produit des dommages. Ces entreprises rivalisent déjà pour accaparer les données, les utilisateurs et les financements. Cette concurrence les conduit à renforcer la surveillance, élargir la collecte massive de données, à chercher à affiner le profilage et les techniques pour garder leurs utilisateurs captifs, comme les dark patterns[3]. Ces problèmes n’ont rien à voir avec la taille de ces entreprises. Dans ce contexte, la concurrence n’est en rien une solution : c’est au contraire une partie du problème qui consiste à laisser ces plateformes dans les mains du marché. Ce n’est pas de concurrence dont on a besoin, mais de contrôle démocratique et populaire sur le développement et sur le déploiement de ces technologies. Ce contrôle est aujourd’hui dans les mains d’un type comme Sam Altman, le co-fondateur avec Elon Musk de OpenAI.

LVSL – Certains, comme l’économiste français Cédric Durand, soutiennent que l’essor des plateformes a fondamentalement changé le capitalisme, au point d’en marquer la fin. La captation de valeur par l’accumulation de données et le contrôle des infrastructures par une poignée de puissantes entreprises rapprocheraient l’économie numérique d’un système féodal, ou plus précisément : techno-féodal. Quelle est votre lecture des transformations de l’économie numérique ?

N. S. – Sans être un spécialiste des travaux de Cédric Durand, il me semble que sa thèse s’appuie sur la prémisse selon laquelle la dynamique du système économique serait portée non plus par le profit mais par la rente[4]. Je suis en désaccord avec cette prémisse : la rente n’est pas un phénomène extérieur au capitalisme. Marx n’aurait jamais été d’accord : il y a des centaines de pages dans le volume III du Capital sur la rente, sur les manières dont elle s’intègre à un système capitaliste et s’y trouve transformée. Évidemment, la dynamique d’une entreprise qui dépend de la rente diffère d’une entreprise plus classique qui dépend de l’extraction de profit. Malgré ces différences, toutes deux font partie du système capitaliste.

C’est d’ailleurs l’un de mes principaux arguments au sujet du capitalisme de plateforme. De nombreux auteurs ont voulu voir dans les GAFAM de nouveaux modèles économiques, voire de nouveaux modèles d’ordre social. Les optimistes comme Rifkin, Benkler ou Mayer-Schönberger avaient affirmé que l’on allait vivre dans une nouvelle économie du partage. Les pessimistes, comme McKenzie Wark, que l’on est sortis du capitalisme pour entrer dans une nouvelle techno-dystopie. Ce que j’ai essayé de montrer avec Capitalisme de plateforme, c’est que c’est toujours du capitalisme, mais avec une dynamique propre, gouvernée par la capacité d’intermédiation des plateformes.

Nous sommes toujours en plein capitalisme. La prominence du phénomène de la rente aujourd’hui peut plutôt être comprise comme le résultat d’un ralentissement du capitalisme. L’économie globale ralentit depuis plusieurs décennies, tout particulièrement à son centre. Des pays comme l’Inde et la Chine ont rapidement rattrapé les États Unis, mais ce n’est pas le cas de nombreux autres et la frontière de la croissance ralentit. Avec le ralentissement de la croissance économique, les entreprises se trouvent davantage incitées à capter qu’à créer de la valeur – comme la création devient de plus en plus difficile. Là où la thèse techno-féodale oppose rente et profit, je vois une opposition entre création et captation de valeur – mais cette captation de valeur demeure fondamentalement capitaliste.

Il y a évidemment une composante importante de rente dans l’économie et le capitalisme de plateforme en fait partie, mais ce n’est pas hors capitalisme. Les caractéristiques saillantes du capitalisme, notamment l’accumulation, n’ont pas disparu. On assiste plutôt à une lutte acharnée pour s’emparer d’une mise de plus en plus maigre. Et par-delà la prominence de la rente, je pense que la stagnation a aussi récemment beaucoup influencé les politiques industrielles et déterminé le retour de la concurrence géopolitique.

LVSL – Dans quel sens ?

N. S. – La période néolibérale a été marquée par l’abandon de la politique industrielle et de ses implications géopolitiques. Elle n’a évidemment jamais complètement disparu, mais elle était déconsidérée de manière idéologique et peu discutée. Aux États-Unis, c’est le capital-risque qui a relevé le financement du secteur technologique, au moment du retrait du financement de l’État. C’est devenu le premier canal de financement des entreprises tech, à partir de l’ère « dot.com[5] ». Il s’agissait à l’époque de grands fonds d’investissement qui consacraient leur surplus à des investissements risqués par le biais de angel investors. Aujourd’hui au contraire, le capital-risque est aussi une ramification des plus grandes entreprises technologiques comme Google et Amazon ; il a permis leur essor et elles ont souvent chacune leurs propres fonds.

C’est tout à fait différent en Chine, où l’industrie est massivement soutenue par l’État. La politique industrielle volontariste de la dernière décennie a mené au développement de l’industrie des semi-conducteurs et, de manière significative, d’importantes plateformes domestiques. Huawei est un excellent exemple : c’est un leader mondial en standards technologiques, pour la 5G notamment. On les oublie souvent, mais les standards techniques sont des dispositifs cruciaux, qui permettent d’asseoir une influence géopolitique majeure.

En raison du succès des politiques industrielles chinoises et de la stagnation générale de l’économie, les États-Unis ont dû entrer dans la danse et le Chips Act[6] en est l’exemple le plus flagrant. Les US cherchent explicitement à s’autonomiser à l’égard de la Chine, qui soutient ses entreprises nationales, avec un intérêt géopolitique clair. La première entreprise productrice de semi-conducteurs, TSMC, est basée à Taïwan, qui est actuellement une poudrière géopolitique. Le Chips Act était une tentative de s’assurer une forme d’autonomie sur la chaîne de production, surtout après avoir vu pendant le Covid-19 la fragilité des chaînes d’approvisionnement. Actuellement, la maigre politique industrielle américaine est entièrement portée par la concurrence géopolitique.

LVSL – Et en Europe ?

N. S. – L’Europe voudrait avoir une industrie de l’IA qui puisse concurrencer les États Unis et la Chine. C’est impossible pour plusieurs raisons, parmi lesquelles figurent le manque de plateformes et de fournisseurs cloud d’envergure. Le vieux continent peut se concentrer sur le secteur applicatif, avec différentes start ups, mais du point de vue de la chaîne de valeur, c’est un secteur qui capte très peu de valeur. Si l’on accepte l’hypothèse de la centralité croissante des infrastructures, on peut conclure que les fournisseurs cloud vont en ressortir les plus puissants et aucun n’est en Europe. Cela ne signifie pas qu’aucune application utile ne pourra émerger de l’Europe. Mais contrairement aux promesses, le retard technologique européen ne pourra pas être comblé.

LVSL – En 2013, le Manifeste accélérationniste faisait controverse en prenant à contrepied les positions sociales-démocrates autant que décroissantes en matière de nouvelles technologies, accusées d’être « impuissantes et inefficaces ». Il y avait dans la partie programmatique du Manifeste un passage énigmatique, une invitation à œuvrer pour une « hégémonie sociotechnique de gauche ». Qu’est-ce que cette proposition ?

N. S. – L’hégémonie est le gouvernement par le consentement plutôt que par la coercition. C’est ce qui permet d’inclure les personnes dans un ordre social particulier et de leur faire accepter par différents moyens. Traditionnellement, l’étude de l’hégémonie se concentre sur ses aspects sociaux et discursifs du système, sur l’idéologie et sur tous les systèmes d’incitation qui permettent de convaincre les personnes à demeurer loyales à un système social existant. L’aspect sociotechnique de l’hégémonie concerne au contraire sa dimension matérielle et technique, la manière dont toutes les infrastructures, les outils, les technologies construisent autour de nous un ordre social. Pour donner un exemple très simple : la maison familiale individuelle construit la cellule familiale nucléaire en la naturalisant.

Elle répartit les personnes en petites maisons mono-familiales et les sépare de fait en petits foyers nucléaires. Cela fait partie de l’hégémonie, car l’architecture naturalise le système familial et social. Lorsque Alex Williams et moi invoquions une hégémonie sociotechnique de gauche, c’était pour dire qu’il faut prendre cette infrastructure très au sérieux. Il faut aussi s’intéresser à la conception de ces technologies et à leur déploiement. Tous ces aspects techniques doivent faire partie d’un agenda de gauche, on ne peut pas se limiter à des arguments théoriques ou à de meilleurs programmes de politiques publiques. La gauche doit investir la culture matérielle autant que la sphère des idées. Et cela concerne bien évidemment les nouvelles technologies.

LVSL – En quoi consisterait un agenda émancipateur en matière d’IA ?

N. S. – C’est très difficile de proposer un agenda émancipateur en matière d’IA, telle qu’elle est développée aujourd’hui. Il y a actuellement deux approches dominantes, toutes deux insuffisantes. La première propose de « démocratiser » l’IA en garantissant l’usage à tout le monde : le fait de pouvoir accéder librement à ChatGPT depuis un ordinateur équivaudrait à la démocratisation de ces technologies. Cela n’a évidemment aucun sens du point de vue progressiste, car la propriété et la conception des modèles demeure dans les mains de Microsoft et de OpenAI, qui captent toute la valeur issue de ces systèmes. Le fait que tout le monde puisse y accéder ne change ni le développement des technologies ni les structures de pouvoir desquelles elles sont issues.

L’autre alternative, plus intéressante, est celle du développement en open source de plus petits modèles. La plupart des modèles dits « de fondation » comme GPT4 ou DALL-E [modèles de grande taille de génération de texte ou d’image, qui peuvent être adaptés par la suite à un large éventail de tâches, n.d.r.] sont des modèles propriétaires, au sens où ils sont la propriété des entreprises qui les ont développés. Il existe au contraire d’autres modèles librement accessibles, qui peuvent être librement employés et modifiés. L’architecture des modèles, leurs données d’entraînement, les poids de leurs paramètres, tout est à disposition et utilisable pour quiconque souhaite s’en servir.

Et cela pourrait représenter un vrai changement : les modèles actuels ont coûté des centaines de millions de dollars pour être entraînés. Tant que c’est la seule manière de produire de l’IA de pointe, la recherche publique ne pourra jamais suivre. L’open source montre que l’on pourrait s’en tirer de manière beaucoup plus économique. S’il est possible de ré-entraîner des modèles sur une poignée de processeurs graphiques, s’il est (presque) possible de répliquer ChatGPT pour quelques centaines de dollars, le modèle économique de OpenAI peut être entièrement détruit. L’open source peut en ce sens encore représenter une menace pour le pouvoir de l’industrie technologique.

Le problème, c’est que cet open source dépend à son tour des GAFAM. Dans le domaine de l’IA, il s’appuie sur les gros modèles entraînés par ces entreprises. Une fois qu’ils sont entrainés par les GAFAM, le développement en open source arrive en bout de course pour leur réglage fin [le fine-tuning n.d.r.]. De plus, le travail en open source s’appuie sur les infrastructures possédées par les GAFAM pour entrainer et faire fonctionner ses modèles à l’échelle. Toutes les entreprises qui les développent en open source ont des partenariats avec les GAFAM et continuent d’en être dépendantes. L’open source pourrait permettre de ralentir la concentration de l’IA, mais non de s’autonomiser à l’égard des GAFAM. Difficile de dire, dans les deux cas, quel serait un scénario émancipateur.

LVSL – Ces technologies numériques – et l’IA n’en est qu’un exemple – s’appuient sur la collecte massive de données des utilisateurs, donc sur une forme de surveillance. Plus fondamentalement, elles requièrent une grande quantité de ressources naturelles et énergétiques pour leur fonctionnement. Dans un contexte d’urgence climatique, un agenda technologique de gauche est-il compatible avec le maintien de telles technologies et infrastructures ?

N. S. – Les ressources et l’énergie que l’on peut employer sont évidemment limitées à un temps t. Mais en même temps, le développement technologique peut permettre de repousser ces limites. Notre capacité à employer l’énergie et les ressources de manière soutenable s’améliore, surtout si l’on encourage le développement technologique dans cette direction. Ces limites devraient etre conçues comme fixes à court-terme et variables à long-terme. Un deuxième argument consiste à dire que ce n’est pas parce qu’une technologie exige une quantité importante de ressources qu’il faut automatiquement y renoncer. Les bénéfices d’une infrastructures à haut impact sur l’environnement pourraient consister à limiter l’usage de ressources naturelles dans un autre contexte.

C’est là l’une des questions que devra se poser une société future. Les ressources requises pour le fonctionnement de l’IA valent-elles les bénéfices qu’elle peut fournir ? Je renvoie la question aux générations futures parce que les bienfaits de l’IA vont avant tout les concerner. Il faut évidemment baisser la consommation de ressources naturelles, mais si l’on jugeait raisonnable d’allouer, mettons, 10 % de la consommation énergétique mondiale aux nouvelles technologies, on pourrait alors s’interroger pour savoir si les bénéfices de l’IA sont suffisants pour leur consacrer une part du budget énergétique.

Cette position peut sembler opposée à la plupart des réflexions écosocialistes, mais ce n’est pas mon point de vue. La vraie question – c’est là notre point commun – est de savoir comment on peut acquérir le contrôle collectif sur la direction du développement technologique, comment on peut en contrôler démocratiquement le déploiement et l’usage. Le problème n’est pas celui de la high tech en opposition à la low tech. Il est possible, par exemple, de faire de l’agriculture locale et à petite échelle de manière très high tech.

L’enjeu est à chaque fois de savoir comment choisir les technologies appropriées à un contexte donné et de garantir qu’elles soient efficaces du point de vue des ressources consommées et des objectifs définis collectivement par une société. Dans un monde où l’on essaie simultanément de réduire l’impact environnemental et le temps de travail, il y a toute une série de contraintes complexes qu’il faudra prendre en compte dans l’imagination d’une société future et de ses technologies. L’important est que nous puissions choisir collectivement.

LVSL – Mais de quelles institutions disposons-nous pour décider collectivement sur la culture matérielle et technique ?

N. S. – Les approches dominantes pour gouverner la culture technique sont aujourd’hui celles de la démocratie représentative et de la technocratie. Dans la première des configurations, les politiciens élus lors des élections prennent des décisions en vertu de leur fonction de représentation politique. L’autre approche est celle d’inspiration technocratique, de plus en plus répandue, selon laquelle les experts techniques sont les plus à même d’en gouverner l’usage. Les ingénieurs en machine learning sauraient, en vertu de leurs compétences de calcul, gouverner le développement technique de manière éclairée. Le problème étant qu’ils ne sont pas forcément compétents pour saisir les biais sociaux et économiques de leurs propres systèmes.

Je ne veux pas dire par là que l’expertise technique n’a pas d’importance, le problème n’est d’ailleurs pas là actuellement. Aujourd’hui, les gouvernements laissent les entreprises dicter les grandes lignes de régulation, comme c’est le cas actuellement avec l’IA, ou bien décident de réguler les technologies en faisant fi de toute expertise technique. Les tentatives d’encadrement du chiffrement bout à bout en sont un excellent exemple : les gouvernements cherchent à tout prix à imposer l’insertion de back doors[7], alors que les experts expliquent qu’une porte d’entrée annule tout le principe du chiffrage bout à bout…

LVSL – Il existe cependant de nombreux exemples d’initiatives politiques en matière de culture technique, autant du côté des institutions (conventions citoyennes, autorités indépendantes et de régulation) que du côté des ONG et des mouvements sociaux, où se mélangent expertise technique et savoir-faire politique. Ne peut-on pas s’appuyer sur ce déjà-là pour imaginer les institutions pour gouverner la culture technique ?

N. S. – Je vais devoir botter en touche : je ne sais pas faire du design d’institutions. Je peux donner quelques grands principes qui pourraient guider ce genre d’initiative, mais c’est quelque chose qui va devoir être inventé par-delà le capitalisme. Le problème avec le capitalisme, c’est que tous les problèmes importants sont hors de portée, le changement climatique en premier lieu. Le développement technologique est guidé par des impératifs structurels. On a beau savoir ce qu’il faut faire pour arrêter le changement climatique, le capitalisme ne va pas le permettre.

Peu importe que les PDG eux-mêmes le souhaitent du fond de leur cœur : les actionnaires ne le permettront pas. Il en va de même avec les décisions au sujet du développement technologique : il est porté par la concurrence et par le profit plutôt que par une quelconque réflexion rationnelle.

LVSL – Un raisonnement maximaliste de ce genre ne risque-t-il pas de passer sous silence la pluralité de pratiques qui existent déjà, tant du point de vue de la lutte contre la crise climatique que des pratiques de réappropriation des techniques ?

N. S. – Nous ne sommes évidemment pas dans un moment révolutionnaire. Le mieux que nous puissions faire actuellement est probablement de cultiver ces pratiques et de les institutionnaliser, de sorte à leur garantir une vie par-delà leur immédiateté. C’est ce qu’Alex Williams et moi appelions dans Inventing the Future une « politique anti-localiste » (anti-folk politics). L’idée n’est pas de critiquer le localisme ou l’horizontalisme en soi, mais de rappeler qu’ils sont insuffisants pour soutenir un mouvement sur le long terme.

Chaque mouvement a ses pratiques et ses innovations, mais lorsque l’on refuse de construire des systèmes, comme c’était le cas de Occupy Wall Street en 2009, on risque de perdre tout ce qui a été inventé lorsque la ferveur retombe. J’insiste sur Occupy Wall Street parce que c’était l’un des mouvements les plus importants de la gauche occidentale anglophone de notre siècle et probablement celui où cette limite était la plus flagrante. Mais cela pourrait s’appliquer aux mouvements anti-globalisation des années 2000 et probablement à de nombreux autres mouvements.

LVSL – Vous avez récemment publié un nouveau livre avec Helen Hester, After Work : A History of the Home and the Fight for Free Time, qui revient sur l’histoire des technologies domestiques et la lutte pour la fin du travail.

N. S. – Notre livre part du paradoxe mis en avant par la théoricienne féministe Ruth Schwarz Cowan au sujet du travail domestique. Dans More Work for Mother ?, elle démontrait que malgré la révolution domestique, malgré les lave-linges, les lave-vaisselles, les aspirateurs et tous les autres équipements ménagers, les femmes au foyer accomplissaient toujours autant de travail en 1970 qu’au début des années 1900. La technologie n’a pas beaucoup changé le temps de travail à la maison. La grande question étant : comment est-ce possible ? Dans le livre nous nous intéressons aux structures sociales et matérielles qui continuent de nous faire faire tout ce travail.

Aujourd’hui, il en va de même des objets connectés et tous les gadgets domestiques que nous accumulons dans nos maisons, qui ne font que déplacer la charge de travail domestique qui nous incombe. Je pense fondamentalement que les technologies peuvent nous libérer du travail. Historiquement, elles ont dégagé énormément de temps libre (potentiel). La question est toujours celle de savoir qui contrôle le développement et le déploiement de ces technologies, pourquoi et comment elles ne réduisent pas le temps de travail de production et de reproduction.

LVSL – Et dans le livre, vous mettez en avant un véritable programme politique.

N. S. – Nous essayons de dégager trois grands principes de réorganisation du travail domestique et de ses technologies. Le premier principe est celui de soin communautaire (communal care) : en s’éloignant du modèle de la famille nucléaire comme lieu du soin, on peut mutualiser la charge de travail qui pèse individuellement sur chaque famille. Cela évidemment développer des crèches et des gardes d’enfants publiques, ouvertes sept jours sur sept – et je sais qu’en France c’est un système bien mieux développé que dans nombreux autres pays – ainsi que d’autres efforts pour partager la charge du travail reproductif.

Le second principe est celui du « luxe public » (public luxury), qui consiste à garantir l’accès à des services de luxe, trop chers pour des familles individuelles, mais dont on peut mutualiser les coûts et la dépense énergétique. L’exemple le plus simple est celui d’une piscine : c’est un bien insoutenable de tous points de vue pour une famille individuelle, mais qui peut avoir un sens s’il est partagé. Il en va de même pour les bibliothèques, les ludothèques et tous les espaces récréatifs. Enfin, le troisième principe est celui de la souveraineté temporelle, de prise de décision démocratique en matière de développement de la culture matérielle et technique.

Cela concerne notamment la conception des espaces de vie et de la manière dont ils peuvent permettre la diminution de la charge de travail domestique, mais aussi la constitution d’institutions qui nous permettent de déterminer ce que l’on souhaite faire de notre temps libre.
La plupart de ces initiatives existent déjà, nous proposons de les potentialiser. Souvent, des initiatives locales qui essaiment un peu partout ne se conçoivent pas comme reliées par un projet politique. L’une des manières de leur donner de la force est de leur permettre de se reconnaître dans une lutte plus large. Se battre pour sauver une bibliothèque municipale, est-ce une initiative locale ou une lutte plus large pour garantir le luxe public ? Le nôtre est un travail d’articulation de pratiques, au sens de Ernesto Laclau[8] et c’est ce à quoi nous essayons de participer avec ce livre.

NDLR : parmi les livres traduits en français de Nick Srniček figurent le Manifeste accélérationniste. Accélérer le futur : Post-travail & Post-capitalisme (Cité du design IRDD, 2017) et Capitalisme de plateforme (Lux, 2018).

Notes :

[1] La branche d’intelligence artificielle de Google.

[2] Voir au sujet de OpenAI l’article de Valentin Goujon, « OpenAI, une histoire en trois temps », AOC, 23 mai 2023.

[3] Les dark patterns sont les interfaces conçues pour solliciter les utilisateurs et les faire rester plus longtemps sur un service, par exemple en rendant moins visible les boutons pour refuser les cookies ou la publicité.

[4] La rente est un revenu perçu pour la propriété d’une terre, d’un actif ou d’une infrastructure, en opposition au profit généré par l’exploitation du travail. La proéminence de la rente dans l’économie numérique (brevets, captation de données, contrôle sur les technologies) marquerait ainsi la fin du capitalisme défini par l’exploitation du travail et l’extraction de profit.

[5] Cela correspond au développement de l’économie du web dans les années 1990, porté par Ebay, Google, Amazon, etc.

[6] L’acte américain qui vise à soutenir la production domestique de semi-conducteurs aux États-Unis.

[7] Autrement dit, une « porte dérobée », une clef secrète qui déjoue le chiffrement.

[8] Théoricien néo-marxiste, dont la stratégie politique consiste à articuler différentes luttes, dans une identité politique qui en préserve les singularités.

Diia, l’appli dystopique de l’État ukrainien

Présentation des nouvelles fonctionnalités de l’application Diia par Volodymyr Zelensky en février 2022. Capture d’écran Youtube

Démarches administratives digitalisées, passeport biométrique, création d’entreprise, signalisation des troupes russes… Avec Diia, une application financée par les Etats-Unis, l’Ukraine entend résoudre tous ses problèmes, de la corruption à la bureaucratie qui entraverait le développement économique en passant par la victoire sur la Russie. Une stratégie d’« Etat dans un smartphone » qui pourrait s’exporter ailleurs dans le monde. Article de la journaliste Lily Lynch, publié par la New Left Review et traduit par Pierra Simon-Chaix.

Lors d’un événement organisé à Washington le 23 mai, l’Agence des États-Unis pour le développement international (USAID) et le nouveau ministre ukrainien pour la transformation numérique ont effectué une présentation remarquable devant le peuple américain. Les contribuables états-uniens ont ainsi appris qu’ils étaient à présent des « investisseurs sociaux » dans la démocratie ukrainienne. Le ministre de la transformation numérique, Mykhailo Fedorov, 31 ans, qui portait l’uniforme de la Silicon Valley (jean, t-shirt et micro), a détaillé les différentes caractéristiques de l’application mobile la plus innovante du pays : Diia.

L’application est à présent utilisée par près de 19 millions d’Ukrainiens, soit environ 46 % de la population du pays avant la guerre.

Grâce à celle-ci a-t-il affirmé, l’Ukraine est moins dirigée comme un pays que comme une entreprise d’informatique et deviendra bientôt « l’État le plus pratique du monde ». Samantha Power, administratrice de l’USAID, a surenchéri en rappelant que l’Ukraine, longtemps perçue comme le grenier à blé du monde, était à présent sur le point de « devenir célèbre pour un nouveau produit… un bien public numérique open source qu’elle est prête à partager avec d’autres pays ». Une telle démarche sera effective grâce au partenariat transatlantique entre les deux nations. « Les États-Unis ont toujours exporté la démocratie », a déclaré Mykhailo Fedorov. « À présent, ils exportent la numérisation ».

Lorsque Volodymyr Zelensky a été élu président en 2019, il avait promis de faire de l’Ukraine un « État dans un smartphone » en rendant la plupart des services publics accessibles en ligne. Si d’autres pays ont tenté par le passé de tels programmes de numérisation, notamment l’Estonie, le plan de l’Ukraine éclipse ces tentatives par l’échelle de ses ambitions et la rapidité de son déploiement. Le joyau de ce programme, l’application Diia, a été lancée en février 2020 grâce à d’importants subsides de l’USAID : les financements américains s’élèveraient à 25 millions de dollars pour la seule « infrastructure sous-jacente à Diia ». Des subventions supplémentaires ont été octroyées par le Royaume-Uni, la Suisse, la fondation Eurasia (une ONG basée au Japon, ndlr), Visa et Google. L’application est à présent utilisée par près de 19 millions d’Ukrainiens, soit environ 46 % de la population du pays avant la guerre.

Services administratifs et délation des « collabos »

Le choix de ce nom ne doit rien au hasard : en ukrainien, Diia signifie « action » et le mot est également un acronyme de « l’État et moi » (Derzhava i ia). Ce qui rend cette application remarquable, c’est l’éventail des fonctions qu’elle propose. Elle permet aux Ukrainiens d’accéder à de nombreux documents numériques, comme les cartes d’identité, les passeports biométriques étrangers, les permis de conduire, les cartes grises, les assurances et les numéros fiscaux. L’Ukraine se vante ainsi d’être le premier pays au sein duquel l’identité numérique est considérée comme valide. L’appli propose aussi toute une gamme de services, notamment « l’enregistrement d’entreprise le plus rapide au monde ». Il suffirait ainsi de « deux secondes seulement pour devenir un entrepreneur » et « 30 minutes à peine pour fonder une société à responsabilité limitée ». Diia peut également servir à payer des dettes ou à régler des amendes, à recevoir un certificat de vaccination Covid et, via eMalyatko (« eBébé »), à avoir accès à différents documents et services en lien avec la naissance d’un enfant. Pour garantir l’adoption de l’application à grande échelle, le gouvernement a produit une mini-série mettant en scène des acteurs de cinéma ukrainiens connus (ce que Mykhailo Feodorov qualifie de « Netflix éducatif ») avec en ligne de mire les zones rurales et des personnes âgées.

Après l’invasion russe, les fonctions de l’application se sont multipliées. Diia permet à présent aux utilisateurs de faire des demandes de certificats de déplacés internes et d’aides étatiques (les déplacés internes reçoivent une aide mensuelle de 2000 UAH, soit environ 60 euros). A la suite de la destruction de nombreuses tours de télévision par les forces russes, Diia a lancé un service de diffusion proposant un accès ininterrompu aux informations ukrainiennes. Les Ukrainiens peuvent également indiquer des destructions de biens causées par les frappes militaires russes, ce qui, selon le gouvernement, orientera la reconstruction du pays après la guerre. Outre l’introduction de ces services utiles en temps de guerre, Diia a déployé un éventail de fonctions de « renseignement civil ».

Avec Diia eVorog, les civils peuvent utiliser un chatbot pour signaler les personnes collaborant avec les forces russes, des mouvements de troupes russes, des emplacements d’équipement ennemi et même des crimes de guerre russes.

Avec Diia eVorog (« eEnnemi »), les civils peuvent utiliser un agent conversationnel (chatbot) pour signaler les personnes collaborant avec les forces russes, des mouvements de troupes russes, des emplacements d’équipement ennemi et même des crimes de guerre russes. Ces informations sont traitées par les services de Diia et, si elles sont considérées comme légitimes, elles sont transmises aux quartiers généraux des forces armées ukrainiennes. De prime abord, l’interface ressemble à un jeu vidéo. Les icônes ont l’apparence de cibles ou de casques de l’armée. Si un utilisateur envoie un rapport sur l’emplacement de troupes russes, un émoji de biceps surgit. S’il s’agit d’informations relatives à des crimes de guerre, c’est une goutte de sang qui apparaît à l’écran.

Nation-branding technologique

Diia fait partie d’un exercice plus large d’élaboration d’une nouvelle image de marque de la nation ukrainienne, pour la présenter comme un technologique forgée par la guerre. Selon la mythologie nationale émergente, l’Ukraine possède depuis longtemps une expertise et des talents technologiques, mais le déploiement de ses capacités a longtemps été entravé par l’infériorité de la science soviétique et, plus récemment, par la Russie et sa culture de la corruption. Rien de nouveau dans cette rhétorique pour l’Europe de l’Est. Un certain nombre de villes, comme Vilnius et Kaunas en Lituanie, Sofia en Bulgarie et Constanța et Iași en Roumanie, se sont enorgueillies de disposer de l’internet le plus rapide au monde. Il y a un peu plus de dix ans, la Macédoine inaugurait un ambitieux projet, depuis lors tombé aux oubliettes, destiné à rendre accessible l’internet à haut débit à 95 % de ses habitants. L’Estonie est quant à elle réputée pour avoir embrassé l’informatique au moment de son indépendance en lançant l’initiative « e-Estonie », largement plébiscitée, destinée à rendre accessibles en ligne la plupart des services d’État, y compris le vote.

Plus récemment, le discret Monténégro ambitionne de devenir le premier « État orienté vers la longévité » au monde grâce au soutien actif qu’il octroie aux investissements dans la technologie de la santé, dans la biotechnologie de la longévité, dans la biologie synthétique et dans la biofabrication. Impulsés par Milojko Spajić, le dirigeant du parti Europe Now! qui s’est emparé de la présidence en avril dernier, une série de programmes visent en outre à transformer le Monténégro en un « hub de la cryptomonnaie ». Comme un symbole, Vitalik Buterin, le créateur de l’Ethereum, vient d’ailleurs de se voir octroyer la citoyenneté monténégrine. Au cours de la présentation de Diia à Washington, qui n’était pas sans évoquer l’esthétique et l’esprit de la cérémonie de lancement de l’iPhone par Steve Jobs, il a été annoncé que d’ici 2030, l’Ukraine deviendrait le premier pays sans argent liquide et aurait un système judiciaire gouverné par l’intelligence artificielle.

Au cours de la présentation de Diia à Washington, il a été annoncé que l’Ukraine deviendrait d’ici 2030 le premier pays sans argent liquide et aurait un système judiciaire gouverné par l’intelligence artificielle.

Le programme « e-Estonie » et la recomposition du nationalisme à l’ère numérique a été largement étudié par le chercheur en communication Stanislav Budnitsky. Évaluant la valeur de ces services en ligne, il souligne l’importance de séparer les aspects strictement technologiques de ceux qui relèvent du mythe. Les technologies comme Diia ont clairement des avantages, en particulier pour les déplacés internes et les réfugiés, mais la mythologie qui y est attachée nécessite une réflexion plus approfondie. Diia a par exemple été largement présentée comme un antidote à la corruption, très courante en Ukraine.

L’application promet ainsi de réduire radicalement la corruption en supprimant les agents subalternes qui étaient bien placés pour demander de l’argent en échange de certains services essentiels. Diia introduit également un « caractère aléatoire » dans l’attribution des affaires judiciaires, ce qui, selon les affirmations enthousiastes de l’application, devrait conduire à la diminution de la corruption du secteur judiciaire. Comme l’a récemment fait remarquer Volodymyr Zelensky lors du sommet Diia, « un ordinateur n’a pas d’amis ni de parrains, et il n’accepte pas les dessous de table ». Mais si Diia peut participer à la diminution de la corruption subalterne, l’application risque d’être peu efficace face aux manifestations les plus importantes et les plus dommageables de la corruption, comme la symbiose de longue date entre les oligarques et l’État. Ainsi, comme souvent, la mythologie du techno-solutionnisme ne sert qu’à occulter les problèmes politiques les plus cruciaux.

Diia est plus qu’une application, c’est à présent « la première ville numérique au monde », « un espace fiscal et juridique unique pour les entreprises de l’informatique en Ukraine ». Les entreprises d’informatique qui « résident » à Diia City bénéficient d’un régime fiscal préférentiel. « Il s’agit de l’un des régimes fiscaux les plus avantageux au monde », a affirmé Zelensky. Un espace « où se parle la langue de l’investissement en capital-risque ». Les résidents de la Diia City bénéficieront également d’un « modèle d’emploi flexible », notamment grâce à l’introduction de « contrats à la tâche » précaires, jusqu’alors inexistants en Ukraine.

Techno-solutionnisme

À présent, l’USAID veut déployer Diia dans des « pays partenaires » du monde entier « pour aider d’autres démocraties à se tourner elles aussi vers l’avenir », selon les mots de sa directrice Samantha Power. Durant le Forum économique mondial de janvier dernier à Davos, Samantha Power a annoncé le déblocage de 650 000 $ supplémentaires pour « relancer » la création d’infrastructures destinées à accueillir Diia dans d’autres pays. Récemment, elle a indiqué que la liste des pays envisagés inclut la Colombie, le Kosovo et la Zambie. Cet effort mondial est élaboré en s’appuyant sur la stratégie numérique 2020-2024 de l’USAID, publiée au cours des premières semaines de la pandémie de la Covid-19. Dès lors, il n’est guère étonnant que les conspirationnistes aient tendance à associer Diia avec le prétendu « Grand Reset », une initiative du Forum économique mondial visant à rétablir la confiance dans le capitalisme mondialisé en promouvant des partenariats « multipartites » unissant les gouvernements, le secteur privé et la société civile « de manière transversale dans tous les domaines de la gouvernance mondiale ».

Ce qui est peut-être le plus frappant dans la rhétorique employée pour évoquer Diia, c’est le fait que le solutionnisme technologique proposé par l’appli est complètement anachronique. Une récente vidéo de présentation du secteur informatique ukrainien semble tout droit sortir d’une époque plus simple et plus optimiste. « L’informatique, c’est une histoire de liberté », nous affirme le narrateur. « Tout ce dont vous avez besoin, c’est d’un ordinateur pour inventer toute une variété de choses ». Une personne interviewée explique que le premier ordinateur d’Europe continentale a été fabriqué en Ukraine. « Il y avait alors de nombreux spécialistes en Ukraine, mais les frontières étaient fermées et l’entrepreneuriat privé était en grande partie illégal », nous explique-t-on pendant que des images du pont du Golden Gate, de Ronald Reagan et du logo Pepsi défilent à l’écran.

En 2023, après la faillite des banques de la Silicon Valley, alors que les postes dans la tech sont supprimés par centaines de milliers et que San Francisco semble à l’agonie, faire preuve d’une telle foi indéfectible en la prospérité générée par une application semble aller au-delà de la naïveté.

Il s’agit là d’une rhétorique défraîchie qui fleure bon 1989, associée à une idéologie californienne moribonde. L’idée que Twitter allait apporter la démocratie au Moyen-Orient a pourtant été démentie depuis une décennie. Lorsque le département d’État américain, alors dirigé par Hillary Clinton, a introduit la notion de « diplomatie numérique » et que l’un de ses cadres supérieurs affirmait à l’OTAN que « le Che Guevara du 21siècle, c’est le réseau », le concept sonnait déjà creux. Mais en 2023, après la faillite des banques de la Silicon Valley, alors que les postes dans la tech sont supprimés par centaines de milliers et que San Francisco semble à l’agonie, faire preuve d’une telle foi indéfectible en la prospérité générée par une application semble aller au-delà de la naïveté. Cette croyance reflète l’affaiblissement de l’imagination libérale-démocrate occidentale, incapable de proposer une vision convaincante ou désirable de l’avenir, qu’elle soit en ligne ou hors ligne. Dans ce monde dominé par la pensée impérialiste, la rhétorique de la Guerre froide a été remplacée par la promesse boiteuse d’une technologie qui résoudrait tous les problèmes.

La nécessaire transition écologique va-t-elle faire baisser le niveau de vie ?

Vue de Senlis, Oise (Hauts-de-France) @ Wikimédia Commons

Depuis la fin du XVIIIe siècle, le progrès technique a rendu possible une amélioration exceptionnelle du niveau de vie dans les pays occidentaux, mais il fait croître dans le même temps l’empreinte carbone au point de n’être plus soutenable pour l’environnement. Faut-il en déduire hâtivement que la transition écologique suppose de faire baisser drastiquement le niveau de vie ? L’histoire montre qu’il n’y a pas de corrélation stricte entre développement humain et augmentation exponentielle des émissions des gaz à effet de serre. Tirons-en un enseignement pour mettre en œuvre un triple modèle d’organisation collective à travers la transition écologique : redistribution des richesses, réindustrialisation nationale et aménagement du territoire.

Notion largement admise, quoiqu’encore débattue sur le plan chronologique par les géologues, l’anthropocène désigne une période de l’histoire terrestre marquée par la manière dont les activités humaines affectent la lithosphère (la surface de la terre), commençant avec la révolution industrielle en Angleterre à la fin du XVIIIe siècle. Lié à l’exploitation des ressources naturelles, le progrès technique et matériel s’est depuis lors accompagné d’une croissance exponentielle de l’empreinte carbone, provoquant le réchauffement climatique auquel nous faisons face. Ce même progrès a permis l’amélioration prodigieuse du niveau de vie des individus et des ménages, surtout dans les pays marqués par un capitalisme keynésien de redistribution (Welfare capitalism). Faut-il déduire de la crise climatique actuelle l’idée que tout modèle de développement humain conduit forcément au désastre écologique ? Le concept de « développement » désigne à la fois le niveau de richesse matérielle d’une société (l’équipement domestique, les infrastructures publiques, le patrimoine des ménages…) et le modèle social et humain qui l’accompagne. La possibilité du développement repose ainsi sur des critères matériels sans pour autant s’y réduire entièrement puisqu’il vise le bien-être des individus, une notion complexe qui recoupe des réalités à la fois économiques, sociales et psychologiques. Il faut ainsi questionner l’hypothèse selon laquelle la transition écologique supposerait la baisse du niveau de vie.

Une révolution industrielle avant l’anthropocène

L’histoire montre que le développement humain n’a pas toujours été producteur d’émissions carbones en quantités démesurées, car après tout, la machine à vapeur n’est pas l’acte de naissance de l’humanité. Historien de l’art médiéviste, spécialiste des techniques et prospectiviste, Jean Gimpel a consacré sa vie à réhabiliter le Moyen-Âge. Il l’interprète comme une période de confiance dans le progrès, en considérant même que l’homme médiéval y croyait profondément à l’inverse de celui de l’Antiquité qui en ignorait le principe de linéarité. Gimpel voit dans le dynamisme technologique et culturel de la France des XIIe et XIIIe siècles une révolution industrielle à l’époque médiévale. Dans Les bâtisseurs de cathédrales[1], il écrit qu’« en l’espace de trois siècles […] la France a extrait plusieurs millions de tonnes de pierres pour édifier 80 cathédrales, 500 grandes églises et quelques dizaines de milliers d’églises paroissiales. ». Les terroirs sont remembrés, les paysans défrichent les forêts. En évoquant les activités textiles et l’abattage des bœufs qui polluent les eaux urbaines comme la Tamise à Londres et la Seine à Paris, Gimpel montre ainsi que l’environnement a été affecté et détérioré au Moyen-Âge, soit bien avant le XIXe siècle. Sur un territoire plus restreint qu’aujourd’hui, la France atteint les 20 millions d’habitants vers 1320, soit autant que la Scandinavie contemporaine. C’est le grand pas en avant des XIe – XIIIe siècles dont nos paysages contemporains portent encore la marque, décris par Marc Bloch dans Les caractères originaux de l’histoire rurale française[2]. Aujourd’hui, les clochers romans et gothiques dominent encore les paysages agraires et leurs vastes openfields à la sortie de l’agglomération parisienne. Les flèches des cathédrales sont toujours les monuments les plus hauts dans de nombreux départements français et la quasi-totalité des paroisses du bassin parisien connaissent des reconstructions d’églises durant le Moyen-Âge tardif. C’est en observant l’appareillage des plus grandes églises que certains historiens ont découvert que les bâtisseurs gothiques ont inventé la construction préfabriquée des pierres en carrière et sur le chantier. C’est une méthode à laquelle la France n’aura de nouveau recours en masse qu’après la Seconde Guerre mondiale avec la préfabrication lourde en panneaux prédéfinis, comme le système Camus pour la reconstruction des années 1950. De ce formidable progrès technique, Gimpel va même jusqu’à penser que l’agriculture du XIIIe siècle pourrait être un modèle d’aménagement pour perfectionner les techniques agricoles de ce que l’on appelait le « tiers-monde » durant les années 1970. Il en a déduit une vision non linéaire et cyclique de l’histoire, déterminée par les lois de l’innovation technologique où aux grandes périodes d’expansions succèdent des phases de « plateau technologique » (ralentissement de l’innovation) puis de déclin. Dès la fin du XIIIe siècle, le développement social et technologique entre en stagnation et correspond à ce que l’historien Emmanuel Le Roy-Ladurie appelle « l’histoire immobile » entre le XIVe et le XVIIIe siècles.

Le Moyen-Âge tardif fut une véritable époque de révolution industrielle portant les germes du productivisme et du rationalisme.

Méconnu dans l’Hexagone, l’historien et philosophe américain Lewis Mumford anticipe avec 70 ans d’avance certaines thèses de Bernard Stiegler sur la technique et le temps. Mumford écrit dans Technique et civilisation[3] que l’impact véritable de la technique sur la civilisation humaine et sur son environnement remonte à l’avènement au XIe siècle de l’« âge éotechnique » en Europe occidentale. Située à l’aube de la technologie moderne, cette ère, qui s’achève vers 1750, se caractérise par le développement de techniques nouvelles grâce à l’usage du fer et à la généralisation de l’énergie hydraulique et éolienne. Rigoureusement intransportable, celle-ci se manifeste par une grande dispersion géographique des sources de production grâce à la densité d’implantation des moulins, à la fois dans les zones urbaines et rurales. Les énergies renouvelables contemporaines en reprennent le principe de déconcentration spatiale mais avec une capacité de rendement et de transport plus élevée (voire peut-être de stockage contre leur intermittence). L’invention de l’horloge dans les monastères bénédictins et cisterciens marque l’avènement progressif de la mécanisation et du règne de la technologie sur la civilisation humaine, car c’est en mesurant le temps qu’on peut ensuite maîtriser l’invention du chemin de fer et, comme aujourd’hui, les technologies de communication. Quoique l’origine bénédictine des horloges ait été depuis remise en question, la thèse générale de Mumford dans Technique et civilisation rejoint l’idée de Gimpel selon laquelle le Moyen-Âge tardif fut une véritable époque de révolution industrielle portant les germes du productivisme et du rationalisme[4], au point qu’il devient difficile de donner une date précise à l’avènement de l’anthropocène. On pourrait d’ailleurs multiplier les exemples d’une incidence anthropique sur l’environnement et les paysages qui remonte même bien avant le Moyen-Âge, si l’on songe à la maîtrise de l’irrigation et à la naissance de l’agriculture en Mésopotamie.

Vers la fin du progrès technique ?

Ferons-nous toujours preuve d’un rationalisme conquérant comme nos ancêtres essarteurs de la Beauce ? Notre époque peut-elle encore s’engager sur la pente ascendante du progrès matériel, comme ce fut le cas dans la France du XIIIe siècle et le monde anglo-américain du XXe siècle ? Dans La fin de l’avenir, la technologie et le déclin de l’Occident, Jean Gimpel s’exerce à la prospective[5]. On y lit ces lignes surprenantes : « Depuis la contre-culture et Mai 68, la psychologie du Français, comme celle de l’Américain, s’est modifiée dans le sens d’une rupture avec l’avenir matérialiste ». Il imagine la fin du progrès technologique pour les décennies à venir, notamment sous les coups du combat écologiste, avec comme conséquence la stagnation du développement humain. Cet ouvrage nous renvoie à l’idée, difficile à admettre, du déclin économique et social de la France contemporaine. Cette hypothèse a été récemment interrogée par l’historien et anthropologue Emmanuel Todd dans Les luttes de classe au XXIe siècle[6]. A la suite de la crise économique de 2008, il entrevoit l’amorce d’une baisse du niveau de vie orchestrée par l’État en impliquant une remontée des conflits de classe pour les décennies à venir. Plutôt qu’un enrichissement de la classe moyenne supérieure (à l’exception des 1% les plus riches dont le revenu augmente), Emmanuel Todd conçoit une stabilisation des inégalités pour 99% de la population dont la baisse de niveau de vie se manifeste par un ensemble de variables démographiques comme la chute du taux de fécondité. L’ouvrage est paru un an après le début des gilets jaunes, un mouvement populaire dont la mobilisation originelle s’explique par le refus d’une augmentation de la taxation des prix du carburant. Lors des tout premiers évènements, les gilets jaunes ont été particulièrement nombreux à manifester dans les zones dont le niveau d’équipement a récemment décliné : un article du Monde en date du 15 janvier 2021 relevait que « 30% des communes ayant perdu leur supérette dans les dernières années ont connu un évènement gilets jaunes, contre 8% pour les autres ». En obligeant les habitants à effectuer des distances plus longues en voiture pour se rendre dans les commerces alimentaires, la taxation du carburant fournit l’exemple d’une mesure écologique qui affecte particulièrement les marges en sous-équipement où se concentrent les faibles revenus. L’écologie libérale fait ainsi baisser le niveau de vie.

La transition écologique va-t-elle porter un coup fatal en altérant définitivement la qualité de vie ? Il faut à tout prix l’éviter car la préservation de l’environnement suppose de limiter la quantité des biens matériels produits et mis à notre disposition. Nous sommes également bien plus nombreux sur Terre : de 500 millions à la fin du Moyen-Âge, nous sommes passés aujourd’hui à 7 milliards, ce qui nécessite toujours plus d’épuisement et de partage des ressources naturelles. En ce sens, la lutte des gilets jaunes pour le maintien du niveau de vie constitue, au sein du monde développé, l’avant-garde politique des conflits de demain, dans la droite lignée de la modernité politique initiée par la Révolution française.

Rebâtir notre modèle social et technologique pour lutter contre la baisse du niveau de vie

Il existe des solutions. En premier lieu, il faut conduire une politique keynésienne d’État social pour répartir les richesses inégalement détenues. Ensuite, une stratégie de souveraineté politico-économique et de réindustrialisation verte doit réconcilier la protection de l’environnement avec le redéploiement d’une production nationale. Enfin, le retour à l’aménagement volontaire du territoire permettrait d’articuler la gestion collective des ressources d’énergie en voie de raréfaction avec la garantie d’un accès universel et égalitaire à l’équipement sanitaire, commercial et culturel. Selon la définition qu’en donne Eugène Claudius-Petit au conseil des ministres en 1950, l’aménagement du territoire désigne l’action d’organiser harmonieusement l’implantation humaine dans l’espace afin de la disposer en fonction des « ressources naturelles » et des « activités économiques ». Il constitue la méthode la plus volontariste pour mener à bien les grandes réorientations industrielles et écologiques. Assez analogues à l’approche anglo-saxonne du welfare planning, ces trois programmes doivent permettre de lutter contre le déclin français en maintenant le meilleur niveau de vie possible à travers la transition écologique.

Il s’agit d’éviter ce que le géographe Jean Labasse dénomme « l’illusion technicienne » : ni emballement technophile d’un côté […], ni décroissance générale de l’autre […]. Une attitude raisonnable et sobre doit esquisser une troisième voie qui mêle high-tech et low-tech.

C’est ce que l’urbaniste écossais Patrick Geddes, repris par Lewis Mumford, appelait en quelque sorte de ses vœux par l’avènement d’un « âge néotechnique » fondé sur des circuits agricoles de proximité, une offre d’électricité sans charbon ni fer, et une technologie au service du bien-être de tous, qui n’aliène pas l’individu. Selon un modèle analogue, Jean Gimpel défendait l’initiative de la Technologie intermédiaire (Appropriate technology) visant à adapter les innovations techniques à la réalité historique et anthropologique des sociétés contemporaines, selon leur niveau de développement. Elle demeure aujourd’hui largement ignorée par l’écologie politique, si bien que l’UNESCO s’en est ému récemment en dénonçant l’absence de remise en perspective culturelle et anthropologique des scénarios de transition. Il s’agit d’éviter ce que le géographe Jean Labasse dénomme « l’illusion technicienne » : ni emballement technophile d’un côté, naïvement nourri par le solutionnisme de la géo-ingénierie ou de la smart city, ni décroissance générale de l’autre pour revenir à un supposé état de nature révélateur de la méconnaissance des lois de l’histoire humaine. Une attitude raisonnable et sobre doit esquisser une troisième voie qui mêle high-tech et low-tech selon les spécificités géographiques et historiques. D’un côté, contre les grands projets inutiles d’aménagement métropolitain et l’artificialisation des sols, il faut renouer avec les restaurations du patrimoine culturel et la préservation des terroirs (schéma d’affectation des sols, réimplantations des haies bocagères, remembrement écologique des openfields, spécialités culinaires et « produits » régionaux). L’économie planifiée doit servir la fabrication d’objets non obsolescents et durables, dans une quantité qui répond aux besoins réels, en réemployant parfois certaines méthodes anciennes au lieu de recourir constamment à l’innovation. De l’autre côté, il s’agit de développer des technologies de pointe utiles en passant à une diversité de sources d’énergie décarbonées qui garantissent l’emprise au sol la plus limitée possible pour préserver l’environnement, et de développer la recherche scientifique comme le projet de fusion nucléaire au centre d’études de Cadarache (Bouches-du-Rhône). Il faudra également maîtriser la décarbonation de l’industrie relocalisée. La possibilité d’un tel compromis raisonné entre low-tech et high-tech devra prouver que l’homme est suffisamment ingénieux pour différencier son œuvre de celle de la nature et subvenir à ses besoins sans (trop) épuiser les ressources terrestres. Car, après tout, il s’agira d’être rationaliste sans excès productiviste.

Notes :
1 – Jean Gimpel, Les Bâtisseurs de cathédrales, Paris: Seuil, 1958.
2 – Marc Bloch, Les Caractères originaux de l’histoire rurale française, Paris: Armand Colin, 1931.
3 – Lewis Mumford, Technique et civilisation, 1934, traduction et réédition française Paris: Parenthèses, 2016.
4 – Voir Lynn Townsend White, jr, The Historical Roots of Our Ecologic Crisis, chap. 5 in Machina ex Deo : Essays in the Dynamism of Western Culture, Cambridge, Mass., and London, England, The MIT Press, 1968, p. 75-94
5 – Jean Gimpel, La fin de l’avenir : la technologie et le déclin de l’occident, Paris: Seuil, 1992.
6 – Emmanuel Todd, Les luttes de classe au XXIe siècle, Paris: Seuil, 2020.

Le populisme : une réaction à l’accélération libérale ?

Ces dernières années, une vague populiste met en branle le paysage politique mondial. Mais quelle est la source de ce phénomène ? Comprendre le populisme comme réaction à l’accélération moderne semble assimiler en un seul concept les différentes raisons (insécurités politique, culturelle ou économique) mises en avant pour expliquer son émergence. Le populisme est un cri d’alarme pour reprendre le contrôle d’un temps qui ne cesse de nous échapper. Et, comme nous le signalait déjà Karl Polanyi en son temps, l’absence de réponses concrètes entraînerait fatalement l’apparition de mouvements politiques explosifs. Ce même Polanyi nous encourage donc à remettre en question le principal responsable politique de cette accélération : le libéralisme.

Comment expliquer l’émergence si vigoureuse du populisme ces dernières années ? L’insécurité culturelle selon Christophe Guilluy, l’insécurité économique selon Thomas Piketty, ou encore l’insécurité politique selon Jérôme Fourquet ; les théories se contredisent peu et, en général, se complètent. Ce sentiment d’insécurité généralisé (culturelle, économique et politique) pourrait aussi être compris comme réaction à l’accélération moderne. Un concept notamment mis en avant par Harmut Rosa, ce phénomène d’accélération semble assimiler dans une seule notion toutes ces formes d’insécurité.

L’accélération comme générateur des trois insécurités principales

Insécurité économique d’abord, car la principale source d’accélération serait issue du marché fluctuant constamment. Ce rapport entre économie de marché et accélération est établi très clairement dès le Manifeste du parti communiste, écrit par Karl Marx et Friedrich Engels : « La bourgeoisie n’existe qu’à la condition de révolutionner sans cesse les instruments de travail, ce qui veut dire le mode de production, ce qui veut dire tous les rapports sociaux (…) Ce bouleversement continuel des modes de production, ce constant ébranlement de tout le système social, cette agitation et cette insécurité perpétuelles, distinguent l’époque bourgeoise de toutes les précédentes. Tout ce qui était solide et stable est ébranlé, tout ce qui était sacré profané… »

C’est donc bien la révolution constante de nos modes de production, par exemple le passage d’une économie industrielle à une économie numérique en l’espace de 30 ans, qui crée ce sentiment d’insécurité économique. L’expérience et les compétences développées pendant plusieurs décennies par un ouvrier peuvent être rendues totalement inutiles dès lors qu’une technologie plus efficace apparaît. L’homme devient une sorte de marchandise qui se périme selon les évolutions (de plus en plus rapides) de l’économie. Il est donc totalement démuni devant les lois du marché. Et il le ressent quotidiennement : la crainte de tout perdre et de se retrouver dans la rue s’accroît à mesure que le marché s’accélère.

Mais le marché ne peut pas être saisi seulement comme phénomène matériel. C’est aussi et surtout un « fait social total ». La croyance dans la fluctuation incessante via la libéralisation généralisée entraîne évidemment la production d’un fort sentiment d’insécurité culturelle. Comme nous le montre Karl Polanyi dans son ouvrage homonyme, La grande transformation de nos sociétés, accélérée par le marché, détruit les structures protectrices que sont les cultures et les religions – et cela sans contrepartie. Ainsi, la pauvreté de masse observée en Europe au XIXe siècle, mais aussi dans les territoires colonisés, est en partie explicable par la dissolution de la culture et des communautés locales. En l’espace d’une génération, des traditions multiséculaires et des langues anciennes disparaissent. Cela est particulièrement accentué par l’exode rural de masse, où des villages entiers se volatilisent. L’esprit ouvrier des XIXe et XXe siècles est une tentative désespérée de reconstruire ces réseaux ; mais voilà qu’ils s’amenuisent encore dès les années 1960. De nouveau, des villes entières changent d’économie et de profil démographique en quelques décennies. L’accélération des flux migratoires est en effet une partie intégrante de l’accélération moderne et du sentiment d’aliénation qui l’accompagne. Que ce soit pour les populations émigrées ou les classes populaires d’accueil, les structures culturelles s’affaissent très rapidement.

Enfin, l’accélération des flux économiques et des changements culturels contribue à accentuer l’insécurité politique. En effet, comment gouverner démocratiquement (et même non-démocratiquement) dans ces conditions ? Comme l’explique Rosa, la bureaucratie étatique est perçue comme l’exemple suprême de l’inefficacité et de la lenteur –relativement à notre époque et à la vitesse du marché, bien sûr, puisque l’État a souvent été un acteur d’accélération. Paradoxalement, il maintient son potentiel accélérateur, non à travers son intervention directe, mais plutôt grâce à sa non-intervention. Il accélère en dérégulant.

Ainsi, devant l’accélération moderne, l’État perd son pouvoir et sa capacité d’initiative car son administration devient de plus en plus, comme tant d’autres avant lui, périmée. Mais pour l’accélération moderne, le plus nauséeux des parasites, c’est la démocratie. Cette dernière doit suivre des protocoles fastidieux et fonctionne mieux lentement –à l’instar de la Suisse, où la démarche référendaire peut prendre plusieurs années. Les représentants sont maintenant obligés de prendre des décisions de plus en plus rapidement, compliquant la communication avec les électeurs. Au sein même des institutions, la nécessité d’être efficace crée des tensions. Ainsi nous le rappelle un ministre de La République en Marche (LREM) qui cherche à faire passer rapidement ses propositions de loi : « Pour moi, un député de la majorité ne sert à rien. Il est là pour voter, avoir une mission de temps en temps, et surtout fermer sa gueule ! ». Toutes ces tensions, entre l’État, les institutions démocratiques et enfin les électeurs, engendrent une impuissance politique généralisée. Les citoyens ne sont plus protégés par le politique.

Des réactions politiques dangereuses

C’est dans ce contexte de flux permanents que le populisme émerge. Il est une réaction à ce sentiment d’insécurité temporelle. Comme nous l’explique Zygmunt Bauman, désemparés devant ce tourbillon mondial, les peuples crient pour tenter de reprendre la main, « to take back control ». Et, selon Polanyi, plus cette accélération est incontrôlable, plus l’élastique qui essaie tant bien que mal de tenir notre société ensemble se tendra. Il finira, sans intervention, par rompre inévitablement, laissant place aux monstres politiques les plus terrifiants : en 1944, quand Polanyi écrit ce livre, c’est bien évidemment du fascisme et du nazisme dont il est question.

Aujourd’hui, le populisme s’exprime dans certains partis à travers une nostalgie identitaire, une volonté désespérée d’un retour à un « chez soi du passé » qui serait meilleur. Même s’il est important de dénoncer les formes extrêmes de cette nostalgie, il ne faut pas y répondre par l’autre extrême politique de la révolution ou du changement permanent. En effet, Hannah Arendt nous explique très bien dans Les origines du totalitarisme comment ce dernier utilise d’abord le mouvement continu pour asseoir son autorité. Si le changement est inévitable, alors mieux vaut qu’il soit engendré par moi, se dit le chef totalitaire.

La nostalgie et la révolution permanentes sont donc les deux revers d’une même médaille : une volonté pathologique de contrôle du temps dans un contexte d’accélération incessante. Il est d’ailleurs intéressant de remarquer la similarité étymologique (même si l’une est grecque et l’autre latine) entre la nostalgie et la révolution. « Nostalgie » signifie, en grec ancien, un désir de retour chez soi (nostos) qui susciterait une douleur profonde (alga) ; « révolution » vient du latin revolvo, indiquant pareillement un retour, un recommencement en arrière. Nostalgie ou révolution, il s’agit d’une volonté de retour à un passé immuable, source de réconfort dans un tourbillon sans cesse en branle.

Le libéralisme : responsable politique de l’accélération moderne ?

Cependant, pour Polanyi, il n’est pas question de glorifier un centre modéré, « libéral », qui aurait trouvé le parfait milieu entre ces deux extrêmes. Au contraire, c’est bien ce libéralisme qui serait responsable de cette accélération. Primairement par son incapacité à concevoir le temps long ; car le libéral comprend le temps comme une succession d’instants qui tend naturellement vers le progrès. Comme il nous l’explique, « nulle part la philosophie libérale n’a échoué aussi nettement que dans sa compréhension du problème du changement. Animée par une foi émotionnelle en la spontanéité, l’attitude de bon sens envers le changement a été écartée au profit d’une disposition mystique à accepter les conséquences sociales de l’amélioration économique, quelles qu’elles soient. » Outre un progressisme caractéristique des Lumières, cette « foi émotionnelle en la spontanéité » peut être expliquée par un subjectivisme particulier au libéralisme, où l’individu atomisé veut être libre, sans fin (dans tous les sens du terme). Il faut donc écarter tous les obstacles à son mouvement : le libéralisme, c’est le parti du mouvement. C’est pourquoi le marché en est le complément parfait (et vice-versa) ; il cherche aussi à détruire toute entrave à son libre fonctionnement.

La décélération : une urgence

Le populisme est donc une réaction à cette accélération libérale. Pour répondre à ses aspirations, quelles solutions ? Il y a celle de Zygmunt Bauman : développer une réponse mondiale ou continentale, puisque les « espaces de flux » peuvent facilement outrepasser les « espaces de contrôle locaux ». Celle de David Djaïz qui préconise de fortifier l’État souverain : « C’est cela, la Slow démocratie : la réhabilitation des nations démocratiques dans la mondialisation, l’aménagement d’îlots de décélération face à l’accélération et à l’extension sans limite du domaine de la marchandise ». Ou même celle de François Ruffin, qui, contre la devise macroniste (accélérer, accélérer, accélérer !), souhaite soumettre le « progrès » technologique à la délibération démocratique. Quoi qu’il en soit, si nos élites veulent offrir une réponse sérieuse et honnête à la vague populiste, il est crucial que l’accélération et la décélération soient au centre de leurs préoccupations.

« Smart cities » : mirage solutionniste pour voiler l’impuissance politique

https://unsplash.com/photos/u9ANbfdYEZs
Personnes marchant à Tokyo, Japon © Koukichi Takahashi

La smart city – ou ville intelligente – est un concept en pleine expansion. L’Hexagone ne fait pas exception puisque de nombreuses collectivités locales consacrent déjà des sommes faramineuses pour favoriser ce mode de développement. Pas moins de 25 villes françaises ont ainsi nommé un responsable chargé de rendre plus smart leur environnement urbain. Green city ou safe city : gauche et droite communient dans l’enthousiasme, misant sur le numérique pour s’attaquer au réchauffement climatique comme à l’insécurité. Un moyen commode de dépolitiser ces enjeux et de pallier la misère budgétaire par une inflation technologique.

Les villes accueilleront 75% de la population mondiale d’ici à 2050, concentrant le gros des efforts de lutte contre la criminalité, la pollution ou encore les inégalités. C’est dans ce contexte que la smart city apparaît souvent comme la solution miracle à toutes ces problématiques qui guettent la ville moderne. Selon la Commission Nationale de l’Informatique et des Libertés (CNIL), la smart city, pourrait ainsi permettre « d’améliorer la qualité de vie des citadins […] à l’aide de nouvelles technologies ». Plusieurs domaines inhérents à la ville sont concernés : les « infrastructures publiques, les réseaux, les transports, les e-services et e-administrations ». La mise en place de la 5G en France ne fait qu’accélérer ce modèle puisqu’elle permet une circulation plus rapide des données. La mairie de Paris vient ainsi d’accepter le déploiement de cette nouvelle technologie afin de se préparer à accueillir les JO 2024.

Gauche et droite unies dans l’enthousiasme

Dans un article du Monde Diplomatique de juin 2019, le chercheur et membre de La Quadrature du Net Félix Tréguer analyse « qu’en-dehors de quelques initiatives en matière de mise à disposition des données, de gestion intelligente de l’éclairage public ou des bennes à ordures, la ville intelligente se définit surtout par son volet sécuritaire [la safe-city] ». Pourtant, s’il est vrai que les arguments sécuritaires sont largement mobilisés pour mettre en place des villes intelligentes, les promoteurs de la smart city sont capables d’adapter leurs justifications et leurs arguments au gré des enjeux locaux. La ville intelligente sera tantôt dévouée à la protection de l’environnement à Grenoble, tantôt attentive à la répression de la criminalité dans les villes marquées par une violence soudaine, comme à Nice.

Les dirigeants de certaines villes françaises ayant pris des engagements en faveur de la protection du climat s’enthousiasment face à la mise en place de technologies ultra-modernes. Le maire de Grenoble Eric Piolle, a ainsi inauguré en 2017 la construction d’un « technopôle » doté de « smart grid ready intelligent » afin de raisonner la consommation d’énergie. De même, les métropoles de la capitale des Alpes et de Besançon favorisent la mise en place d’une taxe d’habitation proportionnelle aux déchets des habitants. Pour ce faire, 150 000 nouveaux bacs personnels équipés de puces RFID vont être mis en place à Grenoble tandis que les camions de collecte équipés de matériel de pesée seront dotés de nouveaux logiciels. À Bordeaux, plus de 500 capteurs ont été installés pour la mise en place du projet Smart Lights afin de réduire la consommation d’électricité communale. Même principe à Rillieux-La-Pape, commune de 30 500 habitants ayant mis en place un éclairage intelligent. À Lyon, c’est la baisse de consommation d’énergie des habitants du quartier Hikari qui est souhaitée. Ce projet construit par le géant Bouygues équipe les immeubles de capteurs en tout genre (fournis en grande partie par Toshiba) tandis que chaque résident est équipé d’une tablette de suivi énergétique.

Les nouvelles technologies alimentées par les très polluants métaux rares transportés de l’autre bout du globe pour constituer des « cités écologiques » permettent avant tout d’exporter la pollution engendrée par le système de production et de consommation.

Cette liste n’est pas exhaustive mais permet de comprendre les arguments mis en avant par les responsables politiques soucieux de « verdir » leur image. Qu’en est-il réellement ?

À Lyon, la mise en place de ces nouvelles technologies à l’utilité douteuse – suffit-il de donner une tablette de suivi énergétique pour susciter une nouvelle manière de consommer ? – a entraîné un surcoût de 8% dans la construction du quartier Hiraki, pour le plus grand bénéfice de Bouygues ; une réalité qui jure de prime abord avec l’objectif de réduction des coûts. L’ambition affichée de construire des « cités écologiques » prête à sourire lorsque l’on connaît l’impact environnemental des métaux rares incorporés dans les technologies numériques. Ces matières premières sont en effet transportées de l’autre bout du globe jusqu’aux villes françaises sans que cet aspect ne soit discuté dans le débat public.

Pour une analyse du coût écologique du numérique, lire sur LVSL la synthèse de Nathan Dérédec sur les métaux rares : « Métaux rares : l’empire global de la Chine ».

Ici comme ailleurs, la focalisation sur l’utilité du numérique voile le coût écologique du système de production et de consommation. De même, comment comprendre cette volonté de favoriser une gestion « citoyenne » des déchets, lorsque l’on garde à l’esprit la difficulté de recycler nombre de détritus ?

Lutte 2.0 contre l’insécurité et la pauvreté

Si les arguments en faveur du climat ont souvent été mobilisés dans le contexte des smart cities, de nombreux projets dont le but est de réduire la criminalité essaiment à travers l’hexagone. Il est d’ailleurs très difficile, sinon impossible, pour un responsable politique de s’opposer à cette tendance techno-sécuritaire. En 2014, l’engagement n° 95 du futur maire de Grenoble promettait de supprimer les caméras de surveillance en espace extérieur. Ce dernier avait provoqué un tollé médiatique en plaisantant sur le fait qu’il allait revendre les caméras désinstallées à la mairie de Nice, friande de technologies sécuritaires. La ville méditerranéenne a en effet été marquée par les terribles évènements du 14 juillet 2016, qui ont entraîné une « thérapie de choc » sécuritaire à travers la ville. Ainsi, l’autorisation de portiques de reconnaissance faciale dans deux lycées fut entérinée en 2018 par le conseil régional de la région PACA. L’aéroport de la ville a subi le même traitement de faveur. L’application Reporty, largement plébiscitée par le maire de la ville Christian Estrosi, permet aux citoyens de dénoncer des délits et des incivilités à la police.

L’enthousiasme pour la magie du numérique rend inaudible les discours considérant le chômage ou le mal-logement comme des problèmes structurels, appelant des solutions politiques et non des gadgets technologiques.

À Marseille, l’entreprise Engie Ineo se voit confier le projet « d’observatoire big data de la tranquillité publique » permettant d’agréger différentes sources d’information issues des services publics (police, hôpitaux…), de partenaires externes (ministère de l’Intérieur entre autres) ou des opérateurs télécoms afin de cartographier en temps réel les flux de population. De même, avec son projet de « vidéoprotection urbaine » (VPU), la cité phocéenne suit la même voie que la mairie niçoise. Le projet S²ucre, mené par l’Allemagne et la France, repose sur l’analyse de vidéos et permet de surveiller de larges foules et de prédire leurs comportements. Le projet a déjà été déployé lors du festival d’Hambourg ainsi que lors de la manifestation du 1er mai à Paris.

Pour une analyse de la captation des données par la technologie numérique et de l’économie qu’elle alimente, lire sur LVSL l’article d’Evgeny Morozov : « Captation des données par les GAFAM : aller au-delà de l’indignation ».

Entre 2010 et 2016, le nombre de caméras de surveillance a ainsi augmenté de 126% (1,5 million d’appareils en France). Ces installations onéreuses ont largement été plébiscitées par la puissance publique. En 2009, Brice Hortefeux reprend ainsi le « Rapport sur l’efficacité de la vidéoprotection » à la méthodologie douteuse pour justifier l’utilisation d’une telle technologie. C’est la plupart du temps suite à des actes terroristes que leur mise en place est favorisée (attentats de Londres en 2005, de Boston en 2013 ou de Nice en 2016). Pourtant, de nombreuses études ont prouvé que ces technologies n’avaient qu’une efficacité limitée. Le sociologue Laurent Mucchielli, auteur de Vous êtes filmés ! Enquête sur le bluff de la vidéosurveillance, analyse ainsi que lors des attentats terroristes de Nice, « les caméras n’ont fait que filmer l’horreur et n’ont servi à rien ». Il dénonce un véritable « bluff technologique qui permet plus de lutter contre un sentiment d’insécurité que contre les problèmes de sûreté réellement existants ». En revanche, les multiples coupes budgétaires imposées au Ministère de l’intérieur depuis la présidence de Nicolas Sarkozy sont rarement évoquées dans le débat public.

Dans un rapport financé par la métropole Lyonnaise destiné à « repenser la ville intelligente dans les quartiers populaires », la smart city se met également au service de l’amélioration des services publics. Le problème résiderait justement dans leur difficulté à dématérialiser les administrations. Les territoires ruraux sont accusés du même mal dans l’étude « Smart City vs. Stupid village » publiée en 2016 par la Caisse des Dépôts. Ainsi, la smart city permettrait de rapprocher les citoyens des administrations publiques à l’image de la mission « numérisation de la Seine-Saint-Denis ». La métropole de Toulouse a, quant à elle, favorisé le développement de l’application Jobijoba afin de favoriser l’emploi local tandis que d’autres plateformes sont créées afin de faciliter les demandes de logements sociaux.

Plaider pour la mise en place de la smart city permet aux décideurs politiques de montrer une attention aux problèmes rencontrés par les classes touchées par le chômage de masse ou par la ségrégation spatiale. Ici encore, l’enthousiasme pour la magie du numérique rend inaudible les discours considérant le chômage ou le mal-logement comme des problèmes structurels, appelant des solutions politiques et non des gadgets techniques.

Le projet avorté d’éco-quartier de Sidewalk à Toronto, entièrement conçu par Google, allait ainsi devenir une véritable usine à data.

Ces décisions font également fi du désintérêt de nombre de citoyens envers la dématérialisation de l’administration. Le dispositif Visio-guichets dans les Hautes-Alpes, censé rapprocher les usagers des services publics, n’a par exemple attiré qu’un faible nombre d’utilisateurs. D’autant plus que la dématérialisation des administrations permet souvent de réaliser de fortes coupes budgétaires. Pourtant, 86% des collectivités françaises sont aujourd’hui engagées dans cette voie. La numérisation, cache-misère d’administrations réduites à peau de chagrin par des décennies d’austérité ?

Les bénéficiaires cachés de la « transition numérique »

Si la mise en place de smart cities se fait pour des raisons différentes, force est de constater que ces dernières possèdent des traits communs. Les villes intelligentes sont souvent réalisées dans le cadre de Partenariats Publics-Privés (PPP). Ce mode de financement se fait avant tout au bénéfice des GAFAM américaines (Google, Amazon, Facebook, Apple, Microsoft), et dans une moindre mesure de certains géants chinois ou de différentes entreprises françaises spécialisées dans les high-techs (Thales Group, Safran SA, AnyVision…).

Pour une analyse de la rivalité sino-américaine au prisme du numérique, lire sur LVSL l’article de Sarah Vennen : « Cyber-colonialisme : comment le régime chinois de techno-surveillance s’impose au Zimbabwe ».

Ces PPP permettent aux industries de faire de certaines villes françaises une vitrine de communication à bas prix. La ville de Valenciennes s’est ainsi équipée de caméras de surveillance dotées d’un système de reconnaissance faciale offertes par Huawei. Bien souvent, les « villes intelligentes » s’insèrent dans l’économie globale des données, accroissant et raffinant les moyens de procéder à leur captation. Le projet avorté d’éco-quartier de Sidewalk à Toronto, entièrement conçu par Google, allait ainsi devenir une véritable usine à data. L’opacité régnant autour du projet faisait craindre à certains spécialistes que les données soient utilisées à des fins commerciales. D’autant que le stockage et l’analyse des nombreuses données produites par les géants du web est totalement incompatible avec des impératifs relatifs au changement climatique…

Envers et contre tout, l’installation de villes intelligentes semble largement plébiscitée par l’État. Ce dernier, par le prisme de la Banque Publique d’Investissement (BPI) finance de nombreux projets (VOIE, financement du projet de safe-city de Nice à hauteur de 11 millions d’euros…). De même, les groupes Thales et Engie Ineo, qui participent à de nombreux projets de villes sécuritaires, sont possédées respectivement à 23,6% et 25,8% par l’État français. Les collectivités locales semblent également tout faire pour faciliter l’implantation des géants de la technologie. La région Grand Est a ainsi récemment accordé à Huawei une subvention de 800 000 euros pour construire un site de production, afin de fabriquer des « équipements de communication sans fil 4G et 5G destinés principalement au marché européen ». La mairie de Lyon a, quant à elle, dépensé plus de 340 millions d’euros dans des PPP au bénéfice d’une trentaine d’entreprises dont Toshiba, Bouygues, Transdev ou SPL Lyon Confluence. L’utilité et la nécessité d’un tel mode de développement n’est pourtant que très peu remise en cause.

On doit à Evgeny Morozov d’avoir forgé le concept de solutionnisme technologique, qu’il détaille dans l’un de ses livres au titre évocateur : Pour tout résoudre, cliquez ici. Il renvoie à la croyance selon laquelle des problèmes irréductiblement politiques peuvent trouver des solutions technologiques grâce au numérique. Le paradigme de la « causalité », analyse-t-il, est peu à peu remplacé par celui de la « connexion » ; plutôt que d’interroger la cause de la pauvreté, du changement climatique ou de l’insécurité, la classe politique estime qu’une meilleure « interconnexion » entre demandes et offres, problèmes et solutions, permise par les technologies digitales, permettra de les résoudre. Ce qui revient in fine à considérer que les problèmes politiques sont générés par un accès déficient à l’information, et non par des institutions dysfonctionnelles.

Les smart cities apparaissent comme l’une des têtes-de-pont de ce solutionnisme technologique. Ce leitmotiv ne permettra ni de questionner l’austérité budgétaire, ni le paradigme politique dominant.

Yaël Benayoun et Irénée Régnauld : « Le progrès technique n’est pas nécessairement synonyme de progrès social »

Technologie partout démocratie nulle part

De la vidéosurveillance à l’automobile, des caisses automatiques à la 5G, chaque choix technologique est un choix de société. Alors que la décision nous échappe, nous en subissons les conséquences de plein fouet. De la smart city sécuritaire à l’ubérisation du travail, des conséquences environnementales à la surveillance diffuse, voilà un certain temps que la marche de l’innovation n’a pas de quoi faire l’unanimité. Comment s’emparer de la trajectoire du progrès, intervenir dans ces décisions technologiques et peser dans ces rapports de force qui décident de notre vie en commun ? Petit précis de techno-critique et de démocratie technique avec Yaël Benayoun et Irénée Régnauld, cofondateurs de l’association le Mouton Numérique et auteurs de Technologies partout, démocratie nulle part, publié chez FYP cet automne 2020. Propos recueillis lors de la présentation du livre à la librairie l’Attrape-Cœurs par Maud Barret Bertelloni.


LVSL – Vous commencez votre livre en vous attaquant à ce lieu commun qui voudrait que les technologies soient un donné à l’égard duquel nous ne pourrions que nous adapter. C’est un motif récurrent : le service public doit se mettre au pas des nouvelles technologies, les citoyens doivent suivre, la compétition mondiale presse… Qu’est-ce que cela a à voir avec notre conception de la technologie ?

Yaël Benayoun et Irénée Régnauld – Le mot technologie historiquement est né pour décrire une science de la technique, comme un regard posé sur les objets techniques et la façon dont on les construit. À certaines époques, la technologie a été enseignée comme une science politique. Il se trouve qu’on est aujourd’hui dans une période où la technologie a acquis la forme d’objet : quand on dit technologie, on pense à un iPhone, à une fusée spatiale… Alors que si l’on repart de l’étymologie : techno+logos, c’est le discours sur la technique. C’est essentiel dans la mesure où la plupart des gens qui font des technologies, qui sont souvent des ingénieurs, prennent ça comme des artefacts absolument neutres, qui ne revêtent aucune dimension politique. Or ce qu’ils font, à titre individuel comme collectif, est de l’ordre du politique.

Tout l’enjeu du début du livre, c’est de revenir sur le discours véhiculé sur la technique que l’on entend beaucoup dans les médias dominants : tous les « la technique est neutre », « ce n’est que l’usage qui compte », « on n’arrête pas le progrès »… Cette notion de progrès est sous l’emprise d’une vision très positiviste de la société, qui part du principe que le progrès technique est nécessairement synonyme de progrès social et que ce progrès est inéluctable et n’est donc pas questionnable. Comme si le développement technologique n’était pas le fait de choix et de stratégies et d’un jeu d’acteurs. Pour prendre un exemple : le réseau de tramways était bien installé aux États-Unis au début du XXe siècle. Les constructeurs d’automobiles ont alors développé des stratégies de rachat massif des compagnies de tramway pour démanteler les réseaux de transport concurrents. L’avenir de la mobilité et des transports aurait pu être différent que le tout automobile américain.

« Pour chaque choix technologique, il y a un rapport de forces et il faut peser sur ce rapport de forces pour l’orienter différemment. »

C’est ce qui passe aujourd’hui avec la « high tech ». Le terme de technologie de « pointe », de high tech est un terme qui introduit une hiérarchie entre ce qui n’est pas « high », à savoir occidental ou chinois, et le reste. Ces technologies occultent toute une série d’autres choix qui auraient pu être faits et qui ne l’ont pas été. C’est valable à la fois au niveau d’une réflexion globale sur la technique dans une civilisation, mais aussi pour n’importe quel objet technique. Pour chaque choix technologique, il y a un rapport de forces et il faut peser sur ce rapport de forces pour l’orienter différemment.

LVSL – Deux chapitres du livre illustrent ce en quoi les technologies constituent des choix de société. Il y a un premier chapitre consacré à la smart city comme politique de la ville sécuritaire ; un autre sur l’automatisation au travail et toutes ces technologies qui réduisent les travailleurs à de simples rouages dans un monde de machines. Mais en quoi les technologies elles-mêmes constituent des choix de société ?

YB et IR Les choix technologiques structurent la société et l’amènent dans une direction précise qui, sans la déterminer totalement, posent des infrastructures et des cadres dans lesquels on va évoluer. L’exemple typique est la 5G : c’est prendre la direction de l’explosion des équipements numériques et de leurs usages, ce qui porte à une augmentation des capteurs, qui mène vers une ultra-numérisation de la société…  Et il y a des acteurs dominants qui, par leurs investissements, par leurs moyens, par leurs efforts de lobbying, orientent massivement les choix de société. Les efforts de l’industrie de l’automobile ont conduit à la société de la voiture et donc à l’étalement urbain. Il en va de même avec l’introduction de certaines technologies qui brisent les collectifs de travail ou de l’introduction de la surveillance qui diminue la propension de chacun à aller manifester. C’est très concret.

LVSL – Revenons sur un exemple dont vous faites mention : s’il y a d’une part le logiciel et toute la technique d’organisation d’une plateforme de livraison comme Uber ou Deliveroo, qui soumettent les travailleurs à des conditions de travail dégradantes et d’exploitation, il y a aussi l’exemple d’une contre-ingénierie : le logiciel des livreurs de CoopCycle, dont les fonctionnalités sont en main aux travailleurs…

YB et IR – Pour remettre un peu de contexte, CoopCycle c’est une coopérative de livreurs créée en réponse au système de Uber, de Frichti, etc. pour fournir une alternative coopérative. Effectivement, ils utilisent aussi une plateforme logicielle pour organiser leur logistique. Mais précisément, ce n’est pas la même application : ils n’ont pas cherché à faire de la food tech, à livrer très rapidement le moins cher possible, mais de réorganiser la livraison sur un mode coopératif.

Dans le livre, nous ne partons pas du principe que toute technologie est mauvaise. Ce n’est juste pas le sujet. Ce qui est intéressant quand on regarde les deux applications de livraison, c’est que dans l’une vous avez les livreurs tracés, surveillés, notés, qui doivent rendre compte de leur temps et aller le plus vite possible, alors que dans l’autre le temps est discuté de manière coopérative. La technologie qui est développée n’a pas les mêmes caractéristiques, car elle incarne alors d’autres valeurs et d’autres objectifs. Notre problématique, au fond, concerne ces choix technologiques faits à différentes strates de la société (la ville, le travail, l’État, etc.) mais surtout les effets de ces choix sur la démocratie.

LVSL – Pour arbitrer entre ces technologies, leurs formes et leurs valeurs, on invoque souvent une approche « éthique » à la technologie : éthique de l’intelligence artificielle, éthique du design, etc. Quel est le problème avec ces approches ?

YB et IR – Il y a eu un retour de bâton à l’égard des technologies ces dix dernières années, notamment depuis l’affaire Snowden, et depuis les tentatives de manipulation électorale comme Cambridge Analytica. Et c’est précisément le moment où l’on voit apparaître un grand nombre de chartes éthiques des entreprises, qui arrivent pour réguler des projets technologiques. Malheureusement, cela n’advient qu’une fois qu’ils ont été créés, sans jamais – ou rarement – repenser la manière dont sont fabriqués les objets, touchant à la rigueur la façon de les déployer à la fin, un peu comme des cases à cocher. Alors, on regarde si l’objet fini est juste, s’il ne discrimine pas, etc. Mais, d’une part, on n’interroge jamais le bien-fondé de l’objet, pour savoir si celui-ci est utile. Et d’autre part, jamais vous ne trouverez mention des chaînes de production technologique dans ces chartes : rien sur les micro-travailleurs ou les travailleurs du clic qui entraînent les intelligences artificielles, rien sur les travailleurs à la chaîne, qui sont une fois de plus invisibilisés sous couvert d’éthique.

Et au même moment où apparaissent ces chartes éthiques, on constate un flétrissement des procédures démocratiques traditionnelles et un certain glissement du droit vers l’éthique. En termes de démocratie, c’est un problème. Un exemple très simple : dans l’État de Washington, aux États-Unis, Microsoft a fait du lobbying pendant des années via un salarié qui était simultanément congressman – pantouflage éhonté, conflit d’intérêts. Il a fait voter une loi qui encadre la reconnaissance faciale dans l’État de Washington, suivant un cadre « éthique », de telle sorte que les systèmes doivent reconnaître aussi bien les personnes noires que les personnes blanches. Pourtant, dans une ville comme Portland, les technologies de reconnaissance faciale ont bien été interdites, tant en ce qui concerne leur usage par les forces de police, que par les commerces. Plutôt que d’interdire, l’éthique a donc permis à Microsoft de plaquer des règles pour éviter les régulations. L’éthique, ce n’est pas contraignant, c’est une profession de foi.

« L’éthique, ce n’est pas contraignant, c’est une profession de foi. »

C’est pour cela qu’on a ironiquement intitulé une section : « Une 5G éthique est-elle possible ? » La 5G est en préparation depuis dix, quinze ans : il y a eu des brevets, des recherches, des investissements chez les opérateurs… Là ça arrive et on fait semblant d’avoir un débat sur quelque chose qui est déjà joué, sans jamais qu’on se soit posé collectivement la question des réseaux du futur. On pose une fois de plus la question à la fin… Et puis on va demander aux consommateurs d’être, eux, éthiques en faisant le bon choix. Mais quand il va en grande surface pour acheter une balance et il n’y a que des balances connectées, on ne peut pas responsabiliser le consommateur en lui demandant de se faire une balance tout seul.

LVSL – Outre cette perspective technocritique, votre livre porte un véritable projet lié à la démocratie technique. Celui-ci comporte plusieurs aspects : réinvestir le champ du progrès, introduire un contrôle démocratique, investir les instances nécessaires à ouvrir un débat de société sur les technologies… Comment les articuler ?

YB et IR – L’idée n’est pas de fournir un programme mais de montrer qu’il y a des initiatives et des projets qui sont déjà là. On n’est pas du tout aussi démunis qu’il n’y paraît. L’avenir technologique tel qu’on nous le vend n’est pas inéluctable. Toute une partie du livre recense justement tout un ensemble de luttes, des ingénieurs à la société civile, tous ces mouvements qui ont donné lieu à une première réponse : les entreprises font de « l’éthique » aujourd’hui parce qu’elles ont du mal à recruter ; le RGPD n’aurait pas eu lieu sans l’affaire Snowden.

La logique du projet est simple : pour chaque choix technologique, il y a des stratégies d’acteurs, la majorité de ces choix se font sur le long terme, à huis clos, avec des industriels et des politiques qui malgré toutes leurs bonnes intentions ont l’exclusivité sur ces décisions. Le rapport de force bascule clairement d’un côté. Il faut alors rééquilibrer ce rapport de forces pour avoir une vraie discussion sur la société qu’on veut. Et selon la société qu’on veut, on peut faire les technologies qui vont avec. Pour chacun de ces choix, il faut rajouter des acteurs dans la boucle de décision. A minima, c’est la société civile organisée, comme on le retrouve par exemple dans toutes les propositions de forums hybrides dans les projets de démocratie technique. Cela voudrait dire que vous ne mettez pas dans les groupes d’experts seulement des représentants du monde industriel et politique, mais aussi des représentants du monde associatif, avec le même poids que les autres, ce qui rééquilibre les décisions.

« Pour chaque choix technologique, il faut rajouter des acteurs dans la boucle de décision. »

Un exemple dont on a beaucoup parlé ces derniers temps est celui de la Convention citoyenne sur le climat. Cela consiste à mobiliser des personnes tirées aux sort, concernées par les projets et les technologies en question selon ses enjeux spécifiques (l’automatisation des caisses ou la 5G), qui vont interroger les experts, ce qui inclut les associations, les juristes, les journalistes spécialisés. Une fois que ces personnes sont informées et formées sur le sujet, elles formulent des recommandations. Nous proposons d’aller un cran plus loin que ce qui existe déjà actuellement et de faire en sorte que leurs recommandations ne soient pas seulement consultatives mais décisionnelles pour qu’elles aient un effet direct sur les politiques industrielles et l’orientation des investissements.

Cela fait vingt ans que de tels dispositifs participatifs existent, et les sociologues et les politistes qui étudient ce genre de procédés remarquent que ces dispositifs sont efficaces. Quand la méthodologie est bien respectée, les recommandations qui émergent sont de très grande qualité. Le problème relève plutôt du fait qu’il n’y a presque jamais d’effets par la suite, parce que ces instances de délibération sont déconnectées des instances de décision. Il y a des groupes qui travaillent pour produire ces recommandations, mais elles ne sont finalement pas écoutées. Le cas de la Convention citoyenne devait au départ être un peu exceptionnel, parce qu’elle était au reliée à une instance de décision : les recommandations devaient passer sans filtre soit par le parlement soit par référendum. Aujourd’hui on voit que tout est détricoté. La 5G est un bon exemple : les citoyens de la Convention ont demandé un moratoire et il n’y aura pas de moratoire. Or, si ces dispositifs peuvent fonctionner, il faut les systématiser et surtout leur donner un vrai rôle.

Il y a aussi des outils, comme le principe de précaution, qui permet de s’arrêter pour documenter, pour produire du savoir. Sans le principe de précaution, on n’aurait pas stabilisé le trou dans la couche d’ozone, on n’aurait pas documenté la maladie de la vache folle, on n’aurait pas avancé sur la construction du GIEC [Groupe intergouvernemental d’experts sur l’évolution du climat, NDLR]. Bruno Latour résume tout ça par une belle formule selon laquelle le principe de précaution sert à « moderniser la modernité ». Notre livre promeut un principe de précaution beaucoup plus vaste, qui ne concerne pas exclusivement le climat ou la santé, mais qui inclut aussi la manière avec laquelle les technologies nous affectent, notamment dans notre rapport à la démocratie.

« La surveillance est un mode du capitalisme » – Entretien avec Christophe Masutti

© Rémy Choury

Dans le monde informatisé que nous habitons, chacune de nos conversations, de nos recherches et de nos rencontres est enregistrée, analysée et ses données sont exploitées pour prédire et influencer nos choix. Plus encore, c’est l’espace d’interaction lui-même, ce sont nos formes de sociabilité qui sont organisées de sorte à extraire le plus possible de données : la surveillance et le marché ne cessent de s’immiscer dans notre milieu de vie et nos rapports sociaux. L’enjeu, en ce sens, est-il réellement celui de la protection de la vie privée, ou même de la défense de la souveraineté des États ? Ne s’agirait-il pas plutôt d’identifier un système économique et politique qui repose sur l’appropriation et sur l’exploitation par les entreprises du numérique des données personnelles et de comportement de leurs utilisateurs ? Ce système a un nom : le capitalisme de surveillance, auquel le chercheur Christophe Masutti a consacré un ouvrage, Affaires privées, Aux sources du capitalisme de surveillance, paru en mai 2020. Historien et philosophe des sciences et des techniques, administrateur du réseau Framasoft dédié au logiciel libre et hacktiviste, Christophe Masutti entend présenter ses analyses et ses recherches, autant que des pistes d’émancipation collective. Entretien réalisé par Maud Barret Bertelloni.


NDLR : Le concept de capitalisme de surveillance a été introduit par les éditeurs de la Monthly Review en 2014 pour décrire les stratégies d’hégémonie américaine par le numérique et popularisé par Shoshana Zuboff dans The Age of Surveillance Capitalism (2019). Il désigne à la fois un modèle d’économie numérique, un état de marchandisation invasive de l’espace en ligne et une source de connaissances, de profit et de pouvoir convoitée.

LVSL – Vous proposez dans votre livre une histoire critique du capitalisme de surveillance, croisant l’histoire des technologies de l’information, de l’économie et du marketing. Avant d’explorer cette analyse, qu’entendez-vous par “capitalisme de surveillance” ?

Christophe Masutti – Je considère le capitalisme de surveillance comme un régime du capitalisme qui mobilise des pratiques d’appropriation et de valorisation de l’information comme moteur de rentabilité. C’est un modèle que j’identifie à partir des années 1960, dès que l’informatisation a pu accompagner la recherche de rentabilité des entreprises. Cela a commencé par les secteurs clés de l’économie : les banques, les assurances et dans les organes de la transformation de la société de consommation que sont le marketing et les organismes de crédit. Les entreprises avaient à disposition tout un ensemble de données, en particulier des données clientèle, mais aussi des données relatives aux processus de fabrication : c’est le début de « l’électronicisation » de l’information dans les processus de production. Puis, ces pratiques d’extraction et de traitement se sont étendues aux données de la société en général, à tous les niveaux, pour exercer ce qui caractérise le capitalisme : la recherche de rentabilité et de profit.

« On assiste à l’action combinée des géants et des autorités, qui perpétue le complexe militaire-industriel-financier dont est tissé le capitalisme de surveillance. »

L’objectif de la surveillance, dans ce système, c’est de pouvoir être en mesure d’influencer les utilisateurs, et de développer des modèles économiques qui correspondent au maximum aux exigences de rentabilité. Cela se fait d’une part en accumulant et en maîtrisant l’information que l’on a pour exercer une activité économique et pour consolider sa position de marché et d’autre part en arrivant à un niveau extrême de modélisation et de prédiction – comme le soutient à juste titre Shoshana Zuboff – en influençant les comportements des utilisateurs de manière à ce qu’ils collent aux modèles.

Le point sur lequel je ne suis pas d’accord avec Zuboff, c’est qu’il ne s’agit pas là d’une imposition, de l’expression d’un pouvoir que les monopoles exercent sur nous. Si on ne se concentre que sur cette approche, on en reste à une vision du capitalisme de surveillance comme un ensemble de pratiques coercitives à l’égard des individus qui les contraint à vivre dans une économie immorale, ce qui porte Zuboff à dire que le capitalisme de surveillance serait un capitalisme « malade » qu’il faudrait soigner. Mais c’est surtout une question de culture de la surveillance, une culture qui est partagée par tous les acteurs du système dont nous faisons partie, qui structure notre société et impose ces technologies comme moyens d’appréhender le monde.

LVSL – Cette capacité de surveillance de la part du monde des affaires semble d’une part susciter un rapport d’antagonisme avec les États, mais on assiste aussi à des formes de protectionnisme ainsi que de connivence – comme l’a révélé l’affaire Snowden au sujet du partage des données entre GAFAM et services de sécurité américains. Quelle est la place des États dans ce système ?

C. M. – Partons de la question de la protection de la vie privée. Il est autrement important pour un État de se présenter comme un défenseur de la vie privée. Selon cette logique, les entreprises attentent à la vie privée, il faudrait alors que l’État puisse réguler ce capitalisme qui nuit à la vie des individus. Or, il n’y a pas de capitalisme sans État. C’est là l’importance des révélations Snowden, qui ont eu un effet déclencheur dans la formulation du capitalisme de surveillance, là où on aurait pu ne voir qu’un ensemble de pratiques invasives pour la vie privée qu’il s’agirait de réguler. C’est dans la Monthly Review que furent d’abord analysées les tendances du capitalisme de surveillance, par des chercheurs comme Robert W. McChesney et John Bellamy Foster, qui travaillent sur les mutations du capitalisme et sur la société de l’information.

L’hypothèse de McChesney et Foster, de leur point de vue étasunien, est que le capitalisme de surveillance influence la gouvernementalité dès lors qu’il participe activement à l’hégémonie d’un système impérialiste répondant aux intérêts des multinationales (on pourrait aussi transposer cette analyse à la Chine). Ils remontent dans leur analyse à la fin de la Seconde Guerre mondiale, lorsque les US ont mis en place un complexe militaire-industriel-financier pour pallier la baisse de la demande mondiale et à une phase de surproduction. Ce système consiste d’abord à assurer la demande du point de vue extérieur grâce à l’effort militaire qui impose l’hégémonie américaine par la force (guerre de Corée, guerre du Vietnam, guerre Froide) et du point de vue intérieur grâce à toutes les technologies de marketing et de modelage de la consommation de base propres au développement du capitalisme de consommation. Ce complexe militaire-industriel-financier permet ensuite de pallier la baisse des taux de profit pendant les années 1970 et lors du choc pétrolier en mettant en place un processus de surfinanciarisation de l’économie. Dans ce contexte, les programmes de développement des systèmes de surveillance globale (parmi lesquels figure la création de la NSA) permettent d’assurer la réalisation de ces deux objectifs et le maintien du système. On assiste ainsi à l’action combinée des géants et des autorités, qui permet de perpétuer le complexe militaire-industriel-financier dont est tissé le capitalisme de surveillance. État et capitalisme sont indissociables aujourd’hui.

Le capitalisme de surveillance transforme la politique lorsque les monopoles technologiques font assimiler aux États une doctrine qui stipule que chaque problème a une solution technique (qu’ils sont à même de produire). Cette doctrine, ce technologisme ou solutionnisme, est si intégrée que l’État en vient aussi à modifier le cadre législatif qui le protégeait jusqu’alors de l’effacement du politique face à la technologie : cela commence par l’aménagement du cadre législatif pour permettre le développement d’économies de plateformes. Ce qui revient aujourd’hui, par exemple, à une conception du travail soit à la mode du 19e siècle (le travail à la tâche, les travailleurs du clic) soit, à l’extrême opposé, une transformation totale du travail humain en machine, c’est à dire une négation du travail et l’assujettissement total du travail humain (vivant) à une technique autonome, pour reprendre l’expression de Jacques Ellul.

Mais on peut aussi prendre l’exemple très actuel de StopCovid : cette application est construite à partir de l’idée que l’on va pouvoir mettre une couche technologique pour résoudre un problème qui va devoir se régler de manière médicale et sociale. Et évidemment cette technologie doit être développée par des acteurs privés, parce que l’État n’en a pas les moyens. C’est la même histoire avec la plateforme du Health Data Hub, qui fait qu’on va donner toute la responsabilité de la technique et de l’hébergement des données de santé à Microsoft, alors que tous les hôpitaux s’échangent déjà des informations et des données médicales avec des protocoles bien établis et qu’ils correspondent de manière tout à fait normale et régulière.

« La tâcheronnisation et le travail du clic, c’est du capitalisme de surveillance au premier degré. »

LVSL – Certaines formes de travail, comme les travailleurs du clic – ou plus largement tout le travail de « support » au traitement informatique – ainsi que la fameuse « tâcheronnisation » décrite par Antonio Casilli, font donc partie intégrante du capitalisme de surveillance ?

C.M. – Cette transformation du travail est incluse dans le capitalisme de surveillance. Car la tâcheronnisation, qui consiste à organiser le travail à la tâche souvent par le biais de plateformes, et le travail du clic, ces « micro-tâches » comme la préparation et la saisie de données qui permettent d’entraîner des algorithmes, c’est du capitalisme de surveillance au premier degré : c’est par la surveillance des moindres faits et gestes des tâcherons que l’on optimise le travail humain au point de le confondre avec une machine et qu’on l’assujettit à une technique autonome.

Couverture_Affaires_privees_Masutti
© C & F Editions

Ces formes de travail sont la négation du travail vivant, comme l’écrivait Marx dans les Manuscrits de 1857-58, dits Grundrisse : « La tendance nécessaire du capital est l’accroissement de la force productive et la négation maximale du travail nécessaire. Et la réalisation de cette tendance, c’est la transformation du moyen de travail en machinerie. » (« capital fixe et développement des forces productives »).

Je prends dans mon livre l’exemple des assistantes sociales en France, qui ont commencé à se syndiquer lorsque leur travail a été transformé à cause de la technique. On a voulu leur faciliter la tâche : elles n’avaient plus qu’à entrer des données et l’ordinateur leur affichait en direct le dossier de la personne, ses droits, ce qu’elles devaient simplement reformuler en mots pour l’assisté. C’était une perte totale du sens de l’assistance sociale, et dans ce cas heureusement le métier s’est retransformé. C’est là une forme de négation du travail, comme dans le cas de l’ingénieur (le travail vivant) qui perd toute une partie de son savoir-faire parce que l’ordinateur est capable de faire des plans tout seul (comme travail mort ou objectivé). Toute une partie du travail n’est plus là, tout ce qui définissait le travailleur comme assistante sociale ou comme ingénieur n’est plus là.

LVSL – L’emprise du capitalisme de surveillance est souvent décrite à partir de sa capacité à prédire et à influencer le comportement des individus. On recense cependant un spectre d’effets bien plus vastes comme le tri social, ou le fait que les espaces en ligne sont structurés de sorte à extraire de nous le plus possible de données. Comment caractériser cette forme de pouvoir ?

C. M. – Le problème de l’encadrement en termes d’analyse de pouvoir, c’est qu’on continue de confondre surveillance et contrôle. La surveillance est un moyen et le contrôle est une fin. Les entreprises, les GAFAM qui surveillent ne cherchent pas à nous contrôler. C’est-à-dire qu’il faut s’abstraire d’une vision coercitive du capitalisme de surveillance, selon laquelle nous serions les sujets sempiternellement soumis à un pouvoir de contrôle. Cette culture de la surveillance que j’évoquais à l’instant est partagée à travers toute la société : nous voulons la surveillance et nous y participons activement, lorsque par exemple un rectorat trouve beaucoup plus facile d’installer des dispositifs de reconnaissance faciale à la porte d’un lycée que d’organiser de la prévention avec les élèves, lorsque nous mesurons l’audience de nos sites internet ou de nos pages Facebook car nous aussi voulons une part de cette économie de l’attention.

LVSL – Vous signalez les limites des approches, comme celle de Zuboff, qui proposent en réponse au capitalisme de surveillance de « sanctuariser » l’intimité et se concentrant sur la protection de la vie privée, ainsi que de celles de défense de la souveraineté des États dans le domaine numérique. Quelles autres approches de lutte voyez-vous pour habiter dignement et librement notre monde informatisé ?

C. M. – Je suis de l’avis que la lutte pour la vie privée est essentielle et perpétuelle, mais qu’elle se place sur un autre registre que celui du capitalisme de surveillance. En ce qui concerne la défense de la souveraineté des États dans le domaine numérique, je veux bien que l’on confie les infrastructures à l’État, mais il va falloir au niveau des constitutions et des garde-fous que l’on développe un système qui soit plutôt résilient par rapport aux risques démocratiques que cela pose. Cela ne veut pas dire pour autant qu’il faut laisser toutes les infrastructures numériques aux entreprises. Mais ça peut être des associations, des collectifs de citoyens, et surtout ça peut sortir à la fois des sphères de pouvoir et des sphères économiques.

« Nous ne sortirons pas de cette soumission tant qu’elle est pensée en termes de pouvoir. L’économie s’appuie sur des processus culturels et des choix collectifs qui ne sont pas contraints, mais des propositions de vie. »

J’essaye donc de définir une autre approche de lutte. À ce sujet, j’essaie d’abord de m’extraire de l’approche postmoderne du contrôle de Foucault et de Deleuze, qui voudrait que nous ne soyons jamais que des sujets, quelle que soit la provenance de ce pouvoir. Ils ne voient pas la naissance de l’économie de la surveillance au moment où ils théorisent cela et sont, selon moi, « coincés » dans leur approche critique des institutions et du pouvoir. Nous ne pouvons pas sortir de cette soumission tant qu’elle est pensée en termes de pouvoir. L’économie fonctionne de manière beaucoup plus subtile : elle s’appuie beaucoup sur des processus culturels et des choix collectifs qui ne sont pas contraints, mais des propositions de vie.

C’est au contraire ce que faisait remarquer Michel de Certeau : nous ne sommes pas que des individus soumis à un pouvoir. Nous émettons dans notre vie de tous les jours de petites résistances – ce sont des manières d’être et des manières de faire – dans les plus petites pratiques discrètes (individuelles et même collectives) en réaction à quel pouvoir que ce soit. Typiquement, c’est le fait de se retrouver en collectif de web fédéré comme Mastodon [le réseau social libre et auto-hébergé, similaire à Twitter], par exemple. Ou c’est le fait de choisir d’avoir un téléphone portable, mais le plus basique qui soit. C’est tout un ensemble de choix qui fait qu’au niveau collectif, il y a une cohérence qui se dégage ; c’est plus qu’un rejet, c’est un ensemble de manières de faire.

LVSL – Plus concrètement, il s’agit donc de faire exister des alternatives viables au capitalisme de surveillance : lesquelles sont-elles et comment les fédérer ?

C.M. – Je ne vois pas seulement des alternatives, mais des choses qui sont déjà là depuis longtemps. Par exemple, l’Internet Engineering Task Force (IETF) qui élabore les standards d’Internet sur un mode participatif et ouvert (les RFC, requests for comments). Tant que cela existera, le web n’appartiendra pas seulement à des firmes. Il y a aussi le web fédératif en P2P (peer-to-peer), le fédiverse : c’est le réseau de services de blogs, de partage d’images et de vidéos, d’organisation d’événements, etc. construits avec des logiciels libres et décentralisés. La normalisation de protocoles comme ActivityPub, un standard ouvert pour les réseaux sociaux décentralisés, contribue à ça sur un mode éminemment collectif.

Mais je ne voudrais pas que l’on comprenne pour autant que les solutions au capitalisme de surveillance sont techniques. Du côté de l’agriculture maraichère les AMAP, qui sont des plateformes collaboratives, en font tout autant partie. Aujourd’hui dans l’économie, il y a plein de manières de concevoir une entreprise. Ce peut très bien être une SCOP, une société coopérative et participative, avec les moyens de production qui appartiennent aux salariés. Évidemment, ce n’est pas une extraction totale du capitalisme, mais une participation sur un mode différent.

Je le vois aussi dans les multiples initiatives créatrices instituées dans l’économie sociale et solidaire ou non instituées comme dans les expériences de ZAD. Par-dessus tout, ce sont des mouvements et en tant que mouvements sociaux, ils sont informels et créent de multiples formes de gouvernementalité et d’équilibre. C’est ce que Marianne Maeckelbergh appelle des « mouvements de préfiguration ». Il faut préfigurer, autrement dit l’adage : faire, faire sans eux, (et au besoin) faire contre eux. S’opposer non pas à un pouvoir (dont on aurait du mal à identifier les vecteurs) mais proposer des savoir-faire et des savoir-être de résistance à des proposition de vie dont nous ne voulons pas. Maeckelbergh a travaillé sur Occupy Wallstreet, mais on peut dire ça des gilets jaunes, de toutes les ZAD… Les ZAD ne se ressemblent pas et pourtant, au moment où se créée la ZAD se créée en même temps un système de gouvernance, une manière d’organiser.

Ces mouvements préfiguratifs se reconnaissent parce qu’il existe malgré tout une certaine cohérence, justement en ce qu’ils sont préfiguratifs, mais aussi parce qu’ils proposent toujours une vision des communs. Toutes ces alternatives, toutes ces initiatives qui peuvent naître, peuvent se reconnaître entre elles et apporter chacune d’entre elles quelque chose à l’autre. Elles ne sont ni rivales ni concurrentes. Il n’y a pas de cohérence établie a priori, ni d’unité nécessaire. C’est ce que j’appelle un archipel, en empruntant le terme à Édouard Glissant : chaque île est différente, mais dans l’histoire de la formation de l’archipel, chaque élément a apporté quelque chose à l’autre.

Pour aller plus loin : Découvrir un extrait d’Affaires privées, ici.

Pourquoi il faut un moratoire sur la 5G

Une antenne 5G de Vodafone en Allemagne. © Fabian Horst

Alors qu’a lieu l’attribution des fréquences pour le réseau 5G, le déploiement de cette technologie fait de plus en plus débat. Le 12 septembre dernier, 70 élus, pour la plupart étiquetés EELV et France Insoumise, ont appelé à un moratoire et à un débat démocratique sur le sujet. Ils rejoignent ainsi les préconisations de la Convention Citoyenne pour le Climat. Le Président de la République leur a répondu négativement le lendemain, arguant qu’il ne croyait pas au « modèle amish ». Derrière cette polémique, les sources d’inquiétudes autour de cette infrastructure sont en effet nombreuses. Elles nous invitent à questionner les technologies avant de les introduire dans notre quotidien.


« On n’arrête pas le progrès »

Alors que les zones blanches sont encore nombreuses dans notre pays, la dernière génération de réseau mobile, la 5G, devrait bientôt faire partie de notre quotidien. Les enchères auront lieu le 29 septembre 2020. Grâce à l’usage de nouvelles fréquences, les débits seront très fortement améliorés (ils devraient être multipliés par 10) et les temps de latence beaucoup plus faibles. Au-delà d’un confort accru dans nos usages numériques, la 5G est surtout l’infrastructure nécessaire à la poursuite de la numérisation de toute l’économie. De nombreux nouveaux usages sont prévus : automatisation des usines, véhicules autonomes, télémédecine, jeux vidéo en ligne, gestion plus « intelligente » des villes… 

Pour certains dirigeants politiques, ces promesses de développement de nouvelles activités sont une aubaine. En effet, la croissance économique stagne depuis des années. Ainsi, Emmanuel Macron a de nouveau prôné l’urgence du déploiement de ce nouveau réseau le 13 septembre dernier devant un public conquis d’entrepreneurs du numérique. Les défenseurs de la start-up nation estiment en effet impératif de ne pas se laisser distancer. En Chine ou en Corée du Sud, la couverture 5G dans les villes est de fait de plus en plus large. 

Pourtant, cet enthousiasme pour le « progrès » n’est pas partagé par tous. D’abord, la question du risque sanitaire n’est toujours pas résolue. Les différentes études sur le sujet se contredisent. En France, une étude complète de l’ANSES à ce sujet est d’ailleurs très attendue, sauf par le gouvernement et les opérateurs. Ces derniers souhaitent mettre en place le nouveau réseau le plus rapidement possible. Le refus des quatre grands opérateurs français d’attendre cette étude a d’ailleurs conduit à une récente attaque en justice par 500 militants écologistes au nom du principe de précaution. 

Par ailleurs, ce nouveau réseau pose d’importantes questions de souveraineté numérique. Pour l’heure, le leader mondial des équipements 5G n’est autre que le groupe chinois Huawei, dont la proximité avec le Parti Communiste Chinois n’est plus à prouver. Le risque de fuite des données produites par les milliards d’objets connectés à la 5G est donc réel, autant vers Pékin que vers Washington, qui jamais eu de scrupule à espionner ses alliés européens. Les européens sont en train de multiplier les obstacles à la mainmise de Huawei sur le réseau du futur. Ils emboîtent ainsi le pas aux États-Unis qui mènent une guerre tous azimuts contre le géant chinois des télécoms. Mais auprès de qui se fournir ces équipements télécom ? Si les compagnies européennes Nokia et Ericsson en produisent, ils ne sont pour l’instant pas aussi avancés que ceux de Huawei. Cela a conduit le ministre de l’Intérieur allemand, Horst Seehofer, à déclarer que le déploiement de la 5G prendrait un retard de « 5 à 10 ans » sans Huawei. 

La précipitation du Président de la République et des opérateurs mobiles pose donc question. Plutôt que de se précipiter vers des fournisseurs américains, la France (ou l’Europe) ne devrait-elle pas plutôt prendre le temps de développer des technologies souveraines ? Cela mettrait un terme à l’espionnage de masse par les puissances étrangères Si l’on excepte ces questions de souveraineté numérique, la technologie 5G est désormais prête. Mais faut-il pour autant croire aux promesses de la start-up nation ?

Un impact environnemental désastreux

Malgré les promesses d’optimisation de la consommation énergétique de ce nouveau réseau et des appareils connectés, la consommation énergétique globale augmentera très probablement. D’une part, la nécessité de multiplier les antennes pour assurer une bonne couverture contredit le discours des opérateurs et du gouvernement. Surtout, « l’effet rebond » encouragé par l’arrivée de la 5G a toutes les chances de gonfler encore la consommation énergétique exponentielle du numérique. Les voitures autonomes, le e-sport, la télémédecine, la croissance des usages vidéos, la multiplication des objets connectés ou encore l’intelligence artificielle sont en effet autant de nouveaux usages amenés à se développer considérablement avec l’arrivée de la 5G, puis de la 6G. D’après Waymo, la filiale de Google dédiée au développement de véhicules autonomes, la quantité de données produite par un voiture en un jour varie entre 11 et 152 terabytes ! Le stockage et le traitement de telles quantités de données supposent donc une construction massive de datacenters énergivores. Ainsi, selon une étude de l’industrie des semi-conducteurs publiée en 2015, nos usages numériques nécessiteront en 2040 la totalité de l’énergie mondiale produite en 2010 si le rythme de croissance actuel se maintient. Selon cette étude, des gains de performance énergétique d’un facteur 1 000 ne feraient reculer cette échéance que de dix ans.

« L’effet rebond » encouragé par l’arrivée de la 5G a toutes les chances de gonfler encore la consommation énergétique exponentielle du numérique.

Au-delà de la seule consommation d’électricité, l’impératif de renouvellement des terminaux mobiles et la multiplication d’objets connectés s’annonce désastreuse pour l’environnement. Les ventes mondiales de smartphones stagnent autour d’un milliard et demi par an depuis 2016. La 5G apparaît donc comme un argument de poids des fabricants pour relancer les ventes. Or, les progrès technologiques des nouveaux modèles sont devenus de plus en plus superficiels ces dernières années. Il semble qu’il soit temps de concevoir enfin des produits plus durables et plus réparables. Au contraire, ces nouveaux appareils vont copieusement accroître nos besoins en terres rares (souvent extraites dans des conditions désastreuses pour l’environnement et les travailleurs) et les conflits géopolitiques qui y sont liés. Par ailleurs, la quantité de déchets informatiques ainsi créés a toutes les chances d’aggraver les problèmes de pollution dans les pays pauvres où ils sont exportés. Le recyclage des « e-waste » demeure en effet embryonnaire.

Derrière la technologie, des choix de société

Si les enjeux environnementaux liés à la 5G sont de plus en plus pointés, notamment par la Convention Citoyenne pour le Climat, les promesses d’un monde toujours plus connecté sont moins discutées. À l’heure où de plus en plus de jeunes découvrent la réalité déshumanisante de la « continuité pédagogique » à travers les cours en ligne, un grand débat sur la numérisation de la société s’avère nécessaire. D’abord les avancées de la digitalisation amplifient sans cesse les fractures sociales, en particulier lorsqu’elles sont corrélée à la disparition des services publics de proximité. L’ampleur de « l’illectronisme » devrait pourtant nous interroger. Selon l’INSEE, 15% de la population française âgée de 15 ans ou plus n’a pas utilisé Internet au cours de l’année 2019. 38% manque d’au moins une compétence informatique de base.

Un graffiti contre la surveillance de masse à Londres. © KylaBorg

Quant aux innovations permises par la 5G, elles vont bien au-delà des gadgets contemporains que sont les fourchettes ou frigos connectés. La voiture autonome dont rêve Uber afin de pouvoir se passer de main-d’œuvre humaine risque d’encourager des usages irraisonnés. Une étude de 2018 dans la baie de San Francisco dont les participants disposaient d’une voiture à leur disposition sans avoir à la conduire indique un grand nombre de trajets supplémentaires et l’augmentation des distances parcourues, en particulier le soir. Pire, de nombreux trajets se faisaient à vide. Le manque de stationnements dans les grandes villes pourrait encourager les voitures autonomes à errer en attendant leurs passagers. De plus, la prouesse technologique que représente la télémédecine nous fait oublier que nos problèmes de santé viennent surtout d’un environnement pollué et stressant. De même, le renoncement aux soins (pour motifs financiers, géographiques, temporels…) s’aggrave dans notre pays. Développer la télémédecine semble intéressant, mais à quoi bon avec un corps médical déjà surchargé ?

Enfin, la 5G devrait donner un grand coup d’accélérateur à la surveillance de masse. Le cabinet de conseil Gartner estime ainsi que le plus gros marché pour les objets connectés dans les 3 prochaines années sera celui des caméras de surveillance. Grâce à la 5G, ces caméras pourront d’ailleurs se connecter à d’autres appareils de surveillance, comme les détecteurs de mouvement ou les drones. Avec l’amélioration de la qualité des images transmises, la reconnaissance faciale pourrait aisément se généraliser. Ce processus a déjà débuté : la Chine a largement déployé ces outils et les exporte désormais, notamment en Afrique. Pourtant, l’efficacité de ces technologies de la « safe city » n’est jamais débattue. Le sociologue Laurent Mucchielli a publié un livre sur la vidéosurveillance. Il y démontre qu’elle n’a pratiquement aucun impact sur la criminalité et n’aide que rarement à résoudre des affaires. Quant aux invasions de la vie privée et aux usages répressifs de ces technologies, ils ne sont plus à prouver.

Les amish, un modèle ?

Pour toutes ces raisons, le déploiement de la 5G n’a rien d’anodin. Plus que de potentiels risques sur la santé, ce nouveau réseau présente surtout des risques certains pour l’environnement et notre vie privée. Pourtant, tout débat sur ces questions semble interdit au nom du « progrès » que représenterait un meilleur débit. Or, ce progrès à marche forcée semble surtout faire les affaires des grandes entreprises du numérique dont le business model est fondé sur l’exploitation des données. Avec ces montagnes de données, les GAFAM et quelques autres sont en passe d’obtenir un contrôle incroyable sur nos vies. Dans La nouvelle servitude volontaire, Philippe Vion-Dury explique combien les algorithmes des géants du web sont de plus en plus capables « d’anticiper nos désirs, nos comportements et nos vices et de percer l’intimité de nos opinions ou le secret de nos préférences », et, sous couvert de liberté et de plaisir, nous conditionnent à consommer toujours plus. Derrière l’apparente neutralité d’une technologie, il y a souvent un projet politique, ici celui de la Silicon Valley.

Derrière l’apparente neutralité d’une technologie, il y a en effet souvent un projet politique, en l’occurrence celui de la Silicon Valley.

L’opposition historique du mouvement écologiste à certaines technologies, comme le nucléaire (civil ou militaire) et les OGM, nous rappelle d’ailleurs qu’il n’existe guère de neutralité de la technique. Jacques Ellul et Bernard Charbonneau sont deux intellectuels célèbres par leur regard critique sur le progrès technique. Ce dernier sacralise en effet l’efficacité et nous enferme toujours plus étroitement dans le productivisme et le consumérisme. Par ailleurs, questionner le « progrès » n’implique pas nécessairement de le rejeter en bloc comme le font les néo-luddites. Il est possible de reconnaître les bienfaits qu’apporte une technologie tout en étant conscient de ses impacts négatifs, et donc de se battre pour en retrouver le contrôle. Le courant émergent autour des low tech, qui défend des technologies simples, réparables, utiles et abordables, témoigne ainsi d’une volonté de reprendre le contrôle sur les outils techniques qui nous entourent.

Au vu des impacts environnementaux et sociétaux considérables de la 5G, il est donc regrettable de voir que le débat politique sur cette question demeure finalement, et paradoxalement, technocratique. Le principal grief des adversaires de la 5G reste en effet la question du risque sanitaire, qui mérite certes d’être posée, mais est secondaire. Il ne faut pas se contenter d’attendre la sortie du rapport de l’ANSES sur le sujet et de laisser ce débat à des « experts » jamais véritablement indépendants. Un vrai débat démocratique global sur la 5G est nécessaire, comme le réclament les 70 élus de gauche dans leur tribune. Pour Macron et les apôtres du progrès technique, une telle demande est synonyme de retour à la bougie. Cela explique sa petite pique sur les Amish. Mais qui souhaite vraiment imiter cette société fermée et très conservatrice ? Le Danemark nous fournit un exemple plus facilement imitable. Depuis les années 1980, des « conférences de consensus » réunissant des citoyens tirés au sort ou choisis par appel à candidature permettent de questionner les répercussions culturelles, psychologiques et sociales des nouvelles technologies. En France, la réussite de la Convention Citoyenne pour le Climat, bien qu’elle n’ait disposé que d’un temps limité pour traiter de sujets particulièrement complexes, a montré qu’il était possible de rompre avec le monopole des experts et des représentants politiques sur des questions qui nous concernent tous. Les propositions radicales qui en ont émergé (dont un moratoire sur la 5G que le Président de la République s’était engagé à prendre en compte), plébiscitées par près des trois quarts des Français, devraient nous inspirer. À quand un vrai débat de société, suivi d’un référendum, sur la 5G ?

L’hydrogène : quel rôle dans la transition énergétique ?

L’hydrogène suscite une effervescence croissante. En juin dernier, l’Agence Internationale de l’Énergie (AIE) a publié son premier rapport dédié à ce combustible de synthèse, décrivant ses nombreux usages énergétiques et industriels, et les possibilités qu’il offre, dans un futur proche, pour d’importantes réductions d’émissions de CO2. Qu’en est-il vraiment ? Qu’est donc cette molécule, comment peut-elle être produite et utilisée, et comment distinguer emballement technophile et opportunités concrètes et économiquement réalistes ?


La molécule énergétique par excellence

Commençons par une once de chimie. Ce qu’on appelle communément hydrogène, c’est la molécule de dihydrogène H2 qui est, avec celle d’Hélium He, la molécule la plus légère. À température et pression ambiantes c’est un gaz très peu dense (90 g/m3), qui ne se liquéfie qu’à -253 ºC, soit 20 K (« 20 Kelvin », i.e. 20 degrés au-dessus du 0 absolu de température). Le grand intérêt de l’hydrogène réside en ce que cette molécule, étant très faiblement liée, a un contenu énergétique énorme. Par unité de masse, l’hydrogène contient en effet 3 fois plus d’énergie que le pétrole ou n’importe quel hydrocarbure fossile (charbon, gaz, etc.). On peut comprendre assez intuitivement la chose en considérant les réactions de combustion. Une « combustion », c’est le fait de brûler un « combustible » en le faisant réagir avec de l’oxygène O2, sachant que l’oxygène est, lui, au contraire, très fortement liant. La réaction de combustion retire l’hydrogène des molécules, elle l’oxyde, i.e. le combine à l’oxygène, ce qui donne de l’eau H2O, tandis que le déchet énergétique, pour les combustibles carbonés, est le dioxyde de carbone CO2, molécule dépourvue d’énergie chimique. Les molécules hydrogénées, ou moins oxydées – on dit aussi « réduites » –, tels les combustibles fossiles (hydrocarbures), les sucres, graisses, et autres molécules organiques, sont donc porteuses d’énergie chimique, tandis que les molécules plus « oxydées » en sont vidées. Ainsi, oxygène et hydrogène sont en quelque sorte le Ying et le Yang de la chimie organique, de l’énergie, et même de la vie sur Terre. La réaction de combustion nous éclaire aussi sur le nom « hydro-gène » : substance provenant de l’eau, et qui génère de l’eau lorsque la molécule qui le contient est brûlée.

Un gaz industriel déjà omniprésent, aux potentialités multiples

L’hydrogène pur n’existe pratiquement pas dans la nature, étant trop réactif de par son haut contenu énergétique. Ce n’est pas un combustible naturel, mais plutôt un « vecteur énergétique », parce qu’il est pratiquement toujours produit et utilisé par l’homme pour transporter de l’énergie entre une source primaire et un usage final.

L’hydrogène est loin d’être une « technologie nouvelle », il est déjà massivement présent dans notre système énergétique et industriel actuel.

L’hydrogène est loin d’être une « technologie nouvelle », il est au contraire massivement présent dans notre système énergétique et industriel actuel. La production annuelle d’hydrogène pur atteint 73 Mt (millions de tonnes) de par le monde, auxquelles s’ajoutent 42 Mt d’hydrogène produit au sein de mélanges gazeux dont il n’est pas isolé, comme l’illustre la Fig. 1. La production « dédiée » de 73 Mt d’hydrogène cause l’émission de 830 Mt de CO2 par an, soit 2,5 % des émissions globales de CO2, car aujourd´hui environ 2/3 de l’hydrogène est produit à partir de gaz naturel, par reformage du méthane, et 1/3 environ par gazéification du charbon. Ainsi, la production d’hydrogène pur consomme 6 % du gaz naturel, et 2 % du charbon à échelle globale [1]. On ne peut pas dire que l’hydrogène soit un composant mineur de nos économies ! Mais comme ses usages sont industriels, il est peu connu du consommateur final.

Figure 1 : Production d’hydrogène selon usages finaux, de 1975 à 2018. De bas en haut, barres de gauche : raffinage, production d’ammoniac, autres usages sous forme pure. Barres de droite : production de méthanol, réduction directe du fer, autres usages en mélange. Source: [1]
En effet, l’hydrogène est produit dans des réacteurs industriels fermés, souvent dans de gros complexes chimiques, et passe sa vie dans des tuyaux jusqu’à son usage final. Comme le montre la Fig. 1, l’hydrogène est aujourd´hui avant tout utilisé comme vecteur chimique d’énergie, agent réducteur (i.e. désoxydant) ou précurseur d’autres molécules énergétiques [2]. Sa première utilisation (38 Mt) est dans le raffinage de pétrole (5 à 10 kg d’hydrogène par tonne de brut), dont il permet de retirer le soufre et autres impuretés. Comme agent réducteur, il est également utilisé (mélangé) en sidérurgie, remplaçant une petite part du charbon, notamment par la technique de réduction directe du fer, en anglais DRI, qui pourrait aussi fonctionner avec de l’hydrogène pur. Comme précurseur chimique, l’hydrogène est massivement utilisé pour produire, en premier lieu (32 Mt), l’ammoniac NH3, qui est le précurseur de tous les engrais azotés au monde, et de la plupart des explosifs. Combinés à du carbone (le plus souvent du monoxyde de carbone CO obtenu du même combustible fossile), 12 Mt d’hydrogène sont utilisés pour produire le méthanol (CH3OH). Cet alcool, le plus simple, est précurseur d’une vaste progéniture de matières plastiques et autres produits chimiques (solvants, colles, etc.), et est aussi un combustible pouvant être mélangé à l’essence, notamment en Chine. Enfin, l’hydrogène est aussi utilisé dans l’industrie agroalimentaire, la production de verre, etc.

En tant que combustible, l’hydrogène, gaz invisible et inodore, est un véritable concentré d’énergie, qui brûle très facilement, ce qui présente un certain danger d’explosion. Néanmoins, sa légèreté fait qu’il se disperse très rapidement dans l’air en cas de fuite. Il peut brûler en milieux gazeux, par exemple pour la production électrique en remplacement de gaz ou de charbon (usage encore peu développé, mais nécessaire à terme pour pallier les creux de productions d’ENR), et également dans des fours industriels, notamment en sidérurgie, ou dans des brûleurs domestiques pour chauffage et cuisson. On peut noter que le « gaz de ville », avant l’arrivée du gaz naturel (méthane) à partir des années 1950, était du gaz de charbon, contenant un mélange d’H2, CO, CH4, etc. – i.e. l’hydrogène a longtemps fait partie de l’énergie domestique courante !

La combustion de l’hydrogène peut aussi être réalisée dans des piles à combustible (PAC), dispositifs électrochimiques portables (inverses des électrolyseurs décrits plus bas) qui font réagir un combustible avec l’oxygène de l’air pour produire directement de l’électricité. Les PAC assurent une combustion propre, n’émettant que de la vapeur d’eau, avec une haute efficacité de presque 60 %, supérieure à celle d’un moteur thermique de voiture qui est plutôt de 36-42 %. Une PAC peut alimenter un moteur de véhicule (comme la flotte de taxis parisiens, 600 prévus pour fin 2020), de bus, de trains (déjà un train en fonctionnement en Allemagne), de navire, ou bien une station électrique autonome dans une zone reculée hors réseau, une station spatiale, un bâtiment, etc. Leur inconvénient majeur est leur coût encore élevé, près de 20 000 euros aujourd´hui pour une PAC de voiture.

De l’hydrogène gris a l’hydrogène vert

Si l’hydrogène est aujourd´hui majoritairement sale, ou « gris », car issu de fossiles, il peut aussi être « vert », i.e. produit à partir d’énergies renouvelables (EnR). On sait en effet le produire depuis le XIXe siècle par « électrolyse », en appliquant de l’électricité à de l’eau, pour casser la molécule H2O en hydrogène H2 et oxygène O2. L’efficacité de conversion de l’énergie électrique à chimique (restituable par combustion) est typiquement de 60-70 %, allant jusqu’à 80 % avec des technologies émergentes à haute température.

La production électrolytique d’hydrogène n’est, elle non plus, pas nouvelle ! Elle a en particulier été massivement utilisée des années 1920 aux années 1990, pour produire l’ammoniac des engrais, à partir d’hydroélectricité, en Norvège pour l’Europe, à Assouan en Égypte, au Canada, au Zimbabwe, avec des électrolyseurs de plus de 100 MW de puissance, et de manière rentable [2]. C’est l’arrivée du gaz à bas prix dans les années 1960 qui a permis à ce combustible fossile de détrôner l’hydrogène vert.

L’hydrogène vert Issu d’hydroélectricité a été massivement utilisé des années 1920 aux années 1990, pour produire l’ammoniac des engrais azotés

La troisième catégorie est l’hydrogène dit « bleu », produit de manière standard à partir de gaz ou charbon, mais avec capture et séquestration du CO2 émis, généralement dans des réservoirs gaziers ou pétroliers abandonnés. Il faut néanmoins signaler que la filière d’enfouissement souterrain du CO2, bien que déjà existante, ne suscite pas toujours la plus grande confiance, à cause du risque toxique en cas de fuite, des problèmes d’acceptabilité, des incertitudes sur la maturité et les coûts de même qu’à cause du risque moral inhérent, puisqu’elle permet de « verdir » une industrie en façade, mais sans rien changer à ses procédés, sauf la capture et la gestion du déchet final. Le fait que ce soient les industriels des fossiles qui la promeuvent en premier lieu présente aussi un risque de conflit d’intérêts par rapport aux informations présentées comme scientifiquement neutres sur la prétendue maturité et faisabilité de la filière.

Un enjeu majeur, aujourd’hui, pour la transition énergétique est d’arriver à produire, massivement et à bas coûts, de l’hydrogène vert par électrolyse ou, éventuellement, en phase transitoire, de l’hydrogène bleu si la séquestration du CO2 s’avérait localement fiable et réelle. Mais à terme, seule la filière verte est authentiquement durable et vertueuse.

Transformer les EnR électriques variables en combustibles stockables et transportables

Le gros intérêt de l’électrolyse est que, moyennant la perte d’1/3 de l’énergie utilisée, on transforme une électricité variable, par exemple solaire ou éolienne, disponible selon la météo, difficile à stocker et à transporter, en un vecteur énergétique matériel et stable, qui peut alors être stocké à coûts beaucoup plus modérés (environ 100 fois moins cher que le stockage électrique en batterie, voire 10 000 fois moins si des cavités souterraines peuvent être utilisées), et transporté en tuyaux, pipelines, bateaux, etc., ce qui représente des avantages considérables. En effet, par passage de l’électricité (flux) à la substance (stock), on s’affranchit de la variabilité temporelle et on réduit fortement les coûts de stockage et transferts temporels qui sont aujourd’hui, probablement, le frein principal au déploiement des EnR.

Ainsi, l’hydrogène représente un levier essentiel de la transition des énergies fossiles climaticides vers les EnR. D’une part, parce que sa production par électrolyse est flexible, pouvant suivre les courbes de production électrique solaire ou éolienne qui sont fortement variables, et aussi, en absorber les excès massifs qui deviennent inévitables à fort déploiement, constituant ainsi une voie de stockage énergétique. Mais aussi, parce que l’hydrogène opère un « couplage » entre le secteur électrique, d’où est attendue la majeure partie de la production primaire d’énergie décarbonée, dans tous les principaux scénarios de transition énergétique (du fait des potentiels mondiaux du solaire et de l’éolien), vers le secteur des combustibles, aujourd’hui très majoritairement fossiles (gaz, pétrole, charbon), qui sont la colonne vertébrale de notre civilisation, fournissant plus de 80 % de l’énergie primaire dans le monde, pour tous les secteurs économiques.

Ainsi, parce qu’il permet de transformer l’électricité renouvelable en combustibles gazeux et liquides, l’hydrogène constitue le « maillon manquant » permettant de concevoir la décarbonation de tous les secteurs, et non pas seulement de l’électricité, qui bien sûr doit être décarbonée, mais trop souvent monopolise le débat public alors qu’elle ne représente actuellement qu’environ 40 % de la consommation énergétique primaire, et 20 % des usages énergétiques finals.

De l’hydrogène aux combustibles de synthèse

Le gros inconvénient de l’hydrogène, c’est son insoutenable légèreté ! En effet, étant la molécule la plus petite et légère, il reste, pour un combustible, difficile et coûteux à stocker et à transporter. Avec seulement 90 g d’H2 par m3 à pression ambiante, il est nécessaire pour le transporter de le comprimer fortement, ou alors le liquéfier, mais cela demande de refroidir à -253 °C, et consomme l’équivalent de 30 % de son énergie… Autre souci, l’hydrogène est une molécule tellement petite qu’elle fuit très facilement, et peut même se faufiler et diffuser à travers certains matériaux, notamment l’acier, qu’elle finit par fragiliser. C’est pourquoi les réservoirs à hydrogène sont environ 100 fois plus chers que les réservoirs pour gaz usuels.

Par exemple, pour une voiture à hydrogène avec 500 km d’autonomie, il faut un réservoir de 5 kg d’hydrogène, comprimé à 700 bars, fait d’acier, fibres de carbone et polymères, qui pèse, lui, 87 kg. Un camion transportant des cylindres d’hydrogène, transporte essentiellement de la ferraille ! Si ce réservoir ne coûte qu’environ 2 000 euros (contre environ 20 000 euros pour une batterie électrique de voiture), ce sont les coûts tout le long de la chaîne de valeur, de la production à la distribution, qui rendront l’hydrogène onéreux à la pompe.

Pour les mêmes raisons, l’hydrogène n’est généralement pas injectable directement dans les réseaux de gaz à plus de 10-20 % en volume (soit seulement 3-6 % en énergie), ce qui est bien dommage, car alors il aurait facilement pu décarboner une grande quantité d’usages (chauffage, cuisson, usages industriels) à partir de l’immense infrastructure disponible que sont les réseaux de gaz, dont la valeur aux USA par exemple, est estimée à 1 000 milliards de dollars [3]. Pour ces raisons, dans de nombreuses applications, il peut être plus efficace économiquement, voire indispensable, de transformer l’hydrogène en molécules plus lourdes.

On parle alors des « combustibles de synthèse » : la stratégie étant de faire comme les plantes qui dans la photosynthèse, en plus d’arracher l’hydrogène à l’eau grâce à l’énergie solaire, le « recollent » sur des squelettes carbonés, plus lourds, obtenus à partir du CO2 de l’air, produisant ainsi des hydrates de carbone naturels (sucres, etc.). Pour nous humains, deux approches pour alourdir le combustible hydrogène sont principalement considérées.

La première consiste à transformer l’hydrogène H2 en ammoniac NH3 déjà évoqué, précurseur de tous les engrais azotés, dont on dit qu’ils assurent la moitié de l’alimentation humaine globale. La synthèse de l’ammoniac se fait par combinaison avec l’azote N2 de l’air à travers le célèbre procédé Haber-Bosch (doublement nobélisé), qui a permis à partir des années 30, de remplacer les engrais azotés naturels, issus de nitrates ou guano, par les engrais de synthèse. L’ammoniac n’est pas seulement intéressant à décarboner en soi, il peut aussi être un combustible d’usages variés, ayant, par exemple alimenté des bus en Belgique pendant la Seconde Guerre mondiale. Malgré sa toxicité, il a été massivement utilisé pendant des décennies avec un historique d’accidents très faible, et les techniques pour le transporter et stocker sont largement mûres et disponibles, par exemple, avec 5 000 km de pipelines dans le Midwest américain à partir des ports du Texas, pour l’utilisation en engrais.

La seconde approche consiste, comme les plantes, à accrocher l’hydrogène à des atomes de carbone, à partir de CO2, et de produire ainsi des hydrocarbures de synthèse (méthane, diesel ou kérosène de synthèse), ou des alcools, principalement le méthanol. Tous ces procédés sont déjà bien connus et technologiquement mûrs. La question majeure, aujourd’hui, est de les adapter à fonctionner avec de l’hydrogène électrolytique vert, dont le flux de production est fortement variable et non plus continu comme celui de l’hydrogène issu de fossiles dans l’industrie chimique actuelle. Cette variabilité est gérable via divers types de flexibilité ou stockages, mais toutes ont des coûts qui doivent être compris et maîtrisés (voir par ex. [4]).

Les électro-combustibles verts permettent de planifier la décarbonation des secteurs les plus contraignants : transport aérien, maritime, industrie lourde

Avec ces électro-combustibles verts, on peut alors envisager de décarboner les secteurs les plus contraignants, par exemple le transport aérien (avec du kérosène de synthèse) et maritime (plutôt avec de l’ammoniac), pour lesquels l’utilisation de batteries géantes est impensable et celle d’hydrogène difficile, du fait du poids, du volume et du coût des réservoirs nécessaires. Ainsi, le constructeur de moteurs navals MAN annonce que le premier moteur maritime à ammoniac pourrait être en utilisation début 2022 [5].

L’avantage de l’ammoniac vert, est que pour le produire on n’a besoin que d’électricité verte, d’eau et d’air (puisque l’atmosphère contient 80 % d’azote), alors que les hydrocarbures de synthèse ou le méthanol, plus commodes à l’usage, demandent de trouver du CO2, qui dans l’air est très dilué (0.04% en volume) et dont la capture atmosphérique directe demande beaucoup d’énergie et coûte encore cher. C’est pourquoi, pour les combustibles carbonés de synthèse, l’industrie se tourne plutôt pour l’instant vers les sources industrielles de CO2 issu de la combustion de fossiles, ce qu’on appelle capture et usage du CO2, ou « recyclage du CO2 ». Dans un tel schéma, l’atome de carbone C porteur d’énergie hydrogénée est utilisé une 1re fois dans la combustion initiale classique, puis, après captage et recyclage du CO2 émis, une 2e fois dans le combustible de synthèse. Ce recyclage réduit le bilan d’émissions environ de moitié, mais ne permet pas d’atteindre la neutralité carbone qu’il est aujourd’hui vitalement nécessaire de planifier.

Une voie prometteuse est l’utilisation de biomasse, dont le contenu en carbone excède d’un facteur 2 à 4 son contenu en énergie, ce qui veut dire, par exemple, qu’en injectant de l’hydrogène dans un méthaniseur à base de déchets agricoles ou urbains, au lieu de produire environ 40 % de méthane et 60 % de CO2, on pourrait « booster » la production de méthane d’un facteur 2,5 par apport d’hydrogène vert, où l’énergie viendrait pour 1/3 de la biomasse, et pour 2/3 de l’hydrogène vert.

Des coûts en déclin, un boom imminent ?

D’après l’AIE, l’hydrogène gris (sale) coûte aujourd’hui 1 à 1,7 $/kg à produire, le vert, 2 à 5 $/kg [1], dépendant essentiellement du coût de l’électricité renouvelable, mais ce coût pourrait baisser rapidement, à l’image des spectaculaires baisses de coûts qu’ont connus dans la dernière décennie les EnR solaires et éoliennes, qui sont aujourd´hui dans de nombreux pays, les sources d’électricité les moins chères, grâce à l’apprentissage et à la massification des productions. Ainsi, selon plusieurs analyses récentes dont celles de l’AIE [1] ou de BNEF [6], l’électricité solaire ou éolienne, coûtant déjà moins de 30 $/MWh à produire dans les géographies favorables (Moyen-Orient, Chili, Inde, Chine, etc.), permettra incessamment de produire de l’hydrogène vert à moins de 2 $/kg, proche du niveau de l’hydrogène bleu, ou même gris, et moins de 1,5 $/kg en 2030-2040. Alors, il devient pensable de l’utiliser pour décarboner de très nombreuses applications, sans qu’une forte taxation carbone soit nécessaire pour assurer sa compétitivité face à l’hydrogène gris.

L’effervescence de l’hydrogène vert se mesure actuellement au saut d’échelle spectaculaire des projets annoncés. En 2018, 135 MW d’électrolyseurs avaient été vendus dans le monde au total [6], avec beaucoup de petits projets ou pilotes de quelques MW au plus. En septembre dernier, le projet australien Moranbah, par exemple, annonce d’un seul coup 160 MW d’électrolyseur [7], pour de la production d’ammoniac vert ! Plusieurs annonces similaires ont également eu lieu récemment, notamment au Chili ou en Chine. Et sont même en discussion, encore en Australie, des projets de plusieurs GW [8], du fait de l’immense potentiel solaire et éolien (et combiné), et du rôle stratégique que ce pays se voit jouer en tant qu’exportateur d’EnR combustibles, et de la volonté affirmée du Japon, notamment, d’importer des EnR qu’il ne peut pas produire sur son territoire trop exigu et densément peuplé. Ainsi, l’hydrogène, ou plutôt ses dérivés, transportables par navires, sont appelés à devenir les vecteurs du commerce international d’EnR depuis les pays fortement dotés, vers ceux dont le potentiel domestique est insuffisant, ou trop cher à exploiter.

Malgré des coûts de production en déclin rapide, les coûts d’infrastructures, de transport et d’usage restent élevés

Si un essor de l’hydrogène vert paraît donc se profiler grâce à la chute attendue de ses coûts de production, il faut noter en revanche que les coûts des infrastructures de transport, de distribution, et des équipements d’usage peuvent être un obstacle fort selon les usages. Par exemple, pour la mobilité légère, pour que le coût de combustible par km soit à parité avec de l’essence à 1,5 €/L, il faut que l’hydrogène coûte 9 €/kg à la pompe, ce qui est presque déjà le cas en France avec un prix actuel de 10-12 €/kg. Mais dans ce prix (qui est pour de l’hydrogène gris), ce qui domine largement sont les coûts de transport et des bornes de distribution pressurisée. Et surtout, le principal obstacle reste le coût très élevé des véhicules, autour de 60 000 €, dont on espère néanmoins de fortes baisses à venir, notamment pour les PAC dont le prix pourrait être divisé par 4 à long terme, selon l’AIE [1].

Et en Europe, et en France ?

L’Europe et la France se veulent pleinement partie prenante. En France 900 000 t d’hydrogène gris sont actuellement produites par an, émettant 11 Mt de CO2, soit 2,8 % des émissions domestiques. Le plan Hulot pour l’hydrogène de juin 2018 avait astucieusement priorisé le développement des filières hydrogène propre sur les usages industriels massifs déjà présents, à commencer par le raffinage de pétrole. Il serait en effet néfaste de voir l’hydrogène comme un gaz exotique, et ne le penser qu’à travers la voiture à hydrogène, car ce développement-là requiert un déploiement d’infrastructures lent et difficile à rentabiliser tant que les utilisateurs sont peu nombreux, alors qu’un déploiement massif de l’hydrogène vert est urgent pour faire baisser les coûts de production et de distribution, et supprimer déjà les émissions de CO2 de l’hydrogène gris actuel et bien au-delà. C’est donc au sein des complexes industriels, généralement portuaires, que les meilleures opportunités sont présentes. En parallèle, le plan Hulot visait à appuyer la pénétration de l’hydrogène vert dans la mobilité, mais plutôt pour les usages longue distance ou fortes charges y compris le remplacement de trains diesel sur les petites lignes où l’électrification paraîtrait trop chère à installer, les camions, des utilitaires légers, des bus, et aussi des flottes captives comme les véhicules logistiques dans des ports. Il est cependant regrettable que le plan Hulot, de 100 M€/an, n’ait pas été approuvé et budgété, posant toujours la question de l’effort économique acceptable par notre système de gouvernance crispé sur l’exigence de croissance et de compétitivité…

Les meilleures opportunités pour amorcer le déploiement de l’hydrogène vert se trouvent au sein des complexes industriels, généralement portuaires

Le port de Rotterdam, 1er port d’Europe, est fortement positionné [8] du fait de la forte demande locale de 400 000 t d’H2 par an pour le raffinage, et de l’infrastructure présente. Air Liquide opère en effet déjà 900 km de pipelines d’hydrogène, connectant Rotterdam, Anvers et Dunkerque, comme le montre la Fig. 2. La proximité de la mer du Nord et de ses excellentes ressources éoliennes offshore, permet de concevoir divers schémas allant de la production d’hydrogène vert à l’hydrogène bleu à partir de méthane importé et enfouissement du CO2 sous la mer, technique pour laquelle la Norvège est pilote.

Figure 2 : Schéma du réseau Air Liquide de 900 km de pipelines à hydrogène, connectant Rotterdam, Anvers et Dunkerque. Source : [9]
En France, les deux plus gros projets sont proposés par H2V près de Dunkerque et Le Havre, pour des capacités de 200 MW d’électrolyseurs pour produire 28 000 t d’H2 par an chacun, un peu inférieurs aux 400 MW proposés à Rotterdam, ayant pour but de substituer de l’hydrogène fossile en raffinerie, et d’injecter partiellement dans les réseaux de gaz. À titre de comparaison, la quantité d’hydrogène pour un seul de ces projets de 200 MW, correspond à la consommation de 280 000 voitures à hydrogène (roulant 20 000 km/an), alors que la flotte française caracole à ce jour à 500 véhicules… On comprend bien que pour amorcer le déploiement de la filière, ce sont les applications industrielles qu’il faut viser en premier.

Un rôle crucial à jouer dans la transition énergétique, sous réserve de sobriété avant tout

De par ses multiples usages possibles, et son rôle éminemment pivot en tant que molécule énergétique essentielle connectant l’électricité et les combustibles, il est aujourd’hui devenu clair que la question n’est plus si l’hydrogène propre (bleu, mais surtout vert) peut ou doit jouer un rôle majeur dans la transition énergétique. C’est un fait à présent établi pour les analystes et décideurs. C’est même un fait tangible puisque son verdissement (production à partir d’EnR) et son essor dans les usages industriels classiques (raffinage, ammoniac) et au-delà, a commencé, et que les projets pilotes et incessamment commerciaux se multiplient pour utiliser l’hydrogène vert dans le transport lourd et longue distance, la sidérurgie (qui émet la bagatelle de 7 % du CO2 anthropique lié à l’énergie), etc. Aujourd’hui, l’enjeu, pour les politiques publiques, est de mesurer et planifier intelligemment les potentiels, les routes, les logiques à suivre, car il s’agit de déployer, à échelle temporelle très courte par rapport aux précédentes révolutions industrielles (moins de 20 ans pour répondre à l’urgence climatique), une infrastructure de production d’EnR, d’hydrogène, de combustibles de synthèse, et de transport, stockage et dispositifs pour utiliser ces matières énergétiques, à l’échelle suffisante pour remplacer le gros des fossiles.

Les questions posées par l’hydrogène sont complexes, puisqu’il intervient de multiples manières, et doit être pensé en synergie avec les autres outils de la transition énergétique, par ordre d’importance (selon nous) : la sobriété, les EnR (dont biomasse), l’efficacité énergétique, le nucléaire, la séquestration de CO2, avec les réserves nécessaires majeures pour les deux derniers. L’écueil évident serait de croire à une solution miraculeuse, permettant de faire perdurer le mythe de la croissance économique infinie soudain devenue verte (ou immatérielle), « découplage » qui ne s’est jamais vu et surtout pas à l’échelle aujourd’hui nécessaire, et n’a aucune raison de tomber du ciel, bien au contraire même du fait de la dégradation écologique en cours -comme l’explique par exemple, le récent rapport « Decoupling Debunked » [10].

Ainsi l’hydrogène même vert, en aucun cas ne pourrait faire perdurer la gabegie énergétique actuellement alimentée par les combustibles fossiles, dont la commodité d’usage n’a d’égale que leur pouvoir de destruction écologique universel. Pour la transition, ni l’hydrogène ni aucune autre technologie ne peut nous dispenser de nous attaquer en premier lieu à l’insoutenable niveau global de consommations énergétiques et matérielles, en passe de détruire l’essentiel de la vie sur Terre. Le premier défi, c’est de stopper la logique productiviste qui sous-tend la croissance économique et celle des flux physiques causés par les humains.

Affirmons donc fermement que non, l’hydrogène vert ne sortira pas l’humanité de sa folie énergétique actuelle ni du péril climatique. Son déploiement massif est souhaitable et pourra être compétitif financièrement, dans les cas faciles. Mais ce déploiement à l’échelle nécessaire pour la décarbonation profonde, vers la neutralité carbone, implique des choix qui doivent être faits sans tarder, bien que coûteux, souvent difficiles, demandant un déploiement industriel des EnR phénoménal, et des efforts économiques aujourd´hui inconcevables pour les décideurs. En effet cette décarbonation profonde demande de choisir volontairement des hausses de coûts -dont l’abandon des investissements dans les filières fossiles avant amortissement n’est pas le moindre- et des pertes de compétitivité majeures, ce qui implique d’organiser la baisse de la production industrielle et des consommations finales à échelle globale. Notons que ce propos ne considère même pas les autres limitations à l’économie planétaire que pose la disponibilité des ressources matérielles [11], du terrain pour installer les EnR dont l’emprise au sol est très largement supérieure à celle de l’extraction des fossiles, ainsi que les multiples autres pollutions industrielles, qui ne font que rajouter des arguments lourds pour un besoin urgent de sobriété organisée.

La transition énergétique doit être tricotée avec les deux aiguilles que sont la technologie et la sobriété organisée

On peut se représenter la transition comme un tricotage avec deux aiguilles. La première est la technologie, qui est essentiellement déjà présente (et dont l’hydrogène fait partie), avec des gains de rendements et d’efficacités incrémentaux possibles, mais pas de progrès révolutionnaire à prévoir ni à espérer. La tendance actuelle en effet est souvent plutôt au déclin global des efficacités dû à la raréfaction progressive des ressources, parfois déjà proche de critique (voir [11]), et aux pollutions. La seconde aiguille, fondamentalement plus importante, mais beaucoup plus problématique aujourd’hui, est celle de la visée civilisationnelle de fond. Seule une logique de sobriété collective, et donc de « décroissance », assumée et organisée dans la justice sociale et géopolitique, visant à réduire les consommations énergétiques et matérielles à un niveau soutenable (et donc, certainement aussi, le PIB), peut permettre de tricoter la transition nécessaire devenue urgence absolue. Ceci, en assurant d’abord les besoins basiques de chaque être humain, donc, en supprimant les consommations fastueuses ou superflues, celles des riches et surtout dans les pays riches. C’est donc par un rappel urgent et lucide à la nécessaire bifurcation vers la sobriété organisée, comme changement de paradigme, que nous concluons cet article à visée initiale technologique. 

Références :

[1]  IEA. The Future of Hydrogen. OECD, Paris, 2019.

[2]  Philibert C. Renewable energy for industry. IEA, OECD, Paris, 2017.

[3]  Webber ME. Power trip – A story of energy. New York: Basic Books, 2019.

[4]  Armijo J, Philibert C. Flexible production of green hydrogen and ammonia from variable solar and wind energy: Case study of Chile and Argentina. International Journal of Hydrogen Energy, 2020 ; 45:1541–58. https://doi.org/10.1016/j.ijhydene.2019.11.028.

[5]  Brown T. MAN Energy Solutions: an ammonia engine for the maritime sector. Ammonia Energy Association, 2019. https://www.ammoniaenergy.org/articles/man-energy-solutions-an-ammonia-engine-for-the-maritime-sector/.

[6]  BNEF. Hydrogen: the economics of production form renewables. Costs to plummet, 2019.

[7]  ARENA. Renewable hydrogen could power Moranbah ammonia facility. Australian Renewable Energy Agency, 2019. https://arena.gov.au/news/renewable-hydrogen-could-power-moranbah-ammonia-facility/.

[8] Maisch M. Siemens backs 5 GW green hydrogen plan for Australia. PV Magazine International, 2019. https://www.pv-magazine.com/2019/10/08/siemens-backs-5-gw-green-hydrogen-plan-for-australia/

[9]  Smart Port. Rotterdam Hydrogen Hub. 2019.

[10]  EEB. Decoupling debunked – Evidence and arguments against green growth as a sole strategy for sustainability, 2019.

[11] Bihouix P. L’Âge des low-tech : Vers une civilisation techniquement soutenable. Seuil, collection Anthropocène ; 2014.

 

Aaron Bastani : « Nous sommes en train de vivre les dernières décennies du capitalisme »

https://commons.wikimedia.org/wiki/File:Aaron_Bastani,_The_World_Transformed.jpg
©Jwslubbock

Aaron Bastani est un des fondateurs de Novara Media, turbulent média qui agite la politique britannique à l’ombre du Labour. Il est aussi l’auteur d’un ouvrage à succès, Fully Automated Luxury Communism, qui a provoqué un débat important sur les nouvelles technologies et la possibilité d’une société post-travail. Nous l’avons rencontré à Brighton, pendant la conférence annuelle du Labour. Traduction par Guillaume Ptak et Nicolas Clément.


LVSL – Vous avez récemment publié un livre intitulé Fully Automated Luxury Communism[1] [ndlr, « communisme de luxe automatisé »]. Cette formule a un caractère provocant, qu’est-ce que vous entendez par-là ? Est-ce que qu’il s’agit d’une vision épique, ou utopique, du futur de l’humanité ? Ou est-ce qu’il s’agit d’un projet à l’ordre du jour pour notre génération ?

Aaron Bastani – Le livre est composé de trois parties. Le premier tiers porte sur la crise dans laquelle nous nous trouvons, qui est une crise de notre modèle économique qui commence en 2009 et qui ne semble pas prête de s’arrêter. Il y en a d’autres, que je présente dans le livre comme des défis existentiels pour le capitalisme : le changement climatique, le vieillissement démographique, l’impact de l’automatisation sur le marché du travail, et la façon dont celle-ci va probablement accroître les inégalités… Cela crée également une multitude de problèmes en lien avec la crise du travail, les maladies qu’elle peut engendrer ou l’épuisement des ressources.

À n’importe quelle autre époque, une seule de ces crises aurait été dramatique, mais le 21ème siècle va en connaître 4 ou 5. Qu’il s’agisse de la France, du Royaume-Uni ou des États-Unis, ce constat est unanimement partagé. Les libéraux au pouvoir, les grands patrons, les conservateurs d’extrême droite et la gauche radicale sont tous d’accord. Ce que j’affirme dans le deuxième tiers du livre, et qui fait un peu plus débat est qu’en parallèle de ces crises nous assistons à l’émergence de ce que Marx aurait appelé un nouveau mode de production. De la même façon que le capitalisme ou le féodalisme sont des modes de production avec un début, un milieu et une fin, j’affirme que nous assistons potentiellement à la fin du capitalisme comme mode de production. Le capitalisme repose sur deux piliers que sont la vente de la force de travail contre un salaire et la production pour le profit. Depuis le début des années 2000, nous assistons de plus en plus à une « démarchandisation » involontaire au sein des marchés, à une rupture du mécanisme des prix, etc. Ce phénomène va se généraliser. Avec l’automatisation et la généralisation de l’intelligence artificielle, le prix obtenu par un travailleur pour sa force de travail chute soudainement.

En plus de ces crises, les contradictions inhérentes au capitalisme nous permettent d’identifier la fin du capitalisme et l’émergence de quelque chose d’autre. Ce n’est pas inévitable, mais je pense que c’est plausible. Cela dépendra des politiques mises en place, et des actions que nous entreprenons, mais c’est possible. Cela exige une politique révolutionnaire, qui est le communisme. Le communisme est clairement différent du capitalisme en cela qu’il ne nécessite pas de vendre sa force de travail contre un salaire, il n’y pas de production pour le profit, et à cause de certaines variables technologiques que je mentionne dans le livre, je pense que c’est l’ensemble des paramètres au sein desquels les progressistes et socialistes doivent constituer leur projet pour le 21ème siècle. En substance, qu’est-ce que cela signifie pour le « communisme de luxe automatisé » ? Est-ce un objectif réalisable pour notre génération ? Pour notre génération, probablement pas. Cela revient à demander si l’économie de marché était réalisable pour la génération d’Adam Smith, sans doute que non. Mais ce qu’Adam Smith a pu faire dans les années 1770, c’était identifier un nouveau mode de production. Je crois que c’est aussi ce que nous pouvons faire au XXIème siècle. À partir de là, nous devons œuvrer pour des politiques adéquates, des relations sociales, des formes de solidarité et un rapport à la nature adapté, qui nous permettront de faire progresser la justice sociale. D’une certaine façon, le « communisme de luxe automatisé » est censé être provocateur, et c’est mon but, mais ce n’est pas juste une formule marketing. Je situe mon analyse dans une perspective marxiste, dans ce que Marx a dit au sujet du communisme qui est distinct du socialisme. Dans le livre, le socialisme est pensé comme un pont vers le communisme, car ce sont des systèmes assez différents. Il s’agit bien d’un véritable état politique que nous pouvons atteindre. À quelle vitesse ? Nous verrons bien. Mais en même temps, je plaide coupable pour l’usage de cette formule pour faire réfléchir les gens, pour changer leurs préjugés.

 

LVSL – Vous avez suggéré qu’une série d’avancées technologiques, dont l’intelligence artificielle, l’automatisation, l’agriculture cellulaire et les manipulations génétiques offrent des leviers pour émanciper l’humanité du travail et de la rareté. Cependant, et en accord avec la loi de Moore, les progrès dans les technologies de l’information ont montré leur compatibilité totale avec de longues journées de travail, un ralentissement de la croissance de la productivité, et des conditions de vie qui stagnent. Pour quelles raisons les transformations technologiques des 50 années à venir seraient-elles plus libératrices ? Est-ce que vous n’exagérez pas le potentiel qu’ont ces innovations technologiques à transformer des relations sociales ?

A.B. – Ce sont trois choses différentes. Au sujet de la productivité, il y a une très bonne citation qui dit « la révolution de l’information est partout, mais la productivité n’est que statistique ». L’argument que je défends dans le livre est que les valeurs d’usage créées par la troisième disruption, par ces nouvelles technologies, ne peuvent être captées. Leur valeur ne peut être appréhendée à travers le modèle traditionnel de la productivité. Alors, qu’est-ce que la productivité ? La productivité est le PIB par personne par heure travaillée. Mais Wikipédia par exemple n’apparaît pas dans les statistiques du PIB. De même pour un groupe Facebook, qui vous permet de coordonner votre projet. Chez Novara [ndlr, le média au sein duquel Aaron Bastani travaille], nous utilisons Whatsapp. Ces outils sont généralement gratuits. Historiquement, ils auraient requis des institutions, ou une sorte de transaction monétaire à travers le mécanisme du prix. À travers notre compréhension obsolète du PIB et donc de la productivité, une grande part de cette valeur n’est pas prise en compte. C’est pourquoi nous devons laisser tomber ce concept de productivité. En revanche, en matière de conditions de vie, de salaires et de durée de travail, la situation s’est dégradée. Cela met en lumière un point très important, dont je parle dans les premiers chapitres du livre : j’y fais la distinction entre John Maynard Keynes et Karl Marx. En 1930, Keynes affirme que dans 100 ans, nous n’aurons besoin de travailler que 6 à 10 heures par semaine. En fait, il dit même que nous n’aurons quasiment pas besoin de travailler, ou du moins juste pour satisfaire notre besoin psychologique de travail. Keynes pense que, grâce à la technologie et à ce qu’il appelle les « intérêts composés », donc grâce aux progrès intrinsèques du capitalisme, nous arriverons à un monde débarrassé du travail et de la pénurie. Keynes, le plus puissant économiste bourgeois du XXème siècle parle donc de post-capitalisme. Il ne parle pas de communisme, qui est une chose différente, mais de post-capitalisme. Dans les années 1860, Marx évoquait un débat assez similaire à travers le progrès technologique et sa signification. Selon Marx, celui-ci n’implique pas nécessairement de meilleures conditions de vie, moins de travail et plus d’avantages pour les travailleurs. Il affirme que les travailleurs les plus qualifiés faisant usage des technologies les plus modernes, s’ils sont assujettis aux relations sociales capitalistes, peuvent avoir une vie plus difficile que les « sauvages ». Par elle-même, la technologie ne permet pas d’améliorer les conditions de vie. Il faut avoir des politiques publiques, la lutte des classes, des formes d’organisation sociale, etc. Marx dirait donc à Keynes qu’il est un « déterministe technologique ». Isolées, ces technologies ne peuvent pas émanciper l’humanité. Elles ne mèneront pas à une société post-travail.

LVSL – Ce qui ne répond pas à la question fondamentale sur les technologies futures…

A.B. – Parce que nous n’avons pas eu les politiques publiques nécessaires, voilà pourquoi. Nous pourrions d’ores et déjà avoir une semaine de 25 heures. Il existe beaucoup d’emplois socialement inutiles. Il y a beaucoup de captation de valeur qui est complètement improductive. L’essentiel de la finance n’aide vraiment pas la production utile et la création de valeur. Si nous parlons de dégradation des conditions de vie et de baisse des salaires, c’est donc en raison de la nature des politiques publiques mises en place. Il faut comprendre qu’après la fin des années 70, nous avons subi une contre-révolution. Moins en France, évidemment, vous avez eu Mitterrand au début des années 80. Mais dans l’ensemble du monde occidental, nous avons assisté à une contre-révolution. Cette contre-révolution est une réponse à une révolution. Les 65 premières années du XXème siècle sont révolutionnaires : elles sont révolutionnaires du point de vue du suffrage universel, des droits des femmes, des droits des LGBT, des luttes anticoloniales, etc. Elles sont aussi révolutionnaires du point de vue technologique. Le fordisme est une forme révolutionnaire du capitalisme en 1900, mais elle est tout à fait normale en 1960. Qu’est-ce que le Fordisme ? C’est l’idée selon laquelle un travailleur peut consommer les produits et services qu’il a lui-même créés, et que la demande induite crée une sorte de stabilité au sein du système. C’est une idée très radicale en 1900, mais tout à fait normale en 1965. Elle se conjugue très bien avec le keynésianisme. Tout cela est très bien : les travailleurs obtiennent une part du gâteau plus importante en 1965 qu’en 1900. Ce sont des gains très graduels.

Si nous avons reculé, c’est donc à cause d’une contre-révolution. Cette contre-révolution a su mettre à profit les technologies que j’évoque dans mon ouvrage. Prenons par exemple la mondialisation : nous assistons à une mondialisation du marché du travail, avec l’apparition de la conteneurisation, de formes globales de communication en temps réel, de formes globales de distribution, de stockage et de livraison. Tout cela dépend de la technologie. Et au lieu de permettre aux travailleurs de travailler moins, d’investir leur énergie dans des activités socialement utiles, ces technologies ont été récupérées par la contre-révolution pour servir les intérêts des 1% les plus riches. Le meilleur exemple est celui du charbon en Grande-Bretagne. Évidemment, le Royaume-Uni devait se débarrasser du charbon et aller vers les énergies renouvelables. C’est en partie ce qui s’est produit avec le thatcherisme, mais pas avec une transition socialement équitable, qui aurait bénéficié aux travailleurs, qui aurait amélioré la qualité de l’air qu’ils respirent et leur aurait donné des bons emplois syndiqués. Cela s’est produit comme un moyen permettant à Thatcher de conduire une guerre de classe. Les technologies en elles-mêmes ne sont pas émancipatrices, elles peuvent même participer à l’asservissement. Elles peuvent tout à fait servir les intérêts des élites. Ce que j’essaie de mettre en lumière dans le livre, c’est que les technologies que nous voyons émerger aujourd’hui, qui permettent une disruption potentielle du projet politique du XXème siècle, si elles ne sont pas accompagnées d’une véritable volonté politique, ne vont pas améliorer les choses. Au contraire, elles vont les empirer. C’est un point très important à mentionner lors de conversations avec les utopistes technologiques dont je ne fais pas partie.

LVSL – L’imposition de la rareté à la société n’est pas seulement le produit des relations sociales du capitalisme, elle découle aussi du rapport de l’être humain à la nature et des limites matérielles de l’environnement à un moment donné. Alors que le changement climatique et d’autres crises environnementales deviennent de plus en plus menaçants, l’humanité ne s’oriente-t-elle pas précisément vers des ressources disponibles plus limitées, une abondance matérielle moindre et donc plus rare ? Comment répondez-vous aux appels des militants écologistes en faveur de la limitation de la consommation individuelle et de l’abandon des mantras du progrès matériel et de la croissance continue ?

A.B. – Je parle d’abondance publique, de luxe public. Qu’est-ce que cela signifie ? De façon très provocatrice, j’affirme que je veux des piscines « illimitées » pour tout le monde. Cela veut-il dire que je souhaite que chaque personne ait une piscine « illimitée » dans son jardin ? Vous avez tout à fait raison, nous n’avons pas les ressources matérielles pour nous le permettre, même si nous le voulions. Ce dont je parle, ce n’est pas d’universaliser le droit de posséder une piscine « illimitée », mais d’universaliser le droit d’accès à une piscine « illimitée ». Cela nécessiterait bien moins de ressources que ce que nous utilisons en ce moment, mais cela sous-entendrait nécessairement une certaine remise en cause des relations de propriété actuelles. Je vais vous donner un exemple. Certains biens ne sont pas rares. L’air par exemple n’est pas un bien sujet à la rareté. L’air est un bien public et non-rival. Je peux respirer autant que je le souhaite, et ça n’impacte pas votre capacité à respirer. Il existe beaucoup de biens qui ne sont pas rivaux. Permettez-moi de vous donner un exemple : Wikipédia. Mon utilisation de Wikipédia ne limite pas la vôtre. Alors qu’avec un livre de bibliothèque, si je l’emprunte, vous ne pouvez pas le lire. C’est une forme de rivalité économique : si j’ai le livre, vous ne pouvez pas le lire, alors que nous pouvons tous les deux lire le même article de Wikipédia, en même temps. De même avec Spotify : nous pouvons tous les deux écouter la même chanson, en même temps. Cela semble un peu puéril, mais ça illustre bien le propos sur la rareté. Auparavant, ces biens étaient rivaux, qu’il s’agissait d’un livre ou d’un CD. Si une personne y avait accès, une autre en était privée. Il y avait donc une rareté. En revanche, avec les biens numériques et notamment les biens informationnels, nous sommes dans une situation de post-rareté. Il y a donc une petite partie de l’économie où la rareté n’existe pas.

Dans le livre, j’affirme que l’information est de plus en plus un facteur central de la production. Ce n’est pas le travail ou la terre comme auparavant. Beaucoup d’économistes bourgeois soutiennent également cette idée. L’information est donc progressivement le facteur central de la production, mais elle est aussi de moins en moins chère et sa reproduction est presque infinie. On se rapproche donc de la post-rareté, mais dans le mode de production capitaliste, cela est de plus en plus le lieu de la création de la valeur. C’est un paradoxe incroyablement difficile à surmonter pour les capitalistes. Je vais vous donner un exemple : nous n’avons pas besoin d’imaginer les industries du futur, prenons l’industrie pharmaceutique. D’où provient la valeur des produits pharmaceutiques ? Elle ne provient pas du travail ou de la terre, mais de l’information. Et comment s’assure-t-on que les produits pharmaceutiques soient profitables ? On utilise l’excluabilité : on impose une rareté artificielle à travers les brevets, les droits de marque, les droits de reproduction, les droits d’auteur, etc. Nous voyons donc déjà des manifestations bien réelles de rareté imposée dans des conditions d’abondance potentielle. Je crois que cette centralité de l’information va se généraliser progressivement dans l’économie. On le voit également dans l’automatisation, dans l’apprentissage automatisé ou dans la manipulation génétique.

Le capitalisme va devoir offrir une réponse similaire à ces évolutions, de la même façon que dans le secteur pharmaceutique. Dans des conditions d’abondance, ils devront imposer une rareté artificielle. Au Royaume-Uni, n’importe quel ouvrage d’économie décrit l’économie comme la distribution de biens et de services dans des conditions de rareté. Mais dans certaines parties de l’économie, ces conditions ne s’appliquent plus. La question de la rareté se décompose donc en deux parties : premièrement, ces conditions ne s’appliquent pas nécessairement à tous les biens. Deuxièmement, quand elles s’appliquent, nous pouvons tout à fait avoir une plus grande abondance pour le plus grand nombre grâce au rôle de l’information. En revanche, il s’agit de droit d’accès, pas de droits de propriété. Tout le monde devrait avoir accès à un logement gratuit, à l’éducation gratuite, aux transports gratuits, et pas nécessairement à leur propriété.

Historiquement, la réponse serait « on ne peut pas payer pour ça ». La meilleure façon de commencer la transition vers le communisme automatisé de luxe est de mettre en place des services de bus gratuits. C’est une bonne méthode pour réduire la pollution carbone et pour améliorer la qualité de l’air. C’est une très bonne politique que le Labour ou la France Insoumise pourraient mettre en place dès demain, et ça ne coûterait pas si cher que ça. La réponse historique serait « on ne peut pas se le permettre ». Mais si vous regardez le rôle central de l’information et la chute des prix, qu’il s’agisse du prix des voitures autonomes, de la production physique du bus, et de la baisse du prix des énergies renouvelables, la réponse est « au contraire, nous pouvons nous le permettre un peu plus chaque année. » La chute spectaculaire du prix de l’information et cette tendance vers la post-rareté devraient donc être une base pour des politiques socialistes très radicales. Les services basiques universels sont donc de plus en plus abordables chaque année, parce que leur prix sont déflationnistes, et c’est quelque chose que nous observons depuis très longtemps.

LVSL – Votre livre s’approprie la conception marxiste du communisme, mais il n’envisage pas une lutte de classes entre le prolétariat et la bourgeoisie comme Karl Marx. Quelle en est la raison ?

A.B. – D’une part, je souscris à l’idée que les sociétés sont divisées en classes. J’adhère aussi à la conception selon laquelle deux classes structurent les sociétés capitalistes, à savoir : celle qui doit vendre sa force de travail pour vivre, et celle pour qui ce n’est pas nécessaire, la classe capitaliste. Je reconnais que même les « bons capitalistes » doivent également reproduire ce schéma. S’ils ne le font pas, leur manque de compétitivité les entrainera vers la prolétarisation. Il y a donc une structure fondamentale qui rend cette division inéluctable. À partir de cela, Marx nous dit qu’il existe un agent révolutionnaire : la classe ouvrière, fossoyeuse de la bourgeoisie. Ce sujet surgit sur la scène de l’Histoire par l’action de la bourgeoisie, qui creuse donc sa propre tombe. D’une certaine manière, je pense que c’est une réalité. Il me semble que la classe ouvrière, soit l’ensemble des individus condamnés à vendre leur force de travail, demeure toujours le sujet révolutionnaire.

Toutefois, je crois qu’il nous faudrait une compréhension plus approfondie de ce que cela signifie. Par exemple : je suis en désaccord avec cette idée des années 1990 et 2000, selon laquelle le précariat ou encore l’hémisphère sud seraient devenus les nouveaux sujets révolutionnaires. À vrai dire, cela me semble absurde. Je pense que le prolétariat industriel de Chine est un sujet révolutionnaire, je pense que les codeurs sous-payés de la Silicon Valley sont de potentiels sujets révolutionnaires, je pense qu’un agent d’entretien de Brighton où nous sommes actuellement est un sujet révolutionnaire. Ce que je défends dans mon livre, c’est que nous devons nous organiser autour du thème de la baisse du niveau de vie entrainée par le néolibéralisme, et nous diriger vers un projet radical de social-démocratie. Tout bien considéré, j’ai l’intuition que la conscience de classe se développera à travers les partis politiques. Je dis cela parce que j’ai la conviction qu’il existe une relative autonomie du politique. Je ne conçois pas le sujet révolutionnaire comme s’incarnant uniquement dans le rapport salarial et au travail. De ce point de vue, je serais probablement en désaccord avec quelqu’un comme Karl Marx. Quoi qu’il en soit, il n’est plus parmi nous et vivait vraisemblablement dans un monde bien différent du nôtre. C’est en tous cas sur ce sujet que j’aurais tendance à prendre mes distances avec certains aspects du marxisme orthodoxe.

En tout état de cause, je crois que cette classe ouvrière élargie est toujours une classe révolutionnaire. La question qui demeure étant : « comment établir un lien entre cette subjectivité révolutionnaire et l’enjeu de l’organisation ? ». C’est la problématique fondamentale à laquelle nous allons tous essayer de répondre collectivement. À mon avis, une partie de la réponse réside dans un socialisme enraciné dans le monde du travail, et une autre dans les mouvements sociaux. Il me semble également que les partis politiques devraient participer aux élections. Par ailleurs, c’est grâce aux gens comme vous qui gérez des médias que les idées bougeront dans les têtes. En tant que socialistes, nous croyons que les gens, sous réserve d’être correctement informés, agissent rationnellement selon leurs intérêts. Hélas, à cause de l’idéologie ou encore de la fausse-conscience, cela n’arrive que très rarement. Pour cette raison, je crois qu’une action politique significative doit être comprise dans ses différents aspects.

LVSL – Vous préconisez une forme populiste de construction politique, à déployer principalement sur le plan électoral. Vous plaidez ainsi pour un « populisme de luxe ». Votre bibliographie cite les écrits de Jacques Rancière sur le populisme, mais ne fait aucune référence à ceux d’Ernesto Laclau. Étant donné les contours flous de cette notion de populisme dans le débat public d’aujourd’hui, pourriez-vous nous expliquer ce qui est spécifique au populisme dont vous vous réclamez, et comment il peut s’agir d’une stratégie viable pour parvenir à un « fully automated luxury communism » ?

A.B. – Le populisme, tout comme les thèses de Rancière et Laclau, font souvent l’objet de vives critiques, n’est-ce pas ? Il me semble que nous projetions d’éditer Laclau, mais nous avons dû abandonner. Malheureusement, cela se produit souvent lorsque l’on travaille dans l’édition. Rancière défend l’idée selon laquelle le mépris du populisme peut être associé à une forme d’antidémocratisme, et qu’il existe différentes formes de populisme. Selon sa théorie, le prérequis nécessaire à toute action politique efficace est l’identification du sujet ou du groupe social qui incarne le peuple. Cette phase est absolument fondamentale et inévitable si l’on est un démocrate. Ainsi, la question est la suivante : qui est le peuple ? Mettons-nous un instant à la place d’un ethno-nationaliste français. Dans ce cas précis, le peuple serait constitué de blancs, parlant le français et étant issus d’un territoire précis. Ce territoire peut un jour se limiter à la simple France, un autre inclure des pans de l’Espagne, peu importe… Paradoxalement, le peuple correspond également à une invention des technocrates libéraux. Selon leur perspective, à quoi ressemble le peuple ? De toute évidence, il est pour eux constitué de tous ceux dont on doit s’assurer qu’ils n’aient aucun contrôle sur quoi que ce soit. Cela peut s’expliquer : le peuple est caricaturé par la doxa libérale et la politique traditionnelle comme « ceux qui sont représentés ». Suivant cette conception, le peuple n’apparait que périodiquement sur la scène de l’histoire, pendant les élections, lorsqu’il vote pour ses représentants. Ainsi, le peuple existe bel et bien dans la conscience libérale, mais seulement momentanément.

Quoi qu’il en soit, le peuple existe encore. Ils ne s’en débarrassent pas, mais le traitent d’une manière bien différente. En tant que populistes de gauche, il nous faut également inventer le peuple. C’est d’ailleurs ici que s’invitent les questions de la nation et de l’internationalisme. Quand nous parlons du peuple, nous parlons de la classe des travailleurs. C’est dans cette classe que réside le peuple, celui qui doit se réapproprier les moyens de productions, entrer sur la scène de l’Histoire et la construire en dehors du cadre qui lui est imposé. Si l’on souhaite disposer d’une stratégie politique efficace et fonctionnelle, il nous faut mobiliser un certain type de population. Il faut « inventer le peuple », dirait Rancière. La gauche devrait s’y atteler, plutôt que de dénoncer la dangerosité du populisme. Quand elle se manifeste, cette posture s’apparente toujours à un glissement vers des tendances antidémocratiques. Comment cela se traduit dans le « communisme de luxe entièrement automatisé » ? Dans cette perspective, on informe le peuple, la classe ouvrière, que notre système économique n’est pas seulement en sous-régime, mais qu’il enlise délibérément son propre développement. Il est tout à fait défendable de dire que le capitalisme a produit des choses détestables durant ces 250 dernières années. À l’inverse, il faut également admettre que ce système a réalisé de bonnes choses. Même le marxisme orthodoxe ne s’y oppose pas. Marx considérait que le capitalisme était un prélude nécessaire au communisme. Il voyait le communisme comme le dernier et le plus haut stade de l’Histoire.

Le réchauffement climatique, le vieillissement de la population et l’autonatisation doivent nous faire prendre conscience que nous sommes en train de vivre les dernières décennies du mode de production capitaliste. Ces éléments rendent aujourd’hui impossible le bon fonctionnement de sa dynamique interne. Le capitalisme a besoin de ressources gratuites, d’une nature gratuite et illimitée. Marx lui-même parlait des « dons de la nature ». Ce système a besoin d’une sécurité sociale gratuite, mais il doit toujours solliciter un nombre croissant de travailleurs sans jamais rémunérer ceux qui les font naitre, qui s’occupent d’eux et qui les élèvent. Avec la chute du taux de natalité, il y a de moins en moins de travailleurs. Toutefois, il y a de plus en plus de personnes âgées en incapacité de travailler, du moins de manière productive, pour qui il faudra payer. Dans la théorie de Rosa Luxembourg, le capitalisme est représenté par une roue. Lorsqu’elle tourne, cette roue crée constamment de la valeur, en générant de l’argent issu de la production de marchandises. Cependant, cette roue ne doit pas être la seule à être prise en compte. Il en existe d’autres qui participent à faire tourner la grande roue du capital, à créer de la valeur : l’argent génère toujours plus d’argent. Ces autres roues sont la reproduction sociale, ainsi que le travail non-rémunéré et historiquement genré : le colonialisme correspond en règle générale à la vision selon laquelle on peut disposer gratuitement des ressources du Sud Global. Concernant la question du climat, on retrouve une conception selon laquelle on peut détruire la planète en toute impunité, sans en souffrir les conséquences. Ces trois petites roues, qui contribuent au mouvement général de la grande roue de la valeur, sont peu à peu en train de s’enrayer.

À vrai dire, ce mouvement de ralentissement a commencé il y a un moment déjà. Je pense qu’il est fondamental d’y réfléchir en prenant en compte la baisse du taux de profit, le déclin du PIB par habitant, la baisse des salaires, etc. Cela nous ramène d’ailleurs à votre première question. Du fait des nouvelles technologies et des nouveaux enjeux que nous devons affronter, je ne crois pas que le paradigme politique actuel soit capable de proposer des perspectives. Il faut que nous vendions notre projet politique au peuple. Nous devons faire comprendre que la lutte contre le vieillissement, le réchauffement climatique et les inégalités nécessite une transformation complète du système. Cependant, il faudra insister sur le fait qu’il ne s’agit pas de faire des sacrifices. En d’autres termes : nous n’aurons pas une vie au rabais parce qu’il faut sauver la planète ou combattre le vieillissement de la population. Fondamentalement, ce qui rend la vie horrible, c’est le capitalisme. Certes, on ne pourra plus prendre l’avion cinq fois par an, il faudra voyager en train et cela prendra deux fois plus de temps. Certains pourraient considérer cela comme un sacrifice. Néanmoins, les problèmes fondamentaux de notre époque viennent du capitalisme. C’est ce type de populisme que je souhaite défendre. Les masses ont des problèmes divers, mais la cause première de leurs maux est le mode de production économique.

LVSL – Que pensez-vous de l’idée selon laquelle le clivage fondamental est désormais entre les métropoles à l’avant-garde du capitalisme et les périphérises délaissées ?

A.B. – Je crois que c’est un clivage fondamental, au sein duquel la France est à l’avant-garde. Elle l’est bien plus que la Grande-Bretagne, bien qu’il soit également visible ici. Les gens parlent souvent de la décomposition de l’Union européenne, n’est-ce pas ? C’est aussi un des clivages auxquels il nous faut réfléchir en Grande-Bretagne. L’Écosse souhaite devenir indépendante, le Pays de Galles s’interroge, l’Irlande va peut-être se réunifier. Même en Ecosse, le vote nationaliste est principalement issu des grandes villes : Glasgow et Dundee. Si on analyse les votes lors du référendum pour le Brexit, on s’aperçoit que les grandes villes telles que Londres, Liverpool et Manchester, ont essentiellement voté pour le « Remain ». Il me semble toutefois que les résultats de Birmingham étaient très serrés. Nous sommes donc face au même problème qu’en France. Les classes populaires qui ne vivent pas dans les métropoles sont en colère contre la mondialisation et l’échec de son système économique. Ils considèrent qu’ils ne partagent pas d’intérêts matériels communs avec ceux qui vivent dans les grandes villes. La gauche a une tâche historique à accomplir : elle doit faire converger ces luttes. Il faut qu’elle articule un projet politique qui dise : « vous partagez un intérêt commun ». Ce défi a marqué la limite de la gauche jusqu’à aujourd’hui. Du moins, cela a été la limite des politiques de la gauche libérale durant des décennies, et cela va également le devenir pour la gauche radicale, comme nous pouvons le constater avec le corbynisme.

Cette convergence est nécessaire. Nous pourrions réunir 52% des suffrages en adoptant une stratégie focalisée sur les grandes villes. Nous aurions le soutien des BAME (noirs, asiatiques et minorités ethniques), des étudiants et des jeunes. Cela pourrait fonctionner, durant une élection ou deux. Dans cette éventualité, nous pourrions en profiter pour effectuer de grandes réformes. Cependant, dans la perspective d’une transformation de la société, cela ne suffirait pas, du fait de la structure du capitalisme moderne. En effet, l’accumulation du capital est aujourd’hui concentrée dans des espaces géographiques restreints. Ces zones s’enrichissent, deviennent de plus en plus productives et les salaires tendent à y augmenter. Si l’on prend l’exemple de Londres durant ces dix dernières années, on s’aperçoit que la productivité de la ville a augmenté, tandis que celle du pays stagnait. Les investissements directs étrangers n’ont certes pas augmenté, mais sont restés tout à fait corrects. De plus, les salaires et le prix du logement étaient toujours supérieurs. Londres bénéficie d’une économie à part. La doxa libérale nous dit : « Londres indépendante ! Londres devrait rester dans l’UE et l’Angleterre devrait partir. L’Angleterre est réactionnaire ». De toute évidence, je suis en désaccord avec ce point de vue. La difficulté de cette tâche ne signifie pas qu’elle n’est pas nécessaire. Une fois de plus, nous sommes face à la grande question qui se pose à gauche depuis le siècle dernier : la question nationale, particulièrement pertinente concernant la situation de la France. Vous disposez d’un projet politique de gauche conséquent, qui parvient à articuler une dimension socialiste dans le cadre de la République française. Il est vrai qu’une partie de la gauche ne le voit pas d’un bon œil. Toutefois, vous faites face à une réalité politique à laquelle vous devriez au moins réfléchir : le fossé entre les classes populaires et les villes. On peut considérer que cette stratégie est mauvaise. Dans ce cas, il faut proposer une alternative. Pour l’instant, je n’en vois nulle part.

Il ne s’agit pas ici d’appeler à l’avènement d’un socialisme organisé autour de l’État-nation. Il est plutôt question de faire remarquer que l’on ne peut pas penser un socialisme qui rassemble les masses laborieuses sans réfléchir à la problématique de la nation. Nous croyons au socialisme et à l’auto-détermination. Mais qui gouverne ? Sont-ce les cités-États ? Pourquoi pas. Je pourrais m’en accommoder, c’est une forme de démocratie tout à fait cohérente. Est-ce l’État-nation ? Est-ce le fédéralisme, auquel cas nous bénéficierions d’un fort pouvoir local ? Il me semble que ce sont des débats que nous devrions avoir. Hélas, en tant que militants de gauche, nous n’y parvenons peut-être pas toujours. En Grande-Bretagne, je crois que notre approche se résume à un économisme par défaut. Nous sommes contre l’austérité et je suis d’accord avec cela. Cependant, nous ne traitons jamais des autres sujets qui n’ont pas vraiment de liens avec l’économie politique de la crise. Nous nous devons avoir une position concernant l’État écossais : en tant que socialiste, quel est ton avis sur l’indépendance de l’Écosse ? On ne peut pas se contenter de répondre : « laissez-les se débrouiller ». C’est une opinion défendable et je la partage. Néanmoins, dans l’absolu, je crois que ce pays, le Royaume-Uni, devrait adopter une politique de fédéralisme radical. Cela n’engage que moi, mais il me semble que cette forme d’auto-détermination est la plus efficace. Nous devons reconquérir les classes populaires avec un programme qui ne se borne pas aux problématiques économiques, mais qui propose également un projet de reconstruction politique. En France, cela pourrait correspondre à la 6ème République. En Grande-Bretagne, cela pourrait prendre la forme d’une convention constitutionnelle, bénéficiant d’une constitution écrite et d’une solution fédérale. La gauche ne peut ignorer ces enjeux et se focaliser uniquement sur l’économie politique. Parfois, il faut également traiter des problèmes relatifs à l’État.

[1]    https://www.versobooks.com/books/2757-fully-automated-luxury-communism. Voir aussi https://www.nytimes.com/2019/06/11/opinion/fully-automated-luxury-communism.html