Nick Srniček : « On peut imaginer un agenda radical en matière de nouvelles technologies »

Nick Srniček - Le Vent Se Lève

Peut-on imaginer un agenda radical en matière de nouvelles technologies ? C’est là la ligne de fond du travail de Nick Srniček, co-auteur en 2013 du Manifeste accélérationniste, pamphlet qui avait secoué la gauche radicale, aujourd’hui senior lecturer au King’s College London, essayiste, et l’un des plus fins connaisseurs du capitalisme numérique. Entre économie politique de l’IA, stratégie politique et fin du travail domestique, il renouvelle la critique des technologies numériques et œuvre à formuler un agenda émancipateur. Entretien par Maud Barret Bertelloni.

En 2013, deux doctorants londoniens secouaient la gauche radicale en publiant le Manifeste accélérationniste, texte dans lequel ils incitaient la gauche à sortir de l’impasse politique et écologique en se réappropriant les technologies et les formes d’organisation capitalistes à des fins d’émancipation. Accusés de techno-utopisme par leurs détracteurs, qui lisaient dans le Manifeste une invitation à accélérer le techno-capitalisme global pour en provoquer l’effondrement ; attaqués par les partisans de la décroissance qui ne voyaient dans leur proposition qu’une énième variante du productivisme, Nick Snriček et Alex Williams défendaient que c’est précisément à l’échelle du capitalisme que ce dernier peut être dépassé. Sortant de son passéisme et de son refus des techniques et des organisations, la gauche peut réorienter l’infrastructure matérielle du capitalisme, se réapproprier le progrès scientifique et technologique et doit penser la stratégie et les institutions pour ce faire.

Dix ans après le Manifeste, Nick Srniček compte parmi les plus fins économistes politiques du capitalisme numérique. Capitalisme de plateforme, publié en 2017, conceptualisait les plateformes comme les nouvelles formes d’organisation du capitalisme dont la singularité tient aux moyens sociotechniques d’intermédiation par le biais des données. Par-delà les promesses de l’économie numérique, il insérait ce modèle dans la longue histoire du capitalisme post-fordiste. Il travaille aujourd’hui sur l’économie politique de l’intelligence artificielle et, loin des discours imprégnés de craintes et de promesses, en avance une critique qui souligne l’importance du travail et des infrastructures dans la production de l’IA et en illustre les implications géopolitiques.

Son dernier ouvrage, écrit avec la théoricienne féministe Helen Hester, After Work : A History of the Home and the Fight for Free Time, porte sur les technologies domestiques et leur fausse promesse de libérer du temps de travail. Si, au fil des innovations, la charge de travail domestique n’a pas diminué, c’est qu’il faut interroger la culture domestique et parvenir à transformer l’organisation matérielle de la vie quotidienne. Des plateformes aux technologies domestiques, de l’IA à ses infrastructures, Nick Srniček renouvelle la critique des techniques et œuvre à formuler un agenda émancipateur.

Entretien originellement publié sur AOC média.

LVSL – Après le Manifeste accélérationniste et Inventing the future (Verso, 2015), deux essais politiques et programmatiques sur l’avenir de la gauche, les technologies et la fin du travail, vous avez recentré vos recherches sur l’économie politique du numérique, du capitalisme de plateforme à l’industrie de l’IA. Quel fil relie ces différents travaux ?

N. S. – L’économie politique est arrivée dans mon travail en même temps que le Manifeste. Je m’occupais auparavant de philosophie et j’aurais pu rester un deleuzien si la crise de 2008 n’était pas arrivée. Mais tous les théoriciens critiques que je lisais n’avaient rien à dire de pertinent sur la crise financière, la plus grande crise du capitalisme global depuis la Grande Dépression. C’est alors que je me suis tourné vers l’économie politique. Le Manifeste a eu la même genèse : il est né de la frustration qu’Alex Williams et moi ressentions à l’égard de la gauche de l’époque, incarnée notamment par le mouvement Occupy Wall Street, né en réponse à la crise financière.

Son horizontalisme à tout prix, sa démocratie directe à tout prix, sa peur farouche de tout leadership, tous ces éléments nous semblaient absolument contre-productifs pour la construction d’un mouvement de gauche efficace. Les arguments du Manifeste n’étaient en fait que les réponses aux questions : que devrait faire la gauche ? Quelle est l’alternative à la situation actuelle ? Devrions-nous affirmer de grandes revendications ? Y compris sur la question technologique.

Le discours qui entoure les technologies est aujourd’hui imprégné de craintes au sujet des IA génératives. Dans les années autour de 2008, les craintes se concentraient autour de l’automatisation et de la surveillance. Notre position consistait alors à dire que les technologies ne doivent pas être craintes : elles peuvent souvent être réappropriées et constituer des opportunités émancipatrices. Il en va de même aujourd’hui. La question est de savoir comment il est possible de contrôler le développement technologique et l’orienter vers des possibles libérateurs.

LVSL -L’intelligence artificielle a largement défrayé la chronique ces derniers mois. Le succès de modèles comme ChatGPT ou DALL·E, rendus accessibles au grand public, a suscité d’importantes craintes autour de l’automatisation du travail. Leurs performances impressionnantes ont relancé les débats autour de l’intelligence des machines, ses risques et son éthique. Vous étudiez depuis longtemps l’économie numérique et ses innovations : quelle est votre lecture du phénomène ?

N. S. –Par-delà l’engouement médiatique, ce que je propose est d’opérer un geste marxiste tout à fait classique : plutôt que de se concentrer sur les craintes et les conséquences de l’usage de l’intelligence artificielle, il faut s’intéresser à ses conditions de production. Lorsque l’on s’intéresse à l’IA non pas à partir de ses conséquences, mais de sa production, on s’aperçoit qu’il s’agit d’une longue chaîne de travail qui peut être décomposée en quatre étapes : (1) la collecte des données, (2) l’étiquetage de ces données et leur nettoyage, (3) la construction du modèle ; ce n’est qu’alors qu’advient (4) le déploiement de l’intelligence artificielle comme produit pour les utilisateurs. Du côté des chercheurs comme des politiciens, toute l’attention critique s’est concentrée ces derniers temps sur les deux premières étapes, notamment sur la collecte massive de données. Elle requiert beaucoup de travail de nettoyage et de vérification des données et engendre d’importants problèmes de surveillance.

Mais cela ne représente qu’une partie de la chaîne de production. Prenez par exemple l’entraînement des modèles : c’est une étape qui requiert énormément de ressources de calcul. L’entraînement d’un seul modèle d’IA requiert un équipement de calcul massif, des dizaines de milliers de cartes graphiques et des ingénieurs très bien formés, qui sont d’ailleurs une ressource très rare pour les entreprises. Une entreprise comme Deep Mind[1] consacre d’ailleurs une très large partie de son budget pour garder ses meilleures têtes, avec des salaires qui se chiffrent en centaines de milliers de dollars. Tant que l’on ne change pas le regard sur l’IA et que l’on ne considère pas toutes les étapes de sa production, on ne pourra prendre en compte que les problèmes de données et de surveillance, alors que de nombreux enjeux de pouvoir, de propriété et de monopole se concentrent autour des équipements de calcul et des infrastructures (énergétiques, hydriques) qui permettent de les approvisionner.

LVSL – Si l’on s’intéresse aux producteurs d’IA, du moins du côté de la production des modèles, on s’aperçoit que les acteurs sont à peu près les mêmes qui, de l’économie du web au capitalisme de plateforme, ont été au cœur du capitalisme numérique : Google, Amazon, Microsoft, Facebook. L’industrie de IA que l’on voit prospérer aujourd’hui est-elle une ramification du capitalisme de plateforme ?

N. S. – Il y a une continuité claire entre le capitalisme de plateforme et l’industrie de production de l’intelligence artificielle. OpenAI, l’entreprise au cœur de l’engouement actuel autour de l’IA, dépend de Microsoft, qui l’a récemment renflouée à la hauteur de 10 milliards de dollars[2] et dépensé plusieurs centaines de millions de dollars pour construire un « superordinateur » pour OpenAI. L’intelligence artificielle est actuellement dominé par Microsoft, Google et Facebook en moindre mesure. Ce sont des entreprises qui ont acquis leur pouvoir comme plateformes, en recueillant les données des utilisateurs, ce qui leur permettait à l’époque de cibler leurs services, mais l’enjeu crucial aujourd’hui est ailleurs. Ce ne sont plus des plateformes au sens strict : ce sont désormais des fournisseurs d’infrastructures de calcul. C’est pour ça qu’Amazon s’emploie à devenir l’un des acteurs les plus importants de l’IA. En matière d’IA, Amazon n’a développé que quelques petits modèles, rien qui puisse concurrencer l’état de l’art ; ce qui importe cependant est qu’elle fournit aujourd’hui la majeure partie des ressources de calcul nécessaires à l’IA via Amazon Web Services, son service cloud. Même Facebook ne possède pas suffisamment de data centers et doit parfois s’appuyer sur Amazon pour entraîner ses modèles.

Les ressources de calcul, le cloud et leur infrastructure sont devenues le nerf de la guerre de l’IA et leur propriété est de plus en plus concentrée. On peut observer une dynamique semblable à celle des chemins de fer au siècle dernier : en raison des investissements massifs à pourvoir en amont, le secteur tech tend au monopole. Un processeur graphique de pointe coûte aujourd’hui autour de 40 000 dollars et il en faut des centaines, voire des milliers, pour entraîner les modèles d’IA. Cela signifie que c’est hors de portée pour la plupart des entreprises et pour la recherche publique.

LVSL – Est-ce cette concentration qui fait le pouvoir des GAFAM ? Paradoxalement, c’est une position que pourraient défendre une théoricienne libérale comme Shoshana Zuboff dans son travail sur le capitalisme de surveillance ou les commissaires européens, lorsqu’ils incitent à démanteler les géants du secteur tech.

N. S. – Il y a deux manières de considérer les monopoles. La première, qui est celle de la Commission européenne, est une approche anti-trust classique, selon laquelle la libre concurrence est le but ultime de la politique économique. L’objectif est donc d’avoir plusieurs Facebook, plusieurs Google, plusieurs de ces entreprises en compétition les unes avec les autres, avec l’idée que quelques bénéfices finiront par émerger d’un système compétitif. Je ne pense pas que ce soit vrai. Au contraire, c’est bien la concurrence qui produit des dommages. Ces entreprises rivalisent déjà pour accaparer les données, les utilisateurs et les financements. Cette concurrence les conduit à renforcer la surveillance, élargir la collecte massive de données, à chercher à affiner le profilage et les techniques pour garder leurs utilisateurs captifs, comme les dark patterns[3]. Ces problèmes n’ont rien à voir avec la taille de ces entreprises. Dans ce contexte, la concurrence n’est en rien une solution : c’est au contraire une partie du problème qui consiste à laisser ces plateformes dans les mains du marché. Ce n’est pas de concurrence dont on a besoin, mais de contrôle démocratique et populaire sur le développement et sur le déploiement de ces technologies. Ce contrôle est aujourd’hui dans les mains d’un type comme Sam Altman, le co-fondateur avec Elon Musk de OpenAI.

LVSL – Certains, comme l’économiste français Cédric Durand, soutiennent que l’essor des plateformes a fondamentalement changé le capitalisme, au point d’en marquer la fin. La captation de valeur par l’accumulation de données et le contrôle des infrastructures par une poignée de puissantes entreprises rapprocheraient l’économie numérique d’un système féodal, ou plus précisément : techno-féodal. Quelle est votre lecture des transformations de l’économie numérique ?

N. S. – Sans être un spécialiste des travaux de Cédric Durand, il me semble que sa thèse s’appuie sur la prémisse selon laquelle la dynamique du système économique serait portée non plus par le profit mais par la rente[4]. Je suis en désaccord avec cette prémisse : la rente n’est pas un phénomène extérieur au capitalisme. Marx n’aurait jamais été d’accord : il y a des centaines de pages dans le volume III du Capital sur la rente, sur les manières dont elle s’intègre à un système capitaliste et s’y trouve transformée. Évidemment, la dynamique d’une entreprise qui dépend de la rente diffère d’une entreprise plus classique qui dépend de l’extraction de profit. Malgré ces différences, toutes deux font partie du système capitaliste.

C’est d’ailleurs l’un de mes principaux arguments au sujet du capitalisme de plateforme. De nombreux auteurs ont voulu voir dans les GAFAM de nouveaux modèles économiques, voire de nouveaux modèles d’ordre social. Les optimistes comme Rifkin, Benkler ou Mayer-Schönberger avaient affirmé que l’on allait vivre dans une nouvelle économie du partage. Les pessimistes, comme McKenzie Wark, que l’on est sortis du capitalisme pour entrer dans une nouvelle techno-dystopie. Ce que j’ai essayé de montrer avec Capitalisme de plateforme, c’est que c’est toujours du capitalisme, mais avec une dynamique propre, gouvernée par la capacité d’intermédiation des plateformes.

Nous sommes toujours en plein capitalisme. La prominence du phénomène de la rente aujourd’hui peut plutôt être comprise comme le résultat d’un ralentissement du capitalisme. L’économie globale ralentit depuis plusieurs décennies, tout particulièrement à son centre. Des pays comme l’Inde et la Chine ont rapidement rattrapé les États Unis, mais ce n’est pas le cas de nombreux autres et la frontière de la croissance ralentit. Avec le ralentissement de la croissance économique, les entreprises se trouvent davantage incitées à capter qu’à créer de la valeur – comme la création devient de plus en plus difficile. Là où la thèse techno-féodale oppose rente et profit, je vois une opposition entre création et captation de valeur – mais cette captation de valeur demeure fondamentalement capitaliste.

Il y a évidemment une composante importante de rente dans l’économie et le capitalisme de plateforme en fait partie, mais ce n’est pas hors capitalisme. Les caractéristiques saillantes du capitalisme, notamment l’accumulation, n’ont pas disparu. On assiste plutôt à une lutte acharnée pour s’emparer d’une mise de plus en plus maigre. Et par-delà la prominence de la rente, je pense que la stagnation a aussi récemment beaucoup influencé les politiques industrielles et déterminé le retour de la concurrence géopolitique.

LVSL – Dans quel sens ?

N. S. – La période néolibérale a été marquée par l’abandon de la politique industrielle et de ses implications géopolitiques. Elle n’a évidemment jamais complètement disparu, mais elle était déconsidérée de manière idéologique et peu discutée. Aux États-Unis, c’est le capital-risque qui a relevé le financement du secteur technologique, au moment du retrait du financement de l’État. C’est devenu le premier canal de financement des entreprises tech, à partir de l’ère « dot.com[5] ». Il s’agissait à l’époque de grands fonds d’investissement qui consacraient leur surplus à des investissements risqués par le biais de angel investors. Aujourd’hui au contraire, le capital-risque est aussi une ramification des plus grandes entreprises technologiques comme Google et Amazon ; il a permis leur essor et elles ont souvent chacune leurs propres fonds.

C’est tout à fait différent en Chine, où l’industrie est massivement soutenue par l’État. La politique industrielle volontariste de la dernière décennie a mené au développement de l’industrie des semi-conducteurs et, de manière significative, d’importantes plateformes domestiques. Huawei est un excellent exemple : c’est un leader mondial en standards technologiques, pour la 5G notamment. On les oublie souvent, mais les standards techniques sont des dispositifs cruciaux, qui permettent d’asseoir une influence géopolitique majeure.

En raison du succès des politiques industrielles chinoises et de la stagnation générale de l’économie, les États-Unis ont dû entrer dans la danse et le Chips Act[6] en est l’exemple le plus flagrant. Les US cherchent explicitement à s’autonomiser à l’égard de la Chine, qui soutient ses entreprises nationales, avec un intérêt géopolitique clair. La première entreprise productrice de semi-conducteurs, TSMC, est basée à Taïwan, qui est actuellement une poudrière géopolitique. Le Chips Act était une tentative de s’assurer une forme d’autonomie sur la chaîne de production, surtout après avoir vu pendant le Covid-19 la fragilité des chaînes d’approvisionnement. Actuellement, la maigre politique industrielle américaine est entièrement portée par la concurrence géopolitique.

LVSL – Et en Europe ?

N. S. – L’Europe voudrait avoir une industrie de l’IA qui puisse concurrencer les États Unis et la Chine. C’est impossible pour plusieurs raisons, parmi lesquelles figurent le manque de plateformes et de fournisseurs cloud d’envergure. Le vieux continent peut se concentrer sur le secteur applicatif, avec différentes start ups, mais du point de vue de la chaîne de valeur, c’est un secteur qui capte très peu de valeur. Si l’on accepte l’hypothèse de la centralité croissante des infrastructures, on peut conclure que les fournisseurs cloud vont en ressortir les plus puissants et aucun n’est en Europe. Cela ne signifie pas qu’aucune application utile ne pourra émerger de l’Europe. Mais contrairement aux promesses, le retard technologique européen ne pourra pas être comblé.

LVSL – En 2013, le Manifeste accélérationniste faisait controverse en prenant à contrepied les positions sociales-démocrates autant que décroissantes en matière de nouvelles technologies, accusées d’être « impuissantes et inefficaces ». Il y avait dans la partie programmatique du Manifeste un passage énigmatique, une invitation à œuvrer pour une « hégémonie sociotechnique de gauche ». Qu’est-ce que cette proposition ?

N. S. – L’hégémonie est le gouvernement par le consentement plutôt que par la coercition. C’est ce qui permet d’inclure les personnes dans un ordre social particulier et de leur faire accepter par différents moyens. Traditionnellement, l’étude de l’hégémonie se concentre sur ses aspects sociaux et discursifs du système, sur l’idéologie et sur tous les systèmes d’incitation qui permettent de convaincre les personnes à demeurer loyales à un système social existant. L’aspect sociotechnique de l’hégémonie concerne au contraire sa dimension matérielle et technique, la manière dont toutes les infrastructures, les outils, les technologies construisent autour de nous un ordre social. Pour donner un exemple très simple : la maison familiale individuelle construit la cellule familiale nucléaire en la naturalisant.

Elle répartit les personnes en petites maisons mono-familiales et les sépare de fait en petits foyers nucléaires. Cela fait partie de l’hégémonie, car l’architecture naturalise le système familial et social. Lorsque Alex Williams et moi invoquions une hégémonie sociotechnique de gauche, c’était pour dire qu’il faut prendre cette infrastructure très au sérieux. Il faut aussi s’intéresser à la conception de ces technologies et à leur déploiement. Tous ces aspects techniques doivent faire partie d’un agenda de gauche, on ne peut pas se limiter à des arguments théoriques ou à de meilleurs programmes de politiques publiques. La gauche doit investir la culture matérielle autant que la sphère des idées. Et cela concerne bien évidemment les nouvelles technologies.

LVSL – En quoi consisterait un agenda émancipateur en matière d’IA ?

N. S. – C’est très difficile de proposer un agenda émancipateur en matière d’IA, telle qu’elle est développée aujourd’hui. Il y a actuellement deux approches dominantes, toutes deux insuffisantes. La première propose de « démocratiser » l’IA en garantissant l’usage à tout le monde : le fait de pouvoir accéder librement à ChatGPT depuis un ordinateur équivaudrait à la démocratisation de ces technologies. Cela n’a évidemment aucun sens du point de vue progressiste, car la propriété et la conception des modèles demeure dans les mains de Microsoft et de OpenAI, qui captent toute la valeur issue de ces systèmes. Le fait que tout le monde puisse y accéder ne change ni le développement des technologies ni les structures de pouvoir desquelles elles sont issues.

L’autre alternative, plus intéressante, est celle du développement en open source de plus petits modèles. La plupart des modèles dits « de fondation » comme GPT4 ou DALL-E [modèles de grande taille de génération de texte ou d’image, qui peuvent être adaptés par la suite à un large éventail de tâches, n.d.r.] sont des modèles propriétaires, au sens où ils sont la propriété des entreprises qui les ont développés. Il existe au contraire d’autres modèles librement accessibles, qui peuvent être librement employés et modifiés. L’architecture des modèles, leurs données d’entraînement, les poids de leurs paramètres, tout est à disposition et utilisable pour quiconque souhaite s’en servir.

Et cela pourrait représenter un vrai changement : les modèles actuels ont coûté des centaines de millions de dollars pour être entraînés. Tant que c’est la seule manière de produire de l’IA de pointe, la recherche publique ne pourra jamais suivre. L’open source montre que l’on pourrait s’en tirer de manière beaucoup plus économique. S’il est possible de ré-entraîner des modèles sur une poignée de processeurs graphiques, s’il est (presque) possible de répliquer ChatGPT pour quelques centaines de dollars, le modèle économique de OpenAI peut être entièrement détruit. L’open source peut en ce sens encore représenter une menace pour le pouvoir de l’industrie technologique.

Le problème, c’est que cet open source dépend à son tour des GAFAM. Dans le domaine de l’IA, il s’appuie sur les gros modèles entraînés par ces entreprises. Une fois qu’ils sont entrainés par les GAFAM, le développement en open source arrive en bout de course pour leur réglage fin [le fine-tuning n.d.r.]. De plus, le travail en open source s’appuie sur les infrastructures possédées par les GAFAM pour entrainer et faire fonctionner ses modèles à l’échelle. Toutes les entreprises qui les développent en open source ont des partenariats avec les GAFAM et continuent d’en être dépendantes. L’open source pourrait permettre de ralentir la concentration de l’IA, mais non de s’autonomiser à l’égard des GAFAM. Difficile de dire, dans les deux cas, quel serait un scénario émancipateur.

LVSL – Ces technologies numériques – et l’IA n’en est qu’un exemple – s’appuient sur la collecte massive de données des utilisateurs, donc sur une forme de surveillance. Plus fondamentalement, elles requièrent une grande quantité de ressources naturelles et énergétiques pour leur fonctionnement. Dans un contexte d’urgence climatique, un agenda technologique de gauche est-il compatible avec le maintien de telles technologies et infrastructures ?

N. S. – Les ressources et l’énergie que l’on peut employer sont évidemment limitées à un temps t. Mais en même temps, le développement technologique peut permettre de repousser ces limites. Notre capacité à employer l’énergie et les ressources de manière soutenable s’améliore, surtout si l’on encourage le développement technologique dans cette direction. Ces limites devraient etre conçues comme fixes à court-terme et variables à long-terme. Un deuxième argument consiste à dire que ce n’est pas parce qu’une technologie exige une quantité importante de ressources qu’il faut automatiquement y renoncer. Les bénéfices d’une infrastructures à haut impact sur l’environnement pourraient consister à limiter l’usage de ressources naturelles dans un autre contexte.

C’est là l’une des questions que devra se poser une société future. Les ressources requises pour le fonctionnement de l’IA valent-elles les bénéfices qu’elle peut fournir ? Je renvoie la question aux générations futures parce que les bienfaits de l’IA vont avant tout les concerner. Il faut évidemment baisser la consommation de ressources naturelles, mais si l’on jugeait raisonnable d’allouer, mettons, 10 % de la consommation énergétique mondiale aux nouvelles technologies, on pourrait alors s’interroger pour savoir si les bénéfices de l’IA sont suffisants pour leur consacrer une part du budget énergétique.

Cette position peut sembler opposée à la plupart des réflexions écosocialistes, mais ce n’est pas mon point de vue. La vraie question – c’est là notre point commun – est de savoir comment on peut acquérir le contrôle collectif sur la direction du développement technologique, comment on peut en contrôler démocratiquement le déploiement et l’usage. Le problème n’est pas celui de la high tech en opposition à la low tech. Il est possible, par exemple, de faire de l’agriculture locale et à petite échelle de manière très high tech.

L’enjeu est à chaque fois de savoir comment choisir les technologies appropriées à un contexte donné et de garantir qu’elles soient efficaces du point de vue des ressources consommées et des objectifs définis collectivement par une société. Dans un monde où l’on essaie simultanément de réduire l’impact environnemental et le temps de travail, il y a toute une série de contraintes complexes qu’il faudra prendre en compte dans l’imagination d’une société future et de ses technologies. L’important est que nous puissions choisir collectivement.

LVSL – Mais de quelles institutions disposons-nous pour décider collectivement sur la culture matérielle et technique ?

N. S. – Les approches dominantes pour gouverner la culture technique sont aujourd’hui celles de la démocratie représentative et de la technocratie. Dans la première des configurations, les politiciens élus lors des élections prennent des décisions en vertu de leur fonction de représentation politique. L’autre approche est celle d’inspiration technocratique, de plus en plus répandue, selon laquelle les experts techniques sont les plus à même d’en gouverner l’usage. Les ingénieurs en machine learning sauraient, en vertu de leurs compétences de calcul, gouverner le développement technique de manière éclairée. Le problème étant qu’ils ne sont pas forcément compétents pour saisir les biais sociaux et économiques de leurs propres systèmes.

Je ne veux pas dire par là que l’expertise technique n’a pas d’importance, le problème n’est d’ailleurs pas là actuellement. Aujourd’hui, les gouvernements laissent les entreprises dicter les grandes lignes de régulation, comme c’est le cas actuellement avec l’IA, ou bien décident de réguler les technologies en faisant fi de toute expertise technique. Les tentatives d’encadrement du chiffrement bout à bout en sont un excellent exemple : les gouvernements cherchent à tout prix à imposer l’insertion de back doors[7], alors que les experts expliquent qu’une porte d’entrée annule tout le principe du chiffrage bout à bout…

LVSL – Il existe cependant de nombreux exemples d’initiatives politiques en matière de culture technique, autant du côté des institutions (conventions citoyennes, autorités indépendantes et de régulation) que du côté des ONG et des mouvements sociaux, où se mélangent expertise technique et savoir-faire politique. Ne peut-on pas s’appuyer sur ce déjà-là pour imaginer les institutions pour gouverner la culture technique ?

N. S. – Je vais devoir botter en touche : je ne sais pas faire du design d’institutions. Je peux donner quelques grands principes qui pourraient guider ce genre d’initiative, mais c’est quelque chose qui va devoir être inventé par-delà le capitalisme. Le problème avec le capitalisme, c’est que tous les problèmes importants sont hors de portée, le changement climatique en premier lieu. Le développement technologique est guidé par des impératifs structurels. On a beau savoir ce qu’il faut faire pour arrêter le changement climatique, le capitalisme ne va pas le permettre.

Peu importe que les PDG eux-mêmes le souhaitent du fond de leur cœur : les actionnaires ne le permettront pas. Il en va de même avec les décisions au sujet du développement technologique : il est porté par la concurrence et par le profit plutôt que par une quelconque réflexion rationnelle.

LVSL – Un raisonnement maximaliste de ce genre ne risque-t-il pas de passer sous silence la pluralité de pratiques qui existent déjà, tant du point de vue de la lutte contre la crise climatique que des pratiques de réappropriation des techniques ?

N. S. – Nous ne sommes évidemment pas dans un moment révolutionnaire. Le mieux que nous puissions faire actuellement est probablement de cultiver ces pratiques et de les institutionnaliser, de sorte à leur garantir une vie par-delà leur immédiateté. C’est ce qu’Alex Williams et moi appelions dans Inventing the Future une « politique anti-localiste » (anti-folk politics). L’idée n’est pas de critiquer le localisme ou l’horizontalisme en soi, mais de rappeler qu’ils sont insuffisants pour soutenir un mouvement sur le long terme.

Chaque mouvement a ses pratiques et ses innovations, mais lorsque l’on refuse de construire des systèmes, comme c’était le cas de Occupy Wall Street en 2009, on risque de perdre tout ce qui a été inventé lorsque la ferveur retombe. J’insiste sur Occupy Wall Street parce que c’était l’un des mouvements les plus importants de la gauche occidentale anglophone de notre siècle et probablement celui où cette limite était la plus flagrante. Mais cela pourrait s’appliquer aux mouvements anti-globalisation des années 2000 et probablement à de nombreux autres mouvements.

LVSL – Vous avez récemment publié un nouveau livre avec Helen Hester, After Work : A History of the Home and the Fight for Free Time, qui revient sur l’histoire des technologies domestiques et la lutte pour la fin du travail.

N. S. – Notre livre part du paradoxe mis en avant par la théoricienne féministe Ruth Schwarz Cowan au sujet du travail domestique. Dans More Work for Mother ?, elle démontrait que malgré la révolution domestique, malgré les lave-linges, les lave-vaisselles, les aspirateurs et tous les autres équipements ménagers, les femmes au foyer accomplissaient toujours autant de travail en 1970 qu’au début des années 1900. La technologie n’a pas beaucoup changé le temps de travail à la maison. La grande question étant : comment est-ce possible ? Dans le livre nous nous intéressons aux structures sociales et matérielles qui continuent de nous faire faire tout ce travail.

Aujourd’hui, il en va de même des objets connectés et tous les gadgets domestiques que nous accumulons dans nos maisons, qui ne font que déplacer la charge de travail domestique qui nous incombe. Je pense fondamentalement que les technologies peuvent nous libérer du travail. Historiquement, elles ont dégagé énormément de temps libre (potentiel). La question est toujours celle de savoir qui contrôle le développement et le déploiement de ces technologies, pourquoi et comment elles ne réduisent pas le temps de travail de production et de reproduction.

LVSL – Et dans le livre, vous mettez en avant un véritable programme politique.

N. S. – Nous essayons de dégager trois grands principes de réorganisation du travail domestique et de ses technologies. Le premier principe est celui de soin communautaire (communal care) : en s’éloignant du modèle de la famille nucléaire comme lieu du soin, on peut mutualiser la charge de travail qui pèse individuellement sur chaque famille. Cela évidemment développer des crèches et des gardes d’enfants publiques, ouvertes sept jours sur sept – et je sais qu’en France c’est un système bien mieux développé que dans nombreux autres pays – ainsi que d’autres efforts pour partager la charge du travail reproductif.

Le second principe est celui du « luxe public » (public luxury), qui consiste à garantir l’accès à des services de luxe, trop chers pour des familles individuelles, mais dont on peut mutualiser les coûts et la dépense énergétique. L’exemple le plus simple est celui d’une piscine : c’est un bien insoutenable de tous points de vue pour une famille individuelle, mais qui peut avoir un sens s’il est partagé. Il en va de même pour les bibliothèques, les ludothèques et tous les espaces récréatifs. Enfin, le troisième principe est celui de la souveraineté temporelle, de prise de décision démocratique en matière de développement de la culture matérielle et technique.

Cela concerne notamment la conception des espaces de vie et de la manière dont ils peuvent permettre la diminution de la charge de travail domestique, mais aussi la constitution d’institutions qui nous permettent de déterminer ce que l’on souhaite faire de notre temps libre.
La plupart de ces initiatives existent déjà, nous proposons de les potentialiser. Souvent, des initiatives locales qui essaiment un peu partout ne se conçoivent pas comme reliées par un projet politique. L’une des manières de leur donner de la force est de leur permettre de se reconnaître dans une lutte plus large. Se battre pour sauver une bibliothèque municipale, est-ce une initiative locale ou une lutte plus large pour garantir le luxe public ? Le nôtre est un travail d’articulation de pratiques, au sens de Ernesto Laclau[8] et c’est ce à quoi nous essayons de participer avec ce livre.

NDLR : parmi les livres traduits en français de Nick Srniček figurent le Manifeste accélérationniste. Accélérer le futur : Post-travail & Post-capitalisme (Cité du design IRDD, 2017) et Capitalisme de plateforme (Lux, 2018).

Notes :

[1] La branche d’intelligence artificielle de Google.

[2] Voir au sujet de OpenAI l’article de Valentin Goujon, « OpenAI, une histoire en trois temps », AOC, 23 mai 2023.

[3] Les dark patterns sont les interfaces conçues pour solliciter les utilisateurs et les faire rester plus longtemps sur un service, par exemple en rendant moins visible les boutons pour refuser les cookies ou la publicité.

[4] La rente est un revenu perçu pour la propriété d’une terre, d’un actif ou d’une infrastructure, en opposition au profit généré par l’exploitation du travail. La proéminence de la rente dans l’économie numérique (brevets, captation de données, contrôle sur les technologies) marquerait ainsi la fin du capitalisme défini par l’exploitation du travail et l’extraction de profit.

[5] Cela correspond au développement de l’économie du web dans les années 1990, porté par Ebay, Google, Amazon, etc.

[6] L’acte américain qui vise à soutenir la production domestique de semi-conducteurs aux États-Unis.

[7] Autrement dit, une « porte dérobée », une clef secrète qui déjoue le chiffrement.

[8] Théoricien néo-marxiste, dont la stratégie politique consiste à articuler différentes luttes, dans une identité politique qui en préserve les singularités.

Les recettes des GAFA pour « résoudre » la pandémie

© Marielisa Ramirez

Apple, Facebook et Google se présentent depuis quelques temps comme les « sauveurs dans la tempête », qui profitent de leur quasi-monopole sur les données informatiques pour oeuvrer à la résolution de la pandémie. Les GAFAM s’assurent ainsi un formidable accroissement de leur pouvoir en développant une forme de « biopolitique » de plus en plus liée à la datafication. Par Anna-Verena Nosthoff et Felix Maschewski, enseignants à la Freie Universität de Berlin et auteurs de Die Gesellschaft der Wearables – Digitale Verführung und soziale Kontrolle (« La société des wearables – Tentation digitale et contrôle social »). Traduit par Judith Kleman et Simon Darjesson.


Le 10 avril, Apple et Google déclaraient simultanément sur leurs sites Internet qu’il n’y avait « jamais eu meilleure opportunité » pour « travailler à la résolution de l’un des problèmes les plus urgents du monde ».

Les deux géants monopolistiques ont annoncé développer conjointement une plateforme pour le contact tracing – une technologie de suivi par smartphone des contaminations au Covid-19. L’objectif, promettent-ils, est « d’utiliser le pouvoir de la technologie (…) pour aider des pays dans le monde entier ». Autrement dit, les ingénieurs californiens s’arrogent un nouveau rôle : sauver l’humanité, la libérer du mal. Un rôle qui s’inscrit dans la devise de Google : Don’t be evil (« Ne soyez pas malveillants »).

À peine quelques semaines plus tôt, le président des États-Unis faisait faisait part de sa pleine confiance sur le sujet. « Je tiens à remercier Google », déclarait Donald Trump lors d’une conférence de presse. Sa gratitude s’adressait en particulier aux « 1700 ingénieurs » qui développaient un site destiné à réaliser un testing du Covid-19 à grande échelle. Le président se disait lui aussi convaincu que ce serait une aide précieuse pour toute la population et pour le monde entier : « We cover this country and large part of the world » (« Nous couvrons ce pays et une grande partie du monde »)

Dans le jargon de Google, cela se dit ainsi : « We’ve mapped the world. Now let’s map human health » (« Nous avons cartographié le monde. L’heure est venue de cartographier la santé humaine  »).

Peu importe le caractère excessif d’une telle promesse et le fait que le site Internet ne s’est révélé tout au plus être qu’une ébauche brouillonne ou que la large panel du testing ait relevé plus de la lubie qu’autre chose. C’est le message ici qui est important : en cas de crise pandémique aigüe, la Maison Blanche mise sur l’élite de la high tech au point qu’elle excède la vision de la faisabilité digitale de cette élite elle-même. L’important est la célébration unanimiste d’une idéologie qui fait de la technologie l’outil ultime de la résolution des problèmes – ce qu’on appelle le solutionnisme.

C’est une grande lacune de la souveraineté des États qui apparaît ici à la faveur de l’état d’urgence virologique – et les sociétés de la Silicon Valley mettent tout leur poids et toute leur autorité pour la combler. Elles montent au créneau, en effet, sans aucune naïveté : elles s’intéressent au secteur de la santé depuis des années déjà, elles y ont déjà accumulé une expertise dans le traçage de données par le moyen des smartphones et autres wearables, comme on appelle toute technologie portable, connectée et destinée à être portée sur soi, du type des montres smart. La crise du coronavirus semble aujourd’hui faire advenir le moment décisif pour que les géants du numérique puissent s’imposer comme les précurseurs d’une politique sanitaire intégralement informatisée – tout en se mettant en scène comme « bienfaiteurs » de l’humanité.

Le mot d’ordre des deux compagnies est donc : « Never let a serious crisis go to waste » (« Une crise grave est une chance à ne surtout pas laisser passer »).

Google : la souveraineté dans l’état d’urgence

Alphabet – ainsi se nomme aujourd’hui le conglomérat Google – a pris l’annonce par Trump de la création du site de testing du coronavirus comme une incitation pressante à improviser une réponse. D’où l’annonce, simultanément à celle du site Internet destiné à coordonner les tests, que d’autres tests seraient menés, totalement indépendants des premiers. Leur réalisation serait confiée à une filiale d’Alphabet, Verily. On mobilisa alors en un temps très court un personnel considérable et on développa, en Californie, à New York, dans le New Jersey, dans l’Ohio ou encore en Pennsylvanie, des drive-throughs (testings d’automobilistes à leur volant) permettant un dépistage du Covid-19 efficace et sûr.

Il va de soi que les participants doivent remplir une sorte de test d’aptitude, répondre à des questions sur leur état de santé du moment, sur leur lieu d’habitation ou encore leur histoire sanitaire personnelle et qu’ils transmettent ainsi toutes sortes d’informations sensibles au testeur – et ce d’autant plus qu’au départ, avoir un compte Google était obligatoire pour participer au test… Tout cela s’accorde avec une philosophie d’entreprise où la plupart des services rendus ne sont que présumés gratuits. La devise de Google qui veut que « Sharing is caring » (« Partager, c’est prendre soin des autres ») – est particulièrement vraie en ces temps de coronavirus…

Avec sa rapidité de réaction, le conglomérat a donc apporté la preuve de sa capacité d’action, car, s’il n’avait pas réalisé entièrement la proposition de Trump, du moins il avait su la saisir au bond et lui conférer un fort impact médiatique. Enfin, il avait assumé souverainement ses responsabilités. Alphabet n’a pas attendu le coronavirus, en effet, pour concevoir la santé avant tout comme une question technologique, et donc un domaine où il a un marché à conquérir. La création de Verily a en effet permis d’avoir un spécialiste qui coordonne depuis 2018, avec le « Projet Baseline », des études à grande échelle ne promettant rien moins que de « redessiner le futur de la santé ».

Tantôt sont lancées dans ce cadre des recueils de données, sur quatre ans, auprès de 10 000 personnes porteuses de montres connectées de conception Google, tantôt des études sur des diabètes de type 2, sur la prévention des maladies cardiovasculaires aussi bien que mentales. On veut en savoir toujours plus sur les interactions entre le corps, l’environnement et le psychisme, étudier sur la base de données informatiques ce que signifie être sain ou malade, mais surtout développer de nouveaux produits et services. Le projet est tellement gigantesque qu’il n’est pas rare que le conglomérat parle d’une « révolution », une révolution qui, au nom de la santé publique, s’engagerait à toujours plus de mesures, toujours plus de financements pour des collectes de données toujours plus nombreuses et un tableau monopolistique toujours plus vaste. Dans le jargon de Google, cela se dit ainsi : « We’ve mapped the world. Now let’s map human health » (« Nous avons cartographié le monde. L’heure est venue de cartographier la santé humaine  »).

Le testing du Covid-19 n’est d’ailleurs pas la seule réponse d’Alphabet à la crise du coronavirus. On recourt aussi aux voies conventionnelles de la cartographie et l’on génère via Google Maps, dans 131 pays, Suisse comprise, ce que l’on appelle des mobility reports. Sont utilisées ici, anonymisées et « agrégées », des données de localisation qui indiquent normalement la fréquentation d’un lieu donné, par exemple un restaurant à l’heure du déjeuner.

Ces données sont maintenant susceptibles d’être utilisées par les autorités pour pointer les « tendances dans les déplacements », localiser les zones à risque de l’épidémie et vérifier si la population se conforme ou non à l’impératif catégorique de « lisser la courbe » (flatten the curve), et reste confinée. Cette offre éminemment utile ne montre ainsi pas seulement avec netteté par exemple une augmentation de la fréquentation des parcs municipaux dans le canton de Berne, et le fait qu’il serait ou non « branché » de faire du télétravail à Genève ; le conglomérat apporte aussi le service d’un véritable outil administratif, ou les données recueillies fournissent des indications qui peuvent se transformer en réglementations nouvelles. En ce sens, est souverain celui qui a les meilleures cartes en mains.

Facebook : des données pour le Bien

Alphabet n’est pas le seul membre actif du « cabinet de crise technologique » à se soucier du bien-être des gens. Facebook lui aussi renoue dans l’état d’urgence avec sa propre fibre missionnaire, l’entreprise a conçu ces derniers temps non seulement un « Coronavirus Information Center » pour le fil d’actualité, mais a aussi combattu avec une détermination inédite les infox ou encore créé un nouveau émoticône, « coronavirus avec un cœur », pour promouvoir la solidarité automatisée. Le réseau social entend utiliser la « connectivité de la communauté » pour combattre le virus, et, avec la Carnegie Mellon University (CMU), cible des utilisateurs auprès desquels il promeut un questionnaire destiné à aider les chercheurs à établir des cartes géographiques hebdomadaires de symptômes cliniques qui ont été déclarés individuellement.

On espère ainsi toucher des millions d’utilisateurs. C’est seulement sur cette large base d’information – les données ne sont certes pas partagées avec Facebook, mais on peut se demander sur la base de quels critères Facebook choisit les participants potentiels – que l’on pense pouvoir renseigner sur l’état actuel des contaminations : « Ces informations peuvent aider les autorités sanitaires pour anticiper les besoins et planifier l’usage des moyens disponibles, et déterminer où et quand peut être entrepris le déconfinement de tel ou tel secteur de la population. »

Ces études sur des échantillons de masse peuvent être facilement perçues dans la situation présente comme étant uniquement un phénomène de crise. Mais qu’on ne s’y trompe pas : dans la Silicon Valley, elles sont depuis longtemps business as usual.

En sus du sondage quotidien, Facebook élargit encore son programme de « Disease Prevention Maps » (cartes pour la prévention des maladies). Le projet utilise données de géolocalisation et données de mouvements issus de l’utilisation des applications proposées par le groupe, et veut ainsi accroître « l’efficacité des campagnes sanitaires et la réaction aux épidémies » et a déjà été utilisé pour tracer le choléra au Mozambique ou pour contenir le virus Zika. Trois nouveaux outils, les co-location maps, les movement range trends et le social connectedness index, doivent à présent permettre d’évaluer dans quelle mesure les déplacements et les contacts sociaux de la population contribuent à la diffusion du virus, si les mesures de confinement prises ont un effet ou si de nouvelles mesures sont éventuellement nécessaires. Le slogan de l’encartage général est lui aussi très prometteur : Data for Good. Cela va de soi : on est ici engagé pour le Bien.

Mais il en va chez Facebook de beaucoup plus que de se positionner simplement en outil désintéressé des autorités sanitaires. Le cartographe de la sociabilité vise à étendre sa sphère d’influence et à se forger un véritable leadership. Si Mark Zuckerberg a fait don ces derniers temps de quelque 720 000 masques respiratoires à des institutions publiques et de 25 millions de dollars à la plateforme de recherche « Covid-19 Therapeutics Accelerator », ce n’est pas seulement pour se poser en philanthrope, caritatif autant que d’utilité publique. Son entreprise voit dans la crise une chance unique de développement, la chance de pouvoir passer d’un réseau social à une sorte de réseau de recherche scientifique, et se présente toujours plus comme l’infrastructure publique qu’elle a toujours voulu être : c’est-à-dire comme un élément essentiel du bon fonctionnement du système en l’état.

C’est pour cela qu’à côté de la CMU, on travaille au quotidien avec diverses institutions de santé, on cherche avec la New York University et le Mila Research Institute de Montréal comment utiliser des applications d’intelligence artificielle (IA) pour mieux préparer à la crise les hôpitaux et leur personnel. Par-delà cet investissement, on a aussi mis en place une ambitieuse « coalition internationale », le Covid-19 Mobility Data Network. Avec celle-ci, l’entreprise s’investit désormais dans une coopération qui à la fois confine au service de santé publique et est en même temps très calculée, avec la Harvard School of Public Health, la National Tsing Hua University à Taïwan, l’Université de Pavie en Italie ou la Bill & Melinda Gates Foundation. Le but avoué est, grâce aux « conclusions en temps réel obtenues à partir des Data for Good de Facebook », de déceler avec plus de précision le moment de la contamination et au bout du compte de produire des modélisations permettant de pronostiquer le déroulement de la crise. Bref : de transformer un futur indécis en un autre, probable.

Si des procédés analogues étaient surtout utilisés il y a encore quelques mois pour étudier les préférences des utilisateurs, prédire leur comportement de consommation et leurs déplacements afin de promouvoir une communication publicitaire basée sur le mouvement, la passion pour la collecte de données dans le cadre d’un capitalisme de la surveillance généralisée apparaît désormais sous un jour nouveau.

Car grâce à un management de crise requis dans des fonctions essentielles, que l’entreprise, dont l’image était sérieusement écornée, semble peu à peu se réhabiliter, savoir oublier toutes sortes de scandales dans le domaine de la protection des données et se produire à nouveau avec succès en sauveur presque magique de l’économie digitale. Comme l’écrit Mark Zuckerberg : « Le monde a été déjà confronté à des pandémies par le passé, mais cette fois nous avons une nouvelle superpuissance : la capacité à collecter et à échanger des données pour le Bien. »

Tout cela a aussi changé le regard porté sur le géant du numérique. Car bien qu’il ne soit nullement établi avec certitude que les cartes et les services sont d’une quelconque utilité dans la lutte contre le Covid-19, ils agissent comme une offre thérapeutique au puissant pouvoir de séduction. Une offre dont l’étendue consolide la position de monopole de l’entreprise et qui ravive ses ambitions. Et c’est ainsi que la crise fait l’effet pour Facebook d’une utile mise à jour du système, promettant de lui apporter une légitimité renouvelée.

Extension du domaine du tracking

Mais au-delà des analyses de données par l’entreprise, riches en perspectives, des expériences beaucoup plus concrètes sont actuellement menées en Californie. Elles visent à une autre proximité et relation au patient.

On travaille ainsi actuellement au Zuckerberg San Francisco General Hospital sur une façon de compenser le manque de testings à grande échelle en utilisant les technologies  wearable. La bague « Oura » – une bague qui mesure aussi bien le rythme cardiaque que la fréquence respiratoire – vise à diagnostiquer les contaminations au coronavirus avant même que les symptômes soient ressentis. Les personnels des hôpitaux, les plus menacés du fait de leurs contacts permanents avec les personnes contaminées, sont équipés de cet appareil portable intelligent, qui ne les quitte pas, et transmettent des données intéressantes à un « système d’alerte précoce » particulièrement réactif. Le but de ce suivi en temps réel est de réagir plus rapidement à l’avenir, de sorte que les soignants développant la maladie puisse être identifiés plus tôt, contrôlés et soignés plus efficacement : cette bague est là pour les guérir, pour tous les détecter.

Dans l’étude « Detect » du Scripps Research Institute, on pense en dimensions encore beaucoup plus grandes, on cherche à élargir le plus possible le nombre de personnes testées. Dès lors le testing n’est pas associé à un unique wearable intelligent, mais à quasiment toute la palette des bracelets d’activité connectés – depuis le sobre Fitbit de Google jusqu’au très sophistiqué Apple Watch. Chaque auto-testeur peut participer pour autant qu’il vit aux États-Unis, et transmettre aux chercheurs ses données corporelles, en véritable scientifique citoyen, via l’application « MyDataHelps » (« Mes données aident »). Comme avec la bague « Oura », il s’agit ici aussi de détecter précocement des symptômes et de « resocialiser » des données individuelles en sorte que les foyers de contamination puissent être, là encore, mis en cartes, mieux localisées, délimités avec le plus de précision possible.

« Detect » fonctionne comme le remake d’une étude antérieure, parue dès janvier, qui étudiait ce qu’elle nommait le « real-time flu tracking » (traçage de la grippe en temps réel) via wearable auprès de quelque 200 000 porteurs d’appareils Fitbit. Par l’entremise de ce bracelet d’activité, étaient saisies des données sur le rythme cardiaque et le sommeil grâce auxquelles, selon les conclusions de l’étude, il était possible d’améliorer de manière significative les pronostics par rapport aux moyens existants. Certes, le traçage n’était pas convaincant de bout en bout – par exemple, les données du sommeil manquaient de précision, et l’on ne pouvait pas vraiment distinguer entre l’accélération du pouls dû à une infection grippale et celui dû au stress quotidien. Les auteurs n’en soulignaient pas moins l’énorme potentiel de la technologie wearable, dont la diffusion accrue devait rendre rapidement possible une surveillance continue sur une plus vaste échelle, et plus précise dans le temps. Rien qu’en Suisse, un petit cinquième de la population est d’ores et déjà utilisateur de wearables, et la tendance ne fait que s’accentuer.

C’est justement ce potentiel que l’étude « Detect » cherche à présent à traduire dans la réalité, on élargit avec les variables biométriques – type activité quotidienne – la profondeur de champ de la surveillance et c’est ainsi que le site internet peut déclarer avec optimisme : « Vous êtes désormais en mesure de pouvoir de prendre le contrôle de votre santé, de même que les soignants du système public de santé peuvent stopper l’émergence d’une maladie de type grippal dans des communautés relativement grandes ».

Avec l’acceptabilité accrue, par le Covid-19, du partage solidaire des données, l’individu quantifié mute vers le collectif quantifié. La saisie, l’analyse et le contrôle ininterrompus de données sensibles sont présentés comme un champ d’études innovant, comme une prise de pouvoir de la collectivité. Ainsi, autocontrôle et contrôle social sont indéfectiblement liés.

Ce qui pouvait être encore perçu avant le coronavirus comme une surveillance abusive, se présente désormais comme l’établissement d’une cartographie de la santé sur un mode participatif et aux fins de la recherche. Une recherche qui lie de plus en plus ses avancées à des appareils intelligents, dont l’utilisation est – de plus en plus – à portée de mains.

Apple : au service de l’humanité

Ces études sur des échantillons de masse via wearable peuvent être facilement perçues dans la situation présente – la Stanford University elle aussi a encore récemment lancé une étude liée au Covid-19 – comme étant uniquement un phénomène de crise. Mais qu’on ne s’y trompe pas : dans la Silicon Valley, elles sont depuis longtemps business as usual.

S’opère aussi un déplacement de souveraineté : le quotidien devient le laboratoire expérimental des entreprises, la vie elle-même n’est plus qu’une expérience de mesure intelligente (« smart »). On assiste à la systématisation toujours plus insistante de ce que l’on peut appeler une biopolitique en cours de datafication

Si Google entend mesurer la santé, via wearables, Apple, lui, s’exerce tout particulièrement depuis ces derniers temps au mode du laboratoire expérimental transportable. En développant sa Smartwatch et son « Research App », Apple a exploré de nouveaux champs de recherche entrepreneuriaux. Chacun a pu, dès avant la pandémie, participer à des études sanitaires de grande ampleur grâce à la sensorique connectée et au Big Data – des études allant des capacités auditives jusqu’au suivi de la menstruation-, chacun a pu mettre ses données à la disposition de toutes sortes d’universités, hôpitaux ou institutions comme l’OMS. Toute une infrastructure, reliant l’individu via wearable à la grande marche du monde et promettant de nouvelles avancées scientifiques, des produits d’avenir, et peut-être surtout une importance individuelle : « The future of health research is you » (« Le futur de la recherche médicale, c’est vous »).

Il n’est guère étonnant que l’Apple Watch soit aujourd’hui considérée comme un élément essentiel de nombreuses études sur le Covid-19. Que son contrôle d’activité d’avant-garde soit particulièrement coté. Et que la pandémie, comme l’a expliqué récemment le directeur des opérations d’Apple, Jeff Williams, rende indispensable plus rapidement de nouvelles fonctionnalités d’Apple Watch comme l’instrument de cardiométrie intégré. Tout ceci donne à penser que la « solution » en propre d’une étude Apple sur le Covid-19 n’est elle aussi vraisemblablement qu’une question de temps.

Dès maintenant, on ne reste pas inactif. Le président (CEO) d’Apple Tim Cook conseille le président américain, réorganise des chaînes de livraison, conçoit des visières de protection pour le personnel soignant et, à l’instar de Google, produit grâce à son propre système de cartes des rapports de mobilité pour l’administration. Ainsi Apple, qui considère que ses missions dans le secteur de la santé « ne sont pas limitées au poignet »,  se met-il lui aussi intégralement au service de la cause, et veut utiliser les vents favorables pour lancer de nouveaux services et applications : ce que Cook proclamait dès janvier 2019 est plus que jamais valable : « Si l’on demandait un jour ce qui aura été le plus grande contribution d’Apple à l’humanité, il n’y aura qu’une réponse possible : la santé. »

Qui a suivi ces derniers mois les recherches d’Apple et de Google dans le secteur médical ne sera guère surpris par la nouvelle récente de leur collaboration en matière de traçage des contacts. En bonne logique, sans attendre que les acteurs publics s’acquittent de leurs obligations, les deux multinationales présentent leur propre « solution globale » – en bons promoteurs de la « technocratie directe » qu’elles sont. L’infrastructure, qui est prévue pour toutes sortes d’applications de traçage, mise sur une approche décentralisée, se présente de ce fait comme plus égalitaire et « progressiste » que les systèmes centralisés – que finalement elle exclut complètement du jeu ! Que les multinationales, avec l’impact considérable qui est le leur sur le marché, créent ainsi une norme désormais incontournable, qu’elles généralisent et standardisent leur « solution » (le Chaos Computer Club parle de « diktat ») n’est dès lors qu’une sorte d’élégant effet secondaire.

On a ainsi conscience dans la Silicon Valley, en ces temps qui semblent totalement débridés, que l’heure est venue, on parle à nouveau sur un ton pénétré et l’on use à plein de son pouvoir de décision – utilisateurs de smartphones de tous les pays, unissez-vous ! Bien sûr, il n’y a « jamais eu moment plus important » pour Apple et Google, pour aider à sauver le monde « avec la force de la technologie », pour le remettre sur pieds selon ses idées bien arrêtées. Mais il y a rarement eu plus de disponibilité, ou plus exactement plus de nécessité, à les croire. À être obligé de les croire.

Biopolitique en voie de datafication : la santé comme prestation de service

Les crises engendrent nécessairement des espaces de décisions, un afflux temporaire d’une série de potentialités différentes, où il en va du tout ou rien, du succès ou de l’échec. Que les entreprises géantes de la Silicon Valley aient la décision facile, que certaines d’entre elles soient fermement assurées par temps de crise, elles l’ont fréquemment démontré au cours de ces dernières années. Avec la pandémie, la forme si particulière de résilience qui a cours en Californie se montre une nouvelle fois au grand jour.

On aura rarement pu observer plus clairement avec quelle rapidité les différents acteurs arrivent à s’adapter, usent de leurs infrastructures, voire les réorientent entièrement, pour se présenter en sauveurs incontournables, en outils de la lutte contre la crise – en somme : pour se réinventer.

Il n’étonnera guère qu’à cette occasion, du don’t be evil de Google au bringing the world closer together de Facebook, de vieux récits soient – avec talent ! – remis au goût du jour, que le solutionnisme trouve de tous côtés une nouvelle légitimation et que la connectivité se déploie toujours plus. Reste que tout cela est lié à des risques et des effets secondaires non négligeables.

Car de toute évidence, n’entrent pas seulement dans les potentialités des multinationales l’idée, louable en soi, de la lutte contre la crise, ou du soutien massif à la santé, à travers toutes sortes de partenariats public-privé. En elles s’opère aussi, insidieusement, clandestinement, un déplacement de souveraineté : le quotidien devient le laboratoire expérimental des entreprises, la vie elle-même n’est plus qu’une expérience de mesurage intelligent (« smart »). On assiste à la systématisation toujours plus insistante de ce que l’on peut appeler une biopolitique en cours de datafication.

Les acteurs d’État comme les acteurs privés ont compris depuis longtemps que le vieil outil biopolitique – statistiques périodiques ou valeurs moyennes évaluées par cycles – était aujourd’hui tout à fait suranné. Que, si l’on voulait maintenir en état de fonctionner le corps des individus, et plus encore le corps social, on avait besoin de mécanismes plus individualisés, de cartes plus parlantes et d’appareils plus « friendly ». Les sauveurs chamaniques de la Silicon Valley prennent ce qui ressort des fonctions régaliennes de l’État pour le ramener à leurs prestations de service, ils développent des instruments essentiels de politique sanitaire et, par le fait qu’ils se déclarent eux-mêmes « institutions de recherche », engrangent un fabuleux surcroît de compétence. Ainsi l’individu évolue-t-il toujours davantage, sous le signe de la santé, dans des espaces mesurés, ainsi ses données de mobilité et de contact sont-elles traquées et sondées en temps réel : son état de santé, son pouls ou son rythme de sommeil sont soumis à une surveillance de tous les instants. Que disait déjà le slogan du « Research App » d’Apple ? « Humanity says thank you » (« L’humanité vous dit merci »).

Ce qui semble pendant la crise tout à fait compréhensible, et même, dans quelques cas, raisonnable, crée rapidement un nouvel état de fait. Une réalité dans laquelle l’intrusion sur le mode monopolistique de la technologie numérique va si loin dans le monde de la vie et de l’expérience qu’elle finit par développer une force normative : le moment arrive où elle ne se content plus de seulement décrire ce qui est. Mais aussi ce qui devrait être.

Peut-être ne devrions-nous donc pas dire aussi inconsidérément « I want to thank Google », ni concevoir la crise comme un problème qui n’attend que l’intelligence artificielle pour être résolu. Nous devrions urgemment jeter aussi un coup d’œil à la notice jointe de la thérapeutique de surveillance capitaliste.

Les auteurs :

Anna-Verena Nosthoff est essayiste, philosophe et politologue. Elle enseigne à l’Université de Vienne, la Freie Universität de Berlin et était ces derniers temps « Research fellow » au Weizenbaum Institut pour la société connectée. Felix Maschewski est essayiste, économiste et enseigne à la Freie Universität de Berlin. Récemment est paru leur ouvrage commun « Die Gesellschaft der Wearables – Digitale Verführung und soziale Kontrolle » (« La société des wearables – Tentation digitale et contrôle social ») aux Éditions Nicolai-Verlag de Berlin.

Cet article est paru en allemand dans la revue Republik : https://www.republik.ch/2020/05/09/wie-big-tech-die-pandemie-loesen-will.

Hyperloop : les paradoxes d’une « révolution »

https://www.flickr.com/photos/163370954@N08/46339127625/in/photostream/
Elon Musk, CEO of SpaceX and Tesla © Daniel Oberhaus (2018)

En 2013, l’iconoclaste patron de Tesla, Elon Musk, présente son idée du train du futur : l’Hyperloop. Il donne au monde les premières ébauches de ses travaux rassemblant quelques croquis, graphiques et études techniques. Cette nouvelle technologie « révolutionnaire » devrait permettre de se rendre de Paris à Marseille en moins d’une heure. Il est néanmoins nécessaire de questionner l’utilité politique et environnementale d’une telle avancée technique, ainsi que son modèle économique.


LA CONCURRENCE COMME MOTEUR

« Quand je l’explique à mes enfants, je leur dis simplement que c’est “un train, très, très rapide”, pour ne pas dire supersonique, qui est “très très propre” et qui va relier toutes les villes du monde. » explique Dirk Ahlborn, patron d’Hyperloop Transportation Technology.

Elon Musk invite le monde à s’approprier ses premières ébauches d’études, qu’il rend libre de droits sous format open source, dans un document de 57 pages, en arguant qu’il n’a pas le temps de s’en occuper lui même. Mais développer cette technologie est évidemment extrêmement coûteux et l’open source de Musk se transforme rapidement en mise en concurrence du peu de start-up capables de lever les fonds nécessaires. Quelques entreprises se battent aux quatre coins de la planète pour être la première à mettre au point l’Hyperloop. Deux ont investi récemment en France : Hyperloop TransPod à Limoges et Hyperloop Transportation Technology à Toulouse. Ce n’est donc ni SpaceX ni Tesla, ou une autre compagnie géante du monde technologique, qui mène cette recherche, mais bien de petits acteurs frontalement concurrents. Les recherches sont en cours, ponctuées de coups de communication et de secrets industriels.

https://www.spacex.com/sites/spacex/files/hyperloop_alpha.pdf
Croquis original de l’Hyperloop imaginé par Musk © SpaceX

À Toulouse on annonce régulièrement avoir « achevé les pistes d’essais », être en train de « procéder aux premiers tests » et même avoir « pris le temps de concevoir et de construire un système commercialement viable » pour cette première ligne-test actuellement en fin de construction, selon le PDG d’Hyperloop TT. Hyperloop TransPod se targue d’avoir obtenu les permis de construire à Limoges, entre deux visites à l’étranger, notamment en Thaïlande où Sébastien Gendron, le PDG, « a rencontré celui qui est pressenti pour devenir le prochain Premier ministre et qui souhaite créer une ligne Hyperloop entre Phuket, Bangkok et Chiang Mai », selon la presse. Les affaires marchent, les projets se multiplient et la science avance, mais la concurrence fait rage.

Cette technologie, qui doit révolutionner le monde du transport et changer le quotidien de millions de personnes selon ses promoteurs, se trouve donc au centre d’une guerre économique sans merci. Plutôt que de coopérer, les petits acteurs isolés sont incités à dépasser leurs concurrents le plus tôt possible, faute de quoi ils mettront la clé sous la porte. Cette situation n’étonne plus grand monde aujourd’hui, mais force est de constater qu’elle contraste fortement avec la précédente innovation en termes de transport à grande vitesse : le développement du TGV Français dans les années 70, conduit sur instruction du gouvernement, par une entreprise publique.

Elon Musk, loin d’avoir oublié cette histoire, en est le premier bénéficiaire : ses milliards lui permettent de racheter au prix fort la première startup capable de propulser son train à plus de 1000 km/h. Et même si ces entreprises déposent au fur et à mesure de leurs recherches différents brevets commercialisables, mieux vaut ne pas décevoir les investisseurs, notamment la SNCF ou General Electric dans le cas d’Hyperloop One, troisième startup dans la course.

Les territoires risquent d’être les grands perdants de la course à l’Hyperloop.

Même la gestion interne de cette innovation est 2.0. Comme le révèlent les Echos au sujet de l’implantation des bureaux de recherche d’Hyperloop TT à Toulouse : « le centre de R&D n’emploie encore que 10 salariés, au lieu des 25 prévus. Il fait aussi travailler une dizaine de personnes d’autres entreprises car la jeune pousse américaine a un modèle particulier : elle n’emploie que 60 salariés mais mobilise 800 personnes rémunérées en stock-options. » La rémunération en stock-options (c’est à dire en parts de l’entreprise) est un autre moyen de pousser ses associés à donner le meilleur d’eux même sur le champ de bataille économique. Si Hyperloop TT gagne la course, ces 800 personnes s’enrichiront considérablement, proportionnellement à la valeur de l’entreprise qu’ils auront contribué à créer. À l’inverse, les parts des entreprises perdantes risquent de ne pas valoir grand chose.

Certes, ces entreprises perdantes trouveront à n’en pas douter une pirouette économique pour revendre ou ré-exploiter les recherches engagées. Le gâteau mondial du déploiement de cette technologie semble si énorme qu’elles pourraient même retourner la situation et s’arranger entre elles pour se le partager. À l’inverse les territoires risquent d’être eux, les grands perdants de la course à l’Hyperloop.

LES POUVOIRS PUBLICS ET LE SOLUTIONNISME TECHNOLOGIQUE

L’imaginaire collectif valorise le progrès, la vitesse et l’innovation. Voilà en partie pourquoi ce projet est plébiscité partout et distille sa dose de rêve autant chez les enfants que dans les bureaux des métropoles, régions et autres collectivités territoriales. Vincent Léonie, président de l’association Hyperloop Limoges et adjoint au Maire de la ville déclare : « La Silicon Valley, au départ il n’y avait rien, et nous sommes sur le même principe. Aujourd’hui, à Limoges, les terrains sont disponibles et bon marché, nous avons de l’intelligence avec notre université. Nous défendons le désenclavement par notre intelligence pour montrer ce que l’on est capable de faire. Imaginez un Francfort-Paris-Limoges-Barcelone ! » À Châteauroux, à qui Hyperloop TransPod a promis une future ligne reliant Paris en 20 minutes, on chante également les louanges de la technologie. La Métropole a rejoint en mars cette association Hyperloop Limoges. « Nous ne voulons pas passer à côté de quelque chose qui peut être une opportunité pour le territoire », affirme Gil Avérous, président de Châteauroux Métropole.

Les métropoles françaises sont loin d’être les seules à s’associer à ces startup et à entrer indirectement dans cette course concurrentielle à l’innovation. Hyperloop TT a su gagner le cœur de l’Europe de l’Est en signant un accord avec les autorités slovaques pour étudier la faisabilité d’une liaison des trois capitales Vienne, Bratislava et Budapest, ainsi que des deux plus grandes villes de Slovaquie, Bratislava à l’Ouest et Kosice à l’Est. Chacun y trouve les avantages qu’il veut bien y voir, Vazil Hudak, ministre de l’Économie de la République slovaque estime que « La construction de l’hyperloop dans notre région d’Europe Centrale permettrait de réduire sensiblement les distances entre nos agglomérations ». Et des dires de l’entreprise : « Il est maintenant crucial pour nous de collaborer avec des gouvernements autour du monde. »

C’est également dans cette optique qu’un projet est en cours chez Hyperloop TT pour relier Abou Dhabi à Dubaï. Hyperloop One se concentre quant à lui sur les Etats-Unis et travaille à relier Los Angeles à San Francisco pendant que le Canadien TransPod tente de relier Toronto à Windsor, dans l’Ontario.

Les élus écologistes de la région Nouvelle Aquitaine, qui s’opposent aux Hyperloop, indiquent dans un communiqué en 2018 que : « Les promoteurs du projet Hyperloop exercent un lobbying intense auprès des collectivités et des médias. » À n’en pas douter ces promoteurs défendent leurs projets et tentent de convaincre les élus de son utilité. Sa facilité d’implantation s’explique donc par des efforts de lobbying mais aussi et surtout par une foi inébranlable de l’imaginaire collectif en un progrès forcément bénéfique, car relevant d’une innovation technologique.

Seul compte le dynamisme économique et le rayonnement territorial ; peu importe l’utilité sociale réelle de ces innovations et les conséquences environnementales néfastes.

Le solutionnisme technologique, c’est l’idée développée notamment par Evgeny Morozov et promulguée par la Silicon Valley, selon laquelle Internet, l’innovation et le progrès technique apporteront toutes les réponses aux problèmes sociétaux. Cette idée transparaît dans toutes les prises de paroles grandiloquentes autour de cette nouvelle technologie. Selon Morozov, qui déconstruit régulièrement l’enthousiasme autour des promesses techniques, ce solutionnisme a un problème fondamental : il construit un Silicon Paradise en répondant le plus souvent à des problématiques erronées. « Ce qui pose problème n’est pas les solutions qu’ils proposent, mais plutôt leur définition même de la question », dit-il. Pourquoi une telle vitesse ? Quel intérêt la majeure partie de la population aura-t-elle à voir se construire des lignes reliant Marseille à Paris en moins d’une heure ? Face à la catastrophe environnementale annoncée, la vitesse est-elle réellement plus intéressante que la transition écologique ?

Mais « les plus grands industriels viennent réussir ici, (…) Toulouse Métropole confirme avec éclat son statut de territoire des transports de demain », affirme Jean-Luc Moudenc, Maire de Toulouse au lendemain de la signature de contrat avec Hyperloop TT en 2017. Seul compte le dynamisme économique et le rayonnement territorial ; peu importe l’utilité sociale réelle de ces innovations et les conséquences environnementales néfastes.

CACHER UNE FAISABILITÉ ET UNE UTILITÉ DISCUTABLE

Si les entreprises engagées dans cette course trouveront probablement, comme évoqué précédemment, des issus de secours en cas de panne des projets Hyperloop, il n’en sera probablement pas de même pour les collectivités qui auront largement subventionné des projets disparus, qui se retrouveront potentiellement avec des infrastructures inutiles sur leur territoires, et qui risquent gros avec le départ de ces startup. À Toulouse par exemple, Hyperloop TT fut accueilli en grande pompe et se trouve aujourd’hui au cœur d’une nouvelle zone d’innovation centrée sur les transports de demain, au sein de laquelle lui ont été cédée de larges terrains. Si son arrivée fut bénéfique pour l’image et l’attractivité territoriale de la ville et de cette nouvelle zone de Francazal, son départ en cas de rachat ou de faillite pourrait être à l’inverse très négatif et déconstruire un processus en cours de polarisation territoriale de l’innovation.

Car il faut bien le dire, les critiques pleuvent à l’égard des projets Hyperloop. D’abord, le format startup pose la question de l’inscription de ces entreprises dans le temps. Elles donnent l’impression de vouloir s’insérer durablement sur les territoires où elles s’installent, pourtant les start-up qui marchent sont souvent rachetées par les géants de la tech. Le format de ce marché pousse à croire qu’une fois la technologie maîtrisée, SpaceX (où un autre géant) sera prêt à débourser des millions pour racheter l’heureuse élue. Si cette élue est Hyperloop TT, qu’adviendra-t-il des pistes de tests et des bureaux toulousains ? Musk continuera-t-il ses essais en Europe ou se concentrera-t-il sur son projet initial : une ligne San Francisco – Los Angeles ?

Ces questions surviennent finalement après les principales : cette technologie sera-t-elle un jour maîtrisée ? Est-il réaliste de penser qu’un modèle économique viable émergera de ces expériences ? Aujourd’hui, les entreprises qui se targuent d’avoir réussi leurs premiers tests, notamment Hyperloop One dans le désert du Nevada, n’ont pas encore dépassé les 400 km/h, bien loin donc des plus de 1000 km/h annoncés. Tout en annonçant des commercialisations pour 2020/2021, les startups laissent entendre que de nombreux défis techniques restent à relever.

https://www.spacex.com/sites/spacex/files/hyperloop_alpha.pdf
Carte originale de l’Hyperloop imaginé par Musk reliant Los Angeles à San Francisco © SpaceX

Les inquiétudes des ingénieurs, en externe et en interne, se focalisent sur la sécurité, le freinage, le nombre de capsules, etc. François Lacôte, ingénieur polytechnicien français et ancien directeur technique d’Alstom Transport, publie ainsi en avril 2018 avec l’Association des Lauréats de la Fondation Nationale Entreprise et Performance (Club Pangloss), une étude qui affirme que les défis techniques évoqués sont en fait des impasses techniques. Dans cette étude au titre univoque : « Hyperloop : formidable escroquerie technico-intellectuelle », il évoque les problèmes liés à la vitesse, notamment le fait que « là où les systèmes ferroviaires à grande vitesse actuels permettent un espacement à 3 minutes, soit un débit théorique de 20 trains à l’heure, l’Hyperloop, avec un débit théorique de 10 navettes à l’heure, ne devrait pas pouvoir faire mieux ». Pour lui, la taille des capsules pose également problème puisque selon ses calculs, « le débit théorique du système Hyperloop (1000 passagers par heure) est 20 fois inférieur au débit théorique du système TGV (20 000 passagers par heure). Ce qui est un bilan économique complètement impossible, même avec un coût d’infrastructure proche de celui du système TGV, alors qu’il lui est très largement supérieur. »

Ces considérations techniques posent donc la question du modèle économique d’Hyperloop. Ses promoteurs, notamment E. Musk dès les débuts, ont affirmé que ce mode de transport serait « économique ». En estimant par exemple les coûts de construction des infrastructures à 11,5 millions de dollars du mile (1,6 kilomètre), soit un coût moindre que celui du TGV. Problème : Forbes aurait eu accès à des documents internes d’Hyperloop One estimant le coût de la liaison entre Abou Dhabi et Dubaï à 4,8 milliards de dollars, soit 52 millions de dollars par mile. Ces coûts varient en fait totalement en fonction de la localisation des constructions et sont principalement liés au fait que pour atteindre des vitesses telles, les lignes Hyperloop doivent être totalement rectilignes (bien plus que celle d’un train classique) et nécessitent donc la construction de multiples ponts, tunnels et autres infrastructures extrêmement coûteuses.

« Nous voulons que ce soit un moyen de transport démocratique »

En croisant cette information avec l’idée que les capsules Hyperloop ne pourront contenir qu’un nombre limité de voyageurs et que leur fréquence ne pourra pas être trop importante, comment croire les promesses de Shervin Pishevar, membre fondateur d’Hyperloop One qui assure que l’Hyperloop sera « moins onéreux » pour les usagers « que n’importe quel système existant » ? Surtout quand cette promesse repose sur l’idée que ce faible coût se basera sur le fait que : « Vous n’avez plus de roues en acier qui frottent sur quelque chose. C’est sans contact. Donc vous n’avez pas d’érosion du matériel. » La baisse des coûts de maintenance couvrira-t-elle réellement l’ensemble des investissements évoqués plus haut ?

Au vu des données technico-économiques il semble que seul un plan d’investissement massif de la part d’un État pourrait permettre le déploiement d’Hyperloop en dehors des pistes d’essais. Mais se pose alors la question de son utilité sociale et environnementale.

POURQUOI ALLER PLUS VITE ?

Si les intérêts des différents promoteurs sont clairs : le profit grâce à l’innovation et la disruption, la construction de ce profit dépendra probablement de leur capacité à convaincre les acteurs publics de l’intérêt même de leur technologie, de leur capacité à vendre leurs innovations aux seuls acteurs capables de les déployer, ou en tout cas de les aider à la déployer. Mais pourquoi un État investirait-il dans cet accélérationnisme ?

Puisque la vitesse profite aux plus aisés, investir dans cette dernière se fait donc au détriment des plus défavorisés. Le risque est donc de développer un transport fondamentalement inégalitaire sous couvert de révolution du monde des transports.

Certains chercheurs tentent déjà de montrer depuis des années, en questionnant la notion d’intérêt général, les problèmes liés de la multiplication des lignes LGV en France. Julien Milanesi note notamment que « L’observation a malheureusement l’allure de l’évidence, mais plus on est riche et plus on voyage ». Il étaye son analyse par des chiffres de fréquentation montrant finalement que « l’investissement public dans de nouvelles lignes à grande vitesse n’est pas socialement neutre ». Puisque la vitesse profite aux plus aisés, investir dans cette dernière se fait donc au détriment des plus défavorisés. Que penser alors d’un potentiel nouvel investissement dans des lignes qui seront probablement encore plus élitistes ? Aujourd’hui les lignes à grande vitesse existantes profitent statistiquement plus à ceux qui peuvent se permettre de partir en vacances régulièrement ou à ceux qui peuvent se permettre d’habiter à Bordeaux pour travailler à Paris. Le risque est donc de développer un transport fondamentalement inégalitaire sous couvert de révolution du monde des transports. Même le député de la majorité Cédric Villani, dans un rapport daté de 2018, craint que ce nouveau mode de transport crée un « système de transports à deux vitesses […] où les plus rapides sont réservés aux plus riches ». Mais le député LREM conclu son rapport en annonçant que « La France […] doit veiller à développer ses capacités de R&D et d’innovation, publique comme privée, dans ce secteur dont les enjeux de propriété intellectuelle peuvent être importants ». Concurrence internationale oblige, si nous ne développons pas cette technologie, nos voisins le feront à notre place. Les craintes autours de possibles conséquences sociales néfastes sont vite balayées face aux opportunités de croissance.

Pourtant, développer un transport élitiste n’est pas le seul problème. Relier les métropoles ne sera pas sans conséquences pour les territoires ruraux exclus de ces avancées techniques. Si les TGV peuvent utiliser les petites gares, les projets Hyperloop souhaitent relier les grandes villes en oubliant totalement les périphéries. Pour établir à nouveau une comparaison avec les LGV, Milanesi montre que la croissance et le dynamisme économique promis aux collectivités investissant dans le développement de ces lignes se construit au détriment des autres territoires. L’activité promise ne se crée pas avec l’arrivée d’une LGV, elle se déplace plutôt des périphéries vers les centres urbains. La fracture territoriale existante risque donc encore de s’alourdir. « Vouloir relier deux grandes villes au détriment des transports de proximité, c’est tuer les villes moyennes », affirment les élus écologistes.

https://en.wikipedia.org/wiki/N700_Series_Shinkansen#/media/File:Line_scan_photo_of_Shinkansen_N700A_Series_Set_G13_in_2017,_car_02.png
The Shinkansen N700A Series Set G13 high speed train travelling at approximately 300 km/h through Himeji Station © Dllu

Mais la nécessaire évolution de nos modes de déplacement vers des moyens de transport propres ne justifie-t-elle pas les problèmes évoqués jusqu’à présent ? Car c’est la grande promesse des Hyperloop : « Faster, Cheaper, Cleaner » ; un train « très très propre ». Cette technologie se trouve en fait dans une sorte de flou permanent, que ses promoteurs entretiennent largement. Elle serait un nouveau moyen de transport entre le train et le métro, avec, grâce à sa vitesse, l’objectif de remplacer l’avion, moyen de transport le plus coûteux en émissions.

Le premier problème se situe dès le début, au niveau de ce flou. Hyperloop veut établir un report modal des usagers de l’avion, mais aussi de ceux du train voulant se déplacer plus vite, tout en développant une technologie à faible capacité d’accueil, ne pouvant évidemment pas traverser les Océans. Il paraît donc étonnant de penser qu’elle pourra un jour, même déployée à son maximum, supplanter l’aéronautique. D’autant que l’aéronautique reste un secteur industriel majeur qui trouvera les moyens de se distinguer pour survivre, par exemple en développant de nouveaux avions supersoniques extrêmement polluants. Hyperloop risque donc de créer un nouveau besoin, un nouveau marché, de nouveaux débouchés, de nouvelles possibilités de croissance ; mais ne sauvera pas la planète. Au contraire, cette technologie semble avoir un impact très négatif sur notre environnement.

On imagine le coût écologique entraîné par le va-et-vient de tous ces camions, coulant le béton tous les 25 mètres pour construire les pylônes nécessaires à la création des lignes .

Les promesses initiales sont tout de même à prendre en compte. Des panneaux solaires pourraient être installés sur les tubes pour permettre une autosuffisance relative, voire un excédent de production électrique. Un moyen de transport autosuffisant semble effectivement très intéressant écologiquement. D’autant que la pollution sonore sera inexistante grâce aux tubes, qui permettent aussi d’éviter les accidents, notamment avec les animaux traversant les voies. Mais se pose à nouveau le problème fondamental de la construction des infrastructures. Nous l’avons évoqué, la nécessaire linéarité des voies risque de conduire à des coûts financiers astronomiques, qui se transformeront en coûts environnementaux. Ce transport écologique en ligne droite devra, pour atteindre les vitesses espérées, fendre les montagnes, traverser des zones protégées, déboiser des forêts, passer au dessus des exploitations agricoles… Et même si TransPod affirme que pour la ligne Le Havre-Paris « les agriculteurs pourront cultiver leurs champs sous les lignes », on imagine aisément les expropriations nécessaires, les destructions d’espaces naturels, et surtout, le coût écologique entraîné par le va-et-vient de tous ces camions, coulant le béton tous les 25 mètres pour construire les pylônes nécessaires à la création des lignes.

Le doute s’installe donc quand à l’utilité économique, sociale et environnementale d’une telle innovation révolutionnaire et disruptive. Greenwashing ou réelle volonté d’apporter un renouveau écologique au monde du transport, largement responsable d’une part importante des émissions ? Le doute s’installe à nouveau lorsque l’on sait que parmi les principaux intéressés par le déploiement de cette technologie se trouve Amazon, grand défenseur s’il en est de la cause écologique, qui aimerait livrer ses colis toujours plus rapidement.

Cette histoire montre en tout cas comment, toujours aujourd’hui, face au désastre environnemental annoncé, notre système économique favorise l’innovation, source de croissance, plutôt que la recherche de solutions réelles. Un mode de transport autosuffisant semble être une bonne idée, mais comme le disent les élus écologistes de la Nouvelle Aquitaine : « Sans faire beaucoup de calculs, si on couvrait la voie SNCF d’un nombre suffisant de panneaux photovoltaïques, on pourrait arriver aux mêmes résultats. »