Guillaume Pitron : « Le numérique n’a pas été conçu pour être vert »

© Bastien Mazouyer pour LVSL

Guillaume Pitron consacre son dernier livre L’enfer numérique : voyage au bout d’un like (Les liens qui libèrent, 2021) à déconstruire le mythe de la pseudo-immatérialité du numérique. Data centers polluants, câbles sous-marins tentaculaires, métaux rares extraits au mépris des normes environnementales… les fondements matériels de l’industrie digitale sont peu apparents mais cruciaux pour comprendre son fonctionnement. Le coût écologique des GAFAM commence ainsi tout juste à être pris en compte. Face aux critiques émises les géants du numérique, ceux-ci se livrent à une savante opération de greenwashing. Entretien réalisé par Pierre-Louis Poyau.

Le Vent Se Lève – À la lecture de votre ouvrage, la dématérialisation de l’économie, tant vantée depuis des années, semble relever de l’illusion la plus totale. Comment se fait-il que l’avènement des technologies digitales se traduise au contraire par une consommation croissante de ressources ?

Guillaume Pitron – Les technologies digitales sont faites de matières premières. Au vu de leur complexité, elles nécessitent toujours plus de matière première, dans une grande variété, aux propriétés chimiques peu communes. Je prends l’exemple d’un téléphone portable : aujourd’hui, il contient entre 50 et 60 matières premières, contre une dizaine pour un téléphone des années 1960 et 30 pour un téléphone des années 1990. On observe donc une inflation de l’usage de matière premières. Parce qu’un téléphone aujourd’hui, ça ne sert pas qu’à téléphoner. Il sert à rencontrer l’âme sœur, commander une pizza, prendre une photo, se géolocaliser, etc. L’inflation des ressources s’explique par la multiplicité des usages permis par les les technologies numériques.

Par ailleurs, ces technologies sont extrêmement puissantes. Un téléphone aujourd’hui contient sous sa coque plus de puissance que l’ensemble des outils informatiques qui ont permis d’envoyer l’homme sur la lune. Pour parvenir à une telle performance, il faut toujours plus de métaux aux propriétés extraordinaires, qu’on appelle souvent les métaux rares. Ils sont dilués dans l’écorce terrestre, leur raffinage est particulièrement complexe et il faut mobiliser beaucoup de ressources : électricité, produits chimiques, etc. La dématérialisation est donc une multi-matérialisation, puisqu’il faut toujours plus de ressources pour parvenir à fabriquer les technologies numériques. Les avancées technologiques que nous connaissons se traduisent par une utilisation toujours plus variée de tous les éléments de la table de Mendeleïev. La marche de la dématérialisation est en réalité une grande marche historique vers toujours plus de matérialisation. Ce discours de la dématérialisation vient se fracasser sur cette réalité.

NDLR : Pour une synthèse sur les métaux rares, lire sur LVSL l’article de Nathan Dérédec « Métaux rares : l’empire global de la Chine »

LVSL – Les années qui viennent devraient voir la multiplication non seulement d’objets mais également d’êtres vivants connectés. Vous évoquez ainsi l’exemple d’un père recevant sur son téléphone des alertes lorsque le taux de sucre dans le sang de sa fille diabétique devient trop élevé. C’est ce que vous qualifiez d’« internet du tout ». Ce n’est pas sans rappeler un épisode de la série télévisée technocritique Black Mirror, qui met en scène une mère espionnant les faits et gestes de sa fille grâce à une puce intégrée. Est-ce aujourd’hui la science fiction qui nous permet de penser de la manière la plus pertinente l’avenir du numérique ?

G. P. – Je pense que la science fiction excite les imaginaires. Qui a envoyé l’homme sur la lune sinon Hergé ? Il y a toujours, à l’amorce d’une révolution technologique, un imaginaire créé notamment par la littérature. La science fiction permet de se projeter dans un univers plus ou moins réaliste. À propos de Black Mirror, on pourrait presque parler d’anticipation : à certains égards, on est déjà dans la réalité. Entre la puce sous la peau et le téléphone à la disposition du père pour sa fille diabétique, nous sommes dans des phénomènes très proches. D’une certaine manière, ce n’est plus la science fiction qui rejoint la réalité mais la réalité qui rejoint la science fiction.

Permettez-moi un pas de côté. Pour enquêter, je me figurais parfois des scénarios possibles, en me demandant s’ils pouvaient être réalistes. Prenons l’exemple du chapitre 8 sur la finance passive. Je me suis d’abord demandé si l’usage, dans le monde de la finance, d’un nombre de plus en plus important de machines paramétrées pour prendre des décisions pouvait aboutir à des conséquences environnementales non prévues. Et c’est le cas, la finance passive est plus gourmande en énergies fossiles, notamment en charbon, que la finance active. En partant du résultat pour arriver à la cause, on a réalisé que ça existait réellement. Dans la méthode et l’enquête, il faut parfois être dans l’anticipation.

LVSL – Le terme d’agnotologie, inventé dans les années 1990 par l’historien des sciences Robert N. Proctor, désigne l’étude de la production du doute ou de l’ignorance. Il a été utilisé par les historiens travaillant sur la façon dont les pollutions industrielles ont été occultées par le patronat et les pouvoirs publics au cours du XIXe siècle. Assiste-t-on aujourd’hui à un phénomène similaire avec les pollutions numériques ? Vous évoquez le rôle des premiers théoriciens d’internet, des publicitaires et des designers

G. P. – Je pense que le numérique n’a pas été conçu pour être « vert » ou pour régler un quelconque problème environnemental. À mon sens il n’y pas non plus, au départ, de greenwashing ou d’intention de cacher quoi que ce soit. Cette tentative de relier internet aux questions environnementales est venue après. Je pense qu’elle est apparue très récemment, il y a moins d’une dizaine d’années, dans un contexte de prise de conscience de la gravité de la crise climatique. C’est à ce moment que l’industrie du numérique commence à faire du greenwashing, à établir cette connexion entre numérique et environnement. C’est à partir de là qu’on commence à entendre ce discours du numérique qui va sauver la planète. On l’a encore entendu lors de la COP26, c’était très prégnant. Ces discours sont apparus parce qu’il y a un enjeu de réputation à la clé. Ils sont à mon avis fallacieux. Il ne s’agit même plus de fabrique du doute ou de l’ignorance, c’est la fabrique d’une réalité alternative. L’industrie n’a pas dit « on ne sait pas », elle a affirmé, chiffres précis à l’appui, que le numérique permettait une réduction des émissions de CO2, qu’il allait sauver la planète, etc. L’industrie a été capable de prendre tôt le sujet à bras le corps et d’imposer son narratif. Il s’agit aujourd’hui de le déconstruire pour en proposer un autre.

LVSL – Peut-on vraiment parier sur une auto-régulation des multinationales du numérique ou sur une régulation fondée sur les mécanismes du marché ? Vous évoquez l’échec des crédits d’énergie verte, qui ne sont pas sans faire écho au marché carbone issu du protocole de Kyoto en 2005.

G. P. – Il y a aujourd’hui une pression de plus en plus forte qui pèse sur les entreprises du numérique, sur leur action climatique. D’abord au sein même de ces entreprises : chez Google et Amazon, des pétitions circulent pour demander la diminution des émissions. De l’extérieur surtout. Historiquement, la critique a été portée par Greenpeace, qui est aujourd’hui moins active sur ce sujet. Mais d’autres ONG prennent le relais et font pression, il y a un enjeu de réputation. Les entreprises essaient donc de verdir leur mix électrique, leur approvisionnement d’électricité. L’une des premières réponses à apporter, pour les entreprises, consiste à pouvoir dire qu’elles consomment moins de charbon. Ces entreprises sont d’ailleurs très actives : les GAFAM ont un mix électrique infiniment plus vert que la moyenne mondiale.

Pour autant, il y a des tour de passe-passe comptables, notamment ces crédits d’énergie verte qui sont une escroquerie intellectuelle, pour reprendre les mots de Philippe Luce que j’interroge dans le livre. Une entreprise produit de l’électricité verte et vend cette production, d’un point de vue strictement comptable, à une autre entreprise qui lui achète à un coût fixe. Les sommes versées doivent être réinvesties dans le déploiement des énergies vertes. Cela permet à Netflix de prétendre que son mix électrique est 100% vert, ce qui n’est absolument pas le cas : Netflix dépend, pour son stockage d’informations, d’Amazon Web Service, qui n’est pas une entreprise propre sur ce plan là. C’est doublement fallacieux : d’une part l’entreprise prétend être verte alors qu’elle ne l’est pas, d’autre part ce mécanisme ne permet pas générer suffisamment de fonds pour pouvoir réellement accélérer le déploiement des énergies vertes. C’est évidemment discutable de penser que le marché pourra régler ces problèmes par lui-même, la puissance publique doit toujours plus s’en mêler pour pouvoir assainir tout cela.

LVSL – Plusieurs mesures pourraient selon vous êtres mises en place par la puissance publique : l’établissement de forfaits dont le prix serait fonction des données consommées, etc. Le salut vient-il de la régulation étatique ?

G. P. – Je pense qu’il doit évidemment venir de la régulation étatique. Se pose aujourd’hui la question d’un interdit, ou tout du moins d’une limite à la consommation de certains produits numériques. Une baisse concrète de la pollution générée par internet passe nécessairement par une consommation moindre. Or nous n’en prenons absolument pas le chemin. Néanmoins, s’il faut relever quelques actions prises par les États, ce qui me frappe est la tentative de régulation des plateformes de réseaux sociaux. Aux États-Unis, en Australie, en Europe, en Chine, toutes sortes de mesures législatives sont prises pour mieux encadrer les réseaux sociaux, notamment l’accès des jeunes à ces réseaux. En l’occurrence l’État n’intervient pas pour des raisons écologiques mais au nom de la protection des mineurs. Mais cela montre que seule la loi est en mesure de mettre des barrières. On ne pourra pas faire sans, mais il faudra également qu’émergent de nouveaux modes de consommation. Le consommateur est totalement désensibilisé aux pollutions générées par le numérique, notamment parce qu’il consomme des services qui n’ont pas de prix. L’idée d’établir des forfaits dont le prix serait fonction des données consommées permettrait de remettre de la modération dont la consommation. Or c’est un outil de marché. Je ne pense pas qu’il faille nécessairement opposer régulation étatique, outil de marché et responsabilisation du consommateur, c’est un tout.

LVSL – Vous évoquez la confiance de certains industriels dans des avancées technologiques qui permettraient à un internet plus « vert » de voir le jour. Ainsi des progrès de la physique quantique, qui pourraient permettre de réduire la taille d’un data center à celle d’un livre. Ce n’est pas sans faire écho, en ce qui concerne le réchauffement climatique, aux espoirs placés par certains dans la géo-ingénierie. Pensez-vous que tout cela soit crédible ?

G. P. – Il faut en effet constater que pas un jour ne passe sans qu’on nous annonce l’avènement d’une nouvelle technologie censée permettre une gestion plus efficiente de l’information, un stockage plus efficace, etc. Ce serait une sorte de cercle vertueux, la bonne technologie venant corriger les effets néfastes de la technologie dont on s’est rendu compte après-coup des défauts. Il s’agit effectivement d’un véritable solutionnisme technologique.

Il y a un problème de concordance des temps dans le débat qui oppose les critiques et ceux qui soutiennent ces technologies. Le critique regarde ce qu’il se passe aujourd’hui quand le technologue regarde ce qu’il se passe demain. Quand on fait le constat d’un problème à un instant T, en 2021, souvent la réponse du technologue consiste à dire : « Pourquoi vous vous intéressez à cette question là puisque le futur lui a déjà donné tort, puisque les technologies futures vont régler le problème ? ». Personnellement, j’ai eu l’occasion de faire un débat sur BFM business avec un monsieur charmant qui s’appelle David Lacombled, dirigeant du think tank La villa numeris. Quand je pointais un problème, il ne niait pas la réalité de ce dernier mais sa manière de répondre consistait à opposer à la réalité un futur certain, qui donnerait tort à mon présent. A propos des data centers, il était ainsi convaincu que de nouvelles technologies permettraient bientôt de stocker de manière plus efficiente. C’est un procédé rhétorique qui me fascine. C’est pour moi de la réalité alternative, on ne regarde plus le présent. C’est extrêmement dangereux dans le débat. Si on applique cela à tous les débats, on ne parle plus du présent. Le futur, c’est quand ? Dans deux ans, dans cinq ans, dans vingt ans ? On nous avait promis le cloud il y a trois décennies, on se retrouve avec 3,5 millions de data centers sur terre. Cet optimisme qui convoque sans cesse le futur me paraît très dangereux.

LVSLVous évoquez l’importante consommation d’énergies fossiles, croissante, nécessaire au fonctionnement des infrastructures dont dépend Internet. De même, vous faîtes par exemple la liste de la cinquantaine de métaux rares nécessaires à la fabrication d’un smartphone. Le coup d’arrêt à l’expansion des TIC et du numérique ne pourrait-il pas tout simplement venir de l’épuisement des ressources ? Le pic du pétrole conventionnel aurait ainsi été atteint en 2008, or moins de pétrole, cela veut dire globalement moins de matières premières dépendantes de flux logistiques rapides et à longue portée : terres rares, cobalt, etc.

G. P. – En réalité, les métaux rares ne sont pas rares. Ce sont des métaux dilués mais pas nécessairement rares. Le cobalt, le graphite, on en trouve dans des quantités colossales sur terre et au fond des océans. La consommation de ces matières premières explose. L’Agence internationale de l’énergie a publié un rapport en mai 2021 selon lequel les seuls besoin de la transition énergétique exigeront, en 2040, quarante fois plus de lithium qu’en 2020. Le lithium est également nécessaire au fonctionnement des batteries de téléphone portable, la hausse de la consommation est donc indéniable.

Il y a d’abord la question des ressources : il y en a assez. Ensuite il y a les réserves, c’est-à-dire les stocks connus exploitables compte tenu des technologies d’extraction que l’on maîtrise actuellement et du prix du marché (il faut que cela soit rentable). Il y a nécessairement moins de réserves que de ressources : un stock de cobalt peut ne pas être exploitable de façon rentable ou être trop profond pour que la technologie actuelle en permette l’extraction. On constate par exemple qu’il n’y aurait pas assez de réserves de cobalt par rapport au besoin, il y a donc déjà de premiers signes d’alerte, sur le cuivre également. Pour autant, les technologies évoluent, le coût des matières premières est susceptible d’augmenter, etc. Il est difficile de donner une date précise d’épuisement de ces ressources. La question la plus intéressante est donc la suivante : à quel coût va-t-on extraire ces matières premières ? Théoriquement on peut le faire, mais il va falloir creuser plus profondément, y-compris au fond des océans : il va donc y avoir un coût écologique, un coût économique, un coût en matière de consommation d’énergie et donc un coût social. L’opposition des populations est de plus en plus forte : le Nicaragua a interdit l’extraction minière sur son territoire ; le Pérou de Pedro Castillo veut reconsidérer un certain nombre de projets miniers, qui doivent profiter à la population péruvienne ; en Patagonie, l’entreprise Barrick Gold a du abandonner un projet d’extraction de minerais à Pascua Lama parce que les Diagitas s’opposaient à la fonte des glaciers sous lesquels se trouvaient le métal. Il en va de même pour la mine de Peble en Alaska : les Américains ont suspendu l’extraction car elle risquait d’avoir un impact sur la population de saumons du lac situé à proximité. En définitive, je pense qu’on peut manquer de ressources non pas parce qu’elles feraient défaut mais parce qu’il y a des oppositions sociales de plus en plus fortes.

LVSL – Vous évoquez la priorité que devrait avoir un hôpital connecté sur la diffusion de vidéos sur la plateforme Tiktok. Certaines courants technocritiques défendent même le démantèlement pur et simple d’Internet. En définitive, ne faudrait-il pas se résoudre, a minima, à un usage moindre du numérique ?

G. P. – On entend beaucoup ces mots: dé-numérisation, désinformatisation, sobriété, etc. Ce dernier terme relève d’ailleurs bien souvent du greenwashing le plus éhonté, ce sont généralement ceux qui utilisent le plus ces outils numériques qui évoquent la sobriété. Il faut être méfiant à l’égard de ces mots. Qui va revenir à des Iphones 2, avec un temps de téléchargement multiplié par dix ? Qui est prêt à revenir à cet internet là ? Quelques-uns c’est certain. A chaque conférence que je donne, il y a toujours une ou deux personnes qui ont un vieux Nokia à la place d’un smartphone. Mais cela représente au mieux 5% de la population.

Je ne crois absolument pas à la dé-numérisation. Même s’il y a des gens qui sont prêt à cela, et je comprends parfaitement cette volonté de revenir à un mode de vie plus cohérent, la dynamique d’internet est aujourd’hui aux antipodes de cela : explosion de l’économie des données, « internet de tout », etc. Les deux tiers des adolescents américains utilisent Roblox [ndlr : jeu massivement multijoueur en ligne dans lequel le joueur incarne un avatar personnalisable] : quand vous voyez la façon dont les enfants consomment ce type de contenus, la dé-numérisation apparaît comme un rêve.

De « l’État plateforme » au « citoyen usager » – Entretien avec Marie Alauzen

https://unsplash.com/@jeshoots?utm_source=unsplash&utm_medium=referral&utm_content=creditCopyText

Chercheuse spécialiste des questions de modernisation numérique des administrations publiques françaises, Marie Alauzen revient avec nous sur l’histoire du concept d’« État-plateforme » aujourd’hui en vogue dans les milieux institutionnels, ainsi que sur les transformations socio-politiques qui l’accompagnent. L’émergence de la notion de « citoyen usager » constitue selon elle le principal acquis de la période de transformation actuelle du concept d’État à l’aune de la numérisation. Ces transformations, redoutées par de nombreux observateurs critiques en raison des sources parfois libertariennes de ces théories, nous obligent à nous mettre au niveau des bouleversements qu’elles imposent à nos conceptions politiques et nos modèles sociaux. Entretien réalisé par Simon Woillet.

LVSL – Pouvez-vous nous donner en quelques mots les aspects les plus saillants de ce que l’expression « État-plateforme » signifie pour vous, depuis votre point de vue de chercheuse ?

Marie Alauzen – Par l’enquête J’ai enregistré plusieurs significations de l’expression d’« État plateforme » dans ses rapports de superposition, de différence ou de cohabitation plus ou moins pacifiés et évidents. Autrement dit, je prends le terme comme une coquille vide, et regarde la manière dont elle est tour à tour est remplie de sens sur un terrain donné — en l’espèce, celui de la modernisation de l’État en France.

Le terme est apparu en France notamment avec la publication, en 2012, de l’essai de Nicolas Colin et Henri Verdier, L’Âge de la multitude. Entreprendre et innover après la révolution numérique1. Les auteurs y décryptent le succès du secteur numérique nord-américain comme le fruit d’une stratégie économique dans laquelle les entreprises les plus puissantes et les plus valorisées sont celles qui se sont « alliées » avec des individus « équipés, connectés et éduqués », formant une « multitude ». Le concept de multitude est alors emprunté Michael Hardt et Antonio Negri, Multitude. Guerre et démocratie à l’âge de l’Empire2.

Il désigne initialement la possibilité de formes nouvelles de démocratie contenues dans une entité fonctionnant en rhizomes tissés de collectifs humains hétérogènes et transnationaux rassemblés autour des « communs ». Comme le peuple, les masses ou la classe, la multitude esquisse une unité de la représentation politique ; la seule — selon les auteurs de L’Âge de la Multitude qui s’en font les ventriloques — en mesure de faire advenir des changements politiques et économiques dont la France aurait besoin. Parmi ces changements réputés inéluctables, les auteurs identifient l’émergence d’un « État plateforme », c’est-à-dire un renversement des rapports administratifs entre l’État et la société civile à l’issue duquel « l’administration ne se percevra plus seulement comme chargée de servir ou de contraindre le citoyen. Elle pourra également envisager de le doter en ressources, de stimuler sa créativité et de relayer ses efforts3 ».

Cette vision politique brièvement développée dans le dernier chapitre du livre va s’infiltrer parmi les mots d’ordre de la réforme de l’État (innovation, simplification, participation des usagers et des agents, expérimentation…) sous l’impulsion d’Henri Verdier, nommé quelques mois après la parution de l’ouvrage, en janvier 2013, chef de la mission d’ouverture des données publiques, Étalab, rattachée au Secrétariat général pour la modernisation de l’action publique (SGMAP), puis en septembre 2015, directeur interministériel du numérique et du système d’information et de communication de l’État, l’une des deux directions du SGMAP.

De ce point de vue sémiotique, l’État plateforme est donc une double traduction. Il est la traduction du slogan de Tim O’Reilly, « Government as a platform », dans un essai à succès sur les conséquences politiques de l’économie numérique en France, puis le transport de cette notion dans le programme d’action de la modernisation de l’État, auquel Henri Verdier, l’un des deux auteurs, a directement contribué entre 2013 et 2018, mais dont il ne conserve aucun monopole définitionnel, puisque le terme continue sa carrière dans le cours des actions ordinaires de la modernisation de l’État.

LVSL – La notion d’État plateforme nord-américaine, notamment introduite par Tim O’Reilly ne semble pas tout à fait recouvrir ce que les institutions françaises et européennes entendent par État plateforme (si l’on songe ici également au modèle estonien), quelles différences peut-on identifier entre ces deux usages du terme selon vous ?

M. A – N’ayant pas fait d’enquête spécifique sur ce point, je ne pourrais pas pousser l’analyse jusqu’à dégager une signification proprement européenne du terme. Toutefois, il existe bien une version étasunienne, première, qu’il faut examiner minutieusement. La formule du « government as a platform » est apparue sous la plume de Tim O’Reilly à partir de 2009. Cet entrepreneur et essayiste connu pour avoir forgé le terme de « web 2.0 » — autrement nommé internet participatif — a formulé cette expression à partir du printemps 20094 pour appeler de ses vœux une réforme de l’agir politique dans laquelle le gouvernement mettrait en place des infrastructures de services administratifs et techniques, qui seront ensuite mobilisés par les citoyens eux-mêmes pour assurer l’effectivité du service.

Le gouvernement se ferait ainsi techniquement « plateforme », dans le sens où il œuvrerait à la mise en relation d’une offre et d’une demande. Il ne faut pas y voir seulement l’appel à une économicisation des rapports politiques, l’originalité du « government as a platform » de Tim O’Reilly consiste à encourager, d’une part, une forte implication des citoyens à des fins d’altération du monopole des agents administratifs sur les affaires publiques et, d’autre part, inciter à la publicisation des problèmes administratifs et, en conséquence, rendre possible le recours à des ressources externes aux seules administrations.

Le slogan du « government as a platform » a gagné en popularité en étant intégré au programme démocrate lors de la campagne présidentielle de 2011, avant de devenir l’une des armatures conceptuelles du livre blanc sur le gouvernement numérique, publié peu après la réélection de Barack Obama5. Ce livre blanc fixe trois objectifs à la réforme des services numériques : l’accessibilité mobile de toute information ou tout service gouvernemental (anywhere, anytime, on any device), la création de services à la fois sécurisés et adaptés aux usages numériques ; ainsi que l’amélioration du service rendu aux citoyens (where every man feels that he is a participator in the government of affairs). Pour mettre en œuvre ces trois objectifs, l’administration est supposée faire « mieux avec moins », préférer des technologies dites « légères », des programmes d’action transversaux et coordonnés par des « intrapreneurs ».

Il est intéressant de noter qu’entre Tim O’Reilly et l’administration américaine enjointe à se réformer, il y a déjà de petits décalages : l’activation d’une offre et d’une demande par une plateforme technique et la focalisation sur la résolution collective de « problèmes publics » a cédé la place à une approche informationnelle, dans laquelle une couche infrastructurelle, incluant tous les systèmes et processus d’information (pêle-mêle données administratives, sondages, tweets ou articles de presse) permet à l’administration de veiller, de détecter, de vérifier et de transmettre des informations fiables aux citoyens.

Pour le dire en des termes anachroniques, la stratégie numérique du gouvernement était déjà orientée vers ce que nous appelons désormais les fake news et la responsabilité du gouvernement en matière de la circulation de l’information, là où Tim O’Reilly promouvait un expérimentalisme politique, familier de la tradition politique américaine, et ici largement colorié du « solutionnisme technologique » qu’Evegeny Morozov dénoncera quelques années plus tard6.

Ceci étant posé, comment mesurer la différence entre des abords conceptuels « français » et « nord-américains » ? Notons d’abord que la différence n’a pas échappé à Henri Verdier et Nicolas Colin. Ils attribuent la genèse étasunienne du mot d’ordre (et donc le « retard » européen et français) à une divergence dans la conception de l’État : « Il n’est pas étonnant que ce type d’attitude soit né plus rapidement aux États-Unis qu’en Europe. Comme le souligne[nt Michael Hardt et] Antonio Negri, il existe une nette différence entre la représentation européenne de l’État, perçu comme un souverain — quasiment transcendant, en tout cas surplombant la société — et la représentation américaine, où l’État est plus immanent et vu comme un dispositif équilibrant les différentes forces de la société7 ».

Autrement dit, c’est en considérant cette inclination historique nord-américaine à faire de l’État non pas la gigantesque entité métaphysique européenne, mais l’un des groupes secondaires d’une société politique faite de différents corps, le gouvernement, qu’ils auraient traduit « government as a platform » en « État plateforme ».

Outre cette différence dans l’interprétation de l’héritage contractualiste postulée par les importateurs du terme, il me semble qu’il y a sans doute plus de similitudes entre les significations dogmatiques et administratives de part et d’autre de l’Atlantique, qu’entre des significations proprement étasuniennes et françaises. Par exemple, l’État plateforme de L’Âge de la multitude et le « government as a platform » de l’article de Tim O’Reilly partagent l’ambition de créer « des services publics sans administrations, auto-organisés par des communautés de citoyens 8» ; la visée de démonopolisation n’est reprise ni par le livre blanc du gouvernement américain ni par les documents stratégiques sur la modernisation de l’État en France. De même, l’orientation vers la visibilité des problèmes administratifs et l’appel aux compétences de la multitude est largement gommée dans les documents stratégiques des administrations françaises et étasuniennes, aux prises avec d’autres montages, par exemple les règles des marchés publics.

LVSL – Vous avez pu observer sur plusieurs années les effets directs de cette notion et de ce discours sur les divers acteurs institutionnels engagés dans la transformation numérique de l’État et de sa relation avec le public, les citoyens, les entreprises, quels aspects les plus généraux de ces évolutions retiennent le plus votre attention ?

M. A – En France, le terme d’État plateforme en effet a été repris à l’automne 2014 par la Direction interministérielle du système d’information et de communication de l’État (DISIC, aujourd’hui Direction interministérielle du numérique). Il est venu conférer un abord conceptuel en même temps que renforcer l’intention qui était celle du décret de création9 : bâtir des infrastructures communes aux systèmes d’information ministériels, permettant à la fois des échanges de données sécurisées dans des formats interopérables, l’authentification des usagers ou encore le stockage d’applications. La doctrine assemblée dans les documents stratégiques de la DISIC a servi d’appui textuel, de référence, en mettant en avant des projets antérieurs ou en arrimant de nouveaux projets à un horizon de transformation désirable.

Elle est ainsi venue conférer une place de choix à la mission d’ouverture des données publiques, Étalab, qui mettait à disposition des réutilisateurs des jeux de données administratives — par exemple sur les mesures de la qualité de l’air des directions régionales de l’environnement, le financement du cinéma français du Centre national du cinéma ou encore les modèles de prévision climatique de MétéoFrance. Elle a aussi permis de stabiliser FranceConnect, l’application d’authentification des usagers des services publics en ligne que plusieurs millions de Français utilisent désormais dans leurs démarches courantes.

Cette application de rationalisation des identités numériques, pour les gestionnaires de sites et les usagers, est adossée à API-particulier, grâce à laquelle les usagers qui le souhaitent activent le partage de données avec les administrations auprès desquelles ils entreprennent des démarches — par exemple, pour éviter de fournir une pièce justificative par courrier ou de se rendre au guichet.

On aurait pu allonger la liste, mais notons déjà que l’ouverture des données publiques, l’authentification et l’échange de données grâce à API particulier (et son pendant, API entreprise) constituent trois matérialisations de l’État plateforme, ayant participé à stabiliser les cadres de la modernisation numérique de l’État qui sont encore les nôtres à un moment où l’expression a largement perdu de son attrait et n’est plus que prononcée du bout des lèvres à la Direction interministérielle du numérique.

LVSL – La notion d’État-plateforme semble associée de manière générale à deux postures interprétatives, l’une critique, lisant ce terme de manière critique et associée à la volonté de renforcer les politiques d’austérité et de réduction des effectifs des services publics ; l’autre plus nuancée, voire enthousiaste, faisant de ce terme le symbole d’une amélioration et d’une fluidification des rapports entre les administrations et les citoyens, notamment à travers des initiatives de facilitation telles que France Connect. Comment percevez-vous cet antagonisme ?

M. A – L’antagonisme que vous esquissez pour l’État plateforme actualise des approches classiques de la réforme administrative de l’État ; d’un côté, la mutation et ce que Philippe Bezes et Patrick Le Lidec ont justement appelé durant la réforme de l’administration territoriale de l’État « la forme fusion »10, de l’autre l’amélioration de l’expérience administrative de l’État pour certains types de populations. Ces tensions peuvent évidemment coexister dans un même projet de transformation de l’État et au sein d’un même répertoire d’action ; cela a été le cas durant une partie de la Révision générale des politiques publiques, qui a marqué le quinquennat de Nicolas Sarkozy.

Au cours de la période où j’ai suivi l’activité quotidienne de modernisation de l’État, qui correspond plus ou moins au quinquennat socialiste, ces deux aspects étaient nettement découplés. Réduire les coûts de fonctionnement du service public ne faisait pas partie du mandat confié aux modernisateurs de l’État ; cela ne signifie pas qu’après plusieurs années de diagnostic de l’administration comme intérieur malade ou dispendieux de l’État, l’impératif de réduction des dépenses publiques n’ait pas été tellement incorporé qu’il ait continué à vivre au sein de l’État. On le voit surgir dans certaines obsessions comptables, comme les exercices de connaissances des coûts consistant à ramener les coûts des services publics à l’unité individuelle de consommation, patient ou à étudiant par exemple.

Il faut toutefois nuancer ce que j’avance, car la Direction interministérielle du numérique a progressivement repris à son compte cet impératif de réduction des coûts. Elle ne s’est pas contentée de mettre en place les infrastructures que j’évoquais précédemment, elle a promu de nouvelles manières de concevoir les services publics, visant avec les méthodes agiles un certain idéal d’amincissement. Le changement de posture consacré par une circulaire de janvier 2015 requérant de réduire « la dépense informatique annuelle de 500 à 800 millions d’euros en trois à cinq ans 11» est devenu tangible à partir du moment où cette dernière s’est dotée de son propre exercice de connaissance des coûts : le remplissage d’un tableau de bord interministériel des grands projets informatiques, lui conférant un point de vue de superviseur sur la dépense des crédits informatiques. Cette pente s’est sans doute accrue depuis.

Toutefois, le pilotage des dépenses et les grands débats autour des projets informatiques paralysés, coûteux ou controversés (par exemple, le système d’alerte et d’information des populations du ministère de l’Intérieur [SAIP] ou plus récemment l’application StopCovid) n’emportent pas nécessairement des effets sur le travail quotidien des agents. Ces derniers continuent d’ouvrir les données et les algorithmes publics, de concevoir des produits numériques, d’accompagner les administrations en portant haut l’idée de fluidité de l’expérience et de facilitation du travail administratif des usagers, sans être mécaniquement liés à l’impératif économiste qui meut par ailleurs leur administration.

LVSL – Comment la France s’insère-t-elle dans l’ambition politique de la Commission européenne de numérisation administrative et de mise en commun des données des États membres en vue d’aider la croissance technologique de la zone ?

M. A – Il ne me semble pas que l’idée de « croissance technologique » soit un moteur du partage de données, notamment parce que les aspirations du début des années 2010 autour de « l’or noir des données » et des promesses d’innovation de la multitude ont en partie été déçues et reformulées. Pour vous répondre rigoureusement, il faudrait examiner de près ce que fait la DINUM et la manière dont le Secrétariat général aux Affaires européennes et l’Ambassadeur pour le Numérique s’en font le relai auprès des instances européennes.

En revanche, l’une des ambitions promues par la France depuis plusieurs mois s’articule autour de la notion de souveraineté numérique, pensée à l’échelle d’une future zone réglementaire européenne. Il est moins question de mise en commun de données, que de la constitution d’un territoire de gouvernement européen unifié, qui obligerait les plateformes au respect d’un certain nombre de règles (en matière de modération de contenus en ligne par exemple), dont le manquement entraînerait des sanctions mieux adaptées à la taille et au caractère déterritorialisé des plateformes de services numériques. C’est du moins la cible du Digital Service Act, en cours de négociation.

LVSL – Certains observateurs semblent identifier un glissement conceptuel de la notion de « citoyen » vers la notion de « citoyen-usager » dans le processus de numérisation des services publics, adhérez-vous à cette analyse et qu’implique-t-elle selon vous ?

M. A – Vous venez là à un point fondamental, dont nous n’avons, je crois, pas fini de penser les implications. En effet, le concept classique de la modernité politico-administrative hérité de la philosophie contractualiste lie l’existence de l’État moderne au sujet politique individuel : si cet individu apparaît comme une condition de l’État, celui-ci est en retour, par la protection et les possibilités d’expression qu’il lui offre, son garant. Les sciences sociales, et la sociologie politique en particulier, ont accueilli cet héritage, en ôtant la caractérisation métaphysique et juridique à la fois de l’individu et de l’État, pour montrer au contraire leurs couches de sociologisation. On pense par exemple à la sociologie historique de Norbert Elias dans le Procès de civilisation qui est parvenue à tenir ces deux pans de transformations de la modernité politique. Dans les travaux ultérieurs comme postérieurs, l’individu existe dans son lien à l’État, essentiellement sous les traits du citoyen ; ce citoyen héritier de la Révolution française qui vote, descend dans la rue et que l’on décrypte, une fois agrégé en « opinion publique » grâce à une instrumentation sondagière.

Or, je crois en effet que l’on peut repérer dans la mise en œuvre du programme d’État plateforme et au-delà dans les recompositions liées aux services numériques un glissement, non plus vers la figure du citoyen telle qu’elle a été configurée historiquement, mais vers celle d’un citoyen-usager des services étatiques. C’est un changement repéré empiriquement par certains observateurs des relations administratives, mais ils n’avaient pas poussé l’enquête jusqu’aux lieux où ces relations entre l’État et la société politique sont conceptualisées – même faiblement – et coordonnées ; en l’espèce l’administration de la modernisation de l’État. De tels lieux n’existaient d’ailleurs sans doute pas avant une date récente. Après plusieurs années d’observation de ce terrain, il me semble qu’il s’agit moins d’un dessein idéologique, d’un projet finalisé de réforme du rapport entre l’État et la société politique repérable dans les succès du programme d’État plateforme, qu’un effet des transformations interactionnelles et scripturales précipitées par l’expansion des technologies numériques, de choix infrastructurels et des métamorphoses des savoirs de gouvernement dont le design, l’informatique et les sciences comportementales.

L’une des conséquences immédiatement repérables de ces métamorphoses porte sur la politisation. La politisation des agents modernisateurs est très nette ; elle est lisible dans leur inclination à s’emparer — y compris au corps défendant des administrations légitimes — de sujets de politiques sociales (les aides et prestations sociales, le droit du travail, l’embauche, la recherche d’emploi, etc.). Ces derniers relaient une critique virulente de la place conférée à un droit peu soucieux de ses conditions de félicité et fustigent la mise en œuvre de politiques publiques à laquelle ils reprochent leur incapacité à se déployer jusqu’aux usagers concernés.

Au nom de cet usager, et même en se faisant usagers, ils adoptent une attitude militante. Par exemple, ils reprennent, bénévolement, un simulateur de prestations sociales, fermé à la demande du ministère de la Santé et des Solidarités, continuent d’y ajouter, les soirs et les week-ends, de nouvelles aides et payent de leur poche l’achat du nom de domaine (mes-aides.org). Cette idée d’une citoyenneté d’usagers s’observe également dans certains phénomènes comme le non-recours volontaire aux droits sociaux (qui constitue une version individuelle de politisation) ou dans certaines mobilisations sociales. Je crois que nous n’avons pas encore pris la mesure de ce que porte avec lui ce phénomène et je suis convaincue de l’intérêt de tracer, par l’enquête, ces recompositions numériques.

Notes :

1 Nicolas Colin et Henri Verdier, L’Âge de la multitude. Entreprendre et innover après la révolution numérique, Paris, Armand Colin, 2012 (1ère édition).

2 Michael Hardt et Antonio Negri, Multitude, Guerre et démocratie à l’âge de l’Empire, trad. Nicolas Guilhot, Paris, La Découverte, 2004.

3 Nicolas Colin et Henri Verdier, L’Âge de la multitude. Entreprendre et innover après la révolution numérique, ; ris, Armand Colin, 2012 (2e édition), p. 246.

4 Plus précisément, la première mention de cette formule par Tim O’Reilly remonte au printemps 2009 et a été présentée au public début septembre de la même année lors du sommet Gov 2.0 à Washington D.C., puis dans un billet publié sur le site d’information spécialisé dans l’innovation numérique TechCrunch. Tim O’Reilly, « Gov 2.0: It’s all about the platform, Techcrunch », 4 septembre 2009, en ligne : https://techcrunch.com/2009/09/04/gov-20-its-all-about-the-platform/?guccounter=1. L’argumentaire est repris et déployé dans un article qui deviendra une référence : Tim O’Reilly, “Government as a Platform”, Innovations, vol. 6, no 1, 2011, p. 13-40.

5 Maison blanche, “Digital Government: Building a 21st-century Platform to Better Serve the American People”, Washington, DC, 23 May 2012

6 Evegeny Morozov, To save everything, click here: The folly of technological solutionism. New-York, Public Affairs, 2013.

7 Nicolas Colin et Henri Verdier, L’Âge de la multitude. Entreprendre et innover après la révolution numériqueParis, Armand Colin, 2012 (2e édition), p. 243.

8 Idem, p. 254.

9 Décret n° 2011-193 du 21 février 2011 portant création d’une direction interministérielle des systèmes d’information et de communication de l’Etat ; puis article 5 du décret n° 2015-1165 du 21 septembre 2015 relatif au secrétariat général pour la modernisation de l’action publique.

10 Philippe Bezes et Patrick Le Lidec, « Politiques de la fusion. Les nouvelles frontières de l’État territorial », Revue française de science politique, vol. 66, no. 3-4, 2016, pp. 507-541.

11 Circulaire no5764/SG du 20 janvier 2015

« Smart cities » : mirage solutionniste pour voiler l’impuissance politique

https://unsplash.com/photos/u9ANbfdYEZs
Personnes marchant à Tokyo, Japon © Koukichi Takahashi

La smart city – ou ville intelligente – est un concept en pleine expansion. L’Hexagone ne fait pas exception puisque de nombreuses collectivités locales consacrent déjà des sommes faramineuses pour favoriser ce mode de développement. Pas moins de 25 villes françaises ont ainsi nommé un responsable chargé de rendre plus smart leur environnement urbain. Green city ou safe city : gauche et droite communient dans l’enthousiasme, misant sur le numérique pour s’attaquer au réchauffement climatique comme à l’insécurité. Un moyen commode de dépolitiser ces enjeux et de pallier la misère budgétaire par une inflation technologique.

Les villes accueilleront 75% de la population mondiale d’ici à 2050, concentrant le gros des efforts de lutte contre la criminalité, la pollution ou encore les inégalités. C’est dans ce contexte que la smart city apparaît souvent comme la solution miracle à toutes ces problématiques qui guettent la ville moderne. Selon la Commission Nationale de l’Informatique et des Libertés (CNIL), la smart city, pourrait ainsi permettre « d’améliorer la qualité de vie des citadins […] à l’aide de nouvelles technologies ». Plusieurs domaines inhérents à la ville sont concernés : les « infrastructures publiques, les réseaux, les transports, les e-services et e-administrations ». La mise en place de la 5G en France ne fait qu’accélérer ce modèle puisqu’elle permet une circulation plus rapide des données. La mairie de Paris vient ainsi d’accepter le déploiement de cette nouvelle technologie afin de se préparer à accueillir les JO 2024.

Gauche et droite unies dans l’enthousiasme

Dans un article du Monde Diplomatique de juin 2019, le chercheur et membre de La Quadrature du Net Félix Tréguer analyse « qu’en-dehors de quelques initiatives en matière de mise à disposition des données, de gestion intelligente de l’éclairage public ou des bennes à ordures, la ville intelligente se définit surtout par son volet sécuritaire [la safe-city] ». Pourtant, s’il est vrai que les arguments sécuritaires sont largement mobilisés pour mettre en place des villes intelligentes, les promoteurs de la smart city sont capables d’adapter leurs justifications et leurs arguments au gré des enjeux locaux. La ville intelligente sera tantôt dévouée à la protection de l’environnement à Grenoble, tantôt attentive à la répression de la criminalité dans les villes marquées par une violence soudaine, comme à Nice.

Les dirigeants de certaines villes françaises ayant pris des engagements en faveur de la protection du climat s’enthousiasment face à la mise en place de technologies ultra-modernes. Le maire de Grenoble Eric Piolle, a ainsi inauguré en 2017 la construction d’un « technopôle » doté de « smart grid ready intelligent » afin de raisonner la consommation d’énergie. De même, les métropoles de la capitale des Alpes et de Besançon favorisent la mise en place d’une taxe d’habitation proportionnelle aux déchets des habitants. Pour ce faire, 150 000 nouveaux bacs personnels équipés de puces RFID vont être mis en place à Grenoble tandis que les camions de collecte équipés de matériel de pesée seront dotés de nouveaux logiciels. À Bordeaux, plus de 500 capteurs ont été installés pour la mise en place du projet Smart Lights afin de réduire la consommation d’électricité communale. Même principe à Rillieux-La-Pape, commune de 30 500 habitants ayant mis en place un éclairage intelligent. À Lyon, c’est la baisse de consommation d’énergie des habitants du quartier Hikari qui est souhaitée. Ce projet construit par le géant Bouygues équipe les immeubles de capteurs en tout genre (fournis en grande partie par Toshiba) tandis que chaque résident est équipé d’une tablette de suivi énergétique.

Les nouvelles technologies alimentées par les très polluants métaux rares transportés de l’autre bout du globe pour constituer des « cités écologiques » permettent avant tout d’exporter la pollution engendrée par le système de production et de consommation.

Cette liste n’est pas exhaustive mais permet de comprendre les arguments mis en avant par les responsables politiques soucieux de « verdir » leur image. Qu’en est-il réellement ?

À Lyon, la mise en place de ces nouvelles technologies à l’utilité douteuse – suffit-il de donner une tablette de suivi énergétique pour susciter une nouvelle manière de consommer ? – a entraîné un surcoût de 8% dans la construction du quartier Hiraki, pour le plus grand bénéfice de Bouygues ; une réalité qui jure de prime abord avec l’objectif de réduction des coûts. L’ambition affichée de construire des « cités écologiques » prête à sourire lorsque l’on connaît l’impact environnemental des métaux rares incorporés dans les technologies numériques. Ces matières premières sont en effet transportées de l’autre bout du globe jusqu’aux villes françaises sans que cet aspect ne soit discuté dans le débat public.

Pour une analyse du coût écologique du numérique, lire sur LVSL la synthèse de Nathan Dérédec sur les métaux rares : « Métaux rares : l’empire global de la Chine ».

Ici comme ailleurs, la focalisation sur l’utilité du numérique voile le coût écologique du système de production et de consommation. De même, comment comprendre cette volonté de favoriser une gestion « citoyenne » des déchets, lorsque l’on garde à l’esprit la difficulté de recycler nombre de détritus ?

Lutte 2.0 contre l’insécurité et la pauvreté

Si les arguments en faveur du climat ont souvent été mobilisés dans le contexte des smart cities, de nombreux projets dont le but est de réduire la criminalité essaiment à travers l’hexagone. Il est d’ailleurs très difficile, sinon impossible, pour un responsable politique de s’opposer à cette tendance techno-sécuritaire. En 2014, l’engagement n° 95 du futur maire de Grenoble promettait de supprimer les caméras de surveillance en espace extérieur. Ce dernier avait provoqué un tollé médiatique en plaisantant sur le fait qu’il allait revendre les caméras désinstallées à la mairie de Nice, friande de technologies sécuritaires. La ville méditerranéenne a en effet été marquée par les terribles évènements du 14 juillet 2016, qui ont entraîné une « thérapie de choc » sécuritaire à travers la ville. Ainsi, l’autorisation de portiques de reconnaissance faciale dans deux lycées fut entérinée en 2018 par le conseil régional de la région PACA. L’aéroport de la ville a subi le même traitement de faveur. L’application Reporty, largement plébiscitée par le maire de la ville Christian Estrosi, permet aux citoyens de dénoncer des délits et des incivilités à la police.

L’enthousiasme pour la magie du numérique rend inaudible les discours considérant le chômage ou le mal-logement comme des problèmes structurels, appelant des solutions politiques et non des gadgets technologiques.

À Marseille, l’entreprise Engie Ineo se voit confier le projet « d’observatoire big data de la tranquillité publique » permettant d’agréger différentes sources d’information issues des services publics (police, hôpitaux…), de partenaires externes (ministère de l’Intérieur entre autres) ou des opérateurs télécoms afin de cartographier en temps réel les flux de population. De même, avec son projet de « vidéoprotection urbaine » (VPU), la cité phocéenne suit la même voie que la mairie niçoise. Le projet S²ucre, mené par l’Allemagne et la France, repose sur l’analyse de vidéos et permet de surveiller de larges foules et de prédire leurs comportements. Le projet a déjà été déployé lors du festival d’Hambourg ainsi que lors de la manifestation du 1er mai à Paris.

Pour une analyse de la captation des données par la technologie numérique et de l’économie qu’elle alimente, lire sur LVSL l’article d’Evgeny Morozov : « Captation des données par les GAFAM : aller au-delà de l’indignation ».

Entre 2010 et 2016, le nombre de caméras de surveillance a ainsi augmenté de 126% (1,5 million d’appareils en France). Ces installations onéreuses ont largement été plébiscitées par la puissance publique. En 2009, Brice Hortefeux reprend ainsi le « Rapport sur l’efficacité de la vidéoprotection » à la méthodologie douteuse pour justifier l’utilisation d’une telle technologie. C’est la plupart du temps suite à des actes terroristes que leur mise en place est favorisée (attentats de Londres en 2005, de Boston en 2013 ou de Nice en 2016). Pourtant, de nombreuses études ont prouvé que ces technologies n’avaient qu’une efficacité limitée. Le sociologue Laurent Mucchielli, auteur de Vous êtes filmés ! Enquête sur le bluff de la vidéosurveillance, analyse ainsi que lors des attentats terroristes de Nice, « les caméras n’ont fait que filmer l’horreur et n’ont servi à rien ». Il dénonce un véritable « bluff technologique qui permet plus de lutter contre un sentiment d’insécurité que contre les problèmes de sûreté réellement existants ». En revanche, les multiples coupes budgétaires imposées au Ministère de l’intérieur depuis la présidence de Nicolas Sarkozy sont rarement évoquées dans le débat public.

Dans un rapport financé par la métropole Lyonnaise destiné à « repenser la ville intelligente dans les quartiers populaires », la smart city se met également au service de l’amélioration des services publics. Le problème résiderait justement dans leur difficulté à dématérialiser les administrations. Les territoires ruraux sont accusés du même mal dans l’étude « Smart City vs. Stupid village » publiée en 2016 par la Caisse des Dépôts. Ainsi, la smart city permettrait de rapprocher les citoyens des administrations publiques à l’image de la mission « numérisation de la Seine-Saint-Denis ». La métropole de Toulouse a, quant à elle, favorisé le développement de l’application Jobijoba afin de favoriser l’emploi local tandis que d’autres plateformes sont créées afin de faciliter les demandes de logements sociaux.

Plaider pour la mise en place de la smart city permet aux décideurs politiques de montrer une attention aux problèmes rencontrés par les classes touchées par le chômage de masse ou par la ségrégation spatiale. Ici encore, l’enthousiasme pour la magie du numérique rend inaudible les discours considérant le chômage ou le mal-logement comme des problèmes structurels, appelant des solutions politiques et non des gadgets techniques.

Le projet avorté d’éco-quartier de Sidewalk à Toronto, entièrement conçu par Google, allait ainsi devenir une véritable usine à data.

Ces décisions font également fi du désintérêt de nombre de citoyens envers la dématérialisation de l’administration. Le dispositif Visio-guichets dans les Hautes-Alpes, censé rapprocher les usagers des services publics, n’a par exemple attiré qu’un faible nombre d’utilisateurs. D’autant plus que la dématérialisation des administrations permet souvent de réaliser de fortes coupes budgétaires. Pourtant, 86% des collectivités françaises sont aujourd’hui engagées dans cette voie. La numérisation, cache-misère d’administrations réduites à peau de chagrin par des décennies d’austérité ?

Les bénéficiaires cachés de la « transition numérique »

Si la mise en place de smart cities se fait pour des raisons différentes, force est de constater que ces dernières possèdent des traits communs. Les villes intelligentes sont souvent réalisées dans le cadre de Partenariats Publics-Privés (PPP). Ce mode de financement se fait avant tout au bénéfice des GAFAM américaines (Google, Amazon, Facebook, Apple, Microsoft), et dans une moindre mesure de certains géants chinois ou de différentes entreprises françaises spécialisées dans les high-techs (Thales Group, Safran SA, AnyVision…).

Pour une analyse de la rivalité sino-américaine au prisme du numérique, lire sur LVSL l’article de Sarah Vennen : « Cyber-colonialisme : comment le régime chinois de techno-surveillance s’impose au Zimbabwe ».

Ces PPP permettent aux industries de faire de certaines villes françaises une vitrine de communication à bas prix. La ville de Valenciennes s’est ainsi équipée de caméras de surveillance dotées d’un système de reconnaissance faciale offertes par Huawei. Bien souvent, les « villes intelligentes » s’insèrent dans l’économie globale des données, accroissant et raffinant les moyens de procéder à leur captation. Le projet avorté d’éco-quartier de Sidewalk à Toronto, entièrement conçu par Google, allait ainsi devenir une véritable usine à data. L’opacité régnant autour du projet faisait craindre à certains spécialistes que les données soient utilisées à des fins commerciales. D’autant que le stockage et l’analyse des nombreuses données produites par les géants du web est totalement incompatible avec des impératifs relatifs au changement climatique…

Envers et contre tout, l’installation de villes intelligentes semble largement plébiscitée par l’État. Ce dernier, par le prisme de la Banque Publique d’Investissement (BPI) finance de nombreux projets (VOIE, financement du projet de safe-city de Nice à hauteur de 11 millions d’euros…). De même, les groupes Thales et Engie Ineo, qui participent à de nombreux projets de villes sécuritaires, sont possédées respectivement à 23,6% et 25,8% par l’État français. Les collectivités locales semblent également tout faire pour faciliter l’implantation des géants de la technologie. La région Grand Est a ainsi récemment accordé à Huawei une subvention de 800 000 euros pour construire un site de production, afin de fabriquer des « équipements de communication sans fil 4G et 5G destinés principalement au marché européen ». La mairie de Lyon a, quant à elle, dépensé plus de 340 millions d’euros dans des PPP au bénéfice d’une trentaine d’entreprises dont Toshiba, Bouygues, Transdev ou SPL Lyon Confluence. L’utilité et la nécessité d’un tel mode de développement n’est pourtant que très peu remise en cause.

On doit à Evgeny Morozov d’avoir forgé le concept de solutionnisme technologique, qu’il détaille dans l’un de ses livres au titre évocateur : Pour tout résoudre, cliquez ici. Il renvoie à la croyance selon laquelle des problèmes irréductiblement politiques peuvent trouver des solutions technologiques grâce au numérique. Le paradigme de la « causalité », analyse-t-il, est peu à peu remplacé par celui de la « connexion » ; plutôt que d’interroger la cause de la pauvreté, du changement climatique ou de l’insécurité, la classe politique estime qu’une meilleure « interconnexion » entre demandes et offres, problèmes et solutions, permise par les technologies digitales, permettra de les résoudre. Ce qui revient in fine à considérer que les problèmes politiques sont générés par un accès déficient à l’information, et non par des institutions dysfonctionnelles.

Les smart cities apparaissent comme l’une des têtes-de-pont de ce solutionnisme technologique. Ce leitmotiv ne permettra ni de questionner l’austérité budgétaire, ni le paradigme politique dominant.