De « l’État plateforme » au « citoyen usager » – Entretien avec Marie Alauzen

https://unsplash.com/@jeshoots?utm_source=unsplash&utm_medium=referral&utm_content=creditCopyText

Chercheuse spécialiste des questions de modernisation numérique des administrations publiques françaises, Marie Alauzen revient avec nous sur l’histoire du concept d’« État-plateforme » aujourd’hui en vogue dans les milieux institutionnels, ainsi que sur les transformations socio-politiques qui l’accompagnent. L’émergence de la notion de « citoyen usager » constitue selon elle le principal acquis de la période de transformation actuelle du concept d’État à l’aune de la numérisation. Ces transformations, redoutées par de nombreux observateurs critiques en raison des sources parfois libertariennes de ces théories, nous obligent à nous mettre au niveau des bouleversements qu’elles imposent à nos conceptions politiques et nos modèles sociaux. Entretien réalisé par Simon Woillet.

LVSL – Pouvez-vous nous donner en quelques mots les aspects les plus saillants de ce que l’expression « État-plateforme » signifie pour vous, depuis votre point de vue de chercheuse ?

Marie Alauzen – Par l’enquête J’ai enregistré plusieurs significations de l’expression d’« État plateforme » dans ses rapports de superposition, de différence ou de cohabitation plus ou moins pacifiés et évidents. Autrement dit, je prends le terme comme une coquille vide, et regarde la manière dont elle est tour à tour est remplie de sens sur un terrain donné — en l’espèce, celui de la modernisation de l’État en France.

Le terme est apparu en France notamment avec la publication, en 2012, de l’essai de Nicolas Colin et Henri Verdier, L’Âge de la multitude. Entreprendre et innover après la révolution numérique1. Les auteurs y décryptent le succès du secteur numérique nord-américain comme le fruit d’une stratégie économique dans laquelle les entreprises les plus puissantes et les plus valorisées sont celles qui se sont « alliées » avec des individus « équipés, connectés et éduqués », formant une « multitude ». Le concept de multitude est alors emprunté Michael Hardt et Antonio Negri, Multitude. Guerre et démocratie à l’âge de l’Empire2.

Il désigne initialement la possibilité de formes nouvelles de démocratie contenues dans une entité fonctionnant en rhizomes tissés de collectifs humains hétérogènes et transnationaux rassemblés autour des « communs ». Comme le peuple, les masses ou la classe, la multitude esquisse une unité de la représentation politique ; la seule — selon les auteurs de L’Âge de la Multitude qui s’en font les ventriloques — en mesure de faire advenir des changements politiques et économiques dont la France aurait besoin. Parmi ces changements réputés inéluctables, les auteurs identifient l’émergence d’un « État plateforme », c’est-à-dire un renversement des rapports administratifs entre l’État et la société civile à l’issue duquel « l’administration ne se percevra plus seulement comme chargée de servir ou de contraindre le citoyen. Elle pourra également envisager de le doter en ressources, de stimuler sa créativité et de relayer ses efforts3 ».

Cette vision politique brièvement développée dans le dernier chapitre du livre va s’infiltrer parmi les mots d’ordre de la réforme de l’État (innovation, simplification, participation des usagers et des agents, expérimentation…) sous l’impulsion d’Henri Verdier, nommé quelques mois après la parution de l’ouvrage, en janvier 2013, chef de la mission d’ouverture des données publiques, Étalab, rattachée au Secrétariat général pour la modernisation de l’action publique (SGMAP), puis en septembre 2015, directeur interministériel du numérique et du système d’information et de communication de l’État, l’une des deux directions du SGMAP.

De ce point de vue sémiotique, l’État plateforme est donc une double traduction. Il est la traduction du slogan de Tim O’Reilly, « Government as a platform », dans un essai à succès sur les conséquences politiques de l’économie numérique en France, puis le transport de cette notion dans le programme d’action de la modernisation de l’État, auquel Henri Verdier, l’un des deux auteurs, a directement contribué entre 2013 et 2018, mais dont il ne conserve aucun monopole définitionnel, puisque le terme continue sa carrière dans le cours des actions ordinaires de la modernisation de l’État.

LVSL – La notion d’État plateforme nord-américaine, notamment introduite par Tim O’Reilly ne semble pas tout à fait recouvrir ce que les institutions françaises et européennes entendent par État plateforme (si l’on songe ici également au modèle estonien), quelles différences peut-on identifier entre ces deux usages du terme selon vous ?

M. A – N’ayant pas fait d’enquête spécifique sur ce point, je ne pourrais pas pousser l’analyse jusqu’à dégager une signification proprement européenne du terme. Toutefois, il existe bien une version étasunienne, première, qu’il faut examiner minutieusement. La formule du « government as a platform » est apparue sous la plume de Tim O’Reilly à partir de 2009. Cet entrepreneur et essayiste connu pour avoir forgé le terme de « web 2.0 » — autrement nommé internet participatif — a formulé cette expression à partir du printemps 20094 pour appeler de ses vœux une réforme de l’agir politique dans laquelle le gouvernement mettrait en place des infrastructures de services administratifs et techniques, qui seront ensuite mobilisés par les citoyens eux-mêmes pour assurer l’effectivité du service.

Le gouvernement se ferait ainsi techniquement « plateforme », dans le sens où il œuvrerait à la mise en relation d’une offre et d’une demande. Il ne faut pas y voir seulement l’appel à une économicisation des rapports politiques, l’originalité du « government as a platform » de Tim O’Reilly consiste à encourager, d’une part, une forte implication des citoyens à des fins d’altération du monopole des agents administratifs sur les affaires publiques et, d’autre part, inciter à la publicisation des problèmes administratifs et, en conséquence, rendre possible le recours à des ressources externes aux seules administrations.

Le slogan du « government as a platform » a gagné en popularité en étant intégré au programme démocrate lors de la campagne présidentielle de 2011, avant de devenir l’une des armatures conceptuelles du livre blanc sur le gouvernement numérique, publié peu après la réélection de Barack Obama5. Ce livre blanc fixe trois objectifs à la réforme des services numériques : l’accessibilité mobile de toute information ou tout service gouvernemental (anywhere, anytime, on any device), la création de services à la fois sécurisés et adaptés aux usages numériques ; ainsi que l’amélioration du service rendu aux citoyens (where every man feels that he is a participator in the government of affairs). Pour mettre en œuvre ces trois objectifs, l’administration est supposée faire « mieux avec moins », préférer des technologies dites « légères », des programmes d’action transversaux et coordonnés par des « intrapreneurs ».

Il est intéressant de noter qu’entre Tim O’Reilly et l’administration américaine enjointe à se réformer, il y a déjà de petits décalages : l’activation d’une offre et d’une demande par une plateforme technique et la focalisation sur la résolution collective de « problèmes publics » a cédé la place à une approche informationnelle, dans laquelle une couche infrastructurelle, incluant tous les systèmes et processus d’information (pêle-mêle données administratives, sondages, tweets ou articles de presse) permet à l’administration de veiller, de détecter, de vérifier et de transmettre des informations fiables aux citoyens.

Pour le dire en des termes anachroniques, la stratégie numérique du gouvernement était déjà orientée vers ce que nous appelons désormais les fake news et la responsabilité du gouvernement en matière de la circulation de l’information, là où Tim O’Reilly promouvait un expérimentalisme politique, familier de la tradition politique américaine, et ici largement colorié du « solutionnisme technologique » qu’Evegeny Morozov dénoncera quelques années plus tard6.

Ceci étant posé, comment mesurer la différence entre des abords conceptuels « français » et « nord-américains » ? Notons d’abord que la différence n’a pas échappé à Henri Verdier et Nicolas Colin. Ils attribuent la genèse étasunienne du mot d’ordre (et donc le « retard » européen et français) à une divergence dans la conception de l’État : « Il n’est pas étonnant que ce type d’attitude soit né plus rapidement aux États-Unis qu’en Europe. Comme le souligne[nt Michael Hardt et] Antonio Negri, il existe une nette différence entre la représentation européenne de l’État, perçu comme un souverain — quasiment transcendant, en tout cas surplombant la société — et la représentation américaine, où l’État est plus immanent et vu comme un dispositif équilibrant les différentes forces de la société7 ».

Autrement dit, c’est en considérant cette inclination historique nord-américaine à faire de l’État non pas la gigantesque entité métaphysique européenne, mais l’un des groupes secondaires d’une société politique faite de différents corps, le gouvernement, qu’ils auraient traduit « government as a platform » en « État plateforme ».

Outre cette différence dans l’interprétation de l’héritage contractualiste postulée par les importateurs du terme, il me semble qu’il y a sans doute plus de similitudes entre les significations dogmatiques et administratives de part et d’autre de l’Atlantique, qu’entre des significations proprement étasuniennes et françaises. Par exemple, l’État plateforme de L’Âge de la multitude et le « government as a platform » de l’article de Tim O’Reilly partagent l’ambition de créer « des services publics sans administrations, auto-organisés par des communautés de citoyens 8» ; la visée de démonopolisation n’est reprise ni par le livre blanc du gouvernement américain ni par les documents stratégiques sur la modernisation de l’État en France. De même, l’orientation vers la visibilité des problèmes administratifs et l’appel aux compétences de la multitude est largement gommée dans les documents stratégiques des administrations françaises et étasuniennes, aux prises avec d’autres montages, par exemple les règles des marchés publics.

LVSL – Vous avez pu observer sur plusieurs années les effets directs de cette notion et de ce discours sur les divers acteurs institutionnels engagés dans la transformation numérique de l’État et de sa relation avec le public, les citoyens, les entreprises, quels aspects les plus généraux de ces évolutions retiennent le plus votre attention ?

M. A – En France, le terme d’État plateforme en effet a été repris à l’automne 2014 par la Direction interministérielle du système d’information et de communication de l’État (DISIC, aujourd’hui Direction interministérielle du numérique). Il est venu conférer un abord conceptuel en même temps que renforcer l’intention qui était celle du décret de création9 : bâtir des infrastructures communes aux systèmes d’information ministériels, permettant à la fois des échanges de données sécurisées dans des formats interopérables, l’authentification des usagers ou encore le stockage d’applications. La doctrine assemblée dans les documents stratégiques de la DISIC a servi d’appui textuel, de référence, en mettant en avant des projets antérieurs ou en arrimant de nouveaux projets à un horizon de transformation désirable.

Elle est ainsi venue conférer une place de choix à la mission d’ouverture des données publiques, Étalab, qui mettait à disposition des réutilisateurs des jeux de données administratives — par exemple sur les mesures de la qualité de l’air des directions régionales de l’environnement, le financement du cinéma français du Centre national du cinéma ou encore les modèles de prévision climatique de MétéoFrance. Elle a aussi permis de stabiliser FranceConnect, l’application d’authentification des usagers des services publics en ligne que plusieurs millions de Français utilisent désormais dans leurs démarches courantes.

Cette application de rationalisation des identités numériques, pour les gestionnaires de sites et les usagers, est adossée à API-particulier, grâce à laquelle les usagers qui le souhaitent activent le partage de données avec les administrations auprès desquelles ils entreprennent des démarches — par exemple, pour éviter de fournir une pièce justificative par courrier ou de se rendre au guichet.

On aurait pu allonger la liste, mais notons déjà que l’ouverture des données publiques, l’authentification et l’échange de données grâce à API particulier (et son pendant, API entreprise) constituent trois matérialisations de l’État plateforme, ayant participé à stabiliser les cadres de la modernisation numérique de l’État qui sont encore les nôtres à un moment où l’expression a largement perdu de son attrait et n’est plus que prononcée du bout des lèvres à la Direction interministérielle du numérique.

LVSL – La notion d’État-plateforme semble associée de manière générale à deux postures interprétatives, l’une critique, lisant ce terme de manière critique et associée à la volonté de renforcer les politiques d’austérité et de réduction des effectifs des services publics ; l’autre plus nuancée, voire enthousiaste, faisant de ce terme le symbole d’une amélioration et d’une fluidification des rapports entre les administrations et les citoyens, notamment à travers des initiatives de facilitation telles que France Connect. Comment percevez-vous cet antagonisme ?

M. A – L’antagonisme que vous esquissez pour l’État plateforme actualise des approches classiques de la réforme administrative de l’État ; d’un côté, la mutation et ce que Philippe Bezes et Patrick Le Lidec ont justement appelé durant la réforme de l’administration territoriale de l’État « la forme fusion »10, de l’autre l’amélioration de l’expérience administrative de l’État pour certains types de populations. Ces tensions peuvent évidemment coexister dans un même projet de transformation de l’État et au sein d’un même répertoire d’action ; cela a été le cas durant une partie de la Révision générale des politiques publiques, qui a marqué le quinquennat de Nicolas Sarkozy.

Au cours de la période où j’ai suivi l’activité quotidienne de modernisation de l’État, qui correspond plus ou moins au quinquennat socialiste, ces deux aspects étaient nettement découplés. Réduire les coûts de fonctionnement du service public ne faisait pas partie du mandat confié aux modernisateurs de l’État ; cela ne signifie pas qu’après plusieurs années de diagnostic de l’administration comme intérieur malade ou dispendieux de l’État, l’impératif de réduction des dépenses publiques n’ait pas été tellement incorporé qu’il ait continué à vivre au sein de l’État. On le voit surgir dans certaines obsessions comptables, comme les exercices de connaissances des coûts consistant à ramener les coûts des services publics à l’unité individuelle de consommation, patient ou à étudiant par exemple.

Il faut toutefois nuancer ce que j’avance, car la Direction interministérielle du numérique a progressivement repris à son compte cet impératif de réduction des coûts. Elle ne s’est pas contentée de mettre en place les infrastructures que j’évoquais précédemment, elle a promu de nouvelles manières de concevoir les services publics, visant avec les méthodes agiles un certain idéal d’amincissement. Le changement de posture consacré par une circulaire de janvier 2015 requérant de réduire « la dépense informatique annuelle de 500 à 800 millions d’euros en trois à cinq ans 11» est devenu tangible à partir du moment où cette dernière s’est dotée de son propre exercice de connaissance des coûts : le remplissage d’un tableau de bord interministériel des grands projets informatiques, lui conférant un point de vue de superviseur sur la dépense des crédits informatiques. Cette pente s’est sans doute accrue depuis.

Toutefois, le pilotage des dépenses et les grands débats autour des projets informatiques paralysés, coûteux ou controversés (par exemple, le système d’alerte et d’information des populations du ministère de l’Intérieur [SAIP] ou plus récemment l’application StopCovid) n’emportent pas nécessairement des effets sur le travail quotidien des agents. Ces derniers continuent d’ouvrir les données et les algorithmes publics, de concevoir des produits numériques, d’accompagner les administrations en portant haut l’idée de fluidité de l’expérience et de facilitation du travail administratif des usagers, sans être mécaniquement liés à l’impératif économiste qui meut par ailleurs leur administration.

LVSL – Comment la France s’insère-t-elle dans l’ambition politique de la Commission européenne de numérisation administrative et de mise en commun des données des États membres en vue d’aider la croissance technologique de la zone ?

M. A – Il ne me semble pas que l’idée de « croissance technologique » soit un moteur du partage de données, notamment parce que les aspirations du début des années 2010 autour de « l’or noir des données » et des promesses d’innovation de la multitude ont en partie été déçues et reformulées. Pour vous répondre rigoureusement, il faudrait examiner de près ce que fait la DINUM et la manière dont le Secrétariat général aux Affaires européennes et l’Ambassadeur pour le Numérique s’en font le relai auprès des instances européennes.

En revanche, l’une des ambitions promues par la France depuis plusieurs mois s’articule autour de la notion de souveraineté numérique, pensée à l’échelle d’une future zone réglementaire européenne. Il est moins question de mise en commun de données, que de la constitution d’un territoire de gouvernement européen unifié, qui obligerait les plateformes au respect d’un certain nombre de règles (en matière de modération de contenus en ligne par exemple), dont le manquement entraînerait des sanctions mieux adaptées à la taille et au caractère déterritorialisé des plateformes de services numériques. C’est du moins la cible du Digital Service Act, en cours de négociation.

LVSL – Certains observateurs semblent identifier un glissement conceptuel de la notion de « citoyen » vers la notion de « citoyen-usager » dans le processus de numérisation des services publics, adhérez-vous à cette analyse et qu’implique-t-elle selon vous ?

M. A – Vous venez là à un point fondamental, dont nous n’avons, je crois, pas fini de penser les implications. En effet, le concept classique de la modernité politico-administrative hérité de la philosophie contractualiste lie l’existence de l’État moderne au sujet politique individuel : si cet individu apparaît comme une condition de l’État, celui-ci est en retour, par la protection et les possibilités d’expression qu’il lui offre, son garant. Les sciences sociales, et la sociologie politique en particulier, ont accueilli cet héritage, en ôtant la caractérisation métaphysique et juridique à la fois de l’individu et de l’État, pour montrer au contraire leurs couches de sociologisation. On pense par exemple à la sociologie historique de Norbert Elias dans le Procès de civilisation qui est parvenue à tenir ces deux pans de transformations de la modernité politique. Dans les travaux ultérieurs comme postérieurs, l’individu existe dans son lien à l’État, essentiellement sous les traits du citoyen ; ce citoyen héritier de la Révolution française qui vote, descend dans la rue et que l’on décrypte, une fois agrégé en « opinion publique » grâce à une instrumentation sondagière.

Or, je crois en effet que l’on peut repérer dans la mise en œuvre du programme d’État plateforme et au-delà dans les recompositions liées aux services numériques un glissement, non plus vers la figure du citoyen telle qu’elle a été configurée historiquement, mais vers celle d’un citoyen-usager des services étatiques. C’est un changement repéré empiriquement par certains observateurs des relations administratives, mais ils n’avaient pas poussé l’enquête jusqu’aux lieux où ces relations entre l’État et la société politique sont conceptualisées – même faiblement – et coordonnées ; en l’espèce l’administration de la modernisation de l’État. De tels lieux n’existaient d’ailleurs sans doute pas avant une date récente. Après plusieurs années d’observation de ce terrain, il me semble qu’il s’agit moins d’un dessein idéologique, d’un projet finalisé de réforme du rapport entre l’État et la société politique repérable dans les succès du programme d’État plateforme, qu’un effet des transformations interactionnelles et scripturales précipitées par l’expansion des technologies numériques, de choix infrastructurels et des métamorphoses des savoirs de gouvernement dont le design, l’informatique et les sciences comportementales.

L’une des conséquences immédiatement repérables de ces métamorphoses porte sur la politisation. La politisation des agents modernisateurs est très nette ; elle est lisible dans leur inclination à s’emparer — y compris au corps défendant des administrations légitimes — de sujets de politiques sociales (les aides et prestations sociales, le droit du travail, l’embauche, la recherche d’emploi, etc.). Ces derniers relaient une critique virulente de la place conférée à un droit peu soucieux de ses conditions de félicité et fustigent la mise en œuvre de politiques publiques à laquelle ils reprochent leur incapacité à se déployer jusqu’aux usagers concernés.

Au nom de cet usager, et même en se faisant usagers, ils adoptent une attitude militante. Par exemple, ils reprennent, bénévolement, un simulateur de prestations sociales, fermé à la demande du ministère de la Santé et des Solidarités, continuent d’y ajouter, les soirs et les week-ends, de nouvelles aides et payent de leur poche l’achat du nom de domaine (mes-aides.org). Cette idée d’une citoyenneté d’usagers s’observe également dans certains phénomènes comme le non-recours volontaire aux droits sociaux (qui constitue une version individuelle de politisation) ou dans certaines mobilisations sociales. Je crois que nous n’avons pas encore pris la mesure de ce que porte avec lui ce phénomène et je suis convaincue de l’intérêt de tracer, par l’enquête, ces recompositions numériques.

Notes :

1 Nicolas Colin et Henri Verdier, L’Âge de la multitude. Entreprendre et innover après la révolution numérique, Paris, Armand Colin, 2012 (1ère édition).

2 Michael Hardt et Antonio Negri, Multitude, Guerre et démocratie à l’âge de l’Empire, trad. Nicolas Guilhot, Paris, La Découverte, 2004.

3 Nicolas Colin et Henri Verdier, L’Âge de la multitude. Entreprendre et innover après la révolution numérique, ; ris, Armand Colin, 2012 (2e édition), p. 246.

4 Plus précisément, la première mention de cette formule par Tim O’Reilly remonte au printemps 2009 et a été présentée au public début septembre de la même année lors du sommet Gov 2.0 à Washington D.C., puis dans un billet publié sur le site d’information spécialisé dans l’innovation numérique TechCrunch. Tim O’Reilly, « Gov 2.0: It’s all about the platform, Techcrunch », 4 septembre 2009, en ligne : https://techcrunch.com/2009/09/04/gov-20-its-all-about-the-platform/?guccounter=1. L’argumentaire est repris et déployé dans un article qui deviendra une référence : Tim O’Reilly, “Government as a Platform”, Innovations, vol. 6, no 1, 2011, p. 13-40.

5 Maison blanche, “Digital Government: Building a 21st-century Platform to Better Serve the American People”, Washington, DC, 23 May 2012

6 Evegeny Morozov, To save everything, click here: The folly of technological solutionism. New-York, Public Affairs, 2013.

7 Nicolas Colin et Henri Verdier, L’Âge de la multitude. Entreprendre et innover après la révolution numériqueParis, Armand Colin, 2012 (2e édition), p. 243.

8 Idem, p. 254.

9 Décret n° 2011-193 du 21 février 2011 portant création d’une direction interministérielle des systèmes d’information et de communication de l’Etat ; puis article 5 du décret n° 2015-1165 du 21 septembre 2015 relatif au secrétariat général pour la modernisation de l’action publique.

10 Philippe Bezes et Patrick Le Lidec, « Politiques de la fusion. Les nouvelles frontières de l’État territorial », Revue française de science politique, vol. 66, no. 3-4, 2016, pp. 507-541.

11 Circulaire no5764/SG du 20 janvier 2015

Cyber-colonialisme : comment le régime de techno-surveillance chinois s’impose au Zimbabwe

© 人民日报

Les technologies de surveillance chinoises semblent avoir séduit les chefs politiques de nombreux pays africains, à l’instar du président du Zimbabwe, Emmerson Mnangagwa. Déjà largement implantés à l’échelle nationale en Chine, les logiciels numériques chinois répondent à des objectifs politiques définis : le contrôle d’Internet, la surveillance des comportements des utilisateurs, l’installation de caméras de surveillance dans l’espace public, le déploiement des systèmes de reconnaissance faciale. Ils se diffusent hors du pays et tiennent la dragée haute face aux technologies américaines, conquérant des parts de marché aux dépens de ces dernières. L’Afrique, nouveau terrain de jeu des deux grandes puissances mondiales dans leur entreprise de conquête numérique ?

AMBITIONS CHINOISES

Rarement un gouvernement aura montré autant de détermination que la Chine dans sa volonté de faire de son pays la « cyber-superpuissance » du XXIème siècle. Cette quête s’inscrit dans un objectif de perfectionnement des technologies à l’échelle nationale, notamment à des fins de surveillance et de censure.

Qui n’a pas entendu parler de Shenzhen, la Silicon Valley chinoise ? Située au Sud-Est de la Chine, elle constitue l’une des villes les plus riches et développées du pays. Pour les hackers et les entrepreneurs, ce lieu où foisonnent grandes entreprises technologiques et startups désigne le pôle des industries de pointe.

Comment expliquer le développement exceptionnel de la tech chinoise au cours des dix dernières années ? Il y a évidemment les investissements massifs de l’État central qui a subventionné et encouragé les projets informatiques de son choix. Mais le phénomène s’explique aussi par le perfectionnement rapide des logiciels, dont les erreurs et bugs ont été détectés et corrigés rapidement, grâce à leur utilisation quotidienne sur les citoyens chinois. En effet, ces logiciels reposent presque systématiquement sur les technologies de l’intelligence artificielle (IA), dont la qualité s’acquiert par la récolte de données fournies par un maximum de personnes.

En testant ses logiciels sur ses propres citoyens, la Chine s’est donné les moyens d’atteindre son objectif de leader mondial des technologies de surveillance.

Parmi les projets étroitement liés au gouvernement, l’entreprise chinoise CloudWalk qui s’est longtemps faite discrète, mérite pourtant une attention particulière. Fondée en 2015, elle a mis en place un système de reconnaissance faciale ultra-performant, actuellement exploité par la Banque de Chine et les services de sécurité gouvernementaux chinois. CloudWalk a notamment joué un rôle central dans la mise en œuvre de la surveillance de masse et la répression de la population ouïghour. Cette technologie de surveillance très sophistiquée a été l’objet de nombreuses critiques de la part des groupes de défense des droits de l’Homme et de certains gouvernements.

Eric Schmidt, PDG de Google de 2001 à 2011, se dit convaincu d’une scission d’Internet entre deux camps et affirme que « le scénario le plus probable dans les dix à quinze prochaines années n’est pas un éclatement d’Internet, mais une bifurcation entre un Internet dirigé par les Chinois et un Internet non chinois, dirigé par les États-Unis ».

Utilisée jusque-là exclusivement sur les Chinois, les technologies de CloudWalk présentaient à ce stade un défaut majeur : le système de reconnaissance faciale produisait des erreurs et dysfonctionnements sur les personnes de couleur noire[1]. En 2018, une solution au problème est trouvée. La Chine conclut un accord inédit avec le Zimbabwe, lui accordant le droit d’utiliser les technologies de reconnaissance faciale développées par l’entreprise CloudWalk. Double victoire stratégique pour la Chine qui, tout en perfectionnant ses technologies de reconnaissance faciale par l’élargissant des expérimentations sur des personnes de couleur noire, se garantit l’acquisition de parts de marché considérables à l’international.

LE ZIMBABWE, SÉDUIT PAR LE MODÈLE CHINOIS

Mettre en place une base de données nationale à l’aide de la reconnaissance faciale, voici la mission donnée par le gouvernement zimbabwéen à l’entreprise chinoise CloudWalk. En 2017, le Zimbabwe s’était déjà équipé de caméras de surveillance en concluant un accord commercial avec l’entreprise chinoise Hikvision. Depuis l’installation de ces infrastructures numériques, le pays a progressivement introduit son programme de reconnaissance faciale.

Au cours de la dernière élection présidentielle de 2018, les médias locaux ont notamment exprimé leurs inquiétudes au sujet de la collecte par l’État des données biométriques de certains citoyens dans le cadre du processus de votation[2]. Alors qu’il suffisait auparavant de présenter sa carte d’identité indiquant son nom, numéro d’identité, lieu et date de naissance, les autorités ont dès lors exigé que certains citoyens fournissent photo, empreinte digitale et lieu de résidence et qu’ils les entrent dans une base de données numérique. Dans le cas où ces derniers refusaient, ceux-ci étaient menacés d’être temporairement déchus de leur droit de vote. L’apparition de cette nouvelle pratique, qui n’a concerné qu’une partie de la population, a interpellé les journalistes zimbabwéens qui ont aussitôt dénoncé le manque de transparence des politiques mises en œuvre par le gouvernement.

Difficile de prévoir précisément dans quelle mesure les gouvernements autour du globe intégreront les nouvelles technologies à leur gamme d’outils politiques dans les décennies à venir. Néanmoins, certains chercheurs, parmi lesquels Steven Feldstein, se sont déjà penchés sur la question du potentiel répressif des technologies de l’IA par les régimes autoritaires. Tirant ses observations de l’usage des nouvelles technologies de surveillance en Malaisie et à Singapour, Steven Feldstein conceptualise les logiques de la répression digitale. Dans son article « How Artificial Intelligence Is Reshaping Repression », il en présente les principaux atouts[3]. Avant l’ère du numérique, explique-t-il, la répression dépendait intégralement du soutien des forces de sécurité de l’État pour l’instauration de mesures coercitives. Ceci présente deux défauts majeurs pour le pouvoir en place. Premièrement, ce type de répression est coûteux et nécessite une main-d’œuvre importante. Les coûts d’entretien et de formation des forces de sécurité de l’État sont en effet censés augmenter au fil des années. Deuxièmement, l’armement des forces de sécurité conduit à un problème dit de « principal-agent » : les ressources qui permettent au régime de réprimer son opposition peuvent également être utilisées par l’opposition contre le régime lui-même. En effet, un régime ne peut jamais être certain que les armes qu’il met à disposition des forces armées ne seront pas un jour utilisées contre le régime lui-même, lors d’une insurrection.

Les atouts de la mise en œuvre d’une répression digitale ne font à ce stade plus aucun doute. Celle-ci permet une réduction drastique des coûts car l’entretien des infrastructures numériques est à long terme bien moins coûteux que le financement d’une armée qui nécessite du personnel et un encadrement. Enfin, la répression digitale conduit à une diminution des possibilités de révolte ou d’insurrection par l’armée ou les citoyens car les voix dissidentes seront, grâce au système, immédiatement identifiées.

Steven Feldstein présage que les armées d’autrefois seront bientôt remplacées par une poignée d’informaticiens et l’essentiel du travail délégué aux technologies de l’IA.

Steven Feldstein offre également un aperçu historique des processus politiques ayant conduit à la destitution des autocrates au cours du siècle dernier. Si jusque dans les années 1990, les putschs représentaient le mode principal de destitution des autocrates, la situation a changé. La majorité des destitutions sont désormais le résultat de révoltes populaires ou de défaites électorales. Pour Steven Feldstein, la stratégie à choisir par les politiciens souhaitant s’accrocher au pouvoir est évidente : il s’agit de « rediriger les ressources pour garder le contrôle sur les mouvements civiques et perfectionner le truquage des élections, domaines dans lesquels l’IA présente un avantage crucial ». En effet, la répression digitale a l’unique atout de permettre la surveillance des citoyens, l’identification les mouvements de la société civile, l’influence sur le débat public et les élections tant à l’échelle locale que nationale.

En modifiant les efforts, les coûts et l’efficacité des mesures répressives pour les États autoritaires, les innovations dans le domaine des nouvelles technologies bousculent et menacent de métamorphoser les stratégies répressives traditionnelles. Un scénario qui laisse redouter un avenir peu rose pour la démocratie au Zimbabwe.

ÉQUILIBRES MONDIAUX À L’ÈRE DU NUMÉRIQUE

Les GAFAM et les BATX sont les empires de l’ère numérique. Derrière ces deux acronymes se cache le nom des compagnies de la tech les plus puissantes au monde. Leur prédominance sur le marché mondial procure aux États-Unis et à la Chine un atout majeur et déterminant pour la géopolitique internationale des décennies à venir. Alors que les États-Unis et la Chine forment déjà un duopole à l’échelle mondiale de par la taille de leurs économies, les autres pays n’ont pas su s’adapter aussi rapidement à la révolution technologique et ont pris du retard dans la course au numérique.

Du côté des États-Unis, les relations entre les GAFAM et le gouvernement élu sont encadrées par la loi américaine qui leur garantit une certaine indépendance vis-à-vis du pouvoir politique. Pourtant des scandales tels que celui de Cambridge Analytica ou des révélations de Snowden au sujet de la coopération entre les GAFA et la NSA ont montré les failles du système et la possibilité d’ingérences politiques diverses

L’Union européenne cherche inlassablement à émettre de nouvelles régulations pour encadrer les activités des « géants du numérique », mais est mise à mal par des divisions idéologiques entre États membres. Nicolas Miailhe, chercheur à l’Université de Harvard, a développé le concept de « cyber-vassalisation » pour décrire une situation dans laquelle l’Union européenne devrait dépendre d’alliances stratégiques avec les États-Unis ou la Chine pour continuer à bénéficier des services numériques de leurs firmes[4]. Il emploie le terme de « cyber-colonisation ». pour le continent africain, qu’il perçoit comme le terrain d’affrontement actuel entre les ambitions digitales impérialistes américaines et chinoises. Nombreux sont ceux qui prédisent un retour à une « logique de blocs » comme celle qui a caractérisé la Guerre Froide.

Eric Schmidt, PDG de Google de 2001 à 2011, se dit convaincu d’une scission d’Internet entre deux camps et affirme que « le scénario le plus probable dans les dix à quinze prochaines années n’est pas un éclatement d’Internet, mais une bifurcation entre un Internet dirigé par les Chinois et un Internet non chinois, dirigé par les États-Unis ».

LE NUMÉRIQUE, NOUVEL INSTRUMENT GÉOPOLITIQUE

Du côté des États-Unis, les relations entre les GAFAM et le gouvernement élu sont encadrées par la loi américaine qui leur garantit une certaine indépendance vis-à-vis du pouvoir politique. Pourtant des scandales tels que celui de Cambridge Analytica ou des révélations de Snowden au sujet de la coopération entre les GAFA et la NSA ont montré les failles du système et la possibilité d’ingérences politiques diverses. De plus, ce pouvoir étant entre les mains d’une poignée de PDG, les pays dépendants des services des GAFAM ont de quoi être inquiets. Les États dont l’économie sera tributaire des technologies fournies par ces acteurs privés américains n’auront d’autre choix que de dépendre du bon vouloir de ceux-ci.

Du côté de la Chine, au-delà des ambitions économiques des BATX, c’est le modèle politique du Parti Communiste chinois (PCC) qui est relayé. Comme le suggère Julien Nocetti, chercheur à l’Institut Français de Relations Internationales (IFRI) : « Les géants nationaux du numérique que sont les BATX servent d’instruments de légitimation de la gouvernance du Parti et de puissants relais à l’influence et aux ambitions de Pékin[5]».

La police chinoise a recours à Tencent pour surveiller les manifestations et Alibaba aide les municipalités pour la gestion du trafic routier. Deux exemples qui en disent long sur les liens qu’entretiennent les compagnies de la tech chinoises avec la politique[6].

Autant pour les GAFA que pour les BATX, il semble illusoire de penser aux entreprises de la tech indépendamment de leur relation avec le politique. Le contrôle politique effectué sur les entreprises chinoises diffère évidemment de celui exercé sur les entreprises américaines en termes d’ampleur, de stratégies et d’intentions. Néanmoins, comme le souligne Benjamin Bayart, militant pour les libertés fondamentales sur le net et président du Fond de Défense de la Neutralité du Net (FDN), « il serait aberrant de croire qu’il n’y a pas de contrôle politique des GAFAM. Le mode de fonctionnement de ce contrôle politique n’est pas le même car il se fait par le business et par l’argent plutôt que par le Parti Communiste chinois. Partout il existe une volonté politique d’empêcher qu’Internet soit un lieu d’émancipation[7] ».

Les GAFAM et les BATX doivent donc être perçus comme de puissants instruments politiques qui s’intègrent pleinement dans les stratégies géopolitiques chinoises et américaines. Déployer ses entreprises informatiques dans le monde afin de récupérer un maximum de parts de marché et de données semble donc être le nouvel outil de puissance. Ceci laisse donc présager le pire pour le futur des États africains qui connaissent une implantation majeure des entreprises américaines et chinoises tout en ayant un faible cadre législatif régulant les activités de celles-ci sur le territoire.

Peut-on parler de cyber-colonialisme ? Ce concept implique qu’il existe un État, ou bien un empire colonisateur. Pour savoir si tel est le cas, il convient de se demander s’il est pertinent de comparer les géants du numérique à des empires. La réponse est positive, selon Nicolas Miailhe. Les GAFAM et les BATX répondent aux trois traits principaux qui caractérisent les empires: 1) un pouvoir exercé sur un large territoire ; 2) une inégalité relative entre le pouvoir central et les « régions » administrées, souvent associée à une volonté d’expansion ; 3) la mise en œuvre d’un projet politique à travers différentes formes d’influence (économique, institutionnelle et idéologique). Les technologies numériques développées par les « empires digitaux», sous l’influence et le contrôle de leurs pays respectifs, accentuent et accélèrent la dynamique historique habituelle dans laquelle les innovations technologiques et le pouvoir se renforcent mutuellement.

L’AFRIQUE: TERRAIN DE CHASSE DE L’EMPIRE DIGITAL CHINOIS

Depuis 2013, la Chine est devenue le premier partenaire commercial de l’Afrique. Dans le domaine numérique, nombreux sont les États africains ayant noué des partenariats commerciaux déséquilibrés avec la Chine.

La Chine a tout à gagner à fournir des licences d’accès à ses technologies de surveillance à des pays étrangers. D’une part, il s’agit d’une manne financière pour ses entrepreneurs et d’autre part, cela garantit à la Chine un réseau d’alliés géopolitiques à long terme.

Comme le suggère Nicolas Miailhe, « la Chine exporte massivement en Afrique – en finançant tout aussi massivement – ses solutions, ses technologies, ses standards, et le modèle de société qui va avec ». Nombreux sont les entrepreneurs et hommes d’affaires qui rêvent de l’Afrique, relativement moins dotée en infrastructures numériques que les autres continents. Parallèlement aux projets infrastructurels chinois, il est à noter que les entreprises américaines Facebook et Google se sont aussi récemment lancées dans une course pour câbler l’Afrique et lui permettre d’avoir accès à du haut débit[8].

Les technologies numériques sont loin d’être des produits neutres et beaucoup s’interrogent sur les motivations réelles de la Chine. En effet, comme défendu par Dominique Cardon, sociologue du numérique, les algorithmes ne sont pas de simples méthodes de calcul mathématiques dénuées de sens et de subjectivité. Ils véhiculent des significations, des normes et sont pleinement des outils politiques, reflétant les intérêts de leurs concepteurs. Steven Feldstein, chercheur qui écrit régulièrement pour le Journal of Democracy, alerte notamment sur le levier politique que représentent les nouvelles technologies pour la République chinoise.

Il explique au sujet de l’Afrique « qu’à mesure que les gouvernements deviennent dépendants de la technologie chinoise pour contrôler leurs populations, ils ressentiront une pression croissante de devoir aligner leurs politiques sur les intérêts stratégiques de la République populaire de Chine ».

La Chine a tout à gagner à fournir des licences d’accès à ses technologies de surveillance à des pays étrangers. D’une part, il s’agit d’une manne financière pour ses entrepreneurs et d’autre part, cela garantit à la Chine un réseau d’alliés géopolitiques à long terme. La démarche chinoise qui consiste à placer des États dans une claire relation de dépendance, s’apparente à une forme de colonisation à l’ère du numérique ; elle a pour nom le cyber-colonialisme.

[1]« Reconnaissance faciale : quand le Zimbabwe vend le visage de ses citoyens », Jaques Deveaux, France Info, 03.08.2018

[2]« How Zimbabwe’s biometric ID scheme (and China’s AI aspirations) threw a wrench into the 2018 election » , Global Voices, Kudzai Chimhangwa, 30/01/20.

[3]Feldstein, S. (2019) « The Road to Digital Unfreedom: How Artificial Intelligence is Reshaping Repression », Journal of Democracy, Vol. 30(1), 40-52

[4] Miailhe, N. (2018) « Géopolitique de l’intelligence artificielle : Le retour des Empires ? », Politique étrangère, 3.

[5] Nocetti, T. (2018) « La Chine, superpuissance numérique ? Un nouveau champ de compétition et d’affrontement », Les chocs du futur Institut français des relations internationales, 124-129.

[6] Cook, S. (2018) « Tech firms are boosting China’s cyber power ». The Diplomat.

[7] « Faut-il avoir peur des GAFA chinois ? » France culture, Du Grain à moudre, Hervé Gardette, 28/11/2018

[8] « La guerre sous-marine de Google et Facebook pour câbler l’Afrique », Africa Intelligence, 08.10.2020

La cyberguerre : rivalités et enjeux de la « gouvernance » d’internet

https://www.flickr.com/photos/statephotos/5449329376/in/photostream/
Hillary Clinton prononce un discours sur la liberté de l’internet, le 15 février 2011. © US Secretary of State

La cyberguerre n’est pas qu’une affaire de hackers. Firmes transnationales et gouvernements collaborent ou s’affrontent pour définir le modèle de gouvernance de l’internet et imposer leur vision. Quelle est la cohérence entre les intérêts américains et la doctrine de l’ “internet freedom”? Les institutions actuelles sont-elles légitimes ? Sont-elles utiles à des stratégies hégémoniques ou contre-hégémoniques ? Et surtout, quel contrôle les États peuvent-ils prétendre exercer sur les flux informationnels qui traversent leurs frontières ? Derrière ces questions figurent des enjeux globaux, parmi les plus critiques du 21ème siècle, au sujet desquels l’ouvrage de S. Powers et M. Jablonski, The Real Cyber War (2015) offre un éclairage précieux et plus que jamais d’actualité.


À quoi ressemble la « vraie » cyberguerre ?

Le terme « cyberguerre » est contesté et difficile à définir. Dans l’esprit du profane ou de l’expert, il renvoie souvent au recours à des lignes de codes malveillantes, destinées à perturber le fonctionnement normal de l’adversaire. De fait, le cyberespace s’est militarisé : la littérature stratégique et militaire le considère désormais comme un lieu d’affrontement à part entière entre de nombreux acteurs – pas uniquement étatiques. Il est dit qu’il s’y déroule, en somme, « une guerre par, pour et contre l’information », correspondant au triptyque : subversion, espionnage et sabotage. [1]

Mais c’est de tout autre chose dont parlent Shawn Powers et Michael Jablonski. Le cyberespace, colossal vecteur d’information, suscite des convoitises, donc des rivalités et des luttes d’influence, qui vont bien au-delà du hacking et des opérations militaires dans le cyberespace. En témoignent par exemple les efforts des entreprises des technologies de l’information et de la communication (TIC), pour influencer la gouvernance de l’internet et la définition de certaines normes, qui ne sont techniques qu’en apparence. Aux États-Unis, la remarquable symbiose entre l’agenda de ce secteur privé et celui des départements américains d’État et du Commerce indique, si cela était nécessaire, que les pouvoirs étatiques sont de la partie.

C’est pourquoi il serait bon de se détacher de l’approche belliciste habituelle afin d’élargir notre horizon. C’est tout l’intérêt de la perspective de Powers et Jablonski. La « vraie cyber guerre » qu’ils décrivent n’a pas lieu devant des ordinateurs, mais dans les couloirs des chancelleries, des institutions internationales, et des firmes transnationales. Elle ne vise pas à rendre hors service des sites internet, mais à peser dans la définition des normes techniques, politiques et même philosophiques et morales relatives à l’internet et ses usages. Les enjeux économiques et géopolitiques – que les auteurs s’attachent à décrire avec précision – sont colossaux. D’où les importants efforts que chaque acteur déploie, à la hauteur de ses moyens, pour peser dans ce petit monde.

« Les américains  (…) ont considéré le Congrès mondial sur les technologies de l’information comme un champ de bataille crucial pour le futur de la gouvernance d’internet, et comme une menace pour les intérêts économiques américains. »

Ainsi, le livre entend révéler « comment les politiques d’internet et de gouvernance sont devenues les hauts lieux d’une compétition géopolitique entre grands acteurs internationaux et dont le résultat façonnera l’action publique, la diplomatie, et les conflits du 21ème siècle ». L’occasion pour Powers et Jablonski de revenir sur les acteurs de ce jeu d’influence et de compétition, où les États continuent de jouer un rôle primordial, bien que rapidement secondés par le secteur privé, regroupant des entreprises du secteur des TIC et des communications internationales. Les GAFAM (un chapitre est notamment consacré à Google) sont évidemment importants, mais ils n’occultent pas le rôle majeur d’autres entreprises de services numériques, moins médiatisées : AT&T, Cisco ou Verizon, pour ne citer qu’elles. Diverses organisations de droit international ou organisations privées à « gouvernance multipartite » (Multistakeholder governance) sont enfin présentées en détails. Elles constituent, en effet, le point nodal de cette « vraie cyber guerre » ; le lieu de matérialisation des tensions sous-jacentes et de mécanismes discrets de domination.

Les auteurs s’attachent, par ailleurs, à décrire les méthodes, stratégies et ambitions de ces réseaux d’acteurs. La légitimation du processus de prise de décision par un mode de gouvernance présenté comme inclusif, transparent et ouvert à tous ; une rhétorique imparable qui promet simultanément un formidable développement économique, le renforcement des droits humains et la propagation de la démocratie ; des projets de développement généreux et en apparence désintéressés… Autant d’éléments qui nécessitent d’être analysés et contextualisés. On appréciera, au passage, la minutie et le sérieux des auteurs : il n’est nulle part question de croisade anti-GAFAM ou de pourfendre l’hégémon américain. On trouve simplement les outils nécessaires pour faire la part des choses et déchiffrer cet univers complexe. La démarche est salutaire quand les protagonistes dominants ont plutôt tendance à présenter une vision prescriptive et « personnelle » des choses.

À l’opposé, on trouve les pays en développement et les économies émergentes : Russie, Chine, des pays d’Amérique latine ou d’Afrique… Nombreux sont les gouvernements qui ne se satisfont pas du statu quo. Sont notamment décrites dans le livre, la dégradation des « termes de l’échange » à la suite du bouleversement économique d’internet, et la perception d’une forte domination occidentale – et à plus forte raison américaine – dans la gouvernance d’internet. Désireux de procéder à un rééquilibrage politique et économique et soucieux d’exercer comme ils l’entendent leur souveraineté sur les flux informationnels, ces pays trouvent dans les institutions internationales et les sommets internationaux des arènes pour exprimer leurs inquiétudes et organiser leurs efforts.

La démonstration du livre, d’une grande efficacité, sert une conclusion simple : « La vraie cyber guerre ne concerne pas les capacités offensives ou de cybersécurité, mais plutôt la légitimation d’institutions et de normes existantes qui gouvernent l’industrie de l’internet, afin d’assurer sa domination du marché et sa profitabilité. »

La doctrine de l’« internet freedom » : arguments et intérêts sous-jacents

Tout part d’un discours d’Hillary Clinton [2], dans lequel l’ancienne secrétaire d’Etat américaine dévoile la doctrine de la liberté d’internet (internet freedom doctrine). Elle appelle à une libre circulation de l’information (free flow of information) et à une « liberté de se connecter » (freedom to connect) universelle : l’accès à internet devrait être un droit fondamental et reconnu par tous.

Assurément, les Américains aiment leur « freedom ». Le verbatim du discours et des questions-réponses montre que le terme est prononcé cinquante-deux fois en une heure ! Mais cet agenda de la liberté d’internet a une manière bien singulière de présenter la chose. 1. L’information a tendance à être assimilée à un bien économique, monnayable et échangeable. Évidemment, ce cadrage consacre le modèle économique d’internet, fondé sur le captage, l’échange et d’analyse d’immenses quantités de données personnelles. Mais une telle perspective tend aussi à réduire la légitimité des politiques publiques qui viseraient à en contrôler le flux. L’issue du débat sur la liberté de l’internet pourrait donc jouer un rôle déterminant dans le traitement des flux d’information numérique par les États, et dans la définition du degré de contrôle jugé légitime, voire légal, au regard du droit international ou du commerce. 2. Internet est comparé à un « espace public ». Ainsi présenté, la surveillance y pose beaucoup moins de problèmes éthiques et juridiques que si internet était considéré comme un espace privé. Cette doctrine et les termes associés (internet freedom, mais aussi freedom-to-connect et connectivity) méritaient donc bien une analyse plus approfondie.

De l’intérêt d’une approche géopolitique : l’information comme un bien et comme une ressource

Des intérêts économiques, certes. Mais géopolitiques ? Le mot est souvent utilisé abusivement, et plusieurs experts s’en méfient, au point qu’on entend dire que « la géopolitique n’existe plus »[3]. On ne saurait pleinement souscrire à cette lecture ; d’ailleurs il existe bien une géopolitique de l’internet, ne serait-ce que par l’ancrage territorial des serveurs ou des câbles sous-marins. Si l’on s’en tient à la définition traditionnelle de la « géopolitique », rappelée par les auteurs, il s’agit d’une méthode d’étude de la politique étrangère s’intéressant aux effets de la géographie, donc des espaces physiques. Créée en réaction à une approche considérée comme excessivement légaliste, elle insiste notamment sur le poids des ressources dans la compétition entre États.

Or, l’hypothèse initiale des auteurs, reprenant la vision de l’historien de la communication Dan Schiller, est celle d’une information entendue comme un bien (commodity) mais aussi comme une ressource. Dès lors, les politiques étatiques relatives à l’internet peuvent être abordées comme une lutte pour le contrôle de ressources d’un genre nouveau. Ce cadre théorique permet de dépasser les questions liées aux effets sociaux, culturels, économiques ou politiques de l’internet. À la place, on s’interroge ici sur les motivations réelles des politiques étatiques relatives à l’internet, en termes de compétition internationale pour des ressources.

« Le soutien du gouvernement américain fut déterminant dans la création, l’adoption, et la structuration de l’internet, ainsi que dans l’intégration des technologies de l’information dans l’économie globale. »

De ce point de vue, la liberté de l’information (information freedom), la libre circulation de l’information (free flow of information), ou encore les partenariats multi-acteurs (multistakeholderism) constituent le socle d’une rhétorique et d’une stratégie qui contribuent au maintien d’un statu quo, bénéficiant à quelques acteurs acteurs dominants.

Une telle rhétorique déforme les aspects intrinsèquement politiques et économiques de l’information. Présenter la libre circulation de l’information comme une opportunité immense de développement économique, et lui prêter un pouvoir naturel de démocratisation, permet de dévier l’attention d’autres sujets.

Des gains économiques… pour qui ?

Quels sont les arguments économiques mis en avant ? L’internet est présenté comme un « grand égalisateur » (great equalizer), qui va permettre aux pays en développement de combler leur retard avec les pays occidentaux. Ce discours s’inscrit dans une perspective que Vincent Mosco, professeur émérite de communication, qualifie de « néodéveloppementaliste ». Elle postule que la dissémination des TIC permettra d’accélérer le développement et l’intégration économique des pays en développement et d’y développer des économies de marché robustes et performantes. Les auteurs rappellent que cet ancrage théorique est difficile à départager de considérations stratégiques et économiques. À grands renforts d’exemples de décorrélation entre croissance, richesse, et connectivité internet, ils montrent d’ailleurs que ces postulats sont empiriquement contestables.

On ne saurait reprocher aux pays occidentaux et à leurs entreprises de diffuser l’accès à internet et de construire les infrastructures nécessaires dans les pays en développement, quelles que puissent en être les raisons. Mais des travaux comme ceux de l’économiste Eli Noam suggèrent que l’élargissement de la connectivité pourrait en fait accentuer les écarts de richesses. Il anticipe par exemple qu’à peine huit pays dans le monde pourraient bientôt concentrer jusqu’à 80% de la production de contenus numériques.[4] Quand un pays pauvre, peu doté en infrastructures, bénéficie de programmes d’aide qui lui permettent d’accéder à internet, sa population – le peu qui peut se le permettre – devient consommatrice, et non productrice, des services numériques et des contenus médiatiques proposés par des entreprises occidentales.

Or, justement, ces programmes, prêts et autres projets occidentaux, notamment américains, en matière de connectivité et d’infrastructures liées à l’internet, sont souvent conditionnés à des mesures de dérégulation, de privatisation et d’ouverture des marchés nationaux. Les entreprises américaines accèdent ainsi à ces marchés étrangers, d’autant plus aisément avec la notoriété et les fonds propres dont elles disposent. Les économies d’échelle, les effets de réseau, l’existence d’une masse critique d’utilisateurs, sont autant d’éléments, bien connus en science économique, qui facilitent encore cette implantation. Ils font en revanche cruellement défaut aux acteurs locaux et nouveaux entrants, qui font face à de fortes barrières à l’entrée. Les quelques concurrents qui parviennent malgré tout à se développer sont souvent rachetés. [5]

« Il y a un principe sur lequel les responsables politiques, l’industrie, et les acteurs de la sociÉté civile, sont tous d’accord : l’internet global et déréglementé est une bonne affaire pour l’économie américaine. »

En matière de communications internationales, la détérioration des termes de l’échange suite à l’apparition de l’internet a été fort défavorable aux pays en développement. De telle sorte que l’anecdote de l’artisan africain ou sud-asiatique qui parvient à développer son activité grâce au e-commerce est un peu l’arbre qui cache la forêt. En effet, jusqu’à quelques décennies en arrière, les pays en développement, comme les autres, bénéficiaient des normes de l’Union internationale des télécommunications (UIT).

Rattachée aux Nations unies en 1947, l’UIT fut, au cours du 20ème siècle, le principal mécanisme de coordination des coûts et bénéfices liés aux communications internationales. Le prix de tel service, payé par tel acteur à tel autre : tout cela était relativement clair et fixé par le Règlement des télécommunications internationales (RTI) de l’UIT. Cette régulation garantissait un contexte international stable pour la croissance et l’activité économique dans le domaine des télécommunications. Les acteurs économiques locaux et nationaux continuaient de dominer leur marché.

Mais le développement d’internet et des « internet-based services », qui échappent à ces règles de l’UIT, ont bouleversé cet équilibre. Un appel Skype de la Turquie vers l’Allemagne, par exemple, permet de contourner l’opérateur téléphonique turc qui était jusqu’alors sollicité. On perçoit mieux la nature des frictions qui peuvent exister lieu au sein de l’UIT. Lors du sommet de Dubaï en 2012, l’une des grandes questions était ainsi de savoir si le terme de « télécommunications » devait ou non inclure les flux d’information transitant par internet.

Une réponse positive aurait signifié que ces services seraient soumis aux régulations prévues par l’UIT, contrariant la position dominante de certaines entreprises occidentales. Les négociations concernaient aussi l’extension du pouvoir de l’UIT à certains aspects de la gouvernance d’internet. Avec cet exemple et d’autres, Powers et Jablonski expliquent comment les pays du Sud et les économies émergentes se servent de l’UIT comme d’un outil contre-hégémonique face à un internet perçu comme dominé par les Etats-Unis.

En retour, les États-Unis ne se privent par pour saper ces revendications et façonner à leur avantage les normes internationales en matière de communications internationales. Les exemples sont nombreux. S’agissant du sommet de Dubaï de 2012, les revendications avaient été fermement dénoncées comme une tentative de « prendre le contrôle de l’internet ». L’occasion d’observer la rhétorique de l’internet freedom tourner à plein régime[6]. Robert McDowell, commissaire de la Commission fédérale des communications, avait notamment déclaré devant une commission sénatoriale : « Nous sommes en train de perdre la bataille pour la liberté de l’internet. » [7] Les tribunes publiées, le ton employé, les fonctions occupées par les auteurs : tout cela semble incarner à merveille l’état du débat et laisse voir l’étendue des enjeux économiques à la clé.

Un intérêt stratégique : la déstabilisation politique

Il se trouve une deuxième utilité à la rhétorique de la connectivité, du « free flow of information » et de la « freedom to connect ». Sans trop d’effort, ces notions sont associées au démocraties occidentales, face aux opposés symétriques que sont les pays totalitaires et censeurs qui entravent la libre circulation de l’information et des idées. Des caractéristiques fortement associées à des pays comme la Russie, la Chine, ou encore l’Iran.

En effet, à défaut de pouvoir obtenir, dans les arènes internationales, une gouvernance interétatique, ces pays comptent parmi ceux qui cherchent à développer leur propre « internet souverain » et/ou à contrôler fortement les flux entrants et sortants de leurs frontières. Car le cyberespace, en sa qualité de vecteur d’importantes quantités d’informations, suscite aussi de grandes angoisses. Les gouvernements autoritaires sont les premiers à craindre pour leur légitimité et leur stabilité.

Les États-Unis le savent : les revendications américaines pour la promotion et la diffusion d’un internet global, unique et universel vont directement à l’encontre de ces projets d’intranet. Elles sont aussi sensées faciliter l’exposition de certaines populations à des horizons démocratiques, plus désirables que leurs régimes politiques actuels. Il est même prévu d’aider activement les “cyberactivistes” et “cyberdissidents”. En pointant du doigt les intranets nationaux et les velléités de contrôle des flux informationnels, et en les assimilant purement et simplement à de la censure, cette rhétorique permet de normaliser et légitimer le statu quo de la gouvernance actuelle d’internet, qui fait figure de seul système capable de de préserver la freedom to connect.

A l’évidence, tous les États exercent leur souveraineté, et donc mettent en place des formes de contrôle ou de surveillance des flux informationnels ; les États-Unis n’y échappent pas. Le livre le rappelle en revenant notamment sur les programmes de surveillance de masse révélés par Edward Snowden ; mais aussi en montrant comment, aux États-Unis, des intranets sécurisés destinés aux administrations, à la communauté du renseignement, ou aux secteurs sensibles de l’industrie, ont tendance à s’étendre de plus en plus à d’autres secteurs civils moins sensibles.

Résumé des chapitres

Avec plusieurs exemples historiques, le premier chapitre montre comment les États-Unis, par le passé, ont façonné à leur avantage les normes internationales en matière de communication et de technologies de l’information.

Le chapitre 2 retrace l’apparition du complexe militaro-industriel aux États-Unis à partir de la seconde guerre mondiale. L’objectif est de montrer que les mécanismes gouvernementaux de stimulation de la croissance et de l’innovation à l’œuvre, s’observent également, de façon plus récente, dans le secteur industriel des technologies de l’information. Or, c’est l’occasion pour les auteurs de rappeler que l’interdépendance mutuelle ainsi créée présente des risques sur le plan économique (perte de compétitivité, décalage avec la demande réelle) et sur le plan politique (distorsion du processus de décision politique, manque de transparence).

Pour l’heure, les entreprises américaines demeurent performantes économiquement. Mais le rattrapage technologique chinois ne s’est jamais autant fait sentir qu’avec les frictions actuelles autour de la 5G. Surtout, les révélations de l’affaire Snowden sur l’espionnage de la NSA (National Security Agency) révèlent l’étendue de certaines dérives politiques et du manque de transparence en la matière, ce qui tend à donner raison aux auteurs.

Google (chapitre 3) fait l’objet d’une étude détaillée, afin d’explorer la gestion et l’exploitation les données par l’entreprise, et de rappeler sa prépondérance dans le marché de la publicité. Si Google embrasse autant les principes de l’internet freedom et de libre circulation des données, c’est certes parce que cela correspond vraisemblablement à son idéologie. Mais c’est peut-être aussi parce que l’entreprise voit d’un très mauvais œil le contrôle étatique des flux d’information. On peut même dire qu’elle les craint plus que tout.

Le modèle de régulation de l’internet a potentiellement des effets immenses sur le « business » de Google. Après tout, son modèle économique repose pour une très large partie sur la publicité ciblée, donc sur la captation et l’analyse de données personnelles. Enfin, la croissance économique de l’entreprise est notamment déterminée par sa capacité à étendre ses divers services à des utilisateurs toujours plus nombreux. De ce point de vue, Google a tout intérêt à soutenir l’internet freedom, la connectivité et la libre circulation de l’information. C’est même une question de survie et de santé économique.

De même, et plus généralement, si la politique américaine consiste à diffuser autant que possible l’accès à internet dans le monde, c’est parce que cela s’avère particulièrement favorable aux entreprises américaines. Le chapitre 4 détaille ainsi divers projets d’investissement, de construction, de transferts de compétences ou de technologies, réalisés en partenariat avec Cisco, Google, Hewlett Packard, IBM, Intel et d’autres. Ainsi, la politique internet américaine peut être résumée en deux volets inséparables : connecter un maximum d’individus à travers le monde à internet d’une part, et d’autre part maintenir le statu quo des arrangements économiques, légaux et institutionnels qui gouvernent la connectivité et les échanges en ligne.

Le chapitre 5, en passant à la loupe l’ICANN (Internet Corporation for Assigned Names and Numbers), l’ISOC (Internet Society) et l’IETF (Internet Engineering Task Force), révèle les dessous de la gouvernance multi-acteurs (multistakeholderism) et de son argument du rôle de la société civile, qui s’avère bien décevant, sinon illusoire. Plus que tout autre chose, le multistakeholderism renforce la position des acteurs dominants en légitimant les décisions qui sont prises, tandis que l’injonction à atteindre un consensus neutralise les critiques et les tentatives de changer le statu quo.

Le chapitre 6 est dédié à la souveraineté. Il rappelle ses fondements théoriques et revient sur ses liens avec les nouvelles technologies de l’information. Quatre cas d’études (Chine, Egypte, Iran, États-Unis) montrent autant de façons de contrôler l’accès à internet ou les flux informationnels. Le contrôle américain est évidemment sans commune mesure avec les autres, notamment celui de la Chine. Cependant, d’un point de vue strictement analytique, les efforts vont dans le même sens. Il est indéniable que tous les pays, démocratiques ou non, cherchent à atteindre un certain degré de contrôle de ces flux, dans le cadre de l’exercice normal de leur souveraineté. Ainsi, les stratégies chinoises et américaines, bien que culturellement spécifiques et atteignant un niveau de contrôle très différent, demeurent l’une et l’autre des stratégies de contrôle et de surveillance.

Enfin, le chapitre 7 explore les tensions et les contradictions profondes qui existent entre la doctrine de l’internet freedom et la cybersécurité, notamment en réfléchissant à l’avenir incertain de l’anonymat en ligne. En présentant l’internet comme « l’espace public du 21ème siècle », Hillary Clinton réussit le tour de force d’imposer l’idée que, sur l’internet, chaque utilisateur s’expose au regard des autres et des autorités. Le tout est habilement relié par les auteurs aux révélations d’Edward Snowden sur la NSA et de différents programmes de surveillance (PRISM, MUSCULAR, et TEMPORA), ainsi qu’à la collaboration entre Google et la NSA.

Conclusion

Finalement, dans un monde où l’information est au centre des économies modernes, les grandes questions soulevées sont celles de la légitimité des institutions qui gouvernent les flux informationnels, ainsi que de l’autorité dont disposent les États pour gérer et contrôler ces flux au sein de leurs frontières. Le livre donne une idée des désaccords profonds qui existent à cet égard. Ainsi, « la vraie cyberguerre est donc une compétition entre différentes économies politiques de la société de l’information ».

De ce point de vue, la doctrine américaine de l’internet freedom se comprend comme relevant d’un agenda spécifique. Il vise certes à relier le monde à internet, mais suivant une logique économique et géopolitique particulière, qui bénéficie disproportionnément à une poignée d’acteurs dominants. Autrement dit, cette doctrine constitue un effort de légitimation et de propagation d’une économie politique bien précise. On en revient toujours à cette question au fondement du livre : « De quelle autorité légitime les États disposent-ils pour gérer les flux d’information à l’intérieur et au sein de leur territoire souverain ? »

Le parallèle tracé avec le pétrole est intéressant : les États se sont entendus pour créer des institutions qui gouvernent cette industrie. Les normes qui en résultent, conformément à leur fonction fondamentale, permettent d’anticiper les comportements. Elles créent un contexte relativement stable qui permet une prévisibilité énergétique et l’anticipation des flux, sans quoi l’approvisionnement en pétrole générerait des tensions et des angoisses terribles. Dans une logique similaire, Shawn Powers et Michael Jablonski espèrent voir advenir une gouvernance où les États comprennent la nécessité qu’il y a à s’entendre sur ces questions. Mais on ne dispose toujours pas, sur le plan international, de réponse claire sur la façon dont les données peuvent être gérées, collectées, stockées, transférées, voire même taxées. Malheureusement, rien ne permet aux auteurs d’être optimistes au sujet de cette future gouvernance.

Ajoutons que ces questions, déjà cruciales, redoublent encore de gravité, alors que l’internet continue de se densifier et de s’installer dans nos vies, et que les flux informationnels numériques sont sur le point d’être décuplés par la 5G et l’avènement de l’internet des objets.

Shawn M. Powers & Michael Jablonski, The Real Cyber War. The Political Economy of Internet Freedom. University of Illinois Press, 2015, 272 p.

[1] Nicolas Mazzucchi (2019) La cyberconflictualité et ses évolutions, effets physiques, effets symboliques. Revue Défense Nationale, 2019/6 n°821, pp. 138-143.

Voir aussi : François-Bernard Huyghe, Olivier Kempf et Nicolas Mazzucchi, Gagner les cyberconflits, Paris, Économica, 2015.

[2] Hillary Rodham Clinton, « Remarques sur la liberté de l’internet », discours prononcé au Newseum, Washington D.C., 21 janvier 2010. [URL] : https://2009-2017.state.gov/secretary/20092013clinton/rm/2010/01/135519.htm

[3] « – […] La géopolitique n’existe plus, de toute façon.
– C’est fini !?

– Oui, complétement. D’ailleurs le sous-titre de mon prochain livre, « Intersocialité », sera « Le monde n’est plus géopolitique ». Je ne veux plus entendre parler de ce mot. Il n’a aucun sens, parce que le monde d’aujourd’hui n’est ni géo, ni politique. »

Extrait d’un entretien personnel avec Bertrand Badie, Paris, 13 juillet 2020.

[4] Eli Noam, “Overcoming the Three Digital Divides”, in Daya Thussu (éd.), International Communication: A Reader, Routledge, Londres, 2011, p.50.

[5] Voir par exemple : https://fr.wikipedia.org/wiki/Liste_des_acquisitions_de_Google

[6] Voir par exemple: Robert McDowell, “The U.N. Threat to Internet Freedom”, Wall Street Journal, February 21, 2012. Gordon Crovitz, “The U.N.’s Internet Power Grab: Leaked Documents Show a Real Threat to the International Flow of Information, Wall Street Journal, June 17, 2012.

[7]We are losing the fight for Internet Freedom.” Statement of Commissioner Robert M. McDowell before the U.S. Senate Committee on Commerce, Science, and Transportation. March 12, 2013. http://transition.fcc.gov/Daily_Releases/Daily_Business/2013/db0312/DOC-319446A1.pdf

L’État-plateforme ou la mort de l’État social : Castex et le monde d’après

©PHOTOPQR/LE PARISIEN/Fred Dugit. Paris, 19/05/2020

Alors que le gouvernement convoque les partenaires sociaux le 20 juillet pour relancer sa réforme des retraites, le sermon déjà trop bien connu sur le « trou de la Sécu » et le poids des « charges » fait son retour fracassant sur les plateaux depuis le début du déconfinement. Comprenez : la Sécurité sociale ne pourra se remettre des dépenses engendrées par la crise sanitaire, d’autant plus que la baisse d’activités provoquée par le confinement aura entraîné une baisse logique des cotisations. Le passage programmé d’un État social issu du CNR à un État-plateforme, dernière lubie idéologique libérale, poursuit encore davantage la violence infligée à un système social déjà à bout de souffle. Analyse par Léo Rosell et Simon Woillet. 


Guerre contre le Covid et chant du déshonneur

Les réformes néolibérales menées jusqu’à la crise sanitaire à marche forcée pourraient ainsi réapparaître par la fenêtre, au prétexte honteux des morts du Covid, et des pertes de cotisations liées à l’arrêt de l’activité économique pendant le confinement. Ce refrain a en tout cas été rapidement entonné par Gérald Darmanin, alors encore ministre de l’Action et des Comptes publics, qui se prétend pourtant « gaulliste social ». Le nouveau Premier ministre, Jean Castex, lui-même ayant éhontément repris ce qualificatif pour se décrire tout récemment. De même, pas moins de 136 milliards d’euros de dépenses liées au Covid-19 ont été délibérément transférés sur le budget de la Sécurité sociale, accentuant artificiellement un déficit qui relève en fait davantage d’une construction idéologique réactionnaire que d’une réalité, eu égard à l’équilibre permis par les branches bénéficiaires de la Sécurité sociale.

Il n’y a donc rien d’étonnant à ce que la définition de l’horizon du monde d’après ait été confiée à Jean Castex, fidèle sarkozyste à l’origine, qui introduisit, dans le cadre du plan hôpital de 2007, la tarification à l’activité dans le système hospitalier. La fameuse « T2A », dénoncée par l’ensemble des personnels soignants pour avoir introduit la notion d’objectifs et de rentabilité dans l’hôpital public, a ainsi constitué un véritable poison pour le système hospitalier, conduisant à la rationalisation des coûts et à la mise en concurrence des établissements de santé, au profit des cliniques privées. La catastrophe sanitaire du coronavirus a révélé la brutalité des effets de ce système pensé par Jean Castex et mis en place par Roselyne Bachelot, ministre de la santé sous Sarkozy et actuelle ministre de la Culture.

Le nouveau Premier ministre Jean Castex a ainsi affiché très tôt sa détermination à traiter en particulier la réforme des retraites. Il a notamment présenté un nouvel agenda, avec une réunion des partenaires sociaux dès le 20 juillet, alors que des premières rencontres bilatérales ont été organisées depuis le 8 juillet. La réforme des retraites est ainsi plus que jamais « absolument indispensable », selon Bruno Le Maire au micro de RTL, le ministre de l’Économie. Alors que l’épidémie de Covid réapparaît dans plusieurs régions françaises de façon inquiétante, le gouvernement semble absolument déterminé à agir vite sur ce dossier qui n’a, selon lui, duré que trop longtemps, profitant des vacances d’été pour devancer la rentrée sociale annoncée pour septembre.

Mais alors, comment comprendre cette énième fuite en avant du gouvernement ? Entre l’échec cuisant de la gestion de la crise sanitaire et la piteuse reculade sur son injuste réforme des retraites par points, modifier en profondeur un logiciel libéral désuet face à l’urgence des injonctions à une politique de « l’après-Covid » et l’angoisse de 2022 semblait bien trop compliqué.

Pourtant, la Sécurité sociale, le statut de la fonction publique, les allocations-chômage et les retraites, autant de « conquis sociaux » au cœur de notre modèle social, ont manifesté, durant la crise du Covid-19, leur rôle de filets de protection. Sans eux, beaucoup de Françaises et de Français n’auraient pu se soigner correctement, et seraient tombés dans la pauvreté faute de revenu de substitution dans un contexte de cessation d’activité massive, ajoutant à la crise sanitaire une crise économique et sociale encore plus grandes que celles auxquelles nous sommes déjà hélas confrontés.

L’économiste Philippe Ledent rappelle à dessein qu’il est hors de question que les citoyens reçoivent directement la facture des dépenses engagées par cette crise. Selon lui, « la Sécurité sociale sert précisément à ce qui est en train de se passer. Si elle n’est pas utile et utilisée maintenant, alors elle ne sert à rien. […] Quand un événement comme celui-ci survient, on ne tergiverse pas, on laisse se creuser le déficit de cette Sécurité sociale car c’est son rôle. » Un rôle que le gouvernement français semble avoir malheureusement perdu de vu depuis longtemps.

Passer de l’État social à l’État-plateforme en pleine crise : le Castex du gouvernement

Comment poursuivre la marche forcée des réformes imposées par l’exécutif dans un tel contexte d’impopularité et de remise en cause de sa gestion de la crise ? La solution a ainsi été toute trouvée dans le rebranding de solutions éculées, cette fois-ci sous l’aspect de la dernière innovation de l’économie politique américaine, celle de l’État-plateforme, inaugurée par les réflexions de Tim O’Reilly dans Government as platform, lui-même inspiré par le penseur libertarien Eric Raymond, auteur de La cathédrale et le bazar.

En effet, camouflée derrière les annonces généreuses quant à la revalorisation des salaires des personnels de soin hospitalier, le projet initial de la majorité, soutenu par les élites socio-économiques européennes, risque de se poursuivre à vive allure : inaugurer l’entrée fracassante des systèmes sociaux européens dans l’ère de la data economy californienne, en utilisant la numérisation de la santé publique comme « pied-de-biche » pour casser les « tabous » français sur la réforme du système social issu du Conseil national de la Résistance et ainsi privatiser « par la petite porte » – celle de la data economy – les services publics.

De l’étude de 2013 de Mc Kinsey France sur la digitalisation de l’économie réelle et des services publics au rapport Villani, du Health Data hub français, en passant par le Livre Blanc pour la stratégie digitale de l’Union Européenne défendu par Ursula Von der Leyen, le libéralisme européen s’engage dans la voie d’un rattrapage laborieux de la généralisation chinoise et californienne de l’intelligence artificielle à l’ensemble des secteurs clefs de régulation économique, sanitaire et juridique de nos sociétés. On voit bien que les enjeux de souveraineté, essentiels au demeurant, sont convoqués la plupart du temps par nos dirigeants pour camoufler la brutalité de la transformation sociale qu’ils cherchent à imposer comme une évidence. En témoignent la polémique autour du choix de Microsoft Azure Cloud sans appel d’offre dans le cas du Health Data Hub, ou encore, l’impréparation du lancement de l’application Stop Covid, qui selon la Quadrature du Net contenait un système d’identification captcha de Google.

De la surveillance épidémiologique à la facilitation administrative, les prétextes sont bons pour lancer la machine de la collecte des métadonnées d’utilisateurs. L’objectif réel d’un tel système étant d’alimenter en permanence – par le biais de la carte vitale et des dossiers de sécurité sociale ou des fichiers administratifs par exemple – les guichets centralisés de collecte par les institutions publiques, lesquels serviront de canaux de redistribution de ces informations de l’État aux entreprises, comme l’indique le rapport de préfiguration du Health Data Hub faisant mention du rôle de l’État dans ce qu’il nomme la « nécessaire industrialisation» des flux de données de cette nouvelle data economy.

Une litanie revient dans toutes les bouches réformistes depuis la fin des années 1960 – permettant au passage d’écorner un peu plus l’héritage jacobin : « l’État est malade des lourdeurs de son administration ». Pour la chercheuse Marie Alauzen : « Cette problématisation de l’administration comme « intérieur malade de l’État » se traduit par le déploiement d’un vaste chantier : la Rationalisation des choix budgétaires et comptables (RBC), entreprise à partir de janvier 1968 et par la progressive mise en place du Plan calcul »[1]. Les dernières études de l’Institut Montaigne sur l’insertion professionnelle en Seine-Saint-Denis, ou celles de l’IFRAP d’Agnès Verdier-Molinier sur l’hôpital public, sont là pour nous rappeler le problème au cas où le confinement aurait trop échaudé certains esprits avides d’une meilleure reconnaissance économique pour les soignants et les professions déconsidérées (livreurs, caissiers, agriculteurs, enseignants, techniciens de surface, etc.) qui ont porté sur leurs épaules la stabilité du pays.

Face à une telle « urgence », la solution s’impose d’elle-même : pour éviter les critiques traditionnelles quant à l’inhumanité des réductions d’effectifs publics, on passe par le prétexte de la numérisation, et de la nouvelle configuration du législateur en position de faiblesse face aux plateformes privées américaines et chinoises (GAFAM, BATX). L’idéologie de la « soft law », autre mot pour désigner le laxisme libéral français et européen à l’égard des firmes du numérique – le RGPD connaît en effet une grave période de flottement, la CJUE n’ayant toujours pas rendu son avis sur le transfert des données des GAFAM de leurs serveurs européens aux États-Unis –, participe alors de la redéfinition du rôle de régulation et de coercition de l’État et du Parlement. Non plus sévir, sanctionner, border juridiquement, mais « inciter » les grands acteurs monopolistiques à la compliance pour ne pas « priver » les consommateurs, PME et grands groupes industriels de la stimulation économique provenant des prouesses surestimées de l’Intelligence Artificielle.

Mais le paradoxe d’un tel discours est qu’il s’appuie précisément sur le pouvoir centralisateur de l’administration étatique pour collecter et redistribuer ce nouveau pétrole de l’ère numérique que sont les métadonnées (comportements utilisateur, géolocalisation, …). Or, l’ironie de l’histoire dans le cas présent tient au caractère suicidaire d’une telle idéologie, que l’on peut à bien des égards qualifier – selon le concept d’Evgeny Morozov – de solutionnisme technologique. En effet, si une telle conception de l’État peut sembler aller de soi et relever de la réaction de bon sens face à la « concurrence internationale » chinoise et américaine (on pense ici à la souveraineté des données des Français et Européens face aux GAFAM, au Cloud ou à la 5G), elle cache en réalité la logique de rentabilité et de réduction des effectifs publics qui la justifie via l’automatisation des tâches administratives, comme le diagnostic, ou le secrétariat, ce sur quoi insiste Marie Alauzen.

Ainsi, loin d’être disjointes dans leur logique, la « modernisation numérique », et la « modernisation sociale » semblent fonctionner de concert dans la pensée libérale contemporaine pour proposer une forme douce, progressive d’État social minimal. Dans son article intitulé « La construction de l’Etat social minimal en Europe » (Politique européenne, vol. 27, no. 1, 2009, pp. 201-232), Noëlle Burgi montre que ce changement de paradigme passe par des réformes et des restructurations sociales permanentes. Aussi différentes soient-elles d’un pays à l’autre dans l’Union européenne, ces dernières ne sont pas désorganisées. Elles tendent à se mouler sur un modèle dit des « trois piliers ».

Ce modèle organise, selon Burgi, une protection sociale à trois étages. À la base, un socle assistanciel constitué de prestations minimales fiscalisées est confié pour l’essentiel à la bonne gestion opérationnelle des collectivités territoriales, dans une perspective décentralisée. Un deuxième ensemble intermédiaire d’essence socioprofessionnelle  combine des assurances obligatoires et des dispositifs facultatifs, comme les institutions de prévoyance collective. Enfin, un troisième étage est établi sur les marchés de l’épargne et de l’assurance.

Promu d’abord en Suisse dans les années 1970, puis repris par la Banque mondiale (1994; apRoberts, 1997) et la Commission européenne, le découpage en piliers décrit très imparfaitement la réalité observée dans la plupart des pays. Notamment à l’égard du modèle français issu du CNR, et que la réforme par points prétendait abattre pour l’ouvrir à la capitalisation. Selon Burgi, « aux yeux de ses défenseurs, ce modèle des trois piliers présente l’avantage de construire l’espace de la capitalisation ou du marché là où ils étaient absents (apRoberts, 1999, 2007 ; Coron, 2007) et de placer la protection sociale « sous le double signe de l’assistance et du marché » (apRoberts, 1997) ». Ce qui permet de construire une vision positive du marché comme vecteur et co-garant avec l’État, de la protection sociale. Ainsi, la doctrine de l’État-plateforme, à travers les réductions budgétaires qu’elle prétendra imposer à l’hôpital public si l’on se laisse benoîtement enivrer des promesses thaumaturgiques de la télémédecine et de l’e-santé, aura un impact négatif sur la structure d’ensemble du financement de notre Sécurité sociale, à nouveau attaquée par le discours prétendument modernisateur du gouvernement actuel.

Contre la capitalisation de la protection sociale, il faut réaffirmer la puissance de la cotisation sociale

Face à ce « monde-d’après » pire que celui d’avant que nous concocte le gouvernement, il incombe au contraire de réaffirmer les fondements du modèle social français créé lui aussi à l’issue d’une crise de grande ampleur.

Et parmi les grandes institutions de la Libération, celle de la cotisation sociale sert de fondement à l’ensemble de l’édifice social érigé par les révolutionnaires de 1944-1946. L’intérêt principal de la cotisation réside dans le fait qu’il constitue une forme de salaire socialisé, prélevé sur le salaire des salariés et par le biais de cotisations patronales, puis directement distribué à la Sécurité sociale, afin de payer le système de santé, les soignants et l’hôpital, mais aussi les retraités, les parents et les chômeurs. Particulièrement efficace, l’Urssaf mettant un jour pour transformer les cotisations en salaires et en prestations, ce système a permis de réduire l’ampleur d’une crise qui aurait été tout autre sans ce type de mécanisme.

Au cœur du projet de modèle social pensé par le Conseil national de la Résistance, puis mis en place à la suite du plan Laroque par les équipes d’Ambroise Croizat, ministre communiste du Travail et de la Sécurité sociale, le financement par le biais de la cotisation s’inscrivait précisément dans un objectif de démocratisation sociale. En effet, ces cotisations sociales étaient gérées directement par les travailleurs eux-mêmes, à travers des Conseils d’administration des caisses élus à 75% par les syndicats des travailleurs et à 25% par ceux du patronat. Surtout, la cotisation, contrairement à un financement par l’impôt, devait permettre l’autonomie du système vis-à-vis du budget de l’État, et dès lors ne pas dépendre des objectifs budgétaires de gouvernements dont la Sécurité sociale ne serait pas la priorité.

La Sécurité sociale, telle qu’elle est envisagée à la Libération, reposait essentiellement sur la volonté de mettre fin aux angoisses du lendemain et d’instaurer un « ordre social nouveau ». Cette tradition était revendiquée par Pierre Laroque, directeur de la Sécurité sociale, qui insistait, dans un discours le 23 mars 1945, sur la nécessité d’inscrire la Sécurité sociale dans ce qu’il assimile à une tradition nationale : « Or, la tradition française dans le domaine de la sécurité sociale n’est pas une tradition d’étatisme bureaucratique ; c’est une tradition d’entraide volontaire, […] c’est la tradition du vieux socialisme français, du socialisme de Fourier, de Louis Blanc, de Proudhon, c’est cette tradition qui a son nom inscrit dans notre devise nationale, c’est la tradition de la fraternité. »

Cette énumération justifiait la particularité du système de protection sociale qu’Ambroise Croizat et lui, entre autres, appelaient de leurs vœux, à savoir non-étatique, dont le budget devait être géré de façon autonome vis-à-vis de celui de l’État, et par les représentants des travailleurs eux-mêmes. L’évocation de la fraternité dresse un pont entre l’héritage révolutionnaire et les réalisations à venir, dans le cadre de la République et de la solidarité nationale, allant de pair avec l’exaltation d’une « foi révolutionnaire ».

C’est précisément grâce à ce principe de la cotisation que les Centres hospitaliers universitaires ont pu être financés sans avoir besoin de s’endetter auprès d’une banque, ni d’avoir à payer de quelconques intérêts, ce qui a largement réduit la dépense publique pour des investissements d’une telle ampleur. Or, ce sont ces établissements publics de santé, qui ont une triple mission de soins, d’enseignement et de recherche, qui ont été en première ligne dans le traitement des patients atteints de Covid-19.

Réformer la Sécu, pour mieux la détricoter

Quelque temps seulement après la mort de ce dernier, consacré par la tradition cégéto-communiste comme le « père de la Sécu », les premières réformes de la Sécurité sociale commencent à amputer le système pensé par le CNR. Le général de Gaulle de retour au pouvoir en 1958 instaure d’abord le contrôle des budgets des caisses par l’État, ainsi que la nomination des directeurs de caisses.

En 1967, les ordonnances Jeanneney instaurent un découpage des risques de la Sécurité sociale en branches, contraire au principe de la caisse unique, la suppression des élections et surtout la mise en place du paritarisme, de telle sorte que les Conseils d’administration devaient désormais être composés à 50 % de représentants des salariés et à 50 % de représentants du patronat, ces derniers pouvant s’allier temporairement au syndicat le plus modéré et former ainsi une majorité défendant leurs intérêts.

En 1990, la Contribution sociale généralisée remet en cause le financement par la cotisation en instaurant un impôt non progressif, tandis qu’en 1995 l’instauration de la Loi de finance de la Sécurité sociale par Alain Juppé marque une nouvelle étape d’étatisation de la Sécurité sociale, son budget étant désormais voté par le Parlement. Le régime général a ainsi subi des attaques répétées de la part de ces gouvernements successifs, toujours selon l’objectif annoncé de « sauver » la Sécurité sociale, mais qui masque en fait une volonté inavouable de libéraliser le système de protection sociale, de surcroît lorsqu’ils traitent de sa nécessaire « modernisation » pour l’adapter aux défis contemporains.

La rhétorique médiatique et le projet néolibéral

La rhétorique médiatique de légitimation des choix gouvernementaux actuels en matière de gestion du budget et des comptes sociaux, qui appliquent en quelque sorte le projet du « monde du travail de demain » décrit par le candidat Macron, se déploie d’ailleurs sur un mode pernicieux : commenter – ou critiquer selon les opinions économiques – la forme, c’est-à-dire l’arbitrage du gouvernement sur les 10 milliards alloués aux gilets jaunes en baisses d’impôts et de cotisations sociales, pour naturaliser implicitement l’argument de fond jamais remis en cause : le principal problème du pays, c’est la réduction du déficit public et des comptes sociaux. Aujourd’hui, la crise économique entraînée par le confinement nous offre le plaisir, certes aigre à nos oreilles, d’une modulation de ce cher refrain, autour cette fois-ci de la générosité – entendez ici pingrerie en réalité – de la politique de chômage partiel du gouvernement Macron.

À travers cette stratégie plus ou moins consciente (délibérée dans le cas de la technostructure, incomprise et entonnée par servilité dans le cas des plateaux télés), se dessine un projet de société plus profond et une cohérence du discours sur le long terme : la rhétorique médiatique néolibérale. On invoque les vocables « réductions de la dépense publique », « réduire la dette », « accélérer les réformes », que la majorité des chroniqueurs impose depuis plusieurs décennies au débat public, justifiés par la technostructure libérale. Se répand ainsi l’idée que les politiques sociales coûtent cher, que les Français se plaignent trop, qu’il faut prendre en compte le vieillissement démographique, et qu’il faut tailler dans le gras des politiques sociales en prenant soin de faire de la « pédagogie ».

En réalité, la pilule est un peu trop grosse pour être avalée, et un soupçon légitime commence à se faire jour : n’y a-t-il pas ici une volonté délibérée de détruire le modèle social français à travers les baisses de cotisations, outil de destruction des comptes sociaux ? Augmenter par ce biais le déficit de la Sécu, et légitimer un peu plus la nécessité de réformer le système social français, au bénéfice du secteur privé.


[1]Marie Alauzen, Plis et replis de l’État plateforme. Enquête sur la modernisation des services publics en France. Sociologie. PSL Research University, 2019. Français. ffNNT : 2019PSLEM037ff. fftel-02418677f

Le Covid, les données de santé et Microsoft

crédits : Pixabay

La France et les instances juridiques de l’Union européenne, doivent se réveiller face aux risques de fuite des données à l’étranger posés par la dépendance de plus en plus prégnante aux GAFAM des systèmes informatiques de nos administrations publiques, notamment en matière de santé. Les gouvernements sont aujourd’hui sous la pression de l’opinion. Ils doivent proposer « une troisième voie pour garantir un avenir numérique compatible avec nos démocraties » comme le réclament dans cette tribune-pétition de nombreux professionnels de la santé et du numérique et des parlementaires. Un lien est en ligne pour la signer.


Une information loyale et éclairée

Le taux d’alphabétisation numérique – la capacité à lire et écrire le langage informatique – est extraordinairement bas [1]. Notre monde technophile s’envole dans la complexité écartant le citoyen du débat politique. Cependant les implications sont fondamentales : elles concernent la pérennité de notre liberté de penser et de notre système de santé mutualiste. Nous voulons informer des évolutions récentes en informatique et en santé pour recentrer politiquement le débat autour du citoyen et fermer la porte aux illusions techno-scientifiques.

Vers le secret professionnel partagé

Récemment l’Ordre des Médecins a rappelé que le secret des personnes est la base de la confiance portée aux personnels soignants [2]. Historiquement la relation de soin est construite sur un colloque singulier médecin-malade. Avec l’arrivée des nouvelles technologies et la numérisation du monde, le secret médical formel se dissipe peu à peu. Les personnels administratifs de l’Etat traitent déjà l’information médicale des assurés de l’Assurance Maladie [3]. Les évolutions contemporaines tendent à multiplier les acteurs du parcours de soins dans une logique de prise en charge collective et pluridisciplinaire. Comment remettre en adéquation cette exigence éthique avec le XXIième siècle, à l’heure du traitement massif des données effectué par des algorithmes toujours plus sophistiqués ?

Les notions [4] “d’équipe de soin””et de “secret partagé” redéfinissent les contours du secret à l’ère digitale. Les informations médicales strictement “nécessaires à la continuité des soins” peuvent circuler entre les différents membres de l’équipe de soins pour améliorer la prise en charge globale de la personne. De plus, l’opposition au partage de données [5] est un droit essentiel pour le patient. Le préalable à tout refus est le droit à une information claire et précise sur les bénéfices attendus, les forces en présence et le parcours de la donnée médicale. La fracture numérique [6] et l’empressement à déployer des outils informatiques ne permettent plus d’assurer ces droits.

Technophilie et centralisation

« Science sans conscience n’est que ruine de l’âme. » Rabelais

C’est un principe éthique fondamental : « les technologies doivent être au service de la personne et de la société» plutôt qu’« asservies par les géants technologiques » [7].

Une confiance aveugle dans la technologie, et notamment dans les nouveaux outils statistiques, pourrait conduire à légitimer des systèmes pyramidaux et potentiellement réducteurs de libertés. Ainsi, les nouveaux systèmes d’information initiés dans le contexte de l’état d’urgence sont tous centralisés : recueil d’identités et de contacts à risque, résultats de prise de sang, surveillance des téléphones portables.
Ces systèmes alimenteront la plateforme nationale des données de santé ou « Health Data Hub » [8]. Ce guichet unique d’accès à l’ensemble des données de santé désidentifiées vise à développer l’intelligence artificielle appliquée à la santé. L’ensemble de ces données est hébergé par l’entreprise Microsoft et son offre commerciale, la plateforme Azure [9].

Le problème est que le droit américain s’applique au monde entier ! Le gouvernement américain a adopté en 2018 un texte nommé « Cloud Act » [10], qui permet à la justice américaine d’avoir accès aux données stockées dans les pays tiers [11]. Microsoft est soumis à ce texte qui est en conflit avec notre règlement européen sur la protection des données [12].

Comment soutenir ce choix alors que le Président de l’Agence Nationale de Sécurité des Systèmes d’Information s’oppose publiquement aux géants du numérique qui représenteraient une attaque pour nos systèmes de « santé mutualiste » [13] ? Comment soutenir ce choix alors que la CNIL mentionne dans le contrat liant le « Health Data Hub » à Microsoft  « l’existence de transferts de données en dehors de l’Union européenne dans le cadre du fonctionnement courant de la plateforme » [14] ? Comment soutenir ce choix alors qu’existent des dizaines d’alternatives industrielles françaises et européennes [15] ?

Troisième voie : autonomie / Europe

Brutalement, l’affaire Snowden a montré l’utilisation de nos données au travers de programmes de surveillance mondialisés [16]. Brutalement, le confinement nous a fait vivre dans nos chairs des privations de liberté imposées et nécessaires.

Au cœur de l’économie du XXIe siècle, les données ont progressivement pris une importance cruciale. Elles sont le pétrole de nos économies modernes [17] et celui qui les contrôle, s’impose. Ces dernières sont exploitées par des États-plateformes dépendants des forces du marché (Google, Apple, Facebook, Amazon, Microsoft) ou d’un régime autoritaire (Baidu, Alibaba, Tencent et Xiaomi) [18].

Nous devons revenir aux principes politiques de base [19] et comprendre que « le patrimoine de données de santé est une richesse nationale. […] La souveraineté et              l’indépendance de notre système de santé face aux intérêts étrangers, ainsi que la compétitivité de notre recherche et de notre industrie, dépendront de la vitesse de la France à s´emparer du sujet. »

L’autonomie des personnes doit être renforcée. La délivrance d’une information éclairée et transparente regroupant patients, professionnels de santé et législateurs doit être réalisée. Ensuite les personnes pourront s’opposer à l’envoi de données les concernant en dehors du cadre juridique qui les défend.

L’Europe juridique doit se réveiller, entraînée par la France et la pression de l’opinion. Elle doit proposer une troisième voie pour garantir un avenir numérique compatible avec nos démocraties. « L’enjeu fondamental pour les Européens est d’être en mesure de conserver leur autonomie de pensée. » [20] Il revient donc aux législateurs européens et français de protéger la démocratie à l’ère du capitalisme de surveillance. La Cour de Justice de l’Union Européenne [21] ainsi que les régulateurs nationaux des données personnelles doivent se positionner quant à la possibilité de contractualisation avec des entreprises assujetties aux lois américaines.

L’initiative franco-allemande GAIA-X [22] qui veut fournir un cadre technique de transparence et de bonne conduite aux états-plateformes mondialisés, doit être propulsée par l’Union Européenne. C’est une absolue nécessité. Pour une Europe Numérique autonome, il est nécessaire d’utiliser « des logiciels libres et des formats ouverts lors du développement » [23] des systèmes d’informations. Pour que demain, chacun ait accès à des soins de qualité, exigeons la publication des plans d’architecture des plateformes informatiques, des flux de données, des algorithmes et des terminologies médicales.

En outre, la qualité de la recherche se co-construit avec des équipes pluridisciplinaires et des interactions entre soin et recherche. Sur place, au sein des hôpitaux et des structures participant au service public, il faut encourager les “communs” et l’autonomie d’un tissu d’enseignants, de chercheurs, d’informaticiens, de soignants ainsi qu’un réseau de personnes en confiance avec l’ensemble du système. Dans ce maillage, la place des régions et des hôpitaux doit être renforcée.

Si le cadre juridique et théorique doit venir de l’Europe, la mise en conformité avec le réel restera locale.

Si vous voulez signer ce texte, cliquez ici !

Signataires :

Aboab Jérôme, Médecin réanimateur
Annane Djillali, Doyen, Faculté de médecine Simone Veil – université de Versailles saint Quentin en Yvelines
Antonini Francois, Anesthésiste Réanimateur – Data Scientist, Assistance Publique Hôpitaux de Marseille
Bernalicis Ugo, Député du Nord, La France insoumise
Blanc-Rollin Charles, RSSI / DPO, GHT 15
Boisson Véronique, Médecin, Chu Reunion
Calvo Stuart, Anthologiste, La Volte
Champsaur Pierre, Président Commission CME – Système d’informatione et DPI, Assistance Publique Hôpitaux de Marseille
Charlot Chantal, Gérante – consultante, AXE PROMOTION
Citrini Marie, Représentant des usagers, Conseil de surveillance APHP
Coelho Ophélie, Coordinatrice du groupe de travail sur le numérique, Institut Rousseau
Crozier Sophie, Médecin, Assistance Publique Hôpitaux de Paris
De Maison Rouge Olivier, Avocat – Docteur en droit – Auteur – Conférencier, Observatoire de l’intelligence économique français
Desgrippes Florent, Ingénieur informatique, interhop.org
Dormeau Léna,  chercheuse en philosophie sociale
Ehooman Franck, Médecin Anesthésiste-Réanimateur et du Périopératoire, Institut Mutualiste Montsouris
Faiz Stéphanie, médecin hospitalier
Fallery Bernard, Professeur émérite en systèmes d’information, Université de Montpellier
Fougerat Jérémie, Médecin Généraliste
Froissart Zoéline, Médecin, syndicat de la médecine générale
Gaillard Nicolas, Praticien hospitalier, Médecin
Gendry Camille, médecin généraliste, syndicat de la médecine générale
Gervais Anne, médecin, hopital Bichat
Granger Bernard, Professeur de psychiatrie, Université de Paris
Hamon Jean paul, Médecin généraliste, FMF
Hentgen Véronique, Médecin praticien hospitalier, CH Versailles
Lamer Antoine, Data Scientist, CHU Lille / ILIS
Le Bouter Léo, Expert Sécurité Infrastructure, Assistance publique – Hôpitaux de Paris (AP-HP)
Leblond Thierry, Ingénieur Général de l’Armement, Président de société d’édition logicielle spécialisée dans la sécurité des données  sur le Cloud, Scille
Lengline Etienne, Hematologue, Hôpital saint-louis paris
Londeix Pauline, Co-fondatrice, Observatoire de la transparence dans les politiques du médicaments – OTMeds
Louchi Jamel, Médecin Généraliste
Martial-Bratz Nathalie, Professeur de Droit Privée, Membre de l’Institut Universitaire de France
Martin Jérome, Co-fondatrice, Observatoire de la transparence dans les politiques du médicaments – OTMeds
Marty Jérome, Président UFMLS et médecin Généraliste, Union Française pour une Médecine Libre Syndicat
Masutti Christophe, Co-administrateur, Framasoft
Maurel Emmanuel, Député européen, Parlement Européen
Meuret François, Retraité, Médecin généraliste / Syndicat de la Médecine Générale
Moreira Jeverson, Pharmacien et Chercheur, Consultant Technico-Scientifique en Santé Publique et création de Partenariats Public-Privé
Nisand Israël, gynécologue obstétricien, Président du Collège National des Gynécologues et Obstétriciens Français
Paris Nicolas, Ingénieur BigData, interhop.org
Parrot Adrien, Anesthésiste Réanimateur – ingénieur, interhop.org
Pelletier Anne-Sophie, Députée européenne – Aide médico-psychologique, Parlement européen
Pinsard Florence, Cadre de sante, Centre hospitalier de Pau
Potier Hugo, REDCap IT Scientific Manager, CHU-NIMES
Pouzyreff Natalia, députée, Assemblée nationale
Poznanski Florence, Activiste, Animatrice du Livret numérique – La France insoumise
Prudhomme Christophe, Praticien hospitalier, Syndicaliste hospitalier
Ruiz Jean, Médecin, Chu toulouse
santénathon.org, Collectif d’entreprises & d’associations œuvrant dans le monde des logiciels libres de l’opensource et des données ouvertes
Schon Alexandre, Docteur en Géographie des télécommunications et de l’innovation européenne Animateur du Livret Numérique, La France insoumise
Sicard Didier, Professeur émérite de médecine, Université de Paris
Smets Jean-Paul, Ingénieur des Mines, Nexedi
Stallman Richard, GNU / Free Software Foundation, gnu.org/government
Thiollier Anne-Françoise, Infirmière puéricultrice, APHP Hôpital Robert-Debré
Trivalle Christophe, Médecin, APHP
Woillet Simon, Directeur rubrique médias, LVSL


  1. L’alphabétisation numérique et la participation familiale à l’école ↩︎
  2. Plan de déconfinement et garantie du secret médical ↩︎
  3. “Le secret médical sera préservé” ↩︎
  4. Comment concilier respect du secret professionnel et efficacité des soins ? ↩︎
  5. Opposition et information ↩︎
  6. Les quatre dimensions de la fracture numérique ↩︎
  7. Médecins et Patients dans le monde des data, des algorithmes et de l’intelligence artificielle ↩︎
  8. Données de santé : l’arbre StopCovid qui cache la forêt Health Data Hub ↩︎
  9. Modalités de stockage du « health data hub » ↩︎
  10. Rapport Gauvain : Rétablir la souveraineté de la France et de l’Europe et protéger nos entreprises des lois et mesures à portée extraterritoriale ↩︎
  11. Évaluation du CCBE de la loi CLOUD Act des États-Unis ↩︎
  12. Commission spéciale Bioéthique : Auditions diverses, Mme DENIS ↩︎
  13. Audition de M. Guillaume Poupard, directeur général de l’Agence nationale de la sécurité des systèmes d’information (ANSSI) ↩︎
  14. Délibération n° 2020-044 du 20 avril 2020 portant avis sur un projet d’arrêté complétant l’arrêté du 23 mars 2020 prescrivant les mesures d’organisation et de fonctionnement du système de santé nécessaires pour faire face à l’épidémie de covid-19 dans le cadre de l’état d’urgence sanitaire ↩︎
  15. Annuaire des hébergeurs aggréés AFHADS ↩︎
  16. Trente-cinq chefs d’État étaient sous écoute de la NSA ↩︎
  17. The world’s most valuable resource is no longer oil, but data ↩︎
  18. “Enquête. Quand Internet sera chinois” ↩︎
  19. HealthDataHub : Mission de préfiguration ↩︎
  20. “Thomas Gomart (IFRI) : « Le Covid-19 accélère le changement de mains de pans entiers de l’activité économique au profit des plateformes numériques »” ↩︎
  21. Données personnelles : le transfert vers les Etats-Unis validé par la CJUE ↩︎
  22. Franco-German Position on GAIA-X ↩︎
  23. LOI n° 2016-1321 du 7 octobre 2016 pour une République numérique ↩︎

Que cache la défense de l’Internet libre ?

© F.A.P. Fine additional Printers. Silicon Valley. 1991.

Souvent narrée comme la concrétisation d’un idéal libertaire, l’odyssée de l’Internet n’en est pas moins l’objet d’une hégémonie scientifique, technologique et militaire. À son origine d’abord, un pays, les États-Unis, conscient de s’être doté par là d’une avance technologique considérable. Parallèlement à son essor, émerge le modèle de la «Silicon Valley»1, hub technologique d’essence libertarienne, antiétatique et pourtant né d’une alliance entre complexe militaro-industriel, milieu universitaire et de l’ingénierie. L’effort de communication déployé par les GAFAM (Google, Apple, Facebook, Amazon, Microsoft) et autres licornes2, dont les épopées se confondent en storytelling et les objectifs en promesses d’émancipation, se heurtent aux affaires Snowden ou encore Cambridge Analytica…


Internet et la «Silicon Valley», fruit d’une collaboration techno-militaire

Au départ simple espace agricole, le sud de la Baie de San Francisco connaît, grâce à l’injection abondante de financements militaires, un boom démographique et urbain dans les années 1950-1960 autour de la Leland Stanford Junior University. La fusion du capital local et de la technologie est au cœur de l’émergence de ce cluster promis à un rayonnement international. Contrairement aux idées reçues, son essor s’appuie davantage sur une volonté étatique et sur des acteurs civils, militaires et universitaires que sur un fourmillement soudain d’innovations individuelles. La Leland Stanford Junior University, d’où sortiront les William Hewlett et David Packard (Hewlett & Packard), Sergey Brin et Larry Page (Google) ou encore Jerry Yang et David Fillo (Yahoo), sert de catalyseur dans la région en attirant investissements et forte densité technologique. C’est le processus dit d’essaimage, la concentration de petites entreprises innovantes alliant ingénierie et recherche, qui a cours historiquement dans la région et qui fait la spécificité de cette vallée.

La Silicon Valley a toujours été liée dans son développement au secteur militaire et, à cet égard, a toujours constitué un bien stratégique pour les États-Unis. Guerre froide oblige, le budget militaire s’accroît dans le pays, tout particulièrement dans cette région où s’érigent des bases satellitaires et autres parcs de superordinateurs. Berceau du portail Internet en 1995, dont l’ancêtre ARPANET3 était conçu à des fins militaires, la Silicon Valley accueille aussi le centre de recherche J.S Ames de la NASA, destiné aux vols aérospatiaux, à l’imagerie robotique ou encore à l’intelligence artificielle. Si, dans les années 80, l’ARPA se désengage du projet ARPANET, le National Science Foundation et les centres de recherches publics reprennent la main avec pour objectif d’imposer les normes américaines dans le monde. En définitive, l’invention plus ou moins autonome en 1989 du Web par Tim Berners-Lee dans un cadre universitaire n’aura pas fourni un relais moins efficace mais seulement plus subtil de l’hégémonie américaine sur la question. Les défenseurs californiens de l’internet libre sont souvent tributaires d’une pensée libertarienne bien spécifique à la baie de San Francisco, qui remonte aux horpailleurs.

À l’origine déjà, Leland Stanford, co-fondateur de l’Université du même nom autour de laquelle s’agrège le tissu d’entreprises formant la Silicon Valley, incarne à lui seul le mélange des genres typique de la région, entre milieu des affaires et pouvoir politique.

Au cours des années 2000, tout le complexe militaire collabore de plus en plus étroitement avec les plus gros acteurs de la Silicon Valley, formant ainsi un consortium cyber-sécuritaire inédit. La NSA initie le programme PRISM, révélé en 2013 par Edward Snowden4. La CIA fait l’acquisition du fonds d’investissement In-Q-Tel soutenant le développement de pas moins de 171 start-up sur vingt ans. Le Pentagone crée une Commission de sécurité nationale pour l’intelligence artificielle, co-pilotée par Eric Schmidt (ancien CEO de Google) et Robert O. Work (ancien secrétaire adjoint à la Défense). Déjà à l’origine d’un contrat sulfureux avec Google, le Pentagone, comme le département de la Défense des États-Unis (coopérant notamment sur des projets en lien avec Amazon et Microsoft) garantit l’assise techno-militaire internationale du pays. Enfin, comme le souligne Laurent Carroué, « le Defense Innovation Advisory Board, un organe consultatif du Pentagone, veut accélérer les transferts d’innovations des firmes de la Silicon Valley vers le Département de la Défense ».

Le statut privé des fleurons américains du numérique est une aubaine pour l’Etat qui s’en sert de couverture dans sa course à la suprématie cyber-militaire, et ce notamment dans le contexte de la rivalité sino-américaine actuelle. Récemment, Google consent à mettre à disposition du Pentagone son logiciel TensorFlow pour améliorer l’analyse d’images des drones. Malgré les promesses d’un usage non-létal, 3 000 salariés ont signé une lettre à la direction de Google pour empêcher un tel projet de voir le jour. Les nombreuses dissensions internes n’ont cependant pas empêché les directions de Google, d’Amazon, d’Oracle ou encore de Microsoft de collaborer avec le Département de la Défense américaine autour de projets controversés d’intelligence artificielle, de reconnaissance faciale, de robotique, s’écharpant pour décrocher de lucratifs contrats avec le Pentagone autour du développement et de la militarisation d’une technologie de cloud computing nouvelle génération (projet JEDI).

Ces circonstances permettent de mieux comprendre la relation qui lie le gouvernement américain aux entreprises du numérique. Militaire, sécuritaire, scientifique, politique, économique, technologique, les raisons sont trop nombreuses et les enjeux trop stratégiques pour que les pouvoirs publics, fussent-ils américains, ne laissent trop longtemps à ces acteurs privés le loisir de faire la pluie et le beau temps sur le marché du numérique. À l’origine déjà, Leland Stanford, co-fondateur de l’Université du même nom autour de laquelle s’agrège le tissu d’entreprises formant la Silicon Valley, symbolise à lui seul le mélange des genres typique de la région, entre milieu des affaires et pouvoir politique. En effet, Leland Stanford cumule alors la fonction de sénateur de l’État de Californie avec celle de président de la South Pacific Railroad. Aujourd’hui, c’est par exemple Jeff Bezos, CEO d’Amazon et propriétaire du Washington Post qui incarne sûrement le mieux cette figure à cheval entre le monde des affaires et celui de la politique.

GAFAM vs Etats : « N’écoutez pas ce qu’ils disent, regardez ce qu’ils font »

Les géants du numérique ont pu profiter d’un instant de vide juridique pour se tailler la part du lion et se positionner en situation d’oligopole sur le marché des données. Or le rapport de force est en train de progressivement s’équilibrer alors que la dernière session du forum économique mondial de Davos a débouché sur une volonté commune à 70 pays (dont États-Unis, Russie, Japon, Chine et Union européenne) d’encadrer le commerce électronique par le biais des négociations à l’OMC. Néanmoins, la stratégie à employer divise les pays selon un découpage Nord-Sud, en plus d’un tiers camp de pays émergents qui se distingue par une volonté de réglementation nationale de la circulation des données numériques, opposé à la volonté de dérégulation de la triade Japon-UE-USA, qui semble s’aligner sur la position des GAFAM en matière de législation numérique.

Derrière la défense des principes de libre accès et de libre circulation des données se profile le Cheval de Troie de la lutte pour le contrôle des données numériques.

Le bras de fer homérique que mettent en scène médias et communicants autour des GAFAM et de la puissance publique américaine dans un prétendu face à face, contient une grande part de rhétorique destinée au grand public et qui recouvre en réalité un espace qui se veut post-politique. Si un rapport de force se dessine bien entre les deux acteurs, c’est avant tout autour du contrôle de la donnée numérique, mais très peu sur des questions d’orientation politique, domaine sur lequel il règne finalement un certain consensus. En réalité, toute l’emphase médiatique autour de la divergence sur les moyens de censurer l’Internet permet de faire disparaître toute discussion sur le bien-fondé de cet objectif même.

Un tour de force des grands du numérique a été de substituer leurs intérêts à ceux de l’Internet et des internautes en général. Comme si finalement, la lutte contre la mainmise de l’Etat sur les données, en plus d’être toute relative, garantirait que ces données soient plus en sécurité dans les serveurs de Microsoft ou Google, car que sont-ils sinon des synonymes de l’Internet libre et neutre ? Loin de l’opposition idéalisée entre défenseurs d’un Internet libre et pouvoirs publics cherchant à les museler, il s’agit surtout d’une lutte de pouvoir, menée à coups de millions de dollars injectés dans d’intenses lobbyings auprès des États pour conserver une position de marché avantageuse, ou pour influer sur les négociations autour de la législation du numérique en poussant pour une déréglementation du marché. Derrière la défense des principes de libre accès et de libre circulation des données se profile le cheval de Troie de la lutte pour le contrôle des données numériques. L’initiative philanthropique type – internet for all – à laquelle se prêtent les bienfaiteurs du numérique dissimule bien souvent une rivalité pour le recueil de data en augmentant la connectivité dans le monde.

Un enjeu supplémentaire reste celui de la décentralisation du stockage de données. Pour éviter de faciliter la régulation à l’échelon national des États, les GAFAM refusent de délocaliser leurs serveurs dans les pays concernés, qui se retrouvent alors stockés principalement aux États-Unis. Un problème de taille pour le droit de souveraineté numérique réclamé par des pays comme l’Inde ou le Nigéria. À l’inverse, le Cloud Act permet aux agences de renseignement américaines de requérir des données de la part de fournisseurs d’accès de Cloud computing, étrangers ou non, si la “protection de l’ordre public” américain est en jeu.

Les déclarations publiques de soutien à la cause environnementale, n’empêchent pas à Google de financer en sous-main des organisations et des think-tank conservateurs et climato-sceptiques, notamment le CEI, groupe de pression parvenu à convaincre l’administration Trump d’abandonner les accords de Paris. Ces derniers temps, l’image de Facebook se voit également être écornée. L’insuccès du projet Aquila, le déboire probable du Libra4 (projet de monnaie numérique indexé sur des devises fortes et reposant sur la technologie blockchain) en Europe, les remontrances du Congrès américain et le revers de l’affaire Cambridge Analytica auront fini d’enterrer les ambitions présumées de candidature électorale de Mark Zuckerberg. Face à Donald Trump, la défense d’une politique d’immigration souple est de mise puisque de bon ton pour l’image du jeune co-fondateur de Facebook, qui s’efforce tant bien que mal de se créer une aura de sympathie, mais surtout pour la raison que la Silicon Valley dépend massivement de l’importation de cerveaux et de talents étrangers pour soutenir son modèle largement fondé sur l’innovation.

En bref, par analogie, l’opposition entre acteurs du numérique et Etat n’est pas moins artificielle sur le plan politique que celui qui opposait en France le Parti socialiste à l’UMP. Il n’est pas de réel affrontement idéologique qui opposerait, sinon de façon superficielle, poussées libertaires des entreprises du numérique et État régulateur, mais plutôt une lutte d’influence pour une ressource qui est le nouvel or de ce siècle. D’ailleurs les récentes et peu convaincantes déclarations d’acteurs politiques projetant à terme de démanteler ou de taxer les GAFAM ne se fondent pas tant sur la base d’une impulsion anti-libérale que sur un idéal de libre-concurrence auquel la situation de monopole fait obstacle.

Internet, nouvelle mue d’un néolibéralisme « siliconé »

Derrière le paravent désintéressé et humaniste des entreprises du numérique se cache un agenda politique. C’est en tout cas la thèse que soutient le chercheur américano-biélorusse Evgeny Morozov dans son ouvrage Le Mirage numérique (2015). Le vrai débat autour de l’émergence de ces puissances du numérique devrait donc être celui du terrain politique. Les GAFAM constituent déjà un acteur politique, doté d’un soft-power 2.0 et porteur d’un modèle que l’on pourrait qualifier de tech-libertarianisme, affublé de ses déclinaisons les plus récentes comme celles du «capitalisme des plateformes» désignant les modèles Netflix ou encore Uber.

Morozov ne peut s’empêcher de remarquer l’étonnante synergie entre deux phénomènes pourtant analysés distinctement par le complexe médiatico-politique. Celui d’un côté, incarné par « Wall Street », de la crise, de la récession et de l’austérité qui s’occupe d’achever ce qu’il reste de l’État social tel qu’il a pu autrefois exister, et de l’autre côté celui qui incarne « l’abondance et l’innovation », le nouvel or californien. Or, Morozov nous dit de cette tendance inversement proportionnelle qu’elle s’articule autour d’un « numéro du bon flic, mauvais flic (Ibid, p.8) », autrement dit du bâton et de la carotte. L’objectif est simple : démanteler l’État social d’un côté, y substituer les plateformes numériques de l’autre. En bref, la révolution numérique en est une politique et sociale plus que technologique. En témoigne l’exemple récent du rachat par Google de Fitbit, géant du fitness, récoltant des données de santé de millions de patients américains, qui se révèlent curieusement stratégiques en pleine conjoncture de désinvestissement public en matière de services santé.

Le paradigme open society et la présentation de l’Internet comme un bien public contraste avec la suppression, aux États-Unis, de la neutralité du net, qui garantissait un même accès web selon l’opérateur sans différenciation aucune.

Pas de coïncidence pour Morozov, mais bien une stratégie concertée entre le démantèlement de l’État social et la Silicon Valley vantée pour son modèle d’innovation onirique : « Les fameux partenariats public-privé (plaie de nombreuses administrations publiques permettant un grignotage capitaliste de plus en plus féroce) sont désormais le cheval de Troie du contrôle numérique globalisé ». Ce n’est pas un hasard si les lois ont un train de retard sur l’endiguement du phénomène de marchandisation numérique, puisque dans un même temps les gouvernements ont renoncé à la politique pour laisser le marché libre comme seul (dé)régulateur social.

© Scudder, Kirby

Le redéploiement contemporain du néolibéralisme, enraciné matériellement dans la Silicon Valley, projeté virtuellement par le biais de l’espace numérique, empêche selon Morozov de penser un modèle alternatif de gestion des données. Le monopole des entreprises numériques n’est pas seulement un monopole économique, mais il sature aussi l’imaginaire politique autour du numérique6. La confiscation des données privées à des fins publicitaires ou d’espionnage de masse est un modèle défini par défaut. Le paradigme des traités de libre-échange type TAFTA sacrifie les droits protégeant les données et la vie privée des internautes sur l’autel du libre-échange qui ne doit surtout pas être entravé. C’est au nom de ce même principe de liberté et de démocratisation de l’accès « gratuit » à Internet que le projet Facebook de réduire la fracture numérique en Afrique propose de fidéliser une clientèle pauvre avec un accès certes gratuit, mais partiel, pour des utilisateurs qui devront payer au-delà d’un certain niveau d’accès, prix indexé sur le niveau de données consommées. Morozov anticipe la perversité de cette stratégie qui vise à monétiser ces données que les utilisateurs d’Internet.org auront été contraints de céder.

Le « capitalisme de plateforme » se caractérise par l’immixtion de « plateformes » numériques dans tous les secteurs publics désinvestis par l’État.

Le paradigme open society et la présentation de l’Internet comme d’un bien public contraste avec la suppression, aux États-Unis, de la neutralité du net, qui garantissait un même accès web selon l’opérateur sans différenciation aucune. Cette mesure, bénéficiant logiquement aux GAFAM, est là aussi placée sous le signe du libre-échange et sur l’impératif d’évacuer ce « nuage régulatoire étouffant au-dessus d’Internet ». Si Twitter, entre autres, a pu s’opposer à cette mesure, c’est davantage au motif du droit à l’innovation et à la libre-concurrence qu’à celui d’un accès non-discriminatoire à l’Internet.

La Silicon Valley subit un récent phénomène de diversification sectorielle qui s’explique par la multiplication des filons technologiques : intelligence artificielle (IA), robotique, médecine de précision, véhicules autonomes ou encore internet des objets. Le « capitalisme de plateforme » se caractérise par l’immixtion de « plateformes » numériques dans tous les secteurs publics désinvestis par l’État. Les biotechnologies en milieux hospitaliers, la gestion bancaire, les paiements en ligne, l’immobilier, les jeux vidéos, etc. Mais l’idéologie néolibérale, indissociable de ce milieu, se diffuse aussi de façon plus traditionnelle, la Silicon Valley étant répartie en cercles concentriques de sociabilités, et notamment d’associations néolibérales, libertariennes ou transhumanistes.

Internet, objet d’émancipation ou de contrôle ?

La gouvernance numérique théorisée sous l’administration Obama ouvrait la promesse d’une redéfinition du lien entre individus et État sous l’égide de la transparence et de l’ouverture. Le territoire digital inaugure alors une gouvernance rénovée, appuyée par tout l’éco-système des investisseurs et startupers formant le maillage de la Silicon Valley. Le soft power classique auquel nous avait habitués les Coca-Cola, Disney et autres McDonald’s laisse place au smart power, tel que conceptualisé par S. Nossel, mis en application par Hillary Clinton et porté par ces géants californiens du numérique. L’espace virtuel était censé rebattre les cartes en faisant émerger une hiérarchie horizontale et un pouvoir apparemment sans épicentre. Il n’a pas cependant fallu attendre beaucoup de temps pour que l’illusion se dissipe et pour que les devises de transparence, liberté d’expression et défense de l’« internet libre » deviennent des synonymes de surveillance de masse, contrôle du récit politique, et oligopole numérique. L’espérance d’une démocratie de la transparence et de l’auto-régulation a vite fait place à la crainte des villes entières sous « gouvernance algorithmique » et à la merci des IA et d’un soft-totalitarisme digital. En outre, la puissance numérique a bien son centre d’émission tangible : celui de la Silicon Valley, qui dénote l’esprit d’une région bien particulière au sein d’un pays déjà rendu singulier par son attachement viscéral au capitalisme.

Le discours visant à « préserver» l’Internet de toute « fake news » – notion très englobante – au nom de la sauvegarde de la liberté d’expression, cache un paradoxe criant et une volonté de se ressaisir du récit politique, dont l’Internet est devenu le principal medium.

Cette doctrine Obama-Clinton de digital diplomacy a été illustrée lors du « Printemps arabe » lorsqu’Alec Ross, conseiller spécial à l’innovation auprès de la secrétaire d’État, faisant le lien entre Washington et la Silicon Valley et pouvant compter sur la pleine coopération de cette dernière, soutint directement les révolutions arabes en garantissant la « liberté d’Internet » sur le terrain, comme « droit des peuples ». Son équipe s’est employée à contourner les tentatives de contrôle de l’Internet par les dirigeants locaux au nom des forces « pro-démocratiques ». Si ce jour-là le camp Clintonien a eu la chance de se trouver du « bon » côté , il n’hésite pas aujourd’hui à prôner un contrôle de l’Internet sous le prétexte d’une lutte contre la prolifération de « fake news », ou d’ingérence informatique étrangère, phénomènes tenus pour responsable de la défaite de leur candidate aux dernières élections. C’est dire si le récit du fantasme d’un Internet libre a fait du chemin, et à quel point il est ajustable. Le discours visant à « pacifier » l’Internet de toute « fake news », notion très englobante, au nom d’une sauvegarde de la liberté d’expression, cache un paradoxe criant et une volonté de se ressaisir du récit politique dont l’Internet est devenu le principal medium.

Dans un contexte international simultané de raideur étatique et de montée de la révolte, l’Internet est tantôt perçu par les gouvernements comme un contre-pouvoir menaçant, tantôt comme un outil de contrôle sans précédent.

Il est certain que les menaces WikiLeaks et Snowden, pas vraiment à l’avantage des Américains, ont précipité l’abandon du récit d’un Internet libre et utopique, qui ne bénéficiait plus à la stratégie cyber-diplomatique du pays. L’internet chinois et désormais russe, ainsi que les tentatives de législations européennes, ne “violent” le principe de démocratisation de l’Internet que lorsqu’ils constituent une inertie face à la puissance de projection numérique ou éco-numérique américaine. D’ailleurs, lorsque l’opportunité se présente à Google d’offrir un moteur de recherche censuré et conforme aux standards politiques chinois ou de vendre des mots-clés de son moteur de recherche à des candidats à la présidentielle américaine via Google Ads, l’appât du gain prend rapidement le dessus. Les magnats de la Silicon Valley ne rechignent jamais à mettre en place des systèmes de surveillance publics aux Philippines ni à se mettre à la disposition du contrôle étatique chinois. Par ailleurs, si le président Trump s’offusque des tentatives de taxation des GAFAM en Europe, c’est avant tout dans une optique de protectionnisme économique, de la même façon que les accusations d’espionnage à l’encontre de Huawei s’inscrivent dans un contexte plus général de guerre économique7 avec la Chine et de mise en pratique d’une stratégie de lawfare internationale. Derrière l’apparente divergence entre les entreprises du numérique et le gouvernement américain autour d’Internet, comme lorsque les candidats Trump et Clinton plaidaient pour fermer l’Internet dans les zones à risques de radicalisation djihadiste, et que Bill Gates réclamait haut et fort un accès universel à Internet, plus discrètement, se peaufine une relation de coopération entre les deux acteurs, notamment à travers les agences de renseignement et les agences gouvernementales en général. Dernier exemple en date avec Google qui semble, en coopération avec la NASA, avoir acté la course internationale pour la suprématie quantique.

Dans un contexte international simultané de raideur étatique et de montée de la révolte, l’Internet est tantôt perçu par les gouvernements comme un contre-pouvoir menaçant, tantôt comme un outil de contrôle sans précédent. Le projet dystopique de cité saoudienne « intelligente » Neom, le logiciel orwellien d’espionnage « Gaggle » mis en place dans les écoles américaines pour prévenir le risque de fusillade, le mal nommé « social credit system » chinois, constituent l’envers du décor californien. Loin des promesses de départ, le problème semble être aujourd’hui de se résoudre à réguler l’Internet pour sauvegarder sa liberté tout court. À Bristol, les données d’un quart de la population sont exploitées par un algorithme de prédiction sociale. Le croisement de ces données seraient capables de « prédire les problèmes sociaux », à savoir les risques de violences domestiques, d’abandons d’enfants, et ce en allant même jusqu’à établir des profils de citoyens se voyant assigner une note allant de 1 à 100, révélant un sinistre traitement sécuritaire, psychiatrique et hautement discriminant de la question sociale :

« Le système a même prédit qui parmi les enfants de 11 à 12 ans semblait destiné à une vie de NEET – quelqu’un qui ne travaille pas, ne fait pas d’études et ne suit pas de formation – en analysant les caractéristiques que les personnes actuellement dans cette situation présentaient à cet âge »

Là encore, l’usage qui est fait des algorithmes n’a rien de neutre politiquement et ne devrait pas en cela constituer une fatalité. Evgeny Morozov en est convaincu, il existe une autre façon d’exploiter l’outil numérique, au moyen d’un combat qui se mène sur un plan politique, sans se réduire à une lutte contre la technologie numérique en soi.


1 Dont le nom fait référence aux matériaux électroniques liés à l’informatique comme les systèmes d’armements ou encore les calculs ballistiques.

2 Startup dont la valorisation boursière excède les 1 milliards de dollars.

3 Advanced Research Project Agency Network, lui-même issue du projet ENIAC (1945), ordinateur IBM servant au calcul balistique, puis du projet SAGE (1952), réseau d’ordinateurs pour coordonner le territoire américain en cas d’attaque militaire soviétique.

4 Système de surveillance mondial déployé par la NSA et utilisant les données collectées depuis Internet et ses fournisseurs d’accès.

5 L’intraçabilité de cette monnaie numérique pose la question de l’évasion fiscale.

6 Le projet Cybersin de Salvador Allende aurait pu représenter un usage alternatif et émancipateur des algorithmes.

7 Aux nouvelles générations de plateformes du numérique NATU (Netflix, Airbnb, Tesla, Uber) répond l’émergence de concurrents asiatiques du numérique, les fameux BATX (Baidu, Alibaba, Tencent, Xiaomi).