Alain Gras : « Je suis pour une électricité à la mesure de ce dont on a besoin »

Envoyé par A. Gras
Alain Gras lors d’une conférence à Valencia, Espagne.

L’électricité est souvent considérée comme une solution miracle face aux changements climatiques. Décrite comme propre et durable, nombre de personnalités la pensent comme une alternative concrète aux énergies fossiles. Nous avons interrogé le chercheur Alain Gras, spécialiste des techniques et fondateur du centre d’études des techniques, des connaissances et des pratiques. Dans son dernier livre La Servitude électrique, du rêve de liberté à la prison numérique qu’il signe avec Gérard Dubey, il nous invite à réfléchir et à penser la relation malsaine qu’entretiennent nos sociétés avec l’électricité et notre rapport à la consommation énergétique.

LVSL – Vous montrez dans votre livre que depuis son invention, l’électricité est perçue comme une énergie propre, presque « magique ». Quelles sont les conséquences de ce discours, qui n’a que très peu évolué depuis plusieurs siècles ?

Alain Gras – La « fée électricité » est un terme inventé lors de l’exposition universelle de 1889. L’idée de magie conférée à cette technique était déjà présente chez les alchimistes du XVIIIe siècle. Le seul courant électrique que l’on connaît est la foudre, apanage des dieux, de Jupiter dans le cas des Romains et de Taranis chez les Gaulois. Tous les premiers dieux de l’espace indo-européen possèdent la foudre comme pouvoir suprême. Ce discours qu’on tient aujourd’hui est lié à cette apparition première de l’électricité. Elle est pensée comme quelque chose qui est hors de la terre, qui n’est pas susceptible d’avoir les difficultés et les défauts de ce qui est terrestre. C’est ce phénomène qui lui confère son aspect magique. L’électricité apparaît comme un élément qui n’a aucun aspect négatif. Pourtant, elle est produite par des éléments terrestres fossiles, le charbon au XIXe siècle, le pétrole, le gaz et l’uranium aujourd’hui. L’électricité n’est donc pas propre en soi, elle a l’apparence de la propreté.

LVSL – Certains politiques, à l’instar de Joe Biden, misent sur les énergies renouvelables pour stimuler une « croissance verte » et vertueuse. Pourtant, ce mode de développement, en apparence durable, est-il à même de nous sortir de l’impasse climatique ?

A. G. – Si je veux vous parler de manière sincère, je dois alors répondre à votre question par la négative. Premièrement car les énergies dites renouvelables sont intermittentes et ne peuvent ainsi assurer un courant continu à nos industries ou à nos ménages. Il nous sera impossible de remplacer l’électricité industrielle par des éoliennes ou du solaire. Ensuite, ces énergies conduisent irrémédiablement aux mêmes problèmes que les carburants thermiques. S’il n’est pas possible d’affirmer que ces dernières sont prédatrices de la même manière que les énergies fossiles, nous pouvons néanmoins penser qu’elles restent destructrices. Les technologies solaires ou éoliennes nécessitent ainsi une extraction d’une multitude de terres et de métaux rares. Ces processus d’extraction sont très énergivores et in fine nocifs pour l’environnement. Par exemple, pour obtenir 1 kilogramme de lutécium, il faut extraire 1200 tonnes de roche. Il est par ailleurs dommage que nous n’abordions que le problème du Peak Oil, ou pic pétrolier, dans l’espace public. Comme l’a montré dans ses ouvrages Philippe Bihouix, nous allons également devoir affronter un Peak All, à savoir le déclin des réserves mondiales de métaux. Cela vaut aussi bien pour le cuivre que pour les terres rares…

LVSL – De même, certains responsables promettent de réduire drastiquement nos émissions de gaz à effet de serre grâce aux nombreuses innovations relatives aux batteries électriques ou à l’hydrogène. Certains pays, à l’instar de l’Allemagne, financent de larges projets afin de développer ces technologies. Ces inventions, souvent destinées à des usages individuels, sont-elles réellement des « révolutions » capables de répondre aux problèmes environnementaux modernes ?

A. G. – Pour moi, l’hydrogène comme la batterie ne peuvent être considérés comme des révolutions. L’hydrogène est un leurre total. Il est fabriqué par électrolyse à l’aide de l’électricité, elle-même étant en général produite par une énergie thermique. L’hydrogène est également comprimé à 700 bars dans de très lourds réservoirs, ce qui exige de l’énergie, pour ensuite redonner de l’électricité au moteur, curieux cycle plus vicieux que vertueux ! Un ensemble de conditions rend cette technologie non rentable mais l’hydrogène sert en réalité à compenser les défauts du renouvelable, à savoir son imprévisibilité et son intermittence. Il remplace la batterie, c’est pourquoi on le range dans la catégorie « piles à combustible ». Contrairement à ce qu’affirment nombre de responsables politiques, son usage pour l’aéronautique est largement incertain. Gérard Théron, membre de l’Académie de l’air et de l’espace, estime qu’avec un trafic aérien égal à celui d’avant la crise sanitaire que nous traversons, l’aviation à hydrogène consommerait entre 30% et 40% de la production électrique mondiale. Malgré tous les doutes que nous pouvons émettre vis-à-vis de l’hydrogène, dont la liste que nous avons dressée ici n’est pas exhaustive, la France suit l’exemple de l’Allemagne et a investi 7 milliards d’euros dans l’hydrogène.

Pour une analyse détaillée de l’utilisation de l’hydrogène dans la transition énergétique, lire sur Le Vent Se Lève la synthèse de Julien Armijo : l’hydrogène : quel rôle dans la transition énergétique ?

LVSL – D’autant plus qu’en donnant à ces technologies un caractère sacro-saint, on oublie bien souvent de réfléchir à des moyens de faire décroître notre production et nos besoins.

A. G. – Totalement ! On nous vend ces technologies en nous promettant que rien ne changera par rapport à aujourd’hui. Ni notre mode de consommation, ni notre façon d’habiter la terre. On nous promet un monde propre et parfait sans que l’on change notre façon d’être. C’est une pure illusion ! Je donne toujours l’exemple du premier usage domestique de l’électricité lorsque Edison a introduit l’éclairage électrique dans le quartier de Manhattan à Pearl Street. Les bourgeois ont vu que leur intérieur n’était plus pollué par le gaz, ce qui était formidable. Pourtant à cinq kilomètres de là, il y avait deux centrales thermiques qui consommaient plusieurs tonnes de charbon par jour et jetaient leurs déchets dans l’Hudson. C’était une simple délocalisation de la pollution et le processus est resté le même. C’est pourquoi ce subterfuge originel joue un rôle éminent dans la promotion de l’électrique et nous avons baptisé « modèle Edison » cette propreté apparente.

LVSL – Les énergies « renouvelables » sont finalement l’apanage de la « société d’externalisation » …

A. G. – Actuellement en Chine, les voitures électriques fonctionnent en partie avec la fumée du pays Ouïghour qui est le plus grand producteur d’électricité du pays. On pollue quelque part et on fait croire que c’est propre ailleurs. Pour la planète, ça ne change rien… Le problème majeur aujourd’hui est celui de la démesure. 

Les États et les GAFAM sont habités par la même « quantophrénie », autrement dit la même fascination pour la quantification du réel.

Je ne suis pas contre l’électricité, au contraire, je suis pour une électricité à la mesure de ce dont on a besoin. Toutefois la question philosophique voire métaphysique, si j’ose dire, qui se pose aujourd’hui est celle de l’abondance du superflu qui conduit à des absurdités. A-t-on besoin d’une électricité verte obtenue par la destruction de nos milieux de vie ? Avons-nous besoin de produire cette énergie pour faire rouler des voitures faussement « propres », alimenter des datacenters [centres de données, ndlr.] ou faire fonctionner des « mines » à bitcoins d’une gourmandise gigantesque, apogée de la futilité marchande et financière totalement hors-sol?

LVSL – Dans votre livre, vous montrez d’ailleurs que « derrière le fonctionnement automatique des machines est un jeu de volonté, consciente ou non, d’effacement du sujet, soit une stratégie « d’évitement du politique », de la conflictualité sociale et des rapports de force qui le définissent ».

A. G. – Ce que vous dites là vaut pour l’ensemble de la technologie moderne qui est une façon de nier les rapports de force. Nous nous projetons dans un avenir qui n’a plus aucun sens mais un seul objectif : le développement technologique pour le compte du marché libéral. On nous donne maintenant le modèle du numérique, issu de l’électricité, comme étant l’avenir de ce monde. Seulement, avons-nous envie d’être des objets numériques ? La technologie n’est pas neutre contrairement à ce que prétendent nombre de cercles bien-pensants. Les algorithmes nous imposent une logique binaire du comportement, une véritable morale qui est celle de l’ingénieur informaticien mais pas celle de l’humain ordinaire. Inutile de chercher bien loin, le distanciel numérique en est un exemple flagrant. Nous avons tous pu faire à cette occasion l’expérience que le monde « en distanciel » n’est plus celui de l’animal social que nous sommes. On nous fait perdre l’intérêt pour le jeu politique qui s’efface petit à petit derrière des contraintes apparemment objectives.

LVSL – Justement, la technologie nous est imposée, et il n’est plus possible de la remettre en cause.

A. G. – Absolument, il n’y a qu’à regarder la 5G. Il y avait un mouvement en Angleterre qui dégradait des antennes mais la crise sanitaire a très vite occulté cette question. On ne discute plus du tout de cette technologie, qui est pourtant un élément éminemment politique.  Nous sommes dans une période de rupture sur tous les plans. On a urgemment besoin d’un débat sur la technologie, de savoir où nous emmène la science. Je défends la technique tant qu’on la maîtrise. La technologie est fournie par la science qui est devenue, à mon sens, totalement anémique sur le plan éthique. Je pense qu’en réfléchissant à notre usage de la technologie comme peut le faire François Ruffin [député français affilié à la France Insoumise, ndlr.], on peut questionner sa rationalité scientifique. La science est perçue comme bonne et souhaitable en soi et le progrès scientifique trop souvent pensé comme un horizon immaculé, sans tâches.

Pour en savoir plus sur le dernier livre de François Ruffin, lire sur LVSL l’entretien réalisé par Arthur Beuvry : François Ruffin : « Emmanuel Macron poursuit une politique au service de sa classe »

LVSL – Comme vous l’analysez dans votre livre, la numérisation de nos activités n’est pas à voir d’un bon œil, tant pour des raisons écologiques que sociales. Les États se posent-t-il en protecteurs face à ce phénomène ou favorisent-ils son déploiement ?

A. G. – Avez-vous déjà entendu un État parler contre le numérique, contre le « progrès » technologique que nous apporte la numérisation du monde ? On n’en connaît aucun qui s’y oppose. Le RGPD – Règlement Général sur la Protection des Données, par exemple peut donner l’impression que les États ont le souci de protéger les libertés fondamentales des individus contre les géants du numériques comme les GAFAM – Google, Amazon, Facebook, Apple, Microsoft. Mais entre ces fameux GAFAM, parfois présentés comme de dangereux prédateurs plus puissants que n’importe quel pays, et ces mêmes États, il y a plus qu’une connivence, un lien de parenté. Tout d’abord les États modernes partagent avec les GAFAM le même goût pour la puissance et la démesure. Ensuite leur puissance repose très largement sur leur capacité à compter, dénombrer, recenser tout ce qui existe. La même « quantophrénie », autrement dit la même fascination pour la quantification du réel les habite. À l’échelle moléculaire leur rivalité est donc en partie factice, sur jouée, puisqu’ils ne peuvent en réalité ni exister ni croître les uns sans les autres. Les États modernes ont besoin de la puissance algorithmique et des grands réseaux pour accroître leur contrôle des populations qu’ils administrent. Les GAFAM ont besoin d’eux pour installer et protéger leurs infrastructures vitales. On pense souvent ces dernières comme des entités déterritorialisées, mais elles sont pourtant physiquement implantées sur nos territoires. Nos paysages sont par ailleurs remodelés par des travaux de transformation titanesques engagés à l’occasion de chaque changement de standard technologique, comme le montre la 5G.  Les débats actuels sur le « passeport covid » ou la cybersécurité en apportent chaque jour de nouvelles preuves. Pour ne prendre que ce dernier exemple, les cyber-attaques récentes sur des centres hospitaliers français à Dax et Villefranche-sur-Saône, ont mis le doigt sur les dangers qui existent quant à la numérisation de nos données les plus personnelles. Mais rien n’y fait. En réponse à ces attaques, l’État français annonce le déblocage d’un milliard d’euros pour le financement des recherches en cybersécurité. Il valide et accélère à cette occasion le processus de numérisation de la santé et de l’intimité qui va avec. Les besoins en cybersécurité vont continuer à se faire sentir et vont directement provoquer une consolidation du système numérique qui entrainera à son tour de nouvelles menaces et de nouveaux besoins en protection. La seule manière de sortir ce cercle vicieux électro-numérique passe sans doute par la prise de conscience du caractère mortifère de cette puissance sécuritaire. Nous avons besoin pour ce faire d’opérer un travail sur les couches les plus enfouies de l’imaginaire social. Peut-être a-t-il déjà commencé ?

FairTube : « Les plateformes ressemblent aux usines du XIXe siècle »

Le syndicat allemand de la métallurgie IG Metall – fort de plus de 2 millions d’adhérents – et Youtubers Union, mouvement en ligne de défense des droits des youtubeurs, annonçaient le 3 février dernier le lancement de FairTube. Cette association internationale a pour but de rassembler et de porter la voix des créateurs de contenu et des travailleurs du clic. Tout concourt à compliquer l’organisation syndicale de ces travailleurs des plateformes : atomisés et éparpillés sur plusieurs pays et souvent loin des sièges des plateformes multinationales, payés à la tâche (au nombre de vues ou au temps de visionnage générés), précarisés par les aléas des modes et des algorithmes changeants, à la merci d’une suspension unilatérale qui peut survenir à tout moment… Nous avons rencontré Mariya Vyalykh et Elena Koplin, deux employées d’IG Metall et membres de l’équipe bénévole de FairTube. Entretien réalisé et traduit par Jean-Baptiste Bonnet et Andy Battentier.

Retrouver ici une analyse par LVSL de l’économie de plateforme et des problèmes qu’elle soulève pour les travailleurs et les services publics.

LVSL Comment l’idée de FairTube est-elle née ?

Mariya Vyalykh FairTube est née d’une coopération entre l’initiative YouTubers Union et IG Metall. IG Metall était impliqué sur les sujets du crowdworking et de la défense des travailleurs indépendants depuis 2015. Le syndicat s’est intéressé à YouTubers Union et a voulu soutenir cette initiative étonnante, un cas unique d’organisation des travailleurs des plateformes numériques. Il s’agissait au début uniquement d’un groupe Facebook. Ce dernier a ensuite évolué vers une coopération informelle entre Jörg Sprave, YouTubers Union et IG Metall, ce qui a suscité l’attention de la presse et mis la pression sur YouTube. De nombreuses personnes ont voulu rejoindre l’initiative ou faire un don, mais cela n’a pas été possible car IG Metall ne peut pas accueillir de membres en dehors de l’Allemagne. Il a donc été décidé de créer une association, FairTube. Elena et moi travaillons chez IG Metall mais investissons une partie de nos heures de travail dans FairTube. Avec cette association, nous pouvons accepter des membres de tous les pays, ayant tout type de profil. Cette ouverture est importante pour nous et le fait d’avoir une association officielle nous donne également plus de pouvoir juridique et nous permet d’être davantage pris au sérieux par les élus, les entreprises, les journalistes, etc.

blank
Logo de FairTube © FairTube

LVSL Comment les plateformes ont-elles réagi à votre initiative ? Avez-vous été bien accueilli ou les réactions ont-elles été plutôt hostiles ?

 MV – Nous voulions organiser une réunion avec YouTube et Google, qui nous ont invités pour cela à Berlin. Mais elles ne voulaient voir que le syndicat – à l’époque, FairTube n’était pas encore constituée en association. Elles ont donc dit qu’elles n’accepteraient que des représentants d’IG Metall et non de Youtubers Union. Elles ne voulaient ainsi aucun youtubeur dans la salle. Nous avons estimé que cela n’avait pas de sens et nous avons également demandé à la communauté quelle était la meilleure chose à faire : y aller, reporter la réunion ou l’annuler. La plupart nous ont dit que nous devrions annuler la réunion, ce que nous avons fait car nous ne pouvons pas discuter des droits des youtubeurs sans qu’aucun d’entre eux ne soit présent dans la salle. Après cela, nous nous sommes davantage concentrés sur la formalisation de l’association et maintenant que nous avons une forme légale, ils ne pourront plus dire non. Pour l’instant, nous nous concentrons davantage sur la formation de la communauté. L’action juridique n’est pas notre priorité pour le moment, mais nous ne l’excluons pas à l’avenir.

LVSL – Combien FairTube compte-elle de membres ? Avez-vous des données sur leur localisation et la taille de leur chaîne ?

MV – Nous avons environ 1 200 membres aujourd’hui. Les pays les plus représentés sont les États-Unis, l’Allemagne, la Grande-Bretagne, la Suède, les Pays-Bas, l’Australie, le Canada et bien d’autres encore. Au total, nous avons des membres issus de plus de 70 pays au sein de l’association.

Elena Koplin Nous n’avons pas d’informations exactes sur la taille des chaînes des membres et c’est assez hétérogène. Nous avons de grandes chaînes, mais aussi de plus petites. Nous avons aussi de simples abonnés.

MV – Il y a aussi des créateurs de Twitch ou de TikTok, c’est très varié. Souvent, les gens travaillent sur différentes plateformes. Ils ont leur activité principale sur YouTube et produisent aussi du contenu secondaire sur Instagram, ou l’inverse.

EK – Nous parlons beaucoup des créateurs de contenus, mais FairTube est aussi ouverte aux travailleurs des plateformes qui effectuent des tâches simples comme des textos ou des clics. Pour nous, ces personnes font également partie de la communauté.

LVSL – Donc, vous avez aussi de simples abonnés au sein de FairTube ?

EK – Oui, c’est ouvert à tous. Il est important que nous ayons autant de membres que possible. Ils nous apportent un soutien efficace. En plus, vous savez, il y a des gens qui voudraient être youtubeurs et en sont encore au début parce qu’en créant une chaîne en 2021, c’est vraiment difficile de se démarquer. Les algorithmes sont souvent injustes, surtout pour les petits youtubeurs. Ils nous rejoignent car ils recherchent de l’aide, du réseau, des échanges avec des youtubeurs plus importants et expérimentés. Ils soutiennent notre cause et veulent faire partie de cet environnement.

LVSL Quelle est votre capacité à faire pression sur YouTube ? Allez-vous organiser des campagnes médiatiques ? L’équivalent d’une grève est-il envisageable pour les créateurs de contenu ?

MV – FairTube est une association à caractère syndical. Le principal outil dont nous disposons est la croissance de notre communauté : plus il y a de gens, plus nous aurons d’attention de la part des organisations du numérique, des médias et des plateformes, et plus YouTube sera sous pression. C’est notre principal moyen de pression car les grèves ne sont pas vraiment possibles dans l’économie de plateforme. Elles sont difficiles à organiser car nous ne pouvons pas rencontrer physiquement la plupart de nos membres, qui se trouvent dans des fuseaux horaires et des pays différents. Néanmoins, il y a déjà eu des journées de non-téléchargement où les créateurs ont accepté de ne rien mettre en ligne pendant vingt-quatre heures. Cela dit, la plateforme est tellement énorme que même si 27 000 personnes ne téléchargent rien un certain jour, cela ne l’affecte pas énormément. De plus, il y a de grandes entreprises de médias et des célébrités qui ne sont pas dans la même situation que les créateurs de contenu et qui continueront à télécharger, notamment parce qu’elles ne sont pas traitées de la même façon par YouTube.

Mobilisation des livreurs © Marion Beauvalet
D’autres secteurs de l’économie numérique s’organisent, notamment les livreurs à vélo

LVSL Avez-vous des relations avec des syndicats traditionnels en dehors d’IG Metall, notamment aux États-Unis, où vous semblez être bien implantés ?

MV – Pour l’instant, FairTube n’a pas travaillé avec d’autres syndicats. Mais nous sommes en contact avec d’autres groupes dans lesquels les créateurs de contenu s’organisent et nous sommes ouverts à eux. Il est important de noter que tous les syndicats ne sont pas encore ouverts à cette idée de travail numérique, même si de plus en plus y sont intéressés. Il y a une difficulté avec la question du statut, indépendant ou non, car les syndicats ne défendent généralement que les employés. À l’avenir, nous espérons que cela se répandra davantage et que nous pourrons coopérer.

LVSL Quels sont vos objectifs vis-à-vis de YouTube et des autres plateformes ? Que leur demandez-vous ?

MV – Nos principales exigences sont la transparence et des règles claires. Les créateurs et les travailleurs doivent savoir exactement quelles sont les règles et ces règles doivent être les mêmes pour tout le monde. Nous sommes donc pour l’absence de discrimination : tous les créateurs doivent être traités de la même manière. Nous voulons également un contact humain : il est important que les créateurs puissent contacter une vraie personne et pas seulement des bots lorsqu’ils rencontrent des difficultés, par exemple la suppression de leur chaîne. C’est pourquoi nous voulons mettre en place, en accord avec les plateformes, un mécanisme d’arbitrage indépendant pour résoudre les conflits avec les travailleurs. Ce n’est pas très connu mais cela existe déjà pour de nombreuses plateformes de crowdsourcing. C’est l’un des objectifs à long terme que nous avons annoncé dans la vidéo de lancement de FairTube, où nous avons fait part de nos revendications.

 « Nos principales exigences sont la transparence et des règles claires. »

LVSL Quels sont vos objectifs à long terme avec cette association ?

MV Améliorer les conditions de travail dans l’économie des plateformes, fournir des règles plus transparentes et plus justes et disposer d’un mécanisme indépendant de résolution des litiges, ce qui devrait également rendre le fonctionnement des plateformes plus équitable. Par exemple, il est inacceptable qu’une chaîne puisse être bloquée du jour au lendemain et que parfois les plateformes ne fournissent même pas de raison légitime à cela. Cela ne devrait pas se produire non plus sur les plateformes de crowdworking. Nous voyons souvent des situations où le compte d’une personne est fermé sans qu’elle en soit informée à l’avance, ce qui est absolument inacceptable car certaines personnes comptent sur ce revenu. Nous voulons donc améliorer les règles et les rendre plus transparentes. D’une manière générale, il faut améliorer les conditions de travail sur les plateformes numériques car c’est là que se joue l’avenir du travail. Si vous améliorez les conditions de travail sur Internet, cela affecte aussi l’ensemble du monde du travail. Parfois, les plateformes numériques du XXIe siècle ressemblent aux usines du XIXe siècle. Les entreprises dans le monde hors-ligne le voient et profitent du manque de protection des travailleurs des plateformes pour externaliser de nombreux emplois. Nous devons agir sur ce point.

EK – Un autre objectif à long terme est de renforcer la communauté : connaître ses droits, savoir quelles sont les règles qui s’appliquent à chacun. Cela commence par des conseils comme « Ne travaillez pas sans avoir lu les conditions légales » car c’est une information très importante. Cette solidarité au sein de la communauté est très importante pour nous.

MV – Les entreprises, dans leurs conditions générales, n’autorisent pas toujours la création de groupes Facebook ou la discussion du travail en dehors de la plateforme, ainsi les travailleurs se sentent seuls. Ils n’ont pas autant de moyens d’organisation que dans les entreprises traditionnelles. C’est donc aussi l’un de nos objectifs à long terme avec la création de FairTube : construire des réseaux de partages et d’échanges pour que les travailleurs des plateformes ne se sentent plus seuls et puissent se donner des conseils les uns aux autres.

« Les entreprises, dans leurs conditions générales, n’autorisent pas toujours la création de groupes Facebook ou la discussion du travail en dehors de la plateforme. »

LVSL Comment percevez-vous le type de relation de travail qui existe entre les plateformes et les créateurs de contenu ?

MV – Cela dépend, il faut examiner séparément chaque situation. Dans certains cas, il y a une sorte de relation de dépendance parce que vous ne pouvez pas déterminer votre revenu de manière indépendante. Vous dépendez entièrement de l’algorithme de la plateforme et ne pouvez donc pas agir comme un indépendant. Mais les youtubeurs ont différents flux de revenus et la production de vidéos n’est parfois qu’une activité secondaire. Il faut donc évaluer au cas par cas.

LVSL Justement, les créateurs de contenu peuvent aussi être des patrons, employant des personnes pour le montage, l’enregistrement, etc. Comment gérez-vous cette double relation ? Est-ce que FairTube va être uniquement un intermédiaire entre les plateformes et les créateurs de contenu ou voulez-vous également jouer un rôle dans la façon dont les personnes qui travaillent pour les créateurs de contenu sont traitées ?

MV – C’est une bonne question. Certains youtubeurs ont même de véritables entreprises qui emploient plusieurs personnes, mais nous n’avons pas encore été confrontés à cette situation. Il sera bon à l’avenir de prendre en compte la situation des personnes à l’arrière-plan de la création de contenu.

LVSL En fin de compte, quelle est la différence entre FairTube et un syndicat ? Parce que vous collaborez avec IG Metall et que vous rassemblez et représentez les membres d’une communauté de travail. Cependant, le mot syndicat est absent de votre plateforme. Alors, est-ce que vous vous percevez comme un syndicat ?

MV – Nous pouvons dire que nous avons des fonctions similaires à celles des syndicats, mais pas au point de pouvoir signer des conventions collectives. Comme vous l’avez mentionné précédemment, il est difficile d’organiser des grèves. C’est l’une des principales différences : nous ne pouvons pas organiser de grèves physiques pour le moment. Nous sommes une association ; nous essayons d’aider les travailleurs des plateformes et d’améliorer leurs conditions de travail.

LVSL Plus globalement, comment percevez-vous la sécurité sociale qui devrait être fournie aux travailleurs de l’économie de plateforme ? Qu’est-ce que, à votre avis, les travailleurs des plateformes devraient attendre comme type de sécurité sociale ? Un revenu minimal ? Des allocations chômage ?

EK – Une sécurité sociale de base est essentielle. Mais le fait est que votre niveau de protection dépend de la situation de votre pays. Par exemple en Allemagne, il faut être salarié pour bénéficier de la sécurité sociale et je crois que c’est la même chose en France. Au Danemark, la situation est tout à fait différente car vous bénéficiez de services de sécurité sociale quel que soit votre statut. Il y a donc de fortes disparités entre les pays et nous devons commencer par faire en sorte que les gens soient conscients de leurs droits. En effet, nous voyons souvent qu’un compte est fermé alors que le propriétaire n’avait aucune idée que les plateformes étaient capables de faire ça et qu’il l’a accepté dès le début [en signant les conditions d’utilisation, NDLR]. Il faut donc faire circuler l’information et déclencher une vraie prise de conscience. Nous espérons qu’il y aura des changements, en particulier dans l’Union européenne, car nous y sommes actifs sur le plan politique avec IG Metall. C’est très important pour nous que la situation s’améliore mais c’est très, très difficile.

LVSL La plupart de ces plateformes, en particulier celles dont vous pouvez tirer un revenu, sont de grandes plateformes basées aux États-Unis. Chacune exerce un quasi-monopole sur un type de contenu particulier, si bien qu’il est impossible de leur échapper. On parle d’ailleurs de youtubeurs, d’instagrammeurs, je pense que cela indique quelque chose sur la dépendance aux plateformes. Pensez-vous qu’il soit possible, à moyen ou long terme, de développer des alternatives à ces monopoles ?

MV – De nombreux membres de notre communauté en parlent. S’ils ont des difficultés avec YouTube, ils se tournent vers une autre plateforme. Pour l’instant, il n’y a malheureusement aucune plateforme comparable à YouTube pour le partage de vidéos. Les capacités techniques ne sont pas aussi importantes et la portée n’est pas aussi large. Nous ne pouvons donc pas dire qu’il s’agit d’alternatives équivalentes. À l’avenir, si d’autres plateformes se développent et qu’il n’y a plus de concurrence, nous nous en réjouirons. Pour le moment, nous nous concentrons sur l’amélioration des conditions de travail sur YouTube. Si d’autres plateformes apparaissent avec des meilleures règles plus transparentes, ce sera un développement bienvenu.

EK – La législation sur les services numériques de l’UE pourrait faire avancer les choses à ce niveau. C’est un projet de changement des directives européennes qui pourrait favoriser l’émergence des petites plateformes à côté de YouTube. Si ces réformes sont adoptées, de réels changements pourraient se produire, en fonction de la formulation exacte de la législation. Mais cela dépend vraiment de la situation politique des pays. Nous voyons ce genre de législation aux États-Unis également, où l’attention se concentre sur la situation de Google et de YouTube. Ce sont des sujets très politiques [Voir l’article de LVSL “Les GAFAM ne seront pas démantelés”].

LVSL Comment exactement la législation sur les services numériques va-t-elle améliorer la situation des créateurs de contenu ?

EK – La législation sur les services numériques est une proposition de la Commission européenne qui va avec la Législation sur les marchés numériques. Elles pourraient obliger les plateformes à être plus transparentes sur leurs algorithmes et leurs systèmes de modération de contenu. Elles pourraient également donner aux créateurs de contenu la possibilité de s’opposer à une sanction ou d’entrer en contact avec de vrais humains sur la plateforme. Ainsi, cela pourrait être un changement à venir important. C’est en train d’être discuté dans l’UE en ce moment, nous allons garder un œil dessus. Cette législation ne concerne que l’UE mais elle pourrait avoir des effets au-delà [Pour une analyse plus poussée, voir l’article de Contexte].

LVSL Vous avez dit que l’économie de plateforme est l’avenir du travail, mais vous avez également évoqué des conditions de travail datant du XIXe siècle. Lorsque vous parlez d’avenir du travail, qu’entendez-vous par là ?

MV – La technologie est celle du XXIe siècle. Internet, l’IA et les algorithmes sont de plus en plus avancés chaque jour. Ces évolutions rendent les choses plus difficiles pour les gens et moins transparentes. En effet, les créateurs ne savent pas vraiment ce qui va se passer, combien de vues leur prochaine vidéo va recevoir, alors que cela détermine leur revenu. La technologie se développe chaque jour mais nous devons aussi penser aux travailleurs. Le développement des protections sociales est beaucoup plus lent que les évolutions technologiques. Les conditions de travail ne sont donc pas équitables pour le moment. En outre, on le voit avec le coronavirus, de plus en plus de gens travaillent à distance, en télétravail, voire depuis d’autres pays [Voir cet article de LVSL sur les enjeux et risques du télétravail]. Cela risque donc de devenir plus difficile d’organiser les travailleurs à l’avenir car les rencontres physiques se feront plus rares. C’est pourquoi nous devons réfléchir à la manière d’organiser et d’aider les travailleurs lorsque nous ne pouvons pas les rencontrer physiquement dans une entreprise ou une usine. C’est l’un des défis de l’avenir pour les syndicats et les associations comme FairTube.

EK – Le futur peut être très prometteur si nous avons de bonnes règles en matière de travail en ligne. C’est bien sûr difficile lorsqu’il s’agit d’une plateforme ou d’une entreprise qui n’est pas située en Allemagne et que l’on veut organiser des travailleurs qui viennent d’Allemagne ou de l’UE. Les plateformes se disent que nous pouvons utiliser des personnes des Philippines, qui peuvent faire le même travail pour beaucoup moins d’argent. C’est pourquoi nous disons que nous nous intéressons à la précarisation du travail là-bas. Parce qu’une entreprise située en Allemagne peut utiliser des travailleurs venant de pays où les normes de travail y sont inférieures voire très inférieures. C’est la difficulté de la numérisation du travail. D’un autre côté, cela permet aussi de multiplier la créativité et les liens entre les gens. De plus en plus d’emplois apparaissent dans le travail numérique et c’est un changement qui peut être positif. Mais nous avons besoin de bonnes règles pour éviter que les travailleurs soient confrontés à de très mauvaises conditions de travail.

« Les plateformes se disent que nous pouvons utiliser des personnes des Philippines qui peuvent faire le même travail pour beaucoup moins d’argent. C’est pourquoi nous disons que nous nous intéressons à la précarisation du travail là-bas. »

LVSL Dernière question : nous avons parlé de règles et de transparence pour les travailleurs. Mais les syndicats sont aussi traditionnellement très liés aux revendications salariales. La répartition des revenus entre les plateformes et les créateurs de contenu est évidemment un sujet très important. Pensez-vous que c’est un sujet dont vous pouvez discuter avec les plateformes, ou est-ce que cela sera plus conflictuel et difficile à aborder ?

MV – Bien sûr, la question des revenus est très importante pour tous nos membres. C’est l’un des principaux problèmes. Au bout du compte, tous les problèmes comme la baisse du nombre de vues ou voir sa chaîne être supprimée signifient que vous perdez votre revenu ou que celui-ci diminue. L’un de nos objectifs est donc d’avoir un revenu équitable pour tout le monde dans le travail de plateforme. Sur certaines plateformes, il n’y a pas de possibilité de gagner un revenu directement [les créateurs de contenu ne touchent pas de pourcentage sur la publicité, NDLR], comme sur Instagram. C’est aussi un objectif à long terme de FairTube : tous les travailleurs des plateformes devraient pouvoir gagner directement de l’argent avec leur travail. Les gens travaillent dur, c’est beaucoup plus difficile qu’il n’y paraît. En termes de paiement, au moins sur YouTube vous pouvez gagner un revenu. Sur TikTok, un peu, mais il n’est pas important. À l’avenir, nous espérons avoir des négociations avec d’autres plateformes ; c’est aussi l’un de nos objectifs.

De « l’État plateforme » au « citoyen usager » – Entretien avec Marie Alauzen

https://unsplash.com/@jeshoots?utm_source=unsplash&utm_medium=referral&utm_content=creditCopyText

Chercheuse spécialiste des questions de modernisation numérique des administrations publiques françaises, Marie Alauzen revient avec nous sur l’histoire du concept d’« État-plateforme » aujourd’hui en vogue dans les milieux institutionnels, ainsi que sur les transformations socio-politiques qui l’accompagnent. L’émergence de la notion de « citoyen usager » constitue selon elle le principal acquis de la période de transformation actuelle du concept d’État à l’aune de la numérisation. Ces transformations, redoutées par de nombreux observateurs critiques en raison des sources parfois libertariennes de ces théories, nous obligent à nous mettre au niveau des bouleversements qu’elles imposent à nos conceptions politiques et nos modèles sociaux. Entretien réalisé par Simon Woillet.

LVSL – Pouvez-vous nous donner en quelques mots les aspects les plus saillants de ce que l’expression « État-plateforme » signifie pour vous, depuis votre point de vue de chercheuse ?

Marie Alauzen – Par l’enquête J’ai enregistré plusieurs significations de l’expression d’« État plateforme » dans ses rapports de superposition, de différence ou de cohabitation plus ou moins pacifiés et évidents. Autrement dit, je prends le terme comme une coquille vide, et regarde la manière dont elle est tour à tour est remplie de sens sur un terrain donné — en l’espèce, celui de la modernisation de l’État en France.

Le terme est apparu en France notamment avec la publication, en 2012, de l’essai de Nicolas Colin et Henri Verdier, L’Âge de la multitude. Entreprendre et innover après la révolution numérique1. Les auteurs y décryptent le succès du secteur numérique nord-américain comme le fruit d’une stratégie économique dans laquelle les entreprises les plus puissantes et les plus valorisées sont celles qui se sont « alliées » avec des individus « équipés, connectés et éduqués », formant une « multitude ». Le concept de multitude est alors emprunté Michael Hardt et Antonio Negri, Multitude. Guerre et démocratie à l’âge de l’Empire2.

Il désigne initialement la possibilité de formes nouvelles de démocratie contenues dans une entité fonctionnant en rhizomes tissés de collectifs humains hétérogènes et transnationaux rassemblés autour des « communs ». Comme le peuple, les masses ou la classe, la multitude esquisse une unité de la représentation politique ; la seule — selon les auteurs de L’Âge de la Multitude qui s’en font les ventriloques — en mesure de faire advenir des changements politiques et économiques dont la France aurait besoin. Parmi ces changements réputés inéluctables, les auteurs identifient l’émergence d’un « État plateforme », c’est-à-dire un renversement des rapports administratifs entre l’État et la société civile à l’issue duquel « l’administration ne se percevra plus seulement comme chargée de servir ou de contraindre le citoyen. Elle pourra également envisager de le doter en ressources, de stimuler sa créativité et de relayer ses efforts3 ».

Cette vision politique brièvement développée dans le dernier chapitre du livre va s’infiltrer parmi les mots d’ordre de la réforme de l’État (innovation, simplification, participation des usagers et des agents, expérimentation…) sous l’impulsion d’Henri Verdier, nommé quelques mois après la parution de l’ouvrage, en janvier 2013, chef de la mission d’ouverture des données publiques, Étalab, rattachée au Secrétariat général pour la modernisation de l’action publique (SGMAP), puis en septembre 2015, directeur interministériel du numérique et du système d’information et de communication de l’État, l’une des deux directions du SGMAP.

De ce point de vue sémiotique, l’État plateforme est donc une double traduction. Il est la traduction du slogan de Tim O’Reilly, « Government as a platform », dans un essai à succès sur les conséquences politiques de l’économie numérique en France, puis le transport de cette notion dans le programme d’action de la modernisation de l’État, auquel Henri Verdier, l’un des deux auteurs, a directement contribué entre 2013 et 2018, mais dont il ne conserve aucun monopole définitionnel, puisque le terme continue sa carrière dans le cours des actions ordinaires de la modernisation de l’État.

LVSL – La notion d’État plateforme nord-américaine, notamment introduite par Tim O’Reilly ne semble pas tout à fait recouvrir ce que les institutions françaises et européennes entendent par État plateforme (si l’on songe ici également au modèle estonien), quelles différences peut-on identifier entre ces deux usages du terme selon vous ?

M. A – N’ayant pas fait d’enquête spécifique sur ce point, je ne pourrais pas pousser l’analyse jusqu’à dégager une signification proprement européenne du terme. Toutefois, il existe bien une version étasunienne, première, qu’il faut examiner minutieusement. La formule du « government as a platform » est apparue sous la plume de Tim O’Reilly à partir de 2009. Cet entrepreneur et essayiste connu pour avoir forgé le terme de « web 2.0 » — autrement nommé internet participatif — a formulé cette expression à partir du printemps 20094 pour appeler de ses vœux une réforme de l’agir politique dans laquelle le gouvernement mettrait en place des infrastructures de services administratifs et techniques, qui seront ensuite mobilisés par les citoyens eux-mêmes pour assurer l’effectivité du service.

Le gouvernement se ferait ainsi techniquement « plateforme », dans le sens où il œuvrerait à la mise en relation d’une offre et d’une demande. Il ne faut pas y voir seulement l’appel à une économicisation des rapports politiques, l’originalité du « government as a platform » de Tim O’Reilly consiste à encourager, d’une part, une forte implication des citoyens à des fins d’altération du monopole des agents administratifs sur les affaires publiques et, d’autre part, inciter à la publicisation des problèmes administratifs et, en conséquence, rendre possible le recours à des ressources externes aux seules administrations.

Le slogan du « government as a platform » a gagné en popularité en étant intégré au programme démocrate lors de la campagne présidentielle de 2011, avant de devenir l’une des armatures conceptuelles du livre blanc sur le gouvernement numérique, publié peu après la réélection de Barack Obama5. Ce livre blanc fixe trois objectifs à la réforme des services numériques : l’accessibilité mobile de toute information ou tout service gouvernemental (anywhere, anytime, on any device), la création de services à la fois sécurisés et adaptés aux usages numériques ; ainsi que l’amélioration du service rendu aux citoyens (where every man feels that he is a participator in the government of affairs). Pour mettre en œuvre ces trois objectifs, l’administration est supposée faire « mieux avec moins », préférer des technologies dites « légères », des programmes d’action transversaux et coordonnés par des « intrapreneurs ».

Il est intéressant de noter qu’entre Tim O’Reilly et l’administration américaine enjointe à se réformer, il y a déjà de petits décalages : l’activation d’une offre et d’une demande par une plateforme technique et la focalisation sur la résolution collective de « problèmes publics » a cédé la place à une approche informationnelle, dans laquelle une couche infrastructurelle, incluant tous les systèmes et processus d’information (pêle-mêle données administratives, sondages, tweets ou articles de presse) permet à l’administration de veiller, de détecter, de vérifier et de transmettre des informations fiables aux citoyens.

Pour le dire en des termes anachroniques, la stratégie numérique du gouvernement était déjà orientée vers ce que nous appelons désormais les fake news et la responsabilité du gouvernement en matière de la circulation de l’information, là où Tim O’Reilly promouvait un expérimentalisme politique, familier de la tradition politique américaine, et ici largement colorié du « solutionnisme technologique » qu’Evegeny Morozov dénoncera quelques années plus tard6.

Ceci étant posé, comment mesurer la différence entre des abords conceptuels « français » et « nord-américains » ? Notons d’abord que la différence n’a pas échappé à Henri Verdier et Nicolas Colin. Ils attribuent la genèse étasunienne du mot d’ordre (et donc le « retard » européen et français) à une divergence dans la conception de l’État : « Il n’est pas étonnant que ce type d’attitude soit né plus rapidement aux États-Unis qu’en Europe. Comme le souligne[nt Michael Hardt et] Antonio Negri, il existe une nette différence entre la représentation européenne de l’État, perçu comme un souverain — quasiment transcendant, en tout cas surplombant la société — et la représentation américaine, où l’État est plus immanent et vu comme un dispositif équilibrant les différentes forces de la société7 ».

Autrement dit, c’est en considérant cette inclination historique nord-américaine à faire de l’État non pas la gigantesque entité métaphysique européenne, mais l’un des groupes secondaires d’une société politique faite de différents corps, le gouvernement, qu’ils auraient traduit « government as a platform » en « État plateforme ».

Outre cette différence dans l’interprétation de l’héritage contractualiste postulée par les importateurs du terme, il me semble qu’il y a sans doute plus de similitudes entre les significations dogmatiques et administratives de part et d’autre de l’Atlantique, qu’entre des significations proprement étasuniennes et françaises. Par exemple, l’État plateforme de L’Âge de la multitude et le « government as a platform » de l’article de Tim O’Reilly partagent l’ambition de créer « des services publics sans administrations, auto-organisés par des communautés de citoyens 8» ; la visée de démonopolisation n’est reprise ni par le livre blanc du gouvernement américain ni par les documents stratégiques sur la modernisation de l’État en France. De même, l’orientation vers la visibilité des problèmes administratifs et l’appel aux compétences de la multitude est largement gommée dans les documents stratégiques des administrations françaises et étasuniennes, aux prises avec d’autres montages, par exemple les règles des marchés publics.

LVSL – Vous avez pu observer sur plusieurs années les effets directs de cette notion et de ce discours sur les divers acteurs institutionnels engagés dans la transformation numérique de l’État et de sa relation avec le public, les citoyens, les entreprises, quels aspects les plus généraux de ces évolutions retiennent le plus votre attention ?

M. A – En France, le terme d’État plateforme en effet a été repris à l’automne 2014 par la Direction interministérielle du système d’information et de communication de l’État (DISIC, aujourd’hui Direction interministérielle du numérique). Il est venu conférer un abord conceptuel en même temps que renforcer l’intention qui était celle du décret de création9 : bâtir des infrastructures communes aux systèmes d’information ministériels, permettant à la fois des échanges de données sécurisées dans des formats interopérables, l’authentification des usagers ou encore le stockage d’applications. La doctrine assemblée dans les documents stratégiques de la DISIC a servi d’appui textuel, de référence, en mettant en avant des projets antérieurs ou en arrimant de nouveaux projets à un horizon de transformation désirable.

Elle est ainsi venue conférer une place de choix à la mission d’ouverture des données publiques, Étalab, qui mettait à disposition des réutilisateurs des jeux de données administratives — par exemple sur les mesures de la qualité de l’air des directions régionales de l’environnement, le financement du cinéma français du Centre national du cinéma ou encore les modèles de prévision climatique de MétéoFrance. Elle a aussi permis de stabiliser FranceConnect, l’application d’authentification des usagers des services publics en ligne que plusieurs millions de Français utilisent désormais dans leurs démarches courantes.

Cette application de rationalisation des identités numériques, pour les gestionnaires de sites et les usagers, est adossée à API-particulier, grâce à laquelle les usagers qui le souhaitent activent le partage de données avec les administrations auprès desquelles ils entreprennent des démarches — par exemple, pour éviter de fournir une pièce justificative par courrier ou de se rendre au guichet.

On aurait pu allonger la liste, mais notons déjà que l’ouverture des données publiques, l’authentification et l’échange de données grâce à API particulier (et son pendant, API entreprise) constituent trois matérialisations de l’État plateforme, ayant participé à stabiliser les cadres de la modernisation numérique de l’État qui sont encore les nôtres à un moment où l’expression a largement perdu de son attrait et n’est plus que prononcée du bout des lèvres à la Direction interministérielle du numérique.

LVSL – La notion d’État-plateforme semble associée de manière générale à deux postures interprétatives, l’une critique, lisant ce terme de manière critique et associée à la volonté de renforcer les politiques d’austérité et de réduction des effectifs des services publics ; l’autre plus nuancée, voire enthousiaste, faisant de ce terme le symbole d’une amélioration et d’une fluidification des rapports entre les administrations et les citoyens, notamment à travers des initiatives de facilitation telles que France Connect. Comment percevez-vous cet antagonisme ?

M. A – L’antagonisme que vous esquissez pour l’État plateforme actualise des approches classiques de la réforme administrative de l’État ; d’un côté, la mutation et ce que Philippe Bezes et Patrick Le Lidec ont justement appelé durant la réforme de l’administration territoriale de l’État « la forme fusion »10, de l’autre l’amélioration de l’expérience administrative de l’État pour certains types de populations. Ces tensions peuvent évidemment coexister dans un même projet de transformation de l’État et au sein d’un même répertoire d’action ; cela a été le cas durant une partie de la Révision générale des politiques publiques, qui a marqué le quinquennat de Nicolas Sarkozy.

Au cours de la période où j’ai suivi l’activité quotidienne de modernisation de l’État, qui correspond plus ou moins au quinquennat socialiste, ces deux aspects étaient nettement découplés. Réduire les coûts de fonctionnement du service public ne faisait pas partie du mandat confié aux modernisateurs de l’État ; cela ne signifie pas qu’après plusieurs années de diagnostic de l’administration comme intérieur malade ou dispendieux de l’État, l’impératif de réduction des dépenses publiques n’ait pas été tellement incorporé qu’il ait continué à vivre au sein de l’État. On le voit surgir dans certaines obsessions comptables, comme les exercices de connaissances des coûts consistant à ramener les coûts des services publics à l’unité individuelle de consommation, patient ou à étudiant par exemple.

Il faut toutefois nuancer ce que j’avance, car la Direction interministérielle du numérique a progressivement repris à son compte cet impératif de réduction des coûts. Elle ne s’est pas contentée de mettre en place les infrastructures que j’évoquais précédemment, elle a promu de nouvelles manières de concevoir les services publics, visant avec les méthodes agiles un certain idéal d’amincissement. Le changement de posture consacré par une circulaire de janvier 2015 requérant de réduire « la dépense informatique annuelle de 500 à 800 millions d’euros en trois à cinq ans 11» est devenu tangible à partir du moment où cette dernière s’est dotée de son propre exercice de connaissance des coûts : le remplissage d’un tableau de bord interministériel des grands projets informatiques, lui conférant un point de vue de superviseur sur la dépense des crédits informatiques. Cette pente s’est sans doute accrue depuis.

Toutefois, le pilotage des dépenses et les grands débats autour des projets informatiques paralysés, coûteux ou controversés (par exemple, le système d’alerte et d’information des populations du ministère de l’Intérieur [SAIP] ou plus récemment l’application StopCovid) n’emportent pas nécessairement des effets sur le travail quotidien des agents. Ces derniers continuent d’ouvrir les données et les algorithmes publics, de concevoir des produits numériques, d’accompagner les administrations en portant haut l’idée de fluidité de l’expérience et de facilitation du travail administratif des usagers, sans être mécaniquement liés à l’impératif économiste qui meut par ailleurs leur administration.

LVSL – Comment la France s’insère-t-elle dans l’ambition politique de la Commission européenne de numérisation administrative et de mise en commun des données des États membres en vue d’aider la croissance technologique de la zone ?

M. A – Il ne me semble pas que l’idée de « croissance technologique » soit un moteur du partage de données, notamment parce que les aspirations du début des années 2010 autour de « l’or noir des données » et des promesses d’innovation de la multitude ont en partie été déçues et reformulées. Pour vous répondre rigoureusement, il faudrait examiner de près ce que fait la DINUM et la manière dont le Secrétariat général aux Affaires européennes et l’Ambassadeur pour le Numérique s’en font le relai auprès des instances européennes.

En revanche, l’une des ambitions promues par la France depuis plusieurs mois s’articule autour de la notion de souveraineté numérique, pensée à l’échelle d’une future zone réglementaire européenne. Il est moins question de mise en commun de données, que de la constitution d’un territoire de gouvernement européen unifié, qui obligerait les plateformes au respect d’un certain nombre de règles (en matière de modération de contenus en ligne par exemple), dont le manquement entraînerait des sanctions mieux adaptées à la taille et au caractère déterritorialisé des plateformes de services numériques. C’est du moins la cible du Digital Service Act, en cours de négociation.

LVSL – Certains observateurs semblent identifier un glissement conceptuel de la notion de « citoyen » vers la notion de « citoyen-usager » dans le processus de numérisation des services publics, adhérez-vous à cette analyse et qu’implique-t-elle selon vous ?

M. A – Vous venez là à un point fondamental, dont nous n’avons, je crois, pas fini de penser les implications. En effet, le concept classique de la modernité politico-administrative hérité de la philosophie contractualiste lie l’existence de l’État moderne au sujet politique individuel : si cet individu apparaît comme une condition de l’État, celui-ci est en retour, par la protection et les possibilités d’expression qu’il lui offre, son garant. Les sciences sociales, et la sociologie politique en particulier, ont accueilli cet héritage, en ôtant la caractérisation métaphysique et juridique à la fois de l’individu et de l’État, pour montrer au contraire leurs couches de sociologisation. On pense par exemple à la sociologie historique de Norbert Elias dans le Procès de civilisation qui est parvenue à tenir ces deux pans de transformations de la modernité politique. Dans les travaux ultérieurs comme postérieurs, l’individu existe dans son lien à l’État, essentiellement sous les traits du citoyen ; ce citoyen héritier de la Révolution française qui vote, descend dans la rue et que l’on décrypte, une fois agrégé en « opinion publique » grâce à une instrumentation sondagière.

Or, je crois en effet que l’on peut repérer dans la mise en œuvre du programme d’État plateforme et au-delà dans les recompositions liées aux services numériques un glissement, non plus vers la figure du citoyen telle qu’elle a été configurée historiquement, mais vers celle d’un citoyen-usager des services étatiques. C’est un changement repéré empiriquement par certains observateurs des relations administratives, mais ils n’avaient pas poussé l’enquête jusqu’aux lieux où ces relations entre l’État et la société politique sont conceptualisées – même faiblement – et coordonnées ; en l’espèce l’administration de la modernisation de l’État. De tels lieux n’existaient d’ailleurs sans doute pas avant une date récente. Après plusieurs années d’observation de ce terrain, il me semble qu’il s’agit moins d’un dessein idéologique, d’un projet finalisé de réforme du rapport entre l’État et la société politique repérable dans les succès du programme d’État plateforme, qu’un effet des transformations interactionnelles et scripturales précipitées par l’expansion des technologies numériques, de choix infrastructurels et des métamorphoses des savoirs de gouvernement dont le design, l’informatique et les sciences comportementales.

L’une des conséquences immédiatement repérables de ces métamorphoses porte sur la politisation. La politisation des agents modernisateurs est très nette ; elle est lisible dans leur inclination à s’emparer — y compris au corps défendant des administrations légitimes — de sujets de politiques sociales (les aides et prestations sociales, le droit du travail, l’embauche, la recherche d’emploi, etc.). Ces derniers relaient une critique virulente de la place conférée à un droit peu soucieux de ses conditions de félicité et fustigent la mise en œuvre de politiques publiques à laquelle ils reprochent leur incapacité à se déployer jusqu’aux usagers concernés.

Au nom de cet usager, et même en se faisant usagers, ils adoptent une attitude militante. Par exemple, ils reprennent, bénévolement, un simulateur de prestations sociales, fermé à la demande du ministère de la Santé et des Solidarités, continuent d’y ajouter, les soirs et les week-ends, de nouvelles aides et payent de leur poche l’achat du nom de domaine (mes-aides.org). Cette idée d’une citoyenneté d’usagers s’observe également dans certains phénomènes comme le non-recours volontaire aux droits sociaux (qui constitue une version individuelle de politisation) ou dans certaines mobilisations sociales. Je crois que nous n’avons pas encore pris la mesure de ce que porte avec lui ce phénomène et je suis convaincue de l’intérêt de tracer, par l’enquête, ces recompositions numériques.

Notes :

1 Nicolas Colin et Henri Verdier, L’Âge de la multitude. Entreprendre et innover après la révolution numérique, Paris, Armand Colin, 2012 (1ère édition).

2 Michael Hardt et Antonio Negri, Multitude, Guerre et démocratie à l’âge de l’Empire, trad. Nicolas Guilhot, Paris, La Découverte, 2004.

3 Nicolas Colin et Henri Verdier, L’Âge de la multitude. Entreprendre et innover après la révolution numérique, ; ris, Armand Colin, 2012 (2e édition), p. 246.

4 Plus précisément, la première mention de cette formule par Tim O’Reilly remonte au printemps 2009 et a été présentée au public début septembre de la même année lors du sommet Gov 2.0 à Washington D.C., puis dans un billet publié sur le site d’information spécialisé dans l’innovation numérique TechCrunch. Tim O’Reilly, « Gov 2.0: It’s all about the platform, Techcrunch », 4 septembre 2009, en ligne : https://techcrunch.com/2009/09/04/gov-20-its-all-about-the-platform/?guccounter=1. L’argumentaire est repris et déployé dans un article qui deviendra une référence : Tim O’Reilly, “Government as a Platform”, Innovations, vol. 6, no 1, 2011, p. 13-40.

5 Maison blanche, “Digital Government: Building a 21st-century Platform to Better Serve the American People”, Washington, DC, 23 May 2012

6 Evegeny Morozov, To save everything, click here: The folly of technological solutionism. New-York, Public Affairs, 2013.

7 Nicolas Colin et Henri Verdier, L’Âge de la multitude. Entreprendre et innover après la révolution numériqueParis, Armand Colin, 2012 (2e édition), p. 243.

8 Idem, p. 254.

9 Décret n° 2011-193 du 21 février 2011 portant création d’une direction interministérielle des systèmes d’information et de communication de l’Etat ; puis article 5 du décret n° 2015-1165 du 21 septembre 2015 relatif au secrétariat général pour la modernisation de l’action publique.

10 Philippe Bezes et Patrick Le Lidec, « Politiques de la fusion. Les nouvelles frontières de l’État territorial », Revue française de science politique, vol. 66, no. 3-4, 2016, pp. 507-541.

11 Circulaire no5764/SG du 20 janvier 2015

Flux de données contre pouvoirs publics

blank

Les situations de déliquescence des données ouvertes questionnent le rôle de l’acteur public. Doit‑il produire de la donnée uniquement pour ses propres besoins ou prendre en considération les besoins externes d’entreprises privées ? Dans le premier cas, il laisse le champ libre à d’autres acteurs pour produire des données qui nourriront les services numériques développés sur son territoire. L’établissement de ces conventions d’équivalence n’est alors plus l’apanage de l’État ou des acteurs publics. Il est pris en charge par des acteurs privés qui imposent leur représentation de l’espace urbain au risque, pour les acteurs publics, d’une perte de maîtrise de leurs politiques publiques. C’est la thèse d’Antoine Courmont, qui vient de publier aux Presses universitaires de Grenoble (PUG) Quand la donnée arrive en ville – open data et gouvernance urbaine. Antoine Courmont est chercheur associé au Centre d’études européennes de Sciences Po et responsable scientifique de la chaire Villes et numérique de l’École urbaine de Sciences Po. Il enseigne à Sciences Po Paris. Les lignes suivantes sont extraites de son ouvrage.

Cette situation est manifeste dans le secteur de la mobilité où des entreprises telles que Waze ou Here ont développé leur propre cartographie routière1. Or celles‑ci s’appuient sur des conventions de représentation du réseau routier qui diffèrent de celle du Grand Lyon et qui ont un effet sur la régulation de la circulation automobile. Cela provoque des controverses avec les producteurs privés de données de navigation routière. Le réseau de voies de l’agglomération lyonnaise est hiérarchisé par le Grand Lyon en fonction de différents critères (volume des flux, dimensionnement de la voirie, usages, etc.). Les producteurs privés s’appuient sur des typologies alternatives comme l’indique ce cartographe de l’entreprise Here : « Nous, on a 5 classes de voies. Le Grand Lyon en a 6. Je sais que l’autre fabricant de GPS en a 8323 ». Dès lors, selon les bases de données, certaines voies ne sont pas catégorisées de manière identique.

Quand les acteurs publics perdent la maîtrise de la représentation de leur territoire

La classification de l’entreprise Here a été définie afin de prendre en compte la diversité des voies à l’échelle de la région, tandis que la communauté urbaine de Lyon a construit la sienne dans une optique de régulation du réseau à l’échelle de l’agglomération. Cette différence de représentation n’est pas neutre : elle est une force de prescription importante sur le comportement des automobilistes par l’intermédiaire de l’itinéraire mis en avant par leur GPS. Particulièrement visibles lors de situations de congestion, ces différences de classification entraînent un report du trafic automobile par les GPS sur des voies que le Grand Lyon considère comme non adaptées. Ce cas s’est produit notamment au cours de l’été 2013 où une série d’embouteillages a saturé le réseau urbain. Les autorités et la presse locale ont alors fait porter la responsabilité sur les producteurs privés de données, exigeant qu’ils alignent leur classification sur celle du Grand Lyon.

Des réunions entre les représentants locaux de l’entreprise Here et du Grand Lyon ont alors été organisées. Elles ont toutefois été peu concluantes, le Grand Lyon ne disposant d’aucun moyen réglementaire pour imposer sa classification. Ce conflit entre l’autorité chargée de la régulation du réseau routier et ces producteurs privés de base de données de navigation routière met en évidence les répercussions des représentations alternatives de l’espace urbain sur la politique publique de la communauté urbaine de Lyon. La hiérarchisation des voies établie par l’acteur public ne fait plus convention, ce qui réduit sa capacité de régulation du réseau2. Face à ces nouvelles conventions d’équivalence, le Grand Lyon ne maîtrise plus la politique de mobilité de l’agglomération.

L’application Waze : le gouvernement privé des mobilités automobiles métropolitaines

L’application mobile de navigation routière Waze fournit un autre exemple de mise à l’épreuve des capacités de gouvernement de l’acteur public par les données. Fondée en 2008 en Israël, et achetée en 2013 par le groupe Alphabet (Google), la particularité de l’application est de s’appuyer sur des données collectées directement auprès de ses utilisateurs. Par l’intermédiaire de la localisation GPS du téléphone mobile, elle enregistre les traces de déplacement des automobilistes et leur vitesse de circulation. Financée par la publicité, elle compte au printemps 2019 douze millions d’utilisateurs en France, soit plus d’un automobiliste sur quatre. Après l’Île‑de‑France, l’agglomération lyonnaise est un des territoires qui concentrent le plus d’utilisateurs de l’application. Les services de la métropole lyonnaise estiment qu’au moins 30 % des automobilistes dans l’agglomération utilisent l’application3.

L’augmentation considérable du trafic routier aux heures de pointe sur certaines voiries a contribué à rendre visible cet usage croissant et massif de Waze. En effet, l’algorithme de l’application privilégie l’itinéraire le plus rapide sans tenir compte de la hiérarchisation du réseau de voirie. Adoptant une perspective temporelle plutôt que spatiale4, ces choix algorithmiques ont conduit, à proximité de zones de congestion récurrente, à entraîner des reports conséquents de circulation sur des réseaux secondaires non adaptés pour recevoir de tels flux. Cela provoque des situations de congestion induites, des nuisances environnementales, des risques accrus d’insécurité publique, des coûts de maintenance supplémentaire et la contestation des riverains.

Financée par la publicité, Waze compte au printemps 2019 douze millions d’utilisateurs en France, soit plus d’un automobiliste sur quatre.

En second lieu, le succès de Waze ne peut se comprendre qu’en relation avec les failles des systèmes de transport métropolitain face aux processus subis d’étalement urbain et de périurbanisation. Le développement de Waze est une réponse à l’incapacité des institutions publiques à planifier les infrastructures de transport dans certaines zones métropolitaines où des flux pendulaires toujours plus importants provoquent des phénomènes récurrents de congestion5. L’entreprise impute d’ailleurs la responsabilité des reports de trafic aux autorités publiques. « C’est davantage un symptôme qu’une cause. Il faut regarder la situation dans son ensemble. La question qu’il faut se poser c’est “pourquoi il y a des embouteillages sur les voies principales ?”. Parce que la planification urbaine a été dépassée et que les infrastructures ne sont pas adaptées pour répondre aux besoins des personnes vivant dans les banlieues (suburbs)6 ». Face à la saturation quotidienne des infrastructures routières et en l’absence d’alternatives modales satisfaisantes, les automobilistes perçoivent en Waze une solution de substitution qui satisfait leur intérêt individuel en minimisant leur temps de parcours.

L’émergence de cet acteur privé, indépendant des pouvoirs publics, suscite des tensions avec les autorités locales qui, impuissantes, assistent aux reports de trafic routier provoqués par cette application dans des zones résiden‑ tielles. Les autorités locales dénoncent la logique utilitariste inscrite dans son algorithme qui s’adresse à une multitude de clients individuels que l’entreprise cherche à satisfaire. « Ils [Waze] ont une vision individualiste du déplacement qui se heurte avec les politiques publiques qui veulent faire passer les flux de véhicules par les voies principales. Ils sont en contradiction avec les pouvoirs publics7. » L’entreprise rétorque que les principes de régulation inscrits dans l’algorithme de Waze suivent un principe strict de « neutralité » algorithmique, une rationalité procédurale8, qui considère de manière égale l’ensemble des voiries comme le souligne le PDG de Waze : « If the governing body deems the road as public and navigable, we will use it for routing as needed for the good of everyone. Our algorithms are neutral to the evalue of the real estate, the infrastructure cost to maintain the roads or the wishes of the locals. Waze will utilize every public road available considering variables such as road type and current flow, and keep the city moving9 ».

Cette justification de Noam Bardin marque le cadrage alternatif de la régulation de la circulation routière. Waze vise à optimiser l’usage de l’infrastructure routière pour répondre aux phénomènes de congestion. Son service se veut universel, neutre et indépendant des spécificités territoriales, des contextes culturels et des cibles auxquelles il s’adresse. L’application produit une forme de gouvernement « déterritorialisé » centré sur la satisfaction de l’intérêt individuel et inscrit dans une vision individualiste de l’automobiliste. Elle interroge en creux la capacité du pouvoir métropolitain à négocier la mise en œuvre de principes d’intérêt général avec cette entreprise de l’économie numérique. Le Grand Lyon va tenter de s’appuyer sur la mise à disposition de certaines données publiques au travers d’un partenariat avec Waze, qui s’éloigne des principes de l’opendata, pour infléchir la position de l’entreprise.

Waze et Google : des entreprises qui refusent le jeu du marché des données ouvertes

Les plateformes de l’économie numérique sont souvent présentées comme des entreprises prédatrices de données publiques. Les producteurs de données avancent régulièrement la crainte que la mise à disposition de leurs données conduise à renforcer la position dominante d’une entreprise telle que Google au détriment des capacités d’expertise de la collectivité. Cette suspicion à l’égard des géants du numérique est partagée par certains universitaires lyonnais :

La donnée, c’est l’or noir du XXIe siècle. Or actuellement, il y a effectivement des tentatives de privatisation de la donnée ; c’est préoccupant […] Des représentants de grands groupes déclarent publiquement que les données publiques qu’ils peuvent récupérer ne sont plus vraiment publiques parce qu’ils les structurent, les nettoient ou les enrichissent. Ils sont en train de revendiquer que les données publiques qu’ils vont aspirer peuvent leur appartenir10.

Pour éviter ce risque de « privatisation » des données publiques, ces acteurs suggéraient de mettre en place un certain nombre de garde‑fous au marché des données ouvertes. Si leurs craintes sont légitimes, force est de constater que les données ouvertes par les collectivités ne sont que marginalement réutilisées par ces entreprises de l’économie numérique. Ces dernières, pour conserver une indépendance et une maîtrise de l’ensemble de la chaîne de la donnée, s’appuient sur de multiples sources de données. Lorsqu’elles sont contraintes d’utiliser des données publiques locales, elles rechignent à utiliser les données ouvertes qui nécessitent un lourd travail de nettoyage et de standardisation afin d’effacer tous particularismes locaux pour être intégrées dans un service standardisé internationalement. Comme le souligne le cas de Waze et de Google, ces entreprises profitent de leur position dominante pour imposer aux collectivités des modalités alternatives d’accès à leurs données. En proposant des partenariats aux institutions publiques, elles font reposer sur celles‑ci le coûteux travail de préparation et d’intégration des données.

La donnée, c’est l’or noir du XXIe siècle. Or actuellement, il y a effectivement des tentatives de privatisation de la donnée ; c’est préoccupant.

En 2004, constatant que près d’un quart des requêtes sur son moteur de recherche concerne des informations localisées, Google achète deux start‑up, Where2Tech et Keyhole, afin de développer un service de cartographie numérique. Lancé en février 2005, Google Maps offre des cartes, des images satellite et de rues, des informations de circulation routière et un service de calcul d’itinéraires. Google Maps reçoit plus d’un milliard d’utilisateurs par mois et son API (Application Programming Interface), qui permet d’insérer ces cartes dans des sites tiers, est utilisé par plus d’un million de sites. Si elle propose une représentation unifiée de l’espace, l’entreprise utilise marginalement des données en opendata.

La production des cartographies de Google Maps repose sur plusieurs sources de données. Google s’est appuyé initialement sur des bases de données publiques11 ou privées12. Ces données initiales ont été harmonisées, actualisées et enrichies à l’aide d’images satellite, aériennes et de rue (Google Street View), traitées par des algorithmes d’analyse d’images13, dont les opérations sont vérifiées et corrigées par des centaines d’opérateurs. Enfin, l’entreprise fait appel aux utilisateurs au travers de trois dispositifs : le service MapMaker qui permet à l’internaute d’ajouter des informations, l’onglet Report a Problem pour signaler une erreur et un outil interne appelé Boule de cristal qui analyse les réseaux sociaux et les sites Internet pour identifier des sources d’erreurs. Le croisement et l’harmonisation de ces données hétérogènes reposent sur un travail manuel considérable effectué par des opérateurs. En 2012, plus de 7 000 personnes travaillaient sur Google Maps : 1 100 employés par Google et 6 000 prestataires, des chauffeurs des véhicules Street View aux opérateurs localisés à Bangalore en Inde dessinant les cartes ou corrigeant des listings14. La base de données est actualisée en permanence : il n’y a pas de campagnes de mise à jour ou de versioningdes données, les mises à jour sont continues. Les données sont standardisées pour l’ensemble des zones géographiques représentées : cette standardisation s’appuie sur des modèles de spécifications qui décrivent précisément les modalités de représentation de chaque entité.

À cette cartographie initiale, Google a ajouté deux services relatifs à l’information des voyageurs : Google Traffic et Google Transit. Google Traffic indique en temps réel les conditions de circulation routière. Il a été lancé en février 2007 dans trente villes des États‑Unis. Il s’est maintenant généralisé. Les informations ne proviennent pas des pouvoirs publics, mais sont obtenues par les localisations GPS transmises par les utilisateurs de téléphones portables. L’entreprise calcule la vitesse de déplacement de ces utilisateurs le long d’une voie pour déterminer les conditions de déplacement15. Le second service, Google Transit, fournit un calcul d’itinéraire de déplacement en transport en commun. Il a été lancé en octobre 2007 par l’intégration de données des réseaux de transports publics de plusieurs villes américaines.

blank
https://www.pug.fr/produit/1897/9782706147357/quand-la-donnee-arrive-en-ville

Dans la continuité du projet de cartographie communautaire dont elle trouve son origine16, l’entreprise Waze fait reposer la production de ses données sur des logiques de crowdsourcing. Trois modalités de crowdsourcing, demandant plus ou moins d’engagements de la part du contributeur, cohabitent : les traces, les signalements et les éditions cartographiques. En premier lieu, Waze enregistre les traces de déplacement de ses utilisateurs afin de connaître la vitesse de circulation sur les différents tronçons de voirie. Ce premier type de crowdsourcing, reposant sur la collecte de traces d’activités des utilisateurs, est passif : il ne nécessite aucune interaction de la part de l’utilisateur. En deuxième lieu, l’application propose à ses utilisateurs de signaler les événements qu’ils rencontrent lors de leur trajet (embouteillage, accidents, fermetures de voies, présence policière, etc.). Enfin, une communauté d’éditeurs locaux est chargée de l’édition de la cartographie. Au travers d’une interface en ligne proposée par l’entreprise (WazeMap Editor342), des bénévoles enrichissent la base de données géographiques décrivant l’infrastructure routière. Ils tracent l’ensemble des tronçons de voirie, les mettent à jour et y associent des informations (type et nom de la voie, vitesse autorisée, sens de circulation, etc.).

La combinaison de ces trois sources de données offre à Waze une autonomie vis‑à‑vis de producteurs privés ou publics de données. Cela lui offre un double avantage. D’une part, elle n’est pas contrainte de déployer des infrastructures physiques de collecte de données puisque celles‑ci proviennent des téléphones des automobilistes. L’entreprise peut dès lors développer son service sans aucune présence territoriale ni contractualisation préalable avec les acteurs publics17. D’autre part, le crowdsourcing lui offre également une capacité à fournir une représentation unifiée des réseaux routiers qui dépassent les frontières administratives. Les données produites et utilisées par Waze, attachées aux véhicules et non à l’infrastructure, s’affranchissent des territoires institutionnels. Le service de Waze se veut sans frontières : présent dans plusieurs dizaines de pays, il s’appuie sur une description homogène des réseaux routiers quels que soient les territoires ou les domanialités de réseau. En cela, Waze unifie la réalité, sans tenir compte des spécificités locales, projet qui a longtemps été la raison d’être de l’État18.

Si elles tendent à maîtriser la chaîne de production de leurs données, tant Waze que Google restent dépendantes de certaines données publiques détenues par les autorités locales. Pour améliorer son service, Waze a besoin d’informations relatives aux fermetures planifiées de voirie qu’elle peine à collecter par ailleurs.

Les données produites et utilisées par Waze, attachées aux véhicules et non à l’infrastructure, s’affranchissent des territoires institutionnels.

Les villes ont tout un tas de données que l’on n’a pas : la planification des travaux, des événements, de visites, etc. Toutes ces données sont absolument critiques pour le bon fonctionnement de l’application. Et ça, c’est pas des données que l’on a. En tout cas, c’est pas des données que l’on a en avance. C’est des données que les utilisateurs peuvent déclarer à l’instant t, une fois que le bouchon est créé, mais pas en avance […] C’est une information critique qui nous manque19.

De même, les transports en commun sont un secteur sur lequel Google est aujourd’hui dépendant des données des opérateurs publics, puisqu’elle ne peut obtenir autrement les informations sur les horaires. Google pourrait utiliser les données mises à disposition en opendata, pourtant, elle ne le fait pas systématiquement. Si les données de la RATP sont intégrées au service Google Transit, ce n’est pas le cas de Rennes, Lyon, Toulouse ou Nantes par exemple. Cette absence d’utilisation des données en opendata interpelle, alors que Google est un acteur incontournable dans le discours des producteurs et suscite de nombreuses craintes.

De fait, Waze et Google n’ont recours que marginalement aux données ouvertes par les autorités locales. D’une part, l’hétérogénéité de ces dernières rend très longue et coûteuse leur intégration dans un système d’information standardisée à l’échelle internationale comme en témoigne le responsable technique de Waze : « Technically the hardest thing was that each municipality had a different level of knowledge. They give us the data in different ways. One is XML.One is KML. Another city would give us information by email. The Israeli police gave us data by fax. It was hard to beas flexible as possible in order to b eable to digest all of this information and to upload it to the users20  ».

Si le travail de nettoyage et d’intégration est possible ponctuellement et pour quelques villes, il devient vite considérable et difficilement industrialisable. D’autre part, la bonne intégration de ces informations dans leurs services requiert une connaissance des territoires dont ces entreprises, qui n’ont pas d’implantation territoriale fine, ne disposent pas. La vérification de la qualité des données nécessite une expertise minimale du réseau de transport et de ses spécificités pour s’assurer que les informations proposées à l’utilisateur sont cohérentes. « Nous, on n’est pas capable de dire si l’arrêt de bus se trouve de tel côté de la place, ou de l’autre21. » Pour preuve, en 2012, Google avait intégré directement les données proposées par la RATP en opendata. Mais le service de calcul d’itinéraires était de mauvaise qualité : seuls les métros et les RER étaient disponibles, les tramways et les bus étaient absents du service, qui ne prenait pas en compte les perturbations du réseau22. Pour y remédier, depuis le championnat d’Europe de football de 2016, Google fait désormais appel à un prestataire français, très bon connaisseur des spécificités du système de transport parisien, afin d’intégrer les données.

Pour éviter ces frais de standardisation, de nettoyage et d’intégration, les plateformes de l’économie numérique privilégient la mise en place de « partenariats » avec les producteurs locaux de données et leur imposent leurs conditions d’accès aux données publiques. Waze a lancé en 2014 le Connected Citizens Program, un programme d’échange de données avec des acteurs publics. L’entreprise propose de fournir gratuitement des données anonymisées et agrégées sur les conditions de circulation en temps réel et les incidents signalés par les utilisateurs ; en échange, les pouvoirs publics transmettent des informations sur les fermetures de voies et les événements impactant la circulation. De son côté, Google propose depuis plusieurs années aux opérateurs de transport un partenariat visant à intégrer les informations relatives à leurs réseaux dans Google Transit.

Dans les deux cas, les entreprises ont développé des formats techniques et des contrats juridiques standardisés à l’échelle internationale et proposent des interfaces en ligne de vérification et d’intégration de leurs données. Google a créé le General Transit Feed Specification (GTFS) pour les informations de transport en commun, tandis que Waze a élaboré le Closure and Incident Feed Specifications (CIFS), pour les fermetures de voirie. Elles proposent également des contrats génériques, non négociables, en anglais, de partenariats avec les fournisseurs de données qui indiquent les droits et obligations de chacun. Enfin, Google et Waze donnent accès à des interfaces qui permettent de visualiser les données et de vérifier les incohérences. « C’est vraiment un outil que l’on met à la disposition des collectivités. C’est pour ça que l’on préfère un partenariat. Ça permet d’améliorer la qualité des informations que l’on diffuse, puisqu’il y a une vérification par les acteurs locaux. Ça nous permet également d’assurer une certaine stabilité de la fourniture du service dans le temps. Par exemple, si la ville de Besançon publie ses données, mais, du jour au lendemain, change l’URL de son service, nous, on ne le verra pas forcément. Si la collectivité met à jour l’URL, ça permet d’éviter des problèmes de mise à jour, et comme ça, nous on n’indique pas des infos foireuses. C’est pourquoi on préfère faire des collaborations avec les collectivités. C’est comme cela que l’on procède partout dans le monde, on ne vient pas utiliser directement les données en opendata23 ».

Ainsi, contrairement à l’open data qui est perçu comme « plus complexe et moins engageant », Google souhaite ajouter des médiations supplémentaires pour « cadrer la relation » entre les producteurs de données et l’entreprise réutilisatrice. Surtout, par le biais de ces partenariats, Google réussit à faire reposer le travail de nettoyage, d’actualisation et d’intégration de ses données dans son service sur les autorités locales24. Ces dernières doivent en effet prendre à leur charge les coûts humains de formatage des données en GTFS, d’intégration, de vérification de la qualité et de mise à jour régulière des données. Le site Internet présentant les partenariats est particulièrement clair sur la responsabilité qui incombe aux producteurs de données.

Il est essentiel de fournir un flux de données d’excellente qualité. Google a créé un certain nombre d’outils opensource afin d’aider les réseaux à vérifier la qualité de leurs flux de données. Ainsi, les modalités des partenariats proposés par ces plateformes visent non seulement à industrialiser l’usage de données publiques en standardi‑ sant l’appariement entre offres et demandes, mais également à tirer profit de l’expertise locale des producteurs. Tout usage de données requiert une connaissance des spécificités propres à chaque territoire afin de s’assurer que les résultats algorithmiques ne sont pas aberrants pour l’utilisateur. Par ces partenariats, il s’agit d’éviter que le fonctionnement procédural des algorithmes se heurte au caractère substantiel des territoires et de leurs particularités25.

« Peut‑on ne pas être sur Google ? » : un rapport de force défavorable aux pouvoirs publics

Cette logique de partenariat imposée par les plateformes illustre le rapport de force défavorable entre les acteurs publics et ces nouveaux intermédiaires. Les entreprises de l’économie numérique s’appuient sur leur grand nombre d’utilisateurs pour contraindre les collectivités à accepter leurs conditions de partenariats et faire reposer la charge de travail sur les producteurs de données. Au sein de la métropole de Lyon, le débat vis‑à‑vis de ces partenariats s’est posé en ces termes : « On ne sait pas comment faire vis‑à‑vis d’eux, est‑ce que l’on doit leur donner nos données et accepter leurs conditions ? Pour l’instant on résiste, mais est‑ce qu’on pourra le faire longtemps ? Peut‑on aujourd’hui ne pas être sur Google Maps ? En termes de visibilité de notre offre de transport, à l’international notamment, et de services pour nos usagers, on doit y être26. » Les plateformes mobilisent ainsi leurs utilisateurs comme une force politique pour peser indirectement dans les négociations avec les autorités locales et imposer leurs conditions d’accès aux données.

Les plateformes mobilisent ainsi leurs utilisateurs comme une force politique pour peser indirectement dans les négociations avec les autorités locales et imposer leurs conditions d’accès aux données.

Au sein des collectivités, le sujet de la relation à adopter vis‑à‑vis des plateformes numériques est l’objet de discussions vigoureuses. Le partenariat avec Waze a suscité de vifs débats et a été l’objet de combats politiques au sein de la métropole. « C’est compliqué, parce que politiquement, ça peut être le meilleur comme le pire. Le meilleur parce que ça améliore le service à l’usager et qu’ils s’appuient sur nos informations de trafic. Le pire parce qu’ils ont des effets délétères sur les reports de trafic et qu’on risque de perdre le contrôle […] On ne sait donc pas bien où ça va mener parce que l’exécutif reste divisé sur le sujet : des adjoints sont pour, d’autres s’y opposent fermement27 ». Le Grand Lyon souhaitait profiter de cette proposition de partenariat pour infléchir la position de l’entreprise quant à l’évolution de ses algorithmes pour qu’ils prennent en compte les orientations de sa politique de mobilité. Face au refus ferme de l’entreprise, la collectivité a longtemps décliné le partenariat. Pourtant, quelques mois plus tard, alors que d’importants travaux sont réalisés, perturbant le trafic au cœur de l’agglomération, la métropole décide de signer le partenariat et d’accepter les conditions de l’entreprise. « L’augmentation du nombre d’utilisateurs de cette application devenue incontournable […] et des perspectives d’innovation et d’amélioration du service pour les usagers conduisent aujourd’hui à réviser la position de la Métropole dans le sens d’une participation à ce partenariat et d’en faire une opportunité […] Les données de la Métropole, notamment les chantiers prévisionnels, permettraient à Waze d’améliorer ses services et ainsi de ne pas orienter des flux de véhicules dans les secteurs concernés […] L’intérêt premier pour la Métropole de cette participation réside dans la perspective d’améliorer la sécurité et l’information des voyageurs28 ». Les perturbations liées à ces longs chantiers dans l’agglomération, mais surtout la place acquise par l’application dans la régulation routière du fait de son nombre toujours croissant d’utilisateurs ont conduit le Grand Lyon à revoir sa position. « Pourquoi les élus ont bougé ? Parce qu’on leur a dit qu’aujourd’hui, ça s’imposait à nous. Il vaut mieux en être plutôt que de les laisser prendre le contrôle29». La prise en compte par Waze de leurs informations est perçue comme un prolongement bénéfique de leur politique de régulation routière. Pour les pouvoirs publics, la réutilisation de leurs données est vue comme un moyen de conserver une partie de la maîtrise de leur politique publique en s’assurant que ces services se basent sur des informations officielles et fiabilisées.

Toutefois, si ces partenariats rencontrent un relatif succès dans le monde, les pouvoirs publics locaux français sont encore très peu à s’y soumettre. Plus de 7 000 opérateurs de transport dans le monde transmettent leurs données à Google. En France, ils ne sont que 64 (sur plusieurs centaines), dont plus d’un tiers transmettent uniquement le plan du réseau et non les horaires qui permettent le calcul d’itinéraire. Dans le cas de Waze, la situation est similaire. Alors que la France est le troisième marché mondial de l’entreprise, seule une trentaine d’autorités publiques locales ont signé le partenariat d’échange de données (contre plus de 900 partenaires dans 50 pays). Ces partenariats sont ainsi difficiles à mettre en place en France comme me le révèle un responsable de Waze : « C’est assez galère […] On a beaucoup de mal avec la France, parce qu’ils demandent toujours des trucs spécifiques, ils ne vont pas signer des contrats en anglais, y a des lois, y a des machins et on a beaucoup de mal à avancer […] Je crois qu’il y a vraiment un enjeu de compréhension, d’échange. On a rencontré une grande ville française il y a deux semaines, y avait une incompréhension totale30. » Cet extrait souligne les difficultés d’échange entre deux mondes sociaux éloignés l’un de l’autre, les acteurs publics d’une part et les salariés des plateformes d’autre part.

Alors que les premiers ont l’habitude des négociations avec les entreprises pour adapter leur offre au contexte local et construire une « action publique négociée31 », les seconds souhaitent établir ces partenariats sans contrôle de leurs activités ni transformation de leur service. Surtout, en quête de rendements croissants, leur enjeu est de multiplier ces partenariats en réduisant au maximum leurs interactions avec les acteurs locaux. « Mon enjeu c’est scale. On ne peut pas faire du one‑to‑one, il faut que l’on fasse du one‑to‑many. C’est plus possible. Je ne peux passer une demi‑journée avec Cannes, je ne peux pas passer une après‑midi à Marseille, même si c’est Marseille, c’est impossible32. » De fait, les ressources humaines que Waze consacre au développement de ces partenariats sont très limitées. Le bureau français de l’entreprise est composé exclusivement de personnes au profil commercial, chargées de vendre des espaces publicitaires à des annonceurs, très éloignées des problématiques urbaines. « Il y a une personne sur la zone EMEA [Europe, Middle East & Africa] qui est en charge des CCP, mais il est Israélien et basé en Israël. Il ne parle qu’anglais, et fait des rendez‑vous par visioconférence. Donc, c’est moyen pour les collectivités françaises en termes de relations33 » Cette faible ressource accordée par l’entreprise au développement de ces partenariats illustre la profonde différence entre ces plateformes de l’économie numérique et les firmes urbaines traditionnelles dans leur relation aux acteurs publics locaux. Alors que les dernières, attentives aux enjeux des territoires, s’attachent à construire des relations personnali‑ sées et pérennes avec l’administration et les élus territoriaux, la logique de croissance rapide des plateformes les conduit à considérer les acteurs publics comme d’autres usagers de la plateforme auxquels on propose une offre de services standardisée en libre‑service.

Les exemples de Google et de Waze mettent en évidence une autre modalité de coordination entre acteurs publics et privés qui se joue au travers de la mise en circulation des données publiques. Ces entreprises de l’économie numérique appliquent dans leurs relations aux collectivités les principes de rationalisation et de standardisation, caractéristiques du fonctionnement des marchés de consommation de masse. Afin d’intégrer dans leurs services, à un coût réduit, les données, très hétérogènes, provenant d’une multitude d’acteurs locaux, elles n’ont d’autres choix que de rationaliser et standardiser le produit échangé (les données), mais également toutes les opérations accompagnant cet échange. La standardisation de la donnée garantit que celle‑ci corresponde à un certain nombre de caractéristiques qui facilitent son utilisation sans friction dans le système d’information de l’entreprise. D’autre part, la standardisation des opérations d’appariement au travers d’un contrat unique, signé à distance, et d’une interface et d’outils en ligne de nettoyage et de transfert des données assure une réduction au strict minimum de la relation entre les plateformes et les collectivités locales. L’alignement de toutes ces opérations sur un même modèle permet aux plateformes d’industrialiser l’usage de données publiques provenant de multiples sources.

Le réattachement des données à de nouveaux utilisateurs pose la question de l’appariement entre offre et demande de données. Loin d’aller de soi, cette rencontre est fragile et repose sur de nombreuses médiations qui facilitent l’attachement de la donnée à un nouvel environnement informationnel. L’analyse des modalités de la rencontre entre offres et demandes de données fait émerger une tension entre la singularisation et la standardisation des données ouvertes. Les données sont des biens singuliers, qu’il est nécessaire de qualifier par le biais d’un ensemble de dispositifs, afin de réduire l’incertitude sur leur qualité et assurer leur usage au sein d’un nouvel environnement informationnel. À la suite de ces opérations de qualification, la donnée devient un objet‑frontière circulant entre deux mondes sociaux : elle reste attachée aux producteurs tout en étant réattachée à de nouveaux utilisateurs. Cette singularité peut toutefois constituer une limite à la réutilisation. Les attachements initiaux des données sont trop solides et empêchent un usage alternatif sans trahir la donnée initiale. Les derniers cas présentés mettent en avant comment les plateformes entendent dépasser les singularités des données publiques en imposant leurs modalités standardisées d’accès aux données. En cela, elles parviennent à industrialiser la réutilisation des données territoriales sans passer par le marché des données ouvertes.

Ne pouvant s’appuyer sur les données ouvertes, les entreprises développent leurs propres représentations du territoire à partir desquelles vont reposer leurs services numériques.

Au travers de ces trois politiques des données ouvertes, la place et le rôle de l’institution publique sont interrogés, tout comme sa capacité à gouverner son territoire par la mise en circulation des données. Devenue objet‑frontière, la donnée renforce le pouvoir sémantique de la collectivité. La mise en circulation des données renforce sa capacité à coordonner des acteurs autour d’une représentation partagée du territoire. À l’inverse, les situations de déliquescence illustrent la perte de la maîtrise de représentation de leurs territoires par les acteurs publics. Ne pouvant s’appuyer sur les données ouvertes, les entreprises développent leurs propres représentations du territoire à partir desquelles vont reposer leurs services numériques. Ces situations questionnent le rôle que doit jouer l’acteur public : doit‑il produire des données pour ses politiques publiques ou pour des acteurs externes ? Doit‑il rester dans une politique de l’offre ou s’adapter à la demande de données pour préserver son pouvoir sémantique ?

Enfin, les rapports de pouvoir défavorables à l’institution publique peuvent la conduire à accepter des formes alternatives de diffusion de ses données. Celles‑ci peuvent tout à la fois être interprétées comme une diminution ou un renforcement du pouvoir sémantique des autorités publiques à dire ce qui est. Même si l’information leur est fournie par un autre canal, elles conservent en effet la maîtrise de l’information transmise aux usagers. Les autorités publiques restent la source d’informations légitime à partir de laquelle vont se coordonner les usagers. Pour les pouvoirs publics, la réutilisation de leurs données est perçue comme un moyen de conserver une part de la maîtrise de leur politique publique en s’assurant que ces services se basent sur des informations officielles et fiabilisées. Ces partenariats soulignent le redéploiement des autorités publiques dans certains territoires. Celles‑ci effectuent un gouvernement indirect par l’intermédiaire de la mise en circulation de leurs données, ce qui conduit à une « décharge34 » des collectivités locales vers ces plateformes. Pour les autorités publiques, ce partenariat renforce leur pouvoir d’instituer ce qu’est la réalité en s’assurant de faire réalité commune avec les nouvelles représentations offertes par le bigdata.

Sources :

1 : Here Maps est l’héritière de la société américaine Navteq. Fondée en 1985, Navteq a été achetée en 2007 par l’entreprise Nokia. Cette dernière a revendu à l’été 2015 cette activité cartographique à un consortium de constructeurs automobiles allemands (Audi, BMW et Daimler) pour un montant de 2,8 milliards d’euros. Ses cartographies, qui couvrent près de 190 pays, sont vendues à de nombreux constructeurs es entreprises numériques (Amazon, Bing, Yahoo!, etc.).

2 : Face à cette situation, le Grand Lyon se trouve réduit à agir sur l’infrastructure, en réclamant à l’État le déclassement de la voie, afin de pouvoir réduire drastiquement la vitesse de circulation et installer des feux de circulation, ce qui contribuerait à modifier substantiellement les calculs d’itinéraires. https://www.rue89lyon.fr/2016/04/01/autoroute-a6-a7-quand-gerard-collomb-voulait-convaincre-les-gps-dignorer-fourviere/ (consulté le 26/11/20).

3 : En Île‑de‑France, l’entreprise estime que près de 70% des automobilistes sont utilisateurs de l’application.

4 : Antoine Courmont, 2018, « Plateforme, big data et recomposition du gouver‑ nement urbain. Les effets de Waze sur les politiques de régulation du trafic », Revue française de sociologie, vol. 59, n° 3, p. 423‑449.

5 : Éric Le Breton, 2017, « L’espace social des mobilités périurbaines », SociologieS. https://journals.openedition.org/sociologies/5917 (consulté le 26/11/20).

6 : Entretien avec Claudia, responsable des partenariats, Waze, juillet 2017.

7 : Entretien avec les responsables du PC Circulation, Lyon, mai 2017.

8 : Dominique Cardon, 2018, « Le pouvoir des algorithmes », Pouvoirs, vol. 164, n° 1, p. 63‑73.

9 : Noam Bardim, 2018, « Keeping cities moving. How Waze works ? », 12 avril 2018. https://medium.com/@noambardin/keeping‑cities‑moving‑how‑waze‑works‑4aad0 66c7bfa (consulté le 26/11/20).

10 : Interview d’Atilla Baskurt et Jean‑François Boulicaut (30 novembre 2012). https://www.millenaire3.com/Interview/2012/liris‑le‑marche‑des‑donnees (consulté le 26/11/20)

11 : L’US Census Bureau aux États‑Unis, l’IGN en France par exemple. La liste des sources de données de Google Maps est disponible à cette adresse : http://www.google. com/intl/fr/help/legalnotices_maps.html (consulté le 26/11/20).

12 : Google achète des bases de données géographiques auprès de l’entreprise TomTom.

13 : Ces algorithmes permettent de détecter et d’interpréter les panneaux de signa‑ lisation routière, les noms et numéros de rue et certains points d’intérêts (enseignes commerciales, etc.).

14 : https://www.businessinsider.fr/us/to‑do‑what‑google‑does‑in‑maps‑apple‑would‑ have‑to‑hire‑7000‑people‑2012‑6 (consulté le 26/11/20).

15 : http://googleblog.blogspot.fr/2009/08/bright‑side‑of‑sitting‑in‑traffic.html (consulté le 26/11/20).

16 : Waze trouve son origine dans le projet de cartographie communautaire « Free‑ MapIsrael », qui visait à produire une base de données cartographique d’Israël à partir d’informations issues des terminaux mobiles des utilisateurs, qui étaient ensuite certi‑ fiées et nommées.

17 : https://www.waze.com/fr/editor (consulté le 26/11/20).

18 : Cette indépendance est renforcée par le modèle économique de l’entreprise. Gratuite pour ses utilisateurs, l’application est financée par la publicité.

19 : Entretien avec Simon, responsable des partenariats, Waze France (31 mai 2017)

20 : Mitchell Weiss et Alissa Davies, 2017, « Waze Connected Citizens Program », Harvard Business School Case 817‑035.

21 : Entretien téléphonique avec Francesca, cheffe de produit, Google (9 février 2015).

22 : Les informations lacunaires rendent le service peu efficace comme le souligne ce billet de blog. Yann Le Tilly, « Google Transit à Paris : pour les cowboys uniquement ! » (28 novembre 2012). https://transid.blogspot.com/2012/11/google‑transit‑paris‑pour‑ les‑cowboys.html (consulté le 26/11/20).

23 : Entretien téléphonique avec Hugues, directeur des politiques publiques, Google (11 février 2015).

24 : La liste des villes présentes sur Google Transit est disponible à cette adresse : http://maps.google.com/landing/transit/cities/index.html (consulté le 26/11/20).

25 : Dominique Cardon et Maxime Crépel, 2019, « Les algorithmes et la régulation des territoires » dans Antoine Courmont et Patrick Le Galès (dir.), Gouverner la ville numérique, Paris, PUF, p. 83‑101.

26 : Journal de terrain, discussion avec Léa, juin 2015.

27 : Entretien avec Guillaume, service de la mobilité urbaine, Grand Lyon (5 mai 2018).

28 : Décision n° CP‑2019‑2915 (commission permanente du 4 mars 2019).

29 : Échange avec François, services informatiques, Grand Lyon (5 mai 2018).

30 : Entretien avec Simon, responsable des partenariats, Waze France (31 mai 2017).

31 : Maxime Huré, 2012, « Une action publique hybride ? Retour sur l’institution‑ nalisation d’un partenariat public‑privé, JCDecaux à Lyon (1965‑2005) », Sociologie du travail, vol. 54, n° 2, p. 29.

32 : Entretien avec Simon, responsable des partenariats, Waze France (31 mai 2017).

33 : Échange avec Marine, cheffe de projet, Waze France (mai 2019).

34 : Béatrice Hibou, 1998, « Retrait ou redéploiement de l’État ? », Critique internationale, n° 1, p. 151‑168.

« Sans amortisseurs sociaux, la crise sanitaire aurait été encore plus violente » – Entretien avec Éric Chenut

Eric Chenut MGEN
Eric Chenut, vice-président délégué de la MGEN et auteur de L’émancipation, horizon de nos engagements mutuels.

Vice-président délégué du groupe MGEN et militant mutualiste, Éric Chenut est l’auteur de L’émancipation, horizon de nos engagements mutuels (Fondation Jean-Jaurès / L’Aube, 2020). Dans cet entretien, il revient pour nous sur les origines et sur les fondements philosophiques du mouvement mutualiste, mais aussi sur sa conception de l’émancipation, notion au cœur de son engagement. Il y défend le rôle de l’État dans la garantie à chacun des moyens de l’émancipation. Il analyse également l’importance du numérique dans nos sociétés et dessine les contours d’une démocratie sanitaire pour renouer la confiance entre la population et les autorités, dans le contexte de la crise que nous traversons. Entretien réalisé par Léo Rosell.

LVSL – Vous vous présentez avant toute chose comme un « militant mutualiste », et exercez des responsabilités de premier plan dans la Mutuelle générale de l’Éducation nationale (MGEN). Pourriez-vous revenir à la fois sur les origines et sur les fondements philosophiques du mouvement mutualiste ?

Éric Chenut – Être militant mutualiste, c’est avant tout s’inscrire dans une philosophie particulière de l’action, à la fois individuelle et collective. Une philosophie qui implique un savoir-être et un vouloir-être-ensemble pour soi et pour les autres. Une mutuelle, par définition, est un bien collectif, animé et porté par des femmes et des hommes engagés, qui partagent des convictions communes. Des convictions qui s’incarnent au quotidien dans la manière d’activer des solidarités intergénérationnelles, interprofessionnelles, interrégionales, entre actifs et retraités, entre malades et bien portants, dans le service apporté à ses adhérents ainsi que dans la gouvernance démocratique qui est la signature du mutualisme.

Nous agissons par et pour les adhérents, les bénéficiaires finaux de notre action. Le mutualisme est une manière originale, résolument moderne d’entreprendre, une forme d’économie circulaire à échelle humaine. Elle cherche à rationaliser notre action pour en maximiser l’utilité sociale, où la mesure d’impact est démocratiquement contrôlée par les représentants des adhérents. Le mutualisme induit une efficacité vertueuse s’il n’est pas dévoyé par l’hyper-concurrence qui pourrait le conduire à se banaliser pour répondre aux canons du marketing, des appels d’offres remettant en cause le fondement même de son essence solidariste et émancipatrice.

Avec l’avènement du siècle des Lumières, ces groupements, ces mouvements inspirés du principe de solidarité se détachent de la charité pour donner forme aux Sociétés de secours mutuels qui se développent concomitamment à la Révolution industrielle.

Très concrètement, le mutualisme est un modèle économique et solidaire fondé sur la Mutualité, c’est-à-dire une action de prévoyance collective par laquelle des personnes se regroupent pour s’assurer mutuellement contre des risques sociaux que sont la maladie, les accidents du travail, le chômage ou encore le décès. Nous pouvons adapter les réponses du mutualisme afin qu’il puisse se préoccuper des nouveaux fléaux sociaux, induits par des risques émergents comme l’environnement, les vies plus séquentielles ou de nouvelles crises pandémiques.

Pour ce qui est des origines philosophiques du mutualisme, plusieurs courants de pensée ont participé à sa conceptualisation, comme le mutualisme inspiré par Proudhon ou le solidarisme promu par Léon Bourgeois. Bien sûr, si on retrouve des traces d’actions de secours mutuel dans l’Antiquité, l’histoire du mutualisme en France remonte plus sûrement au Moyen-Âge avec les guildes, les confréries, les jurandes, les corporations et le compagnonnage. Avec l’avènement du siècle des Lumières, ces groupements, ces mouvements inspirés du principe de solidarité se détachent de la charité pour donner forme aux Sociétés de secours mutuel qui se développent concomitamment à la Révolution industrielle. Libérées de leur sujétion au pouvoir politique, après le Second Empire, et se développant d’abord en marge voire en opposition aux syndicats ainsi qu’aux assurances, les mutuelles proprement dites s’organisent dans un cadre juridique plusieurs fois remanié, concrétisé en France par le Code de la mutualité.

Le mouvement mutualiste continue donc d’investir et d’innover, contribuant ainsi à l’aménagement du territoire en santé en apportant des réponses de proximité.

En France, le mutualisme s’inscrit aujourd’hui dans le mouvement de l’économie sociale et solidaire qui promeut ce mode d’entreprendre à but non lucratif, ce qui ne signifie pas sans excédents. Ceux-ci sont réinvestis pour apporter aux adhérents des services nouveaux, à travers des réalisations sanitaires et sociales, des œuvres mutualistes, des services de soins et d’accompagnements mutualistes, aussi divers que des EHPAD, des cliniques de médecine, de chirurgie, d’obstétrique, des établissements de soins de suite et de réadaptation, des établissements de santé mentale, des centres de santé, des établissements médico-sociaux, des services à domicile, des centres d’optiques, dentaires ou d’audiologie, des crèches ou encore des services funéraires. Le mouvement mutualiste continue donc d’investir et d’innover, contribuant ainsi à l’aménagement du territoire en santé en apportant des réponses de proximité.

La mutualité n’est donc pas soluble dans l’assurance tant sa dimension sociale, sociétale et d’accompagnement est forte, elle concourt à la dimension sociale de la République aux côtés de la Sécurité sociale.

LVSL  Justement, à la Libération, la mise en place du régime général de la Sécurité sociale, par le ministre communiste du Travail Ambroise Croizat, et le directeur de la Sécurité sociale Pierre Laroque, a suscité l’inquiétude, voire la méfiance de la Mutualité, qui craignait de perdre le poids qu’elle avait acquis dans le mouvement social depuis plus d’un siècle. L’ordonnance portant statut de la Mutualité reconnaît toutefois que « les sociétés mutualistes sont des groupements qui, au moyen des cotisations de leurs membres, se proposent de mener, dans l’intérêt de ceux-ci ou de leur famille, une action de prévoyance, de solidarité ou d’entraide ». Comment ont évolué, depuis, les rapports entre la Mutualité et la puissance publique ?

E. C. – L’intervention de l’État dans le domaine social a été beaucoup plus tardive en France que dans la majorité des pays européens, ce qui explique le poids qu’y ont pris les mutuelles. La Sécurité sociale n’a pas été créée ex nihilo en 1945 sur une décision du Gouvernement provisoire de la République française, elle est le résultat d’un processus historique. Elle repose sur deux lois antérieures. La première, la loi sur les retraites ouvrières et paysannes, fut votée en 1910 et concerna à l’époque 2,5 millions de personnes. La seconde fut votée en 1930 et a établi les Assurances sociales, inspirées en partie du système dit bismarckien mis en place en Allemagne de 1883 à 1889.

La Sécurité sociale innove sur trois points : d’abord, elle porte une ambition universelle et prétend couvrir tous les Français. Ensuite, elle prend en charge l’ensemble des risques sociaux. Enfin, les caisses de Sécurité sociale sont gérées par les travailleurs eux-mêmes, à travers leurs représentants syndicaux élus.

La France est le dernier grand pays d’Europe à s’être inspiré de ce système et à mettre en place les Assurances sociales, en raison principalement d’une farouche opposition d’une partie du patronat et à la réticence des médecins libéraux qui avaient promu leur charte de la médecine libérale à la fin des années 1920. Les Assurances sociales ont été investies par les mutualistes : aussi notre pays compte 15 millions de mutualistes à la Libération. Le rapport de force est alors favorable à la gauche et aux syndicats.

La Sécurité sociale innove sur trois points. D’abord, à la différence des lois de 1910 et 1930, elle porte une ambition universelle et prétend couvrir tous les Français. Ensuite, elle prend en charge l’ensemble des risques sociaux, jusqu’alors gérés par des acteurs différents ; seule exception, le chômage qu’on croit avoir vaincu. Enfin, les caisses de Sécurité sociale sont gérées par les travailleurs eux-mêmes à travers leurs représentants syndicaux élus.

Il s’agit donc d’un moment difficile pour la Mutualité, qui voit son périmètre d’activité et de légitimité se réduire à mesure que la Sécurité sociale se généralise. Son modèle, parce qu’il a gagné, induit de fait son retrait. À partir de ce moment, elle doit donc se réinventer, et aller sur de nouveaux risques, que la Sécu ne couvre pas, et se développer sur des protections par des prestations en espèces, certes, mais surtout en nature et en services. S’ouvre alors une ère d’innovation et d’investissement pour apporter des réponses territoriales et accompagner la reconstruction du pays, l’accès aux soins et des actions de salubrité publique.

La Sécurité sociale couvrant les salariés, les syndicats et les mutualistes portent son élargissement aux fonctionnaires. En 1947, la loi Morice établit un accord entre l’État et la Mutualité : cette dernière, reconnaissant la Sécurité sociale, gagne le droit de gérer celle des fonctionnaires, notamment pour la MGEN, celle des enseignants.

La Mutualité a su se développer, et convaincre de son utilité sociale, alors que la Sécurité sociale se généralisait, preuve qu’il n’y a pas à les opposer.

Au sein du mouvement mutualiste une ligne de divergence exista pendant plusieurs dizaines d’années entre les défenseurs d’une alliance objective avec l’assurance maladie, et ceux estimant que la Mutualité avait été spoliée. Depuis, ces querelles ont totalement disparu, les mutualistes défendant la Sécu comme premier levier de mutualisation, le plus large possible, socle indispensable au creuset républicain.

La Mutualité a su se développer, et convaincre de son utilité sociale, alors que la Sécurité sociale se généralisait, preuve qu’il n’y a pas à les opposer. Alors qu’elle couvrait 15 millions de personnes à l’après-guerre, elle en protège aujourd’hui 38 millions et gère 2 800 services de soins et d’accompagnement mutualistes sur tout le territoire, faisant d’elle le premier réseau non lucratif de soins du pays.

À partir des années 1970, les assureurs privés, avec des objectifs lucratifs, commencent à investir le domaine de la santé, au détriment des mutualistes. Ils sont confortés par le cadre européen, qui privilégie leurs statuts, celui des mutuelles n’existant pas dans la plupart des autres pays.

La Mutualité n’a pas toujours entretenu une relation apaisée et fluide avec les syndicats. La Fédération nationale de la Mutualité française (FNMF), créée en 1902 au Musée social à Paris, attendit 1971 pour engager des relations régulières avec la CFDT, la CGT et FO, sous l’impulsion des mutuelles de fonctionnaires où les relations étaient bien plus nourries et structurées.

Le mouvement mutualiste est soumis aujourd’hui à une concurrence de plus en plus sévère, induit par la doxa libérale européenne et les ordonnances de concurrence libre et non faussée qui induisent la déconstruction méthodique des cadres solidaires émancipateurs mutualistes. Les contrats groupes d’entreprises, sous couvert d’une meilleure couverture des salariés, ont déconstruit les solidarités entre actifs et retraités. Les besoins de portabilité des droits renforcent les stratégies de segmentation des marchés et d’individualisation des risques. L’hyper-concurrence engendre des coûts d’acquisition renforcés sans création de valeur sociale pour l’adhérent, les dernières modifications législatives imposant la résiliation infra-annuelle pour les complémentaires santé ayant pour principal impact une augmentation des coûts de gestion.

Nous devons jouer notre rôle de leader et rester ce que nous sommes : des militants de la protection sociale solidaire, des entrepreneurs du mieux vivre.

Alors que la question devrait être au contraire d’imposer un haut niveau de redistribution, de créer de la valeur pour les bénéficiaires finaux, les conditions de marché et un impensé politique conduisent à réglementer à outrance les contrats plutôt qu’à interroger le sens de l’action des acteurs et des opérateurs.

La Mutualité a donc intérêt aujourd’hui encore plus qu’après-guerre à se réinterroger sur son devenir, compte tenu des impacts induits par ce contexte concurrentiel, l’accélération des regroupements, aujourd’hui moins de 400 mutuelles, et la constitution de groupes mutualistes couvrant des millions de personnes. Le groupe VYV cofondé par la MGEN en 2017 protège ainsi plus de 10 millions de personnes. Comment allier taille et proximité ? Comment innover et investir pour inventer les métiers de demain de la protection sociale sans perdre de vue la préoccupation de la vie quotidienne des femmes et des hommes que l’on protège ?

Voilà une des nombreuses équations auxquelles les mutualistes ont à apporter la meilleure réponse possible. Ils doivent se réinventer pour ne pas se banaliser et préserver leurs capacités à entreprendre, à jouer l’émulation avec les autres acteurs de la protection sociale sans avoir peur d’être copiés. Nous devons jouer notre rôle de leader et rester ce que nous sommes : des militants de la protection sociale solidaire, des entrepreneurs du mieux-vivre.

Il appartient aux mutualistes de créer les conditions du rapport de force pour être entendus des pouvoirs publics et de l’État pour ce qu’il est, un employeur responsable, un investisseur de long terme dans les territoires, et un acteur contribuant au développement de l’action publique, confortant par le non lucratif les services publics de proximité.

Les mutualistes, par leur action, par le développement de leurs réponses, participent de la politique des territoires et du pays, même si ils ne sont pas toujours payés en retour. Il leur faut nouer des alliances objectives afin de pouvoir davantage peser dans le débat public à la hauteur de leur contribution sociale effective.

LVSL  L’idée d’émancipation est au cœur de votre ouvrage, comme en témoigne son titre. Quelle conception vous faites-vous de ce terme, de sa valeur philosophique et de son utilisation possible dans le domaine politique ?

E. C.  Je me suis aperçu en préparant ce livre que l’émancipation était au cœur de tous mes engagements depuis plus de 25 ans. Et cela m’a interrogé, car je n’en avais pas forcément eu conscience au moment de mes choix d’engagement successifs ou concomitants.

J’ai toujours voulu être libre, que l’on ne me réduise pas à l’image que l’on se faisait de moi. Je voulais être jugé pour ce que je faisais, et non pour ce qu’en apparence j’étais, ou ce à quoi on voulait me restreindre. Comme tout le monde, j’ai de multiples identités, elles ne peuvent suffire à me définir seules. À la différence de Kant, je crois que l’on se définit plus par ce que l’on fait que par ce que l’on pense.

Je n’oppose pas l’émancipation individuelle et collective car l’une comme l’autre se nourrissent, se renforcent. C’est parce qu’en tant qu’individu, je me sens libre, éduqué, en capacité de faire des choix, que j’ose les faire.

Je me réfère régulièrement à Montaigne, qui pose le principe d’individuation. Je suis par moi-même, et je crois que chacun l’est, femme ou homme libre. Je fais partie d’un groupe, un village, des amis, une famille, une profession, mais je suis moi-même. Je ne suis pas seulement une partie du groupe. Je concours au groupe, j’interagis avec les autres. Montaigne ne fait pas l’éloge de l’individualisme comme certains ont voulu le caricaturer, il porte le germe de l’émancipation, en ce sens qu’il pousse l’individu à se réaliser par lui-même, pour lui-même avec les autres, dans son écosystème, humain, naturel, animal. Je crois à cette nécessité de rechercher une harmonie, au fait que l’on ne se construit pas contre les autres, mais avec eux et par eux.

Je n’oppose pas l’émancipation individuelle et collective car l’une comme l’autre se nourrissent, se renforcent. C’est parce qu’en tant qu’individu, je me sens libre, éduqué, en capacité de faire des choix, que j’ose les faire. C’est parce que le groupe, la société, la nation investissent et croient en moi, me protègent de l’aléa, me donnent les outils pour que je sois un citoyen libre et éclairé, que je pourrais la défendre si une menace apparaissait.

La République a donc tout intérêt à investir massivement pour que ses filles et ses fils puissent être libres, émancipés de toute pression politique, religieuse, consumériste, et agissent en femmes et hommes libres, éclairés, car c’est ainsi qu’elle sera confortée. Elle sera questionnée, elle devra être elle-même irréprochable, car plus les gens sont formés et informés, plus leur niveau d’exigence progresse. C’est donc un cheminement exigeant, une recherche d’amélioration permanente, où le sens est d’être plus que d’avoir, où le progrès se mesure dans la concorde et aux externalités positives et non à l’accumulation, où l’essentiel est la PIBE, la participation intérieure au bien-être, et non le PIB, gage de gabegies et d’aberrations environnementales.

Pour que cette émancipation individuelle et collective prenne force et vigueur, cela suppose que différentes conditions soient remplies, que la République porte une ambition aspirationnelle, que l’État garantisse à chacun les moyens de cette émancipation par l’éducation, la culture, la santé, la solidarité et la citoyenneté.

L’émancipation, c’est donc ce qui me permet d’être moi-même, un être civilisé, connecté avec mon environnement, pouvant agir et interagir avec lui, comprenant les enjeux, et pouvant décider en toute connaissance de cause. Pour que cette émancipation individuelle et collective prenne force et vigueur, cela suppose que différentes conditions soient remplies, que la République porte une ambition aspirationnelle, que l’État garantisse à chacun les moyens de cette émancipation par l’éducation, la culture, la santé, la solidarité et la citoyenneté.

LVSL  Votre livre s’ouvre sur le constat que « la société française apparaît de plus en plus fracturée, loin du mythe révolutionnaire de la nation une et indivisible la structurant », ce qui constitue un défi considérable pour le vivre-ensemble. La croissance des inégalités sociales et territoriales a dans le même temps altéré en profondeur l’égalité des chances, réduisant ainsi ce que vous appelez « la capacité des individus à s’émanciper ». Si ce constat est souvent fait dans les champs politique et médiatique, quelles en sont la portée et la spécificité selon une perspective mutualiste ?

E. C. – Depuis les années 1980, l’évolution des inégalités est en hausse partout dans le monde, de telle sorte que même si en Europe celles-ci sont moins fortes qu’ailleurs dans le monde, notamment en raison de nos systèmes sociaux, les inégalités n’y régressent plus pour autant. Les politiques publiques permettent moins qu’avant à un enfant de réussir par son seul mérite à se hisser dans une autre classe sociale que celle de sa naissance. Cela ne peut que générer du ressentiment social, qui se traduit vite en exutoire violent, faute de débouché politique si ces frustrations ne trouvent pas de possibilité de traduction constructive.

Aujourd’hui, celles et ceux qui contribuent le plus aux solidarités proportionnelles par l’impôt et les cotisations sociales sont les classes moyennes qui, paradoxalement, voient leurs efforts moins récompensés qu’avant. En effet, l’action publique investit moins pour l’avenir à travers des infrastructures ou l’éducation permettant à leurs enfants de pouvoir avoir une vie meilleure que la leur. Depuis l’après-guerre, ma génération est la première à ne pas avoir vu sa condition s’améliorer par rapport à celle de ses parents.

Par ailleurs, celles et ceux qui bénéficient de l’action sociale se voient dans l’obligation de justifier toujours davantage les aides auxquelles ils ont droit, et ces dispositifs d’accompagnement, plutôt que de les aider à évoluer, à s’élever, leurs permettent juste de survivre.

Par conséquent, les contributeurs nets comme les bénéficiaires nets ne peuvent nourrir dans cette situation qu’une vision négative de l’action publique, des dispositifs d’aide sociale, sans que l’État ne les réinterroge en profondeur pour les refonder. Une situation qui nourrit un sentiment de gâchis, et qui alimente une perte de sens collectif, tout en nuisant à la conscience que les solidarités sont nécessaires et participent à la richesse de tous. De plus, elle est largement instrumentalisée par les tenants du tout libéral.

La crise sanitaire actuelle, qui aggrave dangereusement cette crise économique et sociale, en témoigne : sans amortisseurs sociaux, elle aurait été encore plus violente. Mais si on ne rétablit pas la pertinence des solidarités, nous aurons du mal à convaincre de l’utilité de l’impôt et des cotisations sociales.

Si le rapport à la société et aux autres n’est pas apaisé, nous, en mutualité, ne pouvons promouvoir efficacement nos constructions solidaires, nos mécanismes redistributifs. Si chacun calcule son risque a posteriori, et veut en avoir pour son argent, le mécanisme même d’assurance n’est plus possible. C’est pourquoi il faut en revenir au sens, rendre compte de l’utilisation des ressources qui nous sont confiées pour montrer le bon usage qui en est fait, et rappeler pourquoi nous avons intérêt à être solidaires les uns avec les autres en termes de prévention des risques et d’apaisement social.

La meilleure des garanties de la Mutualité est son essence démocratique. Il nous faut donc renforcer la place des adhérents dans les mutuelles et la gouvernance mutualiste.

Cette crise sanitaire a rappelé à chacun que nous étions mortels, fragiles, et que sans les autre nous n’étions rien. Même la coopération internationale et européenne, quand elle a failli au début de la pandémie, a montré à quel point nous étions vulnérables. Il faut espérer que nous ayons des femmes et des hommes politiques qui portent cette aspiration au dépassement, au sursaut républicain, pour que nous ayons à cœur l’attention de l’autre, pour éviter les tensions de demain que tout repli nationaliste induirait inexorablement.

La Mutualité est traversée par les mêmes interrogations que la société. Elle doit donc elle aussi démontrer la force de son modèle, l’efficacité de ses mécanismes de redistribution solidaire, la résilience de son économie. La meilleure des garanties de la Mutualité est son essence démocratique. Il nous faut donc renforcer la place des adhérents dans les mutuelles et la gouvernance mutualiste en utilisant notamment les nouveaux moyens de communication afin de les associer aux réflexions et de rendre compte des décisions qui sont prises.

LVSL  Vous présentez cet ouvrage comme le résultat d’un « travail d’archéologie sur [vous]-même », dévoilant votre enfance, notamment marquée par un sentiment d’injustice suscité par votre handicap, et par une scolarité dans une ville, Nancy, où l’école jouait encore « le rôle de creuset républicain », avant d’évoquer vos engagements successifs dans le milieu mutualiste et plus largement associatif, et de résumer les valeurs qui vous animent selon le triptyque suivant « humanisme, émancipation, laïcité ». Pourriez-vous revenir sur les principales étapes de votre parcours, et sur les motivations qui vous ont mené à écrire cet ouvrage ?

E. C.  J’ai débuté mon parcours en mutualité en 1993, après avoir milité dans le syndicalisme étudiant à l’UNEF ID. J’ai trouvé dans cette forme d’engagement une dimension très concrète que je ne retrouvais pas ailleurs et qui me correspondait bien. Comme je l’ai dit, je crois que l’on se réalise aussi en faisant, en étant dans l’action.

Puis, les rencontres m’ont amené à m’intéresser à d’autres questions que la prévention, l’accompagnement social. J’ai eu envie et besoin de comprendre, d’approfondir les questions sous-jacentes qui amenaient à cette situation. J’ai voulu agir en amont, et donc j’ai élargi mon champ des possibles en essayant de remonter le fil et de voir où et comment il était possible d’agir pour que chacun puisse devenir réellement l’artisan de sa propre vie, sans que personne ne soit contraint par un problème de santé, de handicap, une origine ethnique ou religieuse, une contrainte économique et sociale.

La politique fut donc une source de réflexion et d’engagement naturelle pour moi, au Parti socialiste, où j’ai réfléchi et travaillé sans vouloir prendre de responsabilités au sein de l’appareil du parti. J’ai été élu municipal et communautaire d’opposition de 2008 à 2014, mandat au cours duquel j’ai beaucoup appris, en découvrant l’action publique depuis l’intérieur. Ce fut une expérience que j’aurais probablement poursuivie si mon engagement professionnel ne m’avait pas conduit à quitter Nancy pour m’installer à Paris.

La MGEN m’a permis de m’intéresser et de me former à différents champs d’activités dans l’assurance, la prévention, la recherche en santé publique, la gestion d’établissements de santé, le numérique en santé, me donnant une vision prospective qui a nourri ma capacité à faire des propositions, et là où je suis, à la MGEN, au Groupe VYV ou à la FNMF, d’être force de propositions pour que nous nous réinterrogions quant à notre devenir, notre contribution perceptible par celles et ceux pour qui nous sommes là, les adhérents.

Nos organisations, parce qu’elles sont inscrites dans le camp du progrès, se doivent d’éclairer l’avenir et de porter une parole courageuse dans le concert du mouvement social dont nous faisons partie.

LVSL  Dans son discours lors de la réception de son prix Nobel, en 1957, Albert Camus a dit : « Chaque génération, sans doute, se croit vouée à refaire le monde. La mienne sait pourtant qu’elle ne le refera pas. Mais sa tâche est peut-être plus grande. Elle consiste à empêcher que le monde se défasse. » En accordant une place centrale aux « enjeux de notre génération », et en rappelant que ceux-ci ont énormément évolué depuis l’après-guerre, vous semblez aussi traduire des inquiétudes qui concernent l’asservissement de l’humanité, non plus tant par les idéologies que par le numérique. Dans quelle mesure cet enjeu est-il devenu celui de notre génération, et comment faire progresser efficacement une culture scientifique et un nouvel humanisme, capables d’armer les citoyens face à cette menace qui alimente nombre de récits dystopiques ?

E. C. – Je crois que notre préoccupation est davantage de savoir quelle génération nous allons laisser au monde que de savoir quel monde nous allons laisser aux générations futures. Si nous n’armons pas ces générations à pouvoir se projeter, à pouvoir comprendre leur environnement et y agir, comment pouvons-nous imaginer leur donner la capacité de faire de bons choix pour elles-mêmes et pour les générations qui viendront après ?

Le numérique bouleverse et transforme toutes les sociétés. Aucune parcelle de l’organisation de notre monde ne semble lui échapper. L’organisation des États, des économies, des démocraties, a vu les algorithmes et aujourd’hui l’intelligence artificielle suppléer ou se substituer à l’intelligence humaine, quand ils ne sont pas des moyens de la manipuler. Nos comportements quotidiens, nos choix en tant que citoyens et consommateurs, nos rencontres, notre vie amoureuse et intime sont de plus en plus accompagnés, si ce n’est commandés, par d’habiles suggestions d’algorithmes qui nous connaissent parfois mieux que nous-mêmes. 

Il faut bien avoir conscience que l’avènement de l’ère numérique annonce une civilisation nouvelle qui se dessine sous nos yeux depuis trente ans et s’impose à une vitesse exponentielle. Aucune génération dans l’histoire n’a connu de changement si radical et si profond en un temps si court.

En me posant la question des menaces qui alimentent les récits dystopiques, vous posez la question de savoir qui du numérique ou de l’homme sert l’autre et qui du numérique ou de l’homme peut asservir l’autre ? C’est l’éternelle question de la liberté de l’homme dans son environnement, et notamment dans son environnement historique. L’ère numérique n’est ni plus ni moins qu’un fait historique majeur, le dernier développement de la révolution scientifique entamée au XVe siècle en Europe mais aussi l’aboutissement de la globalisation. 

Il faut bien avoir conscience que l’avènement de l’ère numérique annonce une civilisation nouvelle qui se dessine sous nos yeux depuis trente ans et s’impose à une vitesse exponentielle. Aucune génération dans l’Histoire n’a connu de changement si radical et si profond en un temps si court. Qui aurait pu imaginer le rôle du smartphone dans le quotidien des individus il y a seulement vingt ans ? Qui aurait pu imaginer une telle transformation dans le fonctionnement des États et de l’économie dans le même temps ? Où serons-nous dans vingt ans ? Personne n’est en mesure de le dire avec certitude. 

Il faut permettre à chacun de comprendre, apprendre, anticiper pour ne pas subir les évolutions techniques, technologiques, scientifiques et médicales.

Ainsi, nous devons accompagner cette révolution en investissant sur l’éducation et la culture pour permettre à chacun d’appréhender le visible comme l’invisible, car je crois que l’on apprend autant de ce qui existe que de ce qui manque. Il faut permettre à chacun de comprendre, apprendre, anticiper pour ne pas subir les évolutions techniques, technologiques scientifiques et médicales.

Le numérique, par ce qu’il induit de progrès, est une opportunité que nous devons saisir pour mieux la faire partager au plus grand nombre. Mais au regard des transformations consubstantielles liées aux données qui en sont le ferment, il faut apprendre aux assurés sociaux, aux patients, aux personnes malades, à savoir comment les utiliser, savoir avec qui et comment les mettre à profit.

Il est singulier de voir que de nombreux individus ne s’émeuvent pas de laisser ses données de santé en accès via leur smartphone à leur opérateur ou via les applications utilisées mais se méfient du fait que l’État puisse avoir des informations le concernant via « Tous Anti-Covid ». À ce sujet, une expérience d’un blue button à la française où chacun aurait accès à ses données, pourrait décider de les partager avec les professionnels de santé ou de participer à des programmes de recherches, me semblerait une expérimentation utile à proposer. Ainsi, chacun aurait la capacité de gérer son capital santé en pleine responsabilité.

Mais pour que cela soit possible, il faut que la confiance soit au rendez-vous, et donc que des principes clairs soient établis et que l’État soit garant de leur application. Un principe de transparence, pour que celles et ceux qui sont à l’origine des algorithmes soient connus. Un principe de loyauté, afin que l’on n’utilise pas l’intelligence artificielle à l’insu des personnes. Un principe de libre consentement qui suppose que les assurés sociaux soient formés et informés. Un principe d’égalité pour que chacun puisse avoir accès aux dispositifs, ce qui suppose de régler les problèmes liés aux zones blanches. Un principe d’inviolabilité des infrastructures, ce qui nécessite que l’État garantisse la sécurité et impose des normes élevées aux acteurs et opérateurs.

Et pour finir, un principe de garantie humaine afin que jamais une personne ne soit seule face à un algorithme ou un robot, et puisse toujours bénéficier d’une médiation humaine pour expliciter un diagnostic. À l’aune du respect de ces principes éthiques, la confiance pourra être possible, l’individu respecté et donc nous pourrons lui permettre d’être arbitre de ses choix.

LVSL  De même, vous rappelez que « l’enjeu de l’émancipation est vital pour la République », et que celle-ci doit se réarmer idéologiquement et créer un nouveau contrat social, pour reproduire un cadre collectif protecteur et émancipateur, en termes d’accès à l’éducation et à la culture, de protection sociale ou encore de laïcité. Quels devraient être, selon vous, les contours de ce nouveau contrat social ?

E. C. – Tout au long de ce livre, je plaide en filigrane pour l’engagement mutuel, qui pourrait être le socle d’une reviviscence de la citoyenneté et d’un nouveau contrat social.

Il ne peut y avoir de République si elle n’est constituée d’individus émancipés, de citoyens éclairés, de gens heureux.

Un engagement mutuel entre l’État et les structures de l’économie sociale et solidaire, entre l’État et les organisations syndicales, entre l’individu qui s’engage et l’État, entre les personnes qui s’engagent et la structure dans laquelle elles le font.

Oui, l’émancipation est vitale pour la République, nous le rappelions plus haut, et il ne peut y avoir de République si elle n’est constituée d’individus émancipés, de citoyens éclairés, de gens heureux. Je crois que c’est à l’État, parce qu’il est l’émanation et l’instrument de la société pour accompagner les transformations du monde et se transformer elle-même, de donner toutes les clés de compréhension aux individus via l’éducation nationale, la culture.

Très clairement, je ne crois pas que l’État doive tout faire, mais je ne suis pas non un adepte du tout libéral, où le marché réglerait le bonheur des gens. Je suis convaincu qu’une articulation entre la puissance publique et le champ du non lucratif serait utile et pertinente, offrant la capacité aux gens de s’engager et d’agir à l’échelle locale comme nationale à travers des associations, des fondations, des coopératives, des mutuelles et des syndicats, pour appréhender à leur façon la chose publique.

Je crois aussi fondamentalement que l’économie sociale et solidaire, par son mode d’organisation et sa façon d’entreprendre, offre des capacités à faire, à initier le faire-faire, pour que la puissance publique ne porte pas tout. Les organisations doivent permettre à leurs membres de s’investir, ainsi nous démultiplierons les espaces de coopération, de co-construction des décisions et aspirations collectives. Nous pourrons, dans cette optique, créer des espaces de concordes sociales, donner des espaces au plaisir d’être et de faire ensemble. Il faut générer des espaces vertueux démocratiquement où celles et ceux qui veulent agir puissent le faire. Ainsi on créera des remparts pour défendre la République contre ses adversaires, et ils sont nombreux.

Il faut réaffirmer la République, ses valeurs et ses principes. Elle ne doit pas être solvable dans le marché, sauf à perdre son ambition émancipatrice. Il faut redonner du lustre à l’universalisme, à la fraternité/sororité républicaine qui, trop souvent, est moins appréhendée que la liberté et l’égalité pour lesquelles les débats sont si fréquents, alors qu’elle est le ciment de la société.

Nous nous réunissons davantage par notre envie d’être ensemble que par seulement une langue, un drapeau et un hymne. La République doit donc nourrir, entretenir cette aspiration, si elle veut que la flamme républicaine ne s’éteigne pas.

LVSL  Votre dernière partie, intitulée « À l’heure des choix », sonne comme l’ébauche d’un programme politique pour repenser la question des « jours heureux », pour reprendre le titre de celui du CNR. Quels en sont les axes principaux ?

E. C.  L’époque nous impose de dramatiser les enjeux autour des choix que nous devons faire. Vous êtes vous-même historien, activement engagé dans la cité, vous savez que l’Histoire peut être sévère et que chaque génération est jugée sur les choix qu’elle fait, sur l’héritage qu’elle laisse.

Mais si le lot de notre génération peut paraître un peu lourd tant les défis sont nombreux, il n’appartient qu’à nous de nous prendre en main pour refonder le pacte social et républicain, « Liberté, égalité, fraternité », pour redonner confiance en la démocratie, pour réussir la reconstruction écologique.

Je crois que l’universalisme, qui est peut-être le plus important des héritages qu’on nous ait légués, doit être au cœur de la reconquête démocratique et sociale.

Nous ne partons non plus d’une page blanche, bien heureusement, nous avons à notre disposition quelques acquis et fondamentaux sur lesquels nous appuyer pour construire l’avenir. Je crois que l’universalisme, qui est peut-être le plus important des héritages qu’on nous ait légués, doit être au cœur de la reconquête démocratique et sociale. Nous devons nous réapproprier cette notion, la défendre, la partager, l’enseigner, la transmettre.

En effet, la puissance publique qui doit nous unir ne peut le faire que si elle promeut ce qui est commun à tous, des principes s’appliquant à toutes et tous, et surtout pour toutes et tous, garantissant un espace public fondé sur la neutralité où chacun puisse agir, s’épanouir.

Concomitamment, la laïcité doit être réaffirmée comme cadre organisationnel émancipateur, garantissant à chacun de vivre librement dans le respect des autres. Et nous rappeler aussi ce qu’est la laïcité. Si elle est un cadre juridique, l’esprit de la loi va bien plus loin : c’est un principe d’organisation de la société qui s’est imposé comme clef de voûte de l’édifice républicain. Réduite à une simple opinion par ses contempteurs, la laïcité est au contraire la liberté d’en avoir une.

La laïcité est l’essence de nos libertés individuelles et de l’égalité des droits, elle constitue le fondement indispensable de l’harmonie sociale et de l’unité de la nation […] qui offre à chacun un accès égal aux connaissances et aux responsabilités, aux mêmes droits et aux mêmes devoirs. C’est, in fine, une doctrine de la liberté dans l’espace civique.

Concrètement, que garantit la laïcité en France ? Le droit absolu à la liberté de conscience, à la liberté d’expression et au libre choix. Elle est ainsi l’essence de nos libertés individuelles et de l’égalité des droits, elle constitue le fondement indispensable de l’harmonie sociale et de l’unité de la nation. Elle dessine le contour de notre civilité, une exigence à être au monde selon les codes d’un humanisme moderne qui offre à chacun un accès égal aux connaissances et aux responsabilités, aux mêmes droits et aux mêmes devoirs. C’est, in fine, une doctrine de la liberté dans l’espace civique.

J’y reviens assez longuement dans la troisième partie du livre, les questions du progrès, du temps et du bonheur doivent être réinvesties par le politique, pour leur redonner un sens partagé. La technologie, l’allongement de la durée de l’existence, mille choses ont depuis quelques décennies considérablement modifié notre rapport à l’espace, au temps, à nous-même en tant qu’individus, et en tant que société.

Nous devons resituer notre action individuelle et collective à l’aune des enjeux donc au-delà de ce que nous sommes : une espèce humaine vivant dans un monde dont les ressources sont finies, dans lequel nous nous devons de vivre harmonieusement. La question du sens devient essentielle, vitale même. Nous devons redonner une vision commune et partagée, donc débattue, des aspirations collectives. Nous devons requestionner l’économie pour que celle-ci, qui n’est qu’un moyen de nous réaliser, soit plus humaine, soit bien davantage structurée pour financer la santé, le social, l’environnemental.

Il faut également que l’Europe soit une terre d’émancipation et de progrès partagés à l’échelle continentale, plus sociale et solidaire. Ce qu’est devenue l’Europe est à bien des aspects problématiques. L’Europe doit renouer avec l’ambition de préparer l’avenir, d’assurer la prospérité du continent, d’offrir demain aux nations qui la composent les moyens de leur destin et de leur liberté. La reconstruction de l’esprit européen, de la conscience commune d’appartenir à un ensemble cohérent de peuples ayant des intérêts convergents, ne se fera pas sans un puissant effort pour rebâtir un dessein dans lequel chacun pourra se reconnaître, pour une Europe souveraine et solidaire.

LVSL  Dans une tribune parue dans le journal l’Humanité, vous estimez également qu’« associer les citoyennes et les citoyens à l’élaboration d’une ambitieuse politique de santé publique permettrait non seulement à cette politique d’être largement comprise et acceptée, mais participerait également à l’éducation populaire aux questions de santé publique et lèveraient des appréhensions légitimes, en particulier sur la politique vaccinale. » Est-ce à une sorte de démocratie sanitaire que vous aspirez, dans le sens où la population aurait à la fois davantage de poids et de visibilité sur les questions de santé publique, qui nourrissent de plus en plus d’inquiétudes ?

E. C.  Je suis toujours surpris de voir que nous nous soyons collectivement accommodés des milliers de morts chaque année de la grippe saisonnière parce que nous connaissions cette maladie, ou de voir le coût considérable induit par des pathologies certes moins graves comme les gastro-entérites, alors que des gestes simples permettraient de les éviter, par de la prévention et de la responsabilité individuelle. Nous avons préféré miser sur le curatif plutôt que sur le préventif. Cela ne peut se corriger en pleine crise et il est illusoire de demander à une population d’adopter des gestes barrières qu’on ne lui a pas enseignés préalablement.

Si nous voulons que des citoyens se responsabilisent, il faut que par l’éducation, à l’école, mais aussi tout au long de leur vie personnelle et professionnelle, via la médecine scolaire, universitaire ou du travail, on leur permette de comprendre et donc d’agir.

Je propose que l’ensemble des médecins de santé publique travaillent avec les médecins scolaires, universitaires et du travail à travers des pôles d’éducation et de promotion de santé sur de la recherche, notamment interventionnelle. Ainsi, les assurés sociaux pourront être accompagnés et devenir acteurs eux-mêmes de leur parcours, ils pourront appréhender en quoi et comment, par leur comportement, leur engagement, ils contribueront à l’amélioration de l’état de santé de leur communauté territoriale.

C’est par cette émulation collective, cet engagement de toutes et tous que l’on peut donner du sens à la démocratie sanitaire, car les gens pourront mesurer leur contribution, leur impact.

La crise sanitaire que nous vivons est singulière, en ce qu’elle a induit un retrait de la place des patients ou de leur organisation à la différence de crises précédentes comme le sida, le sang contaminé ou le Médiator. C’est donc la première fois que la démocratie sanitaire recule à l’occasion d’une crise, alors que les précédentes l’avaient au contraire fait progresser.

Si l’on veut dépasser cette défiance, il convient de conforter la transparence en permettant aux citoyens ou leurs représentants de questionner notre organisation en santé publique.

Si on pouvait le comprendre au moment de la sidération du mois de mars dernier, où en situation de crise majeure il a fallu agir vite, rien ne le justifie depuis mai dernier. Alors que le professeur Delfraissy, président du comité scientifique, demande la mise en œuvre d’un comité citoyen à côté de l’instance d’experts pour accompagner l’appropriation citoyenne des enjeux de cette crise, les pouvoirs publics ne l’ont pas installé ni même validé.

C’est regrettable au regard de la défiance induite par les errements de la communication gouvernementale du mois de mars. Si l’on veut dépasser cette défiance, alors que nous entrons dans la phase de la vaccination de la population, il convient de conforter la transparence en permettant aux citoyens ou leurs représentants de questionner notre organisation en santé publique. La démocratie sanitaire pourrait permettre de conforter la participation au bien-être physique, psychique, social et environnemental auquel j’aspire, permettant à chacun d’être acteur et non sujet, voire objet de soins.

Pour rétablir la confiance, il faut rendre les citoyens acteurs de leur parcours et non les infantiliser, comme cela est fait depuis la crise de la Covid-19, en leur permettant de comprendre les enjeux et d’être en capacité de questionner les pouvoirs publics à l’allocation des moyens pour atteindre des objectifs clairement établis.

En santé comme en politique, la démocratie ne peut fonctionner que si elle est participative, et si celles et ceux en responsabilité acceptent de rendre des comptes en toute transparence, pour conforter la confiance.

Il est ainsi surprenant de voir qu’actuellement, faute de confiance dans les pouvoirs publics, nous n’avons d’autre alternative que d’imposer, d’interdire ou de rendre obligatoire certaines pratiques auprès des assurés sociaux au lieu de miser sur l’intelligence collective en matière de santé publique. Avant même cette crise, compte-tenu de la montée du sentiment vaccino-sceptique très développé dans notre pays, les autorités ont ainsi fait passer le nombre de vaccins obligatoires de 3 à 11. Je suis convaincu de la nécessité de la vaccination, mais de telles décisions ne risquent-elles pas pour autant d’être contre-productives ?

Pour gagner en efficacité et en pertinence, la santé publique doit se penser à long terme, il faut miser et investir dans le temps long, et surtout y associer les femmes et les hommes qui sont concernés, tant les professionnels de santé que les patients ou assurés sociaux. En santé comme en politique, la démocratie ne peut fonctionner que si elle est participative, et si celles et ceux en responsabilité acceptent de rendre des comptes en toute transparence, pour conforter la confiance.

blank
Éric Chenut, L’émancipation, horizon de nos engagements mutuels, Fondation Jean-Jaurès / L’Aube, 2020.

Extraction des données par les GAFAM : aller au-delà de l’indignation – Par Evgeny Morozov

blank
© Fondation Cartier, Grand orchestre des animaux

Chaque jour, des milliards de données sont extraites de nos outils digitaux et réutilisées par les géants du numérique à des fins de ciblage publicitaire. La critique de ce capitalisme de surveillance a été popularisé dans les médias, notamment par Shoshana Zuboff, professeur émérite à la Harvard Business School, et auteur d’un ouvrage éponyme. Elle dénonce inlassablement les dangers que font courir les GAFAM sur l’autonomie des citoyens. Mais faut-il s’indigner de la soif insatiable de Google ou d’Amazon pour les données personnelles ? Ou simplement y voir la conséquence prévisible de l’extension du capitalisme vers de nouveaux marchés ? Evgeny Morozov, auteur de nombreux ouvrages consacrés au numérique (dont Le mirage numérique : Pour une politique des big data, publié en 2015), répond à Shoshana Zuboff dans cet article.


Si l’utilisation par Zuboff de l’expression « capitalisme de surveillance » est apparue pour la première fois en 2014, les origines de sa critique remontent plus loin. On peut en trouver la trace dès la fin des années 1970, à l’époque où Zuboff commençait à étudier l’impact des technologies de l’information sur les lieux de travail – un projet de quarante ans qui, en plus de donner lieu à de nombreuses publications, l’a également nourrie d’espoirs utopiques et de déceptions amères. Le décalage entre le possible et le réel a informé le contexte intellectuel dans lequel Zuboff – auparavant prudemment optimiste à la fois sur le capitalisme et la technologie – a construit sa théorie du capitalisme de surveillance, l’outil le plus sombre et le plus dystopique de son arsenal intellectuel à ce jour.

De la naïveté à l’indignation : les promesses déçues du capitalisme numérique

Les conclusions déprimantes de son dernier livre sont très éloignées de ce que la même Zuboff écrivait il y a seulement dix ans. En 2009 encore, elle affirmait que des sociétés comme Amazon, eBay et Apple « libéraient des quantités massives de valeur en donnant aux gens ce qu’ils voulaient, selon leurs propres conditions et dans leur propre espace ». Mme Zuboff est arrivée à ce lumineux diagnostic grâce à son analyse globale de la manière dont les technologies de l’information modifiaient la société. À cet égard, elle faisait partie d’une cohorte de penseurs qui soutenaient qu’une nouvelle ère – que certains qualifiaient de « post-industrielle », d’autres de « postfordiste » – était à nos portes.

« Le calcul prend le pas sur la vie politique de la communauté comme base de la gouvernance », conclut Zuboff. Au lieu de fonder un journal fasciste, un Benito Mussolini contemporain serait probablement en train de courir après le capital-risque, de créer des applications et de se lancer dans la maîtrise de l’art martial du piratage de la croissance…”

C’est de cette analyse – et des attentes initialement positives qu’elle a engendrées – qu’est née la critique contemporaine de Zuboff sur le capitalisme de surveillance. C’est également à partir d’elle que l’on comprend pourquoi son dernier livre s’aventure souvent, tant sur le plan du contenu que du langage, sur le terrain du mélodrame : Zuboff, à l’unisson de l’ensemble de la classe dirigeante américaine, assoiffée par les promesses de la nouvelle économie, s’attendait à ce que quelque chose de très différent se profile à l’horizon.

Son premier livre, In the Age of the Smart Machine, publié en 1988, a été bien accueilli. Zuboff y déployait un appareil conceptuel et une série de questions qui allaient refaire surface dans tous ses écrits ultérieurs. S’appuyant sur un travail ethnographique de plusieurs années dans l’industrie et les bureaux, le livre prévoit un avenir ambigu. Selon Zuboff, la technologie de l’information pourrait exacerber les pires caractéristiques de l’automatisation, priver les travailleurs de leur autonomie et les condamner à des tâches indignes. Mais utilisée à bon escient, elle pourrait avoir l’effet inverse : renforcer la capacité des travailleurs en matière de pensée abstraite et imaginative et inverser le processus de déqualification décrié par de nombreuses critiques marxistes du travail sous le capitalisme.

Avec les technologies de l’information, les entreprises modernes ont dû choisir, selon Zuboff, entre « automatiser » et « informer ». Ce dernier terme renvoie à leur capacité, nouvellement acquise, à rassembler des données – le « texte électronique » – liées au travail sur ordinateur. Sous l’ère antérieure de la direction scientifique de Frederick W. Taylor [à l’origine du taylorisme NDLR], ces données étaient recueillies manuellement, par l’observation et l’étude du temps et des mouvements. En extrayant les connaissances tacites des travailleurs sur le processus de travail, les gestionnaires, aidés par les ingénieurs, pouvaient le rationaliser, ce qui réduisait considérablement les coûts et augmentait le niveau de vie.

Grâce aux progrès des technologies de l’information, la rédaction du « texte électronique » devenait bon marché et omniprésente. Si ce texte était mis à la disposition des travailleurs, il pourrait même saper le fondement du contrôle managérial, fondé sur la croyance selon laquelle le manager est « celui qui sait le mieux ». Le « texte électronique » a engendré ce que Zuboff, à la suite de Michel Foucault, a décrit comme un « pouvoir panoptique ». Issu des pratiques autoritaires de l’ancien lieu de travail fortement centralisé, ce pouvoir était susceptible de renforcer les hiérarchies existantes ; les cadres se cachaient derrière les chiffres et gouvernaient à distance, au lieu de se risquer aux aléas de la communication personnelle. S’il s’accompagnait d’une structure démocratique sur le lieu de travail et d’une égalité dans l’accès au « texte électronique », ce pouvoir pourrait toutefois permettre aux travailleurs de contester les interprétations que les dirigeants font de leurs propres activités et de s’approprier un certain pouvoir institutionnel.

À l’ère de la machine intelligente, un livre sur l’avenir du travail et aussi, inévitablement, sur son passé, était ainsi remarquablement silencieux sur le capitalisme. Si l’on passe outre sa vaste bibliographie, cet ambitieux tome de près de cinq cents pages ne mentionne le mot « capitalisme » qu’une seule fois, par l’entremise d’une citation de Max Weber. Cela ne peut que surprendre, étant donné que Zuboff ne faisait nullement l’apologie des entreprises qu’elle étudiait. Elle ne se faisait aucune illusion sur la nature autoritaire du lieu de travail moderne, qui constituait rarement un espace de réalisation de soi pour les travailleurs, et elle prenait plaisir à s’attaquer aux managers égocentriques et avides de pouvoir.

En dépit de ces occasionnelles remarques critiques, c’est autour du savoir et de son rôle dans la perpétuation ou l’affaiblissement des hiérarchies organisationnelles que Mme Zuboff a structuré son cadre analytique. La propriété privée, la classe sociale, la propriété des moyens de production – les éléments qui structuraient les conflits autrefois liés au travail – ont été pour la plupart exclus de sa grille de lecture. Après tout, l’objectif de l’étude était de comprendre l’avenir du lieu de travail tel qu’il est médiatisé par les technologies de l’information. L’approche ethnographique de Zuboff était davantage adaptée pour interroger les managers et les travailleurs sur ce qui les séparait, que pour esquisser les impératifs économiques qui reliaient chaque entreprise à l’ensemble de l’économie mondiale. Ainsi, la machine intelligente imaginée par Zuboff fonctionnait largement en-dehors des contraintes invisibles que le capitalisme imposait aux dirigeants et aux propriétaires.

Alors que le « capital » voyait sa propriété s’accroître – le livre l’a mentionné une douzaine de fois -, Zuboff ne l’a pas perçu, à l’instar des marxistes, comme une relation sociale ou l’éternel antagoniste du travail. Au lieu de cela, elle a marché dans les pas des économistes néoclassiques en le considérant comme une machine – ou de l’argent – lié à des investissements. Le « travail », à son tour, était surtout traité comme une activité physique. Bien que Zuboff ait également mentionné le rôle historique des syndicats, ses lecteurs ne saisiront pas nécessairement le caractère antagoniste du « travail » et du « capital » – au lieu de cela, ils entendent surtout parler de conflits situationnels au sein des lieux de travail individuels, entre travailleurs et managers.

Cela n’est guère surprenant : Zuboff n’est pas marxiste. En outre, elle aspirait à devenir professeur à la Harvard Business School. Cependant, son plaidoyer en faveur de lieux de travail plus équitables et plus dignes suggère qu’elle pourrait être, au moins sur certaines questions, un compagnon de route pour les causes progressistes. Ce qui la distinguait des voix les plus radicales dans ces débats était son insistance constante sur les effets ambigus des technologies de l’information. Le choix entre « automatiser » et « informer » n’était pas seulement un sous-produit analytique de son cadre de travail ou un simple accessoire rhétorique. Elle l’a plutôt présenté comme un choix réel, existentiel, auquel sont confrontées les entreprises modernes aux prises avec la technologie de l’information.

De tels choix binaires – entre « capitalisme réparti» (distributed capitalism) et « capitalisme managérial » (managerial capitalism), entre « capitalisme d’information » (advocacy-oriented capitalism) et « capitalisme de surveillance » (surveillance capitalism) – animeront également les livres ultérieurs de Zuboff. Mais même à ce stade précoce, il n’est pas clair qu’elle ait été justifiée à faire le saut analytique consistant, sur la base d’observations ethnographiques en vertu desquelles certaines entreprises étaient effectivement confrontées au choix entre « informer » et « automatiser », de conclure plus largement que les conditions extérieures du capitalisme moderne high-tech universalisaient ce choix pour toutes les entreprises, ce qui représente une nouvelle étape dans le développement capitaliste lui-même.

Amazon et Google ont-ils trahi leurs fondements originels ?

Acceptée telle quelle, la possibilité d’un choix entre « automatiser » et « informer » a sapé les critiques traditionnelles du capitalisme en tant que système d’exploitation structurelle (et donc inévitable) ou de déqualification. Dans la nouvelle ère numérique de Zuboff, une alliance agile et harmonieuse entre travailleurs et managers pourrait permettre à des entreprises intelligentes et éclairées de libérer le pouvoir émancipateur de « l’information ».

Nous pourrions ici entrevoir les contours plus larges de l’approche de Zuboff à l’égard du capitalisme : ses maux, dont elle reconnaît bien volontiers l’existence de certains, ne sont pas le sous-produit inévitable de forces systémiques, telles que la quête de profit. Ils sont plutôt la conséquence évitable de certaines dispositions organisationnelles particulières qui, bien qu’ayant été utilisées à des époques antérieures, peuvent maintenant être rendues obsolètes par les technologies de l’information. Cette conclusion pleine d’espoir a été tirée presque entièrement de l’observation des entreprises capitalistes, car le capitalisme lui-même – considéré comme une structure historique, et non comme une simple agrégation d’acteurs économiques – était dans son ensemble absent de l’analyse.

La clef de la dernière théorie de Zuboff sur le capitalisme de surveillance est la notion de « surplus comportemental » (behavioral surplus), un raffinement de l’expression plus vulgaire « d’épuisement des données » utilisé par beaucoup dans l’industrie technologique. Elle renvoie à la distinction entre « information » et « automatisation » exposée dans son premier livre. Rappelons que le « texte électronique », qui renaît dans le dernier livre sous le nom de « texte fantôme », a une valeur immense pour différents acteurs, souvent antagonistes. Lorsque certaines entreprises l’utilise pour donner du pouvoir aux consommateurs – comme le fait, par exemple, Amazon avec des recommandations de livres tirées des achats de millions de clients – le texte électronique suit la voie idyllique de l’information, alimentant ce que Zuboff appelle le « cycle de réinvestissement comportemental ». Lorsque les entreprises technologiques utilisent les données extraites pour cibler les publicités et modifier le comportement, elles créent un « surplus comportemental » – et cette percée clé crée un « capital de surveillance ».

Google constitue un archétype pour la théorie de Zuboff. Au cours de ses premières années d’existence, alors qu’il avait encore besoin d’un modèle commercial, Google avait du potentiel pour devenir l’entreprise favorite de Zuboff, au service du « capitalisme d’information » : sa seule motivation pour recueillir des données était l’amélioration du service. Une fois qu’elle a adopté la publicité personnalisée, les choses ont changé. Aujourd’hui, Google souhaite davantage de données sur les utilisateurs pour vendre des annonces, et pas seulement pour améliorer les services. Les données que cette plateforme recueille au-delà du besoin objectivement déterminé de servir les utilisateurs – un seuil important que L’ère du capitalisme de surveillance introduit mais ne théorise jamais explicitement – constituent le « surplus comportemental » de Zuboff. En tant qu’entreprise capitaliste, Google veut maximiser ce surplus, en l’élargissant en profondeur – en pénétrant toujours plus profondément dans les données de nos âmes et de nos ménages – mais aussi en largeur, en offrant de nouveaux services dans de nouveaux domaines et en diversifiant ses « actifs de surveillance ».

Sur plus de sept cents pages, Zuboff décrit ce « cycle de dépossession » dans toute son ignominie : nous sommes régulièrement volés, nos expériences enlevées et expropriées, nos émotions pillées, par des « mercenaires de la personnalité ». Elle dépeint avec force l’insupportable « engourdissement psychique » induit par les capitalistes de surveillance. Oubliez le cliché selon lequel si c’est gratuit, « vous êtes le produit », exhorte-t-elle. « Vous n’êtes pas le produit, vous êtes la carcasse abandonnée. Le produit provient du surplus qui est arraché à votre vie ». Le pire, cependant, est encore à venir, affirme-t-elle, alors que les géants de la technologie passent de la prédiction du comportement à l’ingénierie. « Il ne suffit plus d’automatiser les flux d’informations nous concernant », prévient-elle ; « le but est maintenant de nous automatiser ».

Cette nouvelle infrastructure mondiale destinée à la manufacture des comportements produit une « puissance instrumentale », car la « puissance panoptique » du premier livre de Zuboff transcende les murs de l’usine et pénètre l’ensemble de la société. Contrairement au pouvoir totalitaire, il évite la violence physique ; inspiré par les idées comportementalistes brutales de B.F. Skinner, il nous conduit plutôt vers les résultats souhaités (pensez aux compagnies d’assurance qui font payer des primes plus élevées aux clients les plus risqués). « Le calcul prend le pas sur la vie politique de la communauté comme base de la gouvernance », conclut Zuboff. Au lieu de fonder un journal fasciste, un Benito Mussolini contemporain serait probablement en train de courir après le capital-risque, de créer des applications et de se lancer dans la maîtrise de l’art martial du piratage de la croissance.

Zuboff choisit de se battre, rejetant la responsabilité de cette « tyrannie » émergente sur les intellectuels de la Silicon Valley, une étrange bande d’idiots utiles et d’entrepreneurs véreux hauts perchés sur des institutions quasi-académiques comme le Media Lab du MIT. Nommer ce système de destruction des âmes pour ce qu’il est, affirme-t-elle, est la condition préalable à une contre-stratégie efficace, car « sa normalisation nous laisse chanter dans nos chaînes ». Ce n’est pas une mince affaire, car le pouvoir idéologique exercé par le Big Tech – avec ses groupes de réflexion, ses lobbyistes, ses conférences technologiques – est immense.

Les débats politiques actuels, cependant, ne parviennent pas à saisir la dimension systémique du problème, selon elle. Qu’importe que notre comportement soit modifié par deux « capitalistes de la surveillance » ou une dizaine. Insister sur « le cryptage avancé, l’amélioration de l’anonymat des données ou la propriété des données » est une erreur, affirme Zuboff, car « de telles stratégies ne font qu’avaliser le caractère inévitable de la surveillance commerciale ».

Zuboff propose néanmoins un certain nombre d’issues politiques, reproduisant la demande de son précédent livre pour un « droit de sanctuaire » (right to sanctuary), insistant également sur un droit au « futur ». Le droit de l’Europe à être oubliée – qui permet aux utilisateurs de demander que des informations périmées ou erronées disparaissent des résultats de recherche – s’inscrit dans cette perspective. Zuboff espère également qu’un nouveau mouvement social fera pression pour des institutions démocratiques plus fortes et veillera à ce que l’expérience humaine ne soit pas réduite à une « marchandise fictive » – comme les précédents « doubles mouvements », décrits par Karl Polanyi dans La grande transformation, qui ont remis en question la marchandisation du travail, de la terre et de l’argent. Les capitalistes éclairés, comme Apple, feraient le reste.

Les présupposés de base de l’argumentation de Zuboff peuvent maintenant être énoncés plus explicitement : le « capitalisme managérial », cimenté par un pacte social entre les capitalistes et la société a eu son utilité, mais au début des années 2000, il était temps d’essayer quelque chose de nouveau. Le « capitalisme réparti » – imaginé comme un « capitalisme d’information » dans son dernier livre – en était l’héritier naturel. Apple aurait pu être le fer de lance d’un nouveau pacte social, mais elle a échoué dans cette mission. Google, à son tour, a bénéficié des inquiétudes liées aux données de l’après-11 septembre, tandis que des décennies de victoires du néolibéralisme lui ont permis d’éviter la réglementation.

“Zuboff semble identifier l’extraction de données et la modification des comportements non pas comme des conséquences de la concurrence capitaliste, mais comme les causes sous-jacentes qui propulsent l’émergence du nouvel ordre économique (…) Elle augure une révolution copernicienne, Mais qui repose sur des fondements assez délicats.”

Alors que le capitalisme de surveillance sur le capitalisme d’information, un double mouvement devrait émerger pour créer les conditions institutionnelles qui permettraient à l’apple-isme de combler les espaces politiques et économiques laissés vacants par le fordisme.

Quête d’efficacité contre quête de maximisation du taux de profit comme moteurs du capitalisme

Avant d’évaluer la validité et l’importance de ces arguments, il est important de se rappeler ce qu’ils doivent au cadre conceptuel d’Alfred Chandler [historien américain, qui s’est attaché à l’étude de l’organisation au sein de l’entreprise, et aux moyens de maximiser son efficacité NDLR]. Le récit de Zuboff est cohérent parce qu’il est capable de poser l’existence de trois régimes différents, chacun avec son propre ensemble d’impératifs et d’économies distincts. Ces régimes décrivent les opérations des grands acteurs économiques : General Motors et Ford dans le cas du « capitalisme managérial » ; Google et Facebook dans le cas du « capitalisme de surveillance » ; Apple et l’Amazon d’avant Alexa dans le cas du « capitalisme d’information ».

En elles-mêmes, cependant, ces descriptions ont peu d’importance, car nous pouvons trouver de nombreuses autres façons de lire la réalité économique et politique. Le cadre de Chandler, fondé sur des explications fonctionnalistes, n’admet pas facilement l’existence de récits alternatifs. Son pouvoir explicatif aigu découle en partie de la posture de fonctionnalisme omniscient qu’il s’est lui-même imposée. Les chandleriens ne se donnent pas souvent la peine de chercher des explications alternatives, ne serait-ce que pour les rejeter comme étant inexactes. Par conséquent, les questions importantes qui déterminent normalement le choix des schémas explicatifs – le cadre analytique choisi explique-t-il mieux la réalité que les autres solutions ? a-t-il un grand pouvoir prédictif ? sont rarement posées.

Ainsi, les lecteurs de The Age of Surveillance Capitalism chercheront, en vain, le point de vue de Zuboff sur le « capitalisme de plateforme », le « capitalisme cognitif » ou le « biocapitalisme » – quelques-unes des méthodes alternatives bien établies pour encadrer le même ensemble de problèmes historiques et politiques. Que ces cadres rivaux n’expliquent pas le « capitalisme de surveillance » tel que Zuboff le définit est évident ; qu’ils ne décrivent pas certains des mêmes phénomènes qu’elle regroupe sous cette étiquette l’est beaucoup moins. Et pourtant, la discussion de Zuboff sur les explications alternatives n’arrive jamais. Sept cents pages n’ont pas dû suffire…

Le même problème se posait dans ses livres précédents. The Support Economy ne fait pas mention des débats de longue date sur le post-fordisme (un terme qui n’apparaît jamais dans le livre lui-même). In the Age of the Smart Machine, de même, ignore les critiques de l’automatisation ainsi que les nombreuses suggestions pour utiliser les technologies de l’information de manière plus humaine et non-automatique – des suggestions qui avaient déjà été faites par la discipline désormais oubliée de la cybernétique de gestion. Zuboff travaille dans un style très différent : elle expose ce qu’elle croit être un phénomène unique, en le décrivant en profondeur, mais sans construire de ponts (ne serait-ce que pour les brûler) vers des conceptions alternatives de ce même phénomène.

Le monde a-t-il besoin d’un nouveau Chandler pour comprendre la transformation du capitalisme à l’ère numérique ? Si oui, Zuboff est un candidat de premier plan. Mais les grands courants de changement historique indiquent clairement que nous avons plutôt moins besoin de Chandler. Le cadre chandlerien, malgré toutes ses intuitions analytiques, est structurellement aveugle aux relations de pouvoir – le résultat de son manque de curiosité inné envers les explications non fonctionnalistes. Ceci, à son tour, limite les possibilités pour les chandleriens de déceler les impératifs souvent tacites mais fatalement imposés par le système capitaliste. Par conséquent, toutes ces théories – « capitalisme managérial », « capitalisme d’information », « capitalisme de surveillance » – ont beaucoup à dire sur chacun des adjectifs qui les qualifient, mais sont muettes sur les questions relatives au capitalisme lui-même, le réduisant généralement à quelque chose de relativement banal, comme le fait qu’il existe des marchés, des marchandises et, occasionnellement, des pactes sociaux entre les capitalistes et le reste de la société.

La réception de l’œuvre de Chandler est éloquente. Pour ses détracteurs, le récit de Chandler sur le « capitalisme managérial » n’était qu’un conte de fées savamment élaboré, qui permettait aux élites américaines de légitimer leur pouvoir par des mythes rivalisant avec ceux qui jaillissent aujourd’hui de la Silicon Valley. Chandler a loué les cadres américains, les champions présumés de l’efficacité, pour avoir servi non pas les intérêts du capital, mais ceux de la société. Zuboff a avalisé d’importants aspects du récit de Chandler, n’ergotant que sur la durabilité du capitalisme managérial face au changement technologique, ses conséquences sur le monde intérieur des consommateurs et sa culture organisationnelle hautement sexiste, narcissique et hiérarchique.

Les critiques de Chandler, en revanche, l’ont accusé du crime méthodologique consistant à inverser la causalité de l’explication historique. Ce qui a motivé l’expansion de l’industrie américaine, c’est la recherche du profit et du pouvoir, et non la recherche de l’efficacité ; cette dernière, là où elle s’est produite, découlait seulement de la première. Centrées sur la rentabilité à long terme, les entreprises ont essayé de gagner des parts de marché par des pratiques anticoncurrentielles, telles que les rabais, les ristournes et les contrats d’exclusivité. Les prix bas ont été obtenus non seulement ou même principalement grâce à l’efficacité, mais aussi en externalisant les coûts de production sur la société (par exemple la pollution), en supprimant les droits des travailleurs et en faisant obstacle aux modes alternatifs non commerciaux d’organisation sociale.

Pour les critiques, la principale question n’est pas de savoir si les mains de la coordination sociale sont visibles (à la Chandler) ou invisibles (à la Adam Smith), mais plutôt si elles sont sales. Et, pour la plupart, elles l’étaient – surtout lorsqu’il s’agissait d’obtenir un approvisionnement continu en matières premières de l’étranger. Dans ce contexte, les odes de Chandler au capitalisme managérial n’étaient que l’envers des théories du sous-développement avancées par les économistes critiques en Amérique latine : le bon fonctionnement du capitalisme managérial américain s’est fait au prix d’un dysfonctionnement et d’un retard de développement de nombreuses économies étrangères. Ces économies sont devenues de simples appendices du système de production américain, incapables de développer leur propre industrie.

Le désaccord le plus important portait sur la question de savoir qui construisait le capitalisme managérial. Pour Chandler, c’était l’attrait du développement technologique exogène et les impératifs de la société de masse. Pour ses critiques – qui préféraient des termes comme « libéralisme d’entreprise » – ce sont les capitalistes qui, trouvant des alliés dans l’appareil d’État, ont piégé les technologies ouvertes dans des programmes d’entreprise étroits. Les managers étaient la conséquence, et non la cause, de ces développements.

Zuboff, tout comme Chandler, n’avait pas à s’engager pleinement dans de telles critiques, elle pouvait se permettre d’être nostalgique des « réciprocités constructives producteurs-consommateurs » du capitalisme managérial dans ses travaux antérieurs. Elle n’était pas étrangère à la thèse du « libéralisme d’entreprise », citant même Martin Sklar, l’un de ses principaux partisans, dans The Support Economy. Et pourtant, elle n’a pas fait usage de ces critiques. Au lieu de cela, elle a continué à voir le capitalisme de gestion comme un compromis gagnant-gagnant entre les consommateurs, les travailleurs et les producteurs ; un compromis cimenté par des institutions démocratiques mais, malheureusement, toujours dépourvu de possibilités d’épanouissement individuel.

Une comptabilité complète des méthodes et des coûts du capitalisme managérial doit cependant regarder au-delà de l’axe consommateur-producteur-travailleur. Qu’est-ce que cela signifie pour les relations interculturelles, la structure familiale, l’environnement et le reste du monde ? Qu’en est-il de l’autodétermination des individus en dehors du marché ? Le régime qui lui succédera, qu’il soit fondé sur la défense des droits ou la surveillance, ne devrait-il pas être évalué sur cette échelle de coûts potentiels beaucoup plus grande ? Ces considérations supplémentaires n’entrent cependant jamais vraiment en ligne de compte, car la teneur fonctionnaliste globale de l’argument dicte déjà les critères mêmes sur lesquels l’attrait du nouveau régime doit être évalué.

Extraction des données, modification des comportements : la cause et la conséquence

Après ce prélude assez long – cet article aspire à rivaliser avec le livre en termes de prolixité ! – il est temps d’examiner dans quelle mesure le récit de Zuboff sur le capitalisme de surveillance tient la route en tant que théorie. L’un des avantages non avoués d’opérer dans le cadre de Chandler est que, si Zuboff réussit la tâche qu’elle s’est tacitement fixée, son livre produira un modèle analytique solide qui éclairera toutes les interprétations ultérieures de l’économie numérique. C’est, après tout, ce qui est arrivé à Chandler : son cadre est devenu le modèle dominant, bien que parfois contesté, pour penser l’ère de la production de masse.

Zuboff, cependant, ne déclare pas explicitement qu’elle propose un modèle analytique d’une ambition intellectuelle aussi vaste ; elle fait à peine mention de Chandler. En fait, elle laisse toujours la porte ouverte à une interprétation différente et se contente d’illustrer la bataille destructrice pour les données numériques dans le monde qui se déroule actuellement entre des entreprises telles que Google et Facebook, avec comme dommage collatéral l’autonomie des consommateurs individuels. Une explication détaillée des mouvements et des considérations tactiques qui façonnent cette bataille l’amène à introduire un phénomène appelé « capitalisme de surveillance », mais les ambitions théoriques de ce concept, selon l’interprétation actuelle, sont très modestes.

“Les récentes révélations sur les pratiques de partage de données par Facebook confirment que les impératifs du « capitalisme de surveillance », s’ils existent, ne sont que secondaires par rapport à ceux du capitalisme lui-même. L’entreprise, préoccupée par sa croissance, a traité les données comme un actif stratégique.”

Les récentes révélations sur les pratiques de partage de données par Facebook confirment que les impératifs du « capitalisme de surveillance », s’ils existent, ne sont que secondaires par rapport à ceux du capitalisme lui-même. L’entreprise, préoccupée par sa croissance, a traité les données comme un actif stratégique.

Par souci de clarté, appelons cette interprétation thèse I. N’offrant rien de plus qu’une description, la thèse I implique très peu sur la durabilité, l’importance globale et l’impact du capitalisme de surveillance sur le capitalisme lui-même. Il y a certainement de nombreux effets sociaux négatifs, mais la thèse I ne les considère pas comme pires que ceux des modèles alternatifs.

Zuboff fournit suffisamment d’avertissements pour suggérer que l’illustration de la thèse I – un ensemble d’observations, et non une hypothèse – résume ses intentions. Alors que le capitalisme de surveillance semble révolutionnaire – pourquoi sinon le qualifier de « nouvel ordre économique », qui affecterait même les bouteilles de vodka et les thermomètres rectaux ? – Zuboff concède que les lois habituelles du capitalisme en matière de mouvement demeurent et sont simplement complétées par les nouveaux impératifs autour des données. Lu comme un exposé méticuleux de la thèse I, le livre est un mystère : pourquoi se donner tant de mal pour révéler les dommages occasionnels de Google et de Facebook – rien d’inédit en 2019 – sinon pour en tirer de plus larges et plus audacieuses conclusions ?

L’argument du livre de Zuboff selon lequel nous pourrions encenser la thèse II est donc peut-être plus pertinent. Tout d’abord, c’est une hypothèse correcte : elle postule que le capitalisme de surveillance non seulement produit des effets qui sont sans équivoque pires que ceux des régimes numériques alternatifs, mais qu’il devient aussi la forme hégémonique du capitalisme. Les anciennes lois du capitalisme s’appliquent, mais seulement formellement, la classe, le capital et les moyens de production ne conservant que peu d’emprise analytique. Pour s’adapter à l’environnement en mutation rapide, les capitalistes d’aujourd’hui doivent suivre les impératifs de la nouvelle logique fondée sur la surveillance ; ils doivent se préoccuper des moyens de modification du comportement, et non des moyens de production.

La thèse II a des implications révolutionnaires. Elle identifie l’extraction de données et la modification des comportements non pas comme des conséquences occasionnelles de la concurrence capitaliste, mais comme les causes sous-jacentes qui propulsent l’émergence du nouvel ordre économique, tandis que ses impératifs, à leur tour, en viennent à prendre le pas sur ceux du capitalisme lui-même. La thèse II augure une révolution copernicienne dans la façon dont nous comprenons l’économie numérique. Mais cette révolution repose sur des bases assez délicates, car Zuboff doit prouver, et pas seulement affirmer, son renversement de causalité sous-jacent. Si elle échoue, on en revient à la thèse I : les données sont appropriées – de manière extensive, rationnelle, infâme – et les efforts pour les monétiser ont parfois des effets sociaux délétères – un argument qui est certainement correct, mais quelconque.

La preuve critique et déterminante de la thèse II n’arrive jamais, ce qui n’est pas une grande surprise pour quiconque connaît la théorie commerciale de Chandler. Au contraire, la simplicité de la thèse I et l’ambition de la thèse II se confondent pour donner la tautologie de la thèse III, tout aussi bien connue des aficionados de Chandler : les capitalistes de surveillance s’engagent dans le capitalisme de surveillance parce que c’est ce que les impératifs du capitalisme de surveillance exigent. Zuboff fait régulièrement appel à cette thèse auxiliaire, qui facilite le postulat qu’elle doit prouver par ailleurs.

La thèse III, cependant, n’est pas une hypothèse à prouver mais un axiome impossible à falsifier : tout cas qui ne correspond pas à la théorie peut toujours être écarté comme se situant en dehors du capitalisme de surveillance tel que la théorie le définit, et donc, non soumis à ses impératifs. Ce qui peut être falsifié, c’est la thèse II, car elle pose des mécanismes de causalité réels.

Avant que vous, cher lecteur, ne soyez mal à l’aise en soupçonnant, non à tort, qu’un exercice ennuyeux et cruel de philosophie analytique est sur le point de se dérouler, soyons clairs sur sa raison d’être : sans une réaffirmation claire de la thèse de Zuboff dans un langage lucide et vérifiable, nous risquons toujours de nous noyer dans les marécages tautologiques de la thèse III. À cette condition, nous pouvons procéder avec notre propre Tractatus Logico-Philosophicus miniature.

La thèse II est un ensemble de plusieurs propositions :

  1. La civilisation de l’information pourrait choisir entre le capitalisme de surveillance et le capitalisme d’information ;
  2. Les deux tirent parti de l’extraction de données : l’un pour obtenir un surplus comportemental, l’autre pour améliorer les services ;
  3. Certaines caractéristiques de la civilisation de l’information ont rendu le capitalisme de surveillance hégémonique ;
  4. À mesure qu’il devient hégémonique, ses impératifs le deviennent aussi ;
  5. Dans ses effets sociaux, le capitalisme de surveillance est davantage néfaste que ses alternatives.

Les preuves fournies pour étayer chacune des affirmations de la thèse II ci-dessus sont souvent incomplètes et n’excluent pas d’autres explications. Dans de tels cas, la thèse III comble les lacunes. Abordons chacune de ces propositions selon ses propres termes.

La proposition ii est cruciale, car elle pose les relations de cause à effet entre l’extraction de données et les impératifs des deux ordres économiques : dans la civilisation de l’information, les données sont collectées soit parce qu’elles constituent un surplus comportemental (ce qui nous donne le capitalisme de surveillance), soit parce qu’elles améliorent les services (ce qui nous donne le capitalisme d’information). Cette proposition pourrait s’appliquer à des cas idéaux comme Google et Apple. Mais qu’en est-il des cas limites ? Dans quelle mesure l’accent mis sur la vie après la mort des données des utilisateurs explique-t-il la dynamique du « capitalisme de l’information » lui-même ?

Extraction secrète des données pour « améliorer les produits » : capitalisme de surveillance ou d’information ?

Prenons l’exemple d’Amazon. Les lecteurs électroniques Kindle collectent constamment des données – livres lus, pages tournées, paragraphes soulignés – qui aident Amazon à décider quels livres publier par ses propres moyens. Cela s’inscrit dans le cadre de la défense du capitalisme : les consommateurs finissent par obtenir des livres plus pertinents. Amazon, cependant, fabrique également des modèles Kindle moins chers qui contiennent de la publicité. Si la publicité est personnalisée, nous devons être dans un capitalisme de surveillance à part entière. Si elle est générique, nous devons être dans le no man’s land du capitalisme numérique, coincés entre la défense des intérêts et la surveillance. Si le capitalisme de surveillance est, en effet, diagnostiqué, alors un double mouvement d’un genre ou d’un autre devrait se produire et garantir que nous payons tous le prix fort pour ces lecteurs électroniques ; sinon, notre autonomie est menacée.

Remarquez que cette prescription normative, ainsi que l’explication de la raison d’être de la publicité personnalisée, sont fournies par les pouvoirs miraculeusement persuasifs de la thèse III. Mais n’avons-nous pas simplement postulé que les données améliorent les services ou modifient les comportements au lieu de montrer que ces résultats se produisent ? Et si ces publicités Kindle, personnalisées ou non, n’existaient que pour permettre à Amazon d’attirer les consommateurs sensibles aux prix ? Après tout, le fait que les tech leviathans collectent des données et diffusent des publicités recouvre différentes motivations. Et si Amazon voulait simplement inonder le marché avec des appareils moins chers, assurant ainsi sa position sur le marché ? Pourquoi est-il plus important « d’accaparer » l’offre de données que le marché lui-même ?

Pensez également à l’expansion d’Amazon dans nos foyers. Amazon pourrait en effet récolter nos conversations sur des appareils compatibles avec Alexa pour éventuellement modifier notre comportement ; il pourrait même modifier notre comportement pour extraire plus de données. Mais il est également possible qu’Amazon souhaite simplement améliorer sa capacité de reconnaissance vocale, qu’elle monétise ensuite par le biais d’Amazon Web Services, la principale source de ses bénéfices. Amazon, comme la plupart des grandes entreprises technologiques, dissimule ses activités d’extraction de données. Mais l’invisibilité de ses opérations prouve, tout au plus, qu’elles sont malhonnêtes. La définition de Zuboff du capitalisme de surveillance dépend de la question à savoir si le surplus de comportement est utilisé pour modifier le comportement, et non si l’extraction de données est visible. Les processus d’extraction de données inhérents à l’alternative positive de Zuboff (lorsque les données entrent dans le cycle de réinvestissement comportemental) sont, après tout, aussi opaques que ces mêmes processus sous le capitalisme de surveillance (lorsque les données produisent un surplus comportemental).

Alors, qu’est-ce qui motive Amazon : la rentabilité et la survie, ou l’extraction de données et la modification des comportements ? Si l’on s’en réfère à la révolution copernicienne que suggère Zuboff, ce dernier point a pris le pas sur l’entreprise numérique capitaliste. « Amazon est à la recherche d’un surplus comportemental », écrit-elle. « Cela explique pourquoi la société a rejoint Apple et Google, dans le concours pour le tableau de bord de votre voiture, en forgeant des alliances avec Ford et BMW. » Voici la même hypothèse, telle qu’elle aurait probablement été formulée avant la révolution copernicienne de Zuboff : « Amazon a rejoint Apple et Google dans le concours pour le tableau de bord de votre voiture, forgeant des alliances avec Ford et BMW. En conséquence, elle est à la recherche d’un surplus comportemental ».

La raison pour laquelle Amazon a rejoint Apple et Google dans cette mission mérite une investigation, et non une simple présomption. Pour le faire correctement, sans doute faudrait-il cesser de nous concentrer sur le rapport de ces entreprises aux consommateurs, pour examiner comment elles interagissent avec les autres entreprises et les gouvernements. Comme ces interactions n’incluent pas les consommateurs, Zuboff en fait peu de cas – bien qu’elles permettent souvent de réaliser des profits bien plus élevés que les agences de publicité des géants de la technologie.

Quoi qu’il en soit, Zuboff n’a pas besoin de chercher à savoir pourquoi Amazon se joindrait à Apple (Apple ?!) et à Google dans cette mission, puisque la thèse III fournit commodément toutes les réponses. Ainsi, la chasse au surplus comportemental devient la cause, et non l’effet, des pratiques des entreprises technologiques. Et bien que Zuboff concède que les impératifs plus généraux de la concurrence sur le marché façonnent leur lutte, ces entreprises ne font leur travail qu’après que l’objectif de la lutte – la récolte de données – ait été fixé, de l’extérieur, par la thèse III. Le capitalisme de surveillance est, sans surprise, davantage rattaché à la « surveillance » qu’au « capitalisme ».

Le critère selon lequel la proposition ii classifie les entreprises – en extrayant des données pour modifier les comportements ou améliorer les services – génère également des résultats étranges. Prenons l’exemple d’Uber, qui est à peine mentionné dans le livre – peut-être pour de bonnes raisons. Uber, qui ne dépend pas des revenus publicitaires, est confronté à des incitations qui diffèrent de celles de Google ou de Facebook. Pratique-t-il un capitalisme d’information ? Ses dirigeants le diraient : les tactiques agressives d’Uber garantissent que les passagers bénéficient de services meilleurs et moins chers. Cela correspond à la définition qu’en donne Zuboff : « Lorsqu’une entreprise recueille des données comportementales avec l’autorisation des consommateurs et uniquement dans le but d’améliorer un produit ou un service, elle s’engage dans un capitalisme mais pas dans le capitalisme de surveillance ».

Uber, cependant, effectue de nombreuses choses odieuses avec les données. Prenez par exemple le scandale Greyball découvert par le New York Times en 2017. Greyball était le système d’espionnage interne d’Uber qui rendait ses véhicules invisibles aux utilisateurs à proximité des bâtiments gouvernementaux tout en signalant leurs données, comme les détails des cartes de crédit, qui laissaient supposer qu’ils travaillaient dans les forces de l’ordre. Ici, l’objectif de l’extraction de données, même si elle est malveillante et invisible, n’était ni la modification du comportement des utilisateurs ni l’amélioration du service. Il s’agissait plutôt de créer une sous-classe permanente de non-utilisateurs afin d’échapper à la réglementation et de maintenir les coûts à un faible niveau.

Il existe une théorie plus simple et plus générale pour expliquer l’extraction de données et la modification du comportement que Zuboff ignore, piégée comme elle l’est dans le cadre de Chandler, avec son besoin brûlant de trouver un successeur au capitalisme managérial. Cette théorie plus simple va comme suit : les entreprises technologiques, comme toutes les entreprises, sont motivées par la nécessité d’assurer une rentabilité de long terme. Elles y parviennent en écrasant leurs concurrents par une croissance plus rapide, en externalisant les coûts de leurs opérations et en tirant parti de leur pouvoir politique. L’extraction de données et la modification des comportements qu’elle permet – ce qui est clairement plus important pour les entreprises dans des secteurs tels que la publicité en ligne – s’inscrivent dans ce contexte, là où elles le font.

“Revenons à Uber. Est-ce que l’entreprise extrait des données, et devrions-nous nous en inquiéter ? Certainement. Mais devrions-nous accepter la révolution copernicienne de Zuboff, et penser l’économie numérique à travers le prisme de l’extraction de données comme point nodal ?”

En d’autres termes, ils ne sont qu’un effet local d’une cause globale. C’est cette cause – la nécessité d’assurer une rentabilité à long terme face à la concurrence – qui détermine leur stratégie en matière de données. Cette explication parcimonieuse traite les cas de Google et d’Uber, sans qu’il soit nécessaire de poser de nouveaux « régimes » hybrides tels que, par exemple, le « capitalisme d’information ». En réalité, le régime à l’œuvre n’est que celui du capitalisme au sens strict – et l’utiliser comme catégorie analytique aide à compenser les nombreuses lacunes des concepts de capitalisme managérial et du capitalisme de surveillance.

Les récentes révélations sur les pratiques controversées de partage de données par Facebook confirment que les impératifs du « capitalisme de surveillance », s’ils existent, ne sont que secondaires par rapport à ceux du capitalisme lui-même. L’entreprise, préoccupée par sa croissance, a traité les données comme un actif stratégique : lorsque les impératifs d’expansion impliquaient qu’elles devaient être partagées avec d’autres entreprises technologiques, elle l’a fait sans hésiter, donnant accès à Microsoft, Amazon, Yahoo et même Apple (bien qu’Apple ait nié leur implication). Sous le capitalisme, la question de savoir qui s’approprie le surplus comportemental est secondaire ; ce qui compte, c’est de savoir qui s’approprie le surplus réel et peut continuer à le faire sur le long terme.

Généralisation du capitalisme de surveillance : conjoncture malheureuse ou effet de structure ?

La proposition iii, selon laquelle la conjoncture actuelle favorise le capitalisme de surveillance plutôt que le capitalisme d’information, semble plausible. Comme je l’ai noté ci-dessus, Zuboff évoque des « affinités électives » entre les impératifs du capitalisme de surveillance et ceux qui ont façonné les opérations militaires de l’après-11 septembre et les initiatives de déréglementation néolibérales. Cela n’explique toutefois que la prospérité du capitalisme de surveillance, et non pas sa prospérité aux dépens du capitalisme d’information. Pour ce faire, il aurait fallu montrer que les affinités électives favorables au capitalisme de surveillance n’étaient pas simultanément favorables au capitalisme d’information.

Est-ce le cas ? Apple, que l’on peinerait à dépeindre en victime du capitalisme, canalise l’argent via Braeburn Capital, un fonds spéculatif géant. Amazon, avec ses 600 000 employés, est l’un des principaux bénéficiaires de la faiblesse du droit du travail. Amazon liste la CIA comme un client majeur. Siri [l’application informatique de commande vocale créée par Apple NDLR] provient du Stanford Research Institute, bénéficiaire de fonds du Pentagone. À y regarder de plus près, ces affinités électives sont légions. Mais c’est ici que la thèse III surgit comme par magie, modifiant la proposition initiale : le capitalisme de surveillance s’est avéré hégémonique… dans les environnements où il s’est avéré hégémonique.

Cette hégémonie est simplement postulée par Zuboff, et non mise en évidence. La dynamique de la concurrence ne pousserait-elle pas Google et Facebook à suivre la voie d’Amazon et de Microsoft, en vendant des services tels que le cloud computing et l’intelligence artificielle ? C’est ce que l’on est en droit de supposer si l’on pose que les capitalistes courent après la rentabilité (et non l’efficacité ou le surplus comportemental), et si l’on garde à l’esprit que de tels projets informatiques promettent des marges bénéficiaires lucratives, alors que la publicité entraîne des coûts de plus en plus élevés. Ces services ne pourraient-ils pas supplanter la publicité et la modification des comportements comme modèle principal de l’économie numérique ? C’est évident, mais ce n’est pas un problème que Zuboff considère.

Certaines lacunes de la proposition iv – qui laisse entendre que les impératifs du capitalisme de surveillance l’emportent sur ceux du capitalisme lui-même – ont déjà été discutées. Rappelons que la thèse II explique la stratégie des capitalistes de surveillance par leur impératif premier d’accaparer les réserves de surplus comportemental. Depuis 2001, Alphabet, la société-mère de Google, a acquis plus de 220 entreprises ; Facebook en a acquis plus de soixante-dix. La chasse aux données a-t-elle été le moteur de ces acquisitions ? Ou certaines d’entre elles – l’acquisition d’Instagram par Facebook par exemple – étaient-elles motivées par la recherche d’un pouvoir de marché ? Il est impossible de répondre à cette question en se contentant de regarder ce qui est arrivé aux données des deux entreprises qui ont fusionné. La troisième thèse, en revanche, le peut.

Revenons à Uber. Est-ce que l’entreprise extrait des données, et devrions-nous nous en inquiéter ? Certainement. Mais devrions-nous accepter la révolution copernicienne de Zuboff, et penser l’économie numérique à travers le prisme de l’extraction de données comme point nodal ?

Dans le cas d’Uber, le récit « pré-copernicien » est d’une puissance explicative bien plus importante. En 2017, Uber a perdu 4,5 milliards de dollars ; sa perte prévue pour 2018 est d’une ampleur similaire. La société se maintient à flot sur un océan de dettes, en attendant une introduction en bourse qui pourrait injecter de nouveaux fonds d’investisseurs extérieurs, en brûlant les liquidités de l’Arabie saoudite et de la SoftBank du Japon – cette dernière ayant elle-même une dette de plus de 150 milliards de dollars. Pourquoi une entreprise si lourdement endettée investirait-elle dans une société déficitaire ? Pourquoi le financement de la dette de la SoftBank a-t-il été si bon marché ? Et pourquoi l’Arabie saoudite verse-t-elle des liquidités dans des entreprises technologiques ? Les réponses à ces questions n’éclaireront pas ce que fait Uber avec les données, mais elles révéleront le premier impératif de l’entreprise : écraser la concurrence. Il ne fait aucun doute que cette directive primordiale implique parfois l’extraction de données. Mais l’inverse n’est pas vrai.

Nous devrions, bien sûr, tendre vers une utilisation équilibrée des explications micro et macro. Mais la tentative de Zuboff en la matière est toujours tributaire de la cohérence logique interne à la thèse III. « La technologie est l’expression d’autres intérêts », écrit-elle. « À l’époque moderne, cela signifie les intérêts du capital, et à notre époque, c’est le capital de surveillance qui commande le milieu numérique et oriente notre trajectoire vers l’avenir ». Cette conclusion selon laquelle le capital de surveillance, et non le simple vieux capital, dicte le développement de la technologie aujourd’hui, est simplement postulée. Les catégories antérieures perdent leur importance analytique par décret. Le récit de Zuboff se fonde sur la présomption qu’elles n’ont pas d’importance. C’est également ce qu’elle faisait dans son premier livre ; à l’époque cependant, Zuboff n’avait pas poussé le courage jusqu’à reconnaître que ses propres choix analytiques avaient invalidé les cadres précédents.

Une telle vision étroite est monnaie courante dans la plupart des théories commerciales de Chandler ; ses praticiens, d’ailleurs, n’en font pas mystère. Chandler lui-même a été très explicite sur son objectif dans les premières pages de son ouvrage The Visible Hand : « Je ne traite des grandes évolutions politiques, démographiques et sociales que dans la mesure où elles ont une incidence directe sur la façon dont l’entreprise a mené à bien les processus de production et de distribution ». Nous pouvons tolérer, au prix d’efforts considérables, un tel prisme dans le récit de l’histoire des entreprises ; cependant, lorsqu’il devient le fondement d’une théorie, comme l’ont été les textes de Chandler pour les théories ultérieures de l’entreprise et comme pourraient le devenir ceux de Zuboff pour les théories de l’entreprise numérique, nous risquons de substituer le solipsisme des entreprises à la perspicacité théorique.

Il nous reste à analyser la proposition v : l’idée selon laquelle les méfaits du capitalisme de surveillance sont supérieurs à ceux des logiques alternatives. Il n’est pas interdit de se demander pourquoi consacrer tant de pages à ce que Zuboff appelle le « pouvoir instrumental » si ce n’est qu’un des nombreux pouvoirs du capitalisme numérique et peut-être même pas le pire ? Hélas, Zuboff couvre ses paris, en concédant que les « pratiques monopolistiques et anticoncurrentielles dans le cas d’Amazon » et « les stratégies de prix, les stratégies fiscales et les politiques d’emploi [dans le cas d’] Apple » sont également problématiques.

En l’absence d’un cadre permettant de comparer les méfaits du capitalisme de surveillance avec ceux de ses alternatives, il n’y a qu’une solution : demander au lecteur de supposer, à la suite de la proposition III, qu’il est hégémonique, de sorte que ses problèmes méritent plus d’attention. Si ce n’est pas le cas, pourquoi s’inquiéter davantage des consommateurs dans les maisons intelligentes gérées par Alexa que des travailleurs dans les entrepôts intelligents néo-tayloriques d’Amazon ?

Dépourvue d’une analyse solide sur le fonctionnement du pouvoir anonyme sous le capitalisme, Zuboff finit par opposer le « pouvoir instrumental » du capitalisme de surveillance au « pouvoir totalitaire » des dictatures. Là où « le totalitarisme opère par la violence », « le pouvoir instrumental opère par la modification des comportements » et « n’a aucun intérêt pour nos âmes ni aucun principe à instruire ».

Peut-être, mais qu’en est-il de la « morne contrainte des relations économiques » évoquée par Marx ? Ne représentait-elle aucun pouvoir ? Voici ce que Friedrich Hayek – l’anti-Marx par excellence – écrivait dans les années 1970 : « La concurrence produit… une sorte de contrainte impersonnelle qui oblige de nombreux individus à adapter leur mode de vie d’une manière qu’aucun ordre ou instruction délibérée ne peut provoquer ». Hayek ne fait-il pas référence ici à la modification des comportements, entreprise par les forces impersonnelles du capitalisme sans injonctions totalitaires ?

Traduit par Eugène Favier-Baron et Vincent Ortiz.

GAIA-X : la France et l’Allemagne en quête de souveraineté face aux GAFAM

blank
©Descrier

Face à la crise de confiance des peuples et des entreprises quant aux capacités en matière de traitement souverain des données numériques dans les territoires nationaux européens, la France et l’Allemagne s’engagent dans un plan de construction d’une infrastructure Cloud de grande ampleur. Présentée comme une réussite inéluctable, de nombreux points semblent pourtant poser question quant au sérieux des parties prenantes dans l’élaboration de cette initiative de bon sens. Décryptage par Florent Jourde. 


« Nous ne sommes pas la Chine ni les États-Unis, nous sommes l’Europe avec nos propres valeurs et intérêts économiques que nous voulons défendre ». Ce sont les paroles de Bruno Le Maire lors du lancement en juin dernier du projet de « Méta-Cloud » européen GAIA-X. L’objectif semble établi : Gaia-X se veut représenter une nouvelle marche vers l’indépendance et la souveraineté d’une Europe décidée à s’imposer entre les deux mastodontes que sont les États-Unis et la Chine. Une quête d’affirmation diplomatique qui semble se construire autour d’une identité alliant puissance économique alternative et interventionnisme éclairé à travers son projet d’armée européenne. GAIA-X s’inscrit vraisemblablement dans cette double optique et vise au travers du cloud européen à la fois la garantie de valeurs comme celles de respect pour la vie privée, de souveraineté des données ou encore d’interopérabilité entre services. La consigne fournie par le ministère de l’Économie se veut en totale opposition avec la posture obscurantiste défendue outre-Atlantique et son « cloud act », loi fédérale adoptée en 2018, modifiant au passage le « Stored Communications Act » (SCA) de 1986, autorisant les instances de justices américaines à solliciter les opérateurs afin d’accéder aux données contenues dans les serveurs situés sur son sol et au-delà, sans obligatoirement en avertir le propriétaire. Cette impulsion européenne se conçoit comme un contrepoids à l’emprise de Washington et Pékin sur le marché de l’infrastructure cloud.

Au-delà du discours, les moyens engagés sèment le doute quant à la portée réelle du projet

Le lancement fait en réalité suite à un « manifesto » co-rédigé par le ministère de l’Économie et de l’Énergie allemand et le ministère des Finances français en février 2019, texte lui-même issu d’une initiative allemande sur « la stratégie industrielle nationale pour 2030 ». À ce stade, plusieurs axes furent énoncés comme « investir massivement dans l’innovation », « adapter notre cadre réglementaire » et mettre en place « des mesures efficaces pour nous protéger ». Comme souvent dans l’histoire du fonctionnement institutionnel européen, l’Allemagne invite une nouvelle fois son partenaire français à le suivre pour initier ce projet. Anne-Sophie Taillandier (directrice de la plateforme TeraLabs de l’Institut Mines-Telecom, l’un des cofondateurs de Gaia-X) ne cache d’ailleurs pas que les allemands en sont bien les initiateurs. Elle ajoute que, depuis, les deux pays ont « bien travaillé ensemble » pour le faire avancer. Est-ce à dire que GAIA-X émerge exclusivement de priorités industrielles allemandes ? L’interrogation reste en suspend.

Au-delà de cette direction bicéphale initiale, la volonté n’est clairement pas à l’entre soi et à terme l’ambition serait d’élargir cette direction. Bruno Le Maire, toujours dans son discours d’introduction, rappelait que les Pays-Bas, l’Italie et l’Espagne auraient déjà fait part de leur intérêt à rejoindre l’aventure. Il est donc aisé de saisir toute l’importance du sujet qui s’étend pour ainsi dire au-delà des frontières numériques avec une ambition non-dissimulée de venir renforcer la co-dépendance et la coopération entre États membres. Le projet est pour le moment porté par 11 entreprises allemandes (Beckhoff, BMW, Bosch, Deutsche Telekom, DEC-X, Fraunhofer Institute, Friedhelm Loh Group, IDSA association, PlusServer, SAP et Siemens) et 11 françaises (Amadeus, Atos, CISPE association, Docaposte, EDF, Institut Mines-Télécom, Orange, Outscale, OVHcloud, Safran et Scaleway ). Les 22 membres ont d’ores et déjà mis 75 000 euros chacun sur la table, soit une enveloppe d’environ 1,5 million d’euros au total. Une somme qui peut paraître modeste au vu des ambitions affichées (en comparaison, les investissements américains s’élèvent à plusieurs milliards de dollars). Du côté de sa structuration, GAIA-X est juridiquement une association à but non-lucratif dont le siège social s’établit à Bruxelles, au plus près des institutions européennes. Jusqu’ici, Gaia-X semble respecter les échéances prévues, un démonstrateur ainsi qu’un document officiel ont été publiés il y a peu, rappelant au passage les grandes lignes directrices du projet :

«1. Souveraineté des données.

2. Utilisation de technologies ouvertes, compréhensibles et sûres, entre autres utilisation des principes de l’ « Open Source », en écosystème ouvert.

3. Traitement décentralisé et distribué des données (Multi-Cloud, Multi-Edge ou Edge-to-Cloud) afin de réaliser des économies d’échelle.

4. Interconnexion et interopérabilité sémantique – sur la base de standards – au niveau du réseau, des données et des services – en particulier, interconnexion des environnements « Cloud » et périphériques.

5. Indépendance et automatisation de la certification des participants à l’écosystème GAIA-X ainsi que de la réalisation de contrats de participation et de leur respect en termes de sécurité informatique, souveraineté des données, accords de services et contrats cadres.

6. Mise à disposition de tous services centraux nécessaires pour garantir sécurité et convivialité du fonctionnement (par ex. authentification).

7. Autodescription des nœuds du système GAIA-X visant à favoriser la transparence mais aussi le développement de nouveaux modèles d’affaires et d’application entre différents participants (par ex. distribution de données ou services)»

Une démarche crédible ?

Avec des moyens limités et un calendrier ambitieux (livraison pour début 2021), GAIA-X peut-il espérer s’imposer comme un concurrent crédible face à Microsoft, Amazon ou encore Alibaba ? Il est permis d’en douter. GAIA-X ne sera pas une « super entreprise » européenne « mais plutôt une entité capable de favoriser, par ses directives et ses standards, l’essor d’acteurs déjà existants, tout en harmonisant les pratiques de ceux déjà en place ». La structure a donc pour vocation d’informer et d’accompagner les utilisateurs (les entreprises en premier lieu) dans leur choix d’une solution cloud adaptée à leurs besoins et selon leurs domaines d’activité tout en garantissant des conditions vertueuses d’hébergement des données.

blank
exemple « pattern » ci-dessus ; Source OVH.com

Cette finalité émerge également du constat que nombre d’entreprises s’orientent presque machinalement vers les géants américains (Microsoft, Google et Amazon représentent plus de la moitié du marché du cloud mondial) sans véritable prise de considération des structures et des solutions « locales ». Il faut dire que les leaders du marché ont de sérieux atouts dans leurs bottes en termes d’API (Application Programming Interface) et de services au sens large. La future plateforme s’imagine donc en « place de marché » capable d’apporter visibilité et reconnaissance aux acteurs européens, en leur offrant un configurateur géant dont les GAFAM seront parties prenantes. Ceci constitue d’ailleurs le premier défi de la structure, à savoir, de permettre une interopérabilité complète entre l’ensemble des partenaires afin de proposer l’offre la plus cohérente, la plus personnalisable et la plus stable possible.

Cette visée d’interopérabilité soulève plusieurs enjeux notamment vis-à-vis du passage quasi-obligatoire à l’utilisation de solutions relativement standardisées voire éprouvées par la communauté d’utilisateurs. Il s’agit de trouver un langage commun pour espérer établir une communication. Cela va donc se traduire par des choix d’outils, de protocoles ou de standards connus et reconnus. Notons ici que ce problème risque de s’accroître au fur et à mesure de l’arrivée de nouvelles parties prenantes au projet… Une première version du démonstrateur, publiée par CLOUD&HEAT Technologies, est déjà en service, dans laquelle l’utilisateur est à même de choisir ses options de sécurité à l’aide d’un configurateur. Le choix se porte alors automatiquement sur les acteurs déjà en place et leaders du marché. Les noms de Redhat (société américaine) ou encore Kubernetes (plateforme open source dont le propriétaire n’est autre que Google) sont d’ores et déjà retenus.

blank
Sur la diapositive ci-dessus réalisée par OVH (une des entreprises françaises au cœur du projet GAIA-X) on peut apercevoir les logos de certaines solutions associées. Ces dernières sont dans leur grande majorité situées outre-Atlantique.

Tout ceci pose une nouvelle fois la question de la dépendance face aux entreprises américaines et étiole les revendications souverainistes des discours. S’il convient de ne pas associer systématiquement entreprises et pouvoir fédéral américain, l’histoire récente montre que cette frontière est fragile, comme en témoigne la récente décision de Google de stopper l’utilisation de la licence de leur système d’exploitation mobile Android par le géant Huawei suite à des soupçons d’espionnage. Cas relativement extrême, et peut-être rare, mais qui a le mérite d’exister. Une autre source de crispation quant à la crainte d’une ingérence américaine fut illustrée par l’application Stopcovid (application de traçage française dans le cadre de l’épidémie COVID19) lorsqu’un système de captcha Google s’est glissé dans l’hébergement du dispositif. Un détail en apparence, qui en dit long sur les réalités du degré de dépendance auquel la France est sujette vis-à-vis de l’outre-Atlantique.

Sans pour autant rejeter en bloc l’initiative que représente GAIA-X et ses ambitions émancipatrices, force est de constater que celles-ci ne s’appliquent qu’à une certaine échelle. Oui, l’hébergement se fait sur le sol européen. Oui la confidentialité des données sera vraisemblablement garantie. Mais avec quels outils et sur quelle base concrète ? En majorité via l’intervention de solutions extra-européennes dans un premier temps. Le fait de privilégier une philosophie open source est une bonne chose mais demeure suspendu au bon vouloir des leaders du marché que sont Linux, Google et autres. Difficile, toutefois, de blâmer l’initiative tant l’émancipation totale semble utopique à l’heure actuelle. Reste–t-il une marge de manœuvre possible pour le projet ? La réponse n’apparaît pas évidente tant les moyens actuels ne semblent pas à la hauteur du défi. Yohan Prigent, VP Front chez Scalway, rappelait d’ailleurs dans un webinar que « GAIA-X ne veut pas réinventer la roue », « On ne va pas se dire “il y a un protocole qui existe pour l’object storage et qui s’appelle S3, allez en Europe on est plus fort on va faire S4 ». Une réflexion qui peut paraître sommaire d’un point de vue stratégique mais qui fait sens d’un point de vue industriel, tant on connait le coût d’investissement et le temps de développement de tels outils (incompatible avec le budget de départ). Mais la partie n’est pas jouée pour autant et l’on peut toutefois compter sur des développements innovants. La thématique du « multi-cloud » revient inlassablement et certains industriels du projet GAIA-X semblent se positionner en faveur de cette initiative. Une idée qui pourrait se matérialiser à travers le transfert de données depuis domaine (Amazon Cloud par exemple), pour les faire ensuite transiter par différents services, pour enfin les exporter sur une plateforme tierce. Le projet, malgré son niveau de dépendance, possède ainsi quelques atouts qui pourraient le démarquer sur le marché. Tout reste cependant à construire. Bruno Le Maire parlait en ce sens de pouvoir transférer ses données d’un opérateur à un autre. GAIA-X ambitionne bien plus et parle d’exporter ses ACL (Access Control List ; Gestion des droits d’accès), ses licences ou encore ses applications d’un partenaire à un autre si l’offre souscrite ne convient plus ou s’avère, par exemple, trop coûteuse. On entrevoit alors le potentiel technique et commercial pour un industriel lambda. GAIA-X sera donc, du moins dans sa forme de départ, davantage vu et « marketé » comme un tiers de confiance, un gage de qualité, une forme de certification européenne en somme.

GAIA-X se tourne vers l’ouest…

L’interopérabilité, nous venons de le voir, constitue une des clefs du succès. Cependant, une autre ambition semble se profiler à l’horizon. En effet, toujours au travers de la vidéo de démonstration précédemment mentionnée, celle-ci montre à plusieurs moments l’option de choisir une localité cloud située outre-Atlantique (East, West US, Canada). Ces données ne vont pas dans le sens de l’image de la figure d’opposition à l’impérialisme nord-américain qui fut promise. L’heure est effectivement davantage à l’inclusion des parties nord-américaines, si bien que l’on pourrait presque se demander si GAIA-X, en laissant une telle porte ouverte, ne recherche pas une forme d’adoubement de la part des américains. Une politique du gringue qui ne semble pas pour le moment bénéficier aux rivaux chinois. L’Europe semble donc choisir son camp, sans bousculer les liens géostratégiques historiques. Si l’Europe n’est pas les États-Unis, comme le rappelle Bruno Le Maire, il semble difficile pour elle de se détourner des vieux réflexes atlantistes. La position française reflète donc celle de son président, alternant entre gaullo-miterrandisme et néo-conservatisme. Dès lors, est-il pertinent pour l’Europe de continuer à se lier officieusement aux américains avec lesquels les intérêts stratégiques sont de plus en plus divergents ? Rien n’est moins sûr.

Les entreprises cloud américaines vont-elles se plier mécaniquement à ces nouvelles normes afin d’être référencées dans le catalogue ? La question mérite d’être posée, surtout lorsque l’on connait l’emprise américaine sur ce marché. Pourrait-on espérer des politiques incitatrices de la part de Bruxelles ? L’Europe se risquerait-elle à fermer la porte aux américains, sinon sur certaines cibles, s’ils ne se conforment pas aux exigences européennes ? Quelle réaction attendre alors de la part de Washington ? Autant de questions complexes que le projet GAIA-X ne pourra éviter. La ligne directrice semble être pour le moment de privilégier la coopération. L’Europe fait donc face à un paradoxe, tiraillée entre une politique d’ouverture et une volonté souverainiste et indépendantiste. Un discours ambigu qui se traduit également dans les faits. Le Health Data Hub, la solution d’hébergement des données de santé à la française, a été récemment confié à Microsoft. La CNIL a vivement réagi depuis appelant au choix d’un prestataire européen, mais le gouvernement Macron, par l’intermédiaire de son secrétaire d’État aux numériques, Cédric O, se défend en pointant « le retard européen dans le cloud » et précisant qu’il n’y a « pas la possibilité de faire tourner des algorithmes d’intelligence artificielle aussi développés sur une infrastructure française que sur une infrastructure américaine ». Les préjugés sont décidément tenaces et cette réaction n’est pas sans déplaire au leader français OVH. Son directeur Octave Klaba ajoutait sur le sujet « Pas de cahier des charges. Pas d’appel d’offres. Le POC (Proof Of Concept) avec Microsoft qui se transforme en solution imposée ». Une énième démonstration du poids et de l’influence de ces pachydermes du numérique sur nos institutions. Un véritable danger, surtout quand on connait les politiques « d’enfermement propriétaire » dont usent et abusent des compagnies comme Microsoft. En tout état de cause GAIA-X répond à un besoin urgent mais est-il pour autant l’outil le plus adapté ? De plus, l’argument portant sur la communication défendu par le projet ne s’avère pas secondaire surtout quand nos propres politiques se révèlent incapables d’évaluer les capacités des entreprises françaises.

La piste du cloud « Hyperscaler » européen aux infrastructures souveraines

Le besoin réel sur lequel GAIA-X trouve sa légitimité aurait pu orienter ses décideurs vers la création d’un cloud aux infrastructures souveraines. L’idée en réalité n’est pas neuve et émerge en France durant l’ère du gouvernement Fillon en 2009. Lancé en grande pompe en 2011, le projet Andromède avait déjà pour ambition de rassembler les acteurs majeurs de l’industrie hexagonale à savoir Orange (au travers de l’entité Orange Business Services), Thales et Dassault Systèmes. Suite à un désaccord entre Orange et Dassault, deux nouveaux projets sont nés, d’un côté Cloudwatt porté par Orange Business, de l’autre Numergy piloté par SFR. L’expérience fut, au final, un échec puisque Numergy périclita dès 2016. Quant à son confrère Cloudwatt, malgré des signes encourageants, il s’acheva en janvier 2020. Un retour d’expérience qui explique sans doute en partie le changement de stratégie pour s’appuyer, une nouvelle fois, sur des acteurs connus et reconnus. Malgré ces échecs, Bruno Le Maire, malgré ces précédents projets morts et enterrés ne semblait pas écarter pour autant le  retour d’un énième  cloud souverain appelé cloud « stratégique ». De toute évidence, le défi est de taille, surtout lorsque ces acteurs évoluent en concurrence directe ou indirecte sur le marché privé.

Le projet franco-allemand part d’un idéal sans appel : celui de trouver un espace d’indépendance stratégique sur l’industrie numérique vis-à-vis des puissances extérieures. L’idée semble prometteuse au vu de certains développements qu’elle propose autour du souverainisme mais sa mise en application reste trop souvent incantatoire à ce stade. La vocation, comme nous l’avons vu, n’est pas de repartir de zéro en proposant des outils made in Europe mais bien de continuer d’utiliser les outils connus et reconnus quitte à piocher hors des frontières de la zone euro. Or les leaders de ce marché ne sont pas situés en Europe. S’il s’agit d’une position qui fait sens d’un point de vue court-termiste, c’est aussi un choix qui laisse la place à une certaine dépendance extérieure, majoritairement américaine. Certaines entreprises y trouveront sûrement un outil adéquat, capable de s’adapter à leurs besoins, à condition que le projet s’avère viable sur le long terme au vu des défis qui sont les siens.

 

L’État-plateforme ou la mort de l’État social : Castex et le monde d’après

blank
©PHOTOPQR/LE PARISIEN/Fred Dugit. Paris, 19/05/2020

Alors que le gouvernement convoque les partenaires sociaux le 20 juillet pour relancer sa réforme des retraites, le sermon déjà trop bien connu sur le « trou de la Sécu » et le poids des « charges » fait son retour fracassant sur les plateaux depuis le début du déconfinement. Comprenez : la Sécurité sociale ne pourra se remettre des dépenses engendrées par la crise sanitaire, d’autant plus que la baisse d’activités provoquée par le confinement aura entraîné une baisse logique des cotisations. Le passage programmé d’un État social issu du CNR à un État-plateforme, dernière lubie idéologique libérale, poursuit encore davantage la violence infligée à un système social déjà à bout de souffle. Analyse par Léo Rosell et Simon Woillet. 


Guerre contre le Covid et chant du déshonneur

Les réformes néolibérales menées jusqu’à la crise sanitaire à marche forcée pourraient ainsi réapparaître par la fenêtre, au prétexte honteux des morts du Covid, et des pertes de cotisations liées à l’arrêt de l’activité économique pendant le confinement. Ce refrain a en tout cas été rapidement entonné par Gérald Darmanin, alors encore ministre de l’Action et des Comptes publics, qui se prétend pourtant « gaulliste social ». Le nouveau Premier ministre, Jean Castex, lui-même ayant éhontément repris ce qualificatif pour se décrire tout récemment. De même, pas moins de 136 milliards d’euros de dépenses liées au Covid-19 ont été délibérément transférés sur le budget de la Sécurité sociale, accentuant artificiellement un déficit qui relève en fait davantage d’une construction idéologique réactionnaire que d’une réalité, eu égard à l’équilibre permis par les branches bénéficiaires de la Sécurité sociale.

Il n’y a donc rien d’étonnant à ce que la définition de l’horizon du monde d’après ait été confiée à Jean Castex, fidèle sarkozyste à l’origine, qui introduisit, dans le cadre du plan hôpital de 2007, la tarification à l’activité dans le système hospitalier. La fameuse « T2A », dénoncée par l’ensemble des personnels soignants pour avoir introduit la notion d’objectifs et de rentabilité dans l’hôpital public, a ainsi constitué un véritable poison pour le système hospitalier, conduisant à la rationalisation des coûts et à la mise en concurrence des établissements de santé, au profit des cliniques privées. La catastrophe sanitaire du coronavirus a révélé la brutalité des effets de ce système pensé par Jean Castex et mis en place par Roselyne Bachelot, ministre de la santé sous Sarkozy et actuelle ministre de la Culture.

Le nouveau Premier ministre Jean Castex a ainsi affiché très tôt sa détermination à traiter en particulier la réforme des retraites. Il a notamment présenté un nouvel agenda, avec une réunion des partenaires sociaux dès le 20 juillet, alors que des premières rencontres bilatérales ont été organisées depuis le 8 juillet. La réforme des retraites est ainsi plus que jamais « absolument indispensable », selon Bruno Le Maire au micro de RTL, le ministre de l’Économie. Alors que l’épidémie de Covid réapparaît dans plusieurs régions françaises de façon inquiétante, le gouvernement semble absolument déterminé à agir vite sur ce dossier qui n’a, selon lui, duré que trop longtemps, profitant des vacances d’été pour devancer la rentrée sociale annoncée pour septembre.

Mais alors, comment comprendre cette énième fuite en avant du gouvernement ? Entre l’échec cuisant de la gestion de la crise sanitaire et la piteuse reculade sur son injuste réforme des retraites par points, modifier en profondeur un logiciel libéral désuet face à l’urgence des injonctions à une politique de « l’après-Covid » et l’angoisse de 2022 semblait bien trop compliqué.

Pourtant, la Sécurité sociale, le statut de la fonction publique, les allocations-chômage et les retraites, autant de « conquis sociaux » au cœur de notre modèle social, ont manifesté, durant la crise du Covid-19, leur rôle de filets de protection. Sans eux, beaucoup de Françaises et de Français n’auraient pu se soigner correctement, et seraient tombés dans la pauvreté faute de revenu de substitution dans un contexte de cessation d’activité massive, ajoutant à la crise sanitaire une crise économique et sociale encore plus grandes que celles auxquelles nous sommes déjà hélas confrontés.

L’économiste Philippe Ledent rappelle à dessein qu’il est hors de question que les citoyens reçoivent directement la facture des dépenses engagées par cette crise. Selon lui, « la Sécurité sociale sert précisément à ce qui est en train de se passer. Si elle n’est pas utile et utilisée maintenant, alors elle ne sert à rien. […] Quand un événement comme celui-ci survient, on ne tergiverse pas, on laisse se creuser le déficit de cette Sécurité sociale car c’est son rôle. » Un rôle que le gouvernement français semble avoir malheureusement perdu de vu depuis longtemps.

Passer de l’État social à l’État-plateforme en pleine crise : le Castex du gouvernement

Comment poursuivre la marche forcée des réformes imposées par l’exécutif dans un tel contexte d’impopularité et de remise en cause de sa gestion de la crise ? La solution a ainsi été toute trouvée dans le rebranding de solutions éculées, cette fois-ci sous l’aspect de la dernière innovation de l’économie politique américaine, celle de l’État-plateforme, inaugurée par les réflexions de Tim O’Reilly dans Government as platform, lui-même inspiré par le penseur libertarien Eric Raymond, auteur de La cathédrale et le bazar.

En effet, camouflée derrière les annonces généreuses quant à la revalorisation des salaires des personnels de soin hospitalier, le projet initial de la majorité, soutenu par les élites socio-économiques européennes, risque de se poursuivre à vive allure : inaugurer l’entrée fracassante des systèmes sociaux européens dans l’ère de la data economy californienne, en utilisant la numérisation de la santé publique comme « pied-de-biche » pour casser les « tabous » français sur la réforme du système social issu du Conseil national de la Résistance et ainsi privatiser « par la petite porte » – celle de la data economy – les services publics.

De l’étude de 2013 de Mc Kinsey France sur la digitalisation de l’économie réelle et des services publics au rapport Villani, du Health Data hub français, en passant par le Livre Blanc pour la stratégie digitale de l’Union Européenne défendu par Ursula Von der Leyen, le libéralisme européen s’engage dans la voie d’un rattrapage laborieux de la généralisation chinoise et californienne de l’intelligence artificielle à l’ensemble des secteurs clefs de régulation économique, sanitaire et juridique de nos sociétés. On voit bien que les enjeux de souveraineté, essentiels au demeurant, sont convoqués la plupart du temps par nos dirigeants pour camoufler la brutalité de la transformation sociale qu’ils cherchent à imposer comme une évidence. En témoignent la polémique autour du choix de Microsoft Azure Cloud sans appel d’offre dans le cas du Health Data Hub, ou encore, l’impréparation du lancement de l’application Stop Covid, qui selon la Quadrature du Net contenait un système d’identification captcha de Google.

De la surveillance épidémiologique à la facilitation administrative, les prétextes sont bons pour lancer la machine de la collecte des métadonnées d’utilisateurs. L’objectif réel d’un tel système étant d’alimenter en permanence – par le biais de la carte vitale et des dossiers de sécurité sociale ou des fichiers administratifs par exemple – les guichets centralisés de collecte par les institutions publiques, lesquels serviront de canaux de redistribution de ces informations de l’État aux entreprises, comme l’indique le rapport de préfiguration du Health Data Hub faisant mention du rôle de l’État dans ce qu’il nomme la « nécessaire industrialisation» des flux de données de cette nouvelle data economy.

Une litanie revient dans toutes les bouches réformistes depuis la fin des années 1960 – permettant au passage d’écorner un peu plus l’héritage jacobin : « l’État est malade des lourdeurs de son administration ». Pour la chercheuse Marie Alauzen : « Cette problématisation de l’administration comme « intérieur malade de l’État » se traduit par le déploiement d’un vaste chantier : la Rationalisation des choix budgétaires et comptables (RBC), entreprise à partir de janvier 1968 et par la progressive mise en place du Plan calcul »[1]. Les dernières études de l’Institut Montaigne sur l’insertion professionnelle en Seine-Saint-Denis, ou celles de l’IFRAP d’Agnès Verdier-Molinier sur l’hôpital public, sont là pour nous rappeler le problème au cas où le confinement aurait trop échaudé certains esprits avides d’une meilleure reconnaissance économique pour les soignants et les professions déconsidérées (livreurs, caissiers, agriculteurs, enseignants, techniciens de surface, etc.) qui ont porté sur leurs épaules la stabilité du pays.

Face à une telle « urgence », la solution s’impose d’elle-même : pour éviter les critiques traditionnelles quant à l’inhumanité des réductions d’effectifs publics, on passe par le prétexte de la numérisation, et de la nouvelle configuration du législateur en position de faiblesse face aux plateformes privées américaines et chinoises (GAFAM, BATX). L’idéologie de la « soft law », autre mot pour désigner le laxisme libéral français et européen à l’égard des firmes du numérique – le RGPD connaît en effet une grave période de flottement, la CJUE n’ayant toujours pas rendu son avis sur le transfert des données des GAFAM de leurs serveurs européens aux États-Unis –, participe alors de la redéfinition du rôle de régulation et de coercition de l’État et du Parlement. Non plus sévir, sanctionner, border juridiquement, mais « inciter » les grands acteurs monopolistiques à la compliance pour ne pas « priver » les consommateurs, PME et grands groupes industriels de la stimulation économique provenant des prouesses surestimées de l’Intelligence Artificielle.

Mais le paradoxe d’un tel discours est qu’il s’appuie précisément sur le pouvoir centralisateur de l’administration étatique pour collecter et redistribuer ce nouveau pétrole de l’ère numérique que sont les métadonnées (comportements utilisateur, géolocalisation, …). Or, l’ironie de l’histoire dans le cas présent tient au caractère suicidaire d’une telle idéologie, que l’on peut à bien des égards qualifier – selon le concept d’Evgeny Morozov – de solutionnisme technologique. En effet, si une telle conception de l’État peut sembler aller de soi et relever de la réaction de bon sens face à la « concurrence internationale » chinoise et américaine (on pense ici à la souveraineté des données des Français et Européens face aux GAFAM, au Cloud ou à la 5G), elle cache en réalité la logique de rentabilité et de réduction des effectifs publics qui la justifie via l’automatisation des tâches administratives, comme le diagnostic, ou le secrétariat, ce sur quoi insiste Marie Alauzen.

Ainsi, loin d’être disjointes dans leur logique, la « modernisation numérique », et la « modernisation sociale » semblent fonctionner de concert dans la pensée libérale contemporaine pour proposer une forme douce, progressive d’État social minimal. Dans son article intitulé « La construction de l’Etat social minimal en Europe » (Politique européenne, vol. 27, no. 1, 2009, pp. 201-232), Noëlle Burgi montre que ce changement de paradigme passe par des réformes et des restructurations sociales permanentes. Aussi différentes soient-elles d’un pays à l’autre dans l’Union européenne, ces dernières ne sont pas désorganisées. Elles tendent à se mouler sur un modèle dit des « trois piliers ».

Ce modèle organise, selon Burgi, une protection sociale à trois étages. À la base, un socle assistanciel constitué de prestations minimales fiscalisées est confié pour l’essentiel à la bonne gestion opérationnelle des collectivités territoriales, dans une perspective décentralisée. Un deuxième ensemble intermédiaire d’essence socioprofessionnelle  combine des assurances obligatoires et des dispositifs facultatifs, comme les institutions de prévoyance collective. Enfin, un troisième étage est établi sur les marchés de l’épargne et de l’assurance.

Promu d’abord en Suisse dans les années 1970, puis repris par la Banque mondiale (1994; apRoberts, 1997) et la Commission européenne, le découpage en piliers décrit très imparfaitement la réalité observée dans la plupart des pays. Notamment à l’égard du modèle français issu du CNR, et que la réforme par points prétendait abattre pour l’ouvrir à la capitalisation. Selon Burgi, « aux yeux de ses défenseurs, ce modèle des trois piliers présente l’avantage de construire l’espace de la capitalisation ou du marché là où ils étaient absents (apRoberts, 1999, 2007 ; Coron, 2007) et de placer la protection sociale « sous le double signe de l’assistance et du marché » (apRoberts, 1997) ». Ce qui permet de construire une vision positive du marché comme vecteur et co-garant avec l’État, de la protection sociale. Ainsi, la doctrine de l’État-plateforme, à travers les réductions budgétaires qu’elle prétendra imposer à l’hôpital public si l’on se laisse benoîtement enivrer des promesses thaumaturgiques de la télémédecine et de l’e-santé, aura un impact négatif sur la structure d’ensemble du financement de notre Sécurité sociale, à nouveau attaquée par le discours prétendument modernisateur du gouvernement actuel.

Contre la capitalisation de la protection sociale, il faut réaffirmer la puissance de la cotisation sociale

Face à ce « monde-d’après » pire que celui d’avant que nous concocte le gouvernement, il incombe au contraire de réaffirmer les fondements du modèle social français créé lui aussi à l’issue d’une crise de grande ampleur.

Et parmi les grandes institutions de la Libération, celle de la cotisation sociale sert de fondement à l’ensemble de l’édifice social érigé par les révolutionnaires de 1944-1946. L’intérêt principal de la cotisation réside dans le fait qu’il constitue une forme de salaire socialisé, prélevé sur le salaire des salariés et par le biais de cotisations patronales, puis directement distribué à la Sécurité sociale, afin de payer le système de santé, les soignants et l’hôpital, mais aussi les retraités, les parents et les chômeurs. Particulièrement efficace, l’Urssaf mettant un jour pour transformer les cotisations en salaires et en prestations, ce système a permis de réduire l’ampleur d’une crise qui aurait été tout autre sans ce type de mécanisme.

Au cœur du projet de modèle social pensé par le Conseil national de la Résistance, puis mis en place à la suite du plan Laroque par les équipes d’Ambroise Croizat, ministre communiste du Travail et de la Sécurité sociale, le financement par le biais de la cotisation s’inscrivait précisément dans un objectif de démocratisation sociale. En effet, ces cotisations sociales étaient gérées directement par les travailleurs eux-mêmes, à travers des Conseils d’administration des caisses élus à 75% par les syndicats des travailleurs et à 25% par ceux du patronat. Surtout, la cotisation, contrairement à un financement par l’impôt, devait permettre l’autonomie du système vis-à-vis du budget de l’État, et dès lors ne pas dépendre des objectifs budgétaires de gouvernements dont la Sécurité sociale ne serait pas la priorité.

La Sécurité sociale, telle qu’elle est envisagée à la Libération, reposait essentiellement sur la volonté de mettre fin aux angoisses du lendemain et d’instaurer un « ordre social nouveau ». Cette tradition était revendiquée par Pierre Laroque, directeur de la Sécurité sociale, qui insistait, dans un discours le 23 mars 1945, sur la nécessité d’inscrire la Sécurité sociale dans ce qu’il assimile à une tradition nationale : « Or, la tradition française dans le domaine de la sécurité sociale n’est pas une tradition d’étatisme bureaucratique ; c’est une tradition d’entraide volontaire, […] c’est la tradition du vieux socialisme français, du socialisme de Fourier, de Louis Blanc, de Proudhon, c’est cette tradition qui a son nom inscrit dans notre devise nationale, c’est la tradition de la fraternité. »

Cette énumération justifiait la particularité du système de protection sociale qu’Ambroise Croizat et lui, entre autres, appelaient de leurs vœux, à savoir non-étatique, dont le budget devait être géré de façon autonome vis-à-vis de celui de l’État, et par les représentants des travailleurs eux-mêmes. L’évocation de la fraternité dresse un pont entre l’héritage révolutionnaire et les réalisations à venir, dans le cadre de la République et de la solidarité nationale, allant de pair avec l’exaltation d’une « foi révolutionnaire ».

C’est précisément grâce à ce principe de la cotisation que les Centres hospitaliers universitaires ont pu être financés sans avoir besoin de s’endetter auprès d’une banque, ni d’avoir à payer de quelconques intérêts, ce qui a largement réduit la dépense publique pour des investissements d’une telle ampleur. Or, ce sont ces établissements publics de santé, qui ont une triple mission de soins, d’enseignement et de recherche, qui ont été en première ligne dans le traitement des patients atteints de Covid-19.

Réformer la Sécu, pour mieux la détricoter

Quelque temps seulement après la mort de ce dernier, consacré par la tradition cégéto-communiste comme le « père de la Sécu », les premières réformes de la Sécurité sociale commencent à amputer le système pensé par le CNR. Le général de Gaulle de retour au pouvoir en 1958 instaure d’abord le contrôle des budgets des caisses par l’État, ainsi que la nomination des directeurs de caisses.

En 1967, les ordonnances Jeanneney instaurent un découpage des risques de la Sécurité sociale en branches, contraire au principe de la caisse unique, la suppression des élections et surtout la mise en place du paritarisme, de telle sorte que les Conseils d’administration devaient désormais être composés à 50 % de représentants des salariés et à 50 % de représentants du patronat, ces derniers pouvant s’allier temporairement au syndicat le plus modéré et former ainsi une majorité défendant leurs intérêts.

En 1990, la Contribution sociale généralisée remet en cause le financement par la cotisation en instaurant un impôt non progressif, tandis qu’en 1995 l’instauration de la Loi de finance de la Sécurité sociale par Alain Juppé marque une nouvelle étape d’étatisation de la Sécurité sociale, son budget étant désormais voté par le Parlement. Le régime général a ainsi subi des attaques répétées de la part de ces gouvernements successifs, toujours selon l’objectif annoncé de « sauver » la Sécurité sociale, mais qui masque en fait une volonté inavouable de libéraliser le système de protection sociale, de surcroît lorsqu’ils traitent de sa nécessaire « modernisation » pour l’adapter aux défis contemporains.

La rhétorique médiatique et le projet néolibéral

La rhétorique médiatique de légitimation des choix gouvernementaux actuels en matière de gestion du budget et des comptes sociaux, qui appliquent en quelque sorte le projet du « monde du travail de demain » décrit par le candidat Macron, se déploie d’ailleurs sur un mode pernicieux : commenter – ou critiquer selon les opinions économiques – la forme, c’est-à-dire l’arbitrage du gouvernement sur les 10 milliards alloués aux gilets jaunes en baisses d’impôts et de cotisations sociales, pour naturaliser implicitement l’argument de fond jamais remis en cause : le principal problème du pays, c’est la réduction du déficit public et des comptes sociaux. Aujourd’hui, la crise économique entraînée par le confinement nous offre le plaisir, certes aigre à nos oreilles, d’une modulation de ce cher refrain, autour cette fois-ci de la générosité – entendez ici pingrerie en réalité – de la politique de chômage partiel du gouvernement Macron.

À travers cette stratégie plus ou moins consciente (délibérée dans le cas de la technostructure, incomprise et entonnée par servilité dans le cas des plateaux télés), se dessine un projet de société plus profond et une cohérence du discours sur le long terme : la rhétorique médiatique néolibérale. On invoque les vocables « réductions de la dépense publique », « réduire la dette », « accélérer les réformes », que la majorité des chroniqueurs impose depuis plusieurs décennies au débat public, justifiés par la technostructure libérale. Se répand ainsi l’idée que les politiques sociales coûtent cher, que les Français se plaignent trop, qu’il faut prendre en compte le vieillissement démographique, et qu’il faut tailler dans le gras des politiques sociales en prenant soin de faire de la « pédagogie ».

En réalité, la pilule est un peu trop grosse pour être avalée, et un soupçon légitime commence à se faire jour : n’y a-t-il pas ici une volonté délibérée de détruire le modèle social français à travers les baisses de cotisations, outil de destruction des comptes sociaux ? Augmenter par ce biais le déficit de la Sécu, et légitimer un peu plus la nécessité de réformer le système social français, au bénéfice du secteur privé.


[1]Marie Alauzen, Plis et replis de l’État plateforme. Enquête sur la modernisation des services publics en France. Sociologie. PSL Research University, 2019. Français. ffNNT : 2019PSLEM037ff. fftel-02418677f

Le Covid, les données de santé et Microsoft

blank
crédits : Pixabay

La France et les instances juridiques de l’Union européenne, doivent se réveiller face aux risques de fuite des données à l’étranger posés par la dépendance de plus en plus prégnante aux GAFAM des systèmes informatiques de nos administrations publiques, notamment en matière de santé. Les gouvernements sont aujourd’hui sous la pression de l’opinion. Ils doivent proposer « une troisième voie pour garantir un avenir numérique compatible avec nos démocraties » comme le réclament dans cette tribune-pétition de nombreux professionnels de la santé et du numérique et des parlementaires. Un lien est en ligne pour la signer.


Une information loyale et éclairée

Le taux d’alphabétisation numérique – la capacité à lire et écrire le langage informatique – est extraordinairement bas [1]. Notre monde technophile s’envole dans la complexité écartant le citoyen du débat politique. Cependant les implications sont fondamentales : elles concernent la pérennité de notre liberté de penser et de notre système de santé mutualiste. Nous voulons informer des évolutions récentes en informatique et en santé pour recentrer politiquement le débat autour du citoyen et fermer la porte aux illusions techno-scientifiques.

Vers le secret professionnel partagé

Récemment l’Ordre des Médecins a rappelé que le secret des personnes est la base de la confiance portée aux personnels soignants [2]. Historiquement la relation de soin est construite sur un colloque singulier médecin-malade. Avec l’arrivée des nouvelles technologies et la numérisation du monde, le secret médical formel se dissipe peu à peu. Les personnels administratifs de l’Etat traitent déjà l’information médicale des assurés de l’Assurance Maladie [3]. Les évolutions contemporaines tendent à multiplier les acteurs du parcours de soins dans une logique de prise en charge collective et pluridisciplinaire. Comment remettre en adéquation cette exigence éthique avec le XXIième siècle, à l’heure du traitement massif des données effectué par des algorithmes toujours plus sophistiqués ?

Les notions [4] “d’équipe de soin””et de “secret partagé” redéfinissent les contours du secret à l’ère digitale. Les informations médicales strictement “nécessaires à la continuité des soins” peuvent circuler entre les différents membres de l’équipe de soins pour améliorer la prise en charge globale de la personne. De plus, l’opposition au partage de données [5] est un droit essentiel pour le patient. Le préalable à tout refus est le droit à une information claire et précise sur les bénéfices attendus, les forces en présence et le parcours de la donnée médicale. La fracture numérique [6] et l’empressement à déployer des outils informatiques ne permettent plus d’assurer ces droits.

Technophilie et centralisation

« Science sans conscience n’est que ruine de l’âme. » Rabelais

C’est un principe éthique fondamental : « les technologies doivent être au service de la personne et de la société» plutôt qu’« asservies par les géants technologiques » [7].

Une confiance aveugle dans la technologie, et notamment dans les nouveaux outils statistiques, pourrait conduire à légitimer des systèmes pyramidaux et potentiellement réducteurs de libertés. Ainsi, les nouveaux systèmes d’information initiés dans le contexte de l’état d’urgence sont tous centralisés : recueil d’identités et de contacts à risque, résultats de prise de sang, surveillance des téléphones portables.
Ces systèmes alimenteront la plateforme nationale des données de santé ou « Health Data Hub » [8]. Ce guichet unique d’accès à l’ensemble des données de santé désidentifiées vise à développer l’intelligence artificielle appliquée à la santé. L’ensemble de ces données est hébergé par l’entreprise Microsoft et son offre commerciale, la plateforme Azure [9].

Le problème est que le droit américain s’applique au monde entier ! Le gouvernement américain a adopté en 2018 un texte nommé « Cloud Act » [10], qui permet à la justice américaine d’avoir accès aux données stockées dans les pays tiers [11]. Microsoft est soumis à ce texte qui est en conflit avec notre règlement européen sur la protection des données [12].

Comment soutenir ce choix alors que le Président de l’Agence Nationale de Sécurité des Systèmes d’Information s’oppose publiquement aux géants du numérique qui représenteraient une attaque pour nos systèmes de « santé mutualiste » [13] ? Comment soutenir ce choix alors que la CNIL mentionne dans le contrat liant le « Health Data Hub » à Microsoft  « l’existence de transferts de données en dehors de l’Union européenne dans le cadre du fonctionnement courant de la plateforme » [14] ? Comment soutenir ce choix alors qu’existent des dizaines d’alternatives industrielles françaises et européennes [15] ?

Troisième voie : autonomie / Europe

Brutalement, l’affaire Snowden a montré l’utilisation de nos données au travers de programmes de surveillance mondialisés [16]. Brutalement, le confinement nous a fait vivre dans nos chairs des privations de liberté imposées et nécessaires.

Au cœur de l’économie du XXIe siècle, les données ont progressivement pris une importance cruciale. Elles sont le pétrole de nos économies modernes [17] et celui qui les contrôle, s’impose. Ces dernières sont exploitées par des États-plateformes dépendants des forces du marché (Google, Apple, Facebook, Amazon, Microsoft) ou d’un régime autoritaire (Baidu, Alibaba, Tencent et Xiaomi) [18].

Nous devons revenir aux principes politiques de base [19] et comprendre que « le patrimoine de données de santé est une richesse nationale. […] La souveraineté et              l’indépendance de notre système de santé face aux intérêts étrangers, ainsi que la compétitivité de notre recherche et de notre industrie, dépendront de la vitesse de la France à s´emparer du sujet. »

L’autonomie des personnes doit être renforcée. La délivrance d’une information éclairée et transparente regroupant patients, professionnels de santé et législateurs doit être réalisée. Ensuite les personnes pourront s’opposer à l’envoi de données les concernant en dehors du cadre juridique qui les défend.

L’Europe juridique doit se réveiller, entraînée par la France et la pression de l’opinion. Elle doit proposer une troisième voie pour garantir un avenir numérique compatible avec nos démocraties. « L’enjeu fondamental pour les Européens est d’être en mesure de conserver leur autonomie de pensée. » [20] Il revient donc aux législateurs européens et français de protéger la démocratie à l’ère du capitalisme de surveillance. La Cour de Justice de l’Union Européenne [21] ainsi que les régulateurs nationaux des données personnelles doivent se positionner quant à la possibilité de contractualisation avec des entreprises assujetties aux lois américaines.

L’initiative franco-allemande GAIA-X [22] qui veut fournir un cadre technique de transparence et de bonne conduite aux états-plateformes mondialisés, doit être propulsée par l’Union Européenne. C’est une absolue nécessité. Pour une Europe Numérique autonome, il est nécessaire d’utiliser « des logiciels libres et des formats ouverts lors du développement » [23] des systèmes d’informations. Pour que demain, chacun ait accès à des soins de qualité, exigeons la publication des plans d’architecture des plateformes informatiques, des flux de données, des algorithmes et des terminologies médicales.

En outre, la qualité de la recherche se co-construit avec des équipes pluridisciplinaires et des interactions entre soin et recherche. Sur place, au sein des hôpitaux et des structures participant au service public, il faut encourager les “communs” et l’autonomie d’un tissu d’enseignants, de chercheurs, d’informaticiens, de soignants ainsi qu’un réseau de personnes en confiance avec l’ensemble du système. Dans ce maillage, la place des régions et des hôpitaux doit être renforcée.

Si le cadre juridique et théorique doit venir de l’Europe, la mise en conformité avec le réel restera locale.

Si vous voulez signer ce texte, cliquez ici !

Signataires :

Aboab Jérôme, Médecin réanimateur
Annane Djillali, Doyen, Faculté de médecine Simone Veil – université de Versailles saint Quentin en Yvelines
Antonini Francois, Anesthésiste Réanimateur – Data Scientist, Assistance Publique Hôpitaux de Marseille
Bernalicis Ugo, Député du Nord, La France insoumise
Blanc-Rollin Charles, RSSI / DPO, GHT 15
Boisson Véronique, Médecin, Chu Reunion
Calvo Stuart, Anthologiste, La Volte
Champsaur Pierre, Président Commission CME – Système d’informatione et DPI, Assistance Publique Hôpitaux de Marseille
Charlot Chantal, Gérante – consultante, AXE PROMOTION
Citrini Marie, Représentant des usagers, Conseil de surveillance APHP
Coelho Ophélie, Coordinatrice du groupe de travail sur le numérique, Institut Rousseau
Crozier Sophie, Médecin, Assistance Publique Hôpitaux de Paris
De Maison Rouge Olivier, Avocat – Docteur en droit – Auteur – Conférencier, Observatoire de l’intelligence économique français
Desgrippes Florent, Ingénieur informatique, interhop.org
Dormeau Léna,  chercheuse en philosophie sociale
Ehooman Franck, Médecin Anesthésiste-Réanimateur et du Périopératoire, Institut Mutualiste Montsouris
Faiz Stéphanie, médecin hospitalier
Fallery Bernard, Professeur émérite en systèmes d’information, Université de Montpellier
Fougerat Jérémie, Médecin Généraliste
Froissart Zoéline, Médecin, syndicat de la médecine générale
Gaillard Nicolas, Praticien hospitalier, Médecin
Gendry Camille, médecin généraliste, syndicat de la médecine générale
Gervais Anne, médecin, hopital Bichat
Granger Bernard, Professeur de psychiatrie, Université de Paris
Hamon Jean paul, Médecin généraliste, FMF
Hentgen Véronique, Médecin praticien hospitalier, CH Versailles
Lamer Antoine, Data Scientist, CHU Lille / ILIS
Le Bouter Léo, Expert Sécurité Infrastructure, Assistance publique – Hôpitaux de Paris (AP-HP)
Leblond Thierry, Ingénieur Général de l’Armement, Président de société d’édition logicielle spécialisée dans la sécurité des données  sur le Cloud, Scille
Lengline Etienne, Hematologue, Hôpital saint-louis paris
Londeix Pauline, Co-fondatrice, Observatoire de la transparence dans les politiques du médicaments – OTMeds
Louchi Jamel, Médecin Généraliste
Martial-Bratz Nathalie, Professeur de Droit Privée, Membre de l’Institut Universitaire de France
Martin Jérome, Co-fondatrice, Observatoire de la transparence dans les politiques du médicaments – OTMeds
Marty Jérome, Président UFMLS et médecin Généraliste, Union Française pour une Médecine Libre Syndicat
Masutti Christophe, Co-administrateur, Framasoft
Maurel Emmanuel, Député européen, Parlement Européen
Meuret François, Retraité, Médecin généraliste / Syndicat de la Médecine Générale
Moreira Jeverson, Pharmacien et Chercheur, Consultant Technico-Scientifique en Santé Publique et création de Partenariats Public-Privé
Nisand Israël, gynécologue obstétricien, Président du Collège National des Gynécologues et Obstétriciens Français
Paris Nicolas, Ingénieur BigData, interhop.org
Parrot Adrien, Anesthésiste Réanimateur – ingénieur, interhop.org
Pelletier Anne-Sophie, Députée européenne – Aide médico-psychologique, Parlement européen
Pinsard Florence, Cadre de sante, Centre hospitalier de Pau
Potier Hugo, REDCap IT Scientific Manager, CHU-NIMES
Pouzyreff Natalia, députée, Assemblée nationale
Poznanski Florence, Activiste, Animatrice du Livret numérique – La France insoumise
Prudhomme Christophe, Praticien hospitalier, Syndicaliste hospitalier
Ruiz Jean, Médecin, Chu toulouse
santénathon.org, Collectif d’entreprises & d’associations œuvrant dans le monde des logiciels libres de l’opensource et des données ouvertes
Schon Alexandre, Docteur en Géographie des télécommunications et de l’innovation européenne Animateur du Livret Numérique, La France insoumise
Sicard Didier, Professeur émérite de médecine, Université de Paris
Smets Jean-Paul, Ingénieur des Mines, Nexedi
Stallman Richard, GNU / Free Software Foundation, gnu.org/government
Thiollier Anne-Françoise, Infirmière puéricultrice, APHP Hôpital Robert-Debré
Trivalle Christophe, Médecin, APHP
Woillet Simon, Directeur rubrique médias, LVSL


  1. L’alphabétisation numérique et la participation familiale à l’école ↩︎
  2. Plan de déconfinement et garantie du secret médical ↩︎
  3. “Le secret médical sera préservé” ↩︎
  4. Comment concilier respect du secret professionnel et efficacité des soins ? ↩︎
  5. Opposition et information ↩︎
  6. Les quatre dimensions de la fracture numérique ↩︎
  7. Médecins et Patients dans le monde des data, des algorithmes et de l’intelligence artificielle ↩︎
  8. Données de santé : l’arbre StopCovid qui cache la forêt Health Data Hub ↩︎
  9. Modalités de stockage du « health data hub » ↩︎
  10. Rapport Gauvain : Rétablir la souveraineté de la France et de l’Europe et protéger nos entreprises des lois et mesures à portée extraterritoriale ↩︎
  11. Évaluation du CCBE de la loi CLOUD Act des États-Unis ↩︎
  12. Commission spéciale Bioéthique : Auditions diverses, Mme DENIS ↩︎
  13. Audition de M. Guillaume Poupard, directeur général de l’Agence nationale de la sécurité des systèmes d’information (ANSSI) ↩︎
  14. Délibération n° 2020-044 du 20 avril 2020 portant avis sur un projet d’arrêté complétant l’arrêté du 23 mars 2020 prescrivant les mesures d’organisation et de fonctionnement du système de santé nécessaires pour faire face à l’épidémie de covid-19 dans le cadre de l’état d’urgence sanitaire ↩︎
  15. Annuaire des hébergeurs aggréés AFHADS ↩︎
  16. Trente-cinq chefs d’État étaient sous écoute de la NSA ↩︎
  17. The world’s most valuable resource is no longer oil, but data ↩︎
  18. “Enquête. Quand Internet sera chinois” ↩︎
  19. HealthDataHub : Mission de préfiguration ↩︎
  20. “Thomas Gomart (IFRI) : « Le Covid-19 accélère le changement de mains de pans entiers de l’activité économique au profit des plateformes numériques »” ↩︎
  21. Données personnelles : le transfert vers les Etats-Unis validé par la CJUE ↩︎
  22. Franco-German Position on GAIA-X ↩︎
  23. LOI n° 2016-1321 du 7 octobre 2016 pour une République numérique ↩︎

Le Health Data Hub ou le risque d’une santé marchandisée

La crise sanitaire liée au Covid-19 révèle au grand jour les conséquences mortelles des logiques de réduction des moyens dévolus au service public hospitalier. De nombreux pays dont la France misent une fois de plus sur les solutions numériques (géolocalisation, data-surveillance) pour camoufler les effets toxiques des politiques libérales, et renvoyer injustement les citoyens à leur responsabilité individuelle face à la maladie. Le suivi continu des pathologies et rythmes biologiques via les écrans et smartphones, remplacerait-il petit à petit l’acte de soin, justifiant par là même la continuité de l’austérité infligée aux institutions publiques de santé de ces pays? Ce qu’il y a de certain, c’est que les millions d’euros accordés au Health Data Hub mis en place par le gouvernement Philippe, et sur lequel nous nous penchons ici, n’ont pas servi à la recherche scientifique sur les coronavirus, ni à revaloriser le salaire des praticiens hospitaliers, ni à leur fournir les matériels nécessaires à leur métier et à leur protection. Par Audrey Boulard, Eugène Favier et Simon Woillet.


Au mois de décembre dernier, Agnès Buzyn, alors ministre de la Santé et des Solidarités, inaugurait la plateforme nationale de collecte des données de santé, baptisée en anglais Health data hub. Une plateforme ayant vocation à devenir un guichet unique à destination des acteurs, privés et publics, et devant servir d’appui à la recherche en intelligence artificielle.  Son enjeu ? Élargir ce « patrimoine commun » que constituent les données recueillies par l’assurance maladie en y ajoutant les gisements de données présents dans les CHU ainsi que celles récoltées par les médecins de ville et les pharmacies. Un storytelling dont les rouages – bien huilés en apparence – sont néanmoins grippés par de nombreuses controverses, portant notamment sur la sécurité nationale des données et sur les objectifs économiques de cette conversion numérique du secteur de la santé, visant à remplacer de nombreux actes médicaux (tels que le suivi biologique et le diagnostic) par des algorithmes.

En raison de son système de sécurité sociale, la France est l’un des premiers pays à s’être doté d’une base nationale de données médico-administrative centralisant l’ensemble des données des parcours de soins. Une base de données qui couvre 99% de la population. Des données, qui à l’heure de la santé connectée et des potentialités offertes par l’IA, représentent de véritables mines d’informations à exploiter et à valoriser.

Quel est l’objectif du dispositif ? Il s’agit selon le gouvernement d’élaborer un système de santé où se répondraient vertueusement les intérêts de la recherche et des citoyens. Ce qui implique en premier lieu de renforcer le réseau d’informations sur chaque patient en traitant et faisant se recouper les données déjà collectées. L’espace de santé numérique personnalisé qui a pris le nom de Dossier médical partagé (DMP) et dont la fonction est de fluidifier la prise en charge des patients, a ainsi également vocation à alimenter le Health data hub. Le projet consiste en retour à faciliter l’accès des chercheurs à ces informations.

En contournant d’une part les lenteurs administratives dues à une législation européenne jugée très protectrice à l’égard des données et, d’autre part, en ouvrant toujours plus ce dispositif aux acteurs privés (mutuelles, assurances, industriels et start-ups), affirmant ainsi l’idée que le secteur public n’aurait pas le monopole de l’intérêt général. Un système profitable à ces différentes parties prenantes puisqu’en orientant les recherches vers ces secteurs-clés que sont l’intelligence artificielle et le big data, le Health data hub participe à l’attractivité de la France en matière de e-santé, et contribue plus ou moins directement au bien-être des citoyens, qui sont les premiers intéressés par les progrès de la médecine.

Le projet n’a cependant pas manqué de susciter les critiques. Une tribune publiée en décembre dans Le Monde et signée par des professionnels de santé, une motion du Conseil national des barreaux s’opposant au projet et plus récemment encore la mise en accusation par des entreprises de logiciels d’édition pour non respect des principes d’égalité et de transparence dans le choix qui a été fait de désigner Microsoft Azure comme hébergeur.

Parmi les arguments avancés à l’encontre de la plateforme, l’inspiration libérale de la loi santé votée en juillet 2019 et l’empressement avec lequel le ministère s’engage dans le projet, minimisant ainsi les difficultés qui accompagnent cette transformation numérique du système de santé : risques encourus pour les libertés individuelles et pour le secret médical, flou autour des notions de consentement et de responsabilité du médecin, charges administratives redoublées pour les professionnels de santé notamment. Mais c’est surtout le choix de faire appel à la technologie de Microsoft pour héberger l’ensemble de ces données sensibles, au détriment d’une technologie française qui a fait enfler la polémique. Une décision qui a pu être qualifiée de « haute trahison » selon le mot du professeur Israël Nisand lors du forum européen de bioéthique qui s’est tenu en février dernier.

Qu’est ce que le Health Data Hub ?

Qu’est-ce que le Health data hub (HDH) ? Un « guichet unique, assurant un accès simplifié, effectif et accéléré aux données », « une structure partenariale entre producteurs et utilisateurs de données, qui pilotera l’enrichissement continu mais aussi la valorisation du système national de santé ». À l’origine du projet, le rapport sur l’intelligence artificielle (IA) conduit par Cédric Villani et publié en mars 2018 qui consacre un chapitre au potentiel de l’IA en France et aux modes de gouvernances possibles pour les données en santé. Le rapport ouvre les pistes de la stratégie de transformation du système de santé intitulé « ma santé 2022 »  S’en suit une mise en place très rapide. En octobre 2018, est rendue publique la mission de préfiguration co-dirigée par la présidente de l’Institut national des données de santé Dominique Polton, Marc Cuggia, professeur d’informatique médicale et Gilles Wainrib, président de la start-up Owkin.

En février 2019, Agnès Buzyn valide la feuille de route de la mission et confie la mise en place du hub à la DRESS à la tête de laquelle se trouve Jean-Marc Aubert. Le 24 juillet 2019 est adoptée la loi précisant les grands principes de la structure, faisant en particulier disparaître toute référence à une finalité scientifique pour ne conserver que le « motif d’intérêt public ». En charge de garantir la protection des données et de piloter les aspects sécuritaires du projet, plusieurs instances sont mobilisées parmi lesquelles le Comité consultatif national d’éthique (CCNE) pour le couvercle éthique, la Commission nationale de l’informatique et des libertés (CNIL) pour la caution juridique, et l’Agence nationale de la sécurité des systèmes d’information (Anssi) pour le versant sécuritaire. Au moment de la création effective de la plateforme le 1er décembre 2019, le Health Data Hub est donc fort d’un cahier des charges ambitieux, d’un cadre juridique ouvert et flexible et du souhait répété de placer les citoyens au centre des services offerts par la plateforme. Que lui manque t-il ? Des précisions et des garanties.

“Le Health Data Hub est donc fort d’un cahier des charges ambitieux, d’un cadre juridique ouvert et flexible et du souhait répété de placer les citoyens au centre des services offerts par la plateforme. Que lui manque t-il ? Des précisions et des garanties.”

On peut en effet s’interroger. Tout d’abord, le Health data hub ouvre l’accès aux données de santé à des acteurs privés (les start-ups en premières lignes), acteurs dont l’efficacité se mesure à leur rentabilité. Ainsi, en dépit de l’attractivité de ces structures, les algorithmes sur lesquels travaillent ces start-ups, une fois entraînés sur le « patrimoine commun » que constituent les données de santé des Français, sont destinés à être brevetés. Évidemment les start-ups ne sont pas les seuls acteurs à pouvoir accéder à ces données. Le dispositif doit également être mis à disposition du service public. Néanmoins, en quoi un projet qui invite les citoyens à transmettre l’ensemble de leurs données à des projets de recherches auxquels ils ne pourront pas accéder gratuitement participe-t-il à la création d’un système de santé plus démocratique ?

En second lieu, l’exploitation des données de santé n’est pas une nouveauté en France. Des entrepôts de données de santé existent déjà dans différents CHU, à Bordeaux, à Toulouse et à l’AP-HP à Paris. Ces structures participent depuis plusieurs années au développement de méthodes de traitement des données afin d’élaborer localement des outils facilitant la gestion des dossiers médicaux. À ce titre, en quoi le fait de réquisitionner ces données, recueillies et traitées en interne par les professionnels de santé, peut-il servir à financer ces mêmes hôpitaux ?

Une centralisation à marche forcée pour les hôpitaux qui pose également problème du point de vue de la qualité du traitement des données recueillies. Plus on éloigne les données de leur lieu de collecte, plus on les décontextualise en prenant le risque de mal les interpréter. En retour, c’est l’application des algorithmes au soin qui devient moins précis. En effet, en éloignant géographiquement le lieu de collecte du lieu de traitement, on perd le bénéfice d’un aller-retour correctif entre les algorithmes et la pratique réelle des soins sur de vrais patients.

“Faisant l’impasse sur ces précautions éthiques, le Health data hub semble au contraire s’engouffrer dans une logique de marchandisation du secteur de la santé, en valorisant les partenariats public et privé et en faisant du numérique la solution miraculeuse aux nombreux dysfonctionnements de l’hôpital public.”

Sans faire preuve de défiance à l’égard de l’introduction de nouvelles technologies dans le domaine de la santé, il est donc possible de reconnaître que le Health data hub, mis en place sans consultation citoyenne suffisamment élargie, procède d’un certain nombre de choix arbitraires parmi lesquels la pseudomisation des données qui permettrait aux données d’être réidentifiées, le terme flou « d’intérêt général » qui encadre le mode de gouvernance du hub – un GIP, Groupement d’intérêt public, comprenant des acteurs tels que les mutuelles, la centralisation qui augmente les risques en cas de cyber attaques, et enfin le choix d’un modèle économique qui dévalorise et dépossède la recherche publique au profit d’acteurs privés.

En définitive, si les risques potentiels liés aux données massives en santé ne sont pas suffisants pour interrompre les progrès de la recherche, selon l’avis 130 du CCNE, la prudence n’est pas accessoire, étant entendu que cette transformation du secteur de la santé est caractérisée par « une tension entre une grand technicité et des enjeux fondamentaux qui touchent chaque être humain dans la représentation qu’il a de lui-même et de son espèce ».

Faisant l’impasse sur ces précautions éthiques, le Health data hub semble au contraire s’engouffrer dans une logique de marchandisation du secteur de la santé, en valorisant les partenariats public et privé et en faisant du numérique la solution miraculeuse aux nombreux dysfonctionnements de l’hôpital public. Une logique technophile et néolibérale qui reste d’actualité dans la crise du Covid-19, en témoigne la note sur les politiques de santé produite par la Caisse des Dépôts et révélée par Mediapart, qui fait état de la prégnance des impératifs comptables dans la mentalité de nos gouvernants.

La crainte de l’assujettissement numérique

Au-delà de la question de la numérisation des données de santé, qui se pose en véritable enjeu, c’est plutôt le choix du ministère de la Santé de faire appel à Microsoft comme hébergeur de données qui inquiète. Une crainte que les discours se voulant rassurant pour encadrer la présentation du dispositif n’ont pas réussi à dissiper. De façon compréhensible, la décision de faire reposer une plateforme de centralisation des données de santé de millions de Français sur la technologie du Cloud Microsoft Azure interroge à bien des niveaux.

L’empressement avec lequel le ministère de la Santé et la DREES conduisent le projet est d’autant plus surprenant que les contours flous de cette collaboration tardent à se préciser : quel gage de sécurité des données le gouvernement français est-il à même de garantir face à Microsoft ? De quel arsenal juridique le RGPD, le Règlement général sur la protection des données à échelle européen, dispose-t-il face au Cloud Act, son équivalent américain, dont la juridiction extraterritoriale a fait réagir ? Quelle garantie de transparence sera établie autour de la circulation éventuelle des données sur le marché des assureurs ou de divers acteurs dont les autres géants du numérique ? Quelle redéfinition des compétences, de la liberté d’action et du rôle des acteurs de la santé et notamment du secteur de l’informatique médical ?

“Il s’agit pour le ministère de placer la France en acteur mondial phare du développement de l’intelligence artificielle dans le secteur de la santé et ce, dans la décennie qui vient. Pourtant, la décision de s’appuyer sur Microsoft contraste avec de telles ambitions.”

Comment encadrer la fluctuation du prix des licences Microsoft ? Autant de points de crispation que la stratégie précipitée du gouvernement pour mettre en place cette plateforme ne contribue en rien à atténuer. Une stratégie d’ailleurs revendiquée dès la feuille de route d’Agnès Buzyn intitulée « accélérer le virage numérique » et dans lequel il est question de « mettre rapidement au service du plus grand nombre notre patrimoine de données de santé sous une forme anonymisée, dans le respect de l’éthique et des droits fondamentaux des citoyens ». Il s’agit pour le ministère de placer la France en acteur mondial phare du développement de l’intelligence artificielle dans le secteur de la santé et ce, dans la décennie qui vient. Pourtant, la décision de s’appuyer sur Microsoft contraste avec de telles ambitions.

Le transfert de données de santé de millions de Français sur des serveurs situés à l’étranger pose problème pour des raisons évidentes. Des risques liés à la sûreté des données de santé des Français ont d’emblée été évoqués, à commencer par le rapport même de la mission de préfiguration remis à Agnès Buzyn le 12 octobre 2019 qui fait état de tels enjeux : « Le patrimoine de données de santé est une richesse nationale et chacun en prend peu à peu conscience. […] La souveraineté et l’indépendance de notre système de santé face aux intérêts étrangers, ainsi que la compétitivité de notre recherche et de notre industrie dépendront de la vitesse de la France à s’emparer du sujet ». À noter que, si un impératif de compétitivité et d’urgence est ici mobilisé, c’est davantage pour alerter sur la nécessité d’une plateforme souveraine de mutualisation des données de santé au service de l’intérêt national, que pour se lier à des technologies Microsoft dans la précipitation qui accompagnerait la course à l’innovation et à la recherche dans le domaine de la santé. Une mise en garde qui semble avoir été ignorée depuis.

Dans un état d’esprit comparable, le Conseil national de l’ordre des médecins (CNOM), dans son rapport intitulé « Médecins et patients dans le monde des datas, des algorithmes et de l’intelligence artificielle », met en garde sur le fait que « les infrastructures de données, plateformes de collecte et d’exploitation, constituent un enjeu majeur sur les plans scientifique, économique, et en matière de cybersécurité. La localisation de ces infrastructures et plateformes, leur fonctionnement, leurs finalités, leur régulation représentent un enjeu majeur de souveraineté afin que, demain, la France et l’Europe ne soient pas vassalisées par des géants supranationaux du numérique » (recommandation #33, janvier 2018).

Un autre défi, d’ordre financier, s’ajoute à ce choix de candidature. Dépendre de l’infrastructure logicielle de la plateforme de centralisation des données de santé au Cloud Microsoft Azure comporte aussi le risque d’une captivité numérique vis-à-vis d’une technologie singulièrement propriétaire comme celle de Microsoft. L’encadrement de licences implique un engagement financier sur le long terme avec les technologies issues du géant de l’informatique et donc un risque de fluctuation à la hausse des prix sur les licences en question.

RGPD versus Cloud-Act

Un risque supplémentaire que pourrait faire peser le contrat avec Microsoft pour l’élaboration de la plateforme HDH est d’ordre juridique. En effet, le rapport Gauvain du 26 juin 2019 énonce que « le Claryfying Lawful Overseas Use of Data Act, ou Cloud Act (…) permet aux autorités américaines d’obtenir, dans leurs enquêtes pénales, des données stockées par des entreprises américaines en dehors des États-Unis sans passer par une  demande d’entraide et en s’affranchissant des règles de la coopération judiciaire internationale ». Les infractions concernées par l’extraction de données depuis l’étranger sont celles passibles d’une peine d’emprisonnement supérieures à un an. Le Cloud Act couvre toutes les formes de données possibles, que ce soit de simples contenus, courriels, documents électroniques ou encore des métadonnées.

Il permet en somme, un accès unilatéral de la part du gouvernement américain, aux données d’un pays tiers, le tout sans avoir à fournir de précisions sur la nature du contenu extirpé. Par ricochet, le Cloud Act va bien plus loin puisqu’un prestataire français ou étranger, pourvu qu’il soit affilié à une entreprise américaine et que les autorités déterminent que la société mère exerce en cela un contrôle suffisant sur le prestataire, tombera sous le coup du Cloud Act.

“Mais quel droit Microsoft respectera-il alors pour peu que les autorités américaines réclament des données de santé de citoyens français pour des raisons de public safety ?”

Selon la présidente de la CNIL, c’est plus précisément autour de l’article 48 du RGPD qu’il existe un risque de friction juridique avec le Cloud Act. Dans un contexte trumpien de retour à la guerre commerciale ouverte, Microsoft pourrait se retrouver pris en étau entre les législations européennes et américaines sur la question, dont l’issue dépendra d’un accord bilatéral entre les deux parties. Mais quel droit Microsoft respectera-il alors pour peu que les autorités américaines réclament des données de santé de citoyens français pour des raisons de public safety ? Même si le risque peut paraître faible, doit-on placer le bon fonctionnement de cette plateforme de centralisation des données de santé des Français à guichet unique sous la présidence imprévisible qui est celle des États-Unis actuellement ? Que se passerait-il si, au gré des manœuvres économiques et du jeu politique international, cette plateforme qui supplante un système de santé solidaire et national, se retrouverait en position de levier géopolitique à la faveur d’un gouvernement étranger ?

Les GAFAM en embuscade

À travers Microsoft, c’est tout un faisceau d’acteurs qui pourrait bénéficier du flux de données de santé. Les entreprises certifiées hébergeurs de santé type Amazon ou Google pourront réclamer un point d’accès depuis Microsoft aux données de santé au motif assez indistinct d’un simple intérêt pour la recherche clinique. Microsoft pourrait se faire ainsi la porte d’entrée d’un circuit de données entre divers acteurs connectés, la virtualisation des infrastructures informatiques de cloud permettant de mutualiser les données pour d’autres clients en les répliquant sur plusieurs centres de données.

Par-delà le discours de la performance et de l’alignement sur l’impératif du tout-numérique, la donnée de santé s’avère être pour le secteur numérique et notamment les GAFAM, un enjeu marchand : Google a vu un quart de son budget redirigé vers la santé. Le Wall Street journal a d’ailleurs récemment révélé l’accès de Google aux dossiers médicaux détaillés de millions de patients Américains qui ont circulé sans connaissance ni consentement de la part des patients concernés suscitant l’ouverture d’une enquête du bureau des droits civiques américains. Ces données pourraient par exemple servir à la revente aux assureurs ou aux banques.

Par ailleurs, la rivalité éco-numérique sino-américaine en cours fait de l’Europe un théâtre d’affrontement privilégié, pour la 5G notamment ; un sujet qui, contrairement aux données de santé, a pu sensibiliser des acteurs français et européens à réagir pour conserver une souveraineté technologique. Plus généralement, le processus de diversification sectorielle des GAFAM fait de la santé un secteur d’avenir pour le numérique et augure des affrontements commerciaux sur le sujet, une raison de plus pour redouter le choix de remettre le projet de plateforme de santé dans les mains de Microsoft.

Un objectif de suffisance technologique loin d’être inatteignable

Le choix d’investir dans une infrastructure numérique Microsoft est d’autant plus curieux lorsque l’on comprend que la possibilité d’un hébergeur national n’est pas un frein technologique, plusieurs d’entre eux ce sont même positionnés pour accueillir la plateforme de santé numérique. Ne serait-ce que du point de vue de la compétitivité technologique, la perspective de voir émerger des acteurs locaux au service du secteur de la santé serait avantageux.

Malgré les échecs Atos/SFR et Orange/Thalès à faire émerger une alternative crédible aux géants du numérique, le partenariat OVH avec 3DS Outscale de Dassault Systèmes pour un cloud souverain dans le secteur de la défense ou bien le projet open source MAlt pour le CERN, pourraient relancer une étape dans la lutte contre la dépendance technologique envers les GAFAM.

“La faisabilité technique n’est pas engagée, l’État français disposera d’un Cloud interne en 2020 pour les services les plus stratégiques, une qualification qui échappe mystérieusement aux données de santé.”

La faisabilité technique n’est pas engagée, l’État français disposera d’un Cloud interne en 2020 pour les services les plus stratégiques, une qualification qui échappe mystérieusement aux données de santé. Les données issues des collectivités territoriales ou de l’État considérées comme trésor national font de la France le seul pays à offrir une cybersécurité réglementée aux infrastructures jugées indispensables à l’intégrité de la nation (SecNumCloud), domaine dont les données de santé sont, selon toute vraisemblance, exclues.

Pourtant, les données de santé relevant de l’administration ou du secret médical sont des archives publiques régies par le Code du patrimoine, qui empêche la conservation de ces données en dehors du territoire national (article E212-23 2°). Les données de santé produites par les structures publiques relèvent normalement de ce même territoire national. C’est sans compter toutefois sur la certification hébergeur de données de santé (HDS), qui semble contourner l’agrément du ministère de la Culture pour ce qui est de la conservation des archives sur le sol français, créant un flou juridique. Microsoft, qui a été certifié HDS en seulement 4 mois (contre 12 à 18 mois requis en moyenne), s’est empressé d’acquérir Fitbit, société américaine de fitness, proche du milieu des assurances et pourvoyeur de bracelets connectés et collecteurs de données de santé des particuliers. La plateforme Google Cloud France est quant à elle certifiée HDS sans avoir de datacenters sur le territoire français.

“Le transfert de compétences ou la dépendance technologique est moins le présage d’une France qui ferait la course en tête dans le champ de l’IA médicale que celui d’une perte d’autonomie des milieux hospitaliers, d’une dépossession d’expertise de l’informatique médicale vis-à-vis de leurs bases de données et leur capacité à contrôler leurs environnements et leurs outils de travail numérique.”

Sur BFM Business, Arnaud Coustillière, Vice-amiral d’escadre et président de la DGNUM (Direction générale du numérique), estime quant à lui que les entreprises du numérique « ne voient en face d’elle que des clients et pas des citoyens », une distinction que leur puissance de projection numérique semble ignorer. Après l’entrée en jeu du Cloud Microsoft Azure, il évoque le principe de souveraineté numérique compris comme une autonomie stratégique dans le secteur numérique et définit les conditions préalables à l’hébergement de données sensibles comme devant relever de la confiance et d’une « communauté de destin » partagée, critère qui ne paraît pas inextensible au principe d’un système de santé solidaire national.

Le secret pour (re)trouver l’efficacité de notre système de santé ne se situe pas dans les processus aveugles du solutionnisme ou de la numérisation marchande. Si le secteur de la santé a pu fonctionner de façon solidaire et universelle avant cela, et sans doute même mieux qu’actuellement, c’est qu’il est possible et même souhaitable de repenser une stratégie numérique qui ne rogne pas sur les piliers qui font reposer historiquement la santé publique en France. “Le solutionnisme n’est pas la solution”, mais bien le problème, et si la numérisation est amenée à jouer un rôle déterminant dans le domaine de la santé, le spécialiste des politiques numériques Evgeny Morozov se demande légitimement « pourquoi sacrifier la vie privée au nom de la santé publique » lorsque cela est évitable?

Une volonté de réforme politique favorisant le marché au détriment de l’État social ?

Le transfert de compétences ou la dépendance technologique est moins le présage d’une France qui ferait la course en tête dans le champ de l’IA médicale que celui d’une perte d’autonomie des milieux hospitaliers, d’une dépossession d’expertise de l’informatique médicale vis-à-vis de leurs bases de données et leur capacité à contrôler leurs environnements et leurs outils de travail numérique (autant de tâches qui seront largement confiées à des prestataires privés non-médicaux).

Un risque qui pèse aussi sur la capacité de diagnostic et de prise de décision des professionnels de la santé qui seront concernés. Les algorithmes, probablement développés par les soins de Microsoft, échapperont alors au contrôle de l’administration médicale. Autant d’indices qui semblent anticiper un basculement dans la compréhension des mécanismes des maladies et du rapport médecin / patient. Car il ne s’agit pas ici d’un simple portage numérique du fonctionnement historique d’un système de santé mais d’un virage philosophique pour l’ensemble du secteur médical français.

La décision d’Agnès Buzyn d’accorder le statut d’hébergeur agréé des données de santé des Français à Microsoft nous invite ainsi à soulever plusieurs interrogations concernant l’impact de cette décision sur nos vies privées, nos relations aux institutions de soin et la vision économique du système de santé que cet acte politique révèle.

Outre la destruction de l’écosystème initial de traitement des données à partir d’un modèle français (INDS Institut national des données de santé), qui tend à accroître notre dépendance technologique à l’égard d’entreprises étrangères, cette décision nous incite également à nous questionner sur les risques en matière de vie privée, de dépendance technologique à une entreprise privée, sur les risques d’éventuels de conflits d’intérêt entre les acteurs privés du secteur de la santé (assurances, entreprises pharmaceutiques, entreprises technologiques) et les institutions publiques. Enfin, le recours idéologique à la data-economy pour refonder les politiques de santé publique risquent d’impacter déontologiquement et méthodologiquement le corps médical.

“La science et la technologie apparaissent ici comme les prétextes d’une marchandisation généralisée des comportements humains, biologiques et sociaux dont rêvent les entrepreneurs de la Silicon Valley.”

Les doutes ici mentionnés sont l’occasion d’un regard critique sur la rhétorique techniciste vantée par les libéraux contemporains, et nous permettent de saisir la cohérence de la vision de l’avenir qu’ils nous imposent. Le cas que nous traitons ici doit nous inviter, par les interconnexions qu’il révèle entre des secteurs économiques apparemment distincts, à comprendre la vision libérale-totalitaire de l’économie digitale qui est ici en jeu, à l’opposé du modèle de la libre communication de l’information à caractère scientifique (open source), que nous défendons. La science et la technologie apparaissent ici comme les prétextes d’une marchandisation généralisée des comportements humains, biologiques et sociaux dont rêvent les entrepreneurs de la Silicon Valley.

Leurs naïves ouailles politiques étant enivrées par l’argumentaire de ces compagnies quant à « l’urgence » des décisions à prendre face à « la concurrence internationale » et « l’impossibilité » pour les États de réguler et de censurer des technologies qui « de toute façon » verront le jour dans d’autres territoires aux législations moins embarrassantes.

Les risques déontologiques de la data-economy de la santé

Le premier risque que nous pouvons mentionner quant à l’ouverture des données de santé des Français au secteur privé transnational est le suivant : sans incriminer en aucune façon les entreprises pharmaceutiques et les assureurs qui financent la recherche en IA dans le domaine de la santé, on peut néanmoins légitimement s’interroger sur les raisons de leur enthousiasme à favoriser le développement de ce nouveau paradigme médical. Toute entreprise privée est soumise à des exigences de rentabilité et de profit, dont le premier levier est la réduction des coûts de fonctionnement (en particulier la question du reste à charge pour les assureurs).

Plus grave, le Conseil national du numérique, par la voix de Marine Cotty-Eslous, représentante de son groupe « Numérique et Santé », accompagne la recommandation du Comité consultatif national d’éthique, quant à l’application du principe absurde de « consentement présumé » pour la collecte des données de santé des citoyens. Chaque acte médical ou para-médical donnera lieu à une actualisation sans information préalable du patient, de son « Espace numérique de santé » lequel sera créé systématiquement à la naissance de chaque citoyen. La logique générale du projet étant que l’ensemble des professionnels de santé soient incités en permanence à alimenter cette base de données (le rapport de préfiguration du HDH mentionnait la possibilité d’une incitation financière à alimenter le système).

Tout observateur critique, sans même à avoir à adopter une position libertaire sur les “sociétés de contrôle” et le “capitalisme de surveillance” se doit de considérer les risques posés par cette organisation de la société sur le mode du fichage généralisé des données biologiques des populations. L’utilisation actuelle des technologies de géolocalisation pour endiguer la propagation de Covid-19 nous laisse en effet craindre une normalisation politique de ces méthodes de surveillance intrusives et continues dans le temps (tout comme la normalisation des lois d’exception de l’état d’urgence a eu lieu), qui s’appliquent désormais aussi bien à l’identité politique, sexuelle et morale des citoyens comme le montre l’autorisation accordée par le ministère de l’Intérieur à cette application aux conséquences inquiétantes réservée aux gendarmes et intitulée GendNote.

“Le problème posé ici est celui de la mentalité professionnelle dont se porte garant le principe d’indépendance déontologique contenu dans le statut lié à une mission de service public.”

L’article 6 du projet de loi relatif à l’organisation du système de santé, adopté en juin 2019 au Sénat, et qui peut nous servir de cadre d’interprétation de la vision générale du gouvernement quant aux politiques de santé, mentionne également la création d’un statut unique de praticien hospitalier. D’abord présenté comme la réponse du gouvernement à une revendication majeure du Syndicat national des praticiens hospitaliers anesthésistes-réanimateurs élargi aux autres spécialités (SNPHARE), ce statut unique pose deux problèmes quant à sa définition.

En premier lieu, la suppression étonnante du concours de recrutement qui alimente la « flexibilité » et le passage du public au privé clinique pour compléter ses fins de mois comme y invitait alors Agnès Buzyn, suscitant l’ire du SNPHARE. D’autre part, la mention explicite de la valorisation des compétences non hospitalières (« valences non cliniques ») font présumer que c’est par cette porte que seront recrutés les futurs data scientists de ce nouveau modèle de société. Le problème posé ici est celui de la mentalité professionnelle dont se porte garant le principe d’indépendance déontologique contenu dans le statut lié à une mission de service public.

La mention de la promotion de « l’exercice mixte » d’une profession intra ou extra-hospitalière en libéral fait légitimement craindre par cette voie de possibles dévoiements déontologiques. Surtout lorsqu’il est question de collecte de données privées de santé. Hors du cadre de protection de la mission de service public, assuré par le statut des agents, la logique de subordination contractuelle ici à l’œuvre (le recrutement national est également supprimé au profit d’un recrutement par les directions d’établissements), peut profiter à la mentalité mercantile, aux pressions à la performance et aux risques de conflits d’intérêts entre secteurs public et privé.

Il semble qu’ici se loge une fois de plus la contradiction de fond entre la logique du soin inconditionnel propre au secteur public ainsi qu’au serment d’Hippocrate et les exigences d’efficacité et de rentabilité aujourd’hui dénoncées par les personnels médicaux et hospitaliers à travers leurs mouvements de grève et leurs réactions à la crise du Covid-19.

Le futur CESREES (organe d’évaluation des politiques de santé qui remplace le Comité d’expertise pour les recherches, les études et les évaluations dans le domaine de la santé CERES de 2016) doit voir le jour mi-mars. Il sera composé, ce qui attire notre attention, de membres des associations de patients, des personnalités du monde de la recherche, de membres du Conseil d’État, du Conseil consultatif national d’éthique, et – nouveauté – d’une personnalité du secteur privé. Son secrétariat ne sera plus assuré par le ministère de l’Enseignement supérieur et de la recherche (comme c’était le cas pour le CERES), mais directement par le Health Data Hub.

“En décembre 2019, Le Monde révélait l’existence d’un potentiel conflit d’intérêt au plus haut niveau des services administratifs de pilotage du HDH en la personne de Jean-Marc Aubert, ancien directeur de la DREES (direction de la recherche de l’étude et de l’évaluation des statistiques).”

Ce mode d’organisation nous donne le sentiment d’alimenter la logique d’efficacité promue par le gouvernement, et nous incite à relire avec intérêt cette définition des objectifs du nouveau modèle de Santé algorithmique, donné dans le rapport de préfiguration du HDH : « Il semble essentiel de mettre à disposition de ces acteurs des capacités technologiques et humaines mutualisées, afin d’atteindre une taille critique permettant une industrialisation et une sécurisation des processus ». Naïfs nous le sommes peut-être encore, pour nous demander encore en quoi un rapport remis à la puissance publique pour guider les orientations majeures dans l’administration de notre système de santé, doit faire mention de l’industrialisation des processus de collecte et traitement des données…

Les inquiétudes dont nous faisons part ici à travers la mention des divers aspects de la réforme systémique votée l’an passé par la majorité ne semblent pas se réduire à de simples cris de Cassandre. En effet, en décembre 2019, Le Monde révélait l’existence d’un potentiel conflit d’intérêt au plus haut niveau des services administratifs de pilotage du HDH en la personne de Jean-Marc Aubert, ancien directeur de la DREES (direction de la recherche de l’étude et de l’évaluation des statistiques). Ce dernier travaillait pour la multinationale Iqvia, leader mondial du traitement des données numériques de santé (10 milliards de dollars de chiffres d’affaires annuels) avant de prendre la direction de la DREES, et a rejoint à nouveau cette entreprise à la suite de son départ.

“Selon Mediapart “Plusieurs entreprises et associations d’éditeurs de logiciel ont écrit, au début du mois de mars, au ministre de la santé Olivier Véran pour demander l’ouverture d’une enquête pour « favoritisme » après le choix de Microsoft pour héberger des données du Health Data Hub.”

Or, Iqvia utilise précisément la technologie Azure Cloud de Microsoft, celle-là même qui a été choisie par l’ancienne ministre de la santé Agnès Buzyn, en dépit des mises en gardes de la CNIL quant aux dangers d’une centralisation des données sensibles. Ce qui ruine par là-même, tout l’écosystème français initial, fondé sur un maillage territorial d’entreprises rattachées individuellement à un des 39 centres de santé pilotes. Ce choix est critiqué fortement par le président du Comité consultatif national d’éthique (CCNE) Jean-François Delfraissy et est même qualifié par Israël Nisand, président du forum européen de bioéthique comme une “haute trahison”. Un choix injustifié selon lui, aussi bien du point de vue technologique, que du point de vue du respect de la souveraineté individuelle et nationale (du fait du Cloud Act en particulier).Selon Mediapart “Plusieurs entreprises et associations d’éditeurs de logiciel ont écrit, au début du mois de mars, au ministre de la santé Olivier Véran pour demander l’ouverture d’une enquête pour « favoritisme » après le choix de Microsoft pour héberger des données du Health Data Hub, la gigantesque plateforme destinée à centraliser l’ensemble des données de santé des Français.”

Le guichet unique centralisé crée des risques pour la sécurité des données et des infrastructures

Le problème de fond que pose le modèle du HDH est celui de la centralisation, car il engage non seulement la sécurité des données des citoyens (notamment vis-à-vis du secteur privé mais également des administrations américaines en vertu du Cloud Act), mais le fonctionnement même des infrastructures numériques hospitalières publiques, du fait du risque réel et connu de piratage. Or, deux événements récents semblent accréditer ces inquiétudes quant à la méthode de la centralisation des données de santé nationales par un acteur privé : d’une part, le scandale révélé outre-atlantique par le Wall Street Journal, du partenariat discret entre le réseau de santé à but non lucratif Ascension et Google, ayant conduit à la diffusion non consentie de données de santé désanonymisées de millions d’Américains.

D’autre part, l’attaque informatique subie en novembre dernier par l’hôpital de Rouen, et qui a conduit à une reprise très lente des infrastructures informatiques de l’établissement (plus de trois semaines de fonctionnement ralenti après la fermeture initiale). Ces cyberattaques sont fréquentes et menacent le fonctionnement des services de soin. Dimanche 22 mars, en pleine crise du Coronavirus, l’AP-HP a été la cible d’une cyberattaque. La centralisation des informations et des serveurs imposée par le HDH renforce le risque encouru par l’ensemble du secteur médical vis-à-vis de ces agressions.

Le fait que leur origine est bien souvent interne comme l’expliquent les auteurs de la tribune de décembre dernier doit alerter les responsables politiques du danger réel  constant et démultiplié encouru par l’infrastructure numérique de santé nationale, et de l’augmentation du pouvoir de nuisance de ces attaques du fait de la centralisation des données.

Remplacer le médecin par l’ordinateur et le soin par les machines

Outre le risque de perte de savoir-faire liée à l’automation des diagnostics, qui selon Adrien Parrot représente un risque réel pour le métier de médecin, outre les problèmes déontologiques, stratégiques et sécuritaires posés par le principe d’une diffusion massive d’informations sensibles et privées à une entreprise américaine, deux autres problèmes peuvent être soulevés. Le premier tient à un risque spécifique au formatage des données (en vue de leur interopérabilité, c’est-à-dire leur utilisation par des plateformes avec des langages informatiques de différents types, et leur diffusion internationale) notamment avec la terminologie SNOMED ®(Systematized Nomenclature Of Medecine).

Cette dernière est une terminologie propriétaire, c’est-à-dire d’accès payant, et détenue par une organisation à but non-lucratif, SNOMED International, qui vend aux États et entreprises, ses technologies de standardisation, d’interprétation des data et de portabilité (techniques de facilitation du passage des données d’un terminal de traitement à un autre) SNOMED CT ® (Systematized Nomenclature Of Medecine Computer Technologies), à travers un réseau international de vendeurs publics et privés.

“L’OMS dispose par exemple d’une terminologie propre, l’ICD11 (International Classification of Diseases pour laquelle la France dispose d’un accès en tant que membre de l’OMS) et des systèmes de traitement open source tels que l’OpenEHR (Electronic Health Record) pourraient servir de complément à une standardisation intégralement publique et gratuite, excluant les logiques marchandes.”

Le caractère propriétaire de cette terminologie, se justifiant de l’autonomie politique, a-partisane et non-nationale de la structure SNOMED International, ne saurait éteindre les interrogations concernant la possibilité de développer des terminologies internationales gratuites, open source et d’accès illimité, sur la base d’investissements massifs (et égalitaires) des États au sein des institutions internationales. D’autant que la prolifération de variantes payantes de ces technologies, produites par l’écosystème de revendeurs privés risque de parasiter le fonctionnement de l’ensemble du système du fait de sa centralisation (comment organiser efficacement un système centralisé avec des différences de technologies mêmes apparemment mineures entre ses différents maillons publics et privés) ?

L’OMS dispose par exemple d’une terminologie propre, l’ICD11 (International Classification of Diseases pour laquelle la France dispose d’un accès en tant que membre de l’OMS) et d’autres systèmes de traitement open source tels que l’openEHR (Electronic Health Record) pourraient servir de complément à une standardisation intégralement publique et gratuite, excluant les logiques marchandes.

L’un des problèmes géopolitiques posés par l’adoption de ce standard, est l’absence de nombreux pays dans les infrastructures de gouvernance et d’élaboration institutionnelle de ces technologies. La France n’a par exemple pour l’instant pas encore rejoint le IHTSDO (International Health Terminology Standards Developement Organisation), qui ne comprend toujours pas ni la Chine, ni la Russie, ni l’Inde, ni le Japon, ni aucun pays africain. Se pose donc ici la question de la vision politique de long terme induite par cette coopération.

“Ces deux standards sont en effet développés main dans la main avec les principaux acteurs privés de la data de santé et leur modèle repose sur l’externalisation du codage à des entreprises visant quant à elles le profit et vendant des applications payantes renforçant la rentabilité des organisations hospitalières.”

S’agit-il à travers ces questions de portabilité et d’inter-opérabilité, d’établir des standards de traitement des données hégémoniques, de faciliter ainsi la transformation des politiques publiques de santé des pays occidentaux et de favoriser développement d’un modèle économique transatlantique et transpacifique (Singapour et la Malaisie sont membres de l’IHTSDO ce qui révèle peut-être une manœuvre diplomatique pour éviter leur imbrication dans un modèle d’origine chinoise) de la donnée de santé? Au détriment d’un usage diplomatique pacifique et universel des démarches de communication de l’information scientifique en open-source (avec un système comme openEHR) ? Quid de l’importance accordée à la recherche internationale sur les épidémies dans les pays non-membres de ces organismes (Ebola par exemple) ?

Aucune affirmation certaine n’est envisageable, mais le devoir de surveillance citoyenne critique s’impose une fois de plus. Les significations politiques possibles des rapprochements entre les principaux acteurs privés du secteur de l’uniformisation des données de santé doivent nous inciter à l’interrogation sur leurs motivations. L’organisation américaine Health Level 7 (HL7) par exemple, propriétaire du grand système de traitement informatique des données de santé FHIR (Fast Healthcare Interoperability Ressources), dont les procédures d’harmonisation et de portabilité avec le SNOMED CT laissent penser qu’il s’agirait à terme pour les pays membres de l’IHTSDO de favoriser le développement d’un secteur privé transatlantique et transpacifique du traitement de ces données en vue de leur rentabilité financière.

Ces deux standards sont en effet développés main dans la main avec les principaux acteurs privés de la data de santé et leur modèle repose sur l’externalisation du codage à des entreprises visant quant à elles le profit et vendant des applications payantes renforçant la rentabilité des organisations hospitalières.

Le projet Argonaut initié par HL7, dont Microsoft et Apple sont notamment partenaires, suit les recommandations de nombreux rapports de groupes d’influence soutenus par les industries de l’électronique de santé américains et européens dont le JASON task force ou l’EHRA (European Heart Risk Association). Ces derniers alimentent l’argument de la nécessité de développer un secteur rentable de la donnée de santé, privilégiant les terminologies propriétaires et leur interopérabilité au détriment d’un modèle alternatif fondé intégralement sur l’open source gratuit et intégralement laissé aux soins de la recherche publique.

Cette logique générale contribue à freiner une fois de plus la diffusion totale, ouverte, gratuite et inconditionnelle du savoir sur la médecine aux praticiens, aux scientifiques et au reste du monde. En effet, le développement (même à partir de systèmes open source comme openEHR) encouragé par ces rapports et organisations, de versions payantes des logiciels et systèmes de classification va restreindre, par les logiques de concurrence entre vendeurs de produits et les logiques de captivité technologique (comme c’est le cas pour les utilisateurs d’Apple et d’une partie de ses produits), associées aux pressions budgétaires sur les hôpitaux, l’exploitation correcte des données.

De l’aveuglement idéologique aux mauvaises décisions politiques

Nous sommes en réalité face à une volonté de réforme politique censée favoriser la rentabilité des hôpitaux privés et la réduction des coûts de gestion des hôpitaux publics. Et ce, par l’automatisation des diagnostics via des logiciels et des environnements payants captifs issus d’entreprises privées à but lucratif, visant l’amélioration du flux d’information entre les technologies de surveillance à domicile et l’hôpital, afin de favoriser le recours accru aux soins en ambulatoire (comme le préconise la loi de juillet 2019 d’Agnès Buzyn) et le développement de l’industrie technologique de surveillance médicale américaine et européenne.

En effet, les associations de lobbying auprès des institutions publiques telle que la COCIR (le Comité européen de coordination de l’industrie radiologique, électro-médicale et de technologies de l’information pour les soins de santé, établi à Bruxelles) financent directement des associations internationales à but non lucratif, visant l’élaboration des standards et recommandations d’interopérabilité et d’implémentation administrative de ces technologies numériques de santé tels que l’IHE, l’Integrating the Healthcare Enterprise.

“Puisque l’étiologie – description des causes des maladies- est la clef de tout diagnostic et donc de toute prescription médicamenteuse, l’influence majeure de ces terminologies sur les diagnostics sera l’autre facteur de risque pour lequel il faudra renforcer notre vigilance collective contre toute tentative d’influence des lobbys pharmaceutiques.”

Enfin, l’emploi majoritaire de technologies dites “vendeuses”, donc des logiciels payants élaborés à partir d’une appropriation des licences terminologiques préexistantes (dont l’EHR qui est open source), nécessitera le recrutement de data scientists issus de professions et de logiques extra-hospitalières (ce qui est déjà prévu et valorisé par la loi française de juillet 2019 nous l’avons vu), chargés d’accélérer les procédures administratives et la rentabilité, hors de tout contrôle par la sphère des praticiens médicaux.

Puisque l’étiologie – description des causes des maladies – et la symptomatologie sont la clef de tout diagnostic et donc de toute prescription médicamenteuse, l’influence majeure de ces terminologies sur les diagnostics sera l’autre facteur de risque pour lequel il faudra renforcer notre vigilance collective contre toute tentative d’influence des lobbys pharmaceutiques sur les ingénieurs et les représentants du corps médical et de la recherche dans le cadre de ces processus de standardisation.

Les scandales récents liés aux conflits d’intérêts avérés entre les experts médicaux du DSM (le livre de référence pour le diagnostic psychiatrique aux États-Unis) et les entreprises pharmaceutiques, ont conduit à une médicalisation généralisée de pans entiers de population servant les intérêts financiers des fabricants de médicaments (épidémie soudaine et intrigante d’enfants diagnostiqués avec un « trouble de l’attention » aux États-Unis en l’occurrence) comme le décrivait le Dr.Patrick Landman dans le Figaro.

L’invention de maladies telles que l’ostéoporose (vieillissement naturel des os transformé par le marketing des firmes pharmaceutiques en maladie proprement dite) ou le « syndrome de la bedaine » dont l’impact a été retentissant au cours des années 2000, nous invitent à exercer une surveillance critique face au renforcement numérique massif des possibilités de recoupement arbitraire de symptômes présents dans l’ensemble de la population en vue de l’augmentation de la vente de médicaments (l’abaissement des seuils de diagnostic du diabète aux États-Unis est un autre exemple des méthodes employées par les industriels de la santé pour augmenter leur chiffre d’affaires).

À contrario de ces logiques, l’OMS dispose par exemple d’une terminologie propre, l’ICD11 (pour laquelle la France dispose d’un accès en tant que membre de l’OMS) et des systèmes de traitement open source tels que l’openEHR pourraient servir de complément à une standardisation intégralement publique et gratuite, excluant les logiques marchandes.

Face à ces interrogations, à ces doutes légitimes soulevés par cette décision politique contestée, un fil idéologique semble se dessiner derrière ce recours brusqué à l’intelligence artificielle sous pavillon privé. Celle de la justification des coupes budgétaires dans l’hôpital public par le développement des soins ambulatoires, et du « monitoring continu» c’est-à-dire le suivi extra-hospitalier des maladies, notamment chroniques (diabète, cancer, etc.) via les nouvelles technologies (montres connectées, smartphones, applications de suivi en direct du métabolisme et de suggestion de comportements alimentaires et sportifs ou médicamenteux).

“La start-up nation prétendrait-elle ainsi faire émerger d’un seul tenant un levier d’entraînement pour l’industrie numérique (sous domination américaine et perspective occidentalo-centrée), son cortège de statuts professionnels précaires, et imposer une société de contrôle biométrique hyper-invasive ?”

De nombreuses start-ups, telles que Mynd Blue proposeront désormais de soigner la dépression par un suivi électronique des états biologiques, donnant lieu à un rappel par message téléphonique de la nécessité de reprendre le traitement chimique anti-dépression. Pourquoi faire appel à un psychiatre quand un iPhone suffit ? Peut-être qu’il y a là l’occasion de faire d’une pierre trois coups ?

La start-up nation, grossier saint-simonisme 2.0 prétendrait-elle ainsi faire émerger d’un seul tenant un levier d’entraînement pour l’industrie numérique (sous domination américaine et perspective occidentalo-centrée) et son cortège de statuts professionnels précaires ? Imposer une société de contrôle biométrique hyper-invasive opérant la synthèse entre “les méthodes d’administration asiatiques” et la société de consommation américaine parachevant la confusion entre démocratie et technocratie (ce que préconisent des think tanks influents tels que l’Institut Berggruen) ? Et ce faisant, satisferait enfin les ambitions des groupes privés de santé, en justifiant par là la démolition les budgets dévolus à l’État social ?

Ce nouveau paradigme semble rendre service à la logique d’efficacité et donc de rentabilité défendue par un secteur privé de la santé dont les chiffres économiques – en berne au début de la décennie 2000 en France du fait de la résistance de l’hôpital public et de ses agents en matière de qualité de soins prodigués en dépit des conditions d’exercice désastreuses, remontent progressivement à mesure de la déliquescence des politiques publiques de santé. Déshabiller le public pour rhabiller le privé, n’est-ce pas la logique secrète, la continuité idéologique à l’œuvre dans cette promotion de la médecine algorithmique reposant en fin de compte sur un écran de smartphone dictant au patient les diagnostics et l’auto-médication en lieu et place des praticiens médicaux et hospitaliers ?

Contre la logique de la marchandisation généralisée, de la coupe dans les budgets des services publics justifiées par le recours contraint à l’ambulatoire et la tarification à l’acte (T2A) initiée par Roselyne Bachelot, contre la surveillance numérique continue, et la survalorisation de la clinique privée, nous devons défendre une utilisation raisonnée des progrès technologiques en médecine, fondée sur le soutien à l’open source, la diffusion publique des algorithmes et des bases de données anonymisées, afin de valoriser la recherche et non le profit d’une part. Et d’autre part, nous devons définir clairement les objectifs visés par la politique de santé publique.

Non pas parier en libéraux sur la spontanéité de “l’innovation” grâce au marché, mais planifier politiquement des objectifs d’éradication de maladies chroniques sévères (sida, cancer, hépatites etc.) et de recherche sur les nouvelles infections virales (coronavirus par exemple), au détriment de la rentabilité privée (par exemple les vaccins contre le sida dont la recherche a été stoppée par la coupe des crédits du CNRS en 2017, et dont la réussite potentielle mettait en péril les 19 milliards de chiffres d’affaires annuels du secteur pharmaceutique sur les trithérapies ou encore la difficulté des chercheurs spécialisés sur les coronavirus à trouver des fonds).

Contre l’influence toujours plus pressante des big pharma dans la recherche, nous devons soutenir une politique de démarchandisation du savoir scientifique par la mise en place d’un pôle public du médicament et la défense du partage universel des connaissances médicales facilité par l’open source. Si le Health Data Hub actuel polarise la majorité des financements pour la recherche, cela risque d’être sous la férule du filtre des prix financés par les grandes firmes pharmaceutiques qui se sont d’ores et déjà positionnés en pré-sélectionneurs de l’avenir de la recherche dans le domaine de l’IA en médecine.