Privatisation de la santé et colonisation des données

Les géants de la tech se lancent dans une course aux applications et services qui proposent des soins médico-psychologiques. Si l’utilité de tels produits est loin d’être avérée, ils promettent néanmoins à ces entreprises de nouvelles sources lucratives de données hautement personnelles… Un « colonialisme des données » qui ouvre la voie à une gestion individuelle des problèmes de santé et masque la privatisation rampante de ce domaine. Par Anna-Verena Nosthoff, Nick Couldry et Felix Maschewski, traduit par Jean-Yves Cotté [1].

Se piquant de philosophie lors d’une interview en 2019, Tim Cook, PDG d’Apple, avait abordé la question de « la plus grande contribution d’Apple à l’humanité ». Sa réponse était sans équivoque : elle concernerait « le domaine de la santé ».

Depuis, la promesse de Cook s’est concrétisée sous la forme de plusieurs produits « innovants », censés « démocratiser » les soins médicaux et donner à chacun les moyens de « gérer sa santé ». Ces dernières années, Amazon, Méta et Alphabet ont également tenté de chambouler le marché de la santé. Dernièrement, on a même appris que la société de surveillance Palantir avait remporté un contrat de 330 millions de livres pour créer une nouvelle plateforme de données destinée au British National Health Service (NHS)…

La pandémie de COVID-19 a accéléré cette tendance, laissant dans son sillage divers réseaux de recherches, services de santé en ligne, cliniques et autres entreprises qui ont pour objectif affiché de « repenser l’avenir de la santé » (pour reprendre l’expression de Verily, filiale d’Alphabet) à l’aide de « montres connectées » et autres outils numériques. Si cette ambition n’est pas neuve, ses modalités varient : les incursions des plus grandes entreprises dans le domaine de la santé ne sont plus uniquement axées sur le corps. Non contentes de cartographier membres et poumons, elles ciblent à présent l’esprit.

Ce nouvel intérêt des GAFAM pour le bien-être psychologique, dans le cadre de leur projet de « cartographier la santé humaine », est loin d’être une coïncidence. Les gros titres relatifs à une « crise de la santé mentale » ont récemment envahi la presse américaine : le taux de suicide a atteint un niveau record aux États-Unis et, comme l’a souligné Bernie Sanders, selon un récent sondage du Center for Disease Control and Prevention (CDC), près d’un adolescent américain sur trois a déclaré que son état de santé mentale laissait à désirer…

Les conglomérats technologiques ne sont que trop heureux de lancer des campagnes autour de ces faits alarmants, mettant l’accent sur les efforts qu’ils déploient pour lutter contre ces tendances délétères. Selon les propres mots, ils souhaitent « résoudre la crise de la santé mentale ». Les GAFAM se fient à une maxime longuement éprouvée : en eaux troubles, bonne pêche.

Quand Apple s’enrichit sur les maladies mentales

Les premières initiatives d’Apple visant à pénétrer le marché de la santé ont connu une accélération marquée. Après avoir affiné son outil de signature concocté en 2019, l’entreprise a depuis collaboré activement avec plusieurs instituts de recherche. Son but : prouver que sa « montre connectée », bien plus qu’un coach sportif, peut être un « sauveur de vie » capable de détecter une fibrillation auriculaire, voire une infection de COVID-191 .

Dans le cadre de sa mission consistant à offrir à ses utilisateurs un « tableau complet » de leur état de santé, il est logique qu’Apple ait annoncé récemment son intention d’ajouter une évaluation médico-psychologique à son Apple Watch… La nouvelle fonction « état d’esprit » (state of mind) de l’application « pleine conscience » d’Apple demande à l’utilisateur d’évaluer ce qu’il ressent sur une échelle de « très agréable » à « très désagréable », d’indiquer les aspects de sa vie qui l’affectent le plus (comme la famille ou le stress au travail) et de décrire son humeur par des adjectifs comme « heureux » ou « inquiet ». La promesse, semble-t-il, est qu’une utilisation quotidienne évitera de consulter un psychologue…

Au printemps 2023, on apprenait que le National Health System britannique avait partagé sur Facebook des données intimes relatives à la santé de ses patients

L’application « pleine conscience » utilise ces données pour déterminer le niveau de risque de dépression. Hasard de calendrier : une étude récente sur la « santé mentale numérique » menée par des chercheurs de l’UCLA (et sponsorisée par Apple) a démontré que l’utilisation de cette application sur l’Apple Watch développait la « conscience émotionnelle » de 80 % des utilisateurs, tandis que 50 % d’entre eux affirmaient qu’elle avait un effet positif sur leur bien-être général – des résultats que l’entreprise ne manque pas de mettre en avant.

Au cours des prochains mois, Apple va vraisemblablement lancer d’autres logiciels liés à la santé mentale. Selon de récents rapports, l’entreprise travaille actuellement à une application censée non seulement traquer les « émotions » des utilisateurs, mais aussi leur donner des conseils médicaux : il s’agit de Quartz, un coach sportif alimenté par une intelligence artificielle.

Qu’il y ait bel et bien une crise de la santé mentale aux États-Unis est indéniable. Entre 2007 et 2020, le nombre de passages aux urgences pour des troubles d’ordre médicopsychologique a presque doublé, les jeunes étant les plus affectés…

Cependant, même si l’on admet que les outils « intelligents » puissent modestement bénéficier à certains patients, l’utilisation de wearables peut aussi générer stress et anxiété, comme d’autres études récentes l’ont démontré. [NDLR : Les wearables constituent une catégorie d’objets informatiques et électronique, destinés à être portés sur soi. Vêtements ou accessoires, ils ont la particularité d’être connectés à un appareil, comme un téléphone, pour recueillir des données relatives à la personne qui les porte et à son environnement]. De plus, l’accent mis sur des solutions technologiques de court terme fait courir le risque de détourner certaines maladies psychologiques des causes sociales et politiques qui les sous-tendent : exploitation au travail, instabilité financière, atomisation croissante, accès limité aux soins, alimentation et logement de mauvaise qualité…

Les applications de santé transfèrent également la responsabilité principale de la gestion des troubles médico-psychologiques aux individus eux-mêmes. Sumbul Desai, vice-présidente en charge de la santé chez Apple, a récemment affirmé que l’objectif de son entreprise « est de donner aux gens les moyens de prendre en charge leur propre parcours de santé ». Un mantra néolibéral ancien.

Quand Méta le gouvernement britannique livre ses données de santé à Méta

Apple n’est pas le seul géant de la tech à s’être penché sur la santé mentale de ses clients. Si le géant de Cupertino ne manifeste guère davantage qu’un intérêt purement formel à la question de la confidentialité des données, bien d’autres ne prennent même pas cette peine.

Au printemps 2023, on apprenait que le NHS avait partagé sur Facebook des données intimes relatives à la santé de ses patients. Pendant des années, le NHS avait fourni au réseau social et à sa maison-mère Méta, par l’intermédiaire de l’outil de collecte de données Meta Pixel, des renseignements comprenant des recherches sur l’automutilation et des rendez-vous de consultation pris par les utilisateurs de son site internet…

Outre les données des utilisateurs qui avaient visité les pages de son site internet relatives aux variations du développement sexuel, aux troubles alimentaires et aux services médicopsychologiques en cas de crise, l’Alder Hay Children’s Hospital de Liverpool a également transmis à Facebook et Méta des renseignements sur les prescriptions de médicaments. La clinique londonienne de santé mentale Tavistock and Portman a aussi fourni aux GAFAM les données d’utilisateurs ayant consulté sa rubrique sur le développement de l’identité de genre, spécialement conçue comme support éducatif pour les enfants et les adolescents…

Tandis que des experts en confidentialité comme Carissa Véliz conseillent aux institutions et professionnels de la santé de « recueillir le strict minimum de renseignements nécessaires pour soigner les patients, rien de plus », cette violation des données du NHS par Facebook illustre la tendance inverse. Dans ce cas précis, les données personnelles ont été obtenues sans que les patients y consentent ou en soient informés, afin de leur adresser des publicités ciblées – le cœur du modèle économique de Méta.

Ce scandale est simplement le dernier d’une longue liste de catastrophes récentes en matière de relations publiques pour l’entreprise, juste après le fiasco du lancement de son métavers (ce n’est pas une coïncidence si l’avenir immersif d’internet proposé par Zuckerberg a lui-même été salué comme une « solution prometteuse pour la santé mentale »…). Il ne s’agit pas là d’un incident isolé : en mars 2023, on apprenait que la start-up de télé-santé Cerebral avait partagé avec Méta et Google, entre autres, des données médicales privées comprenant des renseignements relatifs à la santé mentale…

Quand Alphabet se rêve en coach de vie

La maison-mère de Google, Alphabet, est un autre explorateur des données de santé qui a pénétré le marché des wearables. Depuis la finalisation de son achat du fabricant de « montres connectées » Fitbit en 2021, la société s’est jointe à Apple pour vanter leurs mérites.

Si Jeff Bezos semble accaparé par ses rêves d’entrepreneuriat spatial et d’industrie lunaire, il n’en garde pas moins les pieds sur terre lorsqu’on en vient à ce domaine.

Dans la foulée d’une étude menée par Verily (filiale d’Alphabet spécialisée dans la recherche sur les sciences de la vie) pour savoir s’il était possible de détecter les symptômes de dépression avec un smartphone, Fitbit a récemment lancé une application « conçue pour vous donner une vision globale de votre santé et de votre bien-être en mettant l’accent sur les indicateurs qui vous tiennent à cœur ». Semblable à l’application « pleine conscience » d’Apple, elle comporte une fonctionnalité « humeur » qui permet à l’utilisateur de décrire et d’enregistrer ce qu’il ressent.

Une équipe de la Washington University à St Louis a utilisé les données Fitbit et un modèle d’intelligence artificielle pour concrétiser « la promesse d’utiliser des wearables pour détecter des troubles mentaux au sein d’une communauté large et diverse. » Selon Chenyang Lu, professeur à la McKelvey School of Engineering et l’un des concepteurs de cette étude, cette recherche est pertinente dans le monde réel puisque « aller chez un psychiatre et remplir des questionnaires chronophages explique que certains puissent avoir des réticences à consulter un psychiatre ». En d’autres termes, l’intelligence artificielle peut offrir un outil peu onéreux et peu contraignant pour gérer sa propre santé mentale.

Loin de prouver que les wearables peuvent diagnostiquer la dépression, l’étude a simplement relevé plusieurs corrélations potentielles entre une tendance à la dépression et les biomarqueurs connectés. Cela n’a pas empêché Lu de s’enthousiasmer : « Ce modèle d’IA est capable de vous dire que vous souffrez de dépression ou de troubles de l’anxiété. Voyez ce modèle d’IA comme un outil de dépistage automatisé. »

Cette exagération de la preuve empirique perpétue l’idée que la technologie est à même de résoudre les troubles médico-psychologiques – pour le moins douteuse. Une chose l’est moins : c’est extrêmement lucratif pour Alphabet.

Fitbit n’est cependant pas la seule incursion de l’entreprise dans le domaine de la santé mentale. En plus des informations sur la prévention du suicide que Google Search affiche depuis des années au-dessus des résultats des recherches liées à la santé mentale, l’entreprise a récemment annoncé que les utilisateurs qui entrent des termes en relation avec le suicide verront apparaître une invite avec des démarreurs de conversation pré-écrits qu’ils pourront envoyer par SMS à la 988 Suicide & Crisis Lifeline.

Bien qu’un tel outil puisse s’avérer très utile en cas d’urgence, l’inquiétude est réelle de voir Google instrumentaliser les données sensibles ainsi recueillies en les transmettant à des annonceurs qui les exploiteront et les monétiseront de la même façon que les autres. Il convient de mentionner que ces nouvelles mesures de prévention du suicide n’ont été dévoilées par Google que quelques semaines après le suicide de trois de ses employés, ce qui a donné lieu à des spéculations quant à la santé mentale de son propre personnel. Dans ce contexte, ces nouvelles fonctionnalités peuvent être vues comme un coup médiatique pour détourner l’attention des problèmes urgents qui se posent à l’entreprise elle-même – et le modèle qu’elle encourage.

Quand Amazon renonce ouvertement à la confidentialité

Amazon s’achète également une image de prestataire de soins médico-psychologiques. Si Jeff Bezos semble accaparé par ses rêves d’entrepreneuriat spatial et d’industrie lunaire, il n’en garde pas moins les pieds sur terre lorsqu’on en vient à ce domaine.

Il a ainsi annoncé dès 2018 son intention de résoudre la crise de la santé mentale qui touche les États-Unis en « démocratisant » l’accès aux soins médicaux. Il a donc procédé au rachat de la pharmacie en ligne PillPack, puis a développé Amazon Pharmacy.

En 2019, il a lancé Amazon Care, une plateforme en ligne qui propose un suivi médical complet aux employés d’Amazon, 24 heures sur 24 et 7 jours sur 7 par messagerie et chat vidéo. Pour cela, il a dû collaborer avec Ginger, un service internet de psychothérapie fourni par une application qui se présente comme « une solution globale à la santé mentale » avec « des soins médicopsychologiques à tout moment ».

En 2021, Amazon a fermé Amazon Care et lancé Amazon Clinic, une plateforme virtuelle de soins médicaux plus ambitieuses que la précédente – il a déjà été annoncé qu’il était prévu de la déployer sur tout le territoire américain. Contrairement à Amazon Care, Amazon Clinic est ouvert à tous. Pour l’utiliser, il convient simplement d’accepter « l’utilisation et la divulgation d’informations protégées relatives à la santé » – en d’autres termes, renoncer à son droit à la protection de la vie privée aux termes de la loi fédérale sur la portabilité et la responsabilité en matière d’assurance maladie (Health Insurance Portability and Accountability Act ou HIPAA). Une telle démarche permet à Amazon d’accéder aux données les plus intimes des utilisateurs (la légalité du procédé est en cours d’examen par la Commission fédérale du commerce (Federal Trade Commission ou FTC).

En février 2023, Amazon a enrichi son offre de soins médicaux en rachetant One Medical, une entreprise qui propose des soins de santé primaires en ligne et en personne via une application, dans plus de vingt villes et régions métropolitaines américaines. Mindset, l’une de ses gammes de services spécialisée dans la santé mentale, propose son aide virtuelle avec des séances collectives ou un coaching individuel en cas de stress, d’anxiété, de dépression, de THADA ou d’insomnie.

Outre Amazon Clinic et One Medical, Amazon a récemment élargi son offre de soins médicaux à destination de ses employés en collaborant avec Maven Clinic, la plus grande clinique virtuelle du monde pour les femmes et les familles. Ce partenariat permettra à Amazon, dont le but est de se développer dans cinquante pays en plus des États-Unis et du Canada, d’avoir un accès lucratif à certains des ensembles de données les plus privés et sensibles de Maven Clinic.

Les risques de voir de telles données tomber entre les mains d’entreprises commerciales qui, dans certains cas, les transmettront sans coup férir à des autorités locales ou nationales sont évidents : comme, par exemple, le cas de cette adolescente du Nebraska qui, après que Facebook et Google ont fourni à la police ses messages privés et ses données de navigation, a été condamnée en 2021 pour avoir violé la loi sur l’avortement de l’État…

La colonisation des données de santé mentale

La course effrénée d’Amazon, Méta, Apple et Alphabet pour s’implanter dans le domaine de la santé mentale va bien au-delà d’une simple rupture. L’ampleur de ce bouleversement doit être appréhendée dans le cadre d’une volonté d’annexer des ressources jusqu’alors inexploitées.

Sous le couvert d’entreprises visant à soulager l’instabilité mentale, une forme fondamentale d’appropriation des biens est en cours. Après tout, jusqu’à récemment, l’idée même que notre santé mentale (et l’ensemble des données qui y est associée) puisse être un actif commercial dans un bilan aurait paru étrange. Aujourd’hui, une telle réalité est presque banale. C’est un des aspects de ce que Nick Couldry et Ulises Mejias ont nommé le « colonialisme des données ».

Les quatre entreprises font partie d‘un secteur commercial plus vaste axé sur l’exploitation de nouvelles définitions de la connaissance et de la rationalité destinées à l’extraction de données. À travers l’accaparement habituel de données sensibles et de nombreux autres domaines sociaux (la santé, l’éducation, la loi, entre autres), nous nous dirigeons vers « la capitalisation sans limites de la vie », pour reprendre l’expression de Couldry et Mejias.

La normalisation des wearables comme outils destinés à l’individu, sous couvert de gérer sa santé (tant physique que mentale), fait partie du processus, en convertissant la vie quotidienne en un flux de données que l’on peut s’approprier à des fins lucratives. L’application « pleine conscience » d’Apple et « Log Mood » de Fitbit ne sont que deux exemples de la façon dont les GAFAM, après avoir colonisé le territoire du corps, jette leur dévolu sur la psyché.

À l’instar des précédentes étapes du colonialisme, la colonisation des données affecte de façon disproportionnée ceux qui sont déjà marginalisés. D’une part, les intelligences artificielles impliquées, qui reflètent les stéréotypes dominants, ont un parti-pris défavorable à l’égard des groupes marginalisés, comme l’a souligné un récent procès intenté à Apple pour « biais racistes » de l’oxymètre sanguin de son Apple Watch.

D’autre part, l’idée selon laquelle la santé mentale comme la santé physique relèvent avant tout de la responsabilité individuelle et de la gestion personnalisée assistée par la technologie ne tient aucun compte du fait que les problèmes de santé sont souvent liés à des questions systémiques – conditions de travail abusives ou malsaines, manque de temps et de ressources financières, etc. Le colonialisme des données masque ces facteurs en faveur de la course au profit, alors qu’il est plus que jamais nécessaire d’avoir un débat sur les facteurs socioéconomiques à l’origine de la crise de la santé mentale.

Alors même que ce changement structurel dans la gestion de notre corps et de notre esprit est en cours, il peut sembler paradoxal qu’une vision rigoureusement déterministe, asociale et individualisante quant à la manière dont peut être gérée la santé mentale soit mise en avant par les principaux extracteurs de données. Plus qu’un paradoxe, c’est peut-être l’alibi parfait pour détourner l’attention du pillage nos données.

Notes :

[1] Article originellement publié par notre partenaire Jacobin sous le titre « Big Tech Is Exploiting the Mental Health Crisis to Monetize Your Data ».

Nick Srniček : « On peut imaginer un agenda radical en matière de nouvelles technologies »

Nick Srniček - Le Vent Se Lève

Peut-on imaginer un agenda radical en matière de nouvelles technologies ? C’est là la ligne de fond du travail de Nick Srniček, co-auteur en 2013 du Manifeste accélérationniste, pamphlet qui avait secoué la gauche radicale, aujourd’hui senior lecturer au King’s College London, essayiste, et l’un des plus fins connaisseurs du capitalisme numérique. Entre économie politique de l’IA, stratégie politique et fin du travail domestique, il renouvelle la critique des technologies numériques et œuvre à formuler un agenda émancipateur. Entretien par Maud Barret Bertelloni.

En 2013, deux doctorants londoniens secouaient la gauche radicale en publiant le Manifeste accélérationniste, texte dans lequel ils incitaient la gauche à sortir de l’impasse politique et écologique en se réappropriant les technologies et les formes d’organisation capitalistes à des fins d’émancipation. Accusés de techno-utopisme par leurs détracteurs, qui lisaient dans le Manifeste une invitation à accélérer le techno-capitalisme global pour en provoquer l’effondrement ; attaqués par les partisans de la décroissance qui ne voyaient dans leur proposition qu’une énième variante du productivisme, Nick Snriček et Alex Williams défendaient que c’est précisément à l’échelle du capitalisme que ce dernier peut être dépassé. Sortant de son passéisme et de son refus des techniques et des organisations, la gauche peut réorienter l’infrastructure matérielle du capitalisme, se réapproprier le progrès scientifique et technologique et doit penser la stratégie et les institutions pour ce faire.

Dix ans après le Manifeste, Nick Srniček compte parmi les plus fins économistes politiques du capitalisme numérique. Capitalisme de plateforme, publié en 2017, conceptualisait les plateformes comme les nouvelles formes d’organisation du capitalisme dont la singularité tient aux moyens sociotechniques d’intermédiation par le biais des données. Par-delà les promesses de l’économie numérique, il insérait ce modèle dans la longue histoire du capitalisme post-fordiste. Il travaille aujourd’hui sur l’économie politique de l’intelligence artificielle et, loin des discours imprégnés de craintes et de promesses, en avance une critique qui souligne l’importance du travail et des infrastructures dans la production de l’IA et en illustre les implications géopolitiques.

Son dernier ouvrage, écrit avec la théoricienne féministe Helen Hester, After Work : A History of the Home and the Fight for Free Time, porte sur les technologies domestiques et leur fausse promesse de libérer du temps de travail. Si, au fil des innovations, la charge de travail domestique n’a pas diminué, c’est qu’il faut interroger la culture domestique et parvenir à transformer l’organisation matérielle de la vie quotidienne. Des plateformes aux technologies domestiques, de l’IA à ses infrastructures, Nick Srniček renouvelle la critique des techniques et œuvre à formuler un agenda émancipateur.

Entretien originellement publié sur AOC média.

LVSL – Après le Manifeste accélérationniste et Inventing the future (Verso, 2015), deux essais politiques et programmatiques sur l’avenir de la gauche, les technologies et la fin du travail, vous avez recentré vos recherches sur l’économie politique du numérique, du capitalisme de plateforme à l’industrie de l’IA. Quel fil relie ces différents travaux ?

N. S. – L’économie politique est arrivée dans mon travail en même temps que le Manifeste. Je m’occupais auparavant de philosophie et j’aurais pu rester un deleuzien si la crise de 2008 n’était pas arrivée. Mais tous les théoriciens critiques que je lisais n’avaient rien à dire de pertinent sur la crise financière, la plus grande crise du capitalisme global depuis la Grande Dépression. C’est alors que je me suis tourné vers l’économie politique. Le Manifeste a eu la même genèse : il est né de la frustration qu’Alex Williams et moi ressentions à l’égard de la gauche de l’époque, incarnée notamment par le mouvement Occupy Wall Street, né en réponse à la crise financière.

Son horizontalisme à tout prix, sa démocratie directe à tout prix, sa peur farouche de tout leadership, tous ces éléments nous semblaient absolument contre-productifs pour la construction d’un mouvement de gauche efficace. Les arguments du Manifeste n’étaient en fait que les réponses aux questions : que devrait faire la gauche ? Quelle est l’alternative à la situation actuelle ? Devrions-nous affirmer de grandes revendications ? Y compris sur la question technologique.

Le discours qui entoure les technologies est aujourd’hui imprégné de craintes au sujet des IA génératives. Dans les années autour de 2008, les craintes se concentraient autour de l’automatisation et de la surveillance. Notre position consistait alors à dire que les technologies ne doivent pas être craintes : elles peuvent souvent être réappropriées et constituer des opportunités émancipatrices. Il en va de même aujourd’hui. La question est de savoir comment il est possible de contrôler le développement technologique et l’orienter vers des possibles libérateurs.

LVSL -L’intelligence artificielle a largement défrayé la chronique ces derniers mois. Le succès de modèles comme ChatGPT ou DALL·E, rendus accessibles au grand public, a suscité d’importantes craintes autour de l’automatisation du travail. Leurs performances impressionnantes ont relancé les débats autour de l’intelligence des machines, ses risques et son éthique. Vous étudiez depuis longtemps l’économie numérique et ses innovations : quelle est votre lecture du phénomène ?

N. S. –Par-delà l’engouement médiatique, ce que je propose est d’opérer un geste marxiste tout à fait classique : plutôt que de se concentrer sur les craintes et les conséquences de l’usage de l’intelligence artificielle, il faut s’intéresser à ses conditions de production. Lorsque l’on s’intéresse à l’IA non pas à partir de ses conséquences, mais de sa production, on s’aperçoit qu’il s’agit d’une longue chaîne de travail qui peut être décomposée en quatre étapes : (1) la collecte des données, (2) l’étiquetage de ces données et leur nettoyage, (3) la construction du modèle ; ce n’est qu’alors qu’advient (4) le déploiement de l’intelligence artificielle comme produit pour les utilisateurs. Du côté des chercheurs comme des politiciens, toute l’attention critique s’est concentrée ces derniers temps sur les deux premières étapes, notamment sur la collecte massive de données. Elle requiert beaucoup de travail de nettoyage et de vérification des données et engendre d’importants problèmes de surveillance.

Mais cela ne représente qu’une partie de la chaîne de production. Prenez par exemple l’entraînement des modèles : c’est une étape qui requiert énormément de ressources de calcul. L’entraînement d’un seul modèle d’IA requiert un équipement de calcul massif, des dizaines de milliers de cartes graphiques et des ingénieurs très bien formés, qui sont d’ailleurs une ressource très rare pour les entreprises. Une entreprise comme Deep Mind[1] consacre d’ailleurs une très large partie de son budget pour garder ses meilleures têtes, avec des salaires qui se chiffrent en centaines de milliers de dollars. Tant que l’on ne change pas le regard sur l’IA et que l’on ne considère pas toutes les étapes de sa production, on ne pourra prendre en compte que les problèmes de données et de surveillance, alors que de nombreux enjeux de pouvoir, de propriété et de monopole se concentrent autour des équipements de calcul et des infrastructures (énergétiques, hydriques) qui permettent de les approvisionner.

LVSL – Si l’on s’intéresse aux producteurs d’IA, du moins du côté de la production des modèles, on s’aperçoit que les acteurs sont à peu près les mêmes qui, de l’économie du web au capitalisme de plateforme, ont été au cœur du capitalisme numérique : Google, Amazon, Microsoft, Facebook. L’industrie de IA que l’on voit prospérer aujourd’hui est-elle une ramification du capitalisme de plateforme ?

N. S. – Il y a une continuité claire entre le capitalisme de plateforme et l’industrie de production de l’intelligence artificielle. OpenAI, l’entreprise au cœur de l’engouement actuel autour de l’IA, dépend de Microsoft, qui l’a récemment renflouée à la hauteur de 10 milliards de dollars[2] et dépensé plusieurs centaines de millions de dollars pour construire un « superordinateur » pour OpenAI. L’intelligence artificielle est actuellement dominé par Microsoft, Google et Facebook en moindre mesure. Ce sont des entreprises qui ont acquis leur pouvoir comme plateformes, en recueillant les données des utilisateurs, ce qui leur permettait à l’époque de cibler leurs services, mais l’enjeu crucial aujourd’hui est ailleurs. Ce ne sont plus des plateformes au sens strict : ce sont désormais des fournisseurs d’infrastructures de calcul. C’est pour ça qu’Amazon s’emploie à devenir l’un des acteurs les plus importants de l’IA. En matière d’IA, Amazon n’a développé que quelques petits modèles, rien qui puisse concurrencer l’état de l’art ; ce qui importe cependant est qu’elle fournit aujourd’hui la majeure partie des ressources de calcul nécessaires à l’IA via Amazon Web Services, son service cloud. Même Facebook ne possède pas suffisamment de data centers et doit parfois s’appuyer sur Amazon pour entraîner ses modèles.

Les ressources de calcul, le cloud et leur infrastructure sont devenues le nerf de la guerre de l’IA et leur propriété est de plus en plus concentrée. On peut observer une dynamique semblable à celle des chemins de fer au siècle dernier : en raison des investissements massifs à pourvoir en amont, le secteur tech tend au monopole. Un processeur graphique de pointe coûte aujourd’hui autour de 40 000 dollars et il en faut des centaines, voire des milliers, pour entraîner les modèles d’IA. Cela signifie que c’est hors de portée pour la plupart des entreprises et pour la recherche publique.

LVSL – Est-ce cette concentration qui fait le pouvoir des GAFAM ? Paradoxalement, c’est une position que pourraient défendre une théoricienne libérale comme Shoshana Zuboff dans son travail sur le capitalisme de surveillance ou les commissaires européens, lorsqu’ils incitent à démanteler les géants du secteur tech.

N. S. – Il y a deux manières de considérer les monopoles. La première, qui est celle de la Commission européenne, est une approche anti-trust classique, selon laquelle la libre concurrence est le but ultime de la politique économique. L’objectif est donc d’avoir plusieurs Facebook, plusieurs Google, plusieurs de ces entreprises en compétition les unes avec les autres, avec l’idée que quelques bénéfices finiront par émerger d’un système compétitif. Je ne pense pas que ce soit vrai. Au contraire, c’est bien la concurrence qui produit des dommages. Ces entreprises rivalisent déjà pour accaparer les données, les utilisateurs et les financements. Cette concurrence les conduit à renforcer la surveillance, élargir la collecte massive de données, à chercher à affiner le profilage et les techniques pour garder leurs utilisateurs captifs, comme les dark patterns[3]. Ces problèmes n’ont rien à voir avec la taille de ces entreprises. Dans ce contexte, la concurrence n’est en rien une solution : c’est au contraire une partie du problème qui consiste à laisser ces plateformes dans les mains du marché. Ce n’est pas de concurrence dont on a besoin, mais de contrôle démocratique et populaire sur le développement et sur le déploiement de ces technologies. Ce contrôle est aujourd’hui dans les mains d’un type comme Sam Altman, le co-fondateur avec Elon Musk de OpenAI.

LVSL – Certains, comme l’économiste français Cédric Durand, soutiennent que l’essor des plateformes a fondamentalement changé le capitalisme, au point d’en marquer la fin. La captation de valeur par l’accumulation de données et le contrôle des infrastructures par une poignée de puissantes entreprises rapprocheraient l’économie numérique d’un système féodal, ou plus précisément : techno-féodal. Quelle est votre lecture des transformations de l’économie numérique ?

N. S. – Sans être un spécialiste des travaux de Cédric Durand, il me semble que sa thèse s’appuie sur la prémisse selon laquelle la dynamique du système économique serait portée non plus par le profit mais par la rente[4]. Je suis en désaccord avec cette prémisse : la rente n’est pas un phénomène extérieur au capitalisme. Marx n’aurait jamais été d’accord : il y a des centaines de pages dans le volume III du Capital sur la rente, sur les manières dont elle s’intègre à un système capitaliste et s’y trouve transformée. Évidemment, la dynamique d’une entreprise qui dépend de la rente diffère d’une entreprise plus classique qui dépend de l’extraction de profit. Malgré ces différences, toutes deux font partie du système capitaliste.

C’est d’ailleurs l’un de mes principaux arguments au sujet du capitalisme de plateforme. De nombreux auteurs ont voulu voir dans les GAFAM de nouveaux modèles économiques, voire de nouveaux modèles d’ordre social. Les optimistes comme Rifkin, Benkler ou Mayer-Schönberger avaient affirmé que l’on allait vivre dans une nouvelle économie du partage. Les pessimistes, comme McKenzie Wark, que l’on est sortis du capitalisme pour entrer dans une nouvelle techno-dystopie. Ce que j’ai essayé de montrer avec Capitalisme de plateforme, c’est que c’est toujours du capitalisme, mais avec une dynamique propre, gouvernée par la capacité d’intermédiation des plateformes.

Nous sommes toujours en plein capitalisme. La prominence du phénomène de la rente aujourd’hui peut plutôt être comprise comme le résultat d’un ralentissement du capitalisme. L’économie globale ralentit depuis plusieurs décennies, tout particulièrement à son centre. Des pays comme l’Inde et la Chine ont rapidement rattrapé les États Unis, mais ce n’est pas le cas de nombreux autres et la frontière de la croissance ralentit. Avec le ralentissement de la croissance économique, les entreprises se trouvent davantage incitées à capter qu’à créer de la valeur – comme la création devient de plus en plus difficile. Là où la thèse techno-féodale oppose rente et profit, je vois une opposition entre création et captation de valeur – mais cette captation de valeur demeure fondamentalement capitaliste.

Il y a évidemment une composante importante de rente dans l’économie et le capitalisme de plateforme en fait partie, mais ce n’est pas hors capitalisme. Les caractéristiques saillantes du capitalisme, notamment l’accumulation, n’ont pas disparu. On assiste plutôt à une lutte acharnée pour s’emparer d’une mise de plus en plus maigre. Et par-delà la prominence de la rente, je pense que la stagnation a aussi récemment beaucoup influencé les politiques industrielles et déterminé le retour de la concurrence géopolitique.

LVSL – Dans quel sens ?

N. S. – La période néolibérale a été marquée par l’abandon de la politique industrielle et de ses implications géopolitiques. Elle n’a évidemment jamais complètement disparu, mais elle était déconsidérée de manière idéologique et peu discutée. Aux États-Unis, c’est le capital-risque qui a relevé le financement du secteur technologique, au moment du retrait du financement de l’État. C’est devenu le premier canal de financement des entreprises tech, à partir de l’ère « dot.com[5] ». Il s’agissait à l’époque de grands fonds d’investissement qui consacraient leur surplus à des investissements risqués par le biais de angel investors. Aujourd’hui au contraire, le capital-risque est aussi une ramification des plus grandes entreprises technologiques comme Google et Amazon ; il a permis leur essor et elles ont souvent chacune leurs propres fonds.

C’est tout à fait différent en Chine, où l’industrie est massivement soutenue par l’État. La politique industrielle volontariste de la dernière décennie a mené au développement de l’industrie des semi-conducteurs et, de manière significative, d’importantes plateformes domestiques. Huawei est un excellent exemple : c’est un leader mondial en standards technologiques, pour la 5G notamment. On les oublie souvent, mais les standards techniques sont des dispositifs cruciaux, qui permettent d’asseoir une influence géopolitique majeure.

En raison du succès des politiques industrielles chinoises et de la stagnation générale de l’économie, les États-Unis ont dû entrer dans la danse et le Chips Act[6] en est l’exemple le plus flagrant. Les US cherchent explicitement à s’autonomiser à l’égard de la Chine, qui soutient ses entreprises nationales, avec un intérêt géopolitique clair. La première entreprise productrice de semi-conducteurs, TSMC, est basée à Taïwan, qui est actuellement une poudrière géopolitique. Le Chips Act était une tentative de s’assurer une forme d’autonomie sur la chaîne de production, surtout après avoir vu pendant le Covid-19 la fragilité des chaînes d’approvisionnement. Actuellement, la maigre politique industrielle américaine est entièrement portée par la concurrence géopolitique.

LVSL – Et en Europe ?

N. S. – L’Europe voudrait avoir une industrie de l’IA qui puisse concurrencer les États Unis et la Chine. C’est impossible pour plusieurs raisons, parmi lesquelles figurent le manque de plateformes et de fournisseurs cloud d’envergure. Le vieux continent peut se concentrer sur le secteur applicatif, avec différentes start ups, mais du point de vue de la chaîne de valeur, c’est un secteur qui capte très peu de valeur. Si l’on accepte l’hypothèse de la centralité croissante des infrastructures, on peut conclure que les fournisseurs cloud vont en ressortir les plus puissants et aucun n’est en Europe. Cela ne signifie pas qu’aucune application utile ne pourra émerger de l’Europe. Mais contrairement aux promesses, le retard technologique européen ne pourra pas être comblé.

LVSL – En 2013, le Manifeste accélérationniste faisait controverse en prenant à contrepied les positions sociales-démocrates autant que décroissantes en matière de nouvelles technologies, accusées d’être « impuissantes et inefficaces ». Il y avait dans la partie programmatique du Manifeste un passage énigmatique, une invitation à œuvrer pour une « hégémonie sociotechnique de gauche ». Qu’est-ce que cette proposition ?

N. S. – L’hégémonie est le gouvernement par le consentement plutôt que par la coercition. C’est ce qui permet d’inclure les personnes dans un ordre social particulier et de leur faire accepter par différents moyens. Traditionnellement, l’étude de l’hégémonie se concentre sur ses aspects sociaux et discursifs du système, sur l’idéologie et sur tous les systèmes d’incitation qui permettent de convaincre les personnes à demeurer loyales à un système social existant. L’aspect sociotechnique de l’hégémonie concerne au contraire sa dimension matérielle et technique, la manière dont toutes les infrastructures, les outils, les technologies construisent autour de nous un ordre social. Pour donner un exemple très simple : la maison familiale individuelle construit la cellule familiale nucléaire en la naturalisant.

Elle répartit les personnes en petites maisons mono-familiales et les sépare de fait en petits foyers nucléaires. Cela fait partie de l’hégémonie, car l’architecture naturalise le système familial et social. Lorsque Alex Williams et moi invoquions une hégémonie sociotechnique de gauche, c’était pour dire qu’il faut prendre cette infrastructure très au sérieux. Il faut aussi s’intéresser à la conception de ces technologies et à leur déploiement. Tous ces aspects techniques doivent faire partie d’un agenda de gauche, on ne peut pas se limiter à des arguments théoriques ou à de meilleurs programmes de politiques publiques. La gauche doit investir la culture matérielle autant que la sphère des idées. Et cela concerne bien évidemment les nouvelles technologies.

LVSL – En quoi consisterait un agenda émancipateur en matière d’IA ?

N. S. – C’est très difficile de proposer un agenda émancipateur en matière d’IA, telle qu’elle est développée aujourd’hui. Il y a actuellement deux approches dominantes, toutes deux insuffisantes. La première propose de « démocratiser » l’IA en garantissant l’usage à tout le monde : le fait de pouvoir accéder librement à ChatGPT depuis un ordinateur équivaudrait à la démocratisation de ces technologies. Cela n’a évidemment aucun sens du point de vue progressiste, car la propriété et la conception des modèles demeure dans les mains de Microsoft et de OpenAI, qui captent toute la valeur issue de ces systèmes. Le fait que tout le monde puisse y accéder ne change ni le développement des technologies ni les structures de pouvoir desquelles elles sont issues.

L’autre alternative, plus intéressante, est celle du développement en open source de plus petits modèles. La plupart des modèles dits « de fondation » comme GPT4 ou DALL-E [modèles de grande taille de génération de texte ou d’image, qui peuvent être adaptés par la suite à un large éventail de tâches, n.d.r.] sont des modèles propriétaires, au sens où ils sont la propriété des entreprises qui les ont développés. Il existe au contraire d’autres modèles librement accessibles, qui peuvent être librement employés et modifiés. L’architecture des modèles, leurs données d’entraînement, les poids de leurs paramètres, tout est à disposition et utilisable pour quiconque souhaite s’en servir.

Et cela pourrait représenter un vrai changement : les modèles actuels ont coûté des centaines de millions de dollars pour être entraînés. Tant que c’est la seule manière de produire de l’IA de pointe, la recherche publique ne pourra jamais suivre. L’open source montre que l’on pourrait s’en tirer de manière beaucoup plus économique. S’il est possible de ré-entraîner des modèles sur une poignée de processeurs graphiques, s’il est (presque) possible de répliquer ChatGPT pour quelques centaines de dollars, le modèle économique de OpenAI peut être entièrement détruit. L’open source peut en ce sens encore représenter une menace pour le pouvoir de l’industrie technologique.

Le problème, c’est que cet open source dépend à son tour des GAFAM. Dans le domaine de l’IA, il s’appuie sur les gros modèles entraînés par ces entreprises. Une fois qu’ils sont entrainés par les GAFAM, le développement en open source arrive en bout de course pour leur réglage fin [le fine-tuning n.d.r.]. De plus, le travail en open source s’appuie sur les infrastructures possédées par les GAFAM pour entrainer et faire fonctionner ses modèles à l’échelle. Toutes les entreprises qui les développent en open source ont des partenariats avec les GAFAM et continuent d’en être dépendantes. L’open source pourrait permettre de ralentir la concentration de l’IA, mais non de s’autonomiser à l’égard des GAFAM. Difficile de dire, dans les deux cas, quel serait un scénario émancipateur.

LVSL – Ces technologies numériques – et l’IA n’en est qu’un exemple – s’appuient sur la collecte massive de données des utilisateurs, donc sur une forme de surveillance. Plus fondamentalement, elles requièrent une grande quantité de ressources naturelles et énergétiques pour leur fonctionnement. Dans un contexte d’urgence climatique, un agenda technologique de gauche est-il compatible avec le maintien de telles technologies et infrastructures ?

N. S. – Les ressources et l’énergie que l’on peut employer sont évidemment limitées à un temps t. Mais en même temps, le développement technologique peut permettre de repousser ces limites. Notre capacité à employer l’énergie et les ressources de manière soutenable s’améliore, surtout si l’on encourage le développement technologique dans cette direction. Ces limites devraient etre conçues comme fixes à court-terme et variables à long-terme. Un deuxième argument consiste à dire que ce n’est pas parce qu’une technologie exige une quantité importante de ressources qu’il faut automatiquement y renoncer. Les bénéfices d’une infrastructures à haut impact sur l’environnement pourraient consister à limiter l’usage de ressources naturelles dans un autre contexte.

C’est là l’une des questions que devra se poser une société future. Les ressources requises pour le fonctionnement de l’IA valent-elles les bénéfices qu’elle peut fournir ? Je renvoie la question aux générations futures parce que les bienfaits de l’IA vont avant tout les concerner. Il faut évidemment baisser la consommation de ressources naturelles, mais si l’on jugeait raisonnable d’allouer, mettons, 10 % de la consommation énergétique mondiale aux nouvelles technologies, on pourrait alors s’interroger pour savoir si les bénéfices de l’IA sont suffisants pour leur consacrer une part du budget énergétique.

Cette position peut sembler opposée à la plupart des réflexions écosocialistes, mais ce n’est pas mon point de vue. La vraie question – c’est là notre point commun – est de savoir comment on peut acquérir le contrôle collectif sur la direction du développement technologique, comment on peut en contrôler démocratiquement le déploiement et l’usage. Le problème n’est pas celui de la high tech en opposition à la low tech. Il est possible, par exemple, de faire de l’agriculture locale et à petite échelle de manière très high tech.

L’enjeu est à chaque fois de savoir comment choisir les technologies appropriées à un contexte donné et de garantir qu’elles soient efficaces du point de vue des ressources consommées et des objectifs définis collectivement par une société. Dans un monde où l’on essaie simultanément de réduire l’impact environnemental et le temps de travail, il y a toute une série de contraintes complexes qu’il faudra prendre en compte dans l’imagination d’une société future et de ses technologies. L’important est que nous puissions choisir collectivement.

LVSL – Mais de quelles institutions disposons-nous pour décider collectivement sur la culture matérielle et technique ?

N. S. – Les approches dominantes pour gouverner la culture technique sont aujourd’hui celles de la démocratie représentative et de la technocratie. Dans la première des configurations, les politiciens élus lors des élections prennent des décisions en vertu de leur fonction de représentation politique. L’autre approche est celle d’inspiration technocratique, de plus en plus répandue, selon laquelle les experts techniques sont les plus à même d’en gouverner l’usage. Les ingénieurs en machine learning sauraient, en vertu de leurs compétences de calcul, gouverner le développement technique de manière éclairée. Le problème étant qu’ils ne sont pas forcément compétents pour saisir les biais sociaux et économiques de leurs propres systèmes.

Je ne veux pas dire par là que l’expertise technique n’a pas d’importance, le problème n’est d’ailleurs pas là actuellement. Aujourd’hui, les gouvernements laissent les entreprises dicter les grandes lignes de régulation, comme c’est le cas actuellement avec l’IA, ou bien décident de réguler les technologies en faisant fi de toute expertise technique. Les tentatives d’encadrement du chiffrement bout à bout en sont un excellent exemple : les gouvernements cherchent à tout prix à imposer l’insertion de back doors[7], alors que les experts expliquent qu’une porte d’entrée annule tout le principe du chiffrage bout à bout…

LVSL – Il existe cependant de nombreux exemples d’initiatives politiques en matière de culture technique, autant du côté des institutions (conventions citoyennes, autorités indépendantes et de régulation) que du côté des ONG et des mouvements sociaux, où se mélangent expertise technique et savoir-faire politique. Ne peut-on pas s’appuyer sur ce déjà-là pour imaginer les institutions pour gouverner la culture technique ?

N. S. – Je vais devoir botter en touche : je ne sais pas faire du design d’institutions. Je peux donner quelques grands principes qui pourraient guider ce genre d’initiative, mais c’est quelque chose qui va devoir être inventé par-delà le capitalisme. Le problème avec le capitalisme, c’est que tous les problèmes importants sont hors de portée, le changement climatique en premier lieu. Le développement technologique est guidé par des impératifs structurels. On a beau savoir ce qu’il faut faire pour arrêter le changement climatique, le capitalisme ne va pas le permettre.

Peu importe que les PDG eux-mêmes le souhaitent du fond de leur cœur : les actionnaires ne le permettront pas. Il en va de même avec les décisions au sujet du développement technologique : il est porté par la concurrence et par le profit plutôt que par une quelconque réflexion rationnelle.

LVSL – Un raisonnement maximaliste de ce genre ne risque-t-il pas de passer sous silence la pluralité de pratiques qui existent déjà, tant du point de vue de la lutte contre la crise climatique que des pratiques de réappropriation des techniques ?

N. S. – Nous ne sommes évidemment pas dans un moment révolutionnaire. Le mieux que nous puissions faire actuellement est probablement de cultiver ces pratiques et de les institutionnaliser, de sorte à leur garantir une vie par-delà leur immédiateté. C’est ce qu’Alex Williams et moi appelions dans Inventing the Future une « politique anti-localiste » (anti-folk politics). L’idée n’est pas de critiquer le localisme ou l’horizontalisme en soi, mais de rappeler qu’ils sont insuffisants pour soutenir un mouvement sur le long terme.

Chaque mouvement a ses pratiques et ses innovations, mais lorsque l’on refuse de construire des systèmes, comme c’était le cas de Occupy Wall Street en 2009, on risque de perdre tout ce qui a été inventé lorsque la ferveur retombe. J’insiste sur Occupy Wall Street parce que c’était l’un des mouvements les plus importants de la gauche occidentale anglophone de notre siècle et probablement celui où cette limite était la plus flagrante. Mais cela pourrait s’appliquer aux mouvements anti-globalisation des années 2000 et probablement à de nombreux autres mouvements.

LVSL – Vous avez récemment publié un nouveau livre avec Helen Hester, After Work : A History of the Home and the Fight for Free Time, qui revient sur l’histoire des technologies domestiques et la lutte pour la fin du travail.

N. S. – Notre livre part du paradoxe mis en avant par la théoricienne féministe Ruth Schwarz Cowan au sujet du travail domestique. Dans More Work for Mother ?, elle démontrait que malgré la révolution domestique, malgré les lave-linges, les lave-vaisselles, les aspirateurs et tous les autres équipements ménagers, les femmes au foyer accomplissaient toujours autant de travail en 1970 qu’au début des années 1900. La technologie n’a pas beaucoup changé le temps de travail à la maison. La grande question étant : comment est-ce possible ? Dans le livre nous nous intéressons aux structures sociales et matérielles qui continuent de nous faire faire tout ce travail.

Aujourd’hui, il en va de même des objets connectés et tous les gadgets domestiques que nous accumulons dans nos maisons, qui ne font que déplacer la charge de travail domestique qui nous incombe. Je pense fondamentalement que les technologies peuvent nous libérer du travail. Historiquement, elles ont dégagé énormément de temps libre (potentiel). La question est toujours celle de savoir qui contrôle le développement et le déploiement de ces technologies, pourquoi et comment elles ne réduisent pas le temps de travail de production et de reproduction.

LVSL – Et dans le livre, vous mettez en avant un véritable programme politique.

N. S. – Nous essayons de dégager trois grands principes de réorganisation du travail domestique et de ses technologies. Le premier principe est celui de soin communautaire (communal care) : en s’éloignant du modèle de la famille nucléaire comme lieu du soin, on peut mutualiser la charge de travail qui pèse individuellement sur chaque famille. Cela évidemment développer des crèches et des gardes d’enfants publiques, ouvertes sept jours sur sept – et je sais qu’en France c’est un système bien mieux développé que dans nombreux autres pays – ainsi que d’autres efforts pour partager la charge du travail reproductif.

Le second principe est celui du « luxe public » (public luxury), qui consiste à garantir l’accès à des services de luxe, trop chers pour des familles individuelles, mais dont on peut mutualiser les coûts et la dépense énergétique. L’exemple le plus simple est celui d’une piscine : c’est un bien insoutenable de tous points de vue pour une famille individuelle, mais qui peut avoir un sens s’il est partagé. Il en va de même pour les bibliothèques, les ludothèques et tous les espaces récréatifs. Enfin, le troisième principe est celui de la souveraineté temporelle, de prise de décision démocratique en matière de développement de la culture matérielle et technique.

Cela concerne notamment la conception des espaces de vie et de la manière dont ils peuvent permettre la diminution de la charge de travail domestique, mais aussi la constitution d’institutions qui nous permettent de déterminer ce que l’on souhaite faire de notre temps libre.
La plupart de ces initiatives existent déjà, nous proposons de les potentialiser. Souvent, des initiatives locales qui essaiment un peu partout ne se conçoivent pas comme reliées par un projet politique. L’une des manières de leur donner de la force est de leur permettre de se reconnaître dans une lutte plus large. Se battre pour sauver une bibliothèque municipale, est-ce une initiative locale ou une lutte plus large pour garantir le luxe public ? Le nôtre est un travail d’articulation de pratiques, au sens de Ernesto Laclau[8] et c’est ce à quoi nous essayons de participer avec ce livre.

NDLR : parmi les livres traduits en français de Nick Srniček figurent le Manifeste accélérationniste. Accélérer le futur : Post-travail & Post-capitalisme (Cité du design IRDD, 2017) et Capitalisme de plateforme (Lux, 2018).

Notes :

[1] La branche d’intelligence artificielle de Google.

[2] Voir au sujet de OpenAI l’article de Valentin Goujon, « OpenAI, une histoire en trois temps », AOC, 23 mai 2023.

[3] Les dark patterns sont les interfaces conçues pour solliciter les utilisateurs et les faire rester plus longtemps sur un service, par exemple en rendant moins visible les boutons pour refuser les cookies ou la publicité.

[4] La rente est un revenu perçu pour la propriété d’une terre, d’un actif ou d’une infrastructure, en opposition au profit généré par l’exploitation du travail. La proéminence de la rente dans l’économie numérique (brevets, captation de données, contrôle sur les technologies) marquerait ainsi la fin du capitalisme défini par l’exploitation du travail et l’extraction de profit.

[5] Cela correspond au développement de l’économie du web dans les années 1990, porté par Ebay, Google, Amazon, etc.

[6] L’acte américain qui vise à soutenir la production domestique de semi-conducteurs aux États-Unis.

[7] Autrement dit, une « porte dérobée », une clef secrète qui déjoue le chiffrement.

[8] Théoricien néo-marxiste, dont la stratégie politique consiste à articuler différentes luttes, dans une identité politique qui en préserve les singularités.

De quoi les data centers sont-ils le nom ?

© Rosa Menkman

Depuis quelques années, le système énergétique français est bouleversé par l’arrivée massive et sans précédents des opérateurs privés du numérique, qui transforment l’espace, les réseaux énergétiques et les consommations. C’est à ce « continuum électrico-numérique » que Fanny Lopez s’intéresse dans son dernier ouvrage À bout de flux (Éditions divergences, octobre 2022). L’historienne de l’architecture et des techniques revient sur le développement de ces infrastructures numériques, à la fois omniprésentes et invisibles, et sur les risques liés à leur insertion dans les télécommunications et infrastructures énergétiques nationales.

Ces données qui modifient le territoire

Moins visibles que les autres infrastructures de télécommunication, les centres de données, enjeu de stockage industriel et de traitement des données, sont le signe du déploiement sans précédent des infrastructures numériques. Fanny Lopez, auteure d’un rapport pour l’Ademe intitulé « L’impact énergétique et spatial des infrastructures numériques » (2019) revient dans son dernier ouvrage, sur leur insertion à la fois territoriale et énergétique dans les réseaux des télécommunications.

À bout de flux, Fanny Lopez ((Divergences, octobre 2022)

Accompagnant les besoins nouveaux des citoyens, mais surtout des entreprises, le nombre et la superficie des centres de données a explosé en quelques années, reconfigurant les territoires. La réduction du prix des câbles – les coûts ayant été divisés par dix pour une capacité multipliée par 50 en vingt ans – a en effet conduit à l’hyper-concentration de ces centres de données et au développement monofonctionnel des territoires, un phénomène que la maîtresse de conférence qualifie d’« effet magnet ». L’étude Data Gravity de l’Université de Berkeley[1] montre ainsi que les données échangées par les 2000 plus grandes entreprises mondiales s’accumulent autour de 50 villes dans le monde. En France, RTE prévoit une multiplication par trois de la consommation des centres de données à l’horizon 2050[2].

Spatialement, cette hyper-concentration se traduit par l’émergence de grandes banlieues autour des grands hubs mondiaux, à l’instar de Ashburn en Virginie, au Nord de Washington qui compte 270 centres de données consommant 2000 MG soit l’équivalent de 200 centrales nucléaires.  Économiquement, le développement de ces « zones numériques monofonctionnelles » est corrélé à une tendance à la monopolisation croissante des acteurs. En 2019, Microsoft comptait 115 partenaires de centres de données, et 20 en 2022.  

Éclairer la matérialité du grand système technique électrique 

Ce renforcement économique et spatial de l’hyperconcentration des données incite Fanny Lopez à produire une déconstruction méthodique des présupposés idéologiques et technologiques qui guident ces processus historiques. L’objectif de l’auteure est de mettre en lumière les conséquences spatiales, environnementales, urbanistiques des « grands systèmes électriques » et les enjeux et perspectives inhérents à ces infrastructures, à l’heure où elles doivent être renouvelées. Selon l’auteur « Éclairer la matérialité du grand système électrique, c’est tenter de recomposer une intelligibilité technique. S’intéresser à la transmission et à la distribution, c’est revenir sur la forme et l’échelle des mailles du réseau et donc questionner les fondamentaux de l’urbanisme des flux : rapport centre-périphérie, production-consommation, densité-étalement, phénomènes de métropolitisation et de hubs ». En d’autres termes, la considération des effets de ces infrastructures invite mécaniquement à une réflexion critique sur l’imaginaire qui sous-tend ce qu’elle nomme « le productivisme des flux ». 

« Avec la digitalisation, les infrastructures numériques et électriques tendent à se confondre dans un continuum électrico-numérique » 

L’électricité a permis l’essor des télécommunications, en assurant la mobilité de toutes les machines. Mais c’est avec l’arrivée de l’informatique couplée aux possibilités permises par l’électricité qu’on assiste à une convergence des machines, et à une fusion de celles-ci dans le cadre d’un système d’interconnexion croissant. Dans la continuité de la pensée du philosophe Günther Anders, Fanny Lopez revient sur cette nouvelle « ontologie des appareils », avec l’idée que le développement sans limite de ces machines fait de l’homme un prolongement de celles-ci et non l’inverse. Ainsi, l’électricité couplée à l’outil numérique forme une « méga-machine » (Günther Anders). Du fait de l’interconnexion de celles-ci, les machines s’autorégulent et précèdent l’intervention humaine. Les échanges « d’individus à machine » (échanges de mails, envoi de données par smartphone, etc.) ne représentent que 20 % des flux de données, tandis que 80 % de la création de données est produite par les entreprises. 

 « Il n’y a pas de problèmes de production d’électricité en France »

Contrairement à l’opinion courante selon laquelle la numérisation des activités économiques et administratives permettrait d’alléger la facture énergétique de la planète, on constate au contraire que   les infrastructures numériques sur lesquelles reposent les services numériques pèsent de plus en plus lourd sur nos infrastructures électriques et, partant, sur notre consommation énergétique globale. En effet, les grands opérateurs privés très énergivores se rattachent au réseau de distribution ou de transport électrique selon l’importance de leur consommation pour leur usage quotidien, tout en s’assurant une production électrique de secours au besoin. Les centres de données disposent de générateurs de secours pour leurs besoins propres, en cas de panne sur le réseau électrique. Ainsi constate-t-on avec la digitalisation à la fois la hausse de la consommation de l’électricité et une redondance infrastructurelle, alors même que les opérateurs publics n’ont pas de leviers d’action vis-à-vis de cette demande croissante. 

D’un côté, les limites de notre modèle énergétique semblent évidentes. À l’heure actuelle, les réacteurs nucléaires vieillissent, l’EPR de Flamanville ne fonctionne toujours pas. De l’autre, tous les grands scénarios énergétiques présentées par RTE à l’horizon 2050 prévoient l’augmentation de la production d’électricité en lien avec l’électrification des usages. À l’occasion de la présentation des scénarii « Futurs énergétiques 2050 », les dirigeants de RTE insistaient en outre sur la nécessité de restructurer les réseaux à court terme, en s’appuyant sur les outils numériques pour optimiser le réseau électrique. L’idée étant que le numérique assure une utilisation plus flexible de l’électricité, notamment avec les « smart grid » et l’Intelligence artificielle. Pour Fanny Lopez, cela revient à dire qu’« avec la digitalisation, les infrastructures numériques et électriques tendent à se confondre dans un continuum électrico-numérique ». 

« L’hégémonie technicienne repose sur la croissance et le renforcement du grand système électricité comme unique perspective »

Les investissements économiques importants déployés pour soutenir ce modèle de grand système technique centralisé hérité du début du siècle semblent pourtant de plus en plus incompatibles avec les différentes limites planétaires. L’amélioration de l’efficacité énergétique ne garantit pas à l’heure actuelle des effets équivalents en termes des émissions de gaz à effet de serre à ceux qu’auraient des modifications structurelles des modes de productions qui les conditionnent et les déterminent. Notre modèle de production énergétique reste adossé à la production massive de données, encouragée par des acteurs privés et conduit à l’explosion de ces data centers qui transforment nos territoires. Ainsi, « l’hégémonie technicienne repose sur la croissance et le renforcement du grand système électricité comme unique perspective ».

Tandis que le débat public énergétique tourne généralement autour des sources d’énergie et dudit « mix énergétique » sans jamais porter sur les infrastructures en elles-mêmes, Fanny Lopez soutient que « sortir de ce cycle infernal, c’est assumer une discussion sur la transformation de toute la structure du réseau, depuis la production jusqu’à la distribution ».  

De la privatisation croissante des infrastructures

La crise de notre système électrique et énergétique actuel met en évidence les limites de notre modèle, et invite à prendre pleinement la mesure de la déstabilisation des territoires par l’arrivée massive des opérateurs numériques privés : « Alors que les politiques urbaines et les politiques publiques ont fait de la ville connectée, autrement appelé smart city, un objet de prospective urbaine, la réalisation de l’infrastructure reste aux mains d’une industrie privée poussée par la fièvre connectique et les parts de marché associées au grands projet de l’interconnexion des machines dont le nombre, la consommation électrique et le poids environnemental ne pourront se perpétuer, alors même que le cercle de la logique technologique du capitalisme tardif rend la technique de plus en plus étrangère aux besoins fondamentaux ». 

Le déploiement des infrastructures numériques se réalise aujourd’hui sous l’emprise d’entreprises privées. Or, comme le montre l’auteur, l’ampleur des infrastructures des télécommunications a été rendue possible par d’importants investissements publics. Dans le secteur des télécommunications, l’inflexion libérale a été particulièrement manifeste malgré l’invisibilité de ces infrastructures qui nous empêche de prendre la mesure de l’évolution du déploiement de celles-ci.

Or la dynamique actuelle des infrastructures du numérique se révèle de plus en plus incompatible avec les missions remplies par les infrastructures des services publics, compris au sens large comme un « objet socio-technique dont l’usage partagé est réglementé dans une perspective d’accessibilité et de respect de l’environnement » (p. 33). En effet, les infrastructures numériques captent l’énergie des infrastructures publiques selon le principe de la file d’attente qui prévoit que le premier arrivé est le premier servi sans hiérarchisation ni priorisation des usages. En outre, la consommation électrique et numérique est favorisée, dans le cadre de ce que Günther Anders appelle la « mégamachine » susmentionnée, sans qu’une optimisation des usages ne soient envisagée à l’aune des impératifs climatiques. Pour ces raisons, Fanny Lopez estime ainsi que « les réseaux numériques se développent dans un « âge post-service public ».

 « Changer de société, c’est changer d’infrastructure » (Castoriadis)

À l’heure où nous avons de nombreux débats publics autour des sources d’énergie et d’électricité, peut-être devrions nous réfléchir aux systèmes mêmes de nos infrastructures, caractérisées par leur interconnexion pour repenser des reconfigurations structurelles. C’est en tout cas ce à quoi ce livre nous invite. 

À la fin de l’ouvrage, Fanny Lopez propose ainsi des pistes de réflexion pour penser une alternative à notre modèle actuel de réflexion sur les infrastructures. Contre l’idée selon laquelle remettre en question notre modèle imposerait d’en passer par des positions technophobe ou réactionnaire, l’auteure avance des éléments de résolution pour reconsidérer notre technostructure électrique. Ce qui suppose d’éviter deux écueils. Le champ de cette réflexion est en effet selon elle considérablement limité, du fait de deux conceptions antinomiques de la technologie. L’imaginaire technique est soit cantonné à l’ « hégémonie culturelle libérale » très techno-solutionniste, soit restreint à l’« imaginaire effrondiste ».

À rebours de ces conceptions réductrices, il faudrait selon elle réinvestir l’imaginaire des machines, pour nourrir l’idéal d’un réseau efficace et garant d’une égale distribution des services sur l’ensemble du territoire. Pour ce faire, elle invite à considérer deux échelles de gouvernance, nationale et communale : « Parvenir à re-utopiser la grande échelle infrastructurelle tout en tenant la technique proche serait un défi de l’hypothèse redirectionniste ». Cette dialectique du proche et de la grande échelle invite ainsi à penser des infrastructures « habitables », proches des besoins et soucieuses de prévenir les risques environnementaux. 

Les recettes des GAFA pour « résoudre » la pandémie

© Marielisa Ramirez

Apple, Facebook et Google se présentent depuis quelques temps comme les « sauveurs dans la tempête », qui profitent de leur quasi-monopole sur les données informatiques pour oeuvrer à la résolution de la pandémie. Les GAFAM s’assurent ainsi un formidable accroissement de leur pouvoir en développant une forme de « biopolitique » de plus en plus liée à la datafication. Par Anna-Verena Nosthoff et Felix Maschewski, enseignants à la Freie Universität de Berlin et auteurs de Die Gesellschaft der Wearables – Digitale Verführung und soziale Kontrolle (« La société des wearables – Tentation digitale et contrôle social »). Traduit par Judith Kleman et Simon Darjesson.


Le 10 avril, Apple et Google déclaraient simultanément sur leurs sites Internet qu’il n’y avait « jamais eu meilleure opportunité » pour « travailler à la résolution de l’un des problèmes les plus urgents du monde ».

Les deux géants monopolistiques ont annoncé développer conjointement une plateforme pour le contact tracing – une technologie de suivi par smartphone des contaminations au Covid-19. L’objectif, promettent-ils, est « d’utiliser le pouvoir de la technologie (…) pour aider des pays dans le monde entier ». Autrement dit, les ingénieurs californiens s’arrogent un nouveau rôle : sauver l’humanité, la libérer du mal. Un rôle qui s’inscrit dans la devise de Google : Don’t be evil (« Ne soyez pas malveillants »).

À peine quelques semaines plus tôt, le président des États-Unis faisait faisait part de sa pleine confiance sur le sujet. « Je tiens à remercier Google », déclarait Donald Trump lors d’une conférence de presse. Sa gratitude s’adressait en particulier aux « 1700 ingénieurs » qui développaient un site destiné à réaliser un testing du Covid-19 à grande échelle. Le président se disait lui aussi convaincu que ce serait une aide précieuse pour toute la population et pour le monde entier : « We cover this country and large part of the world » (« Nous couvrons ce pays et une grande partie du monde »)

Dans le jargon de Google, cela se dit ainsi : « We’ve mapped the world. Now let’s map human health » (« Nous avons cartographié le monde. L’heure est venue de cartographier la santé humaine  »).

Peu importe le caractère excessif d’une telle promesse et le fait que le site Internet ne s’est révélé tout au plus être qu’une ébauche brouillonne ou que la large panel du testing ait relevé plus de la lubie qu’autre chose. C’est le message ici qui est important : en cas de crise pandémique aigüe, la Maison Blanche mise sur l’élite de la high tech au point qu’elle excède la vision de la faisabilité digitale de cette élite elle-même. L’important est la célébration unanimiste d’une idéologie qui fait de la technologie l’outil ultime de la résolution des problèmes – ce qu’on appelle le solutionnisme.

C’est une grande lacune de la souveraineté des États qui apparaît ici à la faveur de l’état d’urgence virologique – et les sociétés de la Silicon Valley mettent tout leur poids et toute leur autorité pour la combler. Elles montent au créneau, en effet, sans aucune naïveté : elles s’intéressent au secteur de la santé depuis des années déjà, elles y ont déjà accumulé une expertise dans le traçage de données par le moyen des smartphones et autres wearables, comme on appelle toute technologie portable, connectée et destinée à être portée sur soi, du type des montres smart. La crise du coronavirus semble aujourd’hui faire advenir le moment décisif pour que les géants du numérique puissent s’imposer comme les précurseurs d’une politique sanitaire intégralement informatisée – tout en se mettant en scène comme « bienfaiteurs » de l’humanité.

Le mot d’ordre des deux compagnies est donc : « Never let a serious crisis go to waste » (« Une crise grave est une chance à ne surtout pas laisser passer »).

Google : la souveraineté dans l’état d’urgence

Alphabet – ainsi se nomme aujourd’hui le conglomérat Google – a pris l’annonce par Trump de la création du site de testing du coronavirus comme une incitation pressante à improviser une réponse. D’où l’annonce, simultanément à celle du site Internet destiné à coordonner les tests, que d’autres tests seraient menés, totalement indépendants des premiers. Leur réalisation serait confiée à une filiale d’Alphabet, Verily. On mobilisa alors en un temps très court un personnel considérable et on développa, en Californie, à New York, dans le New Jersey, dans l’Ohio ou encore en Pennsylvanie, des drive-throughs (testings d’automobilistes à leur volant) permettant un dépistage du Covid-19 efficace et sûr.

Il va de soi que les participants doivent remplir une sorte de test d’aptitude, répondre à des questions sur leur état de santé du moment, sur leur lieu d’habitation ou encore leur histoire sanitaire personnelle et qu’ils transmettent ainsi toutes sortes d’informations sensibles au testeur – et ce d’autant plus qu’au départ, avoir un compte Google était obligatoire pour participer au test… Tout cela s’accorde avec une philosophie d’entreprise où la plupart des services rendus ne sont que présumés gratuits. La devise de Google qui veut que « Sharing is caring » (« Partager, c’est prendre soin des autres ») – est particulièrement vraie en ces temps de coronavirus…

Avec sa rapidité de réaction, le conglomérat a donc apporté la preuve de sa capacité d’action, car, s’il n’avait pas réalisé entièrement la proposition de Trump, du moins il avait su la saisir au bond et lui conférer un fort impact médiatique. Enfin, il avait assumé souverainement ses responsabilités. Alphabet n’a pas attendu le coronavirus, en effet, pour concevoir la santé avant tout comme une question technologique, et donc un domaine où il a un marché à conquérir. La création de Verily a en effet permis d’avoir un spécialiste qui coordonne depuis 2018, avec le « Projet Baseline », des études à grande échelle ne promettant rien moins que de « redessiner le futur de la santé ».

Tantôt sont lancées dans ce cadre des recueils de données, sur quatre ans, auprès de 10 000 personnes porteuses de montres connectées de conception Google, tantôt des études sur des diabètes de type 2, sur la prévention des maladies cardiovasculaires aussi bien que mentales. On veut en savoir toujours plus sur les interactions entre le corps, l’environnement et le psychisme, étudier sur la base de données informatiques ce que signifie être sain ou malade, mais surtout développer de nouveaux produits et services. Le projet est tellement gigantesque qu’il n’est pas rare que le conglomérat parle d’une « révolution », une révolution qui, au nom de la santé publique, s’engagerait à toujours plus de mesures, toujours plus de financements pour des collectes de données toujours plus nombreuses et un tableau monopolistique toujours plus vaste. Dans le jargon de Google, cela se dit ainsi : « We’ve mapped the world. Now let’s map human health » (« Nous avons cartographié le monde. L’heure est venue de cartographier la santé humaine  »).

Le testing du Covid-19 n’est d’ailleurs pas la seule réponse d’Alphabet à la crise du coronavirus. On recourt aussi aux voies conventionnelles de la cartographie et l’on génère via Google Maps, dans 131 pays, Suisse comprise, ce que l’on appelle des mobility reports. Sont utilisées ici, anonymisées et « agrégées », des données de localisation qui indiquent normalement la fréquentation d’un lieu donné, par exemple un restaurant à l’heure du déjeuner.

Ces données sont maintenant susceptibles d’être utilisées par les autorités pour pointer les « tendances dans les déplacements », localiser les zones à risque de l’épidémie et vérifier si la population se conforme ou non à l’impératif catégorique de « lisser la courbe » (flatten the curve), et reste confinée. Cette offre éminemment utile ne montre ainsi pas seulement avec netteté par exemple une augmentation de la fréquentation des parcs municipaux dans le canton de Berne, et le fait qu’il serait ou non « branché » de faire du télétravail à Genève ; le conglomérat apporte aussi le service d’un véritable outil administratif, ou les données recueillies fournissent des indications qui peuvent se transformer en réglementations nouvelles. En ce sens, est souverain celui qui a les meilleures cartes en mains.

Facebook : des données pour le Bien

Alphabet n’est pas le seul membre actif du « cabinet de crise technologique » à se soucier du bien-être des gens. Facebook lui aussi renoue dans l’état d’urgence avec sa propre fibre missionnaire, l’entreprise a conçu ces derniers temps non seulement un « Coronavirus Information Center » pour le fil d’actualité, mais a aussi combattu avec une détermination inédite les infox ou encore créé un nouveau émoticône, « coronavirus avec un cœur », pour promouvoir la solidarité automatisée. Le réseau social entend utiliser la « connectivité de la communauté » pour combattre le virus, et, avec la Carnegie Mellon University (CMU), cible des utilisateurs auprès desquels il promeut un questionnaire destiné à aider les chercheurs à établir des cartes géographiques hebdomadaires de symptômes cliniques qui ont été déclarés individuellement.

On espère ainsi toucher des millions d’utilisateurs. C’est seulement sur cette large base d’information – les données ne sont certes pas partagées avec Facebook, mais on peut se demander sur la base de quels critères Facebook choisit les participants potentiels – que l’on pense pouvoir renseigner sur l’état actuel des contaminations : « Ces informations peuvent aider les autorités sanitaires pour anticiper les besoins et planifier l’usage des moyens disponibles, et déterminer où et quand peut être entrepris le déconfinement de tel ou tel secteur de la population. »

Ces études sur des échantillons de masse peuvent être facilement perçues dans la situation présente comme étant uniquement un phénomène de crise. Mais qu’on ne s’y trompe pas : dans la Silicon Valley, elles sont depuis longtemps business as usual.

En sus du sondage quotidien, Facebook élargit encore son programme de « Disease Prevention Maps » (cartes pour la prévention des maladies). Le projet utilise données de géolocalisation et données de mouvements issus de l’utilisation des applications proposées par le groupe, et veut ainsi accroître « l’efficacité des campagnes sanitaires et la réaction aux épidémies » et a déjà été utilisé pour tracer le choléra au Mozambique ou pour contenir le virus Zika. Trois nouveaux outils, les co-location maps, les movement range trends et le social connectedness index, doivent à présent permettre d’évaluer dans quelle mesure les déplacements et les contacts sociaux de la population contribuent à la diffusion du virus, si les mesures de confinement prises ont un effet ou si de nouvelles mesures sont éventuellement nécessaires. Le slogan de l’encartage général est lui aussi très prometteur : Data for Good. Cela va de soi : on est ici engagé pour le Bien.

Mais il en va chez Facebook de beaucoup plus que de se positionner simplement en outil désintéressé des autorités sanitaires. Le cartographe de la sociabilité vise à étendre sa sphère d’influence et à se forger un véritable leadership. Si Mark Zuckerberg a fait don ces derniers temps de quelque 720 000 masques respiratoires à des institutions publiques et de 25 millions de dollars à la plateforme de recherche « Covid-19 Therapeutics Accelerator », ce n’est pas seulement pour se poser en philanthrope, caritatif autant que d’utilité publique. Son entreprise voit dans la crise une chance unique de développement, la chance de pouvoir passer d’un réseau social à une sorte de réseau de recherche scientifique, et se présente toujours plus comme l’infrastructure publique qu’elle a toujours voulu être : c’est-à-dire comme un élément essentiel du bon fonctionnement du système en l’état.

C’est pour cela qu’à côté de la CMU, on travaille au quotidien avec diverses institutions de santé, on cherche avec la New York University et le Mila Research Institute de Montréal comment utiliser des applications d’intelligence artificielle (IA) pour mieux préparer à la crise les hôpitaux et leur personnel. Par-delà cet investissement, on a aussi mis en place une ambitieuse « coalition internationale », le Covid-19 Mobility Data Network. Avec celle-ci, l’entreprise s’investit désormais dans une coopération qui à la fois confine au service de santé publique et est en même temps très calculée, avec la Harvard School of Public Health, la National Tsing Hua University à Taïwan, l’Université de Pavie en Italie ou la Bill & Melinda Gates Foundation. Le but avoué est, grâce aux « conclusions en temps réel obtenues à partir des Data for Good de Facebook », de déceler avec plus de précision le moment de la contamination et au bout du compte de produire des modélisations permettant de pronostiquer le déroulement de la crise. Bref : de transformer un futur indécis en un autre, probable.

Si des procédés analogues étaient surtout utilisés il y a encore quelques mois pour étudier les préférences des utilisateurs, prédire leur comportement de consommation et leurs déplacements afin de promouvoir une communication publicitaire basée sur le mouvement, la passion pour la collecte de données dans le cadre d’un capitalisme de la surveillance généralisée apparaît désormais sous un jour nouveau.

Car grâce à un management de crise requis dans des fonctions essentielles, que l’entreprise, dont l’image était sérieusement écornée, semble peu à peu se réhabiliter, savoir oublier toutes sortes de scandales dans le domaine de la protection des données et se produire à nouveau avec succès en sauveur presque magique de l’économie digitale. Comme l’écrit Mark Zuckerberg : « Le monde a été déjà confronté à des pandémies par le passé, mais cette fois nous avons une nouvelle superpuissance : la capacité à collecter et à échanger des données pour le Bien. »

Tout cela a aussi changé le regard porté sur le géant du numérique. Car bien qu’il ne soit nullement établi avec certitude que les cartes et les services sont d’une quelconque utilité dans la lutte contre le Covid-19, ils agissent comme une offre thérapeutique au puissant pouvoir de séduction. Une offre dont l’étendue consolide la position de monopole de l’entreprise et qui ravive ses ambitions. Et c’est ainsi que la crise fait l’effet pour Facebook d’une utile mise à jour du système, promettant de lui apporter une légitimité renouvelée.

Extension du domaine du tracking

Mais au-delà des analyses de données par l’entreprise, riches en perspectives, des expériences beaucoup plus concrètes sont actuellement menées en Californie. Elles visent à une autre proximité et relation au patient.

On travaille ainsi actuellement au Zuckerberg San Francisco General Hospital sur une façon de compenser le manque de testings à grande échelle en utilisant les technologies  wearable. La bague « Oura » – une bague qui mesure aussi bien le rythme cardiaque que la fréquence respiratoire – vise à diagnostiquer les contaminations au coronavirus avant même que les symptômes soient ressentis. Les personnels des hôpitaux, les plus menacés du fait de leurs contacts permanents avec les personnes contaminées, sont équipés de cet appareil portable intelligent, qui ne les quitte pas, et transmettent des données intéressantes à un « système d’alerte précoce » particulièrement réactif. Le but de ce suivi en temps réel est de réagir plus rapidement à l’avenir, de sorte que les soignants développant la maladie puisse être identifiés plus tôt, contrôlés et soignés plus efficacement : cette bague est là pour les guérir, pour tous les détecter.

Dans l’étude « Detect » du Scripps Research Institute, on pense en dimensions encore beaucoup plus grandes, on cherche à élargir le plus possible le nombre de personnes testées. Dès lors le testing n’est pas associé à un unique wearable intelligent, mais à quasiment toute la palette des bracelets d’activité connectés – depuis le sobre Fitbit de Google jusqu’au très sophistiqué Apple Watch. Chaque auto-testeur peut participer pour autant qu’il vit aux États-Unis, et transmettre aux chercheurs ses données corporelles, en véritable scientifique citoyen, via l’application « MyDataHelps » (« Mes données aident »). Comme avec la bague « Oura », il s’agit ici aussi de détecter précocement des symptômes et de « resocialiser » des données individuelles en sorte que les foyers de contamination puissent être, là encore, mis en cartes, mieux localisées, délimités avec le plus de précision possible.

« Detect » fonctionne comme le remake d’une étude antérieure, parue dès janvier, qui étudiait ce qu’elle nommait le « real-time flu tracking » (traçage de la grippe en temps réel) via wearable auprès de quelque 200 000 porteurs d’appareils Fitbit. Par l’entremise de ce bracelet d’activité, étaient saisies des données sur le rythme cardiaque et le sommeil grâce auxquelles, selon les conclusions de l’étude, il était possible d’améliorer de manière significative les pronostics par rapport aux moyens existants. Certes, le traçage n’était pas convaincant de bout en bout – par exemple, les données du sommeil manquaient de précision, et l’on ne pouvait pas vraiment distinguer entre l’accélération du pouls dû à une infection grippale et celui dû au stress quotidien. Les auteurs n’en soulignaient pas moins l’énorme potentiel de la technologie wearable, dont la diffusion accrue devait rendre rapidement possible une surveillance continue sur une plus vaste échelle, et plus précise dans le temps. Rien qu’en Suisse, un petit cinquième de la population est d’ores et déjà utilisateur de wearables, et la tendance ne fait que s’accentuer.

C’est justement ce potentiel que l’étude « Detect » cherche à présent à traduire dans la réalité, on élargit avec les variables biométriques – type activité quotidienne – la profondeur de champ de la surveillance et c’est ainsi que le site internet peut déclarer avec optimisme : « Vous êtes désormais en mesure de pouvoir de prendre le contrôle de votre santé, de même que les soignants du système public de santé peuvent stopper l’émergence d’une maladie de type grippal dans des communautés relativement grandes ».

Avec l’acceptabilité accrue, par le Covid-19, du partage solidaire des données, l’individu quantifié mute vers le collectif quantifié. La saisie, l’analyse et le contrôle ininterrompus de données sensibles sont présentés comme un champ d’études innovant, comme une prise de pouvoir de la collectivité. Ainsi, autocontrôle et contrôle social sont indéfectiblement liés.

Ce qui pouvait être encore perçu avant le coronavirus comme une surveillance abusive, se présente désormais comme l’établissement d’une cartographie de la santé sur un mode participatif et aux fins de la recherche. Une recherche qui lie de plus en plus ses avancées à des appareils intelligents, dont l’utilisation est – de plus en plus – à portée de mains.

Apple : au service de l’humanité

Ces études sur des échantillons de masse via wearable peuvent être facilement perçues dans la situation présente – la Stanford University elle aussi a encore récemment lancé une étude liée au Covid-19 – comme étant uniquement un phénomène de crise. Mais qu’on ne s’y trompe pas : dans la Silicon Valley, elles sont depuis longtemps business as usual.

S’opère aussi un déplacement de souveraineté : le quotidien devient le laboratoire expérimental des entreprises, la vie elle-même n’est plus qu’une expérience de mesure intelligente (« smart »). On assiste à la systématisation toujours plus insistante de ce que l’on peut appeler une biopolitique en cours de datafication

Si Google entend mesurer la santé, via wearables, Apple, lui, s’exerce tout particulièrement depuis ces derniers temps au mode du laboratoire expérimental transportable. En développant sa Smartwatch et son « Research App », Apple a exploré de nouveaux champs de recherche entrepreneuriaux. Chacun a pu, dès avant la pandémie, participer à des études sanitaires de grande ampleur grâce à la sensorique connectée et au Big Data – des études allant des capacités auditives jusqu’au suivi de la menstruation-, chacun a pu mettre ses données à la disposition de toutes sortes d’universités, hôpitaux ou institutions comme l’OMS. Toute une infrastructure, reliant l’individu via wearable à la grande marche du monde et promettant de nouvelles avancées scientifiques, des produits d’avenir, et peut-être surtout une importance individuelle : « The future of health research is you » (« Le futur de la recherche médicale, c’est vous »).

Il n’est guère étonnant que l’Apple Watch soit aujourd’hui considérée comme un élément essentiel de nombreuses études sur le Covid-19. Que son contrôle d’activité d’avant-garde soit particulièrement coté. Et que la pandémie, comme l’a expliqué récemment le directeur des opérations d’Apple, Jeff Williams, rende indispensable plus rapidement de nouvelles fonctionnalités d’Apple Watch comme l’instrument de cardiométrie intégré. Tout ceci donne à penser que la « solution » en propre d’une étude Apple sur le Covid-19 n’est elle aussi vraisemblablement qu’une question de temps.

Dès maintenant, on ne reste pas inactif. Le président (CEO) d’Apple Tim Cook conseille le président américain, réorganise des chaînes de livraison, conçoit des visières de protection pour le personnel soignant et, à l’instar de Google, produit grâce à son propre système de cartes des rapports de mobilité pour l’administration. Ainsi Apple, qui considère que ses missions dans le secteur de la santé « ne sont pas limitées au poignet »,  se met-il lui aussi intégralement au service de la cause, et veut utiliser les vents favorables pour lancer de nouveaux services et applications : ce que Cook proclamait dès janvier 2019 est plus que jamais valable : « Si l’on demandait un jour ce qui aura été le plus grande contribution d’Apple à l’humanité, il n’y aura qu’une réponse possible : la santé. »

Qui a suivi ces derniers mois les recherches d’Apple et de Google dans le secteur médical ne sera guère surpris par la nouvelle récente de leur collaboration en matière de traçage des contacts. En bonne logique, sans attendre que les acteurs publics s’acquittent de leurs obligations, les deux multinationales présentent leur propre « solution globale » – en bons promoteurs de la « technocratie directe » qu’elles sont. L’infrastructure, qui est prévue pour toutes sortes d’applications de traçage, mise sur une approche décentralisée, se présente de ce fait comme plus égalitaire et « progressiste » que les systèmes centralisés – que finalement elle exclut complètement du jeu ! Que les multinationales, avec l’impact considérable qui est le leur sur le marché, créent ainsi une norme désormais incontournable, qu’elles généralisent et standardisent leur « solution » (le Chaos Computer Club parle de « diktat ») n’est dès lors qu’une sorte d’élégant effet secondaire.

On a ainsi conscience dans la Silicon Valley, en ces temps qui semblent totalement débridés, que l’heure est venue, on parle à nouveau sur un ton pénétré et l’on use à plein de son pouvoir de décision – utilisateurs de smartphones de tous les pays, unissez-vous ! Bien sûr, il n’y a « jamais eu moment plus important » pour Apple et Google, pour aider à sauver le monde « avec la force de la technologie », pour le remettre sur pieds selon ses idées bien arrêtées. Mais il y a rarement eu plus de disponibilité, ou plus exactement plus de nécessité, à les croire. À être obligé de les croire.

Biopolitique en voie de datafication : la santé comme prestation de service

Les crises engendrent nécessairement des espaces de décisions, un afflux temporaire d’une série de potentialités différentes, où il en va du tout ou rien, du succès ou de l’échec. Que les entreprises géantes de la Silicon Valley aient la décision facile, que certaines d’entre elles soient fermement assurées par temps de crise, elles l’ont fréquemment démontré au cours de ces dernières années. Avec la pandémie, la forme si particulière de résilience qui a cours en Californie se montre une nouvelle fois au grand jour.

On aura rarement pu observer plus clairement avec quelle rapidité les différents acteurs arrivent à s’adapter, usent de leurs infrastructures, voire les réorientent entièrement, pour se présenter en sauveurs incontournables, en outils de la lutte contre la crise – en somme : pour se réinventer.

Il n’étonnera guère qu’à cette occasion, du don’t be evil de Google au bringing the world closer together de Facebook, de vieux récits soient – avec talent ! – remis au goût du jour, que le solutionnisme trouve de tous côtés une nouvelle légitimation et que la connectivité se déploie toujours plus. Reste que tout cela est lié à des risques et des effets secondaires non négligeables.

Car de toute évidence, n’entrent pas seulement dans les potentialités des multinationales l’idée, louable en soi, de la lutte contre la crise, ou du soutien massif à la santé, à travers toutes sortes de partenariats public-privé. En elles s’opère aussi, insidieusement, clandestinement, un déplacement de souveraineté : le quotidien devient le laboratoire expérimental des entreprises, la vie elle-même n’est plus qu’une expérience de mesurage intelligent (« smart »). On assiste à la systématisation toujours plus insistante de ce que l’on peut appeler une biopolitique en cours de datafication.

Les acteurs d’État comme les acteurs privés ont compris depuis longtemps que le vieil outil biopolitique – statistiques périodiques ou valeurs moyennes évaluées par cycles – était aujourd’hui tout à fait suranné. Que, si l’on voulait maintenir en état de fonctionner le corps des individus, et plus encore le corps social, on avait besoin de mécanismes plus individualisés, de cartes plus parlantes et d’appareils plus « friendly ». Les sauveurs chamaniques de la Silicon Valley prennent ce qui ressort des fonctions régaliennes de l’État pour le ramener à leurs prestations de service, ils développent des instruments essentiels de politique sanitaire et, par le fait qu’ils se déclarent eux-mêmes « institutions de recherche », engrangent un fabuleux surcroît de compétence. Ainsi l’individu évolue-t-il toujours davantage, sous le signe de la santé, dans des espaces mesurés, ainsi ses données de mobilité et de contact sont-elles traquées et sondées en temps réel : son état de santé, son pouls ou son rythme de sommeil sont soumis à une surveillance de tous les instants. Que disait déjà le slogan du « Research App » d’Apple ? « Humanity says thank you » (« L’humanité vous dit merci »).

Ce qui semble pendant la crise tout à fait compréhensible, et même, dans quelques cas, raisonnable, crée rapidement un nouvel état de fait. Une réalité dans laquelle l’intrusion sur le mode monopolistique de la technologie numérique va si loin dans le monde de la vie et de l’expérience qu’elle finit par développer une force normative : le moment arrive où elle ne se content plus de seulement décrire ce qui est. Mais aussi ce qui devrait être.

Peut-être ne devrions-nous donc pas dire aussi inconsidérément « I want to thank Google », ni concevoir la crise comme un problème qui n’attend que l’intelligence artificielle pour être résolu. Nous devrions urgemment jeter aussi un coup d’œil à la notice jointe de la thérapeutique de surveillance capitaliste.

Les auteurs :

Anna-Verena Nosthoff est essayiste, philosophe et politologue. Elle enseigne à l’Université de Vienne, la Freie Universität de Berlin et était ces derniers temps « Research fellow » au Weizenbaum Institut pour la société connectée. Felix Maschewski est essayiste, économiste et enseigne à la Freie Universität de Berlin. Récemment est paru leur ouvrage commun « Die Gesellschaft der Wearables – Digitale Verführung und soziale Kontrolle » (« La société des wearables – Tentation digitale et contrôle social ») aux Éditions Nicolai-Verlag de Berlin.

Cet article est paru en allemand dans la revue Republik : https://www.republik.ch/2020/05/09/wie-big-tech-die-pandemie-loesen-will.

Le Health Data Hub ou le risque d’une santé marchandisée

La crise sanitaire liée au Covid-19 révèle au grand jour les conséquences mortelles des logiques de réduction des moyens dévolus au service public hospitalier. De nombreux pays dont la France misent une fois de plus sur les solutions numériques (géolocalisation, data-surveillance) pour camoufler les effets toxiques des politiques libérales, et renvoyer injustement les citoyens à leur responsabilité individuelle face à la maladie. Le suivi continu des pathologies et rythmes biologiques via les écrans et smartphones, remplacerait-il petit à petit l’acte de soin, justifiant par là même la continuité de l’austérité infligée aux institutions publiques de santé de ces pays? Ce qu’il y a de certain, c’est que les millions d’euros accordés au Health Data Hub mis en place par le gouvernement Philippe, et sur lequel nous nous penchons ici, n’ont pas servi à la recherche scientifique sur les coronavirus, ni à revaloriser le salaire des praticiens hospitaliers, ni à leur fournir les matériels nécessaires à leur métier et à leur protection. Par Audrey Boulard, Eugène Favier et Simon Woillet.


Au mois de décembre dernier, Agnès Buzyn, alors ministre de la Santé et des Solidarités, inaugurait la plateforme nationale de collecte des données de santé, baptisée en anglais Health data hub. Une plateforme ayant vocation à devenir un guichet unique à destination des acteurs, privés et publics, et devant servir d’appui à la recherche en intelligence artificielle.  Son enjeu ? Élargir ce « patrimoine commun » que constituent les données recueillies par l’assurance maladie en y ajoutant les gisements de données présents dans les CHU ainsi que celles récoltées par les médecins de ville et les pharmacies. Un storytelling dont les rouages – bien huilés en apparence – sont néanmoins grippés par de nombreuses controverses, portant notamment sur la sécurité nationale des données et sur les objectifs économiques de cette conversion numérique du secteur de la santé, visant à remplacer de nombreux actes médicaux (tels que le suivi biologique et le diagnostic) par des algorithmes.

En raison de son système de sécurité sociale, la France est l’un des premiers pays à s’être doté d’une base nationale de données médico-administrative centralisant l’ensemble des données des parcours de soins. Une base de données qui couvre 99% de la population. Des données, qui à l’heure de la santé connectée et des potentialités offertes par l’IA, représentent de véritables mines d’informations à exploiter et à valoriser.

Quel est l’objectif du dispositif ? Il s’agit selon le gouvernement d’élaborer un système de santé où se répondraient vertueusement les intérêts de la recherche et des citoyens. Ce qui implique en premier lieu de renforcer le réseau d’informations sur chaque patient en traitant et faisant se recouper les données déjà collectées. L’espace de santé numérique personnalisé qui a pris le nom de Dossier médical partagé (DMP) et dont la fonction est de fluidifier la prise en charge des patients, a ainsi également vocation à alimenter le Health data hub. Le projet consiste en retour à faciliter l’accès des chercheurs à ces informations.

En contournant d’une part les lenteurs administratives dues à une législation européenne jugée très protectrice à l’égard des données et, d’autre part, en ouvrant toujours plus ce dispositif aux acteurs privés (mutuelles, assurances, industriels et start-ups), affirmant ainsi l’idée que le secteur public n’aurait pas le monopole de l’intérêt général. Un système profitable à ces différentes parties prenantes puisqu’en orientant les recherches vers ces secteurs-clés que sont l’intelligence artificielle et le big data, le Health data hub participe à l’attractivité de la France en matière de e-santé, et contribue plus ou moins directement au bien-être des citoyens, qui sont les premiers intéressés par les progrès de la médecine.

Le projet n’a cependant pas manqué de susciter les critiques. Une tribune publiée en décembre dans Le Monde et signée par des professionnels de santé, une motion du Conseil national des barreaux s’opposant au projet et plus récemment encore la mise en accusation par des entreprises de logiciels d’édition pour non respect des principes d’égalité et de transparence dans le choix qui a été fait de désigner Microsoft Azure comme hébergeur.

Parmi les arguments avancés à l’encontre de la plateforme, l’inspiration libérale de la loi santé votée en juillet 2019 et l’empressement avec lequel le ministère s’engage dans le projet, minimisant ainsi les difficultés qui accompagnent cette transformation numérique du système de santé : risques encourus pour les libertés individuelles et pour le secret médical, flou autour des notions de consentement et de responsabilité du médecin, charges administratives redoublées pour les professionnels de santé notamment. Mais c’est surtout le choix de faire appel à la technologie de Microsoft pour héberger l’ensemble de ces données sensibles, au détriment d’une technologie française qui a fait enfler la polémique. Une décision qui a pu être qualifiée de « haute trahison » selon le mot du professeur Israël Nisand lors du forum européen de bioéthique qui s’est tenu en février dernier.

Qu’est ce que le Health Data Hub ?

Qu’est-ce que le Health data hub (HDH) ? Un « guichet unique, assurant un accès simplifié, effectif et accéléré aux données », « une structure partenariale entre producteurs et utilisateurs de données, qui pilotera l’enrichissement continu mais aussi la valorisation du système national de santé ». À l’origine du projet, le rapport sur l’intelligence artificielle (IA) conduit par Cédric Villani et publié en mars 2018 qui consacre un chapitre au potentiel de l’IA en France et aux modes de gouvernances possibles pour les données en santé. Le rapport ouvre les pistes de la stratégie de transformation du système de santé intitulé « ma santé 2022 »  S’en suit une mise en place très rapide. En octobre 2018, est rendue publique la mission de préfiguration co-dirigée par la présidente de l’Institut national des données de santé Dominique Polton, Marc Cuggia, professeur d’informatique médicale et Gilles Wainrib, président de la start-up Owkin.

En février 2019, Agnès Buzyn valide la feuille de route de la mission et confie la mise en place du hub à la DRESS à la tête de laquelle se trouve Jean-Marc Aubert. Le 24 juillet 2019 est adoptée la loi précisant les grands principes de la structure, faisant en particulier disparaître toute référence à une finalité scientifique pour ne conserver que le « motif d’intérêt public ». En charge de garantir la protection des données et de piloter les aspects sécuritaires du projet, plusieurs instances sont mobilisées parmi lesquelles le Comité consultatif national d’éthique (CCNE) pour le couvercle éthique, la Commission nationale de l’informatique et des libertés (CNIL) pour la caution juridique, et l’Agence nationale de la sécurité des systèmes d’information (Anssi) pour le versant sécuritaire. Au moment de la création effective de la plateforme le 1er décembre 2019, le Health Data Hub est donc fort d’un cahier des charges ambitieux, d’un cadre juridique ouvert et flexible et du souhait répété de placer les citoyens au centre des services offerts par la plateforme. Que lui manque t-il ? Des précisions et des garanties.

“Le Health Data Hub est donc fort d’un cahier des charges ambitieux, d’un cadre juridique ouvert et flexible et du souhait répété de placer les citoyens au centre des services offerts par la plateforme. Que lui manque t-il ? Des précisions et des garanties.”

On peut en effet s’interroger. Tout d’abord, le Health data hub ouvre l’accès aux données de santé à des acteurs privés (les start-ups en premières lignes), acteurs dont l’efficacité se mesure à leur rentabilité. Ainsi, en dépit de l’attractivité de ces structures, les algorithmes sur lesquels travaillent ces start-ups, une fois entraînés sur le « patrimoine commun » que constituent les données de santé des Français, sont destinés à être brevetés. Évidemment les start-ups ne sont pas les seuls acteurs à pouvoir accéder à ces données. Le dispositif doit également être mis à disposition du service public. Néanmoins, en quoi un projet qui invite les citoyens à transmettre l’ensemble de leurs données à des projets de recherches auxquels ils ne pourront pas accéder gratuitement participe-t-il à la création d’un système de santé plus démocratique ?

En second lieu, l’exploitation des données de santé n’est pas une nouveauté en France. Des entrepôts de données de santé existent déjà dans différents CHU, à Bordeaux, à Toulouse et à l’AP-HP à Paris. Ces structures participent depuis plusieurs années au développement de méthodes de traitement des données afin d’élaborer localement des outils facilitant la gestion des dossiers médicaux. À ce titre, en quoi le fait de réquisitionner ces données, recueillies et traitées en interne par les professionnels de santé, peut-il servir à financer ces mêmes hôpitaux ?

Une centralisation à marche forcée pour les hôpitaux qui pose également problème du point de vue de la qualité du traitement des données recueillies. Plus on éloigne les données de leur lieu de collecte, plus on les décontextualise en prenant le risque de mal les interpréter. En retour, c’est l’application des algorithmes au soin qui devient moins précis. En effet, en éloignant géographiquement le lieu de collecte du lieu de traitement, on perd le bénéfice d’un aller-retour correctif entre les algorithmes et la pratique réelle des soins sur de vrais patients.

“Faisant l’impasse sur ces précautions éthiques, le Health data hub semble au contraire s’engouffrer dans une logique de marchandisation du secteur de la santé, en valorisant les partenariats public et privé et en faisant du numérique la solution miraculeuse aux nombreux dysfonctionnements de l’hôpital public.”

Sans faire preuve de défiance à l’égard de l’introduction de nouvelles technologies dans le domaine de la santé, il est donc possible de reconnaître que le Health data hub, mis en place sans consultation citoyenne suffisamment élargie, procède d’un certain nombre de choix arbitraires parmi lesquels la pseudomisation des données qui permettrait aux données d’être réidentifiées, le terme flou « d’intérêt général » qui encadre le mode de gouvernance du hub – un GIP, Groupement d’intérêt public, comprenant des acteurs tels que les mutuelles, la centralisation qui augmente les risques en cas de cyber attaques, et enfin le choix d’un modèle économique qui dévalorise et dépossède la recherche publique au profit d’acteurs privés.

En définitive, si les risques potentiels liés aux données massives en santé ne sont pas suffisants pour interrompre les progrès de la recherche, selon l’avis 130 du CCNE, la prudence n’est pas accessoire, étant entendu que cette transformation du secteur de la santé est caractérisée par « une tension entre une grand technicité et des enjeux fondamentaux qui touchent chaque être humain dans la représentation qu’il a de lui-même et de son espèce ».

Faisant l’impasse sur ces précautions éthiques, le Health data hub semble au contraire s’engouffrer dans une logique de marchandisation du secteur de la santé, en valorisant les partenariats public et privé et en faisant du numérique la solution miraculeuse aux nombreux dysfonctionnements de l’hôpital public. Une logique technophile et néolibérale qui reste d’actualité dans la crise du Covid-19, en témoigne la note sur les politiques de santé produite par la Caisse des Dépôts et révélée par Mediapart, qui fait état de la prégnance des impératifs comptables dans la mentalité de nos gouvernants.

La crainte de l’assujettissement numérique

Au-delà de la question de la numérisation des données de santé, qui se pose en véritable enjeu, c’est plutôt le choix du ministère de la Santé de faire appel à Microsoft comme hébergeur de données qui inquiète. Une crainte que les discours se voulant rassurant pour encadrer la présentation du dispositif n’ont pas réussi à dissiper. De façon compréhensible, la décision de faire reposer une plateforme de centralisation des données de santé de millions de Français sur la technologie du Cloud Microsoft Azure interroge à bien des niveaux.

L’empressement avec lequel le ministère de la Santé et la DREES conduisent le projet est d’autant plus surprenant que les contours flous de cette collaboration tardent à se préciser : quel gage de sécurité des données le gouvernement français est-il à même de garantir face à Microsoft ? De quel arsenal juridique le RGPD, le Règlement général sur la protection des données à échelle européen, dispose-t-il face au Cloud Act, son équivalent américain, dont la juridiction extraterritoriale a fait réagir ? Quelle garantie de transparence sera établie autour de la circulation éventuelle des données sur le marché des assureurs ou de divers acteurs dont les autres géants du numérique ? Quelle redéfinition des compétences, de la liberté d’action et du rôle des acteurs de la santé et notamment du secteur de l’informatique médical ?

“Il s’agit pour le ministère de placer la France en acteur mondial phare du développement de l’intelligence artificielle dans le secteur de la santé et ce, dans la décennie qui vient. Pourtant, la décision de s’appuyer sur Microsoft contraste avec de telles ambitions.”

Comment encadrer la fluctuation du prix des licences Microsoft ? Autant de points de crispation que la stratégie précipitée du gouvernement pour mettre en place cette plateforme ne contribue en rien à atténuer. Une stratégie d’ailleurs revendiquée dès la feuille de route d’Agnès Buzyn intitulée « accélérer le virage numérique » et dans lequel il est question de « mettre rapidement au service du plus grand nombre notre patrimoine de données de santé sous une forme anonymisée, dans le respect de l’éthique et des droits fondamentaux des citoyens ». Il s’agit pour le ministère de placer la France en acteur mondial phare du développement de l’intelligence artificielle dans le secteur de la santé et ce, dans la décennie qui vient. Pourtant, la décision de s’appuyer sur Microsoft contraste avec de telles ambitions.

Le transfert de données de santé de millions de Français sur des serveurs situés à l’étranger pose problème pour des raisons évidentes. Des risques liés à la sûreté des données de santé des Français ont d’emblée été évoqués, à commencer par le rapport même de la mission de préfiguration remis à Agnès Buzyn le 12 octobre 2019 qui fait état de tels enjeux : « Le patrimoine de données de santé est une richesse nationale et chacun en prend peu à peu conscience. […] La souveraineté et l’indépendance de notre système de santé face aux intérêts étrangers, ainsi que la compétitivité de notre recherche et de notre industrie dépendront de la vitesse de la France à s’emparer du sujet ». À noter que, si un impératif de compétitivité et d’urgence est ici mobilisé, c’est davantage pour alerter sur la nécessité d’une plateforme souveraine de mutualisation des données de santé au service de l’intérêt national, que pour se lier à des technologies Microsoft dans la précipitation qui accompagnerait la course à l’innovation et à la recherche dans le domaine de la santé. Une mise en garde qui semble avoir été ignorée depuis.

Dans un état d’esprit comparable, le Conseil national de l’ordre des médecins (CNOM), dans son rapport intitulé « Médecins et patients dans le monde des datas, des algorithmes et de l’intelligence artificielle », met en garde sur le fait que « les infrastructures de données, plateformes de collecte et d’exploitation, constituent un enjeu majeur sur les plans scientifique, économique, et en matière de cybersécurité. La localisation de ces infrastructures et plateformes, leur fonctionnement, leurs finalités, leur régulation représentent un enjeu majeur de souveraineté afin que, demain, la France et l’Europe ne soient pas vassalisées par des géants supranationaux du numérique » (recommandation #33, janvier 2018).

Un autre défi, d’ordre financier, s’ajoute à ce choix de candidature. Dépendre de l’infrastructure logicielle de la plateforme de centralisation des données de santé au Cloud Microsoft Azure comporte aussi le risque d’une captivité numérique vis-à-vis d’une technologie singulièrement propriétaire comme celle de Microsoft. L’encadrement de licences implique un engagement financier sur le long terme avec les technologies issues du géant de l’informatique et donc un risque de fluctuation à la hausse des prix sur les licences en question.

RGPD versus Cloud-Act

Un risque supplémentaire que pourrait faire peser le contrat avec Microsoft pour l’élaboration de la plateforme HDH est d’ordre juridique. En effet, le rapport Gauvain du 26 juin 2019 énonce que « le Claryfying Lawful Overseas Use of Data Act, ou Cloud Act (…) permet aux autorités américaines d’obtenir, dans leurs enquêtes pénales, des données stockées par des entreprises américaines en dehors des États-Unis sans passer par une  demande d’entraide et en s’affranchissant des règles de la coopération judiciaire internationale ». Les infractions concernées par l’extraction de données depuis l’étranger sont celles passibles d’une peine d’emprisonnement supérieures à un an. Le Cloud Act couvre toutes les formes de données possibles, que ce soit de simples contenus, courriels, documents électroniques ou encore des métadonnées.

Il permet en somme, un accès unilatéral de la part du gouvernement américain, aux données d’un pays tiers, le tout sans avoir à fournir de précisions sur la nature du contenu extirpé. Par ricochet, le Cloud Act va bien plus loin puisqu’un prestataire français ou étranger, pourvu qu’il soit affilié à une entreprise américaine et que les autorités déterminent que la société mère exerce en cela un contrôle suffisant sur le prestataire, tombera sous le coup du Cloud Act.

“Mais quel droit Microsoft respectera-il alors pour peu que les autorités américaines réclament des données de santé de citoyens français pour des raisons de public safety ?”

Selon la présidente de la CNIL, c’est plus précisément autour de l’article 48 du RGPD qu’il existe un risque de friction juridique avec le Cloud Act. Dans un contexte trumpien de retour à la guerre commerciale ouverte, Microsoft pourrait se retrouver pris en étau entre les législations européennes et américaines sur la question, dont l’issue dépendra d’un accord bilatéral entre les deux parties. Mais quel droit Microsoft respectera-il alors pour peu que les autorités américaines réclament des données de santé de citoyens français pour des raisons de public safety ? Même si le risque peut paraître faible, doit-on placer le bon fonctionnement de cette plateforme de centralisation des données de santé des Français à guichet unique sous la présidence imprévisible qui est celle des États-Unis actuellement ? Que se passerait-il si, au gré des manœuvres économiques et du jeu politique international, cette plateforme qui supplante un système de santé solidaire et national, se retrouverait en position de levier géopolitique à la faveur d’un gouvernement étranger ?

Les GAFAM en embuscade

À travers Microsoft, c’est tout un faisceau d’acteurs qui pourrait bénéficier du flux de données de santé. Les entreprises certifiées hébergeurs de santé type Amazon ou Google pourront réclamer un point d’accès depuis Microsoft aux données de santé au motif assez indistinct d’un simple intérêt pour la recherche clinique. Microsoft pourrait se faire ainsi la porte d’entrée d’un circuit de données entre divers acteurs connectés, la virtualisation des infrastructures informatiques de cloud permettant de mutualiser les données pour d’autres clients en les répliquant sur plusieurs centres de données.

Par-delà le discours de la performance et de l’alignement sur l’impératif du tout-numérique, la donnée de santé s’avère être pour le secteur numérique et notamment les GAFAM, un enjeu marchand : Google a vu un quart de son budget redirigé vers la santé. Le Wall Street journal a d’ailleurs récemment révélé l’accès de Google aux dossiers médicaux détaillés de millions de patients Américains qui ont circulé sans connaissance ni consentement de la part des patients concernés suscitant l’ouverture d’une enquête du bureau des droits civiques américains. Ces données pourraient par exemple servir à la revente aux assureurs ou aux banques.

Par ailleurs, la rivalité éco-numérique sino-américaine en cours fait de l’Europe un théâtre d’affrontement privilégié, pour la 5G notamment ; un sujet qui, contrairement aux données de santé, a pu sensibiliser des acteurs français et européens à réagir pour conserver une souveraineté technologique. Plus généralement, le processus de diversification sectorielle des GAFAM fait de la santé un secteur d’avenir pour le numérique et augure des affrontements commerciaux sur le sujet, une raison de plus pour redouter le choix de remettre le projet de plateforme de santé dans les mains de Microsoft.

Un objectif de suffisance technologique loin d’être inatteignable

Le choix d’investir dans une infrastructure numérique Microsoft est d’autant plus curieux lorsque l’on comprend que la possibilité d’un hébergeur national n’est pas un frein technologique, plusieurs d’entre eux ce sont même positionnés pour accueillir la plateforme de santé numérique. Ne serait-ce que du point de vue de la compétitivité technologique, la perspective de voir émerger des acteurs locaux au service du secteur de la santé serait avantageux.

Malgré les échecs Atos/SFR et Orange/Thalès à faire émerger une alternative crédible aux géants du numérique, le partenariat OVH avec 3DS Outscale de Dassault Systèmes pour un cloud souverain dans le secteur de la défense ou bien le projet open source MAlt pour le CERN, pourraient relancer une étape dans la lutte contre la dépendance technologique envers les GAFAM.

“La faisabilité technique n’est pas engagée, l’État français disposera d’un Cloud interne en 2020 pour les services les plus stratégiques, une qualification qui échappe mystérieusement aux données de santé.”

La faisabilité technique n’est pas engagée, l’État français disposera d’un Cloud interne en 2020 pour les services les plus stratégiques, une qualification qui échappe mystérieusement aux données de santé. Les données issues des collectivités territoriales ou de l’État considérées comme trésor national font de la France le seul pays à offrir une cybersécurité réglementée aux infrastructures jugées indispensables à l’intégrité de la nation (SecNumCloud), domaine dont les données de santé sont, selon toute vraisemblance, exclues.

Pourtant, les données de santé relevant de l’administration ou du secret médical sont des archives publiques régies par le Code du patrimoine, qui empêche la conservation de ces données en dehors du territoire national (article E212-23 2°). Les données de santé produites par les structures publiques relèvent normalement de ce même territoire national. C’est sans compter toutefois sur la certification hébergeur de données de santé (HDS), qui semble contourner l’agrément du ministère de la Culture pour ce qui est de la conservation des archives sur le sol français, créant un flou juridique. Microsoft, qui a été certifié HDS en seulement 4 mois (contre 12 à 18 mois requis en moyenne), s’est empressé d’acquérir Fitbit, société américaine de fitness, proche du milieu des assurances et pourvoyeur de bracelets connectés et collecteurs de données de santé des particuliers. La plateforme Google Cloud France est quant à elle certifiée HDS sans avoir de datacenters sur le territoire français.

“Le transfert de compétences ou la dépendance technologique est moins le présage d’une France qui ferait la course en tête dans le champ de l’IA médicale que celui d’une perte d’autonomie des milieux hospitaliers, d’une dépossession d’expertise de l’informatique médicale vis-à-vis de leurs bases de données et leur capacité à contrôler leurs environnements et leurs outils de travail numérique.”

Sur BFM Business, Arnaud Coustillière, Vice-amiral d’escadre et président de la DGNUM (Direction générale du numérique), estime quant à lui que les entreprises du numérique « ne voient en face d’elle que des clients et pas des citoyens », une distinction que leur puissance de projection numérique semble ignorer. Après l’entrée en jeu du Cloud Microsoft Azure, il évoque le principe de souveraineté numérique compris comme une autonomie stratégique dans le secteur numérique et définit les conditions préalables à l’hébergement de données sensibles comme devant relever de la confiance et d’une « communauté de destin » partagée, critère qui ne paraît pas inextensible au principe d’un système de santé solidaire national.

Le secret pour (re)trouver l’efficacité de notre système de santé ne se situe pas dans les processus aveugles du solutionnisme ou de la numérisation marchande. Si le secteur de la santé a pu fonctionner de façon solidaire et universelle avant cela, et sans doute même mieux qu’actuellement, c’est qu’il est possible et même souhaitable de repenser une stratégie numérique qui ne rogne pas sur les piliers qui font reposer historiquement la santé publique en France. “Le solutionnisme n’est pas la solution”, mais bien le problème, et si la numérisation est amenée à jouer un rôle déterminant dans le domaine de la santé, le spécialiste des politiques numériques Evgeny Morozov se demande légitimement « pourquoi sacrifier la vie privée au nom de la santé publique » lorsque cela est évitable?

Une volonté de réforme politique favorisant le marché au détriment de l’État social ?

Le transfert de compétences ou la dépendance technologique est moins le présage d’une France qui ferait la course en tête dans le champ de l’IA médicale que celui d’une perte d’autonomie des milieux hospitaliers, d’une dépossession d’expertise de l’informatique médicale vis-à-vis de leurs bases de données et leur capacité à contrôler leurs environnements et leurs outils de travail numérique (autant de tâches qui seront largement confiées à des prestataires privés non-médicaux).

Un risque qui pèse aussi sur la capacité de diagnostic et de prise de décision des professionnels de la santé qui seront concernés. Les algorithmes, probablement développés par les soins de Microsoft, échapperont alors au contrôle de l’administration médicale. Autant d’indices qui semblent anticiper un basculement dans la compréhension des mécanismes des maladies et du rapport médecin / patient. Car il ne s’agit pas ici d’un simple portage numérique du fonctionnement historique d’un système de santé mais d’un virage philosophique pour l’ensemble du secteur médical français.

La décision d’Agnès Buzyn d’accorder le statut d’hébergeur agréé des données de santé des Français à Microsoft nous invite ainsi à soulever plusieurs interrogations concernant l’impact de cette décision sur nos vies privées, nos relations aux institutions de soin et la vision économique du système de santé que cet acte politique révèle.

Outre la destruction de l’écosystème initial de traitement des données à partir d’un modèle français (INDS Institut national des données de santé), qui tend à accroître notre dépendance technologique à l’égard d’entreprises étrangères, cette décision nous incite également à nous questionner sur les risques en matière de vie privée, de dépendance technologique à une entreprise privée, sur les risques d’éventuels de conflits d’intérêt entre les acteurs privés du secteur de la santé (assurances, entreprises pharmaceutiques, entreprises technologiques) et les institutions publiques. Enfin, le recours idéologique à la data-economy pour refonder les politiques de santé publique risquent d’impacter déontologiquement et méthodologiquement le corps médical.

“La science et la technologie apparaissent ici comme les prétextes d’une marchandisation généralisée des comportements humains, biologiques et sociaux dont rêvent les entrepreneurs de la Silicon Valley.”

Les doutes ici mentionnés sont l’occasion d’un regard critique sur la rhétorique techniciste vantée par les libéraux contemporains, et nous permettent de saisir la cohérence de la vision de l’avenir qu’ils nous imposent. Le cas que nous traitons ici doit nous inviter, par les interconnexions qu’il révèle entre des secteurs économiques apparemment distincts, à comprendre la vision libérale-totalitaire de l’économie digitale qui est ici en jeu, à l’opposé du modèle de la libre communication de l’information à caractère scientifique (open source), que nous défendons. La science et la technologie apparaissent ici comme les prétextes d’une marchandisation généralisée des comportements humains, biologiques et sociaux dont rêvent les entrepreneurs de la Silicon Valley.

Leurs naïves ouailles politiques étant enivrées par l’argumentaire de ces compagnies quant à « l’urgence » des décisions à prendre face à « la concurrence internationale » et « l’impossibilité » pour les États de réguler et de censurer des technologies qui « de toute façon » verront le jour dans d’autres territoires aux législations moins embarrassantes.

Les risques déontologiques de la data-economy de la santé

Le premier risque que nous pouvons mentionner quant à l’ouverture des données de santé des Français au secteur privé transnational est le suivant : sans incriminer en aucune façon les entreprises pharmaceutiques et les assureurs qui financent la recherche en IA dans le domaine de la santé, on peut néanmoins légitimement s’interroger sur les raisons de leur enthousiasme à favoriser le développement de ce nouveau paradigme médical. Toute entreprise privée est soumise à des exigences de rentabilité et de profit, dont le premier levier est la réduction des coûts de fonctionnement (en particulier la question du reste à charge pour les assureurs).

Plus grave, le Conseil national du numérique, par la voix de Marine Cotty-Eslous, représentante de son groupe « Numérique et Santé », accompagne la recommandation du Comité consultatif national d’éthique, quant à l’application du principe absurde de « consentement présumé » pour la collecte des données de santé des citoyens. Chaque acte médical ou para-médical donnera lieu à une actualisation sans information préalable du patient, de son « Espace numérique de santé » lequel sera créé systématiquement à la naissance de chaque citoyen. La logique générale du projet étant que l’ensemble des professionnels de santé soient incités en permanence à alimenter cette base de données (le rapport de préfiguration du HDH mentionnait la possibilité d’une incitation financière à alimenter le système).

Tout observateur critique, sans même à avoir à adopter une position libertaire sur les “sociétés de contrôle” et le “capitalisme de surveillance” se doit de considérer les risques posés par cette organisation de la société sur le mode du fichage généralisé des données biologiques des populations. L’utilisation actuelle des technologies de géolocalisation pour endiguer la propagation de Covid-19 nous laisse en effet craindre une normalisation politique de ces méthodes de surveillance intrusives et continues dans le temps (tout comme la normalisation des lois d’exception de l’état d’urgence a eu lieu), qui s’appliquent désormais aussi bien à l’identité politique, sexuelle et morale des citoyens comme le montre l’autorisation accordée par le ministère de l’Intérieur à cette application aux conséquences inquiétantes réservée aux gendarmes et intitulée GendNote.

“Le problème posé ici est celui de la mentalité professionnelle dont se porte garant le principe d’indépendance déontologique contenu dans le statut lié à une mission de service public.”

L’article 6 du projet de loi relatif à l’organisation du système de santé, adopté en juin 2019 au Sénat, et qui peut nous servir de cadre d’interprétation de la vision générale du gouvernement quant aux politiques de santé, mentionne également la création d’un statut unique de praticien hospitalier. D’abord présenté comme la réponse du gouvernement à une revendication majeure du Syndicat national des praticiens hospitaliers anesthésistes-réanimateurs élargi aux autres spécialités (SNPHARE), ce statut unique pose deux problèmes quant à sa définition.

En premier lieu, la suppression étonnante du concours de recrutement qui alimente la « flexibilité » et le passage du public au privé clinique pour compléter ses fins de mois comme y invitait alors Agnès Buzyn, suscitant l’ire du SNPHARE. D’autre part, la mention explicite de la valorisation des compétences non hospitalières (« valences non cliniques ») font présumer que c’est par cette porte que seront recrutés les futurs data scientists de ce nouveau modèle de société. Le problème posé ici est celui de la mentalité professionnelle dont se porte garant le principe d’indépendance déontologique contenu dans le statut lié à une mission de service public.

La mention de la promotion de « l’exercice mixte » d’une profession intra ou extra-hospitalière en libéral fait légitimement craindre par cette voie de possibles dévoiements déontologiques. Surtout lorsqu’il est question de collecte de données privées de santé. Hors du cadre de protection de la mission de service public, assuré par le statut des agents, la logique de subordination contractuelle ici à l’œuvre (le recrutement national est également supprimé au profit d’un recrutement par les directions d’établissements), peut profiter à la mentalité mercantile, aux pressions à la performance et aux risques de conflits d’intérêts entre secteurs public et privé.

Il semble qu’ici se loge une fois de plus la contradiction de fond entre la logique du soin inconditionnel propre au secteur public ainsi qu’au serment d’Hippocrate et les exigences d’efficacité et de rentabilité aujourd’hui dénoncées par les personnels médicaux et hospitaliers à travers leurs mouvements de grève et leurs réactions à la crise du Covid-19.

Le futur CESREES (organe d’évaluation des politiques de santé qui remplace le Comité d’expertise pour les recherches, les études et les évaluations dans le domaine de la santé CERES de 2016) doit voir le jour mi-mars. Il sera composé, ce qui attire notre attention, de membres des associations de patients, des personnalités du monde de la recherche, de membres du Conseil d’État, du Conseil consultatif national d’éthique, et – nouveauté – d’une personnalité du secteur privé. Son secrétariat ne sera plus assuré par le ministère de l’Enseignement supérieur et de la recherche (comme c’était le cas pour le CERES), mais directement par le Health Data Hub.

“En décembre 2019, Le Monde révélait l’existence d’un potentiel conflit d’intérêt au plus haut niveau des services administratifs de pilotage du HDH en la personne de Jean-Marc Aubert, ancien directeur de la DREES (direction de la recherche de l’étude et de l’évaluation des statistiques).”

Ce mode d’organisation nous donne le sentiment d’alimenter la logique d’efficacité promue par le gouvernement, et nous incite à relire avec intérêt cette définition des objectifs du nouveau modèle de Santé algorithmique, donné dans le rapport de préfiguration du HDH : « Il semble essentiel de mettre à disposition de ces acteurs des capacités technologiques et humaines mutualisées, afin d’atteindre une taille critique permettant une industrialisation et une sécurisation des processus ». Naïfs nous le sommes peut-être encore, pour nous demander encore en quoi un rapport remis à la puissance publique pour guider les orientations majeures dans l’administration de notre système de santé, doit faire mention de l’industrialisation des processus de collecte et traitement des données…

Les inquiétudes dont nous faisons part ici à travers la mention des divers aspects de la réforme systémique votée l’an passé par la majorité ne semblent pas se réduire à de simples cris de Cassandre. En effet, en décembre 2019, Le Monde révélait l’existence d’un potentiel conflit d’intérêt au plus haut niveau des services administratifs de pilotage du HDH en la personne de Jean-Marc Aubert, ancien directeur de la DREES (direction de la recherche de l’étude et de l’évaluation des statistiques). Ce dernier travaillait pour la multinationale Iqvia, leader mondial du traitement des données numériques de santé (10 milliards de dollars de chiffres d’affaires annuels) avant de prendre la direction de la DREES, et a rejoint à nouveau cette entreprise à la suite de son départ.

“Selon Mediapart “Plusieurs entreprises et associations d’éditeurs de logiciel ont écrit, au début du mois de mars, au ministre de la santé Olivier Véran pour demander l’ouverture d’une enquête pour « favoritisme » après le choix de Microsoft pour héberger des données du Health Data Hub.”

Or, Iqvia utilise précisément la technologie Azure Cloud de Microsoft, celle-là même qui a été choisie par l’ancienne ministre de la santé Agnès Buzyn, en dépit des mises en gardes de la CNIL quant aux dangers d’une centralisation des données sensibles. Ce qui ruine par là-même, tout l’écosystème français initial, fondé sur un maillage territorial d’entreprises rattachées individuellement à un des 39 centres de santé pilotes. Ce choix est critiqué fortement par le président du Comité consultatif national d’éthique (CCNE) Jean-François Delfraissy et est même qualifié par Israël Nisand, président du forum européen de bioéthique comme une “haute trahison”. Un choix injustifié selon lui, aussi bien du point de vue technologique, que du point de vue du respect de la souveraineté individuelle et nationale (du fait du Cloud Act en particulier).Selon Mediapart “Plusieurs entreprises et associations d’éditeurs de logiciel ont écrit, au début du mois de mars, au ministre de la santé Olivier Véran pour demander l’ouverture d’une enquête pour « favoritisme » après le choix de Microsoft pour héberger des données du Health Data Hub, la gigantesque plateforme destinée à centraliser l’ensemble des données de santé des Français.”

Le guichet unique centralisé crée des risques pour la sécurité des données et des infrastructures

Le problème de fond que pose le modèle du HDH est celui de la centralisation, car il engage non seulement la sécurité des données des citoyens (notamment vis-à-vis du secteur privé mais également des administrations américaines en vertu du Cloud Act), mais le fonctionnement même des infrastructures numériques hospitalières publiques, du fait du risque réel et connu de piratage. Or, deux événements récents semblent accréditer ces inquiétudes quant à la méthode de la centralisation des données de santé nationales par un acteur privé : d’une part, le scandale révélé outre-atlantique par le Wall Street Journal, du partenariat discret entre le réseau de santé à but non lucratif Ascension et Google, ayant conduit à la diffusion non consentie de données de santé désanonymisées de millions d’Américains.

D’autre part, l’attaque informatique subie en novembre dernier par l’hôpital de Rouen, et qui a conduit à une reprise très lente des infrastructures informatiques de l’établissement (plus de trois semaines de fonctionnement ralenti après la fermeture initiale). Ces cyberattaques sont fréquentes et menacent le fonctionnement des services de soin. Dimanche 22 mars, en pleine crise du Coronavirus, l’AP-HP a été la cible d’une cyberattaque. La centralisation des informations et des serveurs imposée par le HDH renforce le risque encouru par l’ensemble du secteur médical vis-à-vis de ces agressions.

Le fait que leur origine est bien souvent interne comme l’expliquent les auteurs de la tribune de décembre dernier doit alerter les responsables politiques du danger réel  constant et démultiplié encouru par l’infrastructure numérique de santé nationale, et de l’augmentation du pouvoir de nuisance de ces attaques du fait de la centralisation des données.

Remplacer le médecin par l’ordinateur et le soin par les machines

Outre le risque de perte de savoir-faire liée à l’automation des diagnostics, qui selon Adrien Parrot représente un risque réel pour le métier de médecin, outre les problèmes déontologiques, stratégiques et sécuritaires posés par le principe d’une diffusion massive d’informations sensibles et privées à une entreprise américaine, deux autres problèmes peuvent être soulevés. Le premier tient à un risque spécifique au formatage des données (en vue de leur interopérabilité, c’est-à-dire leur utilisation par des plateformes avec des langages informatiques de différents types, et leur diffusion internationale) notamment avec la terminologie SNOMED ®(Systematized Nomenclature Of Medecine).

Cette dernière est une terminologie propriétaire, c’est-à-dire d’accès payant, et détenue par une organisation à but non-lucratif, SNOMED International, qui vend aux États et entreprises, ses technologies de standardisation, d’interprétation des data et de portabilité (techniques de facilitation du passage des données d’un terminal de traitement à un autre) SNOMED CT ® (Systematized Nomenclature Of Medecine Computer Technologies), à travers un réseau international de vendeurs publics et privés.

“L’OMS dispose par exemple d’une terminologie propre, l’ICD11 (International Classification of Diseases pour laquelle la France dispose d’un accès en tant que membre de l’OMS) et des systèmes de traitement open source tels que l’OpenEHR (Electronic Health Record) pourraient servir de complément à une standardisation intégralement publique et gratuite, excluant les logiques marchandes.”

Le caractère propriétaire de cette terminologie, se justifiant de l’autonomie politique, a-partisane et non-nationale de la structure SNOMED International, ne saurait éteindre les interrogations concernant la possibilité de développer des terminologies internationales gratuites, open source et d’accès illimité, sur la base d’investissements massifs (et égalitaires) des États au sein des institutions internationales. D’autant que la prolifération de variantes payantes de ces technologies, produites par l’écosystème de revendeurs privés risque de parasiter le fonctionnement de l’ensemble du système du fait de sa centralisation (comment organiser efficacement un système centralisé avec des différences de technologies mêmes apparemment mineures entre ses différents maillons publics et privés) ?

L’OMS dispose par exemple d’une terminologie propre, l’ICD11 (International Classification of Diseases pour laquelle la France dispose d’un accès en tant que membre de l’OMS) et d’autres systèmes de traitement open source tels que l’openEHR (Electronic Health Record) pourraient servir de complément à une standardisation intégralement publique et gratuite, excluant les logiques marchandes.

L’un des problèmes géopolitiques posés par l’adoption de ce standard, est l’absence de nombreux pays dans les infrastructures de gouvernance et d’élaboration institutionnelle de ces technologies. La France n’a par exemple pour l’instant pas encore rejoint le IHTSDO (International Health Terminology Standards Developement Organisation), qui ne comprend toujours pas ni la Chine, ni la Russie, ni l’Inde, ni le Japon, ni aucun pays africain. Se pose donc ici la question de la vision politique de long terme induite par cette coopération.

“Ces deux standards sont en effet développés main dans la main avec les principaux acteurs privés de la data de santé et leur modèle repose sur l’externalisation du codage à des entreprises visant quant à elles le profit et vendant des applications payantes renforçant la rentabilité des organisations hospitalières.”

S’agit-il à travers ces questions de portabilité et d’inter-opérabilité, d’établir des standards de traitement des données hégémoniques, de faciliter ainsi la transformation des politiques publiques de santé des pays occidentaux et de favoriser développement d’un modèle économique transatlantique et transpacifique (Singapour et la Malaisie sont membres de l’IHTSDO ce qui révèle peut-être une manœuvre diplomatique pour éviter leur imbrication dans un modèle d’origine chinoise) de la donnée de santé? Au détriment d’un usage diplomatique pacifique et universel des démarches de communication de l’information scientifique en open-source (avec un système comme openEHR) ? Quid de l’importance accordée à la recherche internationale sur les épidémies dans les pays non-membres de ces organismes (Ebola par exemple) ?

Aucune affirmation certaine n’est envisageable, mais le devoir de surveillance citoyenne critique s’impose une fois de plus. Les significations politiques possibles des rapprochements entre les principaux acteurs privés du secteur de l’uniformisation des données de santé doivent nous inciter à l’interrogation sur leurs motivations. L’organisation américaine Health Level 7 (HL7) par exemple, propriétaire du grand système de traitement informatique des données de santé FHIR (Fast Healthcare Interoperability Ressources), dont les procédures d’harmonisation et de portabilité avec le SNOMED CT laissent penser qu’il s’agirait à terme pour les pays membres de l’IHTSDO de favoriser le développement d’un secteur privé transatlantique et transpacifique du traitement de ces données en vue de leur rentabilité financière.

Ces deux standards sont en effet développés main dans la main avec les principaux acteurs privés de la data de santé et leur modèle repose sur l’externalisation du codage à des entreprises visant quant à elles le profit et vendant des applications payantes renforçant la rentabilité des organisations hospitalières.

Le projet Argonaut initié par HL7, dont Microsoft et Apple sont notamment partenaires, suit les recommandations de nombreux rapports de groupes d’influence soutenus par les industries de l’électronique de santé américains et européens dont le JASON task force ou l’EHRA (European Heart Risk Association). Ces derniers alimentent l’argument de la nécessité de développer un secteur rentable de la donnée de santé, privilégiant les terminologies propriétaires et leur interopérabilité au détriment d’un modèle alternatif fondé intégralement sur l’open source gratuit et intégralement laissé aux soins de la recherche publique.

Cette logique générale contribue à freiner une fois de plus la diffusion totale, ouverte, gratuite et inconditionnelle du savoir sur la médecine aux praticiens, aux scientifiques et au reste du monde. En effet, le développement (même à partir de systèmes open source comme openEHR) encouragé par ces rapports et organisations, de versions payantes des logiciels et systèmes de classification va restreindre, par les logiques de concurrence entre vendeurs de produits et les logiques de captivité technologique (comme c’est le cas pour les utilisateurs d’Apple et d’une partie de ses produits), associées aux pressions budgétaires sur les hôpitaux, l’exploitation correcte des données.

De l’aveuglement idéologique aux mauvaises décisions politiques

Nous sommes en réalité face à une volonté de réforme politique censée favoriser la rentabilité des hôpitaux privés et la réduction des coûts de gestion des hôpitaux publics. Et ce, par l’automatisation des diagnostics via des logiciels et des environnements payants captifs issus d’entreprises privées à but lucratif, visant l’amélioration du flux d’information entre les technologies de surveillance à domicile et l’hôpital, afin de favoriser le recours accru aux soins en ambulatoire (comme le préconise la loi de juillet 2019 d’Agnès Buzyn) et le développement de l’industrie technologique de surveillance médicale américaine et européenne.

En effet, les associations de lobbying auprès des institutions publiques telle que la COCIR (le Comité européen de coordination de l’industrie radiologique, électro-médicale et de technologies de l’information pour les soins de santé, établi à Bruxelles) financent directement des associations internationales à but non lucratif, visant l’élaboration des standards et recommandations d’interopérabilité et d’implémentation administrative de ces technologies numériques de santé tels que l’IHE, l’Integrating the Healthcare Enterprise.

“Puisque l’étiologie – description des causes des maladies- est la clef de tout diagnostic et donc de toute prescription médicamenteuse, l’influence majeure de ces terminologies sur les diagnostics sera l’autre facteur de risque pour lequel il faudra renforcer notre vigilance collective contre toute tentative d’influence des lobbys pharmaceutiques.”

Enfin, l’emploi majoritaire de technologies dites “vendeuses”, donc des logiciels payants élaborés à partir d’une appropriation des licences terminologiques préexistantes (dont l’EHR qui est open source), nécessitera le recrutement de data scientists issus de professions et de logiques extra-hospitalières (ce qui est déjà prévu et valorisé par la loi française de juillet 2019 nous l’avons vu), chargés d’accélérer les procédures administratives et la rentabilité, hors de tout contrôle par la sphère des praticiens médicaux.

Puisque l’étiologie – description des causes des maladies – et la symptomatologie sont la clef de tout diagnostic et donc de toute prescription médicamenteuse, l’influence majeure de ces terminologies sur les diagnostics sera l’autre facteur de risque pour lequel il faudra renforcer notre vigilance collective contre toute tentative d’influence des lobbys pharmaceutiques sur les ingénieurs et les représentants du corps médical et de la recherche dans le cadre de ces processus de standardisation.

Les scandales récents liés aux conflits d’intérêts avérés entre les experts médicaux du DSM (le livre de référence pour le diagnostic psychiatrique aux États-Unis) et les entreprises pharmaceutiques, ont conduit à une médicalisation généralisée de pans entiers de population servant les intérêts financiers des fabricants de médicaments (épidémie soudaine et intrigante d’enfants diagnostiqués avec un « trouble de l’attention » aux États-Unis en l’occurrence) comme le décrivait le Dr.Patrick Landman dans le Figaro.

L’invention de maladies telles que l’ostéoporose (vieillissement naturel des os transformé par le marketing des firmes pharmaceutiques en maladie proprement dite) ou le « syndrome de la bedaine » dont l’impact a été retentissant au cours des années 2000, nous invitent à exercer une surveillance critique face au renforcement numérique massif des possibilités de recoupement arbitraire de symptômes présents dans l’ensemble de la population en vue de l’augmentation de la vente de médicaments (l’abaissement des seuils de diagnostic du diabète aux États-Unis est un autre exemple des méthodes employées par les industriels de la santé pour augmenter leur chiffre d’affaires).

À contrario de ces logiques, l’OMS dispose par exemple d’une terminologie propre, l’ICD11 (pour laquelle la France dispose d’un accès en tant que membre de l’OMS) et des systèmes de traitement open source tels que l’openEHR pourraient servir de complément à une standardisation intégralement publique et gratuite, excluant les logiques marchandes.

Face à ces interrogations, à ces doutes légitimes soulevés par cette décision politique contestée, un fil idéologique semble se dessiner derrière ce recours brusqué à l’intelligence artificielle sous pavillon privé. Celle de la justification des coupes budgétaires dans l’hôpital public par le développement des soins ambulatoires, et du « monitoring continu» c’est-à-dire le suivi extra-hospitalier des maladies, notamment chroniques (diabète, cancer, etc.) via les nouvelles technologies (montres connectées, smartphones, applications de suivi en direct du métabolisme et de suggestion de comportements alimentaires et sportifs ou médicamenteux).

“La start-up nation prétendrait-elle ainsi faire émerger d’un seul tenant un levier d’entraînement pour l’industrie numérique (sous domination américaine et perspective occidentalo-centrée), son cortège de statuts professionnels précaires, et imposer une société de contrôle biométrique hyper-invasive ?”

De nombreuses start-ups, telles que Mynd Blue proposeront désormais de soigner la dépression par un suivi électronique des états biologiques, donnant lieu à un rappel par message téléphonique de la nécessité de reprendre le traitement chimique anti-dépression. Pourquoi faire appel à un psychiatre quand un iPhone suffit ? Peut-être qu’il y a là l’occasion de faire d’une pierre trois coups ?

La start-up nation, grossier saint-simonisme 2.0 prétendrait-elle ainsi faire émerger d’un seul tenant un levier d’entraînement pour l’industrie numérique (sous domination américaine et perspective occidentalo-centrée) et son cortège de statuts professionnels précaires ? Imposer une société de contrôle biométrique hyper-invasive opérant la synthèse entre “les méthodes d’administration asiatiques” et la société de consommation américaine parachevant la confusion entre démocratie et technocratie (ce que préconisent des think tanks influents tels que l’Institut Berggruen) ? Et ce faisant, satisferait enfin les ambitions des groupes privés de santé, en justifiant par là la démolition les budgets dévolus à l’État social ?

Ce nouveau paradigme semble rendre service à la logique d’efficacité et donc de rentabilité défendue par un secteur privé de la santé dont les chiffres économiques – en berne au début de la décennie 2000 en France du fait de la résistance de l’hôpital public et de ses agents en matière de qualité de soins prodigués en dépit des conditions d’exercice désastreuses, remontent progressivement à mesure de la déliquescence des politiques publiques de santé. Déshabiller le public pour rhabiller le privé, n’est-ce pas la logique secrète, la continuité idéologique à l’œuvre dans cette promotion de la médecine algorithmique reposant en fin de compte sur un écran de smartphone dictant au patient les diagnostics et l’auto-médication en lieu et place des praticiens médicaux et hospitaliers ?

Contre la logique de la marchandisation généralisée, de la coupe dans les budgets des services publics justifiées par le recours contraint à l’ambulatoire et la tarification à l’acte (T2A) initiée par Roselyne Bachelot, contre la surveillance numérique continue, et la survalorisation de la clinique privée, nous devons défendre une utilisation raisonnée des progrès technologiques en médecine, fondée sur le soutien à l’open source, la diffusion publique des algorithmes et des bases de données anonymisées, afin de valoriser la recherche et non le profit d’une part. Et d’autre part, nous devons définir clairement les objectifs visés par la politique de santé publique.

Non pas parier en libéraux sur la spontanéité de “l’innovation” grâce au marché, mais planifier politiquement des objectifs d’éradication de maladies chroniques sévères (sida, cancer, hépatites etc.) et de recherche sur les nouvelles infections virales (coronavirus par exemple), au détriment de la rentabilité privée (par exemple les vaccins contre le sida dont la recherche a été stoppée par la coupe des crédits du CNRS en 2017, et dont la réussite potentielle mettait en péril les 19 milliards de chiffres d’affaires annuels du secteur pharmaceutique sur les trithérapies ou encore la difficulté des chercheurs spécialisés sur les coronavirus à trouver des fonds).

Contre l’influence toujours plus pressante des big pharma dans la recherche, nous devons soutenir une politique de démarchandisation du savoir scientifique par la mise en place d’un pôle public du médicament et la défense du partage universel des connaissances médicales facilité par l’open source. Si le Health Data Hub actuel polarise la majorité des financements pour la recherche, cela risque d’être sous la férule du filtre des prix financés par les grandes firmes pharmaceutiques qui se sont d’ores et déjà positionnés en pré-sélectionneurs de l’avenir de la recherche dans le domaine de l’IA en médecine.