Privatisation de la santé et colonisation des données

Les géants de la tech se lancent dans une course aux applications et services qui proposent des soins médico-psychologiques. Si l’utilité de tels produits est loin d’être avérée, ils promettent néanmoins à ces entreprises de nouvelles sources lucratives de données hautement personnelles… Un « colonialisme des données » qui ouvre la voie à une gestion individuelle des problèmes de santé et masque la privatisation rampante de ce domaine. Par Anna-Verena Nosthoff, Nick Couldry et Felix Maschewski, traduit par Jean-Yves Cotté [1].

Se piquant de philosophie lors d’une interview en 2019, Tim Cook, PDG d’Apple, avait abordé la question de « la plus grande contribution d’Apple à l’humanité ». Sa réponse était sans équivoque : elle concernerait « le domaine de la santé ».

Depuis, la promesse de Cook s’est concrétisée sous la forme de plusieurs produits « innovants », censés « démocratiser » les soins médicaux et donner à chacun les moyens de « gérer sa santé ». Ces dernières années, Amazon, Méta et Alphabet ont également tenté de chambouler le marché de la santé. Dernièrement, on a même appris que la société de surveillance Palantir avait remporté un contrat de 330 millions de livres pour créer une nouvelle plateforme de données destinée au British National Health Service (NHS)…

La pandémie de COVID-19 a accéléré cette tendance, laissant dans son sillage divers réseaux de recherches, services de santé en ligne, cliniques et autres entreprises qui ont pour objectif affiché de « repenser l’avenir de la santé » (pour reprendre l’expression de Verily, filiale d’Alphabet) à l’aide de « montres connectées » et autres outils numériques. Si cette ambition n’est pas neuve, ses modalités varient : les incursions des plus grandes entreprises dans le domaine de la santé ne sont plus uniquement axées sur le corps. Non contentes de cartographier membres et poumons, elles ciblent à présent l’esprit.

Ce nouvel intérêt des GAFAM pour le bien-être psychologique, dans le cadre de leur projet de « cartographier la santé humaine », est loin d’être une coïncidence. Les gros titres relatifs à une « crise de la santé mentale » ont récemment envahi la presse américaine : le taux de suicide a atteint un niveau record aux États-Unis et, comme l’a souligné Bernie Sanders, selon un récent sondage du Center for Disease Control and Prevention (CDC), près d’un adolescent américain sur trois a déclaré que son état de santé mentale laissait à désirer…

Les conglomérats technologiques ne sont que trop heureux de lancer des campagnes autour de ces faits alarmants, mettant l’accent sur les efforts qu’ils déploient pour lutter contre ces tendances délétères. Selon les propres mots, ils souhaitent « résoudre la crise de la santé mentale ». Les GAFAM se fient à une maxime longuement éprouvée : en eaux troubles, bonne pêche.

Quand Apple s’enrichit sur les maladies mentales

Les premières initiatives d’Apple visant à pénétrer le marché de la santé ont connu une accélération marquée. Après avoir affiné son outil de signature concocté en 2019, l’entreprise a depuis collaboré activement avec plusieurs instituts de recherche. Son but : prouver que sa « montre connectée », bien plus qu’un coach sportif, peut être un « sauveur de vie » capable de détecter une fibrillation auriculaire, voire une infection de COVID-191 .

Dans le cadre de sa mission consistant à offrir à ses utilisateurs un « tableau complet » de leur état de santé, il est logique qu’Apple ait annoncé récemment son intention d’ajouter une évaluation médico-psychologique à son Apple Watch… La nouvelle fonction « état d’esprit » (state of mind) de l’application « pleine conscience » d’Apple demande à l’utilisateur d’évaluer ce qu’il ressent sur une échelle de « très agréable » à « très désagréable », d’indiquer les aspects de sa vie qui l’affectent le plus (comme la famille ou le stress au travail) et de décrire son humeur par des adjectifs comme « heureux » ou « inquiet ». La promesse, semble-t-il, est qu’une utilisation quotidienne évitera de consulter un psychologue…

Au printemps 2023, on apprenait que le National Health System britannique avait partagé sur Facebook des données intimes relatives à la santé de ses patients

L’application « pleine conscience » utilise ces données pour déterminer le niveau de risque de dépression. Hasard de calendrier : une étude récente sur la « santé mentale numérique » menée par des chercheurs de l’UCLA (et sponsorisée par Apple) a démontré que l’utilisation de cette application sur l’Apple Watch développait la « conscience émotionnelle » de 80 % des utilisateurs, tandis que 50 % d’entre eux affirmaient qu’elle avait un effet positif sur leur bien-être général – des résultats que l’entreprise ne manque pas de mettre en avant.

Au cours des prochains mois, Apple va vraisemblablement lancer d’autres logiciels liés à la santé mentale. Selon de récents rapports, l’entreprise travaille actuellement à une application censée non seulement traquer les « émotions » des utilisateurs, mais aussi leur donner des conseils médicaux : il s’agit de Quartz, un coach sportif alimenté par une intelligence artificielle.

Qu’il y ait bel et bien une crise de la santé mentale aux États-Unis est indéniable. Entre 2007 et 2020, le nombre de passages aux urgences pour des troubles d’ordre médicopsychologique a presque doublé, les jeunes étant les plus affectés…

Cependant, même si l’on admet que les outils « intelligents » puissent modestement bénéficier à certains patients, l’utilisation de wearables peut aussi générer stress et anxiété, comme d’autres études récentes l’ont démontré. [NDLR : Les wearables constituent une catégorie d’objets informatiques et électronique, destinés à être portés sur soi. Vêtements ou accessoires, ils ont la particularité d’être connectés à un appareil, comme un téléphone, pour recueillir des données relatives à la personne qui les porte et à son environnement]. De plus, l’accent mis sur des solutions technologiques de court terme fait courir le risque de détourner certaines maladies psychologiques des causes sociales et politiques qui les sous-tendent : exploitation au travail, instabilité financière, atomisation croissante, accès limité aux soins, alimentation et logement de mauvaise qualité…

Les applications de santé transfèrent également la responsabilité principale de la gestion des troubles médico-psychologiques aux individus eux-mêmes. Sumbul Desai, vice-présidente en charge de la santé chez Apple, a récemment affirmé que l’objectif de son entreprise « est de donner aux gens les moyens de prendre en charge leur propre parcours de santé ». Un mantra néolibéral ancien.

Quand Méta le gouvernement britannique livre ses données de santé à Méta

Apple n’est pas le seul géant de la tech à s’être penché sur la santé mentale de ses clients. Si le géant de Cupertino ne manifeste guère davantage qu’un intérêt purement formel à la question de la confidentialité des données, bien d’autres ne prennent même pas cette peine.

Au printemps 2023, on apprenait que le NHS avait partagé sur Facebook des données intimes relatives à la santé de ses patients. Pendant des années, le NHS avait fourni au réseau social et à sa maison-mère Méta, par l’intermédiaire de l’outil de collecte de données Meta Pixel, des renseignements comprenant des recherches sur l’automutilation et des rendez-vous de consultation pris par les utilisateurs de son site internet…

Outre les données des utilisateurs qui avaient visité les pages de son site internet relatives aux variations du développement sexuel, aux troubles alimentaires et aux services médicopsychologiques en cas de crise, l’Alder Hay Children’s Hospital de Liverpool a également transmis à Facebook et Méta des renseignements sur les prescriptions de médicaments. La clinique londonienne de santé mentale Tavistock and Portman a aussi fourni aux GAFAM les données d’utilisateurs ayant consulté sa rubrique sur le développement de l’identité de genre, spécialement conçue comme support éducatif pour les enfants et les adolescents…

Tandis que des experts en confidentialité comme Carissa Véliz conseillent aux institutions et professionnels de la santé de « recueillir le strict minimum de renseignements nécessaires pour soigner les patients, rien de plus », cette violation des données du NHS par Facebook illustre la tendance inverse. Dans ce cas précis, les données personnelles ont été obtenues sans que les patients y consentent ou en soient informés, afin de leur adresser des publicités ciblées – le cœur du modèle économique de Méta.

Ce scandale est simplement le dernier d’une longue liste de catastrophes récentes en matière de relations publiques pour l’entreprise, juste après le fiasco du lancement de son métavers (ce n’est pas une coïncidence si l’avenir immersif d’internet proposé par Zuckerberg a lui-même été salué comme une « solution prometteuse pour la santé mentale »…). Il ne s’agit pas là d’un incident isolé : en mars 2023, on apprenait que la start-up de télé-santé Cerebral avait partagé avec Méta et Google, entre autres, des données médicales privées comprenant des renseignements relatifs à la santé mentale…

Quand Alphabet se rêve en coach de vie

La maison-mère de Google, Alphabet, est un autre explorateur des données de santé qui a pénétré le marché des wearables. Depuis la finalisation de son achat du fabricant de « montres connectées » Fitbit en 2021, la société s’est jointe à Apple pour vanter leurs mérites.

Si Jeff Bezos semble accaparé par ses rêves d’entrepreneuriat spatial et d’industrie lunaire, il n’en garde pas moins les pieds sur terre lorsqu’on en vient à ce domaine.

Dans la foulée d’une étude menée par Verily (filiale d’Alphabet spécialisée dans la recherche sur les sciences de la vie) pour savoir s’il était possible de détecter les symptômes de dépression avec un smartphone, Fitbit a récemment lancé une application « conçue pour vous donner une vision globale de votre santé et de votre bien-être en mettant l’accent sur les indicateurs qui vous tiennent à cœur ». Semblable à l’application « pleine conscience » d’Apple, elle comporte une fonctionnalité « humeur » qui permet à l’utilisateur de décrire et d’enregistrer ce qu’il ressent.

Une équipe de la Washington University à St Louis a utilisé les données Fitbit et un modèle d’intelligence artificielle pour concrétiser « la promesse d’utiliser des wearables pour détecter des troubles mentaux au sein d’une communauté large et diverse. » Selon Chenyang Lu, professeur à la McKelvey School of Engineering et l’un des concepteurs de cette étude, cette recherche est pertinente dans le monde réel puisque « aller chez un psychiatre et remplir des questionnaires chronophages explique que certains puissent avoir des réticences à consulter un psychiatre ». En d’autres termes, l’intelligence artificielle peut offrir un outil peu onéreux et peu contraignant pour gérer sa propre santé mentale.

Loin de prouver que les wearables peuvent diagnostiquer la dépression, l’étude a simplement relevé plusieurs corrélations potentielles entre une tendance à la dépression et les biomarqueurs connectés. Cela n’a pas empêché Lu de s’enthousiasmer : « Ce modèle d’IA est capable de vous dire que vous souffrez de dépression ou de troubles de l’anxiété. Voyez ce modèle d’IA comme un outil de dépistage automatisé. »

Cette exagération de la preuve empirique perpétue l’idée que la technologie est à même de résoudre les troubles médico-psychologiques – pour le moins douteuse. Une chose l’est moins : c’est extrêmement lucratif pour Alphabet.

Fitbit n’est cependant pas la seule incursion de l’entreprise dans le domaine de la santé mentale. En plus des informations sur la prévention du suicide que Google Search affiche depuis des années au-dessus des résultats des recherches liées à la santé mentale, l’entreprise a récemment annoncé que les utilisateurs qui entrent des termes en relation avec le suicide verront apparaître une invite avec des démarreurs de conversation pré-écrits qu’ils pourront envoyer par SMS à la 988 Suicide & Crisis Lifeline.

Bien qu’un tel outil puisse s’avérer très utile en cas d’urgence, l’inquiétude est réelle de voir Google instrumentaliser les données sensibles ainsi recueillies en les transmettant à des annonceurs qui les exploiteront et les monétiseront de la même façon que les autres. Il convient de mentionner que ces nouvelles mesures de prévention du suicide n’ont été dévoilées par Google que quelques semaines après le suicide de trois de ses employés, ce qui a donné lieu à des spéculations quant à la santé mentale de son propre personnel. Dans ce contexte, ces nouvelles fonctionnalités peuvent être vues comme un coup médiatique pour détourner l’attention des problèmes urgents qui se posent à l’entreprise elle-même – et le modèle qu’elle encourage.

Quand Amazon renonce ouvertement à la confidentialité

Amazon s’achète également une image de prestataire de soins médico-psychologiques. Si Jeff Bezos semble accaparé par ses rêves d’entrepreneuriat spatial et d’industrie lunaire, il n’en garde pas moins les pieds sur terre lorsqu’on en vient à ce domaine.

Il a ainsi annoncé dès 2018 son intention de résoudre la crise de la santé mentale qui touche les États-Unis en « démocratisant » l’accès aux soins médicaux. Il a donc procédé au rachat de la pharmacie en ligne PillPack, puis a développé Amazon Pharmacy.

En 2019, il a lancé Amazon Care, une plateforme en ligne qui propose un suivi médical complet aux employés d’Amazon, 24 heures sur 24 et 7 jours sur 7 par messagerie et chat vidéo. Pour cela, il a dû collaborer avec Ginger, un service internet de psychothérapie fourni par une application qui se présente comme « une solution globale à la santé mentale » avec « des soins médicopsychologiques à tout moment ».

En 2021, Amazon a fermé Amazon Care et lancé Amazon Clinic, une plateforme virtuelle de soins médicaux plus ambitieuses que la précédente – il a déjà été annoncé qu’il était prévu de la déployer sur tout le territoire américain. Contrairement à Amazon Care, Amazon Clinic est ouvert à tous. Pour l’utiliser, il convient simplement d’accepter « l’utilisation et la divulgation d’informations protégées relatives à la santé » – en d’autres termes, renoncer à son droit à la protection de la vie privée aux termes de la loi fédérale sur la portabilité et la responsabilité en matière d’assurance maladie (Health Insurance Portability and Accountability Act ou HIPAA). Une telle démarche permet à Amazon d’accéder aux données les plus intimes des utilisateurs (la légalité du procédé est en cours d’examen par la Commission fédérale du commerce (Federal Trade Commission ou FTC).

En février 2023, Amazon a enrichi son offre de soins médicaux en rachetant One Medical, une entreprise qui propose des soins de santé primaires en ligne et en personne via une application, dans plus de vingt villes et régions métropolitaines américaines. Mindset, l’une de ses gammes de services spécialisée dans la santé mentale, propose son aide virtuelle avec des séances collectives ou un coaching individuel en cas de stress, d’anxiété, de dépression, de THADA ou d’insomnie.

Outre Amazon Clinic et One Medical, Amazon a récemment élargi son offre de soins médicaux à destination de ses employés en collaborant avec Maven Clinic, la plus grande clinique virtuelle du monde pour les femmes et les familles. Ce partenariat permettra à Amazon, dont le but est de se développer dans cinquante pays en plus des États-Unis et du Canada, d’avoir un accès lucratif à certains des ensembles de données les plus privés et sensibles de Maven Clinic.

Les risques de voir de telles données tomber entre les mains d’entreprises commerciales qui, dans certains cas, les transmettront sans coup férir à des autorités locales ou nationales sont évidents : comme, par exemple, le cas de cette adolescente du Nebraska qui, après que Facebook et Google ont fourni à la police ses messages privés et ses données de navigation, a été condamnée en 2021 pour avoir violé la loi sur l’avortement de l’État…

La colonisation des données de santé mentale

La course effrénée d’Amazon, Méta, Apple et Alphabet pour s’implanter dans le domaine de la santé mentale va bien au-delà d’une simple rupture. L’ampleur de ce bouleversement doit être appréhendée dans le cadre d’une volonté d’annexer des ressources jusqu’alors inexploitées.

Sous le couvert d’entreprises visant à soulager l’instabilité mentale, une forme fondamentale d’appropriation des biens est en cours. Après tout, jusqu’à récemment, l’idée même que notre santé mentale (et l’ensemble des données qui y est associée) puisse être un actif commercial dans un bilan aurait paru étrange. Aujourd’hui, une telle réalité est presque banale. C’est un des aspects de ce que Nick Couldry et Ulises Mejias ont nommé le « colonialisme des données ».

Les quatre entreprises font partie d‘un secteur commercial plus vaste axé sur l’exploitation de nouvelles définitions de la connaissance et de la rationalité destinées à l’extraction de données. À travers l’accaparement habituel de données sensibles et de nombreux autres domaines sociaux (la santé, l’éducation, la loi, entre autres), nous nous dirigeons vers « la capitalisation sans limites de la vie », pour reprendre l’expression de Couldry et Mejias.

La normalisation des wearables comme outils destinés à l’individu, sous couvert de gérer sa santé (tant physique que mentale), fait partie du processus, en convertissant la vie quotidienne en un flux de données que l’on peut s’approprier à des fins lucratives. L’application « pleine conscience » d’Apple et « Log Mood » de Fitbit ne sont que deux exemples de la façon dont les GAFAM, après avoir colonisé le territoire du corps, jette leur dévolu sur la psyché.

À l’instar des précédentes étapes du colonialisme, la colonisation des données affecte de façon disproportionnée ceux qui sont déjà marginalisés. D’une part, les intelligences artificielles impliquées, qui reflètent les stéréotypes dominants, ont un parti-pris défavorable à l’égard des groupes marginalisés, comme l’a souligné un récent procès intenté à Apple pour « biais racistes » de l’oxymètre sanguin de son Apple Watch.

D’autre part, l’idée selon laquelle la santé mentale comme la santé physique relèvent avant tout de la responsabilité individuelle et de la gestion personnalisée assistée par la technologie ne tient aucun compte du fait que les problèmes de santé sont souvent liés à des questions systémiques – conditions de travail abusives ou malsaines, manque de temps et de ressources financières, etc. Le colonialisme des données masque ces facteurs en faveur de la course au profit, alors qu’il est plus que jamais nécessaire d’avoir un débat sur les facteurs socioéconomiques à l’origine de la crise de la santé mentale.

Alors même que ce changement structurel dans la gestion de notre corps et de notre esprit est en cours, il peut sembler paradoxal qu’une vision rigoureusement déterministe, asociale et individualisante quant à la manière dont peut être gérée la santé mentale soit mise en avant par les principaux extracteurs de données. Plus qu’un paradoxe, c’est peut-être l’alibi parfait pour détourner l’attention du pillage nos données.

Notes :

[1] Article originellement publié par notre partenaire Jacobin sous le titre « Big Tech Is Exploiting the Mental Health Crisis to Monetize Your Data ».