« Smart cities » : mirage solutionniste pour voiler l’impuissance politique

https://unsplash.com/photos/u9ANbfdYEZs
Personnes marchant à Tokyo, Japon © Koukichi Takahashi

La smart city – ou ville intelligente – est un concept en pleine expansion. L’Hexagone ne fait pas exception puisque de nombreuses collectivités locales consacrent déjà des sommes faramineuses pour favoriser ce mode de développement. Pas moins de 25 villes françaises ont ainsi nommé un responsable chargé de rendre plus smart leur environnement urbain. Green city ou safe city : gauche et droite communient dans l’enthousiasme, misant sur le numérique pour s’attaquer au réchauffement climatique comme à l’insécurité. Un moyen commode de dépolitiser ces enjeux et de pallier la misère budgétaire par une inflation technologique.

Les villes accueilleront 75% de la population mondiale d’ici à 2050, concentrant le gros des efforts de lutte contre la criminalité, la pollution ou encore les inégalités. C’est dans ce contexte que la smart city apparaît souvent comme la solution miracle à toutes ces problématiques qui guettent la ville moderne. Selon la Commission Nationale de l’Informatique et des Libertés (CNIL), la smart city, pourrait ainsi permettre « d’améliorer la qualité de vie des citadins […] à l’aide de nouvelles technologies ». Plusieurs domaines inhérents à la ville sont concernés : les « infrastructures publiques, les réseaux, les transports, les e-services et e-administrations ». La mise en place de la 5G en France ne fait qu’accélérer ce modèle puisqu’elle permet une circulation plus rapide des données. La mairie de Paris vient ainsi d’accepter le déploiement de cette nouvelle technologie afin de se préparer à accueillir les JO 2024.

Gauche et droite unies dans l’enthousiasme

Dans un article du Monde Diplomatique de juin 2019, le chercheur et membre de La Quadrature du Net Félix Tréguer analyse « qu’en-dehors de quelques initiatives en matière de mise à disposition des données, de gestion intelligente de l’éclairage public ou des bennes à ordures, la ville intelligente se définit surtout par son volet sécuritaire [la safe-city] ». Pourtant, s’il est vrai que les arguments sécuritaires sont largement mobilisés pour mettre en place des villes intelligentes, les promoteurs de la smart city sont capables d’adapter leurs justifications et leurs arguments au gré des enjeux locaux. La ville intelligente sera tantôt dévouée à la protection de l’environnement à Grenoble, tantôt attentive à la répression de la criminalité dans les villes marquées par une violence soudaine, comme à Nice.

Les dirigeants de certaines villes françaises ayant pris des engagements en faveur de la protection du climat s’enthousiasment face à la mise en place de technologies ultra-modernes. Le maire de Grenoble Eric Piolle, a ainsi inauguré en 2017 la construction d’un « technopôle » doté de « smart grid ready intelligent » afin de raisonner la consommation d’énergie. De même, les métropoles de la capitale des Alpes et de Besançon favorisent la mise en place d’une taxe d’habitation proportionnelle aux déchets des habitants. Pour ce faire, 150 000 nouveaux bacs personnels équipés de puces RFID vont être mis en place à Grenoble tandis que les camions de collecte équipés de matériel de pesée seront dotés de nouveaux logiciels. À Bordeaux, plus de 500 capteurs ont été installés pour la mise en place du projet Smart Lights afin de réduire la consommation d’électricité communale. Même principe à Rillieux-La-Pape, commune de 30 500 habitants ayant mis en place un éclairage intelligent. À Lyon, c’est la baisse de consommation d’énergie des habitants du quartier Hikari qui est souhaitée. Ce projet construit par le géant Bouygues équipe les immeubles de capteurs en tout genre (fournis en grande partie par Toshiba) tandis que chaque résident est équipé d’une tablette de suivi énergétique.

Les nouvelles technologies alimentées par les très polluants métaux rares transportés de l’autre bout du globe pour constituer des « cités écologiques » permettent avant tout d’exporter la pollution engendrée par le système de production et de consommation.

Cette liste n’est pas exhaustive mais permet de comprendre les arguments mis en avant par les responsables politiques soucieux de « verdir » leur image. Qu’en est-il réellement ?

À Lyon, la mise en place de ces nouvelles technologies à l’utilité douteuse – suffit-il de donner une tablette de suivi énergétique pour susciter une nouvelle manière de consommer ? – a entraîné un surcoût de 8% dans la construction du quartier Hiraki, pour le plus grand bénéfice de Bouygues ; une réalité qui jure de prime abord avec l’objectif de réduction des coûts. L’ambition affichée de construire des « cités écologiques » prête à sourire lorsque l’on connaît l’impact environnemental des métaux rares incorporés dans les technologies numériques. Ces matières premières sont en effet transportées de l’autre bout du globe jusqu’aux villes françaises sans que cet aspect ne soit discuté dans le débat public.

Pour une analyse du coût écologique du numérique, lire sur LVSL la synthèse de Nathan Dérédec sur les métaux rares : « Métaux rares : l’empire global de la Chine ».

Ici comme ailleurs, la focalisation sur l’utilité du numérique voile le coût écologique du système de production et de consommation. De même, comment comprendre cette volonté de favoriser une gestion « citoyenne » des déchets, lorsque l’on garde à l’esprit la difficulté de recycler nombre de détritus ?

Lutte 2.0 contre l’insécurité et la pauvreté

Si les arguments en faveur du climat ont souvent été mobilisés dans le contexte des smart cities, de nombreux projets dont le but est de réduire la criminalité essaiment à travers l’hexagone. Il est d’ailleurs très difficile, sinon impossible, pour un responsable politique de s’opposer à cette tendance techno-sécuritaire. En 2014, l’engagement n° 95 du futur maire de Grenoble promettait de supprimer les caméras de surveillance en espace extérieur. Ce dernier avait provoqué un tollé médiatique en plaisantant sur le fait qu’il allait revendre les caméras désinstallées à la mairie de Nice, friande de technologies sécuritaires. La ville méditerranéenne a en effet été marquée par les terribles évènements du 14 juillet 2016, qui ont entraîné une « thérapie de choc » sécuritaire à travers la ville. Ainsi, l’autorisation de portiques de reconnaissance faciale dans deux lycées fut entérinée en 2018 par le conseil régional de la région PACA. L’aéroport de la ville a subi le même traitement de faveur. L’application Reporty, largement plébiscitée par le maire de la ville Christian Estrosi, permet aux citoyens de dénoncer des délits et des incivilités à la police.

L’enthousiasme pour la magie du numérique rend inaudible les discours considérant le chômage ou le mal-logement comme des problèmes structurels, appelant des solutions politiques et non des gadgets technologiques.

À Marseille, l’entreprise Engie Ineo se voit confier le projet « d’observatoire big data de la tranquillité publique » permettant d’agréger différentes sources d’information issues des services publics (police, hôpitaux…), de partenaires externes (ministère de l’Intérieur entre autres) ou des opérateurs télécoms afin de cartographier en temps réel les flux de population. De même, avec son projet de « vidéoprotection urbaine » (VPU), la cité phocéenne suit la même voie que la mairie niçoise. Le projet S²ucre, mené par l’Allemagne et la France, repose sur l’analyse de vidéos et permet de surveiller de larges foules et de prédire leurs comportements. Le projet a déjà été déployé lors du festival d’Hambourg ainsi que lors de la manifestation du 1er mai à Paris.

Pour une analyse de la captation des données par la technologie numérique et de l’économie qu’elle alimente, lire sur LVSL l’article d’Evgeny Morozov : « Captation des données par les GAFAM : aller au-delà de l’indignation ».

Entre 2010 et 2016, le nombre de caméras de surveillance a ainsi augmenté de 126% (1,5 million d’appareils en France). Ces installations onéreuses ont largement été plébiscitées par la puissance publique. En 2009, Brice Hortefeux reprend ainsi le « Rapport sur l’efficacité de la vidéoprotection » à la méthodologie douteuse pour justifier l’utilisation d’une telle technologie. C’est la plupart du temps suite à des actes terroristes que leur mise en place est favorisée (attentats de Londres en 2005, de Boston en 2013 ou de Nice en 2016). Pourtant, de nombreuses études ont prouvé que ces technologies n’avaient qu’une efficacité limitée. Le sociologue Laurent Mucchielli, auteur de Vous êtes filmés ! Enquête sur le bluff de la vidéosurveillance, analyse ainsi que lors des attentats terroristes de Nice, « les caméras n’ont fait que filmer l’horreur et n’ont servi à rien ». Il dénonce un véritable « bluff technologique qui permet plus de lutter contre un sentiment d’insécurité que contre les problèmes de sûreté réellement existants ». En revanche, les multiples coupes budgétaires imposées au Ministère de l’intérieur depuis la présidence de Nicolas Sarkozy sont rarement évoquées dans le débat public.

Dans un rapport financé par la métropole Lyonnaise destiné à « repenser la ville intelligente dans les quartiers populaires », la smart city se met également au service de l’amélioration des services publics. Le problème résiderait justement dans leur difficulté à dématérialiser les administrations. Les territoires ruraux sont accusés du même mal dans l’étude « Smart City vs. Stupid village » publiée en 2016 par la Caisse des Dépôts. Ainsi, la smart city permettrait de rapprocher les citoyens des administrations publiques à l’image de la mission « numérisation de la Seine-Saint-Denis ». La métropole de Toulouse a, quant à elle, favorisé le développement de l’application Jobijoba afin de favoriser l’emploi local tandis que d’autres plateformes sont créées afin de faciliter les demandes de logements sociaux.

Plaider pour la mise en place de la smart city permet aux décideurs politiques de montrer une attention aux problèmes rencontrés par les classes touchées par le chômage de masse ou par la ségrégation spatiale. Ici encore, l’enthousiasme pour la magie du numérique rend inaudible les discours considérant le chômage ou le mal-logement comme des problèmes structurels, appelant des solutions politiques et non des gadgets techniques.

Le projet avorté d’éco-quartier de Sidewalk à Toronto, entièrement conçu par Google, allait ainsi devenir une véritable usine à data.

Ces décisions font également fi du désintérêt de nombre de citoyens envers la dématérialisation de l’administration. Le dispositif Visio-guichets dans les Hautes-Alpes, censé rapprocher les usagers des services publics, n’a par exemple attiré qu’un faible nombre d’utilisateurs. D’autant plus que la dématérialisation des administrations permet souvent de réaliser de fortes coupes budgétaires. Pourtant, 86% des collectivités françaises sont aujourd’hui engagées dans cette voie. La numérisation, cache-misère d’administrations réduites à peau de chagrin par des décennies d’austérité ?

Les bénéficiaires cachés de la « transition numérique »

Si la mise en place de smart cities se fait pour des raisons différentes, force est de constater que ces dernières possèdent des traits communs. Les villes intelligentes sont souvent réalisées dans le cadre de Partenariats Publics-Privés (PPP). Ce mode de financement se fait avant tout au bénéfice des GAFAM américaines (Google, Amazon, Facebook, Apple, Microsoft), et dans une moindre mesure de certains géants chinois ou de différentes entreprises françaises spécialisées dans les high-techs (Thales Group, Safran SA, AnyVision…).

Pour une analyse de la rivalité sino-américaine au prisme du numérique, lire sur LVSL l’article de Sarah Vennen : « Cyber-colonialisme : comment le régime chinois de techno-surveillance s’impose au Zimbabwe ».

Ces PPP permettent aux industries de faire de certaines villes françaises une vitrine de communication à bas prix. La ville de Valenciennes s’est ainsi équipée de caméras de surveillance dotées d’un système de reconnaissance faciale offertes par Huawei. Bien souvent, les « villes intelligentes » s’insèrent dans l’économie globale des données, accroissant et raffinant les moyens de procéder à leur captation. Le projet avorté d’éco-quartier de Sidewalk à Toronto, entièrement conçu par Google, allait ainsi devenir une véritable usine à data. L’opacité régnant autour du projet faisait craindre à certains spécialistes que les données soient utilisées à des fins commerciales. D’autant que le stockage et l’analyse des nombreuses données produites par les géants du web est totalement incompatible avec des impératifs relatifs au changement climatique…

Envers et contre tout, l’installation de villes intelligentes semble largement plébiscitée par l’État. Ce dernier, par le prisme de la Banque Publique d’Investissement (BPI) finance de nombreux projets (VOIE, financement du projet de safe-city de Nice à hauteur de 11 millions d’euros…). De même, les groupes Thales et Engie Ineo, qui participent à de nombreux projets de villes sécuritaires, sont possédées respectivement à 23,6% et 25,8% par l’État français. Les collectivités locales semblent également tout faire pour faciliter l’implantation des géants de la technologie. La région Grand Est a ainsi récemment accordé à Huawei une subvention de 800 000 euros pour construire un site de production, afin de fabriquer des « équipements de communication sans fil 4G et 5G destinés principalement au marché européen ». La mairie de Lyon a, quant à elle, dépensé plus de 340 millions d’euros dans des PPP au bénéfice d’une trentaine d’entreprises dont Toshiba, Bouygues, Transdev ou SPL Lyon Confluence. L’utilité et la nécessité d’un tel mode de développement n’est pourtant que très peu remise en cause.

On doit à Evgeny Morozov d’avoir forgé le concept de solutionnisme technologique, qu’il détaille dans l’un de ses livres au titre évocateur : Pour tout résoudre, cliquez ici. Il renvoie à la croyance selon laquelle des problèmes irréductiblement politiques peuvent trouver des solutions technologiques grâce au numérique. Le paradigme de la « causalité », analyse-t-il, est peu à peu remplacé par celui de la « connexion » ; plutôt que d’interroger la cause de la pauvreté, du changement climatique ou de l’insécurité, la classe politique estime qu’une meilleure « interconnexion » entre demandes et offres, problèmes et solutions, permise par les technologies digitales, permettra de les résoudre. Ce qui revient in fine à considérer que les problèmes politiques sont générés par un accès déficient à l’information, et non par des institutions dysfonctionnelles.

Les smart cities apparaissent comme l’une des têtes-de-pont de ce solutionnisme technologique. Ce leitmotiv ne permettra ni de questionner l’austérité budgétaire, ni le paradigme politique dominant.

Olivier Tesquet : « Nous sommes prisonniers de l’état d’urgence technologique »

© James Startt

Journaliste à Télérama et spécialiste des questions numériques, Olivier Tesquet s’intéresse à la thématique de la surveillance dès 2011 avec La Véritable histoire de Wikileaks. En 2020, il co-rédige avec Guillaume Ledit Dans la tête de Julian Assange (Acte Sud, 2020). Avec À la Trace, sous-titré « enquête sur les nouveaux territoires de la surveillance » et publié aux éditions Premiers Parallèle, il plonge son lecteur dans les méandres du commerce de la donnée et de la revente de nos surplus comportementaux. Olivier Tesquet se définit lui-même comme un cartographe ; il se fixe pour objectif de nommer et décrire les mécanismes par lesquels un « capitalisme de la surveillance » est rendu possible. Entretien réalisé par Maxime Coumes et Florent Jourde et retranscrit par Cindy Mouci et Catherine Malgouyres-Coffin.


LVSL – Dans votre précédent ouvrage, À la trace, vous rappelez que le contrôle des individus ou des groupes est une affaire régalienne, notamment à travers la mise en place des livrets ouvriers, des fiches anthropométriques ou encore des pièces d’identités, du XVIIe au XXe siècle. Comment s’est opéré ce glissement vers une forme de surveillance hybride, où les États semblent maintenant s’accommoder de l’immensité des données collectées par les GAFAM, données qu’ils réutilisent eux-mêmes pour étendre le contrôle au plus près des comportements individuels ?

Olivier Tesquet – Je pars du postulat que deux effets se conjuguent. Avec la révolution technologique et la dématérialisation progressive de nos vies, nous nous sommes mis à donner de plus en plus d’informations sur nous, et quelque part, nous sommes devenus des participants actifs dans cette vaste entreprise. Les États, dans cette opération, ont largement délégué ce contrôle à des entreprises, qu’elles soient grosses et visibles – comme les plateformes qu’on connaît tous, de Google à Facebook – ou plus petites et sans pignon sur rue, à l’image des courtiers en données ou des officines qui vendent des outils de surveillance. Ces entreprises-là sont devenues le bras armé et invisible de cette nouvelle organisation du contrôle, en opérant à la fois pour leur compte personnel à des fins pécuniaires, mais également à des fins régaliennes, dans la mesure où elles viennent fournir un certain nombre d’informations utiles à des gouvernements. Ainsi, le renseignement militaire américain achète par exemple des données de géolocalisation issues d’applications grand public à des data brokers qui les aspirent par le biais d’un petit morceau de code informatique dissimulé à l’intérieur desdites applications.

L’exemple le plus frappant, de mon point de vue, c’est l’affaire Snowden, parce que c’est l’histoire d’une double délégation privée. J’entends par là que l’on en connaît la partie la plus médiatisée et spectaculaire : une coopération entre des grandes entreprises technologiques et les services de renseignement américains, en l’occurrence la NSA. Mais il ne faut pas oublier qu’Edward Snowden travaillait pour Booz Allen Hamilton, une entreprise de consulting qui, dans l’Amérique post-11 septembre, a fait partie de ce cortège d’acteurs privés associés à la lutte contre le terrorisme.  À l’heure où le monde dans lequel nous vivons est perçu comme de plus en plus dangereux, que ce soit pour des raisons liées aux risques terroriste ou sanitaire, la tentation de cette privatisation est de plus en plus forte.

LVSL – Est-ce une tendance naturelle de l’État selon vous ? Est-ce que la technologie (au sens large) a accéléré cet appétit de récolte et de classification de la donnée ?

O.T. – Il faut rappeler qu’en France, lorsque l’État invente l’identité, au XVIIIe siècle, que ce soit avec le livret ouvrier, le carnet anthropométrique pour les populations nomades ou la photographie judiciaire, les seules personnes sommées de la justifier sur la voie publique sont les pauvres, les étrangers, les travailleurs et les criminels récidivistes. C’était le cas jusqu’à l’invention de la carte d’identité pour tous, au siècle dernier. Un véritable glissement anthropologique s’est opéré dans un laps de temps très court. Aujourd’hui, on voit bien que les technologies d’identification – en premier chef la biométrie – ne concernent plus seulement les populations considérées comme dangereuses. Bien sûr, il reste des élus, majoritairement de droite, pour invoquer le suivi très serré des fichés S, mais nous sommes entrés dans une ère très foucaldienne où le seuil de suspicion s’est considérablement abaissé. La reconnaissance faciale, pour paraphraser un colonel de gendarmerie auteur d’une note sur la question, « c’est le contrôle d’identité permanent et général ».

LVSL – On sent presque une défiance de l’État vis-à-vis de la population et inversement. C’est révélateur de nos démocraties, notamment en Europe du Sud où on a vraiment des États en danger. On a peut-être même un cercle vicieux qui s’accélère avec le renforcement de cette technologie plutôt intrusive ou invasive.

O.T. – C’est tout à fait observable en France depuis quelques années. Face à la baisse de confiance de larges pans de la population dans la parole politique, les institutions et la puissance publique, il ne reste que deux outils pour gouverner : la force et la technologie, la seconde pouvant se mettre au service de la première. C’est, je crois, la raison pour laquelle les démocraties libérales sont – paradoxalement – plus poreuses aux dérives de la surveillance.

LVSL – La notion de « souveraineté numérique » se développe depuis quelques années, au point qu’une commission d’enquête sénatoriale s’est emparée du sujet et a remis son rapport en octobre 2019. Les États ont-ils encore une marge de manoeuvre devant un capitalisme de surveillance aussi impérieux et dominant ? Cette notion de « souveraineté numérique » n’est-elle pas déjà en retard sur la puissance actuelle des GAFAM ?

O.T. – Aujourd’hui, la question de la « souveraineté numérique » est à la fois un vœu pieux et une forme de hochet politique. Je vais prendre un exemple très récent : nous l’avons vu avec StopCovid. Le gouvernement, et notamment Cédric O (Secrétaire d’État chargé de la Transition numérique, NDLR) ont justifié cette aventure par le génie français. Notons d’ailleurs que la France est à peu près le seul pays européen à avoir choisi de s’entêter dans une voie absolument souveraine, avec un système qui n’est pas du tout interopérable avec d’autres pays de l’Union européenne. Je me souviens de la façon dont Cédric O a défendu le projet dans l’hémicycle, où il a quand même invoqué pêle-mêle Pasteur et le Concorde. Or ces déclarations sont pour moi des déclarations d’intention. Elles peuvent être louables : la question de la souveraineté numérique est on ne peut plus légitime, à l’heure où tout le monde ou presque s’accorde sur l’existence d’une forme de colonisation par les grandes plateformes à la fois de nos économies et de nos intimités, stockées dans des data centers sur lesquels nous n’avons pas de contrôle, utilisées à des fins qui nous échappent.

Mais la réalité révèle un double discours. Nous avons de nombreux exemples qui montrent que l’État s’appuie encore sur des entreprises qui, précisément, menacent cette souveraineté. L’exemple qui me vient spontanément en tête, c’est celui de Palantir, qui travaille depuis les attentats de 2015 avec la DGSI pour exploiter les métadonnées que le renseignement intérieur français collecte dans le cadre de la lutte antiterroriste, au mépris des arrêts rendus par la Cour de Justice de l’Union européenne. À l’époque, pour justifier ce contrat, Patrick Calvar, l’ancien patron de la DGSI, avait affirmé qu’aucun acteur français ou européen n’était capable de répondre au cahier des charges dans le temps imparti. En dernier recours, devant l’urgence, ses services se sont donc tournés vers une société américaine notoirement opaque, proche de la communauté du renseignement américain au point qu’elle a été lancée après le 11-Septembre grâce au soutien d’In-Q-Tel, le fonds d’investissement de la CIA.

La crise sanitaire commande un StopCovid, la crise sécuritaire, un Palantir. C’est bien qu’il y a un problème quelque part. Mais ce n’est pas un mal spécifiquement français, et il faut ajouter que la souveraineté numérique ne doit pas servir de pis-aller. Le patron de Thalès expliquait récemment qu’il était parfaitement capable de construire un Palantir français en deux ans. Mais la question qui m’intéresse est ailleurs : souhaite-t-on réellement construire un Palantir français ?

LVSL – La DGSI a renouvelé son contrat avec la société Palantir. Le gouvernement français ne risque-t-il pas, en saisissant cette opportunité, l’enfermement technologique ?

O.T. – Au-delà du contrat avec une entreprise en particulier, les technologies sécuritaires provoquent ce qu’on appelle l’effet cliquet. C’est à dire qu’une fois adoptées, on ne revient jamais en arrière. On l’observe particulièrement dans la lutte antiterroriste. Pensez au plan Vigipirate : mesure d’exception en 1995, toujours en vigueur aujourd’hui. Il faut se figurer « l’effet cliquet » comme une horloge : le temps qui a passé est irrémédiablement perdu. Une fois qu’on s’est allié à Palantir, peut-on s’en désaccoutumer ?

C’est d’autant plus inquiétant que Palantir, qui mettait déjà en œuvre la politique d’expulsion des clandestins de l’administration Trump, est en train de se renforcer considérablement à la faveur de la crise sanitaire. Il n’est pas anodin qu’après des années d’atermoiements, l’entreprise ait été introduite en Bourse en pleine pandémie. Elle continue à perdre de l’argent, mais va tout de même enregistrer des profits records cette année, après avoir démarché à peu près toutes les autorités sanitaires de la planète. L’Allemagne et la France lui ont un peu claqué la porte au nez, mais ça n’a pas été le cas au Royaume-Uni ou aux États-Unis. Chez nos voisins britanniques, Palantir gère les données hospitalières, et pourrait bientôt organiser la politique de tests, qui a souffert d’un certain nombre de ratés. Outre-Atlantique, Palantir travaillera main dans la main avec les autorités sanitaires pour décider qui bénéficiera du vaccin contre la Covid-19 quand il sera disponible. C’est un pouvoir considérable, de vie ou de mort pourrait-on dire.

LVSL – On le voit aussi dans le Health Data Hub qui a été confié à Microsoft.

O.T. – C’est l’autre exemple que j’avais en tête. Dans le contexte sanitaire actuel, sur un sujet aussi sensible que l’administration de nos données de santé, le débat mérite mieux qu’un contrat attribué sans appel d’offres à une société américaine qui, au nom du Cloud Act et de la sécurité nationale, peut voir ses serveurs réquisitionnés à tout moment. Je rappelle d’ailleurs qu’à ce titre, le Health Data Hub a été attaqué devant le Conseil d’Etat, et suscite la circonspection de nombreux parlementaires. Et l’enjeu dépasse cette simple plateforme. Aujourd’hui, lorsque nous utilisons Doctolib par exemple, présenté comme une licorne française et une fierté nationale, il faut rappeler que nos données sont hébergées chez Amazon.

LVSL – Il existe également un double discours souverainiste qui se manifeste par la négation ou l’ignorance de ce qui se fait en France en matière de potentiel numérique. C’était un peu le sentiment du patron d’OVH qui affirmait que l’on aurait peut-être pu le faire (en parlant du Heath Data Hub).

O.T. – Nous sommes prisonniers de ce que j’appelle l’« état d’urgence technologique ». Qu’il s’agisse de Palantir, de StopCovid ou du Health Data Hub, nous sommes contraints de décider dans l’urgence, temporelle et politique, sécuritaire et sanitaire.

LVSL – On assiste depuis plusieurs années à des « glissements de souveraineté » de la part des États notamment en Europe au profit de compagnies géantes comme Facebook ou Amazon. Facebook développe le Libra sa propre monnaie, énième affront aux yeux de certains dirigeants. Ces entreprises qui dépassent dans leurs chiffres d’affaires le PIB de certains pays, constituent-elles une menace pour l’État nation ?

O.T – En 2010, Nicolas Sarkozy, lorsqu’il était président de la République, avait organisé le G8 : outre les chefs d’Etat habituels, il avait convié les patrons des grandes plateformes encore bourgeonnantes. À l’époque, sous le chapiteau du jardin des Tuileries, les gouvernements étaient encore très enthousiastes vis-à-vis de Facebook ou Google, parce qu’ils offraient, pensait-on à l’époque, des opportunités de croissance, assez prodigieuse.

Dix ans plus tard, on constate que le rapport de forces s’est complètement inversé : Mark Zuckerberg est reçu comme un chef d’État à l’Elysée. À contrario, quand un ministre fait le déplacement dans la Silicon Valley, par exemple Bernard Cazeneuve après les attentats de 2015, il traite avec un vice-président quelconque. Les échanges en eux-mêmes sont déséquilibrés, on ne discute pas du tout d’égal à égal. D’un point de vue purement symbolique, c’est à la fois très révélateur et extrêmement problématique. Comment fait-on pour arrêter un train lancé à grande vitesse quand on sait que quelques réglages ne vont pas suffire à freiner sa course ? Aujourd’hui, les tentatives de régulation, trop timides, se fracassent sur la réalité de cette dissymétrie.

LVSL – Dans cette forme de dépendance et de rapport assez nocif entre certains États et ces entreprises, on se pose la question : Comment sortir de ce dispositif ? Est-ce que la solution viendrait de la société civile ? Peut-on imaginer d’autres sorties et par quels moyens ?

O.T. – Pendant longtemps, on a estimé que le meilleur moyen de renverser la vapeur était de négocier au niveau international, ou en tout cas supranational. C’est à la fois terriblement banal et proprement terrifiant de le verbaliser ainsi, mais un pays seul ne peut rien face à Facebook ou Google. Mais, le temps passant, il semble de plus en plus évident qu’il faut ramener la discussion devant notre porte. La ligne de front est ici. Il faut relocaliser les luttes, mesurer l’impact des technologies dans notre environnement le plus proche. Les spatialiser, c’est leur donner une forme, une préhension. L’espace urbain tendant à devenir le lieu où la toute-puissance de la technique se manifeste, j’ai tendance à penser que les victoires peuvent s’obtenir au niveau local. Google a voulu transformer un quartier de Toronto en showroom de la ville intelligente de demain ; les habitants s’y sont opposés et le projet a été abandonné. On observe une tendance similaire sur la reconnaissance faciale : aux Etats-Unis, plusieurs mairies, de San Francisco à Portland, ont interdit son utilisation à des fins policières. En France, la CNIL ou des tribunaux administratifs ont interdit un certain nombre d’expérimentations sur le territoire, à Nice ou à Marseille.

Plus généralement, je crois aussi à la capacité d’action collective des citoyens. Aujourd’hui, le plus gros caillou dans la chaussure des GAFAM est une class action lancée par Max Schrems, un étudiant autrichien particulièrement procédurier qui, emmenant des centaines de milliers de personnes des plateformes dans son sillage, a obtenu la tête du Privacy Shield, l’accord qui encadrait le transfert de données entre l’Europe et les Etats-Unis et permettait aux têtes de pont du capitalisme de surveillance de capitaliser sur le dos de nos intimités.

LVSL – Pour rester sur le thème de la souveraineté, les réseaux sociaux sont des lieux qui n’échappent pas aux enjeux géopolitiques. Avez-vous l’impression que les risques d’ingérence étrangère sont sous-estimés ?

O.T. –  Aux États-Unis, plusieurs personnes ont été inculpées après l’élection présidentielle de 2016. Elles gravitent autour de l’Internet Research Agency, une ferme à trolls basée à Saint-Pétersbourg et financée par un proche de Poutine, Yevgeny Prigozhin. Avec peu de moyens – on parle d’environ 100 000$ –, en alimentant le dissensus sur des sujets de société brûlants, en montant des groupes Facebook ou en organisant de faux événements, ils ont pu toucher 130 millions de personnes.

Paradoxalement, les gouvernements occidentaux sous-estiment et surestiment la menace. Ils la sous-estiment parce qu’ils la comprennent très mal. On peine encore à comprendre le soft power extrêmement agressif, volontiers manipulatoire de la Russie, qui a développé une doctrine de déstabilisation passant à la fois par des canaux médiatiques assez officiels (je pense à Russia Today ou à Sputnik), et par des hackers clandestins opérant pour le compte du GRU, le renseignement militaire, contre des cibles allant du Parti démocrate américain à Emmanuel Macron. Cela forme un tout, et pour nombre de responsables politiques, c’est encore un impensé stratégique.

Dans le même temps, nous avons tendance à surestimer la menace. C’est peut-être une tendance plus collective, qu’on peut lier au scandale Cambridge Analytica. On commence à bien connaître l’affaire : on sait qu’une officine en conseil politique, financée par un milliardaire conservateur et boostée aux données siphonnées sur Facebook, a œuvré à la victoire de Donald Trump et du camp du Brexit. Mais quel a été son impact réel ? Il y a quelques semaines, un rapport de la CNIL britannique a publié une autopsie de l’incident. Ce rapport est très intéressant parce qu’il explique que l’entreprise a surtout brillé par sa capacité à vendre une compétence plutôt qu’un outil en particulier. Sa meilleure arme, c’est son argument marketing. Dès lors, ce qui m’intéresse, c’est de savoir quel écosystème rend Cambridge Analytica possible. Et je crois qu’un tel acteur n’existerait pas s’il n’était pas mis en orbite par une économie souterraine peuplée de courtiers en données, qui formulent quotidiennement les mêmes promesses de prédiction totale et s’alimentent entre eux. On ne peut pas qualifier Cambridge Analytica de menace mortelle pour la démocratie en faisant l’économie de ce panorama global.

Plus largement, je pense que nous avons un problème méthodologique au moment de se confronter à cette question de l’emprise des sociétés informatiques sur nos vies – ce que Shoshana Zuboff appelle le « capitalisme de surveillance ». On peut s’en tenir à ce mot-là, même si je diverge sur la définition. Elle s’intéresse à ces dispositifs pour ce qu’ils nous font, je préfère m’attarder sur ce qu’ils sont. Les nommer, les décrire. Le danger réside dans la possibilité de la manipulation, avant même sa réalisation. C’est pour cela que j’envisage mon rôle comme celui d’un cartographe, dont la tâche consiste à mettre à nu ces mécanismes cachés. Je veux croire qu’on échafaudera une critique plus opérante du « capitalisme de surveillance » en révélant son architecture qu’en se concentrant sur ses effets, difficiles à mesurer.

LVSL – Sur la loi de sécurité globale, votre avis en quelques mots ?

O.T. – On a beaucoup parlé de l’article 24, qui entraverait considérablement la possibilité de documenter l’action de la police, mais il faut regarder dans son intégralité le contenu de cette pochette surprise sécuritaire, votée, rappelons-le, en plein reconfinement. Il s’agit ici d’offrir un cadre légal à des technologies déjà utilisés par la police dans un cadre « non stabilisé », pour reprendre l’expression de Gérald Darmanin.

Autrement dit, d’écrire la loi à partir de sa transgression, comme on a pu le faire avec la loi renseignement de 2015, ce qui me semble particulièrement problématique en démocratie. L’article 22 prévoit par exemple la banalisation des drones qui, à l’exception des domiciles, pourront filmer n’importe quelle situation, et transmettre leurs images en temps réel à un poste de commandement.

On les voit déjà quadriller le ciel, puisqu’en dépit d’une décision du Conseil d’Etat, qui a interdit leur utilisation pour contrôler le respect du confinement, la préfecture de police s’en sert de manière routinière pour surveiller les manifestations. Il faudra également être très vigilants sur la reconnaissance faciale : elle a délibérément été laissée de côté, les rapporteurs du texte insistant sur sa complexité.

Cela ne veut pas dire qu’elle est interdite, au contraire : les amendements qui réclamaient un encadrement plus strict ont été méthodiquement rejetés ; et le livre blanc de la sécurité, récemment publié par le ministère, rappelle qu’elle devra avoir été éprouvée pour les Jeux Olympiques de 2024. Il faut donc s’attendre à des expérimentations tous azimuts dans les mois qui viennent, un délai qui me semble bien court pour débattre de la portée technologique, juridique et philosophique d’une technologie aussi invasive et prédatrice des libertés fondamentales.

LVSL – En août 2019, Frédéric Lordon, lors d’un débat organisé par l’université populaire d’Eymoitiers, voyait dans cette appropriation de l’image et de la violence filmées des smartphones une sorte d’émancipation de la vérité, mais qui selon lui allait être, à très courte échéance, remise en cause par les pouvoirs publics. Au regard de cette mise en garde, quel regard portez-vous sur le floutage des visages des forces de l’ordre ?

O.T. – Gérald Darmanin nous explique que c’est pour protéger l’intégrité physique et psychique des fonctionnaires, afin qu’ils ne soient pas jetés en pâture sur les réseaux sociaux. Ce qu’il oublie de rappeler, c’est que dans le même temps, la proposition de loi vise à faciliter la production de vidéos par les forces de l’ordre, notamment celles des caméras piétons, afin de rendre compte « des circonstances de l’intervention ». Or, à l’heure actuelle, ces bodycams, expérimentées depuis deux ans, ne filment pas en permanence. C’est le policier qui décide quand l’activer. Ce qui se manifeste dans cette proposition de loi relative à la sécurité globale, c’est l’asymétrie de plus en plus dangereuse entre une police discrétionnaire et des citoyens mis à nu. D’un côté, des centres de commandement hermétiques. De l’autre, un espace urbain sans angles morts.

Et ce qui se joue, c’est une bataille des images. Le passage à tabac de Michel Zecler l’a encore montré : il ne peut y avoir de débat sur les violences policières qu’en les montrant. Or, un gouvernement qui nie leur existence et refuse d’employer cette terminologie n’est pas seulement contesté dans son monopole de la violence légitime ; c’est son régime de vérité qui est attaqué de toutes parts, par des anonymes équipés de smartphones. À mes yeux, l’article 24 procède de la même logique que l’interdiction de l’anonymat sur les réseaux sociaux : c’est l’expression autoritaire d’un pouvoir qui ne supporte pas d’être contesté par celles et ceux à qui il refuse de donner la parole.

NETFLIX : main basse sur l’audiovisuel français

La Révolution © Netflix

L’épidémie de COVID 19 et les confinements qu’elle a engendrés ont renforcé la puissance des plateformes SVOD dans le monde en prenant la place des salles de cinéma fermées et qui connaissent une crise sans précédent. Depuis son arrivée en France en 2014, Netflix, la plus célèbre de ces plateformes, n’aura cessé de créer la polémique en forçant l’économie du cinéma français à s’adapter à sa puissance de plus en plus colossale. Aujourd’hui, ce n’est plus seulement sur l’avenir des salles que pèse Netflix mais aussi sur la production de films et de séries dans l’hexagone. Avec ses 7 millions d’abonnés (un chiffre qui continue de se renforcer) Netflix impose progressivement sa puissance culturelle. De plus, il ne faut pas oublier que Netflix n’est que la tête d’une locomotive numérique qui compte derrière elle des mastodontes comme Amazon Prime et Disney+.


En octobre dernier, dans un entretien accordé aux Échos, la ministre de la Culture Roselyne Bachelot a annoncé que les plateformes de SVOD (Service de Vidéos à la Demande) tels que Netflix, Disney+ ou Amazon Prime devront contribuer à la production d’œuvres nationales ou européennes en investissant 20 à 25% de leur chiffre d’affaires français. Même si le taux annoncé est moins élevé que le minimum de 25% proposé en Conseil des ministres, cette mesure est l’une des premières prises contre l’influence grandissante des plateformes américaines sur l’industrie cinématographique (et audiovisuelle) française.

Déconstruction de la diffusion et de la production audiovisuelles

Depuis son arrivée en France en 2014, Netflix a suscité beaucoup d’inquiétudes. La plus évoquée concerne l’assouplissement progressif de la chronologie des médias. Créée dans les années 1980 suite à l’émergence de la VHS, cette chronologie a pour but de protéger la projection des films en salle, en définissant un ordre légal d’exploitation, du cinéma à la vidéo, en passant par la télévision. Cette politique de diffusion permettait aussi d’inciter les télévisions françaises à investir dans des films français, et de financer des projets ambitieux ou originaux. Depuis 2018, son organisation est la suivante (elle devrait continuer de s’assouplir en 2021) :

Délais d’attentes d’exploitation des films à partir de la sortie au cinéma Modes d’exploitations des films
4 mois Vente et location de vidéo à la demande (VOD) avec paiement à l’acte
8 mois Diffusion sur les chaînes privées ayant signé un accord avec les organisations du cinéma (comme Canal+ ou OCS)
17 mois Diffusion sur les télévisions payante de cinéma (comme Ciné+)
17 mois Vidéo à la demande (VOD) par abonnement pour les plates-formes respectant une série d’engagements dans le financement de la création française.
22 mois Première fenêtre gratuite : télévision en clair investissant au moins 3,2 % de sa part antenne dans le financement d’œuvres européennes (TF1, France Télévisions, M6).
30 mois Deuxième fenêtre gratuite : télévision en clair n’ayant pas d’engagement d’investissement dans le financement d’œuvres européennes.
30 mois Vidéo à la demande par abonnement : plates-formes ayant signé un accord avec les organisations du cinéma mais qui ne contribuent pas à la création française.
36 mois Vidéo à la demande par abonnement SVOD n’ayant signé aucun accord et ne financant pas la création française (Netflix, Disney+, Amazon Video).
44 mois Mise à disposition en vidéo à la demande gratuite (Youtube).

Cette politique de diffusion est remise en question. Depuis 2018 et les nombreux prix festivaliers amassés par Roma d’Alfonso Cuaron, Netflix s’est imposé comme un producteur influent de films d’auteurs hollywoodiens largement plébiscités par la critique. On pense par exemple à The Irishman de Martin Scorsese, un film de 3h30 ayant coûté plus de 100 millions de dollars, ou Uncut Gems, le dernier film en date des frères Safdie. Netflix a préféré garder ses productions sur sa plateforme plutôt que de s’adapter aux règles françaises de la chronologie des médias. Mise à part quelques happy few qui ont pu voir ces films sur des écrans de cinéma, ils n’ont été diffusés que sur Netflix et il est impossible de les voir sans être abonné à la plateforme. Son succès grandissant a forcé la France à revoir peu à peu son système de diffusion.

Cet agenda de conquête se manifeste par l’installation des bureaux de Netflix, en janvier dernier, dans le cœur du IXe arrondissement de Paris. À proximité d’Opéra, voisin avec Mozilla, Netflix construit peu à peu un ilot qui se pense en Silicon Valley française.

À première vue, on pourrait penser qu’une mise à jour de la chronologie des médias, adaptée à la nouvelle façon de consommer des images, serait bénéfique pour tous. Elle permettrait par exemple permettrait de projeter au cinéma certains chef d’œuvres contemporains. Il ne faut cependant pas oublier qu’une déconstruction brutale de cette règle de diffusion bouleverserait totalement la production française.

En ne diffusant pas ses films au cinéma, Netflix ne se contente pas de prendre une part de l’audience originellement captée par les exploitants des salles : il réduit le rôle de la télévision dans la diffusion et dans la production française en prenant sa place (si ce n’est en l’écrasant). L’investissement télévisuel est pourtant indispensable aux financements de projets français. Néanmoins, certains distributeurs se plaignaient du rôle déjà minime que les télévisions ont joué ces dernières années dans le cinéma français. C’est le cas, par exemple, de Vincent Maraval, distributeur de films pour Wild Bunch dans un entretien accordé au magazine La Septième Obsession en décembre 2018 : « Personne ne veut toucher à la chronologie des médias, car ce serait avouer que la télévision est morte, qu’elle n’a plus d’obligations à tenir. Soit la diffusion a des devoirs, soit elle n’en a plus, ce qui est le cas actuellement ; à ce moment-là, il faut rendre les droits aux ayants droit : cela passe par l’obligation ou l’assouplissement de la chronologie des médias. »

L’une des craintes vient du fait que, si Netflix écrase la télévision française, il prendrait la place de l’un des principaux financeurs du cinéma français qu’est Canal+. Ce contributeur financier a mis plus de 150 millions en pré achetant des films, dépensés dans plus de 130 films français et de co-productions européennes. Néanmoins, il connaît un chiffre d’affaire en baisse, dû au rachat mouvementé du milliardaire Vincent Bolloré en 2015, ainsi qu’à une érosion de ses abonnés et à la perte des droits de diffusion du foot.

L’investissement de Netflix menace cet écosystème à court terme. Les chaînes de télévision française, désormais concurrencées par des entreprises mondiales, risquent de ne plus répondre à l’injonction qui leur était faite de financer un cinéma français dont elles se préoccupent de moins en moins.

Dans un dossier des Inrockuptibles au sujet des plateformes numériques, paru en décembre 2019, François Aymé, le président de l’Association française des cinémas d’art et d’essai (AFCAE) s’interrogeait sur les éventuelles dérives d’une implication trop forte des plateformes dans la diffusion d’œuvres françaises : « si les plateformes prennent trop de place, j’ai peur qu’elles vident de leur substance la production indépendante. Il y a un risque d’uniformisation qui, par ailleurs, existe déjà dans le cinéma. Est-ce que l’intervention publique sera suffisamment forte pour qu’il y ait une alternative aux plateformes ? » Il redoute également une invisibilisation de certains films, habituellement soutenus et exposés par voie traditionnelle (presse, festival, programmateur), noyés dans le bain des algorithmes (qui pousse les utilisateurs, selon leurs profils, vers tel ou tel type de contenu) : « il y a une large part de la production qui, sur une plateforme, ne sera jamais vue parce qu’il n’y a pas ce travail d’éditorialisation qu’il peut y avoir dans les salles, sur une chaîne comme Arte ou dans un festival. »

Si l’on se fie aux statistiques du CNC d’avant janvier 2020, Netflix ne serait pas responsable d’une baisse de la fréquentation des salles. Ces dernières affichaient même des records de spectateurs, avec près de 215 millions de tickets vendus en 2019. Cependant, les salles de cinéma, plus que jamais en difficulté économique suite aux confinements, pourraient être touchées par l’importance que les plateformes ont désormais prises dans la consommation de séries ou de films.

Toujours dans le dossier des Inrockuptibles, le directeur du cinéma parisien Le Louxor, Emmanuel Papillon, était moins critique vis-à-vis de la plateforme que la plupart des membres de sa profession : « je ne suis pas opposé à ce que les films sortent en VOD et en salle en même temps. Il faut penser aux œuvres, à la façon dont elles vivent. La meilleure façon pour que des films trouvent un public, c’est peut-être cette sortie conjointe, mais seulement sur une certaine typologie de films, des films art et essai, très pointus. Je ne pense pas que Netflix retire des spectateurs aux salles de cinéma. C’est peut-être même le contraire. Plus les gens regardent des films, plus ils sont exigeants et cinéphiles. Il n’y a pas de réelle opposition. La salle est un socle incontournable, c’est un lieu social que toutes les plateformes du monde ne pourront pas supprimer. »

Certains acteurs du monde du cinéma accueillent ces changements comme la possibilité d’une rénovation d’un écosystème français qui serait de plus en plus verrouillé. Thomas Ordonneau, le directeur de la société de production, de distribution et d’édition Shellac, engagé auprès d’un cinéma d’auteur ambitieux, envisage la possibilité d’un changement d’organisation : « ces dernières années, il y a eu un désengagement massif des investisseurs télé du cinéma recherche et découverte. Il va peut-être y avoir un renouvellement de la demande des chaînes qui, pour se distinguer de la concurrence, devront cultiver leur niche. Il faut croiser les doigts pour que la régularisation du marché soit suffisamment intelligente pour maintenir une diversité, un renouvellement des formes, des talents. C’est là que le politique a un rôle à jouer, mais je crois que ça fait un moment qu’il ne le joue plus. La façon dont ils produisent, qui est une façon un peu studio, de carte blanche, est plutôt tentante pour un cinéaste. »

Ce sentiment de désengagement du gouvernement est partagé par Saïd Ben Saïd, producteur des derniers films de Paul Verhoven. Jugeant comme irréversible le mouvement de cette révolution numérique, il ne renonce pas à la possibilité de travailler un jour avec Netflix ou d’autres plateformes ; il reste néanmoins attaché à l’idée « qu’un film est un objet pensé pour la salle. »

Pour Maraval, cette résignation s’explique : « Netflix est né d’un vide qu’on a laissé. Les principaux responsables sont les plus gros exploitants qui aimeraient que les films se financent tous seuls et avoir un taux de rotation le plus grand possible, avoir toujours du passage. Netflix est une émanation de l’incapacité de la distribution indépendante à amener des films vers des gens qui voulaient les voir. Il a répondu à un besoin que les salles de cinéma et la distribution indépendante ne satisfaisait pas, ainsi qu’un manque que la télévision ne comblait plus. On dit que Netflix veut tuer la salle mais ce n’est pas vrai. C’est la loi qui oblige à choisir. De nombreux exploitants sont pris en otage par la Fédération nationale des cinémas français, noyauté en grande partie par UGC, Gaumont et Pathé. On a mené une politique qui ne favorise que les gros, et donc ni les petits films, ni les petites salles. Cet appel d’air a créé Netflix. Ils ne tuent pas la salle : ils prennent juste un créneau qu’on a laissé vacant. »

Ce n’est pas tant pour les salles que Netflix serait néfaste, mais pour une partie de la production française en fragilisant son financement.

Entre terre promise et mirage pour la création

Reed Hastings, PDG et fondateur de Netflix, le revendique : « Netflix devient un producteur français majeur et plus seulement une machine à exporter des contenus hollywoodiens. » L’entreprise n’interfère pas seulement avec le mode de diffusion français : elle s’infiltre au sein même de la production culturelle.

Cet agenda de conquête se manifeste par l’installation des bureaux de Netflix, en janvier dernier, dans le cœur du IXe arrondissement de Paris. À proximité d’Opéra, voisin avec Mozilla, Netflix construit peu à peu un ilot qui se pense en Silicon Valley française.

En 2020, l’entreprise a annoncé avoir investi 100 millions d’euros dans l’Hexagone pour enrichir ses contenus Made in France, comme l’adaptation sérielle d’Arsène Lupin avec Omar Sy ou encore Balle perdue, un film d’action avec Ramzy Bedia. Le géant du streaming signe un nombre croissant de contrats avec des créateurs français, comme par exemple Fanny Herrero, la scénariste de la série Dix pour cent diffusé sur France 2.

Les contenus français de Netflix ont pourtant un fort accent hollywoodien. Le formatage de référents culturels hexagonaux dans un style américain ne peut qu’interroger sur le potentiel de soft power qui pourrait s’exercer par ce biais. La série La Révolution, qui évoque les prémices du bouleversement de 1789, s’apparente entièrement à une œuvre hollywoodienne fantastique et anachronique ; c’est en vain que l’on y chercherait la moindre vraisemblance historique, ou le moindre intérêt politique, alors qu’elle renvoie à un épisode fondamental de l’histoire de France. Dans la même veine, Marseille (produite en partenariat avec TF1), une série avec Gérard Depardieu, est davantage inspirée par la série House of cards sur la Maison blanche, que par la réalité sociale, politique ou géographique de la ville, réduite au rang de carte postale. Au vu des échecs publics et critiques que ces œuvres ont connus, la firme américaine semble cependant (pour le moment) incapable de s’adapter à la demande française, à cause de ce décalage culturel.

Affiche de la série La révolution © Netflix

Néanmoins, pour Vincent Maraval, l’influence qu’a pu avoir la plateforme en France répond bel et bien à une certaine demande, à laquelle le cinéma français n’aurait pas su répondre : « Netflix a été là pour une tranche d’âge, les 18-35 ans. La France a mis en place un système qui était vertueux au départ mais qui se retrouve contre-productif aujourd’hui, car c’est la télé qui finance le cinéma. Sauf qu’à un moment, comme ces gens n’aiment pas perdre de l’argent, ils financent des téléfilms, en priorité pour la ménagère de plus de cinquante-ans qui ne va pas au cinéma. En France on a qualifié d’œuvres de cinéma ce qui s’apparente globalement à des téléfilms. On a abandonné l’idée de créer des œuvres pour ces 18-35 ans, qui sont plus des prototypes ou des films de genre. En répondant aux plus jeunes générations, Netflix cherche à créer ce que Canal+ a pu amener à ses origines. L’arrivée de Netflix sur le marché a été possible car il y avait un désert culturel et une impossibilité d’accès vers une certaine typologie de films. »

Ce constat générationnel est partagé par Joelle Farchy, professeure en science de l’information et de la communication à Paris 1. Dans un débat pour l’émission La Grande table des idées sur France Culture, la professeure reconnaît un mérite à Netflix : « Il y quatre ou cinq ans, quand je demandais à mes étudiants quelle serait leur disposition à payer pour voir des films, leur réponse était : « zéro ». Netflix a eu le mérite de voir l’évolution des usages et d’être capable de transformer la manière dont les gens, notamment les jeunes, consomment. »

« Ces financements servent à créer une génération de « créateurs Netlfix » en France »

Dans la continuité de ces remarques, Netflix a su s’affirmer comme un révélateur de jeunes talents et un espoir créatif, dans un système de production français de plus en plus verrouillé. Depuis quelques années, la firme collabore avec des écoles de cinéma comme La Fémis ou Les Gobelins, ou plus récemment avec l’école Kourtrajmé à Saint-Denis, ouverte par le réalisateur des Misérables (2019), Ladj Ly. En mécène, Netflix finance les courts métrages de fin d’année et des équipements, et propose également des ateliers destinés à développer l’écriture de séries et à organiser des tables rondes ou des conférences (avec le réalisateur Spike Lee notamment), ainsi que des séances de coaching sur l’expression orale, avec son propre jury.

Tweet de ©Netflix France

Ces financements servent à créer une génération de « créateurs Netflix » en France. Cette approche générationnelle se perçoit dans les sujets de films français diffusé par la plateforme, comme Paris est à nous (2019) réalisé et écrit par Elisabeth Vogler qui, malgré un accueil critique très mitigé, souhaitait montrer la jeunesse française de son époque, au lendemain des attentats de 2015 durant les manifestations de la loi Travail ; autre exemple avec le film Banlieusards (2019) écrit par le rappeur Kery James, inspiré de l’affaire Adama Traoré.

Pour continuer d’accroître son influence en France, Netflix la met plus que jamais en avant avec un service de diffusion continue de ses programmes, nommé « Direct », pour 2021. La France serait-elle le laboratoire de innovation qui cherche désormais à concurrencer les télévisions nationales en produisant sa propre programmation en temps réel ? Cette stratégie cherche à conquérir le public de la télévision tricolore ; mais quelle contre-stratégie utilise la télévision française face à ce conquérant ?

SALTO, une riposte peine perdue

© Capture d’écran Salto.fr

Avec SALTO, une riposte française aux plateformes mondialisées serait-elle née ? Ce SALTO est un SVOD née d’une alliance entre les chaînes concurrentes TF1, M6 et France Télévisions pour faire face à leurs adversaires américains. SALTO permettrait de voir des productions inédites des trois chaînes, comme la série Ils étaient dix (adapté du roman d’Agatha Christie) ou The pier, la nouvelle série des créateurs de La casa de papel rachetée par TF1. Elle diffuserait surtout des épisodes de soap ou de télé-réalité avant la télévision ; les abonnés pourront y découvrir en avance des épisodes de Plus belle la vie, Scènes de ménage ou L’amour est dans le pré… Mais il n’est pas certain que les fans de soap et de télé-réalité trouvent un intérêt à payer pour voir en avant-première ce qui s’apparente aux derniers vestiges de la télévision. En termes de films, la plateforme chercherait à diffuser des valeurs sûres, avec des oeuvres de Jacques Demy ou de François Truffaut, bien que ceux-ci soient déjà diffusés sur Netflix…

Plutôt que de séduire un jeune public, SALTO servirait surtout à conserver un public plus âgé, qui délaisse la télévision au profit de Netflix ou d’Amazon. Cependant, on peut se demander si les téléspectateurs réguliers cesseront de suivre leur programme quand le prix de la redevance télé est de 138 euros en France métropolitaine.

La présidente de France Télévisions Delphine Ernotte décrit sa plateforme comme une « offre d’appoint » qui n’aurait pas pour vocation de concurrencer Netflix, Prime Video ou Disney+ et n’en serait que « complémentaire. » Pourtant, les prix de SALTO, qui vont de 6,99€ par mois à jusqu’à 12,99€ par mois pour quatre écrans (soit un euro de moins que Netflix), sont excessivement chers pour une « offre d’appoint. » Sans oublier que les abonnés à Netflix peuvent également compter sur des programmes originaux. Autrement dit, SALTO fait une erreur en calquant ses tarifs sur ceux des SVOD américains.

La situation devient paradoxale : d’un côté, la direction affirme vouloir faire de SALTO une « offre d’appoint », complémentaire à celle des grands SVOD américains ; tandis que de l’autre, les véritables ambitions de la plateforme semblent de récupérer l’audimat traditionnel des grands groupes télévisuels français. Autrement dit, si SALTO veut véritablement récupérer l’audimat traditionnel des groupes TF1, France Télévisions et M6, il devra afficher de grandes ambitions artistiques.

À l’origine, la plateforme des géants de l’audiovisuel français n’envisageait d’investir que 45 millions d’euros en trois ans, un montant bien dérisoire face aux milliards de dollars de Netflix et consorts. Les maisons mères de SALTO ont fini par revoir leur investissement à la hausse en mobilisant 250 millions d’euros, toujours sur trois ans, ce qui reste une goutte d’eau contre les mastodontes américains ; surtout quand TF1, France Télévisions et M6 dépensent ensemble chaque année près de 3 milliards d’euros dans la création de contenus.

De plus, si SALTO peut s’appuyer sur une flopée de programmes déjà existants, la plateforme aura fort à faire pour trouver sa place sur un marché déjà très concurrentiel. Entre Netflix, plébiscité par les moins de trente ans, Disney+ ou encore myCANAL, apprécié par les cinéphiles et les amateurs de séries comme Engrenages, Baron noir ou Le Bureau des légendes, le pari n’est pas aisé.

Toutefois, pour les directeurs de chaînes Gilles Pélisson, Delphine Ernotte et Nicolas de Tavernost, l’enjeu serait de montrer que les grands groupes de l’audiovisuel français sont capables de s’adapter aux nouveaux modes de consommation des programmes audiovisuels tout en offrant davantage de visibilité à leurs contenus. SALTO devra faire office de vitrine digitale pour les trois groupes désireux de parvenir à retirer l’étiquette de télé de la vieille école leur collant à la peau, et qui fait fuir les moins de 30 ans.

Pour l’agence économique Bloomberg, le géant du streaming aura été l’une des rares entreprises à bénéficier de la crise. « La sagesse populaire voulait que le modèle de développement de Netflix ne marche qu’en période de croissance économique. Nous voilà en pleine récession et Netflix – tout comme Zoom, Instagram, TikTok et Amazon – définit l’époque. »

Néanmoins, certains ne cachent pas leur scepticisme à l’égard de la plateforme, comme par exemple Pascal Rogard, directeur général de la SACD, l’une des principales sociétés françaises de droits d’auteur : « SALTO n’a aucune chance contre Netflix, la seule réponse crédible est une plateforme regroupant les services publics européens et proposant le meilleur de la création européenne ».

Qui plus est, la plateforme SALTO semble déjà abandonnée par ceux qui ont lancé le projet : Julien Verley, l’homme en charge du projet pour France Télévision a quitté l’entreprise audiovisuelle publique en juin 2019 pour lancer France+ Channel, une nouvelle offre de programmes français et européens à destination des marchés anglophones, hispanophones et sinophones.

Des initiatives similaires à celles de SALTO se multiplient en Europe, comme BritBox, fruit de l’alliance entre les deux grandes chaînes de télévision BBC et ITV pour freiner Netflix en Angleterre. À l’heure qu’il est, quelques alternatives aux plateformes mondiales existent, comme par exemple celle d’Arte, qui est gratuite, en proposant des séries internationales qui ne sont pas diffusées en France autrement. Seulement, le cas d’Arte en France n’est qu’une exception ou une alternative, incapable de stopper la loi des multinationales en les concurrençant.

La fiscalité, seule issue pour concurrencer Netflix

La réforme proposée par le Conseil des ministres est annoncée comme l’un des grands chamboulements du secteur depuis la loi de 1986, qui impose aux chaînes d’investir dans la création d’œuvres. Cette réforme viserait à soumettre la SVOD internationale aux mêmes contraintes que celles prescrites aux financiers historiques de l’audiovisuel français en consacrant une partie de leur chiffre d’affaires à l’achat de programmes.

Le projet de loi stipule notamment un renforcement de l’indépendance des productions investies dans les programmes achetés. Comme les télévisions, Netflix, Amazon Prime ou encore Disney+ devraient recourir à des producteurs indépendants et respecter, notamment, le quota instauré par la directive qui exige une intégration de 30% d’œuvres européennes à leur catalogue.

À ces obligations d’investissement s’ajoute la taxe vidéo de 2% du CNC entrée en vigueur depuis le 1er janvier 2018. Elle a augmenté au début de 2020 pour passer à 5,15%, permettant d’égaliser l’engagement financier, moindre pour l’instant, des plateformes vis-à-vis des chaînes. L’objectif est d’instaurer une équité entre les nouveaux entrants et les acteurs traditionnels afin d’instaurer une « concurrence équitable » sur le territoire et que « la vision française du droit d’auteur soit bien assurée ».

Seule une politique fiscale à échelle nationale – voire européenne – est à même de répondre à cette implantation de la SVOD américaine en France. À cette condition s’ajoute la nécessité que la télévision et le cinéma française produisent des œuvres qui puissent répondre aux demandes du public.

Pour l’agence économique Bloomberg, le géant du streaming aura été l’une des rares entreprises à bénéficier de la crise. « La sagesse populaire voulait que le modèle de développement de Netflix ne marche qu’en période de croissance économique. Nous voilà en pleine récession et Netflix – tout comme Zoom, Instagram, TikTok et Amazon – définit l’époque. » La crise de coronavirus aura permis aux SVOD d’exploser dans le monde entier, mais il n’est pas le seul facteur de cette conquête. L’expansion de Netflix et des plateformes sur le territoire français provient de l’incapacité de l’industrie à avoir anticipé le marché du SVOD et de l’avoir laissé aux mains de firmes américaines. Netflix a prospéré en sachant répondre à une demande faite par une génération que le cinéma français commençait à ignorer. Riposter contre Netflix en Europe ne pourra se faire qu’en mettant en place une politique fiscale assez forte qui permettrait de produire des réalisateurs ambitieux ou originaux, sans reposer sur l’argent des géants américains.

Reconnaissance faciale, un remède miracle ?

© Gerd Altmann

Depuis quelques temps déjà, un débat autour de la reconnaissance faciale s’érige auprès des sphères politico-industrielles ainsi qu’au sein des organisations de défense des libertés, un développement technologique qui fascine autant qu’il inquiète. Vendue par ses promoteurs comme la solution miracle aux problèmes sécuritaires, la reconnaissance faciale est une véritable marotte contemporaine.


Confortablement installées sur un marché mondial qui se compte en plusieurs milliards de dollars, bon nombre d’entreprises ont fait le choix audacieux depuis maintenant quelques années d’investir le domaine de la reconnaissance faciale. Les principaux acteurs de cette industrie sont clairement identifiés et se nomment ASSA ABLOY AB, Aware Inc, Cognitec Systems GmbH, IDEMIA France SAS, NEC Corp, Safran SA, ou encore Thales Group. Ces compagnies plus ou moins spécialisées dans le domaine ne sont pas seules à se partager le gâteau : les GAFAM sont aussi dans la course, la reconnaissance faciale représentant un support et un outil indispensable de leur développement commercial. À ce sujet, Facebook annonçait dès 2014 le lancement du programme « DeepFace », capable de déterminer si deux visages photographiés appartenaient à la même personne. En 2015, Google lançait « FaceNet » et Amazon à peine deux ans plus tard lui emboîtait le pas et dévoilait « Rekognition », un service de reconnaissance basé sur son cloud et dont la firme de Jeff Bezos faisait activement la promotion auprès des forces de l’ordre américaines. Le géant annonçait au passage pouvoir distinguer jusqu’à 100 visages sur une seule image. L’identification était ensuite suivie d’une comparaison avec une base de données et permettait d’isoler les expressions et humeurs des individus.

Une offre commerciale en pleine expansion et qui selon les dernières estimations, devrait durant les quatre prochaines années croître de 3,35 milliard de dollars. Cette réussite s’explique notamment par la multiplication des applications et l’allongement de la liste des clients potentiels. Avec une technologie située au croisement de l’algorithmie, de l’intelligence artificielle et affichant des taux de correspondance avoisinant les 95% voire 99,63% pour l’outil Google sur le test de référence « Labeled Faces in the Wild » – un record en la matière – les plateformes ont une carte de visite flamboyante. Une prouesse qui s’explique également par la puissance que peut développer de tels agrégateurs de données passés experts dans l’art de la récolte et du traitement. En somme, plus l’intelligence artificielle consomme d’information, plus les modèles s’affinent et plus la précision augmente. Ces effets d’annonce couplés à un marketing et une rhétorique bien rodés suscitent l’intérêt à la fois à l’échelle des collectivités locales, des mairies mais aussi des États, seuls capables de déployer à grande échelle de tels dispositifs.

Un intérêt français

Depuis juin 2019, le gouvernement français a lancé ALICEM (Authentification en ligne certifiée mobile) en phase de test. Derrière cet acronyme se cache en réalité une application smartphone mis en place par le ministère de l’Intérieur, l’Agence Nationale des Titres Sécurisés (ANTS) et la société Gemalto. L’idée est de pouvoir à l’aide de son téléphone et d’une pièce d’identité, être à même de s’identifier pour accéder au portail administratif en ligne. Une application mise en avant par la communication gouvernementale pour son apport non-négligeable en terme d’ergonomie et de sécurité. Cette première européenne mise en place par décret, soulève pourtant quelques inquiétudes de la part des associations des défenses des droits et libertés sur internet.

La Quadrature du Net, plus réactive que la CNIL (Commission Nationale de l’Informatique et des Libertés), avait attaqué cette décision dès le mois de juillet 2019. L’association dénonçait un véritable passage en force de la part du gouvernement Macron en rappelant que « À l’heure où les expérimentations de reconnaissance faciale se multiplient sans qu’aucune analyse ne soit réalisée sur les conséquences d’un tel dispositif pour notre société et nos libertés […] le gouvernement français cherche au contraire à l’imposer à tous les citoyens via des outils d’identification numérique ». En effet, mû par un pragmatisme à toute épreuve, le gouvernement, au travers de son secrétaire d’État au Numérique Cédric O, semble imperturbable.

La technologie vient rendre possible une automatisation et une interconnexion sans précédent.

Si ALICEM confère au dispositif des airs de jouet technologique superficiel et inoffensif, les réflexions se doivent d’anticiper les problématiques et d’étendre le débat sur un spectre élargit. La généralisation et l’acception de ces outils ne doivent pas faire oublier le reste de la machinerie et l’interaction de ses rouages. FPR (Fichier des Personnes Recherchées), TES (Titres Électroniques Sécurisés) ou encore le célèbre fichier TAJ (Traitement des Antécédents Judiciaires) qui répertorie les personnes visées par une enquête (qu’elles soient coupables, suspectes ou victimes) sont des éléments importants à considérer. Le fichier TAJ constitue une base de données d’environ 18,9 millions de personnes, 8 millions de photos et représente 6 téraoctets de données. Au-delà des critiques courantes d’une utilisation abusive, de doublon, de stockage ou encore d’exploitabilité des données, on comprend alors mieux l’attrait et l’enjeu pour les institutions de pouvoir exploiter de telles bases de données à travers l’intelligence artificielle. La technique mise au service de l’ordre permettrait « en direct » d’interroger ces bases à des fins d’identification et de comparaison des individus « potentiellement » dangereux. Si ces bases de données existaient déjà, c’est bien leur entrecroisement en « temps réel » couplé à la reconnaissance faciale qui confère une nouvelle dimension au dispositif.

L’État français est en première ligne dans ce domaine avec premièrement VOIE (Vidéo ouverte et intégrée) qui associe des industriels (Thales, Morpho et Deveryware), des transporteurs (SNCF, RATP) et la préfecture de police de Paris. Ce nouveau projet financé par la Banque publique d’investissement a pour objectif le suivi d’individus et l’analyse vidéo dans le cadre de réquisitions judiciaires. Un second projet dédié cette fois à la « gestion des foules » nommé S2ucre2 (Safety and Security of Urban Crowded Environments) mené conjointement avec l’Allemagne a vu le jour en 2017 et devrait s’achever en octobre 2020. Selon la communication officielle, l’expérimentation repose sur « de l’analyse vidéo avec des méthodes de simulation ». Outre la surveillance d’une foule, l’objectif est de prédire les comportements à court terme, de repérer des comportements suspects, détecter et géo-localiser des auteurs d’infraction et repérer les équipes de sécurité. Là encore les industriels cités en début d’article sont impliqués, avec en tête Idemia (ex Safran), ITlink et Deveryware le tout en partenariat avec la préfecture de police de Paris et le monde universitaire. En Europe, S2ucre fut déployé grandeur nature lors de deux expérimentations officielles, le festival du port de Hambourg (1,5 millions de visiteurs) et la démonstration du 1er mai à Paris (12 000 manifestants).

Domaines technologiques du projet S2ucre
Domaines technologiques du projet S2ucre. Source S2ucre.eu

Selon le site spécialisé Next Impact, le projet aurait tenté de contourner les barrières réglementaires françaises afin de mener davantage de tests. Les autorités auraient pour ce faire, passé un « accord » avec Singapour (la loi européenne RGPD limite fortement ce genre d’expérimentations de grande amplitude du fait de la demande le consentement systématique des participants). Une chose est sûre le partenariat numérique entre la France et la cité État est doté d’un cadre clairement délimité : « Les deux parties souhaitent approfondir le dialogue et le partage de bonnes pratiques en matière de e-government, et s’engagent à utiliser les données et les services numériques pour transformer les services apportés aux citoyens et aux entreprises. La transformation numérique de l’administration pourra être un domaine privilégié d’échanges dans le cadre de ce nouveau partenariat». Une relation diplomatique qui interroge une nouvelle fois quand on sait ce que représente le modèle singapourien en matière de vidéo surveillance labellisé safe-city. Des projets qui continuent d’alimenter une rhétorique de la peur et trouvent inlassablement un écho certain en période électoral ou bien souvent les sujets sécuritaires ont le vent en poupe faisant en partie le succès actuel du marché de la reconnaissance faciale.

Nice, la safe city à la française

En France, Christian Estrosi le maire Républicain de la ville de Nice fait figure de pionner de la promotion de la reconnaissance faciale, convaincu des bienfaits du procédé. Véritable ville laboratoire, Nice est le lieu d’expérimentations et de nombreux partenariats en la matière. En décembre 2018, était adoptée par le conseil régional de la région Provence-Alpes-Côte d’Azur (PACA) une délibération autorisant l’expérimentation de portiques de reconnaissance faciale (portée par l’américain Cisco) dans deux lycées afin de « maîtriser les entrées et sorties » des élèves. Inconcevable pour la CNIL qui avait mis son veto entre temps. Depuis, la mairie ne semble pas avoir dit son dernier mot et veut asseoir son rôle de leader sur ces sujets. Le carnaval niçois de 2019 constitue en cela une date clef dans l’agenda. Bien que vivement critiqué, Christian Estrosi salue la réussite du projet. Selon la mairie, l’expérimentation a rencontré un franc succès notamment auprès des agents de police municipale. Ces derniers se disent “largement favorables à l’utilisation de ce type de technologie qui leur permettrait d’améliorer considérablement leur capacité d’anticipation, de détection et d’intervention”.

Thales, le principal acteur du projet, ne tarit pas non plus d’éloges à propos de ce tropisme sécuritaire « la ville de Nice sera très prochainement considérée comme l’une des premières SAFE-CITY d’Europe, toujours aussi agréable à vivre pour ses habitants, mieux protégée, plus résiliente et plus attractive ». Sur la plaquette de communication, on constate justement une modification du vocable. La « télé-surveillance » devient dans la bouche de l’industriel « télé-protection ». Un détail presque anodin, mais qui en dit long sur le discours mis en place pour forcer l’acceptation auprès des populations. Ces dernières sont au final bien souvent prises au dépourvu tout comme les autorités de contrôle telles la CNIL qui peine une nouvelle fois dans son rôle de régulateur en l’absence notamment de moyens conséquents. Un besoin de cadre qui émane également du maire de Nice, qui fait lui aussi savoir son souhait d’un nouvel appareil juridique adapté. Un vide qui permet pour le moment une certaine latitude auquel l’État français voudrait remédier dans les prochains mois. En attendant, et comme le rappelait très justement Félix Tréguer au Monde Diplomatique dans un article de juin 2019, ce type d’expérimentation devrait être considéré comme illégal au regard de la jurisprudence de la Cour européenne des droits de l’homme.

La région PACA semble être à la pointe sur le sujet : Marseille et son projet de “vidéoprotection urbaine” (VPU) prends une tournure comparable au projet niçois. Plus récemment, Valérie Pécresse, présidente de la région Île-de-France, plaide quant à elle pour la reconnaissance faciale dans les transports. Des idées qui étonnamment ne semblent pas être l’apanage de la droite puisque la marie écologique de Nantes a pour projet l’augmentation de 40% du nombre de caméras de surveillance dans les transports. Comme pour la solution marseillaise, on ne parle pas encore de reconnaissance faciale en “temps réel” mais là encore, un verrou psychologique semble sur le point de lâcher. Autant dire que les élus semblent avoir adopté la rhétorique huilée des industriels. Les propositions vont donc aller bon train dans les prochains mois. Une aubaine pour les carnets de commandes.

Partenariat public-privé

La précédente énumération démontre également la prépondérance de certains acteurs. Thales est pour ainsi dire un des mastodontes en la matière, encouragé par l’État lui-même, qui en détient un tiers des parts. La démarche n’est pas anodine et fait suite à une volonté de souveraineté numérique toujours plus affirmée de la part des nations. Les concurrences chinoise et américaine restent féroces et poussent la France à soutenir ces projets sous l’égide de la recherche et du développement.

Preuve de sa bonne santé, l’entreprise tricolore vient d’acquérir Gemalto, société d’ingénierie bien connue du milieu et qui était entre autre responsable du développement d’ALICEM. Un objectif donnant-donnant et une politique des vases communicants entre État et industriel à peine dissimulée. Cédric O en est d’ailleurs l’exemple parfait, lui qui est « chargé de mission » pour le groupe Safran entre 2014 et 2017 comme en atteste sa déclaration. Même si l’actuel secrétaire n’a apparemment pas évolué dans la branche sécurité du groupe, il est intéressant de noter que ce dernier développe depuis quelques années une nouvelle solution « de reconnaissance faciale et de vérification d’identité » baptisée MorphoFACE, aujourd’hui passée sous la houlette d’Idemia, acteur majeur du projet S2ucre.

Il s’agit de ne pas rater le train de l’innovation. Le sociologue Dominique Boullier en 1985 évoquait le concept de « la tyrannie du retard ». Le récent discours d’Emmanuel Macron, opposant 5G et le modèle Amish, reste symptomatique de cette vision du monde. Renaud Vedel, en charge de la prospective numérique au ministère de l’Intérieur, lui emboîte le pas au dernier congrès Technopolice : « Il faut accepter de trouver un équilibre entre des usages régaliens et des mesures protectrices pour nos libertés. Car sinon, la technologie sera mûrie à l’étranger et nos industriels, pourtant leaders mondiaux, perdront cette course ». Dans la même veine, un colonel déclare sur une note récente de l’École des officiers de la gendarmerie nationale (CREOGN) : « Sous réserve d’algorithmes exempts de biais, elle pourrait mettre fin à des années de polémiques sur le contrôle au faciès puisque le contrôle d’identité serait permanent et général ». Une phrase également relevé par Olivier Tesquet, journaliste à Telerama et auteur d’À La Trace, enquête sur les nouveaux territoires de la surveillance, dans un papier récent sur le même sujet.

On conçoit bien sûr que dans un cadre globalisé, où domine sans partage la loi du libre-échange, un retard pris par la France pénaliserait lourdement son économie. Mais plutôt que de questionner ce cadre globalisé et libre-échangiste, le gouvernement n’envisage d’autre horizon, pour la France, que l’adaptation à ses réquisits.

Neutralité des algorithmes ?

« L’algorithmie exempt de biais » : tel est le rêve des industriels du numérique. On gagnerait pourtant à ne pas oublier que les algorithmes, loin d’échapper à la subjectivité humaine, la reflète. On ne compte plus le nombre de retours d’expérience mettant en avant les biais racistes ou sexistes des algorithmes. En 2016, ProPublica menait justement une enquête sur la discrimination des personnes de couleur noire. Nouvel exemple avec l’outil de recrutement d’Amazon défavorable aux femmes. La CNIL, dans une note datant de novembre 2019, précisait “même si des travaux, et notamment l’auto-configuration des algorithmes, peuvent être mis en œuvre pour réduire ces biais, la nature même du traitement biométrique, quel que soit le degré de maturité de la technologie, implique que des biais continueront nécessairement d’être observés ».

Malgré ces remarques, cela n’a pas empêché la majorité d’inclure la reconnaissance faciale dans la première version du projet de loi vers une sécurité globale. Ce volet a depuis disparu du texte publié le 20 octobre, motivé par la crainte de voir le texte vidé de sa substance par un Conseil constitutionnel qui avait déjà sévi quelques mois plus tôt sur la loi Avia (propos haineux en ligne) et la loi de sûreté contre les ex-détenus terroristes. Rien n’est joué cependant, puisque le texte pourra être amandé abondamment en séance parlementaire. Un retour en force qui pourrait coïncider avec les grands évènements à venir comme les Jeux olympiques en 2024.

Du côté de la société civile, l’actualité récente a vu émerger de nouvelles initiatives pour dénoncer et sensibiliser sur ces sujets. La récente exposition sauvage dans les rues de Paris par l’artiste italien Paolo Cirio a fait grand bruit. Ce dernier a affiché pas moins de 4000 portraits de policiers pour sensibiliser aux dérives de tels dispositifs. L’action a le mérite de retourner le miroir vers nos institutions. Une initiative à laquelle la préfecture de police a très mal réagi. Comme le précise l’artiste : “l’absence de réglementation sur la protection de la vie privée de cette technologie se retourne finalement contre les mêmes autorités qui en recommandent l’utilisation ». Le sujet risque en tout cas de continuer à faire débat dans les prochains mois, la proposition de loi « sécurité globale » ayant pour ambition d’empêcher la diffusion des visages des fonctionnaires de police afin de ne pas porter atteinte à leur intégrité physique ou psychique.

Le temps de la réflexion

Gouverner c’est prévoir. Le célèbre adage pourrait alors être adapté en 2020 par « gouverner c’est prédire ». Une perspective prônée par les industriels et dans laquelle semblent se complaire certains dirigeants. Cet agenda escamote la multitude d’interrogations sur le rapport de l’homme à la technologie, de la société à des réseaux qui ne cessent de croître et sur lesquels elle perd tout contrôle.

Il ne s’agit pas ici de fustiger ni de renier en bloc les avancées technologiques, mais plutôt d’esquisser les bases d’un débat public sur ces questions qui engagent le collectif. Les arguments en faveur et en défaveur de la numérisation des questions sécuritaires mériteraient d’être confrontés. En lieu et place de cela, le gouvernement agit sous l’unique pression des industriels du numérique et de contraintes internationales.

Notes :

  1. Olivier Tesquet, À la trace, enquête sur les nouveaux territoires de la surveillance, 2019, premier parelle

 

 

Yaël Benayoun et Irénée Régnauld : « Le progrès technique n’est pas nécessairement synonyme de progrès social »

Technologie partout démocratie nulle part

De la vidéosurveillance à l’automobile, des caisses automatiques à la 5G, chaque choix technologique est un choix de société. Alors que la décision nous échappe, nous en subissons les conséquences de plein fouet. De la smart city sécuritaire à l’ubérisation du travail, des conséquences environnementales à la surveillance diffuse, voilà un certain temps que la marche de l’innovation n’a pas de quoi faire l’unanimité. Comment s’emparer de la trajectoire du progrès, intervenir dans ces décisions technologiques et peser dans ces rapports de force qui décident de notre vie en commun ? Petit précis de techno-critique et de démocratie technique avec Yaël Benayoun et Irénée Régnauld, cofondateurs de l’association le Mouton Numérique et auteurs de Technologies partout, démocratie nulle part, publié chez FYP cet automne 2020. Propos recueillis lors de la présentation du livre à la librairie l’Attrape-Cœurs par Maud Barret Bertelloni.


LVSL – Vous commencez votre livre en vous attaquant à ce lieu commun qui voudrait que les technologies soient un donné à l’égard duquel nous ne pourrions que nous adapter. C’est un motif récurrent : le service public doit se mettre au pas des nouvelles technologies, les citoyens doivent suivre, la compétition mondiale presse… Qu’est-ce que cela a à voir avec notre conception de la technologie ?

Yaël Benayoun et Irénée Régnauld – Le mot technologie historiquement est né pour décrire une science de la technique, comme un regard posé sur les objets techniques et la façon dont on les construit. À certaines époques, la technologie a été enseignée comme une science politique. Il se trouve qu’on est aujourd’hui dans une période où la technologie a acquis la forme d’objet : quand on dit technologie, on pense à un iPhone, à une fusée spatiale… Alors que si l’on repart de l’étymologie : techno+logos, c’est le discours sur la technique. C’est essentiel dans la mesure où la plupart des gens qui font des technologies, qui sont souvent des ingénieurs, prennent ça comme des artefacts absolument neutres, qui ne revêtent aucune dimension politique. Or ce qu’ils font, à titre individuel comme collectif, est de l’ordre du politique.

Tout l’enjeu du début du livre, c’est de revenir sur le discours véhiculé sur la technique que l’on entend beaucoup dans les médias dominants : tous les « la technique est neutre », « ce n’est que l’usage qui compte », « on n’arrête pas le progrès »… Cette notion de progrès est sous l’emprise d’une vision très positiviste de la société, qui part du principe que le progrès technique est nécessairement synonyme de progrès social et que ce progrès est inéluctable et n’est donc pas questionnable. Comme si le développement technologique n’était pas le fait de choix et de stratégies et d’un jeu d’acteurs. Pour prendre un exemple : le réseau de tramways était bien installé aux États-Unis au début du XXe siècle. Les constructeurs d’automobiles ont alors développé des stratégies de rachat massif des compagnies de tramway pour démanteler les réseaux de transport concurrents. L’avenir de la mobilité et des transports aurait pu être différent que le tout automobile américain.

« Pour chaque choix technologique, il y a un rapport de forces et il faut peser sur ce rapport de forces pour l’orienter différemment. »

C’est ce qui passe aujourd’hui avec la « high tech ». Le terme de technologie de « pointe », de high tech est un terme qui introduit une hiérarchie entre ce qui n’est pas « high », à savoir occidental ou chinois, et le reste. Ces technologies occultent toute une série d’autres choix qui auraient pu être faits et qui ne l’ont pas été. C’est valable à la fois au niveau d’une réflexion globale sur la technique dans une civilisation, mais aussi pour n’importe quel objet technique. Pour chaque choix technologique, il y a un rapport de forces et il faut peser sur ce rapport de forces pour l’orienter différemment.

LVSL – Deux chapitres du livre illustrent ce en quoi les technologies constituent des choix de société. Il y a un premier chapitre consacré à la smart city comme politique de la ville sécuritaire ; un autre sur l’automatisation au travail et toutes ces technologies qui réduisent les travailleurs à de simples rouages dans un monde de machines. Mais en quoi les technologies elles-mêmes constituent des choix de société ?

YB et IR Les choix technologiques structurent la société et l’amènent dans une direction précise qui, sans la déterminer totalement, posent des infrastructures et des cadres dans lesquels on va évoluer. L’exemple typique est la 5G : c’est prendre la direction de l’explosion des équipements numériques et de leurs usages, ce qui porte à une augmentation des capteurs, qui mène vers une ultra-numérisation de la société…  Et il y a des acteurs dominants qui, par leurs investissements, par leurs moyens, par leurs efforts de lobbying, orientent massivement les choix de société. Les efforts de l’industrie de l’automobile ont conduit à la société de la voiture et donc à l’étalement urbain. Il en va de même avec l’introduction de certaines technologies qui brisent les collectifs de travail ou de l’introduction de la surveillance qui diminue la propension de chacun à aller manifester. C’est très concret.

LVSL – Revenons sur un exemple dont vous faites mention : s’il y a d’une part le logiciel et toute la technique d’organisation d’une plateforme de livraison comme Uber ou Deliveroo, qui soumettent les travailleurs à des conditions de travail dégradantes et d’exploitation, il y a aussi l’exemple d’une contre-ingénierie : le logiciel des livreurs de CoopCycle, dont les fonctionnalités sont en main aux travailleurs…

YB et IR – Pour remettre un peu de contexte, CoopCycle c’est une coopérative de livreurs créée en réponse au système de Uber, de Frichti, etc. pour fournir une alternative coopérative. Effectivement, ils utilisent aussi une plateforme logicielle pour organiser leur logistique. Mais précisément, ce n’est pas la même application : ils n’ont pas cherché à faire de la food tech, à livrer très rapidement le moins cher possible, mais de réorganiser la livraison sur un mode coopératif.

Dans le livre, nous ne partons pas du principe que toute technologie est mauvaise. Ce n’est juste pas le sujet. Ce qui est intéressant quand on regarde les deux applications de livraison, c’est que dans l’une vous avez les livreurs tracés, surveillés, notés, qui doivent rendre compte de leur temps et aller le plus vite possible, alors que dans l’autre le temps est discuté de manière coopérative. La technologie qui est développée n’a pas les mêmes caractéristiques, car elle incarne alors d’autres valeurs et d’autres objectifs. Notre problématique, au fond, concerne ces choix technologiques faits à différentes strates de la société (la ville, le travail, l’État, etc.) mais surtout les effets de ces choix sur la démocratie.

LVSL – Pour arbitrer entre ces technologies, leurs formes et leurs valeurs, on invoque souvent une approche « éthique » à la technologie : éthique de l’intelligence artificielle, éthique du design, etc. Quel est le problème avec ces approches ?

YB et IR – Il y a eu un retour de bâton à l’égard des technologies ces dix dernières années, notamment depuis l’affaire Snowden, et depuis les tentatives de manipulation électorale comme Cambridge Analytica. Et c’est précisément le moment où l’on voit apparaître un grand nombre de chartes éthiques des entreprises, qui arrivent pour réguler des projets technologiques. Malheureusement, cela n’advient qu’une fois qu’ils ont été créés, sans jamais – ou rarement – repenser la manière dont sont fabriqués les objets, touchant à la rigueur la façon de les déployer à la fin, un peu comme des cases à cocher. Alors, on regarde si l’objet fini est juste, s’il ne discrimine pas, etc. Mais, d’une part, on n’interroge jamais le bien-fondé de l’objet, pour savoir si celui-ci est utile. Et d’autre part, jamais vous ne trouverez mention des chaînes de production technologique dans ces chartes : rien sur les micro-travailleurs ou les travailleurs du clic qui entraînent les intelligences artificielles, rien sur les travailleurs à la chaîne, qui sont une fois de plus invisibilisés sous couvert d’éthique.

Et au même moment où apparaissent ces chartes éthiques, on constate un flétrissement des procédures démocratiques traditionnelles et un certain glissement du droit vers l’éthique. En termes de démocratie, c’est un problème. Un exemple très simple : dans l’État de Washington, aux États-Unis, Microsoft a fait du lobbying pendant des années via un salarié qui était simultanément congressman – pantouflage éhonté, conflit d’intérêts. Il a fait voter une loi qui encadre la reconnaissance faciale dans l’État de Washington, suivant un cadre « éthique », de telle sorte que les systèmes doivent reconnaître aussi bien les personnes noires que les personnes blanches. Pourtant, dans une ville comme Portland, les technologies de reconnaissance faciale ont bien été interdites, tant en ce qui concerne leur usage par les forces de police, que par les commerces. Plutôt que d’interdire, l’éthique a donc permis à Microsoft de plaquer des règles pour éviter les régulations. L’éthique, ce n’est pas contraignant, c’est une profession de foi.

« L’éthique, ce n’est pas contraignant, c’est une profession de foi. »

C’est pour cela qu’on a ironiquement intitulé une section : « Une 5G éthique est-elle possible ? » La 5G est en préparation depuis dix, quinze ans : il y a eu des brevets, des recherches, des investissements chez les opérateurs… Là ça arrive et on fait semblant d’avoir un débat sur quelque chose qui est déjà joué, sans jamais qu’on se soit posé collectivement la question des réseaux du futur. On pose une fois de plus la question à la fin… Et puis on va demander aux consommateurs d’être, eux, éthiques en faisant le bon choix. Mais quand il va en grande surface pour acheter une balance et il n’y a que des balances connectées, on ne peut pas responsabiliser le consommateur en lui demandant de se faire une balance tout seul.

LVSL – Outre cette perspective technocritique, votre livre porte un véritable projet lié à la démocratie technique. Celui-ci comporte plusieurs aspects : réinvestir le champ du progrès, introduire un contrôle démocratique, investir les instances nécessaires à ouvrir un débat de société sur les technologies… Comment les articuler ?

YB et IR – L’idée n’est pas de fournir un programme mais de montrer qu’il y a des initiatives et des projets qui sont déjà là. On n’est pas du tout aussi démunis qu’il n’y paraît. L’avenir technologique tel qu’on nous le vend n’est pas inéluctable. Toute une partie du livre recense justement tout un ensemble de luttes, des ingénieurs à la société civile, tous ces mouvements qui ont donné lieu à une première réponse : les entreprises font de « l’éthique » aujourd’hui parce qu’elles ont du mal à recruter ; le RGPD n’aurait pas eu lieu sans l’affaire Snowden.

La logique du projet est simple : pour chaque choix technologique, il y a des stratégies d’acteurs, la majorité de ces choix se font sur le long terme, à huis clos, avec des industriels et des politiques qui malgré toutes leurs bonnes intentions ont l’exclusivité sur ces décisions. Le rapport de force bascule clairement d’un côté. Il faut alors rééquilibrer ce rapport de forces pour avoir une vraie discussion sur la société qu’on veut. Et selon la société qu’on veut, on peut faire les technologies qui vont avec. Pour chacun de ces choix, il faut rajouter des acteurs dans la boucle de décision. A minima, c’est la société civile organisée, comme on le retrouve par exemple dans toutes les propositions de forums hybrides dans les projets de démocratie technique. Cela voudrait dire que vous ne mettez pas dans les groupes d’experts seulement des représentants du monde industriel et politique, mais aussi des représentants du monde associatif, avec le même poids que les autres, ce qui rééquilibre les décisions.

« Pour chaque choix technologique, il faut rajouter des acteurs dans la boucle de décision. »

Un exemple dont on a beaucoup parlé ces derniers temps est celui de la Convention citoyenne sur le climat. Cela consiste à mobiliser des personnes tirées aux sort, concernées par les projets et les technologies en question selon ses enjeux spécifiques (l’automatisation des caisses ou la 5G), qui vont interroger les experts, ce qui inclut les associations, les juristes, les journalistes spécialisés. Une fois que ces personnes sont informées et formées sur le sujet, elles formulent des recommandations. Nous proposons d’aller un cran plus loin que ce qui existe déjà actuellement et de faire en sorte que leurs recommandations ne soient pas seulement consultatives mais décisionnelles pour qu’elles aient un effet direct sur les politiques industrielles et l’orientation des investissements.

Cela fait vingt ans que de tels dispositifs participatifs existent, et les sociologues et les politistes qui étudient ce genre de procédés remarquent que ces dispositifs sont efficaces. Quand la méthodologie est bien respectée, les recommandations qui émergent sont de très grande qualité. Le problème relève plutôt du fait qu’il n’y a presque jamais d’effets par la suite, parce que ces instances de délibération sont déconnectées des instances de décision. Il y a des groupes qui travaillent pour produire ces recommandations, mais elles ne sont finalement pas écoutées. Le cas de la Convention citoyenne devait au départ être un peu exceptionnel, parce qu’elle était au reliée à une instance de décision : les recommandations devaient passer sans filtre soit par le parlement soit par référendum. Aujourd’hui on voit que tout est détricoté. La 5G est un bon exemple : les citoyens de la Convention ont demandé un moratoire et il n’y aura pas de moratoire. Or, si ces dispositifs peuvent fonctionner, il faut les systématiser et surtout leur donner un vrai rôle.

Il y a aussi des outils, comme le principe de précaution, qui permet de s’arrêter pour documenter, pour produire du savoir. Sans le principe de précaution, on n’aurait pas stabilisé le trou dans la couche d’ozone, on n’aurait pas documenté la maladie de la vache folle, on n’aurait pas avancé sur la construction du GIEC [Groupe intergouvernemental d’experts sur l’évolution du climat, NDLR]. Bruno Latour résume tout ça par une belle formule selon laquelle le principe de précaution sert à « moderniser la modernité ». Notre livre promeut un principe de précaution beaucoup plus vaste, qui ne concerne pas exclusivement le climat ou la santé, mais qui inclut aussi la manière avec laquelle les technologies nous affectent, notamment dans notre rapport à la démocratie.

Extraction des données par les GAFAM : aller au-delà de l’indignation

© Fondation Cartier, Grand orchestre des animaux

Chaque jour, des milliards de données sont extraites de nos outils digitaux et réutilisées par les géants du numérique à des fins de ciblage publicitaire. La critique de ce capitalisme de surveillance a été popularisé dans les médias, notamment par Shoshana Zuboff, professeur émérite à la Harvard Business School, et auteur d’un ouvrage éponyme. Elle dénonce inlassablement les dangers que font courir les GAFAM sur l’autonomie des citoyens. Mais faut-il s’indigner de la soif insatiable de Google ou d’Amazon pour les données personnelles ? Ou simplement y voir la conséquence prévisible de l’extension du capitalisme vers de nouveaux marchés ? Evgeny Morozov, auteur de nombreux ouvrages consacrés au numérique (dont Le mirage numérique : Pour une politique des big data, publié en 2015), répond à Shoshana Zuboff dans cet article.


Si l’utilisation par Zuboff de l’expression « capitalisme de surveillance » est apparue pour la première fois en 2014, les origines de sa critique remontent plus loin. On peut en trouver la trace dès la fin des années 1970, à l’époque où Zuboff commençait à étudier l’impact des technologies de l’information sur les lieux de travail – un projet de quarante ans qui, en plus de donner lieu à de nombreuses publications, l’a également nourrie d’espoirs utopiques et de déceptions amères. Le décalage entre le possible et le réel a informé le contexte intellectuel dans lequel Zuboff – auparavant prudemment optimiste à la fois sur le capitalisme et la technologie – a construit sa théorie du capitalisme de surveillance, l’outil le plus sombre et le plus dystopique de son arsenal intellectuel à ce jour.

De la naïveté à l’indignation : les promesses déçues du capitalisme numérique

Les conclusions déprimantes de son dernier livre sont très éloignées de ce que la même Zuboff écrivait il y a seulement dix ans. En 2009 encore, elle affirmait que des sociétés comme Amazon, eBay et Apple « libéraient des quantités massives de valeur en donnant aux gens ce qu’ils voulaient, selon leurs propres conditions et dans leur propre espace ». Mme Zuboff est arrivée à ce lumineux diagnostic grâce à son analyse globale de la manière dont les technologies de l’information modifiaient la société. À cet égard, elle faisait partie d’une cohorte de penseurs qui soutenaient qu’une nouvelle ère – que certains qualifiaient de « post-industrielle », d’autres de « postfordiste » – était à nos portes.

« Le calcul prend le pas sur la vie politique de la communauté comme base de la gouvernance », conclut Zuboff. Au lieu de fonder un journal fasciste, un Benito Mussolini contemporain serait probablement en train de courir après le capital-risque, de créer des applications et de se lancer dans la maîtrise de l’art martial du piratage de la croissance…”

C’est de cette analyse – et des attentes initialement positives qu’elle a engendrées – qu’est née la critique contemporaine de Zuboff sur le capitalisme de surveillance. C’est également à partir d’elle que l’on comprend pourquoi son dernier livre s’aventure souvent, tant sur le plan du contenu que du langage, sur le terrain du mélodrame : Zuboff, à l’unisson de l’ensemble de la classe dirigeante américaine, assoiffée par les promesses de la nouvelle économie, s’attendait à ce que quelque chose de très différent se profile à l’horizon.

Son premier livre, In the Age of the Smart Machine, publié en 1988, a été bien accueilli. Zuboff y déployait un appareil conceptuel et une série de questions qui allaient refaire surface dans tous ses écrits ultérieurs. S’appuyant sur un travail ethnographique de plusieurs années dans l’industrie et les bureaux, le livre prévoit un avenir ambigu. Selon Zuboff, la technologie de l’information pourrait exacerber les pires caractéristiques de l’automatisation, priver les travailleurs de leur autonomie et les condamner à des tâches indignes. Mais utilisée à bon escient, elle pourrait avoir l’effet inverse : renforcer la capacité des travailleurs en matière de pensée abstraite et imaginative et inverser le processus de déqualification décrié par de nombreuses critiques marxistes du travail sous le capitalisme.

Avec les technologies de l’information, les entreprises modernes ont dû choisir, selon Zuboff, entre « automatiser » et « informer ». Ce dernier terme renvoie à leur capacité, nouvellement acquise, à rassembler des données – le « texte électronique » – liées au travail sur ordinateur. Sous l’ère antérieure de la direction scientifique de Frederick W. Taylor [à l’origine du taylorisme NDLR], ces données étaient recueillies manuellement, par l’observation et l’étude du temps et des mouvements. En extrayant les connaissances tacites des travailleurs sur le processus de travail, les gestionnaires, aidés par les ingénieurs, pouvaient le rationaliser, ce qui réduisait considérablement les coûts et augmentait le niveau de vie.

Grâce aux progrès des technologies de l’information, la rédaction du « texte électronique » devenait bon marché et omniprésente. Si ce texte était mis à la disposition des travailleurs, il pourrait même saper le fondement du contrôle managérial, fondé sur la croyance selon laquelle le manager est « celui qui sait le mieux ». Le « texte électronique » a engendré ce que Zuboff, à la suite de Michel Foucault, a décrit comme un « pouvoir panoptique ». Issu des pratiques autoritaires de l’ancien lieu de travail fortement centralisé, ce pouvoir était susceptible de renforcer les hiérarchies existantes ; les cadres se cachaient derrière les chiffres et gouvernaient à distance, au lieu de se risquer aux aléas de la communication personnelle. S’il s’accompagnait d’une structure démocratique sur le lieu de travail et d’une égalité dans l’accès au « texte électronique », ce pouvoir pourrait toutefois permettre aux travailleurs de contester les interprétations que les dirigeants font de leurs propres activités et de s’approprier un certain pouvoir institutionnel.

À l’ère de la machine intelligente, un livre sur l’avenir du travail et aussi, inévitablement, sur son passé, était ainsi remarquablement silencieux sur le capitalisme. Si l’on passe outre sa vaste bibliographie, cet ambitieux tome de près de cinq cents pages ne mentionne le mot « capitalisme » qu’une seule fois, par l’entremise d’une citation de Max Weber. Cela ne peut que surprendre, étant donné que Zuboff ne faisait nullement l’apologie des entreprises qu’elle étudiait. Elle ne se faisait aucune illusion sur la nature autoritaire du lieu de travail moderne, qui constituait rarement un espace de réalisation de soi pour les travailleurs, et elle prenait plaisir à s’attaquer aux managers égocentriques et avides de pouvoir.

En dépit de ces occasionnelles remarques critiques, c’est autour du savoir et de son rôle dans la perpétuation ou l’affaiblissement des hiérarchies organisationnelles que Mme Zuboff a structuré son cadre analytique. La propriété privée, la classe sociale, la propriété des moyens de production – les éléments qui structuraient les conflits autrefois liés au travail – ont été pour la plupart exclus de sa grille de lecture. Après tout, l’objectif de l’étude était de comprendre l’avenir du lieu de travail tel qu’il est médiatisé par les technologies de l’information. L’approche ethnographique de Zuboff était davantage adaptée pour interroger les managers et les travailleurs sur ce qui les séparait, que pour esquisser les impératifs économiques qui reliaient chaque entreprise à l’ensemble de l’économie mondiale. Ainsi, la machine intelligente imaginée par Zuboff fonctionnait largement en-dehors des contraintes invisibles que le capitalisme imposait aux dirigeants et aux propriétaires.

Alors que le « capital » voyait sa propriété s’accroître – le livre l’a mentionné une douzaine de fois -, Zuboff ne l’a pas perçu, à l’instar des marxistes, comme une relation sociale ou l’éternel antagoniste du travail. Au lieu de cela, elle a marché dans les pas des économistes néoclassiques en le considérant comme une machine – ou de l’argent – lié à des investissements. Le « travail », à son tour, était surtout traité comme une activité physique. Bien que Zuboff ait également mentionné le rôle historique des syndicats, ses lecteurs ne saisiront pas nécessairement le caractère antagoniste du « travail » et du « capital » – au lieu de cela, ils entendent surtout parler de conflits situationnels au sein des lieux de travail individuels, entre travailleurs et managers.

Cela n’est guère surprenant : Zuboff n’est pas marxiste. En outre, elle aspirait à devenir professeur à la Harvard Business School. Cependant, son plaidoyer en faveur de lieux de travail plus équitables et plus dignes suggère qu’elle pourrait être, au moins sur certaines questions, un compagnon de route pour les causes progressistes. Ce qui la distinguait des voix les plus radicales dans ces débats était son insistance constante sur les effets ambigus des technologies de l’information. Le choix entre « automatiser » et « informer » n’était pas seulement un sous-produit analytique de son cadre de travail ou un simple accessoire rhétorique. Elle l’a plutôt présenté comme un choix réel, existentiel, auquel sont confrontées les entreprises modernes aux prises avec la technologie de l’information.

De tels choix binaires – entre « capitalisme réparti» (distributed capitalism) et « capitalisme managérial » (managerial capitalism), entre « capitalisme d’information » (advocacy-oriented capitalism) et « capitalisme de surveillance » (surveillance capitalism) – animeront également les livres ultérieurs de Zuboff. Mais même à ce stade précoce, il n’est pas clair qu’elle ait été justifiée à faire le saut analytique consistant, sur la base d’observations ethnographiques en vertu desquelles certaines entreprises étaient effectivement confrontées au choix entre « informer » et « automatiser », de conclure plus largement que les conditions extérieures du capitalisme moderne high-tech universalisaient ce choix pour toutes les entreprises, ce qui représente une nouvelle étape dans le développement capitaliste lui-même.

Amazon et Google ont-ils trahi leurs fondements originels ?

Acceptée telle quelle, la possibilité d’un choix entre « automatiser » et « informer » a sapé les critiques traditionnelles du capitalisme en tant que système d’exploitation structurelle (et donc inévitable) ou de déqualification. Dans la nouvelle ère numérique de Zuboff, une alliance agile et harmonieuse entre travailleurs et managers pourrait permettre à des entreprises intelligentes et éclairées de libérer le pouvoir émancipateur de « l’information ».

Nous pourrions ici entrevoir les contours plus larges de l’approche de Zuboff à l’égard du capitalisme : ses maux, dont elle reconnaît bien volontiers l’existence de certains, ne sont pas le sous-produit inévitable de forces systémiques, telles que la quête de profit. Ils sont plutôt la conséquence évitable de certaines dispositions organisationnelles particulières qui, bien qu’ayant été utilisées à des époques antérieures, peuvent maintenant être rendues obsolètes par les technologies de l’information. Cette conclusion pleine d’espoir a été tirée presque entièrement de l’observation des entreprises capitalistes, car le capitalisme lui-même – considéré comme une structure historique, et non comme une simple agrégation d’acteurs économiques – était dans son ensemble absent de l’analyse.

La clef de la dernière théorie de Zuboff sur le capitalisme de surveillance est la notion de « surplus comportemental » (behavioral surplus), un raffinement de l’expression plus vulgaire « d’épuisement des données » utilisé par beaucoup dans l’industrie technologique. Elle renvoie à la distinction entre « information » et « automatisation » exposée dans son premier livre. Rappelons que le « texte électronique », qui renaît dans le dernier livre sous le nom de « texte fantôme », a une valeur immense pour différents acteurs, souvent antagonistes. Lorsque certaines entreprises l’utilise pour donner du pouvoir aux consommateurs – comme le fait, par exemple, Amazon avec des recommandations de livres tirées des achats de millions de clients – le texte électronique suit la voie idyllique de l’information, alimentant ce que Zuboff appelle le « cycle de réinvestissement comportemental ». Lorsque les entreprises technologiques utilisent les données extraites pour cibler les publicités et modifier le comportement, elles créent un « surplus comportemental » – et cette percée clé crée un « capital de surveillance ».

Google constitue un archétype pour la théorie de Zuboff. Au cours de ses premières années d’existence, alors qu’il avait encore besoin d’un modèle commercial, Google avait du potentiel pour devenir l’entreprise favorite de Zuboff, au service du « capitalisme d’information » : sa seule motivation pour recueillir des données était l’amélioration du service. Une fois qu’elle a adopté la publicité personnalisée, les choses ont changé. Aujourd’hui, Google souhaite davantage de données sur les utilisateurs pour vendre des annonces, et pas seulement pour améliorer les services. Les données que cette plateforme recueille au-delà du besoin objectivement déterminé de servir les utilisateurs – un seuil important que L’ère du capitalisme de surveillance introduit mais ne théorise jamais explicitement – constituent le « surplus comportemental » de Zuboff. En tant qu’entreprise capitaliste, Google veut maximiser ce surplus, en l’élargissant en profondeur – en pénétrant toujours plus profondément dans les données de nos âmes et de nos ménages – mais aussi en largeur, en offrant de nouveaux services dans de nouveaux domaines et en diversifiant ses « actifs de surveillance ».

Sur plus de sept cents pages, Zuboff décrit ce « cycle de dépossession » dans toute son ignominie : nous sommes régulièrement volés, nos expériences enlevées et expropriées, nos émotions pillées, par des « mercenaires de la personnalité ». Elle dépeint avec force l’insupportable « engourdissement psychique » induit par les capitalistes de surveillance. Oubliez le cliché selon lequel si c’est gratuit, « vous êtes le produit », exhorte-t-elle. « Vous n’êtes pas le produit, vous êtes la carcasse abandonnée. Le produit provient du surplus qui est arraché à votre vie ». Le pire, cependant, est encore à venir, affirme-t-elle, alors que les géants de la technologie passent de la prédiction du comportement à l’ingénierie. « Il ne suffit plus d’automatiser les flux d’informations nous concernant », prévient-elle ; « le but est maintenant de nous automatiser ».

Cette nouvelle infrastructure mondiale destinée à la manufacture des comportements produit une « puissance instrumentale », car la « puissance panoptique » du premier livre de Zuboff transcende les murs de l’usine et pénètre l’ensemble de la société. Contrairement au pouvoir totalitaire, il évite la violence physique ; inspiré par les idées comportementalistes brutales de B.F. Skinner, il nous conduit plutôt vers les résultats souhaités (pensez aux compagnies d’assurance qui font payer des primes plus élevées aux clients les plus risqués). « Le calcul prend le pas sur la vie politique de la communauté comme base de la gouvernance », conclut Zuboff. Au lieu de fonder un journal fasciste, un Benito Mussolini contemporain serait probablement en train de courir après le capital-risque, de créer des applications et de se lancer dans la maîtrise de l’art martial du piratage de la croissance.

Zuboff choisit de se battre, rejetant la responsabilité de cette « tyrannie » émergente sur les intellectuels de la Silicon Valley, une étrange bande d’idiots utiles et d’entrepreneurs véreux hauts perchés sur des institutions quasi-académiques comme le Media Lab du MIT. Nommer ce système de destruction des âmes pour ce qu’il est, affirme-t-elle, est la condition préalable à une contre-stratégie efficace, car « sa normalisation nous laisse chanter dans nos chaînes ». Ce n’est pas une mince affaire, car le pouvoir idéologique exercé par le Big Tech – avec ses groupes de réflexion, ses lobbyistes, ses conférences technologiques – est immense.

Les débats politiques actuels, cependant, ne parviennent pas à saisir la dimension systémique du problème, selon elle. Qu’importe que notre comportement soit modifié par deux « capitalistes de la surveillance » ou une dizaine. Insister sur « le cryptage avancé, l’amélioration de l’anonymat des données ou la propriété des données » est une erreur, affirme Zuboff, car « de telles stratégies ne font qu’avaliser le caractère inévitable de la surveillance commerciale ».

Zuboff propose néanmoins un certain nombre d’issues politiques, reproduisant la demande de son précédent livre pour un « droit de sanctuaire » (right to sanctuary), insistant également sur un droit au « futur ». Le droit de l’Europe à être oubliée – qui permet aux utilisateurs de demander que des informations périmées ou erronées disparaissent des résultats de recherche – s’inscrit dans cette perspective. Zuboff espère également qu’un nouveau mouvement social fera pression pour des institutions démocratiques plus fortes et veillera à ce que l’expérience humaine ne soit pas réduite à une « marchandise fictive » – comme les précédents « doubles mouvements », décrits par Karl Polanyi dans La grande transformation, qui ont remis en question la marchandisation du travail, de la terre et de l’argent. Les capitalistes éclairés, comme Apple, feraient le reste.

Les présupposés de base de l’argumentation de Zuboff peuvent maintenant être énoncés plus explicitement : le « capitalisme managérial », cimenté par un pacte social entre les capitalistes et la société a eu son utilité, mais au début des années 2000, il était temps d’essayer quelque chose de nouveau. Le « capitalisme réparti » – imaginé comme un « capitalisme d’information » dans son dernier livre – en était l’héritier naturel. Apple aurait pu être le fer de lance d’un nouveau pacte social, mais elle a échoué dans cette mission. Google, à son tour, a bénéficié des inquiétudes liées aux données de l’après-11 septembre, tandis que des décennies de victoires du néolibéralisme lui ont permis d’éviter la réglementation.

“Zuboff semble identifier l’extraction de données et la modification des comportements non pas comme des conséquences de la concurrence capitaliste, mais comme les causes sous-jacentes qui propulsent l’émergence du nouvel ordre économique (…) Elle augure une révolution copernicienne, Mais qui repose sur des fondements assez délicats.”

Alors que le capitalisme de surveillance sur le capitalisme d’information, un double mouvement devrait émerger pour créer les conditions institutionnelles qui permettraient à l’apple-isme de combler les espaces politiques et économiques laissés vacants par le fordisme.

Quête d’efficacité contre quête de maximisation du taux de profit comme moteurs du capitalisme

Avant d’évaluer la validité et l’importance de ces arguments, il est important de se rappeler ce qu’ils doivent au cadre conceptuel d’Alfred Chandler [historien américain, qui s’est attaché à l’étude de l’organisation au sein de l’entreprise, et aux moyens de maximiser son efficacité NDLR]. Le récit de Zuboff est cohérent parce qu’il est capable de poser l’existence de trois régimes différents, chacun avec son propre ensemble d’impératifs et d’économies distincts. Ces régimes décrivent les opérations des grands acteurs économiques : General Motors et Ford dans le cas du « capitalisme managérial » ; Google et Facebook dans le cas du « capitalisme de surveillance » ; Apple et l’Amazon d’avant Alexa dans le cas du « capitalisme d’information ».

En elles-mêmes, cependant, ces descriptions ont peu d’importance, car nous pouvons trouver de nombreuses autres façons de lire la réalité économique et politique. Le cadre de Chandler, fondé sur des explications fonctionnalistes, n’admet pas facilement l’existence de récits alternatifs. Son pouvoir explicatif aigu découle en partie de la posture de fonctionnalisme omniscient qu’il s’est lui-même imposée. Les chandleriens ne se donnent pas souvent la peine de chercher des explications alternatives, ne serait-ce que pour les rejeter comme étant inexactes. Par conséquent, les questions importantes qui déterminent normalement le choix des schémas explicatifs – le cadre analytique choisi explique-t-il mieux la réalité que les autres solutions ? a-t-il un grand pouvoir prédictif ? sont rarement posées.

Ainsi, les lecteurs de The Age of Surveillance Capitalism chercheront, en vain, le point de vue de Zuboff sur le « capitalisme de plateforme », le « capitalisme cognitif » ou le « biocapitalisme » – quelques-unes des méthodes alternatives bien établies pour encadrer le même ensemble de problèmes historiques et politiques. Que ces cadres rivaux n’expliquent pas le « capitalisme de surveillance » tel que Zuboff le définit est évident ; qu’ils ne décrivent pas certains des mêmes phénomènes qu’elle regroupe sous cette étiquette l’est beaucoup moins. Et pourtant, la discussion de Zuboff sur les explications alternatives n’arrive jamais. Sept cents pages n’ont pas dû suffire…

Le même problème se posait dans ses livres précédents. The Support Economy ne fait pas mention des débats de longue date sur le post-fordisme (un terme qui n’apparaît jamais dans le livre lui-même). In the Age of the Smart Machine, de même, ignore les critiques de l’automatisation ainsi que les nombreuses suggestions pour utiliser les technologies de l’information de manière plus humaine et non-automatique – des suggestions qui avaient déjà été faites par la discipline désormais oubliée de la cybernétique de gestion. Zuboff travaille dans un style très différent : elle expose ce qu’elle croit être un phénomène unique, en le décrivant en profondeur, mais sans construire de ponts (ne serait-ce que pour les brûler) vers des conceptions alternatives de ce même phénomène.

Le monde a-t-il besoin d’un nouveau Chandler pour comprendre la transformation du capitalisme à l’ère numérique ? Si oui, Zuboff est un candidat de premier plan. Mais les grands courants de changement historique indiquent clairement que nous avons plutôt moins besoin de Chandler. Le cadre chandlerien, malgré toutes ses intuitions analytiques, est structurellement aveugle aux relations de pouvoir – le résultat de son manque de curiosité inné envers les explications non fonctionnalistes. Ceci, à son tour, limite les possibilités pour les chandleriens de déceler les impératifs souvent tacites mais fatalement imposés par le système capitaliste. Par conséquent, toutes ces théories – « capitalisme managérial », « capitalisme d’information », « capitalisme de surveillance » – ont beaucoup à dire sur chacun des adjectifs qui les qualifient, mais sont muettes sur les questions relatives au capitalisme lui-même, le réduisant généralement à quelque chose de relativement banal, comme le fait qu’il existe des marchés, des marchandises et, occasionnellement, des pactes sociaux entre les capitalistes et le reste de la société.

La réception de l’œuvre de Chandler est éloquente. Pour ses détracteurs, le récit de Chandler sur le « capitalisme managérial » n’était qu’un conte de fées savamment élaboré, qui permettait aux élites américaines de légitimer leur pouvoir par des mythes rivalisant avec ceux qui jaillissent aujourd’hui de la Silicon Valley. Chandler a loué les cadres américains, les champions présumés de l’efficacité, pour avoir servi non pas les intérêts du capital, mais ceux de la société. Zuboff a avalisé d’importants aspects du récit de Chandler, n’ergotant que sur la durabilité du capitalisme managérial face au changement technologique, ses conséquences sur le monde intérieur des consommateurs et sa culture organisationnelle hautement sexiste, narcissique et hiérarchique.

Les critiques de Chandler, en revanche, l’ont accusé du crime méthodologique consistant à inverser la causalité de l’explication historique. Ce qui a motivé l’expansion de l’industrie américaine, c’est la recherche du profit et du pouvoir, et non la recherche de l’efficacité ; cette dernière, là où elle s’est produite, découlait seulement de la première. Centrées sur la rentabilité à long terme, les entreprises ont essayé de gagner des parts de marché par des pratiques anticoncurrentielles, telles que les rabais, les ristournes et les contrats d’exclusivité. Les prix bas ont été obtenus non seulement ou même principalement grâce à l’efficacité, mais aussi en externalisant les coûts de production sur la société (par exemple la pollution), en supprimant les droits des travailleurs et en faisant obstacle aux modes alternatifs non commerciaux d’organisation sociale.

Pour les critiques, la principale question n’est pas de savoir si les mains de la coordination sociale sont visibles (à la Chandler) ou invisibles (à la Adam Smith), mais plutôt si elles sont sales. Et, pour la plupart, elles l’étaient – surtout lorsqu’il s’agissait d’obtenir un approvisionnement continu en matières premières de l’étranger. Dans ce contexte, les odes de Chandler au capitalisme managérial n’étaient que l’envers des théories du sous-développement avancées par les économistes critiques en Amérique latine : le bon fonctionnement du capitalisme managérial américain s’est fait au prix d’un dysfonctionnement et d’un retard de développement de nombreuses économies étrangères. Ces économies sont devenues de simples appendices du système de production américain, incapables de développer leur propre industrie.

Le désaccord le plus important portait sur la question de savoir qui construisait le capitalisme managérial. Pour Chandler, c’était l’attrait du développement technologique exogène et les impératifs de la société de masse. Pour ses critiques – qui préféraient des termes comme « libéralisme d’entreprise » – ce sont les capitalistes qui, trouvant des alliés dans l’appareil d’État, ont piégé les technologies ouvertes dans des programmes d’entreprise étroits. Les managers étaient la conséquence, et non la cause, de ces développements.

Zuboff, tout comme Chandler, n’avait pas à s’engager pleinement dans de telles critiques, elle pouvait se permettre d’être nostalgique des « réciprocités constructives producteurs-consommateurs » du capitalisme managérial dans ses travaux antérieurs. Elle n’était pas étrangère à la thèse du « libéralisme d’entreprise », citant même Martin Sklar, l’un de ses principaux partisans, dans The Support Economy. Et pourtant, elle n’a pas fait usage de ces critiques. Au lieu de cela, elle a continué à voir le capitalisme de gestion comme un compromis gagnant-gagnant entre les consommateurs, les travailleurs et les producteurs ; un compromis cimenté par des institutions démocratiques mais, malheureusement, toujours dépourvu de possibilités d’épanouissement individuel.

Une comptabilité complète des méthodes et des coûts du capitalisme managérial doit cependant regarder au-delà de l’axe consommateur-producteur-travailleur. Qu’est-ce que cela signifie pour les relations interculturelles, la structure familiale, l’environnement et le reste du monde ? Qu’en est-il de l’autodétermination des individus en dehors du marché ? Le régime qui lui succédera, qu’il soit fondé sur la défense des droits ou la surveillance, ne devrait-il pas être évalué sur cette échelle de coûts potentiels beaucoup plus grande ? Ces considérations supplémentaires n’entrent cependant jamais vraiment en ligne de compte, car la teneur fonctionnaliste globale de l’argument dicte déjà les critères mêmes sur lesquels l’attrait du nouveau régime doit être évalué.

Extraction des données, modification des comportements : la cause et la conséquence

Après ce prélude assez long – cet article aspire à rivaliser avec le livre en termes de prolixité ! – il est temps d’examiner dans quelle mesure le récit de Zuboff sur le capitalisme de surveillance tient la route en tant que théorie. L’un des avantages non avoués d’opérer dans le cadre de Chandler est que, si Zuboff réussit la tâche qu’elle s’est tacitement fixée, son livre produira un modèle analytique solide qui éclairera toutes les interprétations ultérieures de l’économie numérique. C’est, après tout, ce qui est arrivé à Chandler : son cadre est devenu le modèle dominant, bien que parfois contesté, pour penser l’ère de la production de masse.

Zuboff, cependant, ne déclare pas explicitement qu’elle propose un modèle analytique d’une ambition intellectuelle aussi vaste ; elle fait à peine mention de Chandler. En fait, elle laisse toujours la porte ouverte à une interprétation différente et se contente d’illustrer la bataille destructrice pour les données numériques dans le monde qui se déroule actuellement entre des entreprises telles que Google et Facebook, avec comme dommage collatéral l’autonomie des consommateurs individuels. Une explication détaillée des mouvements et des considérations tactiques qui façonnent cette bataille l’amène à introduire un phénomène appelé « capitalisme de surveillance », mais les ambitions théoriques de ce concept, selon l’interprétation actuelle, sont très modestes.

“Les récentes révélations sur les pratiques de partage de données par Facebook confirment que les impératifs du « capitalisme de surveillance », s’ils existent, ne sont que secondaires par rapport à ceux du capitalisme lui-même. L’entreprise, préoccupée par sa croissance, a traité les données comme un actif stratégique.”

Les récentes révélations sur les pratiques de partage de données par Facebook confirment que les impératifs du « capitalisme de surveillance », s’ils existent, ne sont que secondaires par rapport à ceux du capitalisme lui-même. L’entreprise, préoccupée par sa croissance, a traité les données comme un actif stratégique.

Par souci de clarté, appelons cette interprétation thèse I. N’offrant rien de plus qu’une description, la thèse I implique très peu sur la durabilité, l’importance globale et l’impact du capitalisme de surveillance sur le capitalisme lui-même. Il y a certainement de nombreux effets sociaux négatifs, mais la thèse I ne les considère pas comme pires que ceux des modèles alternatifs.

Zuboff fournit suffisamment d’avertissements pour suggérer que l’illustration de la thèse I – un ensemble d’observations, et non une hypothèse – résume ses intentions. Alors que le capitalisme de surveillance semble révolutionnaire – pourquoi sinon le qualifier de « nouvel ordre économique », qui affecterait même les bouteilles de vodka et les thermomètres rectaux ? – Zuboff concède que les lois habituelles du capitalisme en matière de mouvement demeurent et sont simplement complétées par les nouveaux impératifs autour des données. Lu comme un exposé méticuleux de la thèse I, le livre est un mystère : pourquoi se donner tant de mal pour révéler les dommages occasionnels de Google et de Facebook – rien d’inédit en 2019 – sinon pour en tirer de plus larges et plus audacieuses conclusions ?

L’argument du livre de Zuboff selon lequel nous pourrions encenser la thèse II est donc peut-être plus pertinent. Tout d’abord, c’est une hypothèse correcte : elle postule que le capitalisme de surveillance non seulement produit des effets qui sont sans équivoque pires que ceux des régimes numériques alternatifs, mais qu’il devient aussi la forme hégémonique du capitalisme. Les anciennes lois du capitalisme s’appliquent, mais seulement formellement, la classe, le capital et les moyens de production ne conservant que peu d’emprise analytique. Pour s’adapter à l’environnement en mutation rapide, les capitalistes d’aujourd’hui doivent suivre les impératifs de la nouvelle logique fondée sur la surveillance ; ils doivent se préoccuper des moyens de modification du comportement, et non des moyens de production.

La thèse II a des implications révolutionnaires. Elle identifie l’extraction de données et la modification des comportements non pas comme des conséquences occasionnelles de la concurrence capitaliste, mais comme les causes sous-jacentes qui propulsent l’émergence du nouvel ordre économique, tandis que ses impératifs, à leur tour, en viennent à prendre le pas sur ceux du capitalisme lui-même. La thèse II augure une révolution copernicienne dans la façon dont nous comprenons l’économie numérique. Mais cette révolution repose sur des bases assez délicates, car Zuboff doit prouver, et pas seulement affirmer, son renversement de causalité sous-jacent. Si elle échoue, on en revient à la thèse I : les données sont appropriées – de manière extensive, rationnelle, infâme – et les efforts pour les monétiser ont parfois des effets sociaux délétères – un argument qui est certainement correct, mais quelconque.

La preuve critique et déterminante de la thèse II n’arrive jamais, ce qui n’est pas une grande surprise pour quiconque connaît la théorie commerciale de Chandler. Au contraire, la simplicité de la thèse I et l’ambition de la thèse II se confondent pour donner la tautologie de la thèse III, tout aussi bien connue des aficionados de Chandler : les capitalistes de surveillance s’engagent dans le capitalisme de surveillance parce que c’est ce que les impératifs du capitalisme de surveillance exigent. Zuboff fait régulièrement appel à cette thèse auxiliaire, qui facilite le postulat qu’elle doit prouver par ailleurs.

La thèse III, cependant, n’est pas une hypothèse à prouver mais un axiome impossible à falsifier : tout cas qui ne correspond pas à la théorie peut toujours être écarté comme se situant en dehors du capitalisme de surveillance tel que la théorie le définit, et donc, non soumis à ses impératifs. Ce qui peut être falsifié, c’est la thèse II, car elle pose des mécanismes de causalité réels.

Avant que vous, cher lecteur, ne soyez mal à l’aise en soupçonnant, non à tort, qu’un exercice ennuyeux et cruel de philosophie analytique est sur le point de se dérouler, soyons clairs sur sa raison d’être : sans une réaffirmation claire de la thèse de Zuboff dans un langage lucide et vérifiable, nous risquons toujours de nous noyer dans les marécages tautologiques de la thèse III. À cette condition, nous pouvons procéder avec notre propre Tractatus Logico-Philosophicus miniature.

La thèse II est un ensemble de plusieurs propositions :

  1. La civilisation de l’information pourrait choisir entre le capitalisme de surveillance et le capitalisme d’information ;
  2. Les deux tirent parti de l’extraction de données : l’un pour obtenir un surplus comportemental, l’autre pour améliorer les services ;
  3. Certaines caractéristiques de la civilisation de l’information ont rendu le capitalisme de surveillance hégémonique ;
  4. À mesure qu’il devient hégémonique, ses impératifs le deviennent aussi ;
  5. Dans ses effets sociaux, le capitalisme de surveillance est davantage néfaste que ses alternatives.

Les preuves fournies pour étayer chacune des affirmations de la thèse II ci-dessus sont souvent incomplètes et n’excluent pas d’autres explications. Dans de tels cas, la thèse III comble les lacunes. Abordons chacune de ces propositions selon ses propres termes.

La proposition ii est cruciale, car elle pose les relations de cause à effet entre l’extraction de données et les impératifs des deux ordres économiques : dans la civilisation de l’information, les données sont collectées soit parce qu’elles constituent un surplus comportemental (ce qui nous donne le capitalisme de surveillance), soit parce qu’elles améliorent les services (ce qui nous donne le capitalisme d’information). Cette proposition pourrait s’appliquer à des cas idéaux comme Google et Apple. Mais qu’en est-il des cas limites ? Dans quelle mesure l’accent mis sur la vie après la mort des données des utilisateurs explique-t-il la dynamique du « capitalisme de l’information » lui-même ?

Extraction secrète des données pour « améliorer les produits » : capitalisme de surveillance ou d’information ?

Prenons l’exemple d’Amazon. Les lecteurs électroniques Kindle collectent constamment des données – livres lus, pages tournées, paragraphes soulignés – qui aident Amazon à décider quels livres publier par ses propres moyens. Cela s’inscrit dans le cadre de la défense du capitalisme : les consommateurs finissent par obtenir des livres plus pertinents. Amazon, cependant, fabrique également des modèles Kindle moins chers qui contiennent de la publicité. Si la publicité est personnalisée, nous devons être dans un capitalisme de surveillance à part entière. Si elle est générique, nous devons être dans le no man’s land du capitalisme numérique, coincés entre la défense des intérêts et la surveillance. Si le capitalisme de surveillance est, en effet, diagnostiqué, alors un double mouvement d’un genre ou d’un autre devrait se produire et garantir que nous payons tous le prix fort pour ces lecteurs électroniques ; sinon, notre autonomie est menacée.

Remarquez que cette prescription normative, ainsi que l’explication de la raison d’être de la publicité personnalisée, sont fournies par les pouvoirs miraculeusement persuasifs de la thèse III. Mais n’avons-nous pas simplement postulé que les données améliorent les services ou modifient les comportements au lieu de montrer que ces résultats se produisent ? Et si ces publicités Kindle, personnalisées ou non, n’existaient que pour permettre à Amazon d’attirer les consommateurs sensibles aux prix ? Après tout, le fait que les tech leviathans collectent des données et diffusent des publicités recouvre différentes motivations. Et si Amazon voulait simplement inonder le marché avec des appareils moins chers, assurant ainsi sa position sur le marché ? Pourquoi est-il plus important « d’accaparer » l’offre de données que le marché lui-même ?

Pensez également à l’expansion d’Amazon dans nos foyers. Amazon pourrait en effet récolter nos conversations sur des appareils compatibles avec Alexa pour éventuellement modifier notre comportement ; il pourrait même modifier notre comportement pour extraire plus de données. Mais il est également possible qu’Amazon souhaite simplement améliorer sa capacité de reconnaissance vocale, qu’elle monétise ensuite par le biais d’Amazon Web Services, la principale source de ses bénéfices. Amazon, comme la plupart des grandes entreprises technologiques, dissimule ses activités d’extraction de données. Mais l’invisibilité de ses opérations prouve, tout au plus, qu’elles sont malhonnêtes. La définition de Zuboff du capitalisme de surveillance dépend de la question à savoir si le surplus de comportement est utilisé pour modifier le comportement, et non si l’extraction de données est visible. Les processus d’extraction de données inhérents à l’alternative positive de Zuboff (lorsque les données entrent dans le cycle de réinvestissement comportemental) sont, après tout, aussi opaques que ces mêmes processus sous le capitalisme de surveillance (lorsque les données produisent un surplus comportemental).

Alors, qu’est-ce qui motive Amazon : la rentabilité et la survie, ou l’extraction de données et la modification des comportements ? Si l’on s’en réfère à la révolution copernicienne que suggère Zuboff, ce dernier point a pris le pas sur l’entreprise numérique capitaliste. « Amazon est à la recherche d’un surplus comportemental », écrit-elle. « Cela explique pourquoi la société a rejoint Apple et Google, dans le concours pour le tableau de bord de votre voiture, en forgeant des alliances avec Ford et BMW. » Voici la même hypothèse, telle qu’elle aurait probablement été formulée avant la révolution copernicienne de Zuboff : « Amazon a rejoint Apple et Google dans le concours pour le tableau de bord de votre voiture, forgeant des alliances avec Ford et BMW. En conséquence, elle est à la recherche d’un surplus comportemental ».

La raison pour laquelle Amazon a rejoint Apple et Google dans cette mission mérite une investigation, et non une simple présomption. Pour le faire correctement, sans doute faudrait-il cesser de nous concentrer sur le rapport de ces entreprises aux consommateurs, pour examiner comment elles interagissent avec les autres entreprises et les gouvernements. Comme ces interactions n’incluent pas les consommateurs, Zuboff en fait peu de cas – bien qu’elles permettent souvent de réaliser des profits bien plus élevés que les agences de publicité des géants de la technologie.

Quoi qu’il en soit, Zuboff n’a pas besoin de chercher à savoir pourquoi Amazon se joindrait à Apple (Apple ?!) et à Google dans cette mission, puisque la thèse III fournit commodément toutes les réponses. Ainsi, la chasse au surplus comportemental devient la cause, et non l’effet, des pratiques des entreprises technologiques. Et bien que Zuboff concède que les impératifs plus généraux de la concurrence sur le marché façonnent leur lutte, ces entreprises ne font leur travail qu’après que l’objectif de la lutte – la récolte de données – ait été fixé, de l’extérieur, par la thèse III. Le capitalisme de surveillance est, sans surprise, davantage rattaché à la « surveillance » qu’au « capitalisme ».

Le critère selon lequel la proposition ii classifie les entreprises – en extrayant des données pour modifier les comportements ou améliorer les services – génère également des résultats étranges. Prenons l’exemple d’Uber, qui est à peine mentionné dans le livre – peut-être pour de bonnes raisons. Uber, qui ne dépend pas des revenus publicitaires, est confronté à des incitations qui diffèrent de celles de Google ou de Facebook. Pratique-t-il un capitalisme d’information ? Ses dirigeants le diraient : les tactiques agressives d’Uber garantissent que les passagers bénéficient de services meilleurs et moins chers. Cela correspond à la définition qu’en donne Zuboff : « Lorsqu’une entreprise recueille des données comportementales avec l’autorisation des consommateurs et uniquement dans le but d’améliorer un produit ou un service, elle s’engage dans un capitalisme mais pas dans le capitalisme de surveillance ».

Uber, cependant, effectue de nombreuses choses odieuses avec les données. Prenez par exemple le scandale Greyball découvert par le New York Times en 2017. Greyball était le système d’espionnage interne d’Uber qui rendait ses véhicules invisibles aux utilisateurs à proximité des bâtiments gouvernementaux tout en signalant leurs données, comme les détails des cartes de crédit, qui laissaient supposer qu’ils travaillaient dans les forces de l’ordre. Ici, l’objectif de l’extraction de données, même si elle est malveillante et invisible, n’était ni la modification du comportement des utilisateurs ni l’amélioration du service. Il s’agissait plutôt de créer une sous-classe permanente de non-utilisateurs afin d’échapper à la réglementation et de maintenir les coûts à un faible niveau.

Il existe une théorie plus simple et plus générale pour expliquer l’extraction de données et la modification du comportement que Zuboff ignore, piégée comme elle l’est dans le cadre de Chandler, avec son besoin brûlant de trouver un successeur au capitalisme managérial. Cette théorie plus simple va comme suit : les entreprises technologiques, comme toutes les entreprises, sont motivées par la nécessité d’assurer une rentabilité de long terme. Elles y parviennent en écrasant leurs concurrents par une croissance plus rapide, en externalisant les coûts de leurs opérations et en tirant parti de leur pouvoir politique. L’extraction de données et la modification des comportements qu’elle permet – ce qui est clairement plus important pour les entreprises dans des secteurs tels que la publicité en ligne – s’inscrivent dans ce contexte, là où elles le font.

“Revenons à Uber. Est-ce que l’entreprise extrait des données, et devrions-nous nous en inquiéter ? Certainement. Mais devrions-nous accepter la révolution copernicienne de Zuboff, et penser l’économie numérique à travers le prisme de l’extraction de données comme point nodal ?”

En d’autres termes, ils ne sont qu’un effet local d’une cause globale. C’est cette cause – la nécessité d’assurer une rentabilité à long terme face à la concurrence – qui détermine leur stratégie en matière de données. Cette explication parcimonieuse traite les cas de Google et d’Uber, sans qu’il soit nécessaire de poser de nouveaux « régimes » hybrides tels que, par exemple, le « capitalisme d’information ». En réalité, le régime à l’œuvre n’est que celui du capitalisme au sens strict – et l’utiliser comme catégorie analytique aide à compenser les nombreuses lacunes des concepts de capitalisme managérial et du capitalisme de surveillance.

Les récentes révélations sur les pratiques controversées de partage de données par Facebook confirment que les impératifs du « capitalisme de surveillance », s’ils existent, ne sont que secondaires par rapport à ceux du capitalisme lui-même. L’entreprise, préoccupée par sa croissance, a traité les données comme un actif stratégique : lorsque les impératifs d’expansion impliquaient qu’elles devaient être partagées avec d’autres entreprises technologiques, elle l’a fait sans hésiter, donnant accès à Microsoft, Amazon, Yahoo et même Apple (bien qu’Apple ait nié leur implication). Sous le capitalisme, la question de savoir qui s’approprie le surplus comportemental est secondaire ; ce qui compte, c’est de savoir qui s’approprie le surplus réel et peut continuer à le faire sur le long terme.

Généralisation du capitalisme de surveillance : conjoncture malheureuse ou effet de structure ?

La proposition iii, selon laquelle la conjoncture actuelle favorise le capitalisme de surveillance plutôt que le capitalisme d’information, semble plausible. Comme je l’ai noté ci-dessus, Zuboff évoque des « affinités électives » entre les impératifs du capitalisme de surveillance et ceux qui ont façonné les opérations militaires de l’après-11 septembre et les initiatives de déréglementation néolibérales. Cela n’explique toutefois que la prospérité du capitalisme de surveillance, et non pas sa prospérité aux dépens du capitalisme d’information. Pour ce faire, il aurait fallu montrer que les affinités électives favorables au capitalisme de surveillance n’étaient pas simultanément favorables au capitalisme d’information.

Est-ce le cas ? Apple, que l’on peinerait à dépeindre en victime du capitalisme, canalise l’argent via Braeburn Capital, un fonds spéculatif géant. Amazon, avec ses 600 000 employés, est l’un des principaux bénéficiaires de la faiblesse du droit du travail. Amazon liste la CIA comme un client majeur. Siri [l’application informatique de commande vocale créée par Apple NDLR] provient du Stanford Research Institute, bénéficiaire de fonds du Pentagone. À y regarder de plus près, ces affinités électives sont légions. Mais c’est ici que la thèse III surgit comme par magie, modifiant la proposition initiale : le capitalisme de surveillance s’est avéré hégémonique… dans les environnements où il s’est avéré hégémonique.

Cette hégémonie est simplement postulée par Zuboff, et non mise en évidence. La dynamique de la concurrence ne pousserait-elle pas Google et Facebook à suivre la voie d’Amazon et de Microsoft, en vendant des services tels que le cloud computing et l’intelligence artificielle ? C’est ce que l’on est en droit de supposer si l’on pose que les capitalistes courent après la rentabilité (et non l’efficacité ou le surplus comportemental), et si l’on garde à l’esprit que de tels projets informatiques promettent des marges bénéficiaires lucratives, alors que la publicité entraîne des coûts de plus en plus élevés. Ces services ne pourraient-ils pas supplanter la publicité et la modification des comportements comme modèle principal de l’économie numérique ? C’est évident, mais ce n’est pas un problème que Zuboff considère.

Certaines lacunes de la proposition iv – qui laisse entendre que les impératifs du capitalisme de surveillance l’emportent sur ceux du capitalisme lui-même – ont déjà été discutées. Rappelons que la thèse II explique la stratégie des capitalistes de surveillance par leur impératif premier d’accaparer les réserves de surplus comportemental. Depuis 2001, Alphabet, la société-mère de Google, a acquis plus de 220 entreprises ; Facebook en a acquis plus de soixante-dix. La chasse aux données a-t-elle été le moteur de ces acquisitions ? Ou certaines d’entre elles – l’acquisition d’Instagram par Facebook par exemple – étaient-elles motivées par la recherche d’un pouvoir de marché ? Il est impossible de répondre à cette question en se contentant de regarder ce qui est arrivé aux données des deux entreprises qui ont fusionné. La troisième thèse, en revanche, le peut.

Revenons à Uber. Est-ce que l’entreprise extrait des données, et devrions-nous nous en inquiéter ? Certainement. Mais devrions-nous accepter la révolution copernicienne de Zuboff, et penser l’économie numérique à travers le prisme de l’extraction de données comme point nodal ?

Dans le cas d’Uber, le récit « pré-copernicien » est d’une puissance explicative bien plus importante. En 2017, Uber a perdu 4,5 milliards de dollars ; sa perte prévue pour 2018 est d’une ampleur similaire. La société se maintient à flot sur un océan de dettes, en attendant une introduction en bourse qui pourrait injecter de nouveaux fonds d’investisseurs extérieurs, en brûlant les liquidités de l’Arabie saoudite et de la SoftBank du Japon – cette dernière ayant elle-même une dette de plus de 150 milliards de dollars. Pourquoi une entreprise si lourdement endettée investirait-elle dans une société déficitaire ? Pourquoi le financement de la dette de la SoftBank a-t-il été si bon marché ? Et pourquoi l’Arabie saoudite verse-t-elle des liquidités dans des entreprises technologiques ? Les réponses à ces questions n’éclaireront pas ce que fait Uber avec les données, mais elles révéleront le premier impératif de l’entreprise : écraser la concurrence. Il ne fait aucun doute que cette directive primordiale implique parfois l’extraction de données. Mais l’inverse n’est pas vrai.

Nous devrions, bien sûr, tendre vers une utilisation équilibrée des explications micro et macro. Mais la tentative de Zuboff en la matière est toujours tributaire de la cohérence logique interne à la thèse III. « La technologie est l’expression d’autres intérêts », écrit-elle. « À l’époque moderne, cela signifie les intérêts du capital, et à notre époque, c’est le capital de surveillance qui commande le milieu numérique et oriente notre trajectoire vers l’avenir ». Cette conclusion selon laquelle le capital de surveillance, et non le simple vieux capital, dicte le développement de la technologie aujourd’hui, est simplement postulée. Les catégories antérieures perdent leur importance analytique par décret. Le récit de Zuboff se fonde sur la présomption qu’elles n’ont pas d’importance. C’est également ce qu’elle faisait dans son premier livre ; à l’époque cependant, Zuboff n’avait pas poussé le courage jusqu’à reconnaître que ses propres choix analytiques avaient invalidé les cadres précédents.

Une telle vision étroite est monnaie courante dans la plupart des théories commerciales de Chandler ; ses praticiens, d’ailleurs, n’en font pas mystère. Chandler lui-même a été très explicite sur son objectif dans les premières pages de son ouvrage The Visible Hand : « Je ne traite des grandes évolutions politiques, démographiques et sociales que dans la mesure où elles ont une incidence directe sur la façon dont l’entreprise a mené à bien les processus de production et de distribution ». Nous pouvons tolérer, au prix d’efforts considérables, un tel prisme dans le récit de l’histoire des entreprises ; cependant, lorsqu’il devient le fondement d’une théorie, comme l’ont été les textes de Chandler pour les théories ultérieures de l’entreprise et comme pourraient le devenir ceux de Zuboff pour les théories de l’entreprise numérique, nous risquons de substituer le solipsisme des entreprises à la perspicacité théorique.

Il nous reste à analyser la proposition v : l’idée selon laquelle les méfaits du capitalisme de surveillance sont supérieurs à ceux des logiques alternatives. Il n’est pas interdit de se demander pourquoi consacrer tant de pages à ce que Zuboff appelle le « pouvoir instrumental » si ce n’est qu’un des nombreux pouvoirs du capitalisme numérique et peut-être même pas le pire ? Hélas, Zuboff couvre ses paris, en concédant que les « pratiques monopolistiques et anticoncurrentielles dans le cas d’Amazon » et « les stratégies de prix, les stratégies fiscales et les politiques d’emploi [dans le cas d’] Apple » sont également problématiques.

En l’absence d’un cadre permettant de comparer les méfaits du capitalisme de surveillance avec ceux de ses alternatives, il n’y a qu’une solution : demander au lecteur de supposer, à la suite de la proposition III, qu’il est hégémonique, de sorte que ses problèmes méritent plus d’attention. Si ce n’est pas le cas, pourquoi s’inquiéter davantage des consommateurs dans les maisons intelligentes gérées par Alexa que des travailleurs dans les entrepôts intelligents néo-tayloriques d’Amazon ?

Dépourvue d’une analyse solide sur le fonctionnement du pouvoir anonyme sous le capitalisme, Zuboff finit par opposer le « pouvoir instrumental » du capitalisme de surveillance au « pouvoir totalitaire » des dictatures. Là où « le totalitarisme opère par la violence », « le pouvoir instrumental opère par la modification des comportements » et « n’a aucun intérêt pour nos âmes ni aucun principe à instruire ».

Peut-être, mais qu’en est-il de la « morne contrainte des relations économiques » évoquée par Marx ? Ne représentait-elle aucun pouvoir ? Voici ce que Friedrich Hayek – l’anti-Marx par excellence – écrivait dans les années 1970 : « La concurrence produit… une sorte de contrainte impersonnelle qui oblige de nombreux individus à adapter leur mode de vie d’une manière qu’aucun ordre ou instruction délibérée ne peut provoquer ». Hayek ne fait-il pas référence ici à la modification des comportements, entreprise par les forces impersonnelles du capitalisme sans injonctions totalitaires ?

Traduit par Eugène Favier-Baron et Vincent Ortiz.

GAIA-X : la France et l’Allemagne en quête de souveraineté face aux GAFAM

©Descrier

Face à la crise de confiance des peuples et des entreprises quant aux capacités en matière de traitement souverain des données numériques dans les territoires nationaux européens, la France et l’Allemagne s’engagent dans un plan de construction d’une infrastructure Cloud de grande ampleur. Présentée comme une réussite inéluctable, de nombreux points semblent pourtant poser question quant au sérieux des parties prenantes dans l’élaboration de cette initiative de bon sens. Décryptage par Florent Jourde. 


« Nous ne sommes pas la Chine ni les États-Unis, nous sommes l’Europe avec nos propres valeurs et intérêts économiques que nous voulons défendre ». Ce sont les paroles de Bruno Le Maire lors du lancement en juin dernier du projet de « Méta-Cloud » européen GAIA-X. L’objectif semble établi : Gaia-X se veut représenter une nouvelle marche vers l’indépendance et la souveraineté d’une Europe décidée à s’imposer entre les deux mastodontes que sont les États-Unis et la Chine. Une quête d’affirmation diplomatique qui semble se construire autour d’une identité alliant puissance économique alternative et interventionnisme éclairé à travers son projet d’armée européenne. GAIA-X s’inscrit vraisemblablement dans cette double optique et vise au travers du cloud européen à la fois la garantie de valeurs comme celles de respect pour la vie privée, de souveraineté des données ou encore d’interopérabilité entre services. La consigne fournie par le ministère de l’Économie se veut en totale opposition avec la posture obscurantiste défendue outre-Atlantique et son « cloud act », loi fédérale adoptée en 2018, modifiant au passage le « Stored Communications Act » (SCA) de 1986, autorisant les instances de justices américaines à solliciter les opérateurs afin d’accéder aux données contenues dans les serveurs situés sur son sol et au-delà, sans obligatoirement en avertir le propriétaire. Cette impulsion européenne se conçoit comme un contrepoids à l’emprise de Washington et Pékin sur le marché de l’infrastructure cloud.

Au-delà du discours, les moyens engagés sèment le doute quant à la portée réelle du projet

Le lancement fait en réalité suite à un « manifesto » co-rédigé par le ministère de l’Économie et de l’Énergie allemand et le ministère des Finances français en février 2019, texte lui-même issu d’une initiative allemande sur « la stratégie industrielle nationale pour 2030 ». À ce stade, plusieurs axes furent énoncés comme « investir massivement dans l’innovation », « adapter notre cadre réglementaire » et mettre en place « des mesures efficaces pour nous protéger ». Comme souvent dans l’histoire du fonctionnement institutionnel européen, l’Allemagne invite une nouvelle fois son partenaire français à le suivre pour initier ce projet. Anne-Sophie Taillandier (directrice de la plateforme TeraLabs de l’Institut Mines-Telecom, l’un des cofondateurs de Gaia-X) ne cache d’ailleurs pas que les allemands en sont bien les initiateurs. Elle ajoute que, depuis, les deux pays ont « bien travaillé ensemble » pour le faire avancer. Est-ce à dire que GAIA-X émerge exclusivement de priorités industrielles allemandes ? L’interrogation reste en suspend.

Au-delà de cette direction bicéphale initiale, la volonté n’est clairement pas à l’entre soi et à terme l’ambition serait d’élargir cette direction. Bruno Le Maire, toujours dans son discours d’introduction, rappelait que les Pays-Bas, l’Italie et l’Espagne auraient déjà fait part de leur intérêt à rejoindre l’aventure. Il est donc aisé de saisir toute l’importance du sujet qui s’étend pour ainsi dire au-delà des frontières numériques avec une ambition non-dissimulée de venir renforcer la co-dépendance et la coopération entre États membres. Le projet est pour le moment porté par 11 entreprises allemandes (Beckhoff, BMW, Bosch, Deutsche Telekom, DEC-X, Fraunhofer Institute, Friedhelm Loh Group, IDSA association, PlusServer, SAP et Siemens) et 11 françaises (Amadeus, Atos, CISPE association, Docaposte, EDF, Institut Mines-Télécom, Orange, Outscale, OVHcloud, Safran et Scaleway ). Les 22 membres ont d’ores et déjà mis 75 000 euros chacun sur la table, soit une enveloppe d’environ 1,5 million d’euros au total. Une somme qui peut paraître modeste au vu des ambitions affichées (en comparaison, les investissements américains s’élèvent à plusieurs milliards de dollars). Du côté de sa structuration, GAIA-X est juridiquement une association à but non-lucratif dont le siège social s’établit à Bruxelles, au plus près des institutions européennes. Jusqu’ici, Gaia-X semble respecter les échéances prévues, un démonstrateur ainsi qu’un document officiel ont été publiés il y a peu, rappelant au passage les grandes lignes directrices du projet :

«1. Souveraineté des données.

2. Utilisation de technologies ouvertes, compréhensibles et sûres, entre autres utilisation des principes de l’ « Open Source », en écosystème ouvert.

3. Traitement décentralisé et distribué des données (Multi-Cloud, Multi-Edge ou Edge-to-Cloud) afin de réaliser des économies d’échelle.

4. Interconnexion et interopérabilité sémantique – sur la base de standards – au niveau du réseau, des données et des services – en particulier, interconnexion des environnements « Cloud » et périphériques.

5. Indépendance et automatisation de la certification des participants à l’écosystème GAIA-X ainsi que de la réalisation de contrats de participation et de leur respect en termes de sécurité informatique, souveraineté des données, accords de services et contrats cadres.

6. Mise à disposition de tous services centraux nécessaires pour garantir sécurité et convivialité du fonctionnement (par ex. authentification).

7. Autodescription des nœuds du système GAIA-X visant à favoriser la transparence mais aussi le développement de nouveaux modèles d’affaires et d’application entre différents participants (par ex. distribution de données ou services)»

Une démarche crédible ?

Avec des moyens limités et un calendrier ambitieux (livraison pour début 2021), GAIA-X peut-il espérer s’imposer comme un concurrent crédible face à Microsoft, Amazon ou encore Alibaba ? Il est permis d’en douter. GAIA-X ne sera pas une « super entreprise » européenne « mais plutôt une entité capable de favoriser, par ses directives et ses standards, l’essor d’acteurs déjà existants, tout en harmonisant les pratiques de ceux déjà en place ». La structure a donc pour vocation d’informer et d’accompagner les utilisateurs (les entreprises en premier lieu) dans leur choix d’une solution cloud adaptée à leurs besoins et selon leurs domaines d’activité tout en garantissant des conditions vertueuses d’hébergement des données.

exemple « pattern » ci-dessus ; Source OVH.com

Cette finalité émerge également du constat que nombre d’entreprises s’orientent presque machinalement vers les géants américains (Microsoft, Google et Amazon représentent plus de la moitié du marché du cloud mondial) sans véritable prise de considération des structures et des solutions « locales ». Il faut dire que les leaders du marché ont de sérieux atouts dans leurs bottes en termes d’API (Application Programming Interface) et de services au sens large. La future plateforme s’imagine donc en « place de marché » capable d’apporter visibilité et reconnaissance aux acteurs européens, en leur offrant un configurateur géant dont les GAFAM seront parties prenantes. Ceci constitue d’ailleurs le premier défi de la structure, à savoir, de permettre une interopérabilité complète entre l’ensemble des partenaires afin de proposer l’offre la plus cohérente, la plus personnalisable et la plus stable possible.

Cette visée d’interopérabilité soulève plusieurs enjeux notamment vis-à-vis du passage quasi-obligatoire à l’utilisation de solutions relativement standardisées voire éprouvées par la communauté d’utilisateurs. Il s’agit de trouver un langage commun pour espérer établir une communication. Cela va donc se traduire par des choix d’outils, de protocoles ou de standards connus et reconnus. Notons ici que ce problème risque de s’accroître au fur et à mesure de l’arrivée de nouvelles parties prenantes au projet… Une première version du démonstrateur, publiée par CLOUD&HEAT Technologies, est déjà en service, dans laquelle l’utilisateur est à même de choisir ses options de sécurité à l’aide d’un configurateur. Le choix se porte alors automatiquement sur les acteurs déjà en place et leaders du marché. Les noms de Redhat (société américaine) ou encore Kubernetes (plateforme open source dont le propriétaire n’est autre que Google) sont d’ores et déjà retenus.

Sur la diapositive ci-dessus réalisée par OVH (une des entreprises françaises au cœur du projet GAIA-X) on peut apercevoir les logos de certaines solutions associées. Ces dernières sont dans leur grande majorité situées outre-Atlantique.

Tout ceci pose une nouvelle fois la question de la dépendance face aux entreprises américaines et étiole les revendications souverainistes des discours. S’il convient de ne pas associer systématiquement entreprises et pouvoir fédéral américain, l’histoire récente montre que cette frontière est fragile, comme en témoigne la récente décision de Google de stopper l’utilisation de la licence de leur système d’exploitation mobile Android par le géant Huawei suite à des soupçons d’espionnage. Cas relativement extrême, et peut-être rare, mais qui a le mérite d’exister. Une autre source de crispation quant à la crainte d’une ingérence américaine fut illustrée par l’application Stopcovid (application de traçage française dans le cadre de l’épidémie COVID19) lorsqu’un système de captcha Google s’est glissé dans l’hébergement du dispositif. Un détail en apparence, qui en dit long sur les réalités du degré de dépendance auquel la France est sujette vis-à-vis de l’outre-Atlantique.

Sans pour autant rejeter en bloc l’initiative que représente GAIA-X et ses ambitions émancipatrices, force est de constater que celles-ci ne s’appliquent qu’à une certaine échelle. Oui, l’hébergement se fait sur le sol européen. Oui la confidentialité des données sera vraisemblablement garantie. Mais avec quels outils et sur quelle base concrète ? En majorité via l’intervention de solutions extra-européennes dans un premier temps. Le fait de privilégier une philosophie open source est une bonne chose mais demeure suspendu au bon vouloir des leaders du marché que sont Linux, Google et autres. Difficile, toutefois, de blâmer l’initiative tant l’émancipation totale semble utopique à l’heure actuelle. Reste–t-il une marge de manœuvre possible pour le projet ? La réponse n’apparaît pas évidente tant les moyens actuels ne semblent pas à la hauteur du défi. Yohan Prigent, VP Front chez Scalway, rappelait d’ailleurs dans un webinar que « GAIA-X ne veut pas réinventer la roue », « On ne va pas se dire “il y a un protocole qui existe pour l’object storage et qui s’appelle S3, allez en Europe on est plus fort on va faire S4 ». Une réflexion qui peut paraître sommaire d’un point de vue stratégique mais qui fait sens d’un point de vue industriel, tant on connait le coût d’investissement et le temps de développement de tels outils (incompatible avec le budget de départ). Mais la partie n’est pas jouée pour autant et l’on peut toutefois compter sur des développements innovants. La thématique du « multi-cloud » revient inlassablement et certains industriels du projet GAIA-X semblent se positionner en faveur de cette initiative. Une idée qui pourrait se matérialiser à travers le transfert de données depuis domaine (Amazon Cloud par exemple), pour les faire ensuite transiter par différents services, pour enfin les exporter sur une plateforme tierce. Le projet, malgré son niveau de dépendance, possède ainsi quelques atouts qui pourraient le démarquer sur le marché. Tout reste cependant à construire. Bruno Le Maire parlait en ce sens de pouvoir transférer ses données d’un opérateur à un autre. GAIA-X ambitionne bien plus et parle d’exporter ses ACL (Access Control List ; Gestion des droits d’accès), ses licences ou encore ses applications d’un partenaire à un autre si l’offre souscrite ne convient plus ou s’avère, par exemple, trop coûteuse. On entrevoit alors le potentiel technique et commercial pour un industriel lambda. GAIA-X sera donc, du moins dans sa forme de départ, davantage vu et « marketé » comme un tiers de confiance, un gage de qualité, une forme de certification européenne en somme.

GAIA-X se tourne vers l’ouest…

L’interopérabilité, nous venons de le voir, constitue une des clefs du succès. Cependant, une autre ambition semble se profiler à l’horizon. En effet, toujours au travers de la vidéo de démonstration précédemment mentionnée, celle-ci montre à plusieurs moments l’option de choisir une localité cloud située outre-Atlantique (East, West US, Canada). Ces données ne vont pas dans le sens de l’image de la figure d’opposition à l’impérialisme nord-américain qui fut promise. L’heure est effectivement davantage à l’inclusion des parties nord-américaines, si bien que l’on pourrait presque se demander si GAIA-X, en laissant une telle porte ouverte, ne recherche pas une forme d’adoubement de la part des américains. Une politique du gringue qui ne semble pas pour le moment bénéficier aux rivaux chinois. L’Europe semble donc choisir son camp, sans bousculer les liens géostratégiques historiques. Si l’Europe n’est pas les États-Unis, comme le rappelle Bruno Le Maire, il semble difficile pour elle de se détourner des vieux réflexes atlantistes. La position française reflète donc celle de son président, alternant entre gaullo-miterrandisme et néo-conservatisme. Dès lors, est-il pertinent pour l’Europe de continuer à se lier officieusement aux américains avec lesquels les intérêts stratégiques sont de plus en plus divergents ? Rien n’est moins sûr.

Les entreprises cloud américaines vont-elles se plier mécaniquement à ces nouvelles normes afin d’être référencées dans le catalogue ? La question mérite d’être posée, surtout lorsque l’on connait l’emprise américaine sur ce marché. Pourrait-on espérer des politiques incitatrices de la part de Bruxelles ? L’Europe se risquerait-elle à fermer la porte aux américains, sinon sur certaines cibles, s’ils ne se conforment pas aux exigences européennes ? Quelle réaction attendre alors de la part de Washington ? Autant de questions complexes que le projet GAIA-X ne pourra éviter. La ligne directrice semble être pour le moment de privilégier la coopération. L’Europe fait donc face à un paradoxe, tiraillée entre une politique d’ouverture et une volonté souverainiste et indépendantiste. Un discours ambigu qui se traduit également dans les faits. Le Health Data Hub, la solution d’hébergement des données de santé à la française, a été récemment confié à Microsoft. La CNIL a vivement réagi depuis appelant au choix d’un prestataire européen, mais le gouvernement Macron, par l’intermédiaire de son secrétaire d’État aux numériques, Cédric O, se défend en pointant « le retard européen dans le cloud » et précisant qu’il n’y a « pas la possibilité de faire tourner des algorithmes d’intelligence artificielle aussi développés sur une infrastructure française que sur une infrastructure américaine ». Les préjugés sont décidément tenaces et cette réaction n’est pas sans déplaire au leader français OVH. Son directeur Octave Klaba ajoutait sur le sujet « Pas de cahier des charges. Pas d’appel d’offres. Le POC (Proof Of Concept) avec Microsoft qui se transforme en solution imposée ». Une énième démonstration du poids et de l’influence de ces pachydermes du numérique sur nos institutions. Un véritable danger, surtout quand on connait les politiques « d’enfermement propriétaire » dont usent et abusent des compagnies comme Microsoft. En tout état de cause GAIA-X répond à un besoin urgent mais est-il pour autant l’outil le plus adapté ? De plus, l’argument portant sur la communication défendu par le projet ne s’avère pas secondaire surtout quand nos propres politiques se révèlent incapables d’évaluer les capacités des entreprises françaises.

La piste du cloud « Hyperscaler » européen aux infrastructures souveraines

Le besoin réel sur lequel GAIA-X trouve sa légitimité aurait pu orienter ses décideurs vers la création d’un cloud aux infrastructures souveraines. L’idée en réalité n’est pas neuve et émerge en France durant l’ère du gouvernement Fillon en 2009. Lancé en grande pompe en 2011, le projet Andromède avait déjà pour ambition de rassembler les acteurs majeurs de l’industrie hexagonale à savoir Orange (au travers de l’entité Orange Business Services), Thales et Dassault Systèmes. Suite à un désaccord entre Orange et Dassault, deux nouveaux projets sont nés, d’un côté Cloudwatt porté par Orange Business, de l’autre Numergy piloté par SFR. L’expérience fut, au final, un échec puisque Numergy périclita dès 2016. Quant à son confrère Cloudwatt, malgré des signes encourageants, il s’acheva en janvier 2020. Un retour d’expérience qui explique sans doute en partie le changement de stratégie pour s’appuyer, une nouvelle fois, sur des acteurs connus et reconnus. Malgré ces échecs, Bruno Le Maire, malgré ces précédents projets morts et enterrés ne semblait pas écarter pour autant le  retour d’un énième  cloud souverain appelé cloud « stratégique ». De toute évidence, le défi est de taille, surtout lorsque ces acteurs évoluent en concurrence directe ou indirecte sur le marché privé.

Le projet franco-allemand part d’un idéal sans appel : celui de trouver un espace d’indépendance stratégique sur l’industrie numérique vis-à-vis des puissances extérieures. L’idée semble prometteuse au vu de certains développements qu’elle propose autour du souverainisme mais sa mise en application reste trop souvent incantatoire à ce stade. La vocation, comme nous l’avons vu, n’est pas de repartir de zéro en proposant des outils made in Europe mais bien de continuer d’utiliser les outils connus et reconnus quitte à piocher hors des frontières de la zone euro. Or les leaders de ce marché ne sont pas situés en Europe. S’il s’agit d’une position qui fait sens d’un point de vue court-termiste, c’est aussi un choix qui laisse la place à une certaine dépendance extérieure, majoritairement américaine. Certaines entreprises y trouveront sûrement un outil adéquat, capable de s’adapter à leurs besoins, à condition que le projet s’avère viable sur le long terme au vu des défis qui sont les siens.

 

« La surveillance est un mode du capitalisme » – Entretien avec Christophe Masutti

© Rémy Choury

Dans le monde informatisé que nous habitons, chacune de nos conversations, de nos recherches et de nos rencontres est enregistrée, analysée et ses données sont exploitées pour prédire et influencer nos choix. Plus encore, c’est l’espace d’interaction lui-même, ce sont nos formes de sociabilité qui sont organisées de sorte à extraire le plus possible de données : la surveillance et le marché ne cessent de s’immiscer dans notre milieu de vie et nos rapports sociaux. L’enjeu, en ce sens, est-il réellement celui de la protection de la vie privée, ou même de la défense de la souveraineté des États ? Ne s’agirait-il pas plutôt d’identifier un système économique et politique qui repose sur l’appropriation et sur l’exploitation par les entreprises du numérique des données personnelles et de comportement de leurs utilisateurs ? Ce système a un nom : le capitalisme de surveillance, auquel le chercheur Christophe Masutti a consacré un ouvrage, Affaires privées, Aux sources du capitalisme de surveillance, paru en mai 2020. Historien et philosophe des sciences et des techniques, administrateur du réseau Framasoft dédié au logiciel libre et hacktiviste, Christophe Masutti entend présenter ses analyses et ses recherches, autant que des pistes d’émancipation collective. Entretien réalisé par Maud Barret Bertelloni.


NDLR : Le concept de capitalisme de surveillance a été introduit par les éditeurs de la Monthly Review en 2014 pour décrire les stratégies d’hégémonie américaine par le numérique et popularisé par Shoshana Zuboff dans The Age of Surveillance Capitalism (2019). Il désigne à la fois un modèle d’économie numérique, un état de marchandisation invasive de l’espace en ligne et une source de connaissances, de profit et de pouvoir convoitée.

LVSL – Vous proposez dans votre livre une histoire critique du capitalisme de surveillance, croisant l’histoire des technologies de l’information, de l’économie et du marketing. Avant d’explorer cette analyse, qu’entendez-vous par “capitalisme de surveillance” ?

Christophe Masutti – Je considère le capitalisme de surveillance comme un régime du capitalisme qui mobilise des pratiques d’appropriation et de valorisation de l’information comme moteur de rentabilité. C’est un modèle que j’identifie à partir des années 1960, dès que l’informatisation a pu accompagner la recherche de rentabilité des entreprises. Cela a commencé par les secteurs clés de l’économie : les banques, les assurances et dans les organes de la transformation de la société de consommation que sont le marketing et les organismes de crédit. Les entreprises avaient à disposition tout un ensemble de données, en particulier des données clientèle, mais aussi des données relatives aux processus de fabrication : c’est le début de « l’électronicisation » de l’information dans les processus de production. Puis, ces pratiques d’extraction et de traitement se sont étendues aux données de la société en général, à tous les niveaux, pour exercer ce qui caractérise le capitalisme : la recherche de rentabilité et de profit.

« On assiste à l’action combinée des géants et des autorités, qui perpétue le complexe militaire-industriel-financier dont est tissé le capitalisme de surveillance. »

L’objectif de la surveillance, dans ce système, c’est de pouvoir être en mesure d’influencer les utilisateurs, et de développer des modèles économiques qui correspondent au maximum aux exigences de rentabilité. Cela se fait d’une part en accumulant et en maîtrisant l’information que l’on a pour exercer une activité économique et pour consolider sa position de marché et d’autre part en arrivant à un niveau extrême de modélisation et de prédiction – comme le soutient à juste titre Shoshana Zuboff – en influençant les comportements des utilisateurs de manière à ce qu’ils collent aux modèles.

Le point sur lequel je ne suis pas d’accord avec Zuboff, c’est qu’il ne s’agit pas là d’une imposition, de l’expression d’un pouvoir que les monopoles exercent sur nous. Si on ne se concentre que sur cette approche, on en reste à une vision du capitalisme de surveillance comme un ensemble de pratiques coercitives à l’égard des individus qui les contraint à vivre dans une économie immorale, ce qui porte Zuboff à dire que le capitalisme de surveillance serait un capitalisme « malade » qu’il faudrait soigner. Mais c’est surtout une question de culture de la surveillance, une culture qui est partagée par tous les acteurs du système dont nous faisons partie, qui structure notre société et impose ces technologies comme moyens d’appréhender le monde.

LVSL – Cette capacité de surveillance de la part du monde des affaires semble d’une part susciter un rapport d’antagonisme avec les États, mais on assiste aussi à des formes de protectionnisme ainsi que de connivence – comme l’a révélé l’affaire Snowden au sujet du partage des données entre GAFAM et services de sécurité américains. Quelle est la place des États dans ce système ?

C. M. – Partons de la question de la protection de la vie privée. Il est autrement important pour un État de se présenter comme un défenseur de la vie privée. Selon cette logique, les entreprises attentent à la vie privée, il faudrait alors que l’État puisse réguler ce capitalisme qui nuit à la vie des individus. Or, il n’y a pas de capitalisme sans État. C’est là l’importance des révélations Snowden, qui ont eu un effet déclencheur dans la formulation du capitalisme de surveillance, là où on aurait pu ne voir qu’un ensemble de pratiques invasives pour la vie privée qu’il s’agirait de réguler. C’est dans la Monthly Review que furent d’abord analysées les tendances du capitalisme de surveillance, par des chercheurs comme Robert W. McChesney et John Bellamy Foster, qui travaillent sur les mutations du capitalisme et sur la société de l’information.

L’hypothèse de McChesney et Foster, de leur point de vue étasunien, est que le capitalisme de surveillance influence la gouvernementalité dès lors qu’il participe activement à l’hégémonie d’un système impérialiste répondant aux intérêts des multinationales (on pourrait aussi transposer cette analyse à la Chine). Ils remontent dans leur analyse à la fin de la Seconde Guerre mondiale, lorsque les US ont mis en place un complexe militaire-industriel-financier pour pallier la baisse de la demande mondiale et à une phase de surproduction. Ce système consiste d’abord à assurer la demande du point de vue extérieur grâce à l’effort militaire qui impose l’hégémonie américaine par la force (guerre de Corée, guerre du Vietnam, guerre Froide) et du point de vue intérieur grâce à toutes les technologies de marketing et de modelage de la consommation de base propres au développement du capitalisme de consommation. Ce complexe militaire-industriel-financier permet ensuite de pallier la baisse des taux de profit pendant les années 1970 et lors du choc pétrolier en mettant en place un processus de surfinanciarisation de l’économie. Dans ce contexte, les programmes de développement des systèmes de surveillance globale (parmi lesquels figure la création de la NSA) permettent d’assurer la réalisation de ces deux objectifs et le maintien du système. On assiste ainsi à l’action combinée des géants et des autorités, qui permet de perpétuer le complexe militaire-industriel-financier dont est tissé le capitalisme de surveillance. État et capitalisme sont indissociables aujourd’hui.

Le capitalisme de surveillance transforme la politique lorsque les monopoles technologiques font assimiler aux États une doctrine qui stipule que chaque problème a une solution technique (qu’ils sont à même de produire). Cette doctrine, ce technologisme ou solutionnisme, est si intégrée que l’État en vient aussi à modifier le cadre législatif qui le protégeait jusqu’alors de l’effacement du politique face à la technologie : cela commence par l’aménagement du cadre législatif pour permettre le développement d’économies de plateformes. Ce qui revient aujourd’hui, par exemple, à une conception du travail soit à la mode du 19e siècle (le travail à la tâche, les travailleurs du clic) soit, à l’extrême opposé, une transformation totale du travail humain en machine, c’est à dire une négation du travail et l’assujettissement total du travail humain (vivant) à une technique autonome, pour reprendre l’expression de Jacques Ellul.

Mais on peut aussi prendre l’exemple très actuel de StopCovid : cette application est construite à partir de l’idée que l’on va pouvoir mettre une couche technologique pour résoudre un problème qui va devoir se régler de manière médicale et sociale. Et évidemment cette technologie doit être développée par des acteurs privés, parce que l’État n’en a pas les moyens. C’est la même histoire avec la plateforme du Health Data Hub, qui fait qu’on va donner toute la responsabilité de la technique et de l’hébergement des données de santé à Microsoft, alors que tous les hôpitaux s’échangent déjà des informations et des données médicales avec des protocoles bien établis et qu’ils correspondent de manière tout à fait normale et régulière.

« La tâcheronnisation et le travail du clic, c’est du capitalisme de surveillance au premier degré. »

LVSL – Certaines formes de travail, comme les travailleurs du clic – ou plus largement tout le travail de « support » au traitement informatique – ainsi que la fameuse « tâcheronnisation » décrite par Antonio Casilli, font donc partie intégrante du capitalisme de surveillance ?

C.M. – Cette transformation du travail est incluse dans le capitalisme de surveillance. Car la tâcheronnisation, qui consiste à organiser le travail à la tâche souvent par le biais de plateformes, et le travail du clic, ces « micro-tâches » comme la préparation et la saisie de données qui permettent d’entraîner des algorithmes, c’est du capitalisme de surveillance au premier degré : c’est par la surveillance des moindres faits et gestes des tâcherons que l’on optimise le travail humain au point de le confondre avec une machine et qu’on l’assujettit à une technique autonome.

Couverture_Affaires_privees_Masutti
© C & F Editions

Ces formes de travail sont la négation du travail vivant, comme l’écrivait Marx dans les Manuscrits de 1857-58, dits Grundrisse : « La tendance nécessaire du capital est l’accroissement de la force productive et la négation maximale du travail nécessaire. Et la réalisation de cette tendance, c’est la transformation du moyen de travail en machinerie. » (« capital fixe et développement des forces productives »).

Je prends dans mon livre l’exemple des assistantes sociales en France, qui ont commencé à se syndiquer lorsque leur travail a été transformé à cause de la technique. On a voulu leur faciliter la tâche : elles n’avaient plus qu’à entrer des données et l’ordinateur leur affichait en direct le dossier de la personne, ses droits, ce qu’elles devaient simplement reformuler en mots pour l’assisté. C’était une perte totale du sens de l’assistance sociale, et dans ce cas heureusement le métier s’est retransformé. C’est là une forme de négation du travail, comme dans le cas de l’ingénieur (le travail vivant) qui perd toute une partie de son savoir-faire parce que l’ordinateur est capable de faire des plans tout seul (comme travail mort ou objectivé). Toute une partie du travail n’est plus là, tout ce qui définissait le travailleur comme assistante sociale ou comme ingénieur n’est plus là.

LVSL – L’emprise du capitalisme de surveillance est souvent décrite à partir de sa capacité à prédire et à influencer le comportement des individus. On recense cependant un spectre d’effets bien plus vastes comme le tri social, ou le fait que les espaces en ligne sont structurés de sorte à extraire de nous le plus possible de données. Comment caractériser cette forme de pouvoir ?

C. M. – Le problème de l’encadrement en termes d’analyse de pouvoir, c’est qu’on continue de confondre surveillance et contrôle. La surveillance est un moyen et le contrôle est une fin. Les entreprises, les GAFAM qui surveillent ne cherchent pas à nous contrôler. C’est-à-dire qu’il faut s’abstraire d’une vision coercitive du capitalisme de surveillance, selon laquelle nous serions les sujets sempiternellement soumis à un pouvoir de contrôle. Cette culture de la surveillance que j’évoquais à l’instant est partagée à travers toute la société : nous voulons la surveillance et nous y participons activement, lorsque par exemple un rectorat trouve beaucoup plus facile d’installer des dispositifs de reconnaissance faciale à la porte d’un lycée que d’organiser de la prévention avec les élèves, lorsque nous mesurons l’audience de nos sites internet ou de nos pages Facebook car nous aussi voulons une part de cette économie de l’attention.

LVSL – Vous signalez les limites des approches, comme celle de Zuboff, qui proposent en réponse au capitalisme de surveillance de « sanctuariser » l’intimité et se concentrant sur la protection de la vie privée, ainsi que de celles de défense de la souveraineté des États dans le domaine numérique. Quelles autres approches de lutte voyez-vous pour habiter dignement et librement notre monde informatisé ?

C. M. – Je suis de l’avis que la lutte pour la vie privée est essentielle et perpétuelle, mais qu’elle se place sur un autre registre que celui du capitalisme de surveillance. En ce qui concerne la défense de la souveraineté des États dans le domaine numérique, je veux bien que l’on confie les infrastructures à l’État, mais il va falloir au niveau des constitutions et des garde-fous que l’on développe un système qui soit plutôt résilient par rapport aux risques démocratiques que cela pose. Cela ne veut pas dire pour autant qu’il faut laisser toutes les infrastructures numériques aux entreprises. Mais ça peut être des associations, des collectifs de citoyens, et surtout ça peut sortir à la fois des sphères de pouvoir et des sphères économiques.

« Nous ne sortirons pas de cette soumission tant qu’elle est pensée en termes de pouvoir. L’économie s’appuie sur des processus culturels et des choix collectifs qui ne sont pas contraints, mais des propositions de vie. »

J’essaye donc de définir une autre approche de lutte. À ce sujet, j’essaie d’abord de m’extraire de l’approche postmoderne du contrôle de Foucault et de Deleuze, qui voudrait que nous ne soyons jamais que des sujets, quelle que soit la provenance de ce pouvoir. Ils ne voient pas la naissance de l’économie de la surveillance au moment où ils théorisent cela et sont, selon moi, « coincés » dans leur approche critique des institutions et du pouvoir. Nous ne pouvons pas sortir de cette soumission tant qu’elle est pensée en termes de pouvoir. L’économie fonctionne de manière beaucoup plus subtile : elle s’appuie beaucoup sur des processus culturels et des choix collectifs qui ne sont pas contraints, mais des propositions de vie.

C’est au contraire ce que faisait remarquer Michel de Certeau : nous ne sommes pas que des individus soumis à un pouvoir. Nous émettons dans notre vie de tous les jours de petites résistances – ce sont des manières d’être et des manières de faire – dans les plus petites pratiques discrètes (individuelles et même collectives) en réaction à quel pouvoir que ce soit. Typiquement, c’est le fait de se retrouver en collectif de web fédéré comme Mastodon [le réseau social libre et auto-hébergé, similaire à Twitter], par exemple. Ou c’est le fait de choisir d’avoir un téléphone portable, mais le plus basique qui soit. C’est tout un ensemble de choix qui fait qu’au niveau collectif, il y a une cohérence qui se dégage ; c’est plus qu’un rejet, c’est un ensemble de manières de faire.

LVSL – Plus concrètement, il s’agit donc de faire exister des alternatives viables au capitalisme de surveillance : lesquelles sont-elles et comment les fédérer ?

C.M. – Je ne vois pas seulement des alternatives, mais des choses qui sont déjà là depuis longtemps. Par exemple, l’Internet Engineering Task Force (IETF) qui élabore les standards d’Internet sur un mode participatif et ouvert (les RFC, requests for comments). Tant que cela existera, le web n’appartiendra pas seulement à des firmes. Il y a aussi le web fédératif en P2P (peer-to-peer), le fédiverse : c’est le réseau de services de blogs, de partage d’images et de vidéos, d’organisation d’événements, etc. construits avec des logiciels libres et décentralisés. La normalisation de protocoles comme ActivityPub, un standard ouvert pour les réseaux sociaux décentralisés, contribue à ça sur un mode éminemment collectif.

Mais je ne voudrais pas que l’on comprenne pour autant que les solutions au capitalisme de surveillance sont techniques. Du côté de l’agriculture maraichère les AMAP, qui sont des plateformes collaboratives, en font tout autant partie. Aujourd’hui dans l’économie, il y a plein de manières de concevoir une entreprise. Ce peut très bien être une SCOP, une société coopérative et participative, avec les moyens de production qui appartiennent aux salariés. Évidemment, ce n’est pas une extraction totale du capitalisme, mais une participation sur un mode différent.

Je le vois aussi dans les multiples initiatives créatrices instituées dans l’économie sociale et solidaire ou non instituées comme dans les expériences de ZAD. Par-dessus tout, ce sont des mouvements et en tant que mouvements sociaux, ils sont informels et créent de multiples formes de gouvernementalité et d’équilibre. C’est ce que Marianne Maeckelbergh appelle des « mouvements de préfiguration ». Il faut préfigurer, autrement dit l’adage : faire, faire sans eux, (et au besoin) faire contre eux. S’opposer non pas à un pouvoir (dont on aurait du mal à identifier les vecteurs) mais proposer des savoir-faire et des savoir-être de résistance à des proposition de vie dont nous ne voulons pas. Maeckelbergh a travaillé sur Occupy Wallstreet, mais on peut dire ça des gilets jaunes, de toutes les ZAD… Les ZAD ne se ressemblent pas et pourtant, au moment où se créée la ZAD se créée en même temps un système de gouvernance, une manière d’organiser.

Ces mouvements préfiguratifs se reconnaissent parce qu’il existe malgré tout une certaine cohérence, justement en ce qu’ils sont préfiguratifs, mais aussi parce qu’ils proposent toujours une vision des communs. Toutes ces alternatives, toutes ces initiatives qui peuvent naître, peuvent se reconnaître entre elles et apporter chacune d’entre elles quelque chose à l’autre. Elles ne sont ni rivales ni concurrentes. Il n’y a pas de cohérence établie a priori, ni d’unité nécessaire. C’est ce que j’appelle un archipel, en empruntant le terme à Édouard Glissant : chaque île est différente, mais dans l’histoire de la formation de l’archipel, chaque élément a apporté quelque chose à l’autre.

Pour aller plus loin : Découvrir un extrait d’Affaires privées, ici.

Pourquoi il faut un moratoire sur la 5G

Une antenne 5G de Vodafone en Allemagne. © Fabian Horst

Alors qu’a lieu l’attribution des fréquences pour le réseau 5G, le déploiement de cette technologie fait de plus en plus débat. Le 12 septembre dernier, 70 élus, pour la plupart étiquetés EELV et France Insoumise, ont appelé à un moratoire et à un débat démocratique sur le sujet. Ils rejoignent ainsi les préconisations de la Convention Citoyenne pour le Climat. Le Président de la République leur a répondu négativement le lendemain, arguant qu’il ne croyait pas au « modèle amish ». Derrière cette polémique, les sources d’inquiétudes autour de cette infrastructure sont en effet nombreuses. Elles nous invitent à questionner les technologies avant de les introduire dans notre quotidien.


« On n’arrête pas le progrès »

Alors que les zones blanches sont encore nombreuses dans notre pays, la dernière génération de réseau mobile, la 5G, devrait bientôt faire partie de notre quotidien. Les enchères auront lieu le 29 septembre 2020. Grâce à l’usage de nouvelles fréquences, les débits seront très fortement améliorés (ils devraient être multipliés par 10) et les temps de latence beaucoup plus faibles. Au-delà d’un confort accru dans nos usages numériques, la 5G est surtout l’infrastructure nécessaire à la poursuite de la numérisation de toute l’économie. De nombreux nouveaux usages sont prévus : automatisation des usines, véhicules autonomes, télémédecine, jeux vidéo en ligne, gestion plus « intelligente » des villes… 

Pour certains dirigeants politiques, ces promesses de développement de nouvelles activités sont une aubaine. En effet, la croissance économique stagne depuis des années. Ainsi, Emmanuel Macron a de nouveau prôné l’urgence du déploiement de ce nouveau réseau le 13 septembre dernier devant un public conquis d’entrepreneurs du numérique. Les défenseurs de la start-up nation estiment en effet impératif de ne pas se laisser distancer. En Chine ou en Corée du Sud, la couverture 5G dans les villes est de fait de plus en plus large. 

Pourtant, cet enthousiasme pour le « progrès » n’est pas partagé par tous. D’abord, la question du risque sanitaire n’est toujours pas résolue. Les différentes études sur le sujet se contredisent. En France, une étude complète de l’ANSES à ce sujet est d’ailleurs très attendue, sauf par le gouvernement et les opérateurs. Ces derniers souhaitent mettre en place le nouveau réseau le plus rapidement possible. Le refus des quatre grands opérateurs français d’attendre cette étude a d’ailleurs conduit à une récente attaque en justice par 500 militants écologistes au nom du principe de précaution. 

Par ailleurs, ce nouveau réseau pose d’importantes questions de souveraineté numérique. Pour l’heure, le leader mondial des équipements 5G n’est autre que le groupe chinois Huawei, dont la proximité avec le Parti Communiste Chinois n’est plus à prouver. Le risque de fuite des données produites par les milliards d’objets connectés à la 5G est donc réel, autant vers Pékin que vers Washington, qui jamais eu de scrupule à espionner ses alliés européens. Les européens sont en train de multiplier les obstacles à la mainmise de Huawei sur le réseau du futur. Ils emboîtent ainsi le pas aux États-Unis qui mènent une guerre tous azimuts contre le géant chinois des télécoms. Mais auprès de qui se fournir ces équipements télécom ? Si les compagnies européennes Nokia et Ericsson en produisent, ils ne sont pour l’instant pas aussi avancés que ceux de Huawei. Cela a conduit le ministre de l’Intérieur allemand, Horst Seehofer, à déclarer que le déploiement de la 5G prendrait un retard de « 5 à 10 ans » sans Huawei. 

La précipitation du Président de la République et des opérateurs mobiles pose donc question. Plutôt que de se précipiter vers des fournisseurs américains, la France (ou l’Europe) ne devrait-elle pas plutôt prendre le temps de développer des technologies souveraines ? Cela mettrait un terme à l’espionnage de masse par les puissances étrangères Si l’on excepte ces questions de souveraineté numérique, la technologie 5G est désormais prête. Mais faut-il pour autant croire aux promesses de la start-up nation ?

Un impact environnemental désastreux

Malgré les promesses d’optimisation de la consommation énergétique de ce nouveau réseau et des appareils connectés, la consommation énergétique globale augmentera très probablement. D’une part, la nécessité de multiplier les antennes pour assurer une bonne couverture contredit le discours des opérateurs et du gouvernement. Surtout, « l’effet rebond » encouragé par l’arrivée de la 5G a toutes les chances de gonfler encore la consommation énergétique exponentielle du numérique. Les voitures autonomes, le e-sport, la télémédecine, la croissance des usages vidéos, la multiplication des objets connectés ou encore l’intelligence artificielle sont en effet autant de nouveaux usages amenés à se développer considérablement avec l’arrivée de la 5G, puis de la 6G. D’après Waymo, la filiale de Google dédiée au développement de véhicules autonomes, la quantité de données produite par un voiture en un jour varie entre 11 et 152 terabytes ! Le stockage et le traitement de telles quantités de données supposent donc une construction massive de datacenters énergivores. Ainsi, selon une étude de l’industrie des semi-conducteurs publiée en 2015, nos usages numériques nécessiteront en 2040 la totalité de l’énergie mondiale produite en 2010 si le rythme de croissance actuel se maintient. Selon cette étude, des gains de performance énergétique d’un facteur 1 000 ne feraient reculer cette échéance que de dix ans.

« L’effet rebond » encouragé par l’arrivée de la 5G a toutes les chances de gonfler encore la consommation énergétique exponentielle du numérique.

Au-delà de la seule consommation d’électricité, l’impératif de renouvellement des terminaux mobiles et la multiplication d’objets connectés s’annonce désastreuse pour l’environnement. Les ventes mondiales de smartphones stagnent autour d’un milliard et demi par an depuis 2016. La 5G apparaît donc comme un argument de poids des fabricants pour relancer les ventes. Or, les progrès technologiques des nouveaux modèles sont devenus de plus en plus superficiels ces dernières années. Il semble qu’il soit temps de concevoir enfin des produits plus durables et plus réparables. Au contraire, ces nouveaux appareils vont copieusement accroître nos besoins en terres rares (souvent extraites dans des conditions désastreuses pour l’environnement et les travailleurs) et les conflits géopolitiques qui y sont liés. Par ailleurs, la quantité de déchets informatiques ainsi créés a toutes les chances d’aggraver les problèmes de pollution dans les pays pauvres où ils sont exportés. Le recyclage des « e-waste » demeure en effet embryonnaire.

Derrière la technologie, des choix de société

Si les enjeux environnementaux liés à la 5G sont de plus en plus pointés, notamment par la Convention Citoyenne pour le Climat, les promesses d’un monde toujours plus connecté sont moins discutées. À l’heure où de plus en plus de jeunes découvrent la réalité déshumanisante de la « continuité pédagogique » à travers les cours en ligne, un grand débat sur la numérisation de la société s’avère nécessaire. D’abord les avancées de la digitalisation amplifient sans cesse les fractures sociales, en particulier lorsqu’elles sont corrélée à la disparition des services publics de proximité. L’ampleur de « l’illectronisme » devrait pourtant nous interroger. Selon l’INSEE, 15% de la population française âgée de 15 ans ou plus n’a pas utilisé Internet au cours de l’année 2019. 38% manque d’au moins une compétence informatique de base.

Un graffiti contre la surveillance de masse à Londres. © KylaBorg

Quant aux innovations permises par la 5G, elles vont bien au-delà des gadgets contemporains que sont les fourchettes ou frigos connectés. La voiture autonome dont rêve Uber afin de pouvoir se passer de main-d’œuvre humaine risque d’encourager des usages irraisonnés. Une étude de 2018 dans la baie de San Francisco dont les participants disposaient d’une voiture à leur disposition sans avoir à la conduire indique un grand nombre de trajets supplémentaires et l’augmentation des distances parcourues, en particulier le soir. Pire, de nombreux trajets se faisaient à vide. Le manque de stationnements dans les grandes villes pourrait encourager les voitures autonomes à errer en attendant leurs passagers. De plus, la prouesse technologique que représente la télémédecine nous fait oublier que nos problèmes de santé viennent surtout d’un environnement pollué et stressant. De même, le renoncement aux soins (pour motifs financiers, géographiques, temporels…) s’aggrave dans notre pays. Développer la télémédecine semble intéressant, mais à quoi bon avec un corps médical déjà surchargé ?

Enfin, la 5G devrait donner un grand coup d’accélérateur à la surveillance de masse. Le cabinet de conseil Gartner estime ainsi que le plus gros marché pour les objets connectés dans les 3 prochaines années sera celui des caméras de surveillance. Grâce à la 5G, ces caméras pourront d’ailleurs se connecter à d’autres appareils de surveillance, comme les détecteurs de mouvement ou les drones. Avec l’amélioration de la qualité des images transmises, la reconnaissance faciale pourrait aisément se généraliser. Ce processus a déjà débuté : la Chine a largement déployé ces outils et les exporte désormais, notamment en Afrique. Pourtant, l’efficacité de ces technologies de la « safe city » n’est jamais débattue. Le sociologue Laurent Mucchielli a publié un livre sur la vidéosurveillance. Il y démontre qu’elle n’a pratiquement aucun impact sur la criminalité et n’aide que rarement à résoudre des affaires. Quant aux invasions de la vie privée et aux usages répressifs de ces technologies, ils ne sont plus à prouver.

Les amish, un modèle ?

Pour toutes ces raisons, le déploiement de la 5G n’a rien d’anodin. Plus que de potentiels risques sur la santé, ce nouveau réseau présente surtout des risques certains pour l’environnement et notre vie privée. Pourtant, tout débat sur ces questions semble interdit au nom du « progrès » que représenterait un meilleur débit. Or, ce progrès à marche forcée semble surtout faire les affaires des grandes entreprises du numérique dont le business model est fondé sur l’exploitation des données. Avec ces montagnes de données, les GAFAM et quelques autres sont en passe d’obtenir un contrôle incroyable sur nos vies. Dans La nouvelle servitude volontaire, Philippe Vion-Dury explique combien les algorithmes des géants du web sont de plus en plus capables « d’anticiper nos désirs, nos comportements et nos vices et de percer l’intimité de nos opinions ou le secret de nos préférences », et, sous couvert de liberté et de plaisir, nous conditionnent à consommer toujours plus. Derrière l’apparente neutralité d’une technologie, il y a souvent un projet politique, ici celui de la Silicon Valley.

Derrière l’apparente neutralité d’une technologie, il y a en effet souvent un projet politique, en l’occurrence celui de la Silicon Valley.

L’opposition historique du mouvement écologiste à certaines technologies, comme le nucléaire (civil ou militaire) et les OGM, nous rappelle d’ailleurs qu’il n’existe guère de neutralité de la technique. Jacques Ellul et Bernard Charbonneau sont deux intellectuels célèbres par leur regard critique sur le progrès technique. Ce dernier sacralise en effet l’efficacité et nous enferme toujours plus étroitement dans le productivisme et le consumérisme. Par ailleurs, questionner le « progrès » n’implique pas nécessairement de le rejeter en bloc comme le font les néo-luddites. Il est possible de reconnaître les bienfaits qu’apporte une technologie tout en étant conscient de ses impacts négatifs, et donc de se battre pour en retrouver le contrôle. Le courant émergent autour des low tech, qui défend des technologies simples, réparables, utiles et abordables, témoigne ainsi d’une volonté de reprendre le contrôle sur les outils techniques qui nous entourent.

Au vu des impacts environnementaux et sociétaux considérables de la 5G, il est donc regrettable de voir que le débat politique sur cette question demeure finalement, et paradoxalement, technocratique. Le principal grief des adversaires de la 5G reste en effet la question du risque sanitaire, qui mérite certes d’être posée, mais est secondaire. Il ne faut pas se contenter d’attendre la sortie du rapport de l’ANSES sur le sujet et de laisser ce débat à des « experts » jamais véritablement indépendants. Un vrai débat démocratique global sur la 5G est nécessaire, comme le réclament les 70 élus de gauche dans leur tribune. Pour Macron et les apôtres du progrès technique, une telle demande est synonyme de retour à la bougie. Cela explique sa petite pique sur les Amish. Mais qui souhaite vraiment imiter cette société fermée et très conservatrice ? Le Danemark nous fournit un exemple plus facilement imitable. Depuis les années 1980, des « conférences de consensus » réunissant des citoyens tirés au sort ou choisis par appel à candidature permettent de questionner les répercussions culturelles, psychologiques et sociales des nouvelles technologies. En France, la réussite de la Convention Citoyenne pour le Climat, bien qu’elle n’ait disposé que d’un temps limité pour traiter de sujets particulièrement complexes, a montré qu’il était possible de rompre avec le monopole des experts et des représentants politiques sur des questions qui nous concernent tous. Les propositions radicales qui en ont émergé (dont un moratoire sur la 5G que le Président de la République s’était engagé à prendre en compte), plébiscitées par près des trois quarts des Français, devraient nous inspirer. À quand un vrai débat de société, suivi d’un référendum, sur la 5G ?

La cyberguerre : rivalités et enjeux de la « gouvernance » d’internet

https://www.flickr.com/photos/statephotos/5449329376/in/photostream/
Hillary Clinton prononce un discours sur la liberté de l’internet, le 15 février 2011. © US Secretary of State

La cyberguerre n’est pas qu’une affaire de hackers. Firmes transnationales et gouvernements collaborent ou s’affrontent pour définir le modèle de gouvernance de l’internet et imposer leur vision. Quelle est la cohérence entre les intérêts américains et la doctrine de l’ “internet freedom”? Les institutions actuelles sont-elles légitimes ? Sont-elles utiles à des stratégies hégémoniques ou contre-hégémoniques ? Et surtout, quel contrôle les États peuvent-ils prétendre exercer sur les flux informationnels qui traversent leurs frontières ? Derrière ces questions figurent des enjeux globaux, parmi les plus critiques du 21ème siècle, au sujet desquels l’ouvrage de S. Powers et M. Jablonski, The Real Cyber War (2015) offre un éclairage précieux et plus que jamais d’actualité.


À quoi ressemble la « vraie » cyberguerre ?

Le terme « cyberguerre » est contesté et difficile à définir. Dans l’esprit du profane ou de l’expert, il renvoie souvent au recours à des lignes de codes malveillantes, destinées à perturber le fonctionnement normal de l’adversaire. De fait, le cyberespace s’est militarisé : la littérature stratégique et militaire le considère désormais comme un lieu d’affrontement à part entière entre de nombreux acteurs – pas uniquement étatiques. Il est dit qu’il s’y déroule, en somme, « une guerre par, pour et contre l’information », correspondant au triptyque : subversion, espionnage et sabotage. [1]

Mais c’est de tout autre chose dont parlent Shawn Powers et Michael Jablonski. Le cyberespace, colossal vecteur d’information, suscite des convoitises, donc des rivalités et des luttes d’influence, qui vont bien au-delà du hacking et des opérations militaires dans le cyberespace. En témoignent par exemple les efforts des entreprises des technologies de l’information et de la communication (TIC), pour influencer la gouvernance de l’internet et la définition de certaines normes, qui ne sont techniques qu’en apparence. Aux États-Unis, la remarquable symbiose entre l’agenda de ce secteur privé et celui des départements américains d’État et du Commerce indique, si cela était nécessaire, que les pouvoirs étatiques sont de la partie.

C’est pourquoi il serait bon de se détacher de l’approche belliciste habituelle afin d’élargir notre horizon. C’est tout l’intérêt de la perspective de Powers et Jablonski. La « vraie cyber guerre » qu’ils décrivent n’a pas lieu devant des ordinateurs, mais dans les couloirs des chancelleries, des institutions internationales, et des firmes transnationales. Elle ne vise pas à rendre hors service des sites internet, mais à peser dans la définition des normes techniques, politiques et même philosophiques et morales relatives à l’internet et ses usages. Les enjeux économiques et géopolitiques – que les auteurs s’attachent à décrire avec précision – sont colossaux. D’où les importants efforts que chaque acteur déploie, à la hauteur de ses moyens, pour peser dans ce petit monde.

« Les américains  (…) ont considéré le Congrès mondial sur les technologies de l’information comme un champ de bataille crucial pour le futur de la gouvernance d’internet, et comme une menace pour les intérêts économiques américains. »

Ainsi, le livre entend révéler « comment les politiques d’internet et de gouvernance sont devenues les hauts lieux d’une compétition géopolitique entre grands acteurs internationaux et dont le résultat façonnera l’action publique, la diplomatie, et les conflits du 21ème siècle ». L’occasion pour Powers et Jablonski de revenir sur les acteurs de ce jeu d’influence et de compétition, où les États continuent de jouer un rôle primordial, bien que rapidement secondés par le secteur privé, regroupant des entreprises du secteur des TIC et des communications internationales. Les GAFAM (un chapitre est notamment consacré à Google) sont évidemment importants, mais ils n’occultent pas le rôle majeur d’autres entreprises de services numériques, moins médiatisées : AT&T, Cisco ou Verizon, pour ne citer qu’elles. Diverses organisations de droit international ou organisations privées à « gouvernance multipartite » (Multistakeholder governance) sont enfin présentées en détails. Elles constituent, en effet, le point nodal de cette « vraie cyber guerre » ; le lieu de matérialisation des tensions sous-jacentes et de mécanismes discrets de domination.

Les auteurs s’attachent, par ailleurs, à décrire les méthodes, stratégies et ambitions de ces réseaux d’acteurs. La légitimation du processus de prise de décision par un mode de gouvernance présenté comme inclusif, transparent et ouvert à tous ; une rhétorique imparable qui promet simultanément un formidable développement économique, le renforcement des droits humains et la propagation de la démocratie ; des projets de développement généreux et en apparence désintéressés… Autant d’éléments qui nécessitent d’être analysés et contextualisés. On appréciera, au passage, la minutie et le sérieux des auteurs : il n’est nulle part question de croisade anti-GAFAM ou de pourfendre l’hégémon américain. On trouve simplement les outils nécessaires pour faire la part des choses et déchiffrer cet univers complexe. La démarche est salutaire quand les protagonistes dominants ont plutôt tendance à présenter une vision prescriptive et « personnelle » des choses.

À l’opposé, on trouve les pays en développement et les économies émergentes : Russie, Chine, des pays d’Amérique latine ou d’Afrique… Nombreux sont les gouvernements qui ne se satisfont pas du statu quo. Sont notamment décrites dans le livre, la dégradation des « termes de l’échange » à la suite du bouleversement économique d’internet, et la perception d’une forte domination occidentale – et à plus forte raison américaine – dans la gouvernance d’internet. Désireux de procéder à un rééquilibrage politique et économique et soucieux d’exercer comme ils l’entendent leur souveraineté sur les flux informationnels, ces pays trouvent dans les institutions internationales et les sommets internationaux des arènes pour exprimer leurs inquiétudes et organiser leurs efforts.

La démonstration du livre, d’une grande efficacité, sert une conclusion simple : « La vraie cyber guerre ne concerne pas les capacités offensives ou de cybersécurité, mais plutôt la légitimation d’institutions et de normes existantes qui gouvernent l’industrie de l’internet, afin d’assurer sa domination du marché et sa profitabilité. »

La doctrine de l’« internet freedom » : arguments et intérêts sous-jacents

Tout part d’un discours d’Hillary Clinton [2], dans lequel l’ancienne secrétaire d’Etat américaine dévoile la doctrine de la liberté d’internet (internet freedom doctrine). Elle appelle à une libre circulation de l’information (free flow of information) et à une « liberté de se connecter » (freedom to connect) universelle : l’accès à internet devrait être un droit fondamental et reconnu par tous.

Assurément, les Américains aiment leur « freedom ». Le verbatim du discours et des questions-réponses montre que le terme est prononcé cinquante-deux fois en une heure ! Mais cet agenda de la liberté d’internet a une manière bien singulière de présenter la chose. 1. L’information a tendance à être assimilée à un bien économique, monnayable et échangeable. Évidemment, ce cadrage consacre le modèle économique d’internet, fondé sur le captage, l’échange et d’analyse d’immenses quantités de données personnelles. Mais une telle perspective tend aussi à réduire la légitimité des politiques publiques qui viseraient à en contrôler le flux. L’issue du débat sur la liberté de l’internet pourrait donc jouer un rôle déterminant dans le traitement des flux d’information numérique par les États, et dans la définition du degré de contrôle jugé légitime, voire légal, au regard du droit international ou du commerce. 2. Internet est comparé à un « espace public ». Ainsi présenté, la surveillance y pose beaucoup moins de problèmes éthiques et juridiques que si internet était considéré comme un espace privé. Cette doctrine et les termes associés (internet freedom, mais aussi freedom-to-connect et connectivity) méritaient donc bien une analyse plus approfondie.

De l’intérêt d’une approche géopolitique : l’information comme un bien et comme une ressource

Des intérêts économiques, certes. Mais géopolitiques ? Le mot est souvent utilisé abusivement, et plusieurs experts s’en méfient, au point qu’on entend dire que « la géopolitique n’existe plus »[3]. On ne saurait pleinement souscrire à cette lecture ; d’ailleurs il existe bien une géopolitique de l’internet, ne serait-ce que par l’ancrage territorial des serveurs ou des câbles sous-marins. Si l’on s’en tient à la définition traditionnelle de la « géopolitique », rappelée par les auteurs, il s’agit d’une méthode d’étude de la politique étrangère s’intéressant aux effets de la géographie, donc des espaces physiques. Créée en réaction à une approche considérée comme excessivement légaliste, elle insiste notamment sur le poids des ressources dans la compétition entre États.

Or, l’hypothèse initiale des auteurs, reprenant la vision de l’historien de la communication Dan Schiller, est celle d’une information entendue comme un bien (commodity) mais aussi comme une ressource. Dès lors, les politiques étatiques relatives à l’internet peuvent être abordées comme une lutte pour le contrôle de ressources d’un genre nouveau. Ce cadre théorique permet de dépasser les questions liées aux effets sociaux, culturels, économiques ou politiques de l’internet. À la place, on s’interroge ici sur les motivations réelles des politiques étatiques relatives à l’internet, en termes de compétition internationale pour des ressources.

« Le soutien du gouvernement américain fut déterminant dans la création, l’adoption, et la structuration de l’internet, ainsi que dans l’intégration des technologies de l’information dans l’économie globale. »

De ce point de vue, la liberté de l’information (information freedom), la libre circulation de l’information (free flow of information), ou encore les partenariats multi-acteurs (multistakeholderism) constituent le socle d’une rhétorique et d’une stratégie qui contribuent au maintien d’un statu quo, bénéficiant à quelques acteurs acteurs dominants.

Une telle rhétorique déforme les aspects intrinsèquement politiques et économiques de l’information. Présenter la libre circulation de l’information comme une opportunité immense de développement économique, et lui prêter un pouvoir naturel de démocratisation, permet de dévier l’attention d’autres sujets.

Des gains économiques… pour qui ?

Quels sont les arguments économiques mis en avant ? L’internet est présenté comme un « grand égalisateur » (great equalizer), qui va permettre aux pays en développement de combler leur retard avec les pays occidentaux. Ce discours s’inscrit dans une perspective que Vincent Mosco, professeur émérite de communication, qualifie de « néodéveloppementaliste ». Elle postule que la dissémination des TIC permettra d’accélérer le développement et l’intégration économique des pays en développement et d’y développer des économies de marché robustes et performantes. Les auteurs rappellent que cet ancrage théorique est difficile à départager de considérations stratégiques et économiques. À grands renforts d’exemples de décorrélation entre croissance, richesse, et connectivité internet, ils montrent d’ailleurs que ces postulats sont empiriquement contestables.

On ne saurait reprocher aux pays occidentaux et à leurs entreprises de diffuser l’accès à internet et de construire les infrastructures nécessaires dans les pays en développement, quelles que puissent en être les raisons. Mais des travaux comme ceux de l’économiste Eli Noam suggèrent que l’élargissement de la connectivité pourrait en fait accentuer les écarts de richesses. Il anticipe par exemple qu’à peine huit pays dans le monde pourraient bientôt concentrer jusqu’à 80% de la production de contenus numériques.[4] Quand un pays pauvre, peu doté en infrastructures, bénéficie de programmes d’aide qui lui permettent d’accéder à internet, sa population – le peu qui peut se le permettre – devient consommatrice, et non productrice, des services numériques et des contenus médiatiques proposés par des entreprises occidentales.

Or, justement, ces programmes, prêts et autres projets occidentaux, notamment américains, en matière de connectivité et d’infrastructures liées à l’internet, sont souvent conditionnés à des mesures de dérégulation, de privatisation et d’ouverture des marchés nationaux. Les entreprises américaines accèdent ainsi à ces marchés étrangers, d’autant plus aisément avec la notoriété et les fonds propres dont elles disposent. Les économies d’échelle, les effets de réseau, l’existence d’une masse critique d’utilisateurs, sont autant d’éléments, bien connus en science économique, qui facilitent encore cette implantation. Ils font en revanche cruellement défaut aux acteurs locaux et nouveaux entrants, qui font face à de fortes barrières à l’entrée. Les quelques concurrents qui parviennent malgré tout à se développer sont souvent rachetés. [5]

« Il y a un principe sur lequel les responsables politiques, l’industrie, et les acteurs de la sociÉté civile, sont tous d’accord : l’internet global et déréglementé est une bonne affaire pour l’économie américaine. »

En matière de communications internationales, la détérioration des termes de l’échange suite à l’apparition de l’internet a été fort défavorable aux pays en développement. De telle sorte que l’anecdote de l’artisan africain ou sud-asiatique qui parvient à développer son activité grâce au e-commerce est un peu l’arbre qui cache la forêt. En effet, jusqu’à quelques décennies en arrière, les pays en développement, comme les autres, bénéficiaient des normes de l’Union internationale des télécommunications (UIT).

Rattachée aux Nations unies en 1947, l’UIT fut, au cours du 20ème siècle, le principal mécanisme de coordination des coûts et bénéfices liés aux communications internationales. Le prix de tel service, payé par tel acteur à tel autre : tout cela était relativement clair et fixé par le Règlement des télécommunications internationales (RTI) de l’UIT. Cette régulation garantissait un contexte international stable pour la croissance et l’activité économique dans le domaine des télécommunications. Les acteurs économiques locaux et nationaux continuaient de dominer leur marché.

Mais le développement d’internet et des « internet-based services », qui échappent à ces règles de l’UIT, ont bouleversé cet équilibre. Un appel Skype de la Turquie vers l’Allemagne, par exemple, permet de contourner l’opérateur téléphonique turc qui était jusqu’alors sollicité. On perçoit mieux la nature des frictions qui peuvent exister lieu au sein de l’UIT. Lors du sommet de Dubaï en 2012, l’une des grandes questions était ainsi de savoir si le terme de « télécommunications » devait ou non inclure les flux d’information transitant par internet.

Une réponse positive aurait signifié que ces services seraient soumis aux régulations prévues par l’UIT, contrariant la position dominante de certaines entreprises occidentales. Les négociations concernaient aussi l’extension du pouvoir de l’UIT à certains aspects de la gouvernance d’internet. Avec cet exemple et d’autres, Powers et Jablonski expliquent comment les pays du Sud et les économies émergentes se servent de l’UIT comme d’un outil contre-hégémonique face à un internet perçu comme dominé par les Etats-Unis.

En retour, les États-Unis ne se privent par pour saper ces revendications et façonner à leur avantage les normes internationales en matière de communications internationales. Les exemples sont nombreux. S’agissant du sommet de Dubaï de 2012, les revendications avaient été fermement dénoncées comme une tentative de « prendre le contrôle de l’internet ». L’occasion d’observer la rhétorique de l’internet freedom tourner à plein régime[6]. Robert McDowell, commissaire de la Commission fédérale des communications, avait notamment déclaré devant une commission sénatoriale : « Nous sommes en train de perdre la bataille pour la liberté de l’internet. » [7] Les tribunes publiées, le ton employé, les fonctions occupées par les auteurs : tout cela semble incarner à merveille l’état du débat et laisse voir l’étendue des enjeux économiques à la clé.

Un intérêt stratégique : la déstabilisation politique

Il se trouve une deuxième utilité à la rhétorique de la connectivité, du « free flow of information » et de la « freedom to connect ». Sans trop d’effort, ces notions sont associées au démocraties occidentales, face aux opposés symétriques que sont les pays totalitaires et censeurs qui entravent la libre circulation de l’information et des idées. Des caractéristiques fortement associées à des pays comme la Russie, la Chine, ou encore l’Iran.

En effet, à défaut de pouvoir obtenir, dans les arènes internationales, une gouvernance interétatique, ces pays comptent parmi ceux qui cherchent à développer leur propre « internet souverain » et/ou à contrôler fortement les flux entrants et sortants de leurs frontières. Car le cyberespace, en sa qualité de vecteur d’importantes quantités d’informations, suscite aussi de grandes angoisses. Les gouvernements autoritaires sont les premiers à craindre pour leur légitimité et leur stabilité.

Les États-Unis le savent : les revendications américaines pour la promotion et la diffusion d’un internet global, unique et universel vont directement à l’encontre de ces projets d’intranet. Elles sont aussi sensées faciliter l’exposition de certaines populations à des horizons démocratiques, plus désirables que leurs régimes politiques actuels. Il est même prévu d’aider activement les “cyberactivistes” et “cyberdissidents”. En pointant du doigt les intranets nationaux et les velléités de contrôle des flux informationnels, et en les assimilant purement et simplement à de la censure, cette rhétorique permet de normaliser et légitimer le statu quo de la gouvernance actuelle d’internet, qui fait figure de seul système capable de de préserver la freedom to connect.

A l’évidence, tous les États exercent leur souveraineté, et donc mettent en place des formes de contrôle ou de surveillance des flux informationnels ; les États-Unis n’y échappent pas. Le livre le rappelle en revenant notamment sur les programmes de surveillance de masse révélés par Edward Snowden ; mais aussi en montrant comment, aux États-Unis, des intranets sécurisés destinés aux administrations, à la communauté du renseignement, ou aux secteurs sensibles de l’industrie, ont tendance à s’étendre de plus en plus à d’autres secteurs civils moins sensibles.

Résumé des chapitres

Avec plusieurs exemples historiques, le premier chapitre montre comment les États-Unis, par le passé, ont façonné à leur avantage les normes internationales en matière de communication et de technologies de l’information.

Le chapitre 2 retrace l’apparition du complexe militaro-industriel aux États-Unis à partir de la seconde guerre mondiale. L’objectif est de montrer que les mécanismes gouvernementaux de stimulation de la croissance et de l’innovation à l’œuvre, s’observent également, de façon plus récente, dans le secteur industriel des technologies de l’information. Or, c’est l’occasion pour les auteurs de rappeler que l’interdépendance mutuelle ainsi créée présente des risques sur le plan économique (perte de compétitivité, décalage avec la demande réelle) et sur le plan politique (distorsion du processus de décision politique, manque de transparence).

Pour l’heure, les entreprises américaines demeurent performantes économiquement. Mais le rattrapage technologique chinois ne s’est jamais autant fait sentir qu’avec les frictions actuelles autour de la 5G. Surtout, les révélations de l’affaire Snowden sur l’espionnage de la NSA (National Security Agency) révèlent l’étendue de certaines dérives politiques et du manque de transparence en la matière, ce qui tend à donner raison aux auteurs.

Google (chapitre 3) fait l’objet d’une étude détaillée, afin d’explorer la gestion et l’exploitation les données par l’entreprise, et de rappeler sa prépondérance dans le marché de la publicité. Si Google embrasse autant les principes de l’internet freedom et de libre circulation des données, c’est certes parce que cela correspond vraisemblablement à son idéologie. Mais c’est peut-être aussi parce que l’entreprise voit d’un très mauvais œil le contrôle étatique des flux d’information. On peut même dire qu’elle les craint plus que tout.

Le modèle de régulation de l’internet a potentiellement des effets immenses sur le « business » de Google. Après tout, son modèle économique repose pour une très large partie sur la publicité ciblée, donc sur la captation et l’analyse de données personnelles. Enfin, la croissance économique de l’entreprise est notamment déterminée par sa capacité à étendre ses divers services à des utilisateurs toujours plus nombreux. De ce point de vue, Google a tout intérêt à soutenir l’internet freedom, la connectivité et la libre circulation de l’information. C’est même une question de survie et de santé économique.

De même, et plus généralement, si la politique américaine consiste à diffuser autant que possible l’accès à internet dans le monde, c’est parce que cela s’avère particulièrement favorable aux entreprises américaines. Le chapitre 4 détaille ainsi divers projets d’investissement, de construction, de transferts de compétences ou de technologies, réalisés en partenariat avec Cisco, Google, Hewlett Packard, IBM, Intel et d’autres. Ainsi, la politique internet américaine peut être résumée en deux volets inséparables : connecter un maximum d’individus à travers le monde à internet d’une part, et d’autre part maintenir le statu quo des arrangements économiques, légaux et institutionnels qui gouvernent la connectivité et les échanges en ligne.

Le chapitre 5, en passant à la loupe l’ICANN (Internet Corporation for Assigned Names and Numbers), l’ISOC (Internet Society) et l’IETF (Internet Engineering Task Force), révèle les dessous de la gouvernance multi-acteurs (multistakeholderism) et de son argument du rôle de la société civile, qui s’avère bien décevant, sinon illusoire. Plus que tout autre chose, le multistakeholderism renforce la position des acteurs dominants en légitimant les décisions qui sont prises, tandis que l’injonction à atteindre un consensus neutralise les critiques et les tentatives de changer le statu quo.

Le chapitre 6 est dédié à la souveraineté. Il rappelle ses fondements théoriques et revient sur ses liens avec les nouvelles technologies de l’information. Quatre cas d’études (Chine, Egypte, Iran, États-Unis) montrent autant de façons de contrôler l’accès à internet ou les flux informationnels. Le contrôle américain est évidemment sans commune mesure avec les autres, notamment celui de la Chine. Cependant, d’un point de vue strictement analytique, les efforts vont dans le même sens. Il est indéniable que tous les pays, démocratiques ou non, cherchent à atteindre un certain degré de contrôle de ces flux, dans le cadre de l’exercice normal de leur souveraineté. Ainsi, les stratégies chinoises et américaines, bien que culturellement spécifiques et atteignant un niveau de contrôle très différent, demeurent l’une et l’autre des stratégies de contrôle et de surveillance.

Enfin, le chapitre 7 explore les tensions et les contradictions profondes qui existent entre la doctrine de l’internet freedom et la cybersécurité, notamment en réfléchissant à l’avenir incertain de l’anonymat en ligne. En présentant l’internet comme « l’espace public du 21ème siècle », Hillary Clinton réussit le tour de force d’imposer l’idée que, sur l’internet, chaque utilisateur s’expose au regard des autres et des autorités. Le tout est habilement relié par les auteurs aux révélations d’Edward Snowden sur la NSA et de différents programmes de surveillance (PRISM, MUSCULAR, et TEMPORA), ainsi qu’à la collaboration entre Google et la NSA.

Conclusion

Finalement, dans un monde où l’information est au centre des économies modernes, les grandes questions soulevées sont celles de la légitimité des institutions qui gouvernent les flux informationnels, ainsi que de l’autorité dont disposent les États pour gérer et contrôler ces flux au sein de leurs frontières. Le livre donne une idée des désaccords profonds qui existent à cet égard. Ainsi, « la vraie cyberguerre est donc une compétition entre différentes économies politiques de la société de l’information ».

De ce point de vue, la doctrine américaine de l’internet freedom se comprend comme relevant d’un agenda spécifique. Il vise certes à relier le monde à internet, mais suivant une logique économique et géopolitique particulière, qui bénéficie disproportionnément à une poignée d’acteurs dominants. Autrement dit, cette doctrine constitue un effort de légitimation et de propagation d’une économie politique bien précise. On en revient toujours à cette question au fondement du livre : « De quelle autorité légitime les États disposent-ils pour gérer les flux d’information à l’intérieur et au sein de leur territoire souverain ? »

Le parallèle tracé avec le pétrole est intéressant : les États se sont entendus pour créer des institutions qui gouvernent cette industrie. Les normes qui en résultent, conformément à leur fonction fondamentale, permettent d’anticiper les comportements. Elles créent un contexte relativement stable qui permet une prévisibilité énergétique et l’anticipation des flux, sans quoi l’approvisionnement en pétrole générerait des tensions et des angoisses terribles. Dans une logique similaire, Shawn Powers et Michael Jablonski espèrent voir advenir une gouvernance où les États comprennent la nécessité qu’il y a à s’entendre sur ces questions. Mais on ne dispose toujours pas, sur le plan international, de réponse claire sur la façon dont les données peuvent être gérées, collectées, stockées, transférées, voire même taxées. Malheureusement, rien ne permet aux auteurs d’être optimistes au sujet de cette future gouvernance.

Ajoutons que ces questions, déjà cruciales, redoublent encore de gravité, alors que l’internet continue de se densifier et de s’installer dans nos vies, et que les flux informationnels numériques sont sur le point d’être décuplés par la 5G et l’avènement de l’internet des objets.

Shawn M. Powers & Michael Jablonski, The Real Cyber War. The Political Economy of Internet Freedom. University of Illinois Press, 2015, 272 p.

[1] Nicolas Mazzucchi (2019) La cyberconflictualité et ses évolutions, effets physiques, effets symboliques. Revue Défense Nationale, 2019/6 n°821, pp. 138-143.

Voir aussi : François-Bernard Huyghe, Olivier Kempf et Nicolas Mazzucchi, Gagner les cyberconflits, Paris, Économica, 2015.

[2] Hillary Rodham Clinton, « Remarques sur la liberté de l’internet », discours prononcé au Newseum, Washington D.C., 21 janvier 2010. [URL] : https://2009-2017.state.gov/secretary/20092013clinton/rm/2010/01/135519.htm

[3] « – […] La géopolitique n’existe plus, de toute façon.
– C’est fini !?

– Oui, complétement. D’ailleurs le sous-titre de mon prochain livre, « Intersocialité », sera « Le monde n’est plus géopolitique ». Je ne veux plus entendre parler de ce mot. Il n’a aucun sens, parce que le monde d’aujourd’hui n’est ni géo, ni politique. »

Extrait d’un entretien personnel avec Bertrand Badie, Paris, 13 juillet 2020.

[4] Eli Noam, “Overcoming the Three Digital Divides”, in Daya Thussu (éd.), International Communication: A Reader, Routledge, Londres, 2011, p.50.

[5] Voir par exemple : https://fr.wikipedia.org/wiki/Liste_des_acquisitions_de_Google

[6] Voir par exemple: Robert McDowell, “The U.N. Threat to Internet Freedom”, Wall Street Journal, February 21, 2012. Gordon Crovitz, “The U.N.’s Internet Power Grab: Leaked Documents Show a Real Threat to the International Flow of Information, Wall Street Journal, June 17, 2012.

[7]We are losing the fight for Internet Freedom.” Statement of Commissioner Robert M. McDowell before the U.S. Senate Committee on Commerce, Science, and Transportation. March 12, 2013. http://transition.fcc.gov/Daily_Releases/Daily_Business/2013/db0312/DOC-319446A1.pdf