Le numérique, arme de marchandisation de l’humanité

© Maxim Hopman

D’abord cantonnée à la sphère professionnelle, la numérisation a fini par s’étendre à toutes les facettes de l’existence humaine, y compris les plus intimes. Un processus qui ouvre sans cesse de nouveaux marchés pour une poignée d’entreprises, tend à uniformiser nos comportements et à transformer l’être humain en support publicitaire, à l’image des influenceurs. Derrière l’illusion de gratuité et de liberté, le numérique exploite notre attention et nous transforme en simples produits sur un marché global, niant notre intériorité. C’est du moins ce que défend Baptiste Detombe, dans sa critique anticapitaliste du numérique L’homme démantelé. Comment le numérique consume nos existences. Extraits.

La marchandisation du monde tendait à arriver à bout de souffle. Les animaux étaient réduits au rang d’objets dans des élevages industrialisés, les poissons élevés en barrique avec le développement de la pisciculture, les journaux, eux, s’occupaient de faire de l’information une marchandise. L’économie mondiale, en cette fin de XXe siècle, nécessitait de nouvelles sources de profits et de rentabilité, et pour ce faire une seule solution : ouvrir de nouveaux marchés et générer des débouchés. Le numérique s’est fait poule aux œufs d’or et a ainsi délivré la croissance capitaliste d’une agonie certaine. Le désir a pu être sur-stimulé par le développement des réseaux sociaux puis de la publicité ciblée, le non-quantifiable a pu être mesuré (l’attractivité sociale, la beauté physique, le temps d’attention) afin d’être mieux commercialisé, l’homme ordinaire a pu se transformer en marchandise ambulante et devenir influenceur de son prochain. Le fétichisme de l’écran n’a plus qu’une seule finalité : transformer l’homme en produit standardisé et lui faire oublier sa propre aliénation.

La vérité sur notre génération, c’est que nous avons été les victimes d’une OPA. Autrement dit, le marché a vu dans nos cerveaux plastiques la possibilité d’engranger des profits encore jamais atteints. Une nouvelle ressource avait été découverte à l’insu du monde. Le problème, c’est qu’il n’est pas question d’exploiter un filon, un champ ou des bras, mais bien notre attention. Notre mémoire, notre imaginaire, notre temps, tout cela devenait la cible d’une nouvelle industrie : l’industrie numérique. Les entreprises étaient prêtes à payer cher pour accéder à ces cervelles prépubères. Elles savaient que le désir est infini à l’enfant qui n’a pas conscience des limites, et que les parents sont sensibles aux appels de leur progéniture. Et il faut bien le comprendre, nous, jeunes, sommes ou étions un « super marché », un super marché car nous disposions d’un temps incalculable. Nous n’étions pas astreints à la monotonie du métro-boulot-dodo et exemptés de la plupart des tâches ménagères. C’est alors pleinement disposés que nous pouvions utiliser notre attention à engraisser les GAFAM. Et notre ressource attentionnelle était d’autant plus précieuse que nos désirs et habitudes n’étaient pas encore ancrés. Les suggestions des pubs, des proto-influenceurs pouvaient alors encore changer nos modes de vie et de consommation. Il faut le comprendre, pour tout capitaliste, nous étions des poules aux œufs d’or. Mais le poulailler en a pris un coup.

La jeunesse ne le sait pas, mais elle est la principale victime du numérique. Si les géants d’internet se jettent sur elle, c’est parce qu’elle dispose de ce temps en abondance. N’étant pas enserrée dans les griffes du salariat, elle peut allègrement participer à la société de consommation en donnant son attention et ses données. Notre temps est ainsi l’une des premières (mais aussi des dernières dans cette proportion) ressources du capitalisme. L’attention correspond à ce que l’économie de marché n’arrivait pas encore à quantifier et à marchander, la révolution numérique aura eu le mérite de nous transformer intégralement en objet de consommation. Pourtant, c’est bien l’esprit qui est ici victime de la capture : « attention » vient du latin « ad tensio » qui signifie « tension de l’esprit vers quelque chose ». Aujourd’hui, l’esprit est encore en nous, mais il s’abstient de faire l’effort de tendre vers quoi que ce soit. Il butte sur la surface lisse de l’écran et n’a plus aucune rugosité sur laquelle s’accrocher et croître. L’attention ainsi ne nous appartient plus. Elle est vampirisée par l’industrie numérique. Nous la déléguons contre des sommes onéreuses, qui nous servent en réalité à financer notre consommation de contenu virtuel.

Jusqu’à présent, l’homme avait résisté à ce devenir de marchandise : il était difficile de quantifier son aura sociale, ses opinions politiques, sa capacité à générer de la sympathie et à influencer ses pairs. Il semble que cela appartienne désormais au passé.

Jusqu’à présent, l’homme avait résisté, malgré lui, à ce devenir de marchandise : il était difficile de quantifier son aura sociale, ses opinions politiques, sa capacité à générer de la sympathie et à influencer ses pairs. Il semble que désormais l’affaire appartienne au passé. La quantification de l’existence permise par le numérique est totale. Du nombre de pas effectué en une journée en passant par sa popularité, sans oublier sa beauté physique, aucun aspect de la vie humaine n’échappe au merveilleux devenir de marchandise objectivable ! Plus rien désormais ne peut arrêter le développement du marché, l’extension ad nauseam de ce qu’il englobe. Tout doit pouvoir générer du profit, offrir de nouvelles mannes financières. L’homme est alors un nouveau produit de consommation, et une batterie de nouveaux acteurs en témoignent : des coachs en développement personnel que nous avons vus venant faire grimper notre valeur sociale et marchande, en passant par les influenceurs qui orientent nos désirs de consommation. Pour devenir un produit d’appel attractif, pour gagner en cotation sur le marché de la désirabilité sociale, une seule solution : standardiser l’homme. L’homologuer afin de le diffuser sur tous les marchés : l’homme démantelé est aussi un produit de l’uniformisation. Nos relations sociales se trouvent alors aseptisées pour mieux correspondre aux critères d’attractivité de l’époque : le crédit s’achète au prix de la profondeur d’être.

Les réseaux sociaux sont bien de grands marchés. Des immenses marchés de sociabilité et de rayonnement social. Ils sont parfaitement décloisonnés et mettent ainsi fin aux limitations géographiques. Chaque individu est accessible sur l’ensemble des plateformes, ce qui lui confère une visibilité pouvant être exponentielle. Cette absence de limites, c’est la porte ouverte à des individus au « pouvoir de marché » considérable, dont l’influence est peu commensurable. Les valeurs de référence elles aussi sont uniformisées : le nombre d’abonnés ou d’amis sont des indicateurs fiables de notre valorisation sur ce nouveau marché social.  Il appartient alors à chacun de savoir se démarquer sans trop dépasser les frontières de l’acceptable. Certains ainsi constatent leur succès, d’autres, face à cette transparence du marché numérique, ont le privilège de constater leur solitude, leur faible valeur aux yeux de leurs pairs.

L’homme est ainsi continuellement quantifié, jugé à l’aune de son attractivité. Il intègre dans sa psyché le marché. De la qualité de « sujet » nous ne devenons que des « objets » dont la valeur n’est que fonction du nombre de regards se posant sur nous. « Je » n’est pas cette expression de la magnifique dignité humaine, mais un bien de consommation à la disposition d’autrui. C’est tout l’idéal des Lumières d’un individu à la dignité inestimable qui s’effondre. Loin de l’idéal kantien de l’homme auquel on ne saurait apposer un prix, nous nous trouvons dans le lieu du quantifiable, de l’estimable. Or, rien n’est plus valeureux que le sans-prix, rien n’est plus estimable que ce qui ne s’estime pas. La quantification monétaire nivelle l’homme, le ramène aux sphères du marché. Nous vivons dans l’ignorance de notre réduction au rang d’objet de consommation et d’outil de production par l’empire industriel du numérique. Constamment anxieux face à l’évolution du chiffrage de notre popularité, nous faisons la difficile expérience de l’homme-marchandise.

Les derniers versants de l’homme encore protégés de la marchandisation du monde tombent. La donnée produite lors de nos déplacements géolocalisés, nos préférences affichés sur les réseaux par un like posé afin d’orienter le ciblage publicitaire, notre temps d’attention monnayé, la sexualité encore plus largement soumise au marché… L’industrie du numérique a eu cette malice que de rendre possible des extensions pharamineuses des profits tout en laissant l’impression au consommateur moyen que ses actions étaient gratuites, sans incidences. Nous vivons dans une naïveté confondante qui nous laisse croire que le virtuel est la liberté et la gratuité, alors qu’il est le temple transformé en marché. 

Or, le problème du marché, c’est qu’il institue une éternelle relativité des choses : tout n’a de valeur qu’au regard de la qualité de l’offre et de la quantité de demande générée. Rien n’a donc plus de valeur en soi. Tout est conditionnel. L’homme ne repose plus alors sur aucune valeur intrinsèque. La fragilité de l’individu contemporain repose dans cette instabilité permanente imposée par l’idée marchande. Notre conscience individuelle de nous-mêmes est alors friable. Nous savons que nous existons, mais nous déplorons la relativité de la valeur de nos existences. Nous n’avons, à vrai dire, plus le choix. Toute réalité doit être garantie. Il faut pour cela qu’elle soit adossée à des institutions qui peuvent affirmer que ce que nous vivons est réel et indubitable. Cette institution, aujourd’hui, c’est le marché. Nous sommes suspendus à ses lèvres. Il nous permet d’évaluer la pertinence d’une idée, la qualité d’un livre, l’attractivité d’une personnalité, l’originalité d’une œuvre d’art. Il est notre référentiel, notre focale, ainsi que le marqueur de notre insignifiance.

L’industrie du numérique a eu cette malice que de rendre possible des extensions pharamineuses des profits tout en laissant l’impression au consommateur moyen que ses actions étaient gratuites, sans incidences.

Ainsi, pour plaire à ce marché, une seule solution : la standardisation. Nous devons nous conformer aux critères d’attractivité de l’époque. Si cela a toujours été, notre temps est marqué par l’exacerbation de cette pression. Nous avons désormais besoin de nous rassurer face à la fragilité de notre valeur sociale. Plus encore, il nous faut rendre désirable l’homme public que nous sommes, mais aussi notre intimité, tout doit pouvoir être visible et attractif. Alors, si je veux réussir sur YouTube, il me faudra privilégier les contenus courts, à forte teneur en divertissement afin de maximiser leur accessibilité, avec un montage rapide et un faible contenu réflexif de sorte à ne pas perdre l’attention du consommateur. De même, si je veux que mon profil fonctionne sur Instagram, il importe que je sois prêt à publiciser à un rythme régulier des pans toujours plus importants de mon existence, à surjouer une certaine comédie qui attire les regards et suscite des émotions, à faire preuve d’une grande expressivité pour générer l’empathie, etc.

L’homme a accès à ces standards qui ne l’englobent plus seulement dans une sphère dite professionnelle, mais bien dans l’entièreté de son être, de son existence. C’est son mode d’existence social qui est ici conditionné par le numérique. En bout de course nous assistons à « la standardisation du semblable – un monde où l’opacité de l’autre serait finalement balayée[1]. » En somme, nous nous ennuyons des autres, nous les savons prévisibles, et ils le sont d’autant plus que nous n’attendons d’eux ni plus ni moins que cette prévisibilité. Cette exigence de standardisation amène à la simplification des hommes. Une simplicité confondante qui laisse une certaine amertume à ceux qui cherchent encore une certaine profondeur dans les rapports humains. En bout de course, se trouve la consécration de la « vacuité » humaine, qui est l’aboutissement de toute civilisation technicienne ne cherchant que des hommes malléables.

Les réseaux sociaux en publicisant l’existence ont fait de chacun de nous des publicités ambulantes, soit pour notre propre entreprise individuelle que nous incarnons malgré nous, soit pour les biens de consommation qui nous environnent ou le mode de vie qui est le nôtre. Pour être vendu tout produit doit répondre à une certaine homologation. Cette homologation permet de rassurer le consommateur, il ne dérive pas ainsi en terres inconnues. Plus nous sommes homologués, autrement dit, standardisés, et moins l’incertitude sur le contenu montré est grande. En cela, elle rassure et fait gagner du temps, au détriment de la disparité et de la singularité des diversités humaines inscrites dans les schèmes culturels. Tout marché impose donc une marchandise standardisé. Et l’homme, s’il est considéré comme telle, n’y échappe pas. Cette tendance donne ainsi crédit à Jacques Ellul qui considère que « Le grand mot des techniques de l’homme, c’est : adaptation[2]. » Il nous appartient alors de constamment nous adapter afin de rester désirable sur le grand marché numérique dont l’émergence est encore récente. Cette désirabilité est la condition de notre succès mais aussi la seule voie possible afin d’éviter une frustration génératrice de déprime.

Face à la déliquescence des lieux de convivialité, l’amour a été rapidement pris d’assaut par le marché. Les maisons matrimoniales ont été remplacées par les applications de rencontre, et avec elles les bars, discothèques et bals populaires sont devenus secondaires. Les mécanismes de marché inscrits dans ces applications sont apparus comme des solutions au regard des difficultés croissantes à faire des rencontres, du caractère plus instable des unions et de la recherche d’une plus grande compatibilité[3].

Autre exemple d’affadissement des rapports humains par le marché numérique : le covoiturage. Alors que pendant longtemps cette pratique relevait de l’économie collaborative, du partage, amenant à ne concevoir les frais que pour indemniser les coûts de l’essence et des péages, ceci a été transformé par l’essor des applications numériques. Blablacar est venu monopoliser le marché, augmenter progressivement les frais des commissions. La plus grande publicité faite au covoiturage a amené alors de nouveaux profils, qui y voient plus une manne financière qu’un moment de partage en société. Progressivement, ce qui était spontané, franc et joyeux, est devenu aseptisé, fade et prévisible. Nous n’étions plus là pour nous découvrir, faire connaissance le temps d’un trajet, mais seulement pour soutenir financièrement le conducteur. Les passagers ont alors été libres de rester sur leurs écrans ou de dormir tout le long du voyage. L’interaction s’est mortifiée face au règne du marché. Les avis sur l’application ont ainsi participé à uniformiser les comportements, afin de les normaliser et ainsi de rassurer. Toute la curiosité d’un moment de partage s’est envolée à mesure que la prévisibilité et la standardisation exigées par le marché numérique se sont instaurées.

Désormais il est même possible de rendre profitable le seul fait de se séparer du monde qui nous entoure, de nous éloigner de nos proches. Si le temps d’attention a toujours été monnayé, il peut l’être aujourd’hui explicitement. « TikTok Lite » propose ainsi de rémunérer les individus à regarder des vidéos. Il n’y a pas de vente de soi-même plus explicite, il n’y a pas de plus grands mépris faits à la vie, que de donner son temps pour alimenter une passivité stérile. Notre attention, notre mémoire, notre imaginaire : tout se trouve corrompu, que le numérique agisse explicitement comme ici, ou insidieusement comme à son habitude. Mais pour la première fois des voix s’élèvent, craignant que les enfants ne soient en première ligne face à cette marchandisation assumée. Il semblerait que la superficie compte plus que la profondeur. La marchandisation de notre temps d’attention a toujours été, et il est bien hypocrite de s’en inquiéter le jour où une plateforme ne s’en cache plus. Un peu de courage aurait néanmoins permis de comprendre que le phénomène n’est pas nouveau et qu’il n’est pas plus grave aujourd’hui qu’il est su.

Le rôle du marché numérique est de trouver des solutions aux problèmes que nous rencontrons. Face à la solitude relationnelle existe l’opportunité d’émergence d’une nouvelle application.

Mais le rôle du marché numérique est bien de trouver des solutions aux problèmes que nous rencontrons. Face à la solitude relationnelle, face à un nouveau problème, existe l’opportunité d’émergence d’une nouvelle application. L’application « Timeleft » s’est ainsi donnée pour mission d’organiser des dîners entre inconnus pour les célibataires débarqués à Paris. Face à l’anomie créée par d’immenses métropoles techniciennes la solution toute trouvée a donc été de créer une plateforme de rencontres. La technique crée ainsi les solutions aux problèmes qu’elle engendre.  Elle crée de la sorte des marchés infinis sans jamais cesser d’alimenter un capitalisme toujours à bout de souffle. La misère (sociale, humaine, amoureuse…) permet ainsi de faire croître de nouveaux marchés, à condition que les consommateurs aient le pouvoir d’achat suffisant…

Dans ce capitalisme numérique, l’influenceur est une figure centrale. Cette vedette mécanique est censée, par la sympathie qu’elle génère, inciter ses abonnés à l’imitation. Pour imiter une personne qu’on ne connaît point rien de plus simple : il faut singer son apparence, son mode de vie, qu’importe si cela ne nous convient pas. Ils servent alors de diffuseurs de modes, de tendances. Leurs larges communautés, si elles ne se conforment pas à l’instant aux modèles véhiculés, ne tardent pas à observer une modification de leur perception. Certains objets qui ne les intéressaient pas deviennent désirés, d’autres qui suscitaient déjà une certaine attraction se transforment en besoins. Les placements de produits sont à ce titre centraux, ils permettent d’expliciter l’objectif de ces stars de la consommation. Mais ils sont aussi trompeurs : ils laissent suggérer un objectif de vente unique et bien délimité, alors que dans les faits, c’est tout le lifestyle, le mode de vie, de la vedette qui stimule le marché.

L’avènement de ces stars numériques n’est autre qu’une excroissance logique de la modernité qui après avoir fait tomber toutes les sources de vénération (le roi, Dieu…) cherche partout où elle le peut à se raccrocher à la première idole venue. Le vide créé par un environnement relativiste implique, en effet, de sacraliser quelques pans de nos vies, quelques personnes de renom, afin de donner un peu d’aspérité à une existence qui serait, autrement, trop plate pour être vécue. Le philosophe Fabrice Hadjadj avait ainsi anticipé ce biais de notre temps : « l’un des traits propres à la modernité est autant son iconoclasme que sa propension à fabriquer des icônes, sinon des idoles[4]. » Le « sacré » lui-même est ainsi victime d’un processus de consommation, les idoles, influenceurs, sont adorées puis vouées aux gémonies en un temps record, elles sont ainsi éternellement renouvelées, éternellement recyclées. Les esprits sont occupés à adorer des veaux d’or pour mieux pouvoir les faire s’effondrer.

L’enjeu n’est plus tant de tendre vers un absolu, de s’adosser à des croyances structurantes, mais bien plutôt d’occuper un temps morne. Leur influence est d’autant plus forte que tous les référentiels se sont, un à un, effondrés, ne laissant à l’individu contemporain qu’un néant auquel s’accrocher. La perspective de faire partie d’un groupe, d’une communauté, si stérile soit-il est alors une opportunité rêvée. Suivre un influenceur c’est l’assurance de ne plus être seul et de pouvoir interagir avec d’autres fans, de vivre par procuration une aventure, ce sont des ersatz face à une solitude contemporaine chronique. Tout devient monétisable, et chaque influenceur se fait l’égérie de son secteur d’activité : un influenceur se proclame référent de l’industrie du sport, un autre de l’industrie crypto-financière. Un autre préfèrera se spécialiser dans les produits de beauté voire dans le matériel artistique. Toute l’économie, même dans ses niches les plus microscopiques, est ainsi en partie soumise au rôle central d’influenceurs, même l’entomologie (l’étude des insectes !) dispose désormais de ses référents en la matière. Il peut tant s’agir d’une paire de bottines que de lunettes de soleil, ou bien d’une décoration d’intérieure et de jeux de société ou d’alcool à pratiquer en couple. Absolument tous les marchés ont choisi dans le monde numérique leurs égéries pour pénétrer les désirs de chacun.

Il se pourrait pourtant bien que cette même civilisation occidentale ait préparé sa propre perte. Autrement dit, l’Occident a rendu possible le sabotage de son idéal. Nous portions en germe la fin d’un humanisme qui avait pourtant été moteur pendant des siècles. Comment en sommes-nous arrivés là ? D’abord en consacrant la suprématie de l’intérêt particulier et de la propriété privée. Ces institutions libérales, essentielles à toute économie de marché, ont formé un environnement protecteur et souple pour le développement de la technique. Les brevets pour protéger les inventions ont fait florès, l’idée que l’enrichissement était une vertu s’est épanouie. La primeur de la liberté individuelle a inhibé l’intervention de l’État. L’innovation a ainsi pu germer, l’idée d’autonomie humaine a pu s’épanouir. Nous n’avions pas anticipé que de cette technique rendue profitable par le marché ferait flancher les fondements de la civilisation occidentale. Nous n’avions pas vu que le numérique serait instrumentalisé par des multinationales pour leurs profits, contre notre idéal. L’humanisme s’en trouve ébranlé, abîmé. Nous avions alors oublié que l’exigence de l’homme n’était envisageable que dans un contexte favorable, dans lequel l’individu n’était pas aliéné à un smartphone décidant de sa propre vie.

L’exigence humaniste de l’Occident et la valeur donnée à l’individu ont malheureusement lié les mains de sociétés entières face à l’industrie numérique. Le mantra selon lequel la liberté des uns s’arrête là où celle des autres commence devait mettre à arme égale la dignité des citoyens et les intérêts lucratifs des géants du numérique. Le poids donné à la liberté des individus s’appliquant aussi au commerce et aux logiques du marché, aucun État ne pouvait envisager des restrictions, sans sombrer dans de fameux travers totalitaires. Empêcher le règne du marché permis par le virtuel ne pouvait être autre chose qu’un crime contre la liberté humaine. C’est ainsi que l’Occident tout entier s’est livré aux appétits financiers, a délaissé ses ouailles pour servir une liberté qui détruisait toutes les autres. Heureuses ces firmes qui monopolisent les plus grands experts pour détruire la cognition de générations entières ! Pourquoi leur en vouloir ? Elles ne font que se saisir de notre candeur et de notre naïveté. Nous les laissons ainsi ravager notre liberté, notre singularité, notre pensée et notre terreau culturel… afin de rester conforme à ce qui fait le suc de notre culture : la liberté. 

Le rapport gouvernemental d’avril 2024 intitulé « Enfants et écrans, à la recherche du temps perdu », incarne ce paradoxe ancré dans notre culture. Il résume en quelques mots l’impasse libérale d’un modèle occidental impotent face à l’industrie numérique. Il associe alors toute contrainte législative à un retour au totalitarisme en assimilant les restrictions collectives à la mise en place de « policiers devant chaque maison ». Manque de courage politique, perte d’ambition de l’action publique, tout cela est certainement vrai. Mais nous avons surtout une foi aveugle dans la liberté laissée à chacun de régir sa vie. Foi qui serait envisageable si tout notre environnement n’était pas fait pour nous faire sombrer dans l’addiction facile et destructrice. Il revient alors aux « parents » de « se saisir de ces recommandations ». La liberté prime, le marché gagne, les générations, elles, y passent. Nous ne pouvons, en effet, nous en remettre exclusivement aux parents. La question ici est systémique et économique, faire reposer cet enjeu de santé publique sur les seules épaules individuelles est une erreur terrible condamnant au sentiment d’impuissance.

Quel terrible paradoxe finalement que celui de ces nations victimes de leurs propres enfants. Nous choyons la liberté et ne voyons pas grandir en son sein une industrie numérique qui nous promet l’asservissement. Nous avions érigé le marché en outil de puissance et d’expansion, mais refusons de le contrôler maintenant qu’il a pris son indépendance, s’est émancipé. Nous nous trouvons alors face à un géant, le numérique allié au marché, qui n’a plus de limites et peut – sans autre aval que sa propre volonté – envahir l’imaginaire et la psyché de populations entières. L’industrie numérique gagne la bataille en se servant des armes de l’Occident. Notre naïveté nous a coûté et continuera d’être l’objet d’une dette dont les générations futures auront à s’acquitter. Peut-être aurions-nous dû, pour protéger l’homme, arrêter le marché. Non pas le supprimer, mais lui imposer un périmètre, des limites. Lui annoncer qu’il peut s’étendre dans la mesure où il ne menace pas des équilibres civilisationnel et anthropologique. Le renoncement aux contraintes collectives semble être aujourd’hui le cheval de Troie par lequel toute une civilisation se trouve prise en otage. Triste tragédie que celle de l’érection de l’homme dans toute sa noblesse dont on refuse le droit d’exister.

L’Occident est ainsi le serpent qui se mord la queue. C’est bien parce qu’il en porte en lui l’idéal de singularisation humaine, qu’il ne se sent pas capable d’interdire, de limiter les forces du marché. La liberté individuelle doit pouvoir tout justifier, et donc ne pas s’arrêter, même quand l’industrie numérique ravage l’idéal d’un humanisme en pleine désertion. Alors, se libérer du poison numérique, dans un Occident acquis à la cause de la liberté individuelle, risque encore d’être long. Pour reprendre Benjamin Constant, ce qui compte pour nous Modernes, c’est la jouissance privée. Tout ce qui pourra être fait pour la limiter est criminel. Même si cette jouissance est utilisée pour nous asservir et empêcher la réalisation de l’homme.

L’urgence n’est autre que de dompter le numérique, de faire de l’État le « maître et possesseur » du monde virtuel. Son expansion ne doit plus revenir aux lois du marché mais bien aux décisions des peuples. L’objectif est simple : repolitiser le numérique. Il faut admettre qu’il n’est pas une donnée technique qui nous dépasse. Nous n’avons pas nécessairement à nous soumettre à sa course. Il nous revient désormais de lui donner son rythme. La technique crée un monde sans limite, il revient au pouvoir démocratique de la redéfinir. Son invasion des moindres interstices encore épargnés de nos vies doit cesser. Et le plus ironique dans tout cela, c’est que nous n’aurons pas d’autres choix que de dire « stop » au numérique.

Notes :

[1] Pierre Legendre, Ce que l’Occident ne voit pas de l’Occident, France, Les Quarante Piliers, 2023, p. 26.
[2] Ibid, p. 316.
[3] Zygmunt Bauman, La Vie liquide, Paris, Fayard, 2013.
[4] Fabrice Hadjadj, Puisque tout est en voie de destruction, Paris, Points, 2014, p. 65.

Contre les GAFAM, redécouvrir Jacques Ellul

Jacques Ellul - Le Vent Se Lève

Présenté comme « neutre » et source de bienfaits, le progrès technologique est toujours imposé, jamais discuté. Pour Jacques Ellul, la technique est pourtant toujours politique, tant elle transforme notre société en profondeur, souvent en la déshumanisant. Alors que nos vies sont de plus en plus numérisées et que les impacts sociaux, économiques et environnementaux de ces technologies font débat, le journaliste Édouard Piely invite à redécouvrir l’oeuvre de ce grand penseur dans Jacques Ellul. Face à la puissance technologique (L’escargot, 2024). Extrait.

Le suivisme technophile renforce une logique de déni et de démesure. Rappelons qu’Ellul et Charbonneau avaient tiré la sonnette d’alarme dès 1935 : lorsque l’être humain « se résigne à ne plus être la mesure de son monde, il se dépossède de toute mesure ». Nous, contemporains, naviguons globalement entre fascination et aveuglement : fascination pour la puissance et aveuglement face au développement technique exponentiel.

Phénomène technique et société

Si l’homme a de tout temps utilisé des techniques pour interagir avec son milieu, Jacques Ellul nous montre que, depuis le XVIIIe siècle, la multiplicité des techniques issues de la science appliquée caractérise notre civilisation. Aussi est-il important d’analyser lucidement la relation entre le phénomène technique et la société, la montée en puissance d’un monde industriel fondé sur l’unique recherche d’efficacité, abstraite et mathématique, et de comprendre pourquoi les êtres humains perdent leur liberté de choix face à ce développement. Lutter contre les lieux communs liés à la Technique est plus que nécessaire, notamment contre celui de la soi-disant neutralité de la technique. Selon l’idée reçue, la technique (la technologie dans le sens moderne et courant) en elle-même serait neutre, tout dépendrait des usages que l’on en fait.

Or, la technique, issue de la recherche, provient d’un contexte social et politique. Elle produit des effets qui sont ambivalents. Et les effets néfastes sont inséparables des effets bénéfiques (pensez au plastique, matière à la fois redoutablement pratique et toxique, aux engins mécanisés, utiles et abrutissants, à l’électronique, performante et aliénante, etc.). Il n’y a pas de neutralité de la Technique. Elle transforme notre environnement et nos vies. Et il faut bien analyser, pour chaque technique, le monde qui lui a donné naissance et le monde qu’elle propose.

L’innovation technique n’est jamais neutre. L’accumulation des moyens techniques produit progressivement un monde artificiel. Nous l’avons tous éprouvé d’une manière extrême dès le printemps 2020.

En un mot, l’innovation technique n’est jamais neutre. L’accumulation des moyens techniques produit progressivement un monde artificiel. Nous l’avons tous éprouvé d’une manière extrême dès le printemps 2020 dans le domaine du numérique, avec des effets de mise à distance, de dépendances et de contrôle accru. Il faut clairement se rappeler du contexte. La crise politico-sanitaire liée à l’épidémie de COVID a offert aux gouvernants de nombreux « effets d’aubaine » sur un plateau : jeux d’intérêt et instrumentalisations réciproques entre technocrates, technophiles et grosses puissances de la Tech.

La boucle est bouclée et les trois grands gagnants de cette crise ont été les lobbies pharmaceutiques, le secteur des biotechnologies et l’industrie numérique dans son ensemble. La résistance à l’artificialisation et à la virtualisation croissantes de nos conditions d’existence est effectivement l’enjeu majeur de notre époque. L’œuvre d’Ellul a d’ailleurs annoncé la convergence des nanotechnologies, des biotechnologies, des technologies de l’information et de la communication (TIC) et des sciences cognitives. Ces technologies dites convergentes sont le cœur du développement technicien actuel.

Nous ne sommes pourtant aucunement consultés sur les choix et les trajectoires techniques. Un monde sans contact, de plus en plus virtuel, nous est imposé l’accélération, la croissance et l’artificiel, qui induisent une plus grande complexité des systèmes, nous sont imposés : c’est le règne de tout ce qui « détruit, élimine ou subordonne » le monde naturel, selon les mots d’Ellul dans La Technique ou l’enjeu du siècle.

Automatisme et soumission à l’impératif technique

Le progrès technique tend à se développer « automatiquement », le choix entre les procédés n’est plus à la mesure de l’homme mais se déroule de façon mécanique. La fascination pour cet engrenage trop bien huilé joue à plein régime, empêchant le citoyen, l’homme dans sa pleine dimension politique d’y « porter la main pour opérer lui-même le choix » (La Technique ou l’enjeu du siècle, premier ouvrage de la trilogie de Jacques Ellul).

Jacques Ellul ira jusqu’à dire que l’homme n’est « absolument plus » l’agent du choix. Il s’agit d’un mécanisme froid qui tend à supprimer le hasard, les « facteurs d’imprévision », la finesse et l’habileté proprement humaines. Fantaisie, qualités individuelles ou tradition sont balayées. L’être humain doit rentrer en concurrence avec « une puissance contre laquelle il n’a pas de défense efficace » ou se soumettre à l’impératif technique (soit des procédés, des modes d’emploi impliquant une systématisation de nos gestes et pensées).

Selon Ellul, nous sommes actuellement « au stade d’évolution historique d’élimination de tout ce qui n’est pas technique ».

Selon Ellul, nous sommes actuellement « au stade d’évolution historique d’élimination de tout ce qui n’est pas technique ». À cet égard, l’interconnexion numérique généralisée, la data-driven society, ou société gouvernée par la donnée, est présentée comme inéluctable, promue à grand renfort de communication par les ministres successifs en charge du numérique. Le cas de Cédric O (Secrétaire d’État chargé du Numérique de 2019 à 2022, ndlr) est lui-même paroxystique. Dans une intervention au Sénat en décembre 2020, Cédric O donne une illustration flagrante de cette soumission à l’impératif technique. Prenons-le au mot, cela vaut son pesant de cacahuètes :

« On a besoin de beaucoup plus de numérisation pour réussir la transition environnementale. On a besoin de beaucoup plus d’innovation pour réussir la transition environnementale. C’est assez mathématique. Il y a de plus en plus de monde sur cette planète, qui consomme de plus en plus, compte tenu du rattrapage extrêmement rapide de certains pays en développement très peuplés. Et donc si on veut faire en sorte de… maîtriser notre consommation, il faut être plus efficace. Pour être plus efficace, il faut innover. Et dans l’innovation, dans l’ensemble des secteurs qui sont les plus polluants, à savoir le bâtiment, les transports, la logistique, l’agriculture : la question numérique est absolument centrale. Centrale. Jusqu’à d’ailleurs la question de la 5G si on fait le lien avec la question de la technologie [sic].

On a besoin de connecter beaucoup, beaucoup plus d’objets pour être plus efficace. C’est-à-dire pour faire autant, voire plus, en consommant moins [sic]. C’est vrai dans l’agriculture, c’est vrai dans la logistique, c’est vrai dans l’industrie. C’est vrai dans l’énergie elle-même. Il n’y aura pas de smart grids et de réseaux distribués avec des cellules de production photovoltaïque, éolienne, etc., etc., s’il n’y a pas une numérisation MASSIVE une utilisation massive de l’intelligence artificielle, et un développement de la connexion des objets y compris via la 5G. […] Je veux dire… Il y a plus de monde sur cette planète, ils consomment plus et on a une planète limitée. Soit on est plus efficace, soit on décide qu’il faut tuer les vieux. Pardon mais il y en a certains du côté environnemental qui l’ont proposé. Soit on décide qu’on doit contraindre les naissances. Mais à un moment, c’est mathématique. »

Tout en nuances blanches ou noires, Monsieur O veut nous faire avaler des couleuvres. C’est très indigeste et ce n’est pas gentil pour les serpents… ni pour les mathématiques. Méconnaissances des fondamentaux de la crise écologique, arrogance et inhumanité, intérêts et sophisme. La « transition numérique » est la promesse que tout pourra continuer comme avant, comme le montrent bien le socio-anthropologue des techniques Alain Gras et le sociologue Gérard Dubey. Un véritable impérialisme et une « logique de branchement » se déploient.

On ne peut que souhaiter un retour au réel et une intégration de l’effet rebond pour les stipendiés les plus « efficaces » de l’industrie. Aiguillon médiatique et porte-flingue de la vie totalement numérisée, le ministre O proférait en privé à ses équipes rapprochées que les Français avaient non seulement un droit à être « connectés » mais un « devoir de connexion ». CQFD. Du devoir à la contrainte, la pente est glissante… Avec l’objectif affiché de connecter, de rapprocher, de fluidifier, l’expansion numérique exclut et cherche à soumettre les récalcitrants, tous ceux qui veulent encore un contact humain. Il y a multiplicité de contacts électroniques et dévaluation du contact direct, ce qui provoque une perte de sens, un rapport productiviste au monde, voire « la réduction de l’existence à une succession d’instants déliés les uns des autres ». C’est bien une fuite en avant circulaire.

Jacques Ellul face à la puissance technologique, éditions L’escargot, Edouard Piely, 2024.

Un grand cercle qui se forme dans un mouvement perpétuel d’innovation. « À l’intérieur du cercle technique, rien d’autre qu’elle ne peut subsister. » La Technique se révèle ainsi « destructrice et créatrice en même temps » dans un mouvement continu. Il y a une forme d’« addition anonyme des conditions » de cette fuite en avant technologique. La Technique s’engendre elle-même car, pour Ellul, « lorsqu’une forme technique nouvelle paraît, elle en permet et en conditionne plusieurs autres… ». Par exemple, le moteur à explosion a permis et conditionné l’automobile. Il y a une « sorte d’appel de la technique à la technique ». Ainsi, au cours de son développement, elle pose des problèmes qui ne peuvent être résolus que par un surcroît de technique.

Comment Thierry Breton a tué Atos, fleuron du numérique français

ATOS LVSL Thierry Breton Edouard Philippe Le Vent Se Lève industrie
© LHB pour LVSL

Récemment encore qualifié de fleuron industriel français, le navire Atos semble partir à la dérive. Malgré le plan de sauvetage présenté le 9 avril par la direction, son démantèlement ne peut être exclu dans un avenir proche. Ruiné par des acquisitions hasardeuses sous la direction de Thierry Breton, désormais commissaire européen, le groupe a été négligé par l’État pendant des années, alors qu’il prenait l’eau de toute part. Plusieurs des activités d’Atos sont pourtant éminemment stratégiques pour la souveraineté numérique française, ou du moins ce qu’il en reste.

Cybersécurité, supercalculateurs, intelligence artificielle, systèmes de communication ultra-sécurisés, software pour de nombreux services publics (carte vitale, CAF, impôts, centrales nucléaires, armée, EDF…) ou encore hébergement de cloud... Quasi-inconnu du grand public, le groupe Atos est une des dernières gloires de l’informatique français. Sans doute plus pour très longtemps : ces trois dernières années, le groupe a accumulé les pertes financières et sa valorisation boursière a été divisée par dix. Dos au mur, la multinationale a urgemment besoin de cash pour éponger ses dettes colossales. Pour comprendre comment cette entreprise plutôt dynamique s’est effondrée, un petit retour en arrière s’impose.

La folie des grandeurs de Thierry Breton

Après un passage au ministère de l’économie entre 2005 et 2007, où il supervise notamment la privatisation des autoroutes et de France Télécom, Thierry Breton intègre les organes de direction du groupe Atos en 2008. Adoubé par les élites politiques et économiques pour sa reprise d’entreprises en difficulté tels que Bull (supercalculateurs), Thomson (électronique grand public) et France Télécom, son profil ravit les actionnaires. Dès l’annonce de sa nomination en tant que Président directeur général (PDG), le cours en bourse de l’action de l’entreprise grimpe de près de 8 %. Il faut dire que Breton dispose alors déjà d’un solide carnet d’adresses : invité sur le yacht de Bernard Arnault, ce « personnage d’exception » selon Jean-Pierre Raffarin est également proche de François Baroin, d’Alain Minc et de François Bayrou et peut compter sur les liens tissés en tant que senior adviser de la banque d’affaires Rothschild.

Son bilan réel à la tête des entreprises qu’il a dirigées est pourtant moins reluisant. C’est lui qui initie notamment le plan social brutal de France Télécom, amplifié par son successeur Didier Lombard, qui aboutira à une vague de suicides. Au sein de Thomson, qu’il dirige de 1997 à 2002, sa gestion correspond à une embellie de courte durée, mais aussi à des rachats massifs d’autres sociétés que le groupe ne parvient pas à intégrer. Un an après son départ, la société est au bord du gouffre. Un scénario qu’il va reproduire en tant que PDG d’Atos.

Après deux premières années de gestion des affaires courantes d’une entreprise plutôt performante, il initie à partir de 2011 une frénésie de rachats, pour l’essentiel dans le domaine des services informatiques aux entreprises. Le groupe Siemens IT est ainsi racheté en 2011 pour un montant de 850 millions d’euros, faisant entrer Atos dans une nouvelle dimension. Devenu un acteur de référence de la vente de services informatiques, Atos doit désormais assumer sa taille portée à 70.000 salariés. S’ensuivent les rachats de Bull, Xerox IT, Unify et Anthelio Healthcare Solutions pour des montants successifs de 620 millions, 1,05 milliards, 340 millions et 275 millions d’euros entre 2014 et 2016.

Afin de rassurer les marchés financiers, la direction distribue 2 milliards d’euros à ses actionnaires. Une opération qui fragilise Atos, mais qui ravit la presse financière, notamment la prestigieuse Harvard Business Review, qui classe Thierry Breton parmi les 100 patrons les plus performants du monde en 2017 et en 2018.

La folie des grandeurs de Thierry Breton se poursuit en 2017 : après avoir tenté en vain d’absorber Gemalto (leader mondial des cartes à puces) pour 4,3 milliards d’euros, Atos s’offre l’indien Syntel (services informatiques aux entreprises) pour 3,4 milliards. Cette opération très coûteuse commencera à susciter la circonspection du monde financier quant à la bonne gestion du groupe et l’accumulation d’une dette devenant préoccupante de jour en jour.

Afin de rassurer les marchés et d’amorcer son désendettement, la direction annonce la cession de sa filiale Worldline (paiement digital), qui donnera lieu à la distribution à ses actionnaires de 23 % de son capital ; un cadeau chiffré à 2 milliards d’euros. Une opération qui fragilise Atos, mais qui ravit la presse financière, notamment la prestigieuse Harvard Business Review, qui classe Thierry Breton parmi les 100 patrons les plus performants du monde en 2017 et en 2018.

Tactique financière contre stratégie industrielle 

Les premiers signes de faiblesse apparaissent en 2018, lorsque les rapports annuels de l’entreprise mentionnent un endettement net s’établissant à 4,4 milliards d’euros, plus du double de l’année précédente. Cette explosion de la dette, mise en perspective avec le nombre important d’acquisitions d’entreprises existantes suggère un usage immodéré du levier du crédit pour faire croître démesurément le chiffre d’affaires de l’entreprise. Mais cette croissance est trop rapide pour correctement intégrer les nouvelles entités au sein du groupe.

Par ailleurs, la trajectoire d’Atos est jugée hasardeuse : l’entreprise a opéré plusieurs rachats dans le secteur de l’infogérance (maintenance de parcs informatiques et des serveurs d’entreprise) alors que celui-ci connaissait un ralentissement avéré. En cause, la concurrence toujours plus forte des fournisseurs d’espaces de stockages décentralisés (« cloud ») tels que Microsoft, Amazon ou Google. Malgré la connaissance de la faible rentabilité de cette activité et la volonté énoncée de se recentrer vers des domaines plus rentables, Atos annonce en janvier 2021, à la surprise générale, sa volonté de racheter le spécialiste de l’infogérance DXC Technologies, lui aussi en perte de vitesse, pour un montant de 10 milliards de dollars. 

Face à l’accueil glacial de la nouvelle par les marchés financiers et au rejet de ses comptes moins de 3 mois plus tard compte tenu de la présence d’erreurs significatives de comptabilisation du chiffres d’affaires de plusieurs de ses filiales, le groupe fera finalement machine arrière. En outre, Atos est contraint de reconnaître à deux reprises (en 2022 et 2023) que la valeur réelle des entreprises rachetées au prix fort était en réalité bien plus faible que ce qui était inscrit à son bilan, conduisant au total à une dépréciation des actifs de… 4,4 milliards d’euros.

Entre-temps, Thierry Breton avait quitté le navire en 2019 pour rejoindre la Commission européenne, sans prévenir les salariés et vendant d’un seul coût ses actions pour un total de 40 millions d’euros brut, auxquels s’ajoute une retraite chapeau de 14 millions d’euros brut, versée sur plusieurs années.

Si Breton rejette toute responsabilité dans la descente aux enfers d’Atos, le fait que la chute du groupe débute peu de temps après son départ laisse planer le doute.

Si Breton rejette toute responsabilité dans la descente aux enfers d’Atos, le fait que la chute du groupe débute peu de temps après son départ laisse planer le doute. Très vite, le navire prend l’eau de toute part : six directeurs généraux se succèdent en à peine trois ans, tandis que les consultations auprès de cabinets de conseil (McKinsey, E&Y, BCG…) ou banques d’affaires (Rothschild) se multiplient. Chargés de proposer des restructurations permettant de remettre l’entreprise sur pied, ces consultants coûtent très cher à l’entreprise : entre 150 et 200 millions d’euros entre 2021 et 2023 selon la CGT Atos.

En 2022, le groupe annonçait devoir se délester dans les quatre années à venir de sa branche Tech Foundations, rassemblant les activités déficitaires, pour se concentrer sur celles en croissance telles que la cybersécurité, la construction de supercalculateurs et l’analyse de données massives (Big data). Si ce choix peut sembler pertinent sur le plan financier, il ne l’est pas sur le plan industriel. Ainsi, il est illogique de vendre un supercalculateur sans pouvoir fournir la prestation d’hébergement des données qui y seront traitées. Finalement, les discussions autour de cette vente n’ont pas abouti, le milliardaire Daniel Kretinsky ayant jeté l’éponge. Les différentes options de démantèlement successivement envisagées ont également recueilli l’opposition de la CGT Atos, qui a présenté un contre-projet chiffré visant à faire du groupe un « véritable socle technologique en matière de souveraineté numérique » française.

Administrateurs fantômes et État attentiste

Au vu du portefeuille de technologies vitales pour l’État détenues par Atos, ce projet semble bien plus pertinent que les manœuvres financières de manageurs court-termistes. Alors qu’EDF vient de faire appel à Amazon pour héberger une partie du système d’information consacré aux pièces de son parc nucléaire, ravivant les craintes d’un nouvel espionnage industriel issues de l’affaire Alstom, Atos dispose pourtant de nombreux services informatiques essentiels, des centrales nucléaires au compteur électrique intelligent Linky,  à travers sa filiale Worldgrid. La filiale BDS dispose quant à elle d’une activité de pointe en matière de cybersécurité, suscitant un premier temps l’intérêt d’Airbus qui s’est rapidement retiré. D’autres filiales fournissent les supports des téléphones sécurisés des armées françaises ou encore des systèmes informatiques régissant le fonctionnement des remboursements de l’assurance maladie, de la CAF, des douanes et du site internet permettant à l’État de prélever l’impôt.

Malgré l’importance stratégique de ces technologies et le fait que les péripéties boursières sont connues depuis 2018, l’État a maintenu un désintérêt constant pour la santé du groupe. Une inaction d’autant plus troublante étant donné la présence d’un allié de taille au sein du conseil d’administration entre novembre 2020 et novembre 2023 : l’ancien Premier ministre Edouard Philippe. Rémunéré plus de 70.000 euros par an pour suivre l’activité d’Atos, il semble s’être contenté d’assister passivement à la spectaculaire division par dix du prix de l’action du groupe.

Rémunéré plus de 70.000 euros par an pour suivre l’activité d’Atos, Edouard Philippe semble s’être contenté d’assister passivement à la spectaculaire division par dix du prix de l’action du groupe.

Fin 2023, plusieurs parlementaires de tous bords finissent néanmoins par saisir le taureau par les cornes. Un amendement du député socialiste de l’Eure Philippe Brun pour nationaliser les filiales Worldgrid et BDS est voté en commission des finances pour éviter de voir ces technologies critiques passer sous pavillon étranger. Préférant s’en remettre à la main invisible du marché, le gouvernement s’oppose farouchement à cette proposition et censure l’amendement lors du passage en force du budget 2024 via le recours à l’article 49-3 de la Constitution. Début avril 2024, une nouvelle offre de rachat est annoncée par la direction. Portée par l’actionnaire principal d’Atos David Layani et soutenue par le fonds de private equity Butler Capital Partnerscréé par un énarque passé chez Goldman Sachs – celle-ci est présentée par ses promoteurs comme la seule option « au service de la souveraineté européenne et de la défense de nos intérêts nationaux ». Une affirmation qui ne manque pas d’air venant d’un pur financier et d’un chef d’entreprise qui use des mêmes méthodes que Breton pour faire grossir son groupe

Finalement, sous la pression d’un scandale grandissant en pleine campagne européenne, et alors que Thierry Breton se verrait bien remplacer Ursula Von der Leyen à la tête de la Commission européenne, le gouvernement finit par réagir. Le 28 avril, Bruno Le Maire envoie une lettre d’intention annonçant l’intérêt de l’État pour racheter les activités jugées stratégiques, par l’intermédiaire de l’Agence des Participations de l’État. Les supercalculateurs utilisés pour simuler les essais nucléaires français, les serveurs liés à l’intelligence artificielle, l’informatique quantique et divers produits de cybersécurité seraient concernés, pour un coût total compris entre 700 millions et un milliard d’euros. Si le revirement total du gouvernement sur ce dossier est une bonne nouvelle, la nationalisation n’est pas encore faite. Par ailleurs, elle illustre une nouvelle fois le fameux adage « collectivisation des pertes, privatisation des profits ». Espérons néanmoins qu’elle serve de leçon pour éviter de reproduire encore les mêmes erreurs à l’avenir.

Tout acte de lecture est un jeu avec des structures de pouvoir – Entretien avec Peter Szendy

© LHB

Peter Szendy est l’un des théoriciens de la littérature les plus importants de notre époque. Nous l’avons rencontré à l’occasion de la parution de son ouvrage, Pouvoirs de la lecture. De Platon au livre électronique (La Découverte, 2022), dans lequel il étudie l’expérience de la lecture comme une scène, psychologique, sociale et politique complexe. Il se penche également sur les récentes transformations technologiques de cette expérience et notamment sur les implications anthropologiques de la croissance significative du marché du livre audio. Entretien réalisé par Simon Woillet.

LVSL – À l’heure où les technologies numériques bouleversent notre rapport aux savoirs, vous proposez de réinterroger l’expérience fondamentale de la lecture, dans une approche qui tente de faire droit aux zones d’ombres entre lecteur et texte. Vous déclarez, ce faisant, vouloir sortir de la vision de la lecture produite par les Lumières, où la relation au texte était principalement conçue selon vous sur le mode de la transparence en termes de transmission des connaissances. Pouvez-vous nous éclairer sur le sens de cette démarche ?

Peter Szendy – Il y a dans votre question deux marqueurs temporels importants : le passage au numérique d’une part et les Lumières d’autre part. Il ne s’agit pas pour moi de tenir ces balises chronologiques pour des frontières historiques intangibles. Au contraire, mon travail consiste à faire droit à ce que l’on pourrait appeler des hétérochronies, c’est-à-dire des temporalités différentes mais simultanées. Autrement dit, la relation des lecteurs d’aujourd’hui aux textes qu’ils lisent obéit à des régimes anciens en même temps que contemporains, des régimes qui peuvent coexister, s’hybrider ou s’affronter, ce qui implique une vision stratifiée des paradigmes historiques de l’expérience de la lecture.

J’essaie d’être attentif à la coexistence de vitesses contrastées, par exemple : qu’il s’agisse des vitesses propres aux systèmes de renvois internes à un texte (la consultation d’une note en fin d’ouvrage n’implique pas la même vitesse de renvoi qu’un lien hypertexte à cliquer) ou bien des vitesses de réception, de diffusion d’un ouvrage dans la texture de l’espace dit public (où la lecture qu’on a pu qualifier d’intensive, à savoir la rumination des mêmes textes, comme ce fut longtemps le cas de la Bible, coexiste avec la lecture dite extensive, celle des journaux, des nouvelles, des romans-feuilletons au XIXe siècle, des tweets ou autres notifications aujourd’hui…).

S’il y a donc des différences de vitesse dans la circulation des Lumières et dans leurs inscriptions sur papier ou sur écrans rétroéclairés, c’est aussi qu’il se crée des zones d’ombre, aujourd’hui comme au XVIIIe siècle. Non seulement parce qu’il y a de l’incompréhension, de l’inattention, disons, en un mot, de l’inéclairé qui résiste ou se reforme dans les plis de l’hétérochronie, mais aussi (j’imagine que nous y reviendrons) parce que tout acte de lecture implique de la violence, de la soumission, de l’irraisonné et de l’infondé. Il faudrait dire en outre, si l’on considère cette fois l’histoire matérielle des supports d’inscription des savoirs, que la propagation des « lumières » actuelles — les lasers, les systèmes de gravure et de décodage, les fibres optiques… — repose sur l’obscurité des tractations géopolitiques, du secret industriel et de la raison d’État ainsi que sur l’aveuglement face aux conséquences environnementales de ces technologies du visible ou du lisible.

LVSL – Vous proposez également une interprétation fascinante de notre rapport ambigu au livre audio.

PS – Je voulais d’abord faire un pas en arrière face à ce que l’on appelle un peu vite la crise de la lecture à l’ère numérique. Car le premier effort de réflexion devrait d’ores et déjà consister à ne pas tenir pour acquis que la lecture serait strictement cantonnée à un rapport silencieux à un texte écrit. Je ne suis bien évidemment pas le seul à le penser : beaucoup d’autres avant moi ont travaillé sur l’histoire de l’expérience de la lecture et sur les formes de résistance de l’oralité face au scriptural. C’est notamment ce qu’a pu développer Roger Chartier. Mais il reste que la puissance du paradigme scriptural continue de faire écran à une compréhension plus fine des voix intérieures de la lecture.

Toujours est-il que, en adoptant une perspective décentrée par rapport au seul support écrit, il me semble que l’on peut éviter d’en rester aux mêmes discours nostalgiques sur la perte du goût de la lecture ou la « mort du livre ». Qu’il suffise de penser à l’importance immense que revêt aujourd’hui le livre électronique (tant sur un plan économique qu’anthropologique). Il se présente sous deux formes : le livre numérisé lu sur écran, certes, mais également le livre audio, qui représente une part de marché toujours plus importante. « 9,9 millions d’audio-lecteurs en 2022 », pouvait-on lire dans un communiqué du Syndicat national de l’édition qui annonçait le lancement, en mai 2022, du « mois du livre audio », accompagné du slogan « lire ça s’écoute » (www.sne.fr/actu/parce-que-lire-ca-secoute).

Même si l’idée que lire peut consister à écouter un livre commence à faire son chemin, ce type de propos ne va pourtant pas de soi. Matthew Rubery, dans sa belle histoire du « livre parlant » (The Untold Story of the Talking Book), se fait l’écho d’une attitude fréquente : « écouter des livres », écrit-il, « est une des rares formes de lecture pour lesquelles les gens s’excusent ». Il met ainsi le doigt sur un malaise diffus mais sensible, révélateur en tout cas, dès lors qu’on applique le verbe « lire », voire un verbe d’action tout court, au fait d’écouter un livre audio. Il semble que l’on hésite à concevoir cette écoute comme un acte, car on ne sait pas très bien ce que l’on fait, au juste, avec ou face à un livre audio. Comme si écouter un livre n’était pas vraiment faire quelque chose, surtout lorsqu’on se consacre en même temps, comme c’est souvent le cas, à une activité parallèle (les courses, le ménage, la marche, la conduite…). Sans doute qu’une partie de cette drôle de honte ressentie à l’égard du format audio tient à la prétendue « passivité » de ce type d’expérience.

Quoi qu’il en soit, l’hésitation quant au statut de la lecture audio en tant qu’acte de lecture me semble révélatrice d’un changement de paradigme. Les failles du langage quotidien révèlent ici la tectonique des plaques en jeu dans les transformations anthropotechniques de la lecture. Il faut rouvrir le chantier de l’analyse de la lecture à l’aune de ces formes nouvelles.

LVSL – Selon vous, sommes-nous réellement sortis de ces représentations passives de la lecture oralisée ? Dans un chapitre de votre livre intitulé « l’anagnoste et l’archonte », vous convoquez les formes antiques de la lecture et les rôles sociaux liés à cette activité pour construire une grille d’interprétation des différentes « voix » qui cohabitent dans notre psychisme de lecteur. Pouvez-vous revenir sur ces concepts et ce qu’ils impliquent pour l’époque actuelle, notamment du point de vue des nouvelles formes de subordination de la lecture impliquée par les algorithmes de recommandation des contenus ?

PS – L’anagnoste, dans l’antiquité gréco-romaine, c’est l’esclave spécialisé dans la lecture à haute voix pour d’autres. C’est un rôle défini au sein d’une hiérarchie économique et politique précise, un rôle qui s’inscrit dans un réseau de relations aussi bien sociales que symboliques. Tout d’abord, l’anagnoste est bien évidemment une figure du dominé ou du subalterne — c’est un esclave —, mais qui est d’emblée complexe car il s’agit d’un travail auquel on associe une haute valeur symbolique. Son labeur ouvre la voie, facilite l’accès à la sphère idéalisée du sens.

Dans ses rares représentations ou apparitions (rares, car il est voué par essence à s’effacer devant le texte), l’anagnoste est une figure qui oscille de manière fascinante entre ces deux extrêmes que sont l’activité totale et la passivité totale. En effet, en lisant pour son maître, il est actif face à ce dernier, qui l’écoute passivement. Mais en même temps, l’anagnoste prête son corps et sa voix à un texte par lequel il se laisse traverser et littéralement posséder. Dans le lexique qui était celui de la pratique grecque de la lecture (comme l’a montré Jesper Svenbro dans sa remarquable Anthropologie de la lecture en Grèce ancienne), l’esclave lecteur, l’anagnoste peut être décrit à la fois comme l’« éraste », l’amant en position active, et l’« éromène », l’aimé en position passive. Il est actif en tant qu’il lit pour l’autre ; il est passif en tant qu’il est le simple relais du discours lu qui passe par lui.

LVSL – De ce point de vue, la figure de l’anagnoste vous semble-t-elle pertinente pour décrire notre propre situation vis-à-vis des algorithmes de recommandation de contenus sur les technologies numériques ? Puisque nous sommes autant producteurs des données qui les alimentent qu’esclaves des techniques de manipulation émotionnelle et attentionnelle qui constituent leur raison d’être économique ?

PS – C’est une idée intéressante. On pourrait déjà faire l’hypothèse que l’anagnoste antique se dilue ou se dissémine dans toute sorte de machines, de logiciels, d’algorithmes qui font ce travail de « faire exister » des textes en les lisant pour nous. L’exemple le plus évident serait la voix automatisée du GPS qui vous « lit » la carte de votre trajet, qui est l’anagnoste de votre itinéraire. Mais il existe aussi quantité d’applications pour la vocalisation des textes, à l’instar de Speechify ou NaturalReader, qui vous permettent de choisir le genre ou l’âge ou les caractéristiques ethniques de la voix lisante ainsi que sa vitesse de lecture.

Ceci dit, votre question nécessite que l’on considère la position de l’anagnoste au sein de la scène de lecture antique d’une manière à la fois plus précise et plus vaste. Car l’anagnoste n’est qu’une des voix ou qu’une des instances dans cette scène. Il y a également le texte lui-même, bien sûr, à savoir le texte lu par l’anagnoste lorsqu’il prête sa voix à celle de l’auteur. Il y a ensuite la place de l’auditeur, de celle ou celui qui écoute la lecture : j’ai proposé, pour désigner cette instance, le néologisme de lectaire, par analogie avec destinataire. Enfin, et c’est le plus important peut-être dans la perspective ouverte par votre question, il y a cette figure implicite et pourtant centrale qui peut, je crois, éclairer notre relation aux algorithmes de recommandation dans la lecture numérique : il s’agit de l’instance qui commande la lecture, à ne pas confondre avec le lectaire, car un personnage peut, comme on le voit par exemple dans certains dialogues de Platon, commander à l’anagnoste de lire à haute voix pour quelqu’un d’autre que lui-même, pour un tiers.

Avant d’en venir à cette antique instance prescriptive et à ce qu’elle pourrait bien nous dire sur les prescriptions de lecture actuelles, je voudrais souligner que la structure de la scène de lecture, telle qu’elle nous apparaît depuis son histoire lointaine et largement oubliée, est fondamentalement triangulée. Il est en effet impossible d’en dégager ou d’y identifier une relation simplement et purement duelle, à l’image de ce que nous avons fini par construire comme l’expérience par excellence de la lecture, à savoir le face-à-face du lecteur et du texte, l’immersion de celui-là dans celui-ci. Lorsque l’anagnoste s’entend commander de lire à haute voix pour un lectaire, c’est déjà une relation à trois, c’est déjà un réseau qui s’ébauche, une circulation réticulée plutôt qu’une absorption frontale, immédiate, transparente.

On pourrait donc faire l’hypothèse que la lecture a toujours été une affaire de « réseaux ». C’était le cas pour la lecture pratiquée par l’anagnoste antique, mais c’est également vrai lorsque c’est le phonographe qui « lit » des « livres parlants » ou lorsqu’on lit aujourd’hui des livres électroniques. L’une des premières idées de Thomas Edison, dans son texte intitulé The Phonograph and its Future(1878), était précisément que son invention servirait à enregistrer des textes pour que d’autres puissent les écouter. Le phonographe ainsi utilisé, c’est, si vous voulez, la mécanisation de la fonction de l’anagnoste, sa rationalisation technique et sa reproductibilité à une échelle industrielle.

Mais je reviens à votre question concernant les algorithmes de recommandation. Là où l’ordre de lire adressé à l’anagnoste avait la structure simple d’un impératif (« prends le livre et lis ! », disent l’un des personnages du prologue du Théétète de Platon à l’esclave lecteur), les modalités actuelles de la prescription, à l’ère du capitalisme numérique, impliquent des bouquets de données (ce que Gilles Deleuze, dans son « Post-scriptum sur les sociétés de contrôle », avait analysé comme la désagrégation de l’individu en flux dividuels). Cela modifie et l’injonction de lecture sur les réseaux sociaux et la signification même de l’acte de lire, qui se redouble d’un ensemble d’activités d’enregistrement et de formatage invisible de votre comportement, en temps réel et à votre insu. Sur Kindle par exemple, vous pensez être seul face à votre livre, mais en réalité vous êtes vous-même « lu », c’est-à-dire observé, et constitué en travailleur numérique inconscient par les technologies de ce type d’entreprises : vous êtes une série de points, un nœud de données (vitesse de lecture, types de contenus choisis, fréquence de la consultation de l’outil, passages relus…) dans un réseau plus vaste et dont la finalité est en général purement commerciale (l’ergonomie servant souvent à cacher ces formes de surveillance et de formatage autant qu’à les rendre possibles en renforçant la fluidité de l’expérience de l’utilisateur).

Je raconte dans Pouvoirs de la lecture une anecdote personnelle à ce propos. Me pensant bien assis chez moi, dans l’intimité d’une scène de lecture domestique idéalisée, je m’aperçois soudain, en touchant naïvement le texte à l’écran de ma tablette et en voyant s’afficher une petite case de commentaire, que je suis le nième utilisateur à souligner telle phrase précise. Une expérience comme celle-ci, que nous sommes tous susceptibles de faire, nous ramène brutalement à la puissance des technologies de prescription qui structurent désormais nos vies sans que nous en ayons suffisamment conscience.

Au début des années 1990, Bernard Stiegler avait initié un beau projet à la Bibliothèque nationale de France, qui consistait à produire des outils numériques de « lecture assistée par ordinateur » afin de matérialiser et de rendre transmissibles les traces laissées par les lecteurs dans leur élaboration du texte (je renvoie à son article intitulé « Machines à écrire, machines à penser », paru dans le n° 5 de la revue Genesis en 1994). Ce système d’annotations devait permettre de rendre visibles les gestes de lecture autrement invisibles au sein d’une sorte de communauté de lecteurs qui se formerait autour d’une œuvre. Et ce que montre ce type de démarche, c’est qu’il est possible de concevoir des régimes numériques de circulation de la lecture, des mises en réseau d’actes de lecture qui ne soient pas pensés uniquement dans la perspective d’une prescription marchande.

L’une des questions passionnantes que soulèvent les annotations des lecteurs, c’est sans doute celle de la singularité de l’acte de lecture. Une marque de lecture doit-elle ou peut-elle être signée, et si oui, comment ? Ce n’est pas le même type d’anonymat qui est en jeu dans l’impersonnalité machinique des algorithmes de recommandation de contenu, dans les commentaires de lecteurs identifiés par des pseudonymes sur les plateformes de vente en ligne ou dans les griffonnages dus à d’autres lecteurs inconnus que l’on rencontre en feuilletant un ouvrage emprunté à une bibliothèque. L’anonymat des modes de prescription propres au capitalisme numérique tend à être celui, statistique, du nivellement, de l’homogénéisation des singularités. Mais l’anonymat d’une trace de lecture, ce peut être aussi ce qui ouvre la possibilité de l’accident, la chance de l’imprévu.

LVSL- Vous parlez de « phonoscène » intérieure de la lecture notamment pour désigner les développements que vous venez de nous présenter et vous suggérez qu’il faut se pencher sur les relations entre les parties prenantes implicites de toute « scène de lecture ». Vous montrez dans votre livre et comme nous venons de le voir qu’il existe toujours une instance que l’on peut appeler « l’impératif de lecture ».

PS – En effet, cette instance impérative fait partie intégrante de toute scène de lecture, c’est-à-dire de tout acte de lecture. Mais elle est susceptible d’être configurée et appropriée — sur le plan psychique, social et technologique — de manière extrêmement différente selon les contextes et les époques historiques. Il semble n’y avoir rien de commun entre, par exemple, l’enfant qui exige qu’on lui lise une histoire et l’injonction implicite de lecture qui se loge dans la nécessité de cocher la case « lu et aprouvé » des « conditions générales d’utilisation ». Mais il y va, dans l’une comme l’autre de ces situations de lecture, d’une certaine configuration de l’impératif dont nous parlons. Il arrive aussi que cette instance impérative ou prescriptive (« lis ! ») soit détachée, présentée pour elle-même, pour ainsi dire sur le devant de la scène de lecture. Pensons au cas de La philosophie dans le boudoir de Sade, que j’analyse dans Pouvoirs de la lecture : l’impératif de lecture vient se loger sur la couverture du livre, sous la forme d’une sorte d’exergue (« la mère en prescrira la lecture à sa fille »).

Si l’impératif de lecture fait donc partie intégrante de toute scène de lecture, c’est parce que lire implique toujours quelque chose qui est de l’ordre de la soumission. Une soumission à déjouer, à contester, à refouler, mais implicitement à l’œuvre, avec laquelle il faut compter. Pas de lecture sans soumission du lecteur à l’ordre (typographique, syntactique, argumentatif, rhétorique, narratif…) du texte. Ce qui ne veut pas dire, loin de là, que la lecture se réduit à cette passivité. Les lecteurs ne cessent de subvertir l’autorité de cet ordre, consciemment ou inconsciemment, volontairement ou non. Qu’on pense à l’attention flottante, aux formes variées de l’interprétation, érudite ou spontanée, des textes : le lecteur est en permanence dans une relation équivoque, tendue, avec le tissu des « micropouvoirs » dont est constitué tout ordre textuel. On pourrait dire, en reprenant ce mot proposé par Deleuze et Guattari, que tout acte de lecture est un acte « micropolitique ». Autrement dit : la lecture rejoue en miniature, sur un mode micrologique, des rapports de pouvoir que l’on retrouve ailleurs, sur d’autres scènes, sociales, politiques… Tout acte de lecture est un tel jeu avec des structures de pouvoir. C’est ce qui fait de la lecture un espace intrinsèquement politique (bien au-delà du fait que tel ou tel texte puisse proposer ou non des idées ou des thèmes explicitement identifiés comme politiques).

LVSL – Pouvez-vous revenir sur votre analyse magistrale du Léviathan de Hobbes et la relation entre politique et lecture dans ce texte fondamental ?

PS – Comme nous l’évoquions à l’instant, tout acte de lecture est à la fois un acte de soumission et d’affrontement, de contestation et d’assimilation critique des règles du pouvoir. En ce qui concerne le Léviathan de Hobbes, on est face à un moment-clé de l’histoire de la philosophie politique, bien sûr, mais également face à un moment-clé dans l’histoire des discours sur la lecture, des réflexions sur la performativité, l’efficacité des dispositifs de lecture. Il y a, dans ce texte, une sorte de correspondance entre, d’une part, le dispositif micropolitique des prescriptions adressées au lecteur (le Léviathan est en effet ponctué de conseils, explicites ou implicites, sur la manière de lire ce livre qu’il est) et, d’autre part, le dispositif macropolitique de l’État moderne tel qu’il est élaboré théoriquement au fil de l’ouvrage. Ces deux niveaux s’articulent en permanence et de manière souvent paradoxale. Le lecteur est ainsi appelé à devenir une sorte de souverain pour s’assimiler pleinement le sens du texte, en même temps qu’il est incité explicitement par Hobbes à se soumettre au dispositif de lecture. Hobbes construit une sorte de machine textuelle qui identifie les opérations de lecture et les opérations du bon gouvernement. La souveraineté politique et la souveraineté du lecteur sont superposées ou repliées l’une sur l’autre tout au long du texte.

Les conseils de lecture qui ponctuent le Léviathan sont parfois explicites, par exemple quand Hobbes recommande à son lecteur de ne pas faire comme ces oiseaux qui perdent la mémoire de l’entrée dans la pièce où ils sont dès lors bloqués et condamnés à virevolter (une belle métaphore pour l’inattention du lecteur distrait ou vagabond dans sa lecture). Mais certaines prescriptions de lecture du Léviathan restent implicites, sans être moins efficaces pour autant, au contraire. C’est le cas lorsque Hobbes performe l’acte de lecture pour le lecteur, en employant par exemple des expressions apparemment anodines mais en réalité puissamment configurantes telles que « en somme », ou encore en proposant au lecteur des résumés de ce qui a été lu. C’est ainsi que s’établit, que s’impose un dispositif de lecture cumulative, une lecture additive. À savoir un régime de lecture (entendez ce mot de « régime » à la fois dans son sens mécanique ou moteur et dans son sens politique) qui en exclut beaucoup d’autres possibles.

Cette petite machine de lecture, implicite et explicite, explose toutefois lorsque Hobbes conclut sur deux prescriptions contradictoires, enjoignant simultanément le lecteur à opérer une somme intégrale de tout ce qui a été préalablement énoncé et à contester chaque aspect. Car, dit-il sans réaliser pleinement les conséquences de ce qu’il dit, c’est en objectant que l’on peut renforcer sa conviction de la nécessité des arguments et de leur ordre précis d’énonciation. Ce moment, ce point de lecture aux exigences contradictoire est fascinant, car on y voit le code des prescriptions se déconstruire lui-même et faire signe vers son caractère impossible ou aporétique.

LVSL – Vous proposez également une interprétation philosophique du passage du volumen au codex puis du codex à l’écran, pouvez-vous revenir là-dessus. On parle fréquemment de l’infinite scrolling, est-ce un nouveau temps de lecture ?

PS – C’est une question que pose Giorgio Agamben dans « Du livre à l’écran » (l’un de ses textes recueillis dans Le Feu et le récit). Il oppose, d’une part, un temps circulaire et continu qui serait propre au volumen, c’est-à-dire à la forme enroulée d’un rouleau de papyrus ou de parchemin, et, d’autre part, un temps linéaire qui serait celui du codex, c’est-à-dire le cahier paginé, voire indexé, donc discontinu. L’écran paraît conjuguer ces deux propriétés opposées. D’une part, le scrolling se présente comme un déroulement potentiellement infini, même s’il est en réalité bel et bien bordé, limité par des caractéristiques matérielles et spatio-temporelles (il ne saurait y avoir de page infinie car tout stockage est par essence fini). Mais d’autre part, l’hypertexte sur écran se compose d’innombrables renvois sous forme de liens qui sont autant d’indexations, autant de discontinuités, autant de « paginations », si l’on veut, interrompant la continuité du déroulement. Bref, à l’écran, le codex devient volumen et le volumen devient codex.

On est donc face à un déroulement en forme de flux, certes, mais infiniment accidenté, discrétisé ou discrétisable. Cette discrétisation fluide ou cette fluidité discrète de l’espace de lecture relève de ce que Deleuze et Guattari, reprenant une distinction proposée par Pierre Boulez, appelaient le « temps lisse » (ici : celui de la lecture continue) et le « temps strié » (ici : celui de la lecture discontinue, ponctuée par des renvois référentiels). Ces temporalités contrastées se replient sans cesse l’une sur l’autre dans notre expérience contemporaine de la lecture numérique. Et ce faisant, elles invitent à instituer, mais aussi et aussitôt à destituer, de nouveaux dispositifs de lecture-pouvoir constitués par des injonctions — souvent invisibles pour les lecteurs — qui se trament entre ces divers registres, entre ces strates que sont le texte lu, le sous-texte de son encodage ainsi que le formatage inhérent aux supports logiciels et matériels qui les portent.

Plus que jamais, l’acte de lecture, à l’ère du numérique, est tramé, transi de micropouvoirs.

Antonio Casilli : « La menace d’un grand remplacement par les robots est une manière d’assurer la discipline »

© Malena Reali pour LVSL

Le récent engouement autour de ChatGPT a de nouveau ravivé l’éternel débat sur la fin à venir du travail humain, remplacé par des intelligences artificielles et des robots. Pour le sociologue Antonio Casilli, auteur de En attendant les robots : Enquête sur le travail du clic (Seuil, 2019), ces annonces relèvent surtout d’un discours téléologique vénérant excessivement le progrès et de slogans marketing. Ayant étudié finement le fonctionnement concret de ces outils digitaux, il montre combien ceux-ci s’appuient sur du travail humain, généralement gratuit ou très mal rémunéré et reconnu. Plus qu’une disparition du travail, nous devons selon lui craindre, une plus grande précarisation et atomisation de celui-ci.

LVSL : Les médias spéculent régulièrement sur une fin à venir, sans cesse repoussée, du travail humain. Par exemple, en relayant l’étude The future of employment: how susceptible are jobs to computerization qui voudrait que 47% des emplois soient susceptibles d’être automatisés. Comme le titre de votre ouvrage semble l’indiquer (En attendant les robots), vous ne partagez pas cette analyse. Pourquoi ?

A. Casilli : Pour commencer, le titre n’est pas de moi. Ce n’était censé être à la base qu’un des chapitres de cet ouvrage, en l’occurrence le dernier. Cette référence renvoie à deux ouvrages majeurs : d’une part la poésie de Kavafys « En attendant les barbares » et de l’autre la pièce de Beckett « En attendant Godot », deux œuvres majeures du XXe siècle dans lesquelles on évoque une menace qui n’arrive jamais. Il s’agit d’une présence transcendante expliquant l’ambiguïté qui demeure aujourd’hui sur ce type d’automatisation qu’on attend tantôt avec impatience, tantôt avec crainte, mais qui finit toujours par être repoussée.

Moi-même, dans ma jeunesse j’ai eu droit aux vagues de rhétorique sur la fin du travail, à travers notamment l’ouvrage « La fin du travail » de Jeremy Rifkin (1995), qui annonçait la même chose que l’étude de Frey et Osborne dans « The future of employment ». Le message revenait à dire que l’automatisation anticipée allait être telle qu’un nombre important d’emplois disparaitrait sous peu, selon une logique de substitution. Mais si l’on avait face à nous une personne qui aurait vécu par exemple depuis le début du XIXe siècle, elle aurait pu témoigner de rhétoriques et de prophéties comparables parce qu’il n’a pas fallu attendre les intelligences artificielles pour se retrouver face ce type d’annonces.

Ce type de communication s’adresse avant tout aux investisseurs, dotés de ressources matérielles et d’un imaginaire constamment sollicité. L’investisseur est une personne qui doit, comme disait Keynes, se soumettre aux esprits animaux, se démarquer et les suivre dans une espèce de quête chamanique. De l’autre côté, ce discours s’adresse aussi à une force de travail qui a besoin d’être disciplinée. Dans ce contexte-là, la menace d’un grand remplacement par les robots est une manière d’assurer la discipline en les ramenant à une condition purement machinique, à un travail sans qualité, sans talent, sans compétences. C’est donc une manière de déprécier ce travail et de démontrer son inutilité alors qu’il s’agit bien d’un travail nécessaire.

« La menace d’un grand remplacement par les robots est une manière d’assurer la discipline ».

C’est en me concentrant sur ce travail vivant nécessaire qui nourrit la nouvelle vague d’innovation qui émerge avec les intelligences artificielles au début du XXIe siècle, en montrant « l’essentialité » (c’est-à-dire le fait qu’ils requièrent du travail humain, ndlr) de ces métiers de la donnée, que je m’efforce de montrer que l’innovation n’est pas forcément destructrice de travail. Plutôt elle déstructure l’emploi – ou en tous cas la version formalisée et protégée du travail, qui cesse alors d’être un travail encadré selon des principes établis par de grandes institutions internationales comme l’OIT. Ces avancées technologiques rendent le travail de plus en plus informel, précaire, sujet à un ensemble de variabilité et de fluctuations qui répondent autant au marché classique qu’à un nouveau type de marché, celui des plateformes, qui ont leurs propres fluctuations, dues à des logiques moins économiques qu’algorithmiques.

LVSL : Dans ce que vous évoquez justement de déstructuration du travail, en parlant de « travail numérique » nous désignons souvent les travailleurs ubérisés soumis au capitalisme de plateforme, mais vous rappelez aussi dans votre livre qu’il existe d’autres types de « travailleurs du clic ». Lesquels ?

A. Casilli : Ce que je cherche à faire dans cet ouvrage, c’est prendre comme point de départ le travail de plateforme visible qui concerne les métiers de la logistique, des passeports, des mobilités en général. Cela concerne parfois les métiers des services personnels comme ceux du « care » qui soignent des personnes ou s’occupent de tâches domestiques, etc. Tout cela fait partie de la première famille de métiers qu’on qualifie parfois d’« ubérisés ». C’est un terme qu’un industrialiste français, Maurice Levy, a choisi et que l’on a imposé à tout, en « brandisant » c’est-à-dire en attribuant une marque à un phénomène social.

Mais je m’efforce de dire : « Regardons aussi ailleurs ». Le travail plateformisé visible, les nouveaux métiers du clic ou de l’algorithme ne sont que la partie émergée de l’iceberg. Tout le reste est composé de travailleurs qui sont sous la surface de l’automatisation. Il existe deux grandes familles sur lesquelles se concentre la partie centrale de cet ouvrage : d’une part le nombre vraiment important de personnes qui, partout dans le monde, préparent, vérifient et parfois imitent les intelligences artificielles – ce sont les annotateurs de données, les personnes qui génèrent des informations pour entraîner les algorithmes ou pour conduire l’intelligence artificielle.

Dans la continuité de cela, il y a un travail de moins en moins vu, connu, reconnu et payé, tellement informel qu’il devient presque un travail de bénévole voire d’utilisateurs-amateurs, comme chacun et chacune d’entre nous l’est à un moment ou à un autre de sa vie et de sa journée. Par exemple le fait de se servir d’un moteur de recherche en améliorant la qualité des résultats, comme cela arrive à chaque fois qu’on utilise Google, ou de s’insurger contre une intelligence artificielle comme ChatGPT en améliorant par la même occasion la qualité de ses réponses. Il y a donc une continuité entre les personnes qui ne sont pas payées pour réaliser du clic, pour réaliser de l’amélioration de contenu et de service algorithmique, et les travailleurs du clic des pays émergents ou à faible revenu, généralement payés 0,001 centime la tâche. Sur le papier, la différence est vraiment minuscule mais c’est important de la souligner.

« Afin de rendre les travailleurs interchangeables, il faut faire en sorte que l’activité humaine soit standardisée et réduite à son minimum, son unité minimale est alors le clic. »

© Marielisa Ramirez

LVSL : Pour reprendre les termes que vous utilisez dans le livre, vous distinguez trois formes de « travail digital ». Le travail des petites mains du numérique, c’est-à-dire le travail à la demande (prestation de petites interventions comme Uber, Deliveroo, etc.) ; le micro-travail qui fournit le soutien aux algorithmes par des tâches standardisées de mise en relation de données et le travail social en réseau qui est la participation des usagers à la production de valeur. Dans la droite lignée du taylorisme, ces nouvelles tâches témoignent-elles d’une nouvelle organisation du travail qui n’est pas aboli par le numérique mais simplement fractionné et décentralisé à un degré supérieur ?

A. Casilli : Oui, vous avez bien résumé les trois familles de travail, mais on peut encore faire un effort supplémentaire pour caractériser cette activité dont on parle. Pour qualifier ce « travail numérique », on peut aussi bien employer deux autres adjectifs. C’est un travail qui est « datafié » et « tâcheronisé ». « Datafié » signifie qu’il produit de la donnée et qu’il est lui-même produit par la donnée. « Tâcheronisé » c’est-à-dire atomisé, segmenté en petites tâches. Afin de rendre les travailleurs interchangeables, il faut faire en sorte que l’activité humaine soit standardisée et réduite à son minimum, son unité minimale est alors le clic.

Sommes-nous là face à une continuation du taylorisme ? La réponse est un peu compliquée dans la mesure où le taylorisme, tel qu’on le connaît historiquement, était synthétiquement dû à la gestion scientifique et non à la gestion algorithmique. Il y a une différence importante entre ces deux conceptions parce que la définition de Taylor était celle d’un travail sur plan, avec un cahier des charges pour des personnes intermédiaires puis des exécutants et des ouvriers. Il y avait une chaîne hiérarchique et une manière d’organiser ce travail par des échéances précises : chaque semaine, chaque jour, chaque mois, chaque année. Il s’agissait donc d’un travail de plan tandis que le travail de plateformes qui sert à produire ces intelligences artificielles est un travail à flux tendu. Cela signifie que les manières d’associer un exécutant et une tâche passe plutôt par un modèle mathématique qu’est l’algorithme qui apparie un être humain et un contenu (ex : quel chauffeur va s’occuper de quelle course). Dans la mesure où cette logique est différente, elle bouleverse également l’équilibre politique auquel le taylorisme avait conduit, que l’on résume parfois par l’économie du fordisme-taylorisme qui repose sur une production de masse, qui, à son tour, produit des marchés de consommation de masse.

Là, on est face à une organisation plus compliquée et à des micro-marchés, des marchés de niche qui sont réalisés ad hoc, créés par l’algorithme même. Pour terminer, le type de protection sociale qui allait de pair avec le fordisme-taylorisme a été complètement abandonné pour la raison qu’on ne se trouve pas dans une situation dans laquelle il faut assurer un salaire stable afin que ces employés puissent se permettre de consommer la production même de leur propre usine ou de leur entreprise. Aujourd’hui, ce n’est pas à Uber de s’occuper de donner suffisamment d’argent à une personne pour qu’elle puisse s’offrir des produits ou des services Uber. Il y a effectivement une séparation totale entre ces deux aspects, ce qui débouche sur un travail beaucoup moins protégé, qui offre beaucoup moins de certitudes quant à son existence même et à son activité, donc à sa rémunération. En outre, cela génère moins de protection sociale du point de vue de l’assurance, de la carrière, de la formation, de la retraite, et ainsi de suite. Tout ce qui faisait l’équilibre sociopolitique dans la deuxième moitié du XXe siècle – du moins dans les pays du Nord – est aujourd’hui laissé de côté et les plateformes qui produisent l’intelligence artificielle et qui se basent sur ce concept de « digital labour » sont finalement la réalisation et l’achèvement ultime de l’idéal néolibéral du chacun pour soi et du travail pour personne.

« Moi j’ai jamais rencontré les gens avec lesquels je travaille et encore moins les gens pour lesquels je travaille parce que, tout simplement, je me connecte sur un site et je coche des cases »

LVSL : Vous évoquez dans votre livre des tâches comme l’incorporation de données dans les IA, le tri des doublons, la mise en lien de recommandations, etc. Il s’agit d’un travail qui ne met pas directement en jeu les forces du travailleur mais plutôt des qualités cognitives comme la faculté de discernement, de jugement ou encore de discrimination. En outre, nous avons affaire à des personnes qui sont individualisées du simple fait qu’il s’agisse d’un travail qui s’effectue la plupart du temps seul, face à un écran. Par conséquent, face à la fois à ce changement de lieu de travail, à cette atomisation du travail et au fait que les facultés qui sont mobilisées sont d’ordre cognitives, est-ce pour vous le signe d’un nouveau prolétariat de type cognitif ou digital ?

A. Casilli : Je dirais qu’il y a clairement la formation d’une nouvelle subjectivité politique, qu’on peut appeler « nouveau prolétariat ». À la fin du livre, je fais d’ailleurs tout un effort pour étudier dans quelle mesure on peut parler de classe mais ma réponse est assez dubitative. Pour l’instant, j’insiste beaucoup sur le fait que la nouveauté présentée, par exemple par le microtravail plateformisé, c’est-à-dire des personnes qui se connectent sur des applications spécialisées où elles réalisent des micro-tâches rémunérées à la pièce, est un cas de freelancing extrême, parce qu’extrêmement fragmenté. Selon des estimations de nos collègues d’Oxford à peine en moyenne deux dollars par heure ; même si par ailleurs ils n’ont pas un contrat horaire mais sont payés à la pièce.

Vous ne travaillez plus par projet, même s’il demeure certaines caractéristiques du freelancing qui s’est imposé depuis l’arrivée du télétravail dans les années 90. Il s’agit alors d’un aboutissement, d’une version poussée à l’extrême de cette tendance. Il subsiste toutefois un autre élément important qui nous permet de complexifier ce qu’on peut dire aujourd’hui à propos de ce microtravail. Je le caractérise comme un travail en solitaire, où les personnes travaillent chacune depuis [leur] foyer, et nous avons par ailleurs réalisé avec France Télévisions un documentaire nommé Invisibles dans lequel nous avons interviewé des microtravailleuses. La première chose qu’une d’entre elles nous a dite est : « Moi j’ai jamais rencontré les gens avec lesquels je travaille et encore moins les gens pour lesquels je travaille parce que, tout simplement, je me connecte sur un site et je coche des cases ».

Quelle est l’autre caractéristique de ce freelancing extrême ? Et bien, c’est tout simplement que le travail se déplace vers les pays dans lesquels la main d’œuvre est moins chère. Comme les rémunérations sont à la baisse et que cela se transforme en une espèce de foire d’empoigne, les pays dans lesquels on rencontre un nombre plus important de microtravailleurs ne sont pas forcément les pays du Nord mais ceux de l’hémisphère Sud. On a beaucoup parlé de la Chine et de l’Inde mais ce sont des cas complexes dans lesquels vous avez autant de grandes startups qui font de la valeur ajoutée que des microtravailleurs. Il y a aussi des pays qui sont dans des situations d’extraction néocoloniale poussées à l’extrême.

Les pays sur lesquels nous avons travaillé avec mon équipe de recherche DiPLab sont des pays d’Afrique francophones et des pays d’Amérique latine. Dans les deux dernières années et dans la foulée de cet ouvrage, nous avons réalisé plusieurs milliers d’entretiens et de questionnaires avec des travailleurs dans des pays comme Madagascar, l’Égypte, le Venezuela, le Mexique, la Colombie et le Brésil. Dans ce dernier cas, on rencontre souvent de véritables fermes à clics responsables des faux followers sur Instagram ou des visionnages YouTube ou TikTok. C’est une manière de tricher avec les algorithmes bien qu’il s’agisse du bas de la pyramide, et ces personnes peuvent travailler depuis chez elles. Dans d’autres contextes par contre, à Madagascar ou en Égypte, de gros marchés de l’offshoring (externalisation ndlr) se sont créés. Là-bas, les microtravailleurs ne travaillent pas depuis chez eux, mais depuis des structures variées : certains travaillent depuis chez eux, certains depuis un cybercafé, d’autres vont taxer le wifi de l’université et certains ont de véritables bureaux avec des open spaces plus ou moins structurés. Il y a donc des situations très différentes, avec parfois des petits jeunes de banlieue d’Antananarivo qui organisaient une espèce d’usine à clics avec d’autres copains du quartier et d’autres personnes qui utilisaient une maison avec 120 personnes, vingt dans chaque pièce, réalisant des microtravaux. Cette atomisation semble donc concerner principalement les pays à plus hauts revenus. Dans les pays à plus faibles revenus, les formes de travail du clic sont très variées, du bureau classique à la plateforme.

LVSL : Cette diversité des travailleurs du clic semble assez symptomatique d’un milieu du numérique qui serait encore relativement une zone de non-droit du travail dans la mesure où il s’agit d’un domaine relativement récent et décentralisé. Le travail y est mal reconnu, souvent ingrat, organisé de manière nébuleuse, etc. Est-ce en raison de ce flou que le capitalisme y prospère ou est-ce que ce flou est lui-même un produit de la dérégulation capitaliste ?

A. Casilli : La question de la dérégulation a une longue histoire, c’est la doctrine du laisser-faire du XVIIe siècle dont la doctrine capitaliste hérite. Elle concerne principalement le fait d’enlever un nombre important de dépenses, de cotisations et d’impôts qui pèsent sur les entreprises et ensuite de laisser ces entreprises faire des profits et les redistribuer à leurs investisseurs. Ici, le problème se pose en termes très classiques selon la différence en économie politique entre profits et salaires. Grosso modo, cette dérégulation s’est soldée par un déplacement important de ressources qui faisaient partie des salaires, ce qu’on appelle le « wage share », la part des salaires vers les profits. Toute la rhétorique actuelle sur les superprofits porte aussi sur cela ; la montée en flèche lors des dernières décennies, des profits et des dividendes pour les investisseurs et les chefs d’entreprise. A contrario, on a vu une diminution drastique du salaire réel, du pouvoir d’achat et en général de la masse salariale. Pour réduire cette masse salariale, soit on vire des personnes – mais on ne peut pas virer tout le monde –, soit on remplace des personnes bien payées par des personnes moins bien payées. De cette manière-là, à parité des effectifs et de quantité de travail, on se retrouve à payer moins pour la masse salariale.

« On n’a pas vu une diminution drastique du travail en termes de temps de travail mais plutôt une diminution drastique du travail payé et une augmentation du travail non payé. Là est la base de cette économie des plateformes. »

Ce que je m’efforce de montrer, avec d’autres, c’est qu’on n’a pas vu une diminution drastique du travail en termes de temps de travail mais plutôt une diminution drastique du travail payé et une augmentation du travail non payé. Là est la base de cette économie des plateformes qui crée une concurrence entre les travailleurs pour revoir à la baisse leur rémunération, parce que l’algorithme va favoriser celui qui va réaliser la même tâche à un prix moindre, comme on le voit avec les livreurs express. C’est vrai notamment depuis le Covid, avec un nombre important de nouveaux inscrits sur ces plateformes et une baisse drastique des rémunérations en plus d’une réaction interne de conflictualité syndicale. La même chose se passe évidemment aussi sur les plateformes dites « de contenu », qui se disent « gratuites » mais ne le sont pas vraiment : parfois il faut payer pour y être et souvent elles payent les personnes qui sont actives d’une manière ou d’une autre. Le cas classique est celui de la monétisation des contenus qui est devenue un geste désormais banal pour pouvoir exister sur certaines plateformes comme Instagram, TikTok ou YouTube et y avoir une présence véritable. Cela signifie que l’on a une coexistence dans les mêmes espaces d’un travail non rémunéré, d’un travail faiblement rémunéré, d’un travail micro-rémunéré et tout ça crée une baisse progressive de la masse salariale pour une équivalence voire une augmentation de la production en termes de contenu, d’informations, de service, etc.

LVSL : Pour vous, la dérégulation est donc le produit de la structure et de son fonctionnement, elle n’est pas seulement le terreau dans lequel elle s’épanouit même si de fait elle crée un terrain qui est propice à sa propre perpétuation.

A. Casilli : Tout à fait. Si on regarde du côté des entreprises, on remarque qu’elles tendent à favoriser de plus en plus la redistribution de dividendes importants plutôt que le réinvestissement pour créer de nouvelles ressources, etc. Si l’on regarde ensuite comment les entreprises fonctionnent, on a des surprises qui sont parfois amères : durant nos recherches sur le travail de plateforme, on s’est rendu compte du chaos qui domine au niveau de la gestion de cette force de travail dans la mesure où les plateformes ne reconnaissent pas que ces microtravailleurs effectuent des tâches importantes pour la production de valeur de l’entreprise et donc ne les encadrent pas. Il n’y a donc pas de « ressources humaines ». Ce sont par exemple le responsable des achats ou les ingénieurs qui s’occupent d’organiser le pipeline pour la mise en place du machine learning.

Or, ce ne sont pas des personnes formées pour gérer des êtres humains donc ils engendrent des désastres parce qu’ils ne savent pas entendre les problématiques, ils ne comprennent pas que ces personnes-là sont habituées à une certaine protection de leur travail, en connaissance de leurs droits, ce qui est tout à fait normal. On a donc une forte conflictualité dans ces entreprises qui ne sont pas capables de gérer la transition vers la plateformisation totale.

Mobilisation des livreurs © Marion Beauvalet
Mobilisation de livreurs Deliveroo
© Marion Beauvalet

LVSL : Toutefois, il n’y a pas que les travailleurs du clic rémunérés : dans notre présence virtuelle, nous fournissons régulièrement des matériaux à des systèmes dits « collaboratifs » (cookies, avis, évaluations, etc.) qui mettent en place des systèmes de gratification affective (ce que vous appelez des « produsagers », contraction de « producteur » et « usager »). Le fonctionnement des plateformes numériques abolit-il la séparation entre travail et loisir ?

A. Casilli : C’est un peu plus complexe que cela car c’est comme si les plateformes cherchaient constamment à monter au maximum le volume tant du travail que du plaisir. L’exemple récent qui me vient à l’esprit, c’est ChatGPT. ChatGPT est une intelligence artificielle qui n’a rien d’extraordinaire sauf qu’elle fait bien semblant d’entendre et de répondre à des questions. C’est un système assez classique qu’on appelle « question answering » comme modèle de machine learning, mais entouré d’une espèce d’aura de grande innovation, voire de révolution. Cela oblige tout un tas de personnes à se connecter à ChatGPT, à interagir avec elle et par la même occasion à l’améliorer, puisque chaque réponse négative ou à côté de la plaque de ChatGPT est systématiquement dénoncée par la personne qui la reçoit, ce qui améliore l’IA.

« Tout ça n’est une opération de marketing de OpenIA, qui est arrivée à créer un engouement lui offrant une main d’œuvre non rémunérée massive pour tester ChatpGPT. »

Il y a là une espèce de joie perverse de jouer à ce jeu, de se faire mener un bateau par un système qui est seulement dominé par une logique de marketing. Tout ça, en effet, n’est qu’une opération de marketing de OpenIA, qui est arrivée à créer un engouement lui offrant une main d’œuvre non rémunérée massive pour tester ChatpGPT.

La dimension de travail se comprend bien si on voit la continuité entre les utilisateurs lambda et non rémunérés de ChatGPT et de l’autre côté les personnes qui sont dans le back office de ChatGPT : un mois et quelques après le lancement de cette intelligence artificielle, on a découvert que ça fait des années qu’OpenIA recrute systématiquement des microtravailleurs kenyans payés 1$ de l’heure pour sélectionner les réponses, taguer des contenus etc. À côté de cela, puisque ChatGPT est aussi un outil utilisé pour produire du code informatique, il y a eu un recrutement de personnes qui sont des tâcherons du code pendant l’année 2020. Ces tâcherons du code devaient produire des bouts de code, débuguer des codes alors qu’elles n’avaient parfois pas une compétence informatique très élevée. C’étaient parfois des petits étudiants en première année ou des personnes qui savaient à peine reconnaître que dans cette ligne de code il y avait une parenthèse qui ouvrait mais il n’y en avait pas qui fermait et c’était suffisant pour débuguer la ligne. Il y a un continuum entre ces tâcherons du clic et nous-mêmes, qui fait bien de ChatGPT avant tout une entreprise de travail humain vivant. J’aurais pu dire la même chose du moteur de recherche de Google mais il est là depuis un quart de siècle donc c’est un peu moins d’actualité.

LVSL : Avec cet entrelacs du producteur à l’usager qui s’est formé, l’outil numérique ne semble plus être une extension de la main de l’homme. Le travail humain tend au contraire à devenir une extension de l’outil. Identifiez-vous le travail digital comme une nouvelle forme d’aliénation double car le travailleur n’est plus seulement soumis à la machine (comme c’est déjà le cas depuis le taylorisme) mais disparaît derrière elle parce que l’aliénation ne concerne plus seulement le travailleur mais aussi le « produsager » qui n’est même pas reconnu comme travailleur ?

A. Casilli : Pour résumer, les deux types d’aliénation dont vous parlez sont une aliénation de la visibilité et une aliénation du statut pour faire court. La question de la visibilité est un problème important mais en même temps c’est aussi un problème qui nous permet d’identifier où est le nœud problématique. Ça fait longtemps qu’en sciences sociales, on s’occupe de reconnaître des formes de travail non visibles : on l’appelle shadow work, ghost work, virtual work, etc., chaque auteur a sa propre définition. Moi j’ai cherché à mon tour à parler de ce travail non ostensible, « unconspicuous labor », qui est une manière de jouer sur la notion de consommation ostentatoire. C’est une manière de dire que si notre consommation se fait visible, on s’affiche en train de consommer, on ne s’affiche pas en train de produire et on a presque honte de ce qu’on produit quand on le produit. C’est pour ça que nous-mêmes nous adhérons à la rhétorique du « C’est pas un travail, c’est un plaisir : je ne suis pas un journaliste précaire, je suis un blogueur », « Je ne suis pas une animatrice télé qui ne trouve pas d’emploi, je suis une influenceuse Twitch ».

C’est une [façon] de se raconter d’une manière ou d’une autre que la précarité est moins grave que ce qu’elle est. Il ne faut pas sous-estimer le côté aliénant de cela, surtout un terme de désencastrement des individus de leur réseau de solidarité et d’amitié qui est normalement assuré par les activités de travail formel. Je ne veux pas dire que la vie avec les collègues est un paradis, mais que le travail formel crée un cadre qui permet de situer un individu au sein d’un réseau de relations. Ce qui devient beaucoup moins simple à faire pour le travail du clic. Il y a un vaste débat dans ma discipline sur l’encastrement ou le désencastrement social des travailleurs des plateformes, qui porte sur cette confusion énorme qui existe entre le côté productif et le côté reproductif des plateformes. Le côté productif, on le voit à chaque fois qu’on nous demande de produire une donnée, mais parfois cette injonction est là pour stimuler notre plaisir, nos attitudes, nos désirs, nos envies de se mettre en valeur, de se mettre en visibilité, et ainsi de suite. Cela peut se transformer en loisir, dans une activité sociale, et qui est alors plutôt du côté de la reproduction. Là c’est effectivement une aliénation qui renforce cette confusion.

De cela découle directement la deuxième aliénation qui est l’aliénation de statut, c’est-à-dire la difficulté à obtenir un statut de travailleur de la reproduction sociale. Mais ce n’est pas impossible : regardons par exemple les combats féministes, qui ont fait en sorte que tout un tas d’activités auparavant considérées comme purement reproductives soit inscrites dans la sphère du travail socialement reconnu, avec des rémunérations et des protections sociales : le travail domestique, le travail de care, etc. Toutefois, cette rupture de l’aliénation n’arrive pas de manière spontanée, par simple progression du capitalisme vers des formes plus douces et sociales-démocrates, mais cela arrive au fil et au bout des luttes sociales.

LVSL : Puisque votre ouvrage critique une conception téléologique du progrès technologique où l’on avance vers la fin du travail, comment envisagez-vous l’avenir du travail numérique, surtout avec l’explosion récente des plateformes d’intelligence artificielle ?

A. Casilli : Pour ma part je pense qu’il faut se méfier des effets d’annonce médiatiques. Je suis assez bien placé pour savoir comment la fabrique médiatique de ces phénomènes sociotechnologiques est structurée à coups de communiqués de presse d’entreprises qui produisent un nouveau service, une nouvelle application, une nouvelle intelligence artificielle et de rédactions de journaux ou de presse qui, pour chercher à produire du contenu, cèdent au plaisir de se faire porte-voix de ce type d’allégations.

Je ne pense pas qu’il y ait une explosion de l’intelligence artificielle. Au contraire, je remarque que l’intelligence artificielle rame, qu’il y a des échecs de l’intelligence artificielle, il y a des domaines de l’intelligence artificielle qui se sont cassé la gueule, par exemple l’intelligence artificielle des machine learnings non supervisés dont on annonce toujours des trucs merveilleux qui n’arrivent jamais. Ou alors on a des effets de mode durant quelques temps, comme la blockchain récemment, qui est sujette à des échecs répétés tous les quelques mois. Je ne suis pas technophobe, mais plutôt dans une forme de scepticisme qui permet de voir l’innovation là où elle est vraiment. Or, l’innovation n’est pas dans l’intelligence artificielle, qui ne fait pas de progrès par pas de géants.

« Certains métiers du clic se sont aussi imposés comme des métiers essentiels, par exemple la livraison ou la modération de contenus. »

En revanche il y a eu des chocs exogènes, par exemple le Covid, la crise sanitaire, la crise économique et la crise géopolitique qui ont suivi. Ces enchaînements de catastrophes ont fait en sorte que le marché du travail de 2023 soit assez différent par rapport aux marchés du travail des années précédentes : en 2019, le nombre de personnes employées formellement était supérieur à toutes les époques précédentes de l’humanité, ce qui est évident parce qu’il y a aussi un nombre plus important d’êtres humains. Avec le Covid, on a eu d’abord un moment d’arrêt généralisé des échanges internationaux et parfois des croissances importantes de certains pays en termes de performances industrielles et d’autre part on a vu aussi ce prétendu « triomphe du télétravail », qui ne s’est pas soldé dans une espèce de dématérialisation de toutes les activités mais qui nous a aidés à identifier certaines activités qu’on appelle aujourd’hui « essentielles » (logistique, commerce, agroalimentaire, santé…).

Mais certains métiers du clic se sont aussi imposés comme des métiers essentiels, par exemple la livraison ou la modération de contenus, tous des travailleurs qui ont été classifiés comme « essentiels » par de grandes entreprises telles que Facebook et YouTube comme prioritaires pour revenir au travail en présentiel, alors que les autres ont été tranquillement mis au télétravail pendant deux ans et demi, avant d’être licenciés. C’est quelque chose d’important car on peut difficilement se passer du travail de modération, qui est d’ailleurs difficile à faire à distance, parce qu’il est difficile de modérer des vidéos de décapitation quand derrière vous il y a vos enfants qui jouent, ou de regarder des contenus vraiment problématiques, violents, déplacés alors qu’on passe à table. À moyen terme, je ne vois pas ce travail disparaître, je le vois devenir de plus en plus central, mais malheureusement je ne le vois pas non plus devenir plus digne et reconnu pour autant.

« Les microtravailleurs ne sortent pas dans la rue mais on les voit beaucoup dans les tribunaux, lors d’actions de recours collectif ou d’actions pour la reconnaissance de leur travail. »

C’est là le nœud conflictuel des prochaines années, celui de la reconnaissance de ces travailleurs. Plusieurs signes indiquent qu’on est face à de nouveaux conflits sociaux au niveau international, car on commence à avoir une structuration précise et cohérente des travailleurs et de nouvelles luttes sociales émergent. On voit notamment apparaître beaucoup de revendications qui passent par les cours de justice. Les microtravailleurs ne sortent pas dans la rue mais on les voit beaucoup dans les tribunaux, lors d’actions de recours collectif ou d’actions pour la reconnaissance de leur travail. Au Brésil, on a eu une victoire importante contre une plateforme de microtravail qui a été obligée de requalifier comme « salariés » quelques milliers de travailleurs.

LVSL : Au fondement de toutes ces activités, les algorithmes reposent essentiellement sur une approche positiviste du monde où tout est classable, identifiable et mesurable. En mettant en lumière le travail des tâcherons du numérique qui trient et jugent en support des algorithmes, ne révélez-vous pas l’insuffisance de cette vision positiviste ?

A. Casilli : J’ai, si l’on veut, une approche un peu plus « irrationnaliste » du tissu social. Je pense que la mise en données est une entreprise qui a une longue histoire : elle puise ses racines dans le positivisme historique à la fin du XVIIIe siècle, début XIXe, au niveau de la création d’une attitude positiviste et en même temps des ancêtres de ce qu’on appelle aujourd’hui les intelligences artificielles. Dans le nouveau livre sur lequel je travaille, je m’intéresse aux origines du travail du clic, par exemple le fait qu’en France et dans d’autres pays d’Europe, on avait créé à cette époque des ateliers de calcul dans lesquels des centaines de personnes, souvent pas des mathématiciens du tout, des personnes qui avaient d’autres formations (des ouvriers, des instituteurs ou institutrices souvent), qui calculaient un peu tout : des tables trigonométriques pour le cadastre de Paris, les positions du Soleil pour l’observatoire de Greenwich, etc. On pourrait l’interpréter comme une mise en chiffres du réel, mais celle-ci est d’un type particulier car il ne s’agit pas seulement d’une quantification faite par le biais des grandes institutions statistiques étatiques : recensements, mesures, etc. Ce ne sont pas des géomètres ou des statisticiens qui ont opéré cette mise en donnée du monde, ce sont souvent des personnes dont on n’a pas conservé le nom ou les coordonnées, qui ont calculé pendant des années et des années des entités mathématiques qui ont été nécessaires pour créer un type particulier de machines, par exemple les machines à calculer ou pour observer certains phénomènes astronomiques, des machines balistiques pour l’armement, etc. Ce fut un grand élan de mise en données qui ne fut pas seulement de la quantification, mais une manière de créer de la connaissance précalculée qui est ensuite utilisée pour produire des machines qui calculent.

C’est le même principe que celui des intelligences artificielles d’aujourd’hui. ChatGPT s’appelle « GPT » parce que le « P » signifie « pretrained », tout ce que la machine sait faire a été précalculé par des êtres humains. On voit là réapparaître ce type de positivisme un peu particulier parce que ce n’est pas un positivisme de grands idéaux, de grands systèmes, mais un positivisme de la microdonnée, de la microtâche, du microtravail, quelque chose de beaucoup plus terre à terre et de beaucoup plus intéressé à un résultat économique assez immédiat. Si l’on veut, malgré les grands discours de colonisation de l’espace et de réforme de l’esprit humain par certains milliardaires de la Silicon Valley, on est en face de personnes qui cherchent à gratter un peu d’argent pour arriver à la fin du mois, même du côté des milliardaires.

De quoi les data centers sont-ils le nom ?

© Rosa Menkman

Depuis quelques années, le système énergétique français est bouleversé par l’arrivée massive et sans précédents des opérateurs privés du numérique, qui transforment l’espace, les réseaux énergétiques et les consommations. C’est à ce « continuum électrico-numérique » que Fanny Lopez s’intéresse dans son dernier ouvrage À bout de flux (Éditions divergences, octobre 2022). L’historienne de l’architecture et des techniques revient sur le développement de ces infrastructures numériques, à la fois omniprésentes et invisibles, et sur les risques liés à leur insertion dans les télécommunications et infrastructures énergétiques nationales.

Ces données qui modifient le territoire

Moins visibles que les autres infrastructures de télécommunication, les centres de données, enjeu de stockage industriel et de traitement des données, sont le signe du déploiement sans précédent des infrastructures numériques. Fanny Lopez, auteure d’un rapport pour l’Ademe intitulé « L’impact énergétique et spatial des infrastructures numériques » (2019) revient dans son dernier ouvrage, sur leur insertion à la fois territoriale et énergétique dans les réseaux des télécommunications.

À bout de flux, Fanny Lopez ((Divergences, octobre 2022)

Accompagnant les besoins nouveaux des citoyens, mais surtout des entreprises, le nombre et la superficie des centres de données a explosé en quelques années, reconfigurant les territoires. La réduction du prix des câbles – les coûts ayant été divisés par dix pour une capacité multipliée par 50 en vingt ans – a en effet conduit à l’hyper-concentration de ces centres de données et au développement monofonctionnel des territoires, un phénomène que la maîtresse de conférence qualifie d’« effet magnet ». L’étude Data Gravity de l’Université de Berkeley[1] montre ainsi que les données échangées par les 2000 plus grandes entreprises mondiales s’accumulent autour de 50 villes dans le monde. En France, RTE prévoit une multiplication par trois de la consommation des centres de données à l’horizon 2050[2].

Spatialement, cette hyper-concentration se traduit par l’émergence de grandes banlieues autour des grands hubs mondiaux, à l’instar de Ashburn en Virginie, au Nord de Washington qui compte 270 centres de données consommant 2000 MG soit l’équivalent de 200 centrales nucléaires.  Économiquement, le développement de ces « zones numériques monofonctionnelles » est corrélé à une tendance à la monopolisation croissante des acteurs. En 2019, Microsoft comptait 115 partenaires de centres de données, et 20 en 2022.  

Éclairer la matérialité du grand système technique électrique 

Ce renforcement économique et spatial de l’hyperconcentration des données incite Fanny Lopez à produire une déconstruction méthodique des présupposés idéologiques et technologiques qui guident ces processus historiques. L’objectif de l’auteure est de mettre en lumière les conséquences spatiales, environnementales, urbanistiques des « grands systèmes électriques » et les enjeux et perspectives inhérents à ces infrastructures, à l’heure où elles doivent être renouvelées. Selon l’auteur « Éclairer la matérialité du grand système électrique, c’est tenter de recomposer une intelligibilité technique. S’intéresser à la transmission et à la distribution, c’est revenir sur la forme et l’échelle des mailles du réseau et donc questionner les fondamentaux de l’urbanisme des flux : rapport centre-périphérie, production-consommation, densité-étalement, phénomènes de métropolitisation et de hubs ». En d’autres termes, la considération des effets de ces infrastructures invite mécaniquement à une réflexion critique sur l’imaginaire qui sous-tend ce qu’elle nomme « le productivisme des flux ». 

« Avec la digitalisation, les infrastructures numériques et électriques tendent à se confondre dans un continuum électrico-numérique » 

L’électricité a permis l’essor des télécommunications, en assurant la mobilité de toutes les machines. Mais c’est avec l’arrivée de l’informatique couplée aux possibilités permises par l’électricité qu’on assiste à une convergence des machines, et à une fusion de celles-ci dans le cadre d’un système d’interconnexion croissant. Dans la continuité de la pensée du philosophe Günther Anders, Fanny Lopez revient sur cette nouvelle « ontologie des appareils », avec l’idée que le développement sans limite de ces machines fait de l’homme un prolongement de celles-ci et non l’inverse. Ainsi, l’électricité couplée à l’outil numérique forme une « méga-machine » (Günther Anders). Du fait de l’interconnexion de celles-ci, les machines s’autorégulent et précèdent l’intervention humaine. Les échanges « d’individus à machine » (échanges de mails, envoi de données par smartphone, etc.) ne représentent que 20 % des flux de données, tandis que 80 % de la création de données est produite par les entreprises. 

 « Il n’y a pas de problèmes de production d’électricité en France »

Contrairement à l’opinion courante selon laquelle la numérisation des activités économiques et administratives permettrait d’alléger la facture énergétique de la planète, on constate au contraire que   les infrastructures numériques sur lesquelles reposent les services numériques pèsent de plus en plus lourd sur nos infrastructures électriques et, partant, sur notre consommation énergétique globale. En effet, les grands opérateurs privés très énergivores se rattachent au réseau de distribution ou de transport électrique selon l’importance de leur consommation pour leur usage quotidien, tout en s’assurant une production électrique de secours au besoin. Les centres de données disposent de générateurs de secours pour leurs besoins propres, en cas de panne sur le réseau électrique. Ainsi constate-t-on avec la digitalisation à la fois la hausse de la consommation de l’électricité et une redondance infrastructurelle, alors même que les opérateurs publics n’ont pas de leviers d’action vis-à-vis de cette demande croissante. 

D’un côté, les limites de notre modèle énergétique semblent évidentes. À l’heure actuelle, les réacteurs nucléaires vieillissent, l’EPR de Flamanville ne fonctionne toujours pas. De l’autre, tous les grands scénarios énergétiques présentées par RTE à l’horizon 2050 prévoient l’augmentation de la production d’électricité en lien avec l’électrification des usages. À l’occasion de la présentation des scénarii « Futurs énergétiques 2050 », les dirigeants de RTE insistaient en outre sur la nécessité de restructurer les réseaux à court terme, en s’appuyant sur les outils numériques pour optimiser le réseau électrique. L’idée étant que le numérique assure une utilisation plus flexible de l’électricité, notamment avec les « smart grid » et l’Intelligence artificielle. Pour Fanny Lopez, cela revient à dire qu’« avec la digitalisation, les infrastructures numériques et électriques tendent à se confondre dans un continuum électrico-numérique ». 

« L’hégémonie technicienne repose sur la croissance et le renforcement du grand système électricité comme unique perspective »

Les investissements économiques importants déployés pour soutenir ce modèle de grand système technique centralisé hérité du début du siècle semblent pourtant de plus en plus incompatibles avec les différentes limites planétaires. L’amélioration de l’efficacité énergétique ne garantit pas à l’heure actuelle des effets équivalents en termes des émissions de gaz à effet de serre à ceux qu’auraient des modifications structurelles des modes de productions qui les conditionnent et les déterminent. Notre modèle de production énergétique reste adossé à la production massive de données, encouragée par des acteurs privés et conduit à l’explosion de ces data centers qui transforment nos territoires. Ainsi, « l’hégémonie technicienne repose sur la croissance et le renforcement du grand système électricité comme unique perspective ».

Tandis que le débat public énergétique tourne généralement autour des sources d’énergie et dudit « mix énergétique » sans jamais porter sur les infrastructures en elles-mêmes, Fanny Lopez soutient que « sortir de ce cycle infernal, c’est assumer une discussion sur la transformation de toute la structure du réseau, depuis la production jusqu’à la distribution ».  

De la privatisation croissante des infrastructures

La crise de notre système électrique et énergétique actuel met en évidence les limites de notre modèle, et invite à prendre pleinement la mesure de la déstabilisation des territoires par l’arrivée massive des opérateurs numériques privés : « Alors que les politiques urbaines et les politiques publiques ont fait de la ville connectée, autrement appelé smart city, un objet de prospective urbaine, la réalisation de l’infrastructure reste aux mains d’une industrie privée poussée par la fièvre connectique et les parts de marché associées au grands projet de l’interconnexion des machines dont le nombre, la consommation électrique et le poids environnemental ne pourront se perpétuer, alors même que le cercle de la logique technologique du capitalisme tardif rend la technique de plus en plus étrangère aux besoins fondamentaux ». 

Le déploiement des infrastructures numériques se réalise aujourd’hui sous l’emprise d’entreprises privées. Or, comme le montre l’auteur, l’ampleur des infrastructures des télécommunications a été rendue possible par d’importants investissements publics. Dans le secteur des télécommunications, l’inflexion libérale a été particulièrement manifeste malgré l’invisibilité de ces infrastructures qui nous empêche de prendre la mesure de l’évolution du déploiement de celles-ci.

Or la dynamique actuelle des infrastructures du numérique se révèle de plus en plus incompatible avec les missions remplies par les infrastructures des services publics, compris au sens large comme un « objet socio-technique dont l’usage partagé est réglementé dans une perspective d’accessibilité et de respect de l’environnement » (p. 33). En effet, les infrastructures numériques captent l’énergie des infrastructures publiques selon le principe de la file d’attente qui prévoit que le premier arrivé est le premier servi sans hiérarchisation ni priorisation des usages. En outre, la consommation électrique et numérique est favorisée, dans le cadre de ce que Günther Anders appelle la « mégamachine » susmentionnée, sans qu’une optimisation des usages ne soient envisagée à l’aune des impératifs climatiques. Pour ces raisons, Fanny Lopez estime ainsi que « les réseaux numériques se développent dans un « âge post-service public ».

 « Changer de société, c’est changer d’infrastructure » (Castoriadis)

À l’heure où nous avons de nombreux débats publics autour des sources d’énergie et d’électricité, peut-être devrions nous réfléchir aux systèmes mêmes de nos infrastructures, caractérisées par leur interconnexion pour repenser des reconfigurations structurelles. C’est en tout cas ce à quoi ce livre nous invite. 

À la fin de l’ouvrage, Fanny Lopez propose ainsi des pistes de réflexion pour penser une alternative à notre modèle actuel de réflexion sur les infrastructures. Contre l’idée selon laquelle remettre en question notre modèle imposerait d’en passer par des positions technophobe ou réactionnaire, l’auteure avance des éléments de résolution pour reconsidérer notre technostructure électrique. Ce qui suppose d’éviter deux écueils. Le champ de cette réflexion est en effet selon elle considérablement limité, du fait de deux conceptions antinomiques de la technologie. L’imaginaire technique est soit cantonné à l’ « hégémonie culturelle libérale » très techno-solutionniste, soit restreint à l’« imaginaire effrondiste ».

À rebours de ces conceptions réductrices, il faudrait selon elle réinvestir l’imaginaire des machines, pour nourrir l’idéal d’un réseau efficace et garant d’une égale distribution des services sur l’ensemble du territoire. Pour ce faire, elle invite à considérer deux échelles de gouvernance, nationale et communale : « Parvenir à re-utopiser la grande échelle infrastructurelle tout en tenant la technique proche serait un défi de l’hypothèse redirectionniste ». Cette dialectique du proche et de la grande échelle invite ainsi à penser des infrastructures « habitables », proches des besoins et soucieuses de prévenir les risques environnementaux. 

Guillaume Pitron : « Le numérique n’a pas été conçu pour être vert »

© Bastien Mazouyer pour LVSL

Guillaume Pitron consacre son dernier livre L’enfer numérique : voyage au bout d’un like (Les liens qui libèrent, 2021) à déconstruire le mythe de la pseudo-immatérialité du numérique. Data centers polluants, câbles sous-marins tentaculaires, métaux rares extraits au mépris des normes environnementales… les fondements matériels de l’industrie digitale sont peu apparents mais cruciaux pour comprendre son fonctionnement. Le coût écologique des GAFAM commence ainsi tout juste à être pris en compte. Face aux critiques émises les géants du numérique, ceux-ci se livrent à une savante opération de greenwashing. Entretien réalisé par Pierre-Louis Poyau.

Le Vent Se Lève – À la lecture de votre ouvrage, la dématérialisation de l’économie, tant vantée depuis des années, semble relever de l’illusion la plus totale. Comment se fait-il que l’avènement des technologies digitales se traduise au contraire par une consommation croissante de ressources ?

Guillaume Pitron – Les technologies digitales sont faites de matières premières. Au vu de leur complexité, elles nécessitent toujours plus de matière première, dans une grande variété, aux propriétés chimiques peu communes. Je prends l’exemple d’un téléphone portable : aujourd’hui, il contient entre 50 et 60 matières premières, contre une dizaine pour un téléphone des années 1960 et 30 pour un téléphone des années 1990. On observe donc une inflation de l’usage de matière premières. Parce qu’un téléphone aujourd’hui, ça ne sert pas qu’à téléphoner. Il sert à rencontrer l’âme sœur, commander une pizza, prendre une photo, se géolocaliser, etc. L’inflation des ressources s’explique par la multiplicité des usages permis par les les technologies numériques.

Par ailleurs, ces technologies sont extrêmement puissantes. Un téléphone aujourd’hui contient sous sa coque plus de puissance que l’ensemble des outils informatiques qui ont permis d’envoyer l’homme sur la lune. Pour parvenir à une telle performance, il faut toujours plus de métaux aux propriétés extraordinaires, qu’on appelle souvent les métaux rares. Ils sont dilués dans l’écorce terrestre, leur raffinage est particulièrement complexe et il faut mobiliser beaucoup de ressources : électricité, produits chimiques, etc. La dématérialisation est donc une multi-matérialisation, puisqu’il faut toujours plus de ressources pour parvenir à fabriquer les technologies numériques. Les avancées technologiques que nous connaissons se traduisent par une utilisation toujours plus variée de tous les éléments de la table de Mendeleïev. La marche de la dématérialisation est en réalité une grande marche historique vers toujours plus de matérialisation. Ce discours de la dématérialisation vient se fracasser sur cette réalité.

NDLR : Pour une synthèse sur les métaux rares, lire sur LVSL l’article de Nathan Dérédec « Métaux rares : l’empire global de la Chine »

LVSL – Les années qui viennent devraient voir la multiplication non seulement d’objets mais également d’êtres vivants connectés. Vous évoquez ainsi l’exemple d’un père recevant sur son téléphone des alertes lorsque le taux de sucre dans le sang de sa fille diabétique devient trop élevé. C’est ce que vous qualifiez d’« internet du tout ». Ce n’est pas sans rappeler un épisode de la série télévisée technocritique Black Mirror, qui met en scène une mère espionnant les faits et gestes de sa fille grâce à une puce intégrée. Est-ce aujourd’hui la science fiction qui nous permet de penser de la manière la plus pertinente l’avenir du numérique ?

G. P. – Je pense que la science fiction excite les imaginaires. Qui a envoyé l’homme sur la lune sinon Hergé ? Il y a toujours, à l’amorce d’une révolution technologique, un imaginaire créé notamment par la littérature. La science fiction permet de se projeter dans un univers plus ou moins réaliste. À propos de Black Mirror, on pourrait presque parler d’anticipation : à certains égards, on est déjà dans la réalité. Entre la puce sous la peau et le téléphone à la disposition du père pour sa fille diabétique, nous sommes dans des phénomènes très proches. D’une certaine manière, ce n’est plus la science fiction qui rejoint la réalité mais la réalité qui rejoint la science fiction.

Permettez-moi un pas de côté. Pour enquêter, je me figurais parfois des scénarios possibles, en me demandant s’ils pouvaient être réalistes. Prenons l’exemple du chapitre 8 sur la finance passive. Je me suis d’abord demandé si l’usage, dans le monde de la finance, d’un nombre de plus en plus important de machines paramétrées pour prendre des décisions pouvait aboutir à des conséquences environnementales non prévues. Et c’est le cas, la finance passive est plus gourmande en énergies fossiles, notamment en charbon, que la finance active. En partant du résultat pour arriver à la cause, on a réalisé que ça existait réellement. Dans la méthode et l’enquête, il faut parfois être dans l’anticipation.

LVSL – Le terme d’agnotologie, inventé dans les années 1990 par l’historien des sciences Robert N. Proctor, désigne l’étude de la production du doute ou de l’ignorance. Il a été utilisé par les historiens travaillant sur la façon dont les pollutions industrielles ont été occultées par le patronat et les pouvoirs publics au cours du XIXe siècle. Assiste-t-on aujourd’hui à un phénomène similaire avec les pollutions numériques ? Vous évoquez le rôle des premiers théoriciens d’internet, des publicitaires et des designers

G. P. – Je pense que le numérique n’a pas été conçu pour être « vert » ou pour régler un quelconque problème environnemental. À mon sens il n’y pas non plus, au départ, de greenwashing ou d’intention de cacher quoi que ce soit. Cette tentative de relier internet aux questions environnementales est venue après. Je pense qu’elle est apparue très récemment, il y a moins d’une dizaine d’années, dans un contexte de prise de conscience de la gravité de la crise climatique. C’est à ce moment que l’industrie du numérique commence à faire du greenwashing, à établir cette connexion entre numérique et environnement. C’est à partir de là qu’on commence à entendre ce discours du numérique qui va sauver la planète. On l’a encore entendu lors de la COP26, c’était très prégnant. Ces discours sont apparus parce qu’il y a un enjeu de réputation à la clé. Ils sont à mon avis fallacieux. Il ne s’agit même plus de fabrique du doute ou de l’ignorance, c’est la fabrique d’une réalité alternative. L’industrie n’a pas dit « on ne sait pas », elle a affirmé, chiffres précis à l’appui, que le numérique permettait une réduction des émissions de CO2, qu’il allait sauver la planète, etc. L’industrie a été capable de prendre tôt le sujet à bras le corps et d’imposer son narratif. Il s’agit aujourd’hui de le déconstruire pour en proposer un autre.

LVSL – Peut-on vraiment parier sur une auto-régulation des multinationales du numérique ou sur une régulation fondée sur les mécanismes du marché ? Vous évoquez l’échec des crédits d’énergie verte, qui ne sont pas sans faire écho au marché carbone issu du protocole de Kyoto en 2005.

G. P. – Il y a aujourd’hui une pression de plus en plus forte qui pèse sur les entreprises du numérique, sur leur action climatique. D’abord au sein même de ces entreprises : chez Google et Amazon, des pétitions circulent pour demander la diminution des émissions. De l’extérieur surtout. Historiquement, la critique a été portée par Greenpeace, qui est aujourd’hui moins active sur ce sujet. Mais d’autres ONG prennent le relais et font pression, il y a un enjeu de réputation. Les entreprises essaient donc de verdir leur mix électrique, leur approvisionnement d’électricité. L’une des premières réponses à apporter, pour les entreprises, consiste à pouvoir dire qu’elles consomment moins de charbon. Ces entreprises sont d’ailleurs très actives : les GAFAM ont un mix électrique infiniment plus vert que la moyenne mondiale.

Pour autant, il y a des tour de passe-passe comptables, notamment ces crédits d’énergie verte qui sont une escroquerie intellectuelle, pour reprendre les mots de Philippe Luce que j’interroge dans le livre. Une entreprise produit de l’électricité verte et vend cette production, d’un point de vue strictement comptable, à une autre entreprise qui lui achète à un coût fixe. Les sommes versées doivent être réinvesties dans le déploiement des énergies vertes. Cela permet à Netflix de prétendre que son mix électrique est 100% vert, ce qui n’est absolument pas le cas : Netflix dépend, pour son stockage d’informations, d’Amazon Web Service, qui n’est pas une entreprise propre sur ce plan là. C’est doublement fallacieux : d’une part l’entreprise prétend être verte alors qu’elle ne l’est pas, d’autre part ce mécanisme ne permet pas générer suffisamment de fonds pour pouvoir réellement accélérer le déploiement des énergies vertes. C’est évidemment discutable de penser que le marché pourra régler ces problèmes par lui-même, la puissance publique doit toujours plus s’en mêler pour pouvoir assainir tout cela.

LVSL – Plusieurs mesures pourraient selon vous êtres mises en place par la puissance publique : l’établissement de forfaits dont le prix serait fonction des données consommées, etc. Le salut vient-il de la régulation étatique ?

G. P. – Je pense qu’il doit évidemment venir de la régulation étatique. Se pose aujourd’hui la question d’un interdit, ou tout du moins d’une limite à la consommation de certains produits numériques. Une baisse concrète de la pollution générée par internet passe nécessairement par une consommation moindre. Or nous n’en prenons absolument pas le chemin. Néanmoins, s’il faut relever quelques actions prises par les États, ce qui me frappe est la tentative de régulation des plateformes de réseaux sociaux. Aux États-Unis, en Australie, en Europe, en Chine, toutes sortes de mesures législatives sont prises pour mieux encadrer les réseaux sociaux, notamment l’accès des jeunes à ces réseaux. En l’occurrence l’État n’intervient pas pour des raisons écologiques mais au nom de la protection des mineurs. Mais cela montre que seule la loi est en mesure de mettre des barrières. On ne pourra pas faire sans, mais il faudra également qu’émergent de nouveaux modes de consommation. Le consommateur est totalement désensibilisé aux pollutions générées par le numérique, notamment parce qu’il consomme des services qui n’ont pas de prix. L’idée d’établir des forfaits dont le prix serait fonction des données consommées permettrait de remettre de la modération dont la consommation. Or c’est un outil de marché. Je ne pense pas qu’il faille nécessairement opposer régulation étatique, outil de marché et responsabilisation du consommateur, c’est un tout.

LVSL – Vous évoquez la confiance de certains industriels dans des avancées technologiques qui permettraient à un internet plus « vert » de voir le jour. Ainsi des progrès de la physique quantique, qui pourraient permettre de réduire la taille d’un data center à celle d’un livre. Ce n’est pas sans faire écho, en ce qui concerne le réchauffement climatique, aux espoirs placés par certains dans la géo-ingénierie. Pensez-vous que tout cela soit crédible ?

G. P. – Il faut en effet constater que pas un jour ne passe sans qu’on nous annonce l’avènement d’une nouvelle technologie censée permettre une gestion plus efficiente de l’information, un stockage plus efficace, etc. Ce serait une sorte de cercle vertueux, la bonne technologie venant corriger les effets néfastes de la technologie dont on s’est rendu compte après-coup des défauts. Il s’agit effectivement d’un véritable solutionnisme technologique.

Il y a un problème de concordance des temps dans le débat qui oppose les critiques et ceux qui soutiennent ces technologies. Le critique regarde ce qu’il se passe aujourd’hui quand le technologue regarde ce qu’il se passe demain. Quand on fait le constat d’un problème à un instant T, en 2021, souvent la réponse du technologue consiste à dire : « Pourquoi vous vous intéressez à cette question là puisque le futur lui a déjà donné tort, puisque les technologies futures vont régler le problème ? ». Personnellement, j’ai eu l’occasion de faire un débat sur BFM business avec un monsieur charmant qui s’appelle David Lacombled, dirigeant du think tank La villa numeris. Quand je pointais un problème, il ne niait pas la réalité de ce dernier mais sa manière de répondre consistait à opposer à la réalité un futur certain, qui donnerait tort à mon présent. A propos des data centers, il était ainsi convaincu que de nouvelles technologies permettraient bientôt de stocker de manière plus efficiente. C’est un procédé rhétorique qui me fascine. C’est pour moi de la réalité alternative, on ne regarde plus le présent. C’est extrêmement dangereux dans le débat. Si on applique cela à tous les débats, on ne parle plus du présent. Le futur, c’est quand ? Dans deux ans, dans cinq ans, dans vingt ans ? On nous avait promis le cloud il y a trois décennies, on se retrouve avec 3,5 millions de data centers sur terre. Cet optimisme qui convoque sans cesse le futur me paraît très dangereux.

LVSLVous évoquez l’importante consommation d’énergies fossiles, croissante, nécessaire au fonctionnement des infrastructures dont dépend Internet. De même, vous faîtes par exemple la liste de la cinquantaine de métaux rares nécessaires à la fabrication d’un smartphone. Le coup d’arrêt à l’expansion des TIC et du numérique ne pourrait-il pas tout simplement venir de l’épuisement des ressources ? Le pic du pétrole conventionnel aurait ainsi été atteint en 2008, or moins de pétrole, cela veut dire globalement moins de matières premières dépendantes de flux logistiques rapides et à longue portée : terres rares, cobalt, etc.

G. P. – En réalité, les métaux rares ne sont pas rares. Ce sont des métaux dilués mais pas nécessairement rares. Le cobalt, le graphite, on en trouve dans des quantités colossales sur terre et au fond des océans. La consommation de ces matières premières explose. L’Agence internationale de l’énergie a publié un rapport en mai 2021 selon lequel les seuls besoin de la transition énergétique exigeront, en 2040, quarante fois plus de lithium qu’en 2020. Le lithium est également nécessaire au fonctionnement des batteries de téléphone portable, la hausse de la consommation est donc indéniable.

Il y a d’abord la question des ressources : il y en a assez. Ensuite il y a les réserves, c’est-à-dire les stocks connus exploitables compte tenu des technologies d’extraction que l’on maîtrise actuellement et du prix du marché (il faut que cela soit rentable). Il y a nécessairement moins de réserves que de ressources : un stock de cobalt peut ne pas être exploitable de façon rentable ou être trop profond pour que la technologie actuelle en permette l’extraction. On constate par exemple qu’il n’y aurait pas assez de réserves de cobalt par rapport au besoin, il y a donc déjà de premiers signes d’alerte, sur le cuivre également. Pour autant, les technologies évoluent, le coût des matières premières est susceptible d’augmenter, etc. Il est difficile de donner une date précise d’épuisement de ces ressources. La question la plus intéressante est donc la suivante : à quel coût va-t-on extraire ces matières premières ? Théoriquement on peut le faire, mais il va falloir creuser plus profondément, y-compris au fond des océans : il va donc y avoir un coût écologique, un coût économique, un coût en matière de consommation d’énergie et donc un coût social. L’opposition des populations est de plus en plus forte : le Nicaragua a interdit l’extraction minière sur son territoire ; le Pérou de Pedro Castillo veut reconsidérer un certain nombre de projets miniers, qui doivent profiter à la population péruvienne ; en Patagonie, l’entreprise Barrick Gold a du abandonner un projet d’extraction de minerais à Pascua Lama parce que les Diagitas s’opposaient à la fonte des glaciers sous lesquels se trouvaient le métal. Il en va de même pour la mine de Peble en Alaska : les Américains ont suspendu l’extraction car elle risquait d’avoir un impact sur la population de saumons du lac situé à proximité. En définitive, je pense qu’on peut manquer de ressources non pas parce qu’elles feraient défaut mais parce qu’il y a des oppositions sociales de plus en plus fortes.

LVSL – Vous évoquez la priorité que devrait avoir un hôpital connecté sur la diffusion de vidéos sur la plateforme Tiktok. Certaines courants technocritiques défendent même le démantèlement pur et simple d’Internet. En définitive, ne faudrait-il pas se résoudre, a minima, à un usage moindre du numérique ?

G. P. – On entend beaucoup ces mots: dé-numérisation, désinformatisation, sobriété, etc. Ce dernier terme relève d’ailleurs bien souvent du greenwashing le plus éhonté, ce sont généralement ceux qui utilisent le plus ces outils numériques qui évoquent la sobriété. Il faut être méfiant à l’égard de ces mots. Qui va revenir à des Iphones 2, avec un temps de téléchargement multiplié par dix ? Qui est prêt à revenir à cet internet là ? Quelques-uns c’est certain. A chaque conférence que je donne, il y a toujours une ou deux personnes qui ont un vieux Nokia à la place d’un smartphone. Mais cela représente au mieux 5% de la population.

Je ne crois absolument pas à la dé-numérisation. Même s’il y a des gens qui sont prêt à cela, et je comprends parfaitement cette volonté de revenir à un mode de vie plus cohérent, la dynamique d’internet est aujourd’hui aux antipodes de cela : explosion de l’économie des données, « internet de tout », etc. Les deux tiers des adolescents américains utilisent Roblox [ndlr : jeu massivement multijoueur en ligne dans lequel le joueur incarne un avatar personnalisable] : quand vous voyez la façon dont les enfants consomment ce type de contenus, la dé-numérisation apparaît comme un rêve.

Le numérique, danger pour les institutions démocratiques ?

© Le Vent Se Lève

Le 15 janvier 2020, Le Vent Se Lève organisait une série de conférences sur la souveraineté numérique en partenariat avec l’Institut Rousseau, le Portail de l’intelligence économique et Le Vent du Changement à l’Université Panthéon-Assas. Les nouvelles technologies de l’information et de la communication numérique bouleversent les stratégies et tactiques conventionnelles du marketing et de la mobilisation politique. Qu’on songe à l’influence des réseaux sociaux révélée par l’affaire Cambridge analytica ou aux logiques de désintermédiation apparentes entre leaders politiques et électeurs notre époque impose de nouvelles grilles d’analyse des relations entre sphère publique et conquête du pouvoir. Diana Filippova, romancière et essayiste (auteure de Technopouvoir. Dépolitiser pour mieux gouverner), est revenue sur ces enjeux avec Fabienne Greffet (en science politique, spécialiste des campagnes électorales en ligne et du militantisme numérique). La discussion a été modérée par Anastasia Magat, secrétaire générale de l’Institut Rousseau.

Souveraineté numérique : les enjeux géopolitiques

© Le Vent Se Lève

Le 15 janvier 2020, Le Vent Se Lève organisait une série de conférences sur la souveraineté numérique en partenariat avec l’Institut Rousseau, le Portail de l’intelligence économique et Le Vent du Changement à l’Université Panthéon-Assas. La lutte pour l’indépendance numérique engage désormais l’avenir industriel, démocratique et géopolitique des nations. Des données critiques de nos services publics (en particulier de santé et de sécurité) à celles de nos grandes entreprises industrielles, rien ne semble échapper à la prédation des géants numériques américains. Durant cette première conférence consacrée aux enjeux géopolitiques de la souveraineté numérique, Tariq Krim (entrepreneur et pionnier du web français), Ophélie Coelho (membre du conseil scientifique de l’Institut Rousseau), Clothilde Bômont, (chercheure au centre de recherche GEODE) et Jean-Paul Smets (fondateur de Nexedi et créateur du logiciel libre ERP5) sont intervenus. La discussion a été modérée par Simon Woillet, directeur de la rubrique Idées du Vent Se Lève.

Andrés Arauz : « L’ignorance des mécanismes financiers à gauche est inquiétante »

Cryptomonnaies, NFT, tokens… On ne compte plus les innovations financières rendues possibles par la blockchain, dont la popularité a explosé ces derrières années. Cet enthousiasme s’explique par les aspirations libertariennes à une monnaie libérée des États… mais aussi, plus largement, par un rejet des Banques centrales perçues comme des institutions au service des élites financières. Andrés Arauz, ex-directeur de la Banque centrale d’Équateur puis candidat à la présidence du pays, revient sur ces enjeux dans cet entretien-fleuve. Il est mené par Evgeny Morozov, auteur d’ouvrages de référence sur le numérique et fondateur du site The crypto syllabus, avec lequel Le Vent Se Lève a noué un partenariat. Traduction par Florian Bru.

Evgeny Morozov – Les NFT, des tokens et autres DAO [organisation autonome décentralisée] ont le vent en poupe, entre autres innovations liées à la blockchain. Une étrange forme de populisme vaguement de gauche surfe sur cette vague. Pour citer, en substance, un investisseur américain de premier plan : « tout est déjà financiarisé – arrêtons donc de nous plaindre et passons à l’action, nous devrions tous trouver un moyen de faire tourner la financiarisation en cours à notre avantage ». Que pensez-vous de cet enthousiasme à l’égard de ces produits de la blockchain ?

Andrés Arauz : Il est important d’inscrire ces processus dans le contexte de la crise financière de 2008, puisqu’elle n’a pas seulement donné naissance au Bitcoin, mais aussi à l’assouplissement quantitatif et aux politiques monétaires non conventionnelles. La création de monnaie par les Banques centrales paraissait alors infinie – avant que la pandémie ne vienne pousser cela encore bien plus loin.

Toute cette monnaie n’a pas été utilisée pour la satisfaction de besoins concrets ; elle n’a pas été utilisée pour mettre à niveau notre système énergétique. Elle est allée ailleurs. Une partie s’en est allée vers le Dow Jones et les marchés boursiers. Une autre est à destination d’usages complètement neufs dans la cryptosphère, comme les NFT.

« Continuons à injecter de la monnaie là-dedans. Si nous arrêtons de pédaler, le vélo s’effondre. Donc continuons ainsi jusqu’à ce que quelque chose se passe » : il est difficile de combattre la financiarisation quand de telles postures politiques sont aussi répandues. C’est une bulle si grande que nul ne se risquera à la faire éclater, et elle continuera à grossir jusqu’à provoquer un bouleversement. Par conséquent, les vendeurs de NFT et de cryptomonnaies innovantes vont probablement continuer à connaître du succès tant que la politique par défaut est de continuer à alimenter le système en monnaie.

Pour parler plus spécifiquement de la génération Z, je crois percevoir une certaine excitation jusque chez les jeunes d’Amérique latine, qui sortent du lycée ou de l’université mais ne veulent rien savoir du travail réel et productif… Ils ne parlent que d’une chose : comment obtenir leurs propres NFT, ou acheter du Bitcoin pour pouvoir se faire de l’argent sur le court terme. On perd ainsi un immense réservoir de talents, d’êtres humains qui investissent leur intelligence et leurs efforts dans la poursuite de la financiarisation dans sa dimension proprement équatorienne – c’est-à-dire, l’offshorisation.

Evgeny MorozovPensez-vous qu’il y a un sens pour les progressistes à tenter de « chevaucher le tigre » ? Des penseurs sérieux à gauche, par exemple Michel Feher en Belgique, affirment que la lutte n’est plus dans l’usine Volkswagen mais dans l’application Robinhood. Pensez-vous que quelque chose de progressiste puisse sortir de telles expériences ?

Andrés Arauz – À ce propos, trois choses. Premièrement, les gens de gauche, comme tous les êtres humains, peuvent jouer au casino et parfois gagner de l’argent. Je ne vois pas de problème au fait d’agir individuellement pour se faire un peu d’argent.

Mais deuxièmement, il faut comprendre les processus en cours plutôt que de les ignorer. Et l’ignorance à gauche sur ces sujets m’inquiète réellement. La gauche se contente de condamner moralement le Bitcoin, les NFT, la finance, les banques… sans chercher à comprendre les mécanismes internes de ce système. Une chose positive qui est advenue avec le monde des cryptos est la popularisation des mécanismes de la finance. Nous devrions utiliser cette popularisation de la bulle spéculative amenée par le monde des cryptos pour tenter de mieux comprendre la financiarisation du monde conventionnel. Cela devrait être une tâche majeure pour la gauche.

Les données financières sont un sujet central ; les gouvernements devraient mobiliser toutes leurs ressources pour fonder sur elles leur souveraineté numérique.

Et puis troisièmement : si nous jouons selon les règles du jeu du capital financier, il n’y aura aucun moyen de gagner cette bataille. Ce que nous devons faire, c’est continuer à se battre pour les institutions régulatrices qui définissent les standards et les règles du jeu.

Il y a des investisseurs institutionnels, mais qui régule les investisseurs institutionnels internationaux ? Nous devons changer les lois, nous devons prendre le contrôle des banques centrales, nous devons nous assurer que les personnes qui travaillent comme régulateurs financiers sont ne sont pas liées aux banques privées… Nous devons commencer à exiger des régulations autour des conflits d’intérêt pour les personnes qui sont en charge de ces institutions.

Evgeny MorozovQuel est le lien entre la souveraineté monétaire et la souveraineté numérique ? Qu’est-ce que cela signifierait en termes de politiques concrètes pour un pays comme l’Équateur, mais aussi internationalement ? Qu’est-ce que cela signifie pour la propriété de la stack, des données, pour les lois antitrust ? Quelles sont les conséquences en termes de politiques publiques de penser ces deux formes de souveraineté comme étant imbriquées ?

Andrés Arauz – Les données financières – les données de l’argent, comme je les appelle – sont un sujet central ; les gouvernements devraient mobiliser toutes leurs ressources pour fonder sur elles leur souveraineté numérique. Je ne m’attarderai pas sur le cas de l’Équateur, car c’est un trop petit pays pour tenter de faire cela. L’Inde, en revanche, a promulgué des normes nationales autour des données financières. Ils ont dit à Visa que si elle voulait continuer à travailler en Inde, toutes les données sur les transactions financières des citoyens indiens utilisant Visa devraient être stockées en dans le pays. Il faut qu’elles soient physiquement localisés là-bas, avec du personnel indien pour les réguler, de sorte qu’elles soient soumis aux demandes d’information des autorités dans le cadre d’enquêtes judiciaires.

Bien sûr, cela bouleverse le jeu puisque, tout d’un coup, les données deviennent un actif de l’économie intérieure. Si elles sont utilisées à bon escient, avec une anonymisation correcte, une propriété commune et une prise en compte de la vie privée dès la conception, tout cela peut être utilisé pour construire un système très complet de connaissances qui peut servir aux universitaires, à la société civile, aux institutions gouvernementales, au secteur privé, etc. Cela permet de fournir davantage de services à la société, et de meilleure qualité. Et l’on évite ainsi la monopolisation de toutes ces données par des acteurs extérieurs à l’économie intérieure.

Quelque chose de similaire a été ébauché au Brésil, mais sans succès. Évidemment, ce qui a été mis en place en Chine est allé un cran plus loin, pas seulement avec la domiciliation des données mais également leurs propres applications et interfaces. Pour réfléchir au futur de la souveraineté numérique, nous devons penser aux aspects politiques et économiques non seulement des données sur les transactions financières mais aussi aux services de messagerie les plus importants et même aux interfaces utilisateur des applications. C’est quelque chose qui doit être fait par tout pays qui voudrait conserver ne serait-ce qu’un minimum de souveraineté.

Evgeny MorozovLes succès putatifs de la Chine dans cette sphère ont été très critiqués en Occident. Appuyés sur le très décrié système de crédit social, elle est parvenue à se déconnecter de l’économie mondiale dominée par les États-Unis. Même les entreprises de FinTech l’ont utilisé pour promouvoir l’inclusion financière, qui est l’un des éléments-clés de votre travail. Alors, avons-nous quelque chose à apprendre de la Chine ?

Andrés Arauz – Oui, nous avons à coup sûr à apprendre de la Chine, parce que leur système fonctionne depuis des décennies. Le gouvernement chinois, à son entrée dans l’OMC au début des années 2000, a poussé avec succès pour retarder l’introduction des cartes de crédit étrangères dans ses marchés. C’est pourquoi Union Pay a un monopole en Chine. Les Chinois ont été très intelligents à propos des normes, en particulier dans les systèmes bancaire et marchand, auxquelles ils exigeaient que l’on se conforme.

Ils ont à présent leur propre système de cartes de crédit qui est numériquement souverain et propriété de l’État. Ce système peut se penser hors de Chine. Pourquoi si peu de pays dans le monde refusent-ils d’accepter Visa et MasterCard comme systèmes de paiement ? Comment peut-il n’y avoir aucune alternative à leur monopole ? Bien sûr, il peut y en avoir, mais nous devons les imaginer et les construire de manière intelligente. Évidemment, les gouvernements jouent un grand rôle ici. À rebours d’une démarche de privatisation de la monnaie, ils devraient exercer une politique proactive pour étendre la souveraineté numérique et financière dans la sphère des paiements.

Bien sûr, la même chose est arrivée avec les fournisseurs chinois comme AliPay, ou WeChat. Ils sont à présent supervisés par une chambre de compensation de la Banque centrale, la Banque populaire de Chine. De cette façon, non seulement les données, mais également les politiques qui concernent leur déploiement dans le pays sont surveillés par le gouvernement.

Mon intention ici n’est pas de justifier les aspects totalitaires du Parti communiste chinois ! Simplement, il y a des solutions aux monopoles mondiaux (et majoritairement étasuniens) si on les conçoit de manière appropriée et que l’on utilise des techniques d’anonymisation.

Evgeny MorozovComme responsable politique, vous vous êtes montré enthousiaste quant à l’utilisation de technologies numériques à des fins progressistes. Alors que vous étiez en fonction, vous avez introduit une monnaie numérique contrôlée par l’État en Équateur, ce que nous pourrions aujourd’hui appeler une monnaie centrale numérique (Central Bank Digital Currency, CBDC). Pourriez-vous expliquer les raisons derrière l’initiative de cette monnaie numérique ? Quels objectifs progressistes devait-elle servir ?

NDLR : Pour une analyse de l’expérience politique équatorienne menée sous Rafael Correa (2007-2017), lire sur LVSL notre entretien avec Guillaume Long, ex-ministre des Affaires étrangères : « Comment la Révolution citoyenne d’Équateur a été trahie »

Andrés Arauz – Cette aventure a commencé en 2009 alors que la crise financière mondiale faisait rage. Nous nous attendions à ce que l’économie équatorienne coule, avec une crise de la balance des paiements arrivant peu après. En tant que pays dollarisé, nous dépendons des flux de dollars – ils nous sont littéralement livrés en avion depuis le bureau de la Réserve fédérale à Miami. Nous avions peur qu’à cause de la crise, le flux de dollars soit gelé, alors mêmes que nos revenus d’exportation étaient en train de s’effondrer.

Tout d’abord, nous pensions qu’il nous fallait un moyen de paiement national. Et parce que nous étions dollarisés, nous savions qu’abandonner le dollar pour le remplacer par une monnaie nationale ne serait pas possible pour des raisons politiques. Comment faire, donc, pour accéder à des moyens de paiement nationaux sans que le dollar reparte à la hausse ?

De toute évidence, l’alternative était une monnaie électronique. À l’époque, nous l’appelions monnaie mobile, et elle était inspirée des expériences kényane et philippine. Nous avons ensuite décidé que cela ne pourrait pas être seulement un projet mené par les entreprises de télécommunications, et par conséquent, dans sa conception et sa régulation, elle devait faire partie d’un projet monétaire mené par notre Banque centrale.

La deuxième raison avait à voir avec l’économie politique du système de paiement lui-même. Il était clair pour nous que si nous donnions un compte à la Banque centrale à chaque citoyen d’Équateur, nous pourrions briser de nombreux monopoles nationaux du secteur bancaire privé. Cela permettrait aussi une inclusion financière massive à court terme. Ouvrir un compte à chaque citoyen était, d’une certaine manière, un effort pour modifier les relations entre les banques privées et le gouvernement.

La troisième raison avait trait à nos efforts politiques pour transformer et faire de la Banque centrale non plus une institution élitaire mais une institution populaire. Si la Banque centrale, tout d’un coup, commence à ouvrir des comptes pour tous les citoyens d’Équateur, qu’ils soient ruraux ou urbains, pauvres, riches, jeunes ou vieux, hommes ou femmes – l’inclusion financière des femmes est plus difficile – alors cela pourrait aider à démocratiser la Banque centrale. Si les citoyens commençaient à se poser des questions – « Qu’est-ce que c’est que ça, cette Banque centrale qui m’a donné un compte, déjà ? » -, alors ils commenceraient à parler de cette institution au dîner, en déjeunant dans la rue, dans le bus…

Le simple fait d’avoir cette discussion sur ce que la Banque centrale devrait améliorer, quelles régulations sont bonnes et lesquelles ne le sont pas, même les discussions plus critiques sur ce que l’État fait de leur argent et de leurs données – était pour nous un grand succès, car cette discussion mènerait inéluctablement à une nation plus démocratique. Finalement, la Banque centrale pouvait sortir de l’ombre, ne plus être l’institution des élites avec leur savoir exclusif, mais de citoyens normaux, avec leur savoir profane.

Evgeny MorozovL’Équateur est non seulement le premier pays à avoir développé une monnaie centrale numérique, mais sa Banque centrale a été la première à publier les standards de sa plateforme de monnaie numérique et à développer une interface de programmation [API] pour que les citoyens puissent développer de nouvelles solutions pour l’accessibilité financière dans les zones rurales, le transport, les applications internet, entre autres. Pourriez-vous nous parler de cette expérience et de ce qui l’a motivée ?

Andrés Arauz – C’était, peut-être, l’un des aspects les plus prometteurs du système de monnaie électronique que nous avons conçu en Équateur. Nous étions engagés, même si c’était difficile, à en faire un système ouvert d’innovation où la Banque centrale rendrait son interface de programmation disponible. Nous voulions que des développeurs, issus des universités, des entreprises etc., se connectent pour développer de meilleures innovations et plateformes, pour que la monnaie électronique puisse circuler dans tout le pays. Ce fut un succès. En quarante-huit heures, des équipes venues de tout le pays ont proposé quatorze prototypes, allant d’une monnaie électronique qui pourrait être utilisée par les citoyens avec un protocole de type USSD assez primitif pour transférer de l’argent par SMS à une application, pour payer son ticket de bus quotidien.

Il y avait d’autres exemples d’inclusivité, comme des plateformes pour les personnes handicapées, malvoyantes, qui pouvaient utiliser le système de paiement avec une aide audio. Et de nombreuses autres, y compris des initiatives pour les coopératives, etc. Donc, en quarante-huit heures, nous avons montré que le réservoir de talents disponibles était immense. Tout ce qu’il nous fallait faire était de rendre un bien public largement disponible par un API ouvert.

C’est ce qu’il faut faire si vous voulez avoir de vraies FinTech qui ne soient pas basées sur les privilèges ou dépendant de grandes banques. On ne devrait pas avoir des CBDC avec simplement une Banque centrale qui développe l’application, les protocoles, les systèmes de paiement. Je ne peux pas imaginer une Banque centrale qui aurait un bureau rempli d’agents chargés de clientèle essayant d’installer des services et des systèmes de point de vente sur chaque bus dans chaque pays. Il faut que ce soit un service ouvert de type plateforme, afin que de nombreux innovateurs et entreprises puissent s’y arrimer et profiter d’une plateforme universellement disponible.

Evgeny MorozovSelon vous, y a-t-il une chose que vous auriez dû faire différemment dans la conception de la monnaie numérique équatorienne ?

Andrés Arauz – Peut-être aurions-nous dû ajouter un aspect de crédit à ce système. C’est-ce qu’on appelle le nano-crédit, qui a une dimension encore plus petite que le micro-crédit ; cela revient concrètement à prêter à un citoyen 30 ou 50 ou 100 dollars, à rembourser à un terme indéfini – ce peut être 10 ans, 30 ans, 50 ans – et d’avoir ce nano-crédit disponible dans la plateforme électronique, de sorte que quand il y a besoin de créer de la monnaie, elle soit créée, et de la monnaie pourrait circuler dans ce système en tant que moyen de paiement. C’est une vraie alternative au système bancaire conventionnel.

La Banque de France (…) se place donc délibérément sous la hiérarchie de JP Morgan

Evgeny MorozovVos premiers travaux saisissaient certaines des contre-dynamiques de nombreux processus qui étaient jusqu’alors célébrés de manière acritique. Les institutions en place, en particulier celles du système financier mondial, survivent à de nombreux défis auxquels leur hégémonie fait face. Comment évaluez-vous les premières réponses institutionnelles aux cryptomonnaies et ce qui les motive ?

Andrés Arauz – Tout d’abord, l’avènement du Bitcoin a changé le système de nombreuses manières radicales. Même s’il est rapidement devenu un instrument spéculatif, ses bénéfices considérables en termes de paiement sont toujours présents. Quelqu’un qui achète du Bitcoin en Thaïlande peut l’encaisser en monnaie domestique au Pérou sans toucher les grandes institutions bancaires. C’est un grand changement.

La dimension transfrontalière de ces paiements est la partie la plus critique. Le Bitcoin fait trembler les fondations du système existant au point que SWIFT s’inquiète de perdre son monopole sur les paiements transfrontaliers. SWIFT, bien sûr, est une coopérative possédée par les grandes banques privées. Ce système canalise la plupart des transactions transfrontalières mondiales, effectuées par les grandes banques correspondantes dans le monde, comme JP Morgan ou le Wolfsberg Group, qui est le groupe de treize banques d’envergure mondiale qui font des transactions internationales par le Conseil de stabilité financière.

NDLR : pour une analyse du système SWIFT, lire sur LVSL l’article d’Eugène Favier-Baron, Victor Woillet, Sofiane Devillers Guendouze et Yannick Malot : « SWIFT : une arme géopolitique impérialiste »

Si vous ajoutez à cette analyse une lecture géopolitique, vous constatez que le gouvernement des États-Unis et les régulateurs belges possèdent – pour aller vite – une connaissance totale des transactions transfrontalières. Une fois que vous créez une alternative, comme le Bitcoin ou d’autres cryptomonnaies, qui permettent des paiements internationaux qui ne sont pas enregistrés dans la base de données Swift, alors les pièces centrales du système capitaliste commencent à trembler. C’est la raison pour laquelle des alternatives comme TransferWise ou PayPal ont été créées ; on peut aussi penser aux initiatives philanthropiques comme la Better Than Cash Alliance, qui inclut entre autres Visa et MasterCard et qui vise à diminuer l’usage du liquide.

Les institutions internationales y donnent aussi beaucoup d’importance. La BCE porte l’alternative d’une monnaie numérique de Banque centrale mais JP Morgan avance que, puisqu’ils sont la plus grande banque en termes de transactions internationales, il vaudrait peut-être mieux avoir la JPM Coin (une monnaie privée émise par la banque) pour servir cette fonction. Il y a donc beaucoup d’initiatives en ce moment, mais elles constituent toutes une réponse au Bitcoin.

Evgeny MorozovComment voyez-vous l’entrée d’entreprises comme Facebook dans cet espace ? Pensez-vous qu’il y ait toujours un avenir pour le Libra de Facebook – ou le Diem, son nouveau nom ? Ou bien ces efforts sont-ils en train d’échouer ?

Andrés Arauz – Je suis convaincu qu’il existe un avenir pour tout cela. Certains sont optimistes quant à la capacité de la société civile de vaincre Facebook. Ceci, toutefois, passe outre une question plus large : Diem est une tentative géopolitique, au nom des États-Unis, pour préserver l’hégémonie du dollar. Et si Facebook échoue, un autre – PayPal ou Google – le fera.

Les récentes auditions au Congrès montrent que les États-Unis ont besoin de trouver une solution face à la montée en puissance de la Chine. Des systèmes de paiement numériques chinois ont émergé avec succès, d’abord avec le soutien de capitaux privés mais progressivement re-centralisés dans une sphère dirigée par l’État. Cependant, l’internationalisation de ces instruments atteindra bientôt une échelle globale grâce aux FinTechs chinoises comme Alibaba, Baidu et Tencent. Facebook a l’outil pour s’y confronter et étendre l’hégémonie étasunienne : WhatsApp, qui est déjà une sorte de bien mondial, même s’il n’est pas public.

Evgeny Morozov Quelles autres considérations géopolitiques devrions-nous avoir à l’esprit si nous réfléchissons au futur des systèmes de paiement mondiaux ?

Andrés Arauz – Traditionnellement, la monnaie est organisée de façon hiérarchique, avec des banques qui ont des comptes chez d’autres banques qui ont elles-mêmes des comptes chez d’autres banques, et elles sont organisées hiérarchiquement autour du monde. Par exemple, les transactions entre gouvernements sont menées par les Banques centrales et presque chaque Banque centrale a un compte au Système fédéral de réserve. Donc, pour l’argent public, la banque de la Réserve fédérale de New-York est au plus haut sommet. L’argent privé a de « méga banques » au sommet : JP Morgan, HSBC, Santander, Citibank et d’autres.

Dans la conception originale de la hiérarchie monétaire, les institutions gouvernementales ; comme la Fed ou le FMI, ou bien la BCE, sont toujours au sommet. De nos jours, on voit d’étranges tendances. Par exemple, la Banque de France a récemment mené une expérience avec l’Autorité monétaire de Singapour et, au lieu qu’elles soient au sommet de la hiérarchie de leur transaction, elles ont traité avec du JPM Coin, un passif émis par JP Morgan. Elles se placent donc délibérément sous la hiérarchie de JP Morgan.

Plus haut vous vous situez dans la hiérarchie monétaire, plus vous avez de pouvoir géopolitique ; vous avez également le pouvoir financier de créer de la monnaie et de vous assurer que les gens mènent leurs transactions avec vos billets, passifs, titres ou tokens… La présence de JP Morgan au sommet nous en dit beaucoup à propos de l’équilibre des pouvoirs dans le monde actuel.

Evgeny MorozovLors des élections présidentielles équatoriennes de l’année dernière, vous vous êtes opposé à la « Loi de privatisation de la Banque centrale », une réforme qui pourrait laisser le gouvernement sans réels outils pour alléger les dettes de l’économie nationale (principalement celles des ménages et entreprises locales). Cette loi a été promue un an après que l’Équateur a obtenu un accord de 6,5 milliards de dollars avec le FMI en échange de réformes structurelles. Pouvez-vous revenir sur le contexte de la mise en place de cette loi et sa signification ?

Andrés Arauz – Je vais vous répondre en évoquant l’architecture monétaire qui prévaut. Dans toute économie a minima souveraine, une Banque centrale se trouve au sommet ; en dessous, des banques privées, et ensuite des institutions plus modestes, régionales, rurales ou sectorielles. Encore en-dessous : des clients, des citoyens, particuliers ou entreprises qui ont des comptes dans ces institutions. Chacune d’elles, la petite ou la grande banque, a un compte à la Banque centrale, qui a aussi des comptes dans les banques internationales.

Quel est le contenu de cette loi ? Elle pose que l’argent du gouvernement équatorien – par exemple les fonds de la sécurité sociale ou les comptes des entreprises publiques – déposé à la Banque centrale aurait un statut inférieur aux comptes que les banques privées possèdent à la même Banque centrale. Cela voulait également dire que la monnaie que la Banque centrale avait à l’étranger devrait être destinée à l’usage des banques privées. En fait, la loi privatise le système de réserves internationales de l’Équateur, qui appartient à l’État.

La loi force le gouvernement à sacrifier tous ses bénéfices de l’exportation du pétrole, les devises étrangères qui entrent, afin de subventionner la fuite de capitaux du secteur privé. Cela a d’importantes conséquences. Pour l’économie dans son ensemble, le seul moyen d’assumer cette subvention permanente de la fuite des capitaux privés est de continuer à s’endetter. Et c’est pour cela que le prêt du FMI est le corollaire de cette politique de privatisation de la Banque centrale : les fonds du FMI seront utilisés pour payer la fuite des capitaux du secteur privé. Une Banque centrale plus hétérodoxe, alternative ou démocratique, comme celle que nous avions avant cette loi, tenterait de maintenir les liquidités dans l’économie nationale et de les recycler pour le bénéfice du peuple équatorien.

Evgeny MorozovPensez-vous que les pays du Sud souhaitant échapper au consensus de Washington peuvent passer outre les CBDC ?

Andrés Arauz – Les CBDC sont un outil nécessaire pour tout pays en développement qui veut établir une forme de contrôle sur son économie. Le débat sur les caractéristiques technologiques des CBDC, bien qu’important, n’est pas le sujet principal.

Ce qui importe bien plus est la gouvernance de l’entité qui va gérer ces CBDC – c’est-à-dire la Banque centrale. La Banque centrale n’est-elle qu’une institution gérée par des banquiers privés ? Alors, laissez-moi vous dire ce qui va se passer : ce sera une plateforme liée aux comptes des grandes banques privées, puisque ce sont celles qui ont les capacités technologiques pour organiser une telle chose. Mais pour des CBDC qui aspirent à une approche alternative, plus hétérodoxe, il vous faut quelque chose de similaire à ce que nous avons fait en Équateur.

Au XXIe siècle, les Banques centrales, en tant qu’institutions publiques, devraient faire l’objet de discussions constantes autour de la manière dont elles rendent des comptes, de leur transparence, de leur architecture institutionnelle

Evgeny Morozov – Que pensez-vous de l’adoption du Bitcoin comme monnaie officielle au Salvador ?

NDLR : Lire sur LVSL l’article de Hilary Goodfriend : « Rien ne va plus au paradis salvadorien du Bitcoin »

Andrés Arauz – Le Bitcoin n’est qu’un vernis superficiel pour éviter de discuter de ce qu’il se passe vraiment là-bas.

Une innovation intéressante a été mise en place par le gouvernement : le portefeuille Chivo. Ce n’est pas qu’un projet libertarien, c’est un portefeuille universel, émis pas l’État, pour chaque citoyen. Il permet des transactions qui ne sont pas uniquement en Bitcoin, mais également en dollars américains, c’est-à-dire qu’il facilite un système d’échanges commerciaux au sein de l’économie nationale. Chivo tente de faire ce que l’on a fait en 2009, contourner le dollar américain pour les paiements intérieurs et le remplacer par des moyens de paiement électroniques nationaux…

Je suis sûr que de nombreux autres pays suivront dans ce sillage, parce que la pandémie en a forcé beaucoup à distribuer de la monnaie gratuite aux individus, comme des chèques aux États-Unis. D’un autre côté, comme la discussion autour d’un revenu de base universel gagne du terrain, beaucoup dépendra de la manière dont le gouvernement interagit financièrement et monétairement avec ses citoyens pour délivrer des subventions. Cela mènera inévitablement sur le chemin des CBDC. Et s’il y a un minimum de décence dans des pays comme l’Espagne, le Mexique ou le Brésil, l’option publique devrait être soulevée.

Evgeny Morozov – Il est rafraîchissant de vous entendre vous concentrer sur le portefeuille Chivo plutôt que sur le Bitcoin en tant que tel dans le système salvadorien. Beaucoup à gauche ignorent complètement le portefeuille et se concentrent sur la critique du Bitcoin…

Andrés Arauz – Nayib Bukele [le président salvadorien NDLR] ne figure pas au nombre de mes alliés politiques. Mais je perçois les mérites de ce portefeuille. Bien qu’il puisse encore avoir des défauts, je comprends ce qu’il souhaite mener à bien. Il fait face à une pénurie d’échanges internationaux et doit être créatif, autrement il ne pourra pas continuer à faire tourner la machine. L’alternative serait de s’agenouiller et de supplier le FMI d’accorder un prêt, mais depuis quand est-ce une solution progressiste ?

Ainsi, je pense qu’il y a du mérite à tenter cette expérimentation : je vois une entreprise étatique qui est une alternative à celle des États-Unis. Le gouvernement Bukele a créé une subvention de 30 dollars pour inciter les citoyens à utiliser le portefeuille Chivo ; ils ont éliminé les frais bancaires et les amendes, placé ces distributeurs de monnaie partout dans le pays. Cela a de toute évidence ouvert la voie à l’innovation dans les pays progressistes, qui pourraient compléter ces expériences avec des interfaces de programmation ouvertes où les gens pourraient développer d’autres types d’initiatives autour de cette interface.

Evgeny MorozovRevenons à ce que vous disiez autour de la démocratisation des Banques centrales. Le gouvernement auquel vous avez participé en Équateur a hérité de l’ère néolibérale une Banque centrale indépendante. Cependant, votre gouvernement ne concevait pas l’action de la Banque centrale comme neutre, bien au contraire. Vous avez souhaité ouvrir ces enjeux à la discussion et faire délibérer la population à propos de son rôle…

Andrés Arauz – Absolument, nous étions parfaitement conscients que l’indépendance et l’autonomie des Banques centrales était une construction néolibérale, qui en a fait une institution élitaire au service du capital financier – et plus spécifiquement du capital financier international. Nous étions sortis de la crise financière de 1999, dans laquelle un tiers du système bancaire avait coulé ; il était détruit et les banquiers s’enfuyaient avec l’argent des gens qu’ils mettaient sur des comptes offshore à Miami et ailleurs.

Ainsi, la Banque centrale n’était pas l’institution la plus appréciée. Au contraire, elle était vue comme une complice des banquiers corrompus. Nous avons donc fait de notre mieux pour réduire l’indépendance de la Banque centrale et en faire une composante centrale du pouvoir exécutif, en en faisant une institution démocratique, qui rendrait des comptes.

Mais nous voulions aussi en faire une force pour la démocratisation du système financier. Notre initiative pour la monnaie électronique était une tentative de démocratisation du système de paiement national. Quand j’ai travaillé pour la première fois à la Banque centrale, les banques avaient accès à ce système de paiement. Nous l’avons ouvert et rénové pour que près de 400 coopératives, caisses populaires et petites institutions rurales puissent directement avoir un compte à la Banque centrale. Notre pari était qu’à long terme, la Banque centrale deviendrait une force pour réguler le capital et mettre en place un nouvel ensemble d’institutions autour de l’argent public : en d’autres termes, une économie alternative socialiste qui promouvrait la vision du Buen Vivir (bien vivre) qui est inscrite dans notre constitution.

Evgeny MorozovVos remarques offrent un contraste intéressant avec la manière dont beaucoup de « crypto-enthousiastes » pensent le rôle des Banques centrales. Il semble qu’ils aient identifié certains des nombreux problèmes du modèle néolibéral. Mais au lieu de le soumettre à une forme de contestation démocratique et de délibération citoyenne, ils portent des solutions individualistes. Les « crypto-enthousiastes » ont certainement permis une forme de délibération autour de ces questions, mais on est bien loin de la contestation politique de la finance que vous esquissiez…

Andrés Arauz – J’ai de la sympathie pour la critique des Banques centrales en général parce que dans le monde, les Banques centrales ont été conçues comme des institutions du néolibéralisme et les gardiennes des privilèges du capital financier et des banquiers privés. Et je suis sympathisant d’une alternative technologique ou technique construite pour les éviter et les contourner entièrement.

Néanmoins, ce que nous savons tous est qu’à la fin, le système de la monnaie fiduciaire sera toujours là. Même la dimension spéculative de la cryptosphère est ancrée au système de la monnaie fiduciaire, par exemple quand vous échangez des cryptomonnaies pour des dollars, des euros ou une autre monnaie locale de votre choix : vous devez interagir avec les banques conventionnelles et le système des Banques centrales.

Au XXIe siècle, les Banques centrales, en tant qu’institutions publiques, devraient faire l’objet de discussions constantes autour de la manière dont elles rendent des comptes, de leur transparence, de leur architecture institutionnelle ; répondent-elles à des intérêts privés ? Qui sont ceux qui y travaillent ? Leurs choix sont-ils au bénéfice de la majorité de la population ? Et ainsi de suite. Les ignorer totalement est un très mauvais pari. Nous devons construire une large alliance de mouvements populaires, alternatifs, partants de la base, autour de la monnaie et de la finance, avec des alternatives technologiques, mais nous ne pouvons pas ignorer l’importance radicale que possèdent les Banques centrales dans toute économie.

Evgeny MorozovQuelles formes alternatives de Banques centrales peut-on concevoir ?

Andrés Arauz – Nous devons entrer au cœur du système et le combattre. Récemment j’étais à un séminaire, invité par l’Assemblée constituante du Chili, pour discuter de ce qu’ils devraient faire à propos de la Banque centrale. C’est une discussion tabou : il s’agissait presque d’une réunion secrète, parce que les militants craignent de parler de changer la Banque centrale, comme s’il s’agissait d’une institution de l’ombre dont personne ne pourrait discuter.

Pourquoi s’en tenir au récit majoritaire selon lequel c’est uniquement par les experts que ses paramètres et ses normes devraient être établis, à Bâle ou à Washington ?

Je pense que l’on peut démocratiser la Banque centrale sans affecter la stabilité macroéconomique ou la valeur de la monnaie. Et le faire libérera des leviers, pour permettre aux gens ordinaires de vivre décemment.