Le numérique, arme de marchandisation de l’humanité

© Maxim Hopman

D’abord cantonnée à la sphère professionnelle, la numérisation a fini par s’étendre à toutes les facettes de l’existence humaine, y compris les plus intimes. Un processus qui ouvre sans cesse de nouveaux marchés pour une poignée d’entreprises, tend à uniformiser nos comportements et à transformer l’être humain en support publicitaire, à l’image des influenceurs. Derrière l’illusion de gratuité et de liberté, le numérique exploite notre attention et nous transforme en simples produits sur un marché global, niant notre intériorité. C’est du moins ce que défend Baptiste Detombe, dans sa critique anticapitaliste du numérique L’homme démantelé. Comment le numérique consume nos existences. Extraits.

La marchandisation du monde tendait à arriver à bout de souffle. Les animaux étaient réduits au rang d’objets dans des élevages industrialisés, les poissons élevés en barrique avec le développement de la pisciculture, les journaux, eux, s’occupaient de faire de l’information une marchandise. L’économie mondiale, en cette fin de XXe siècle, nécessitait de nouvelles sources de profits et de rentabilité, et pour ce faire une seule solution : ouvrir de nouveaux marchés et générer des débouchés. Le numérique s’est fait poule aux œufs d’or et a ainsi délivré la croissance capitaliste d’une agonie certaine. Le désir a pu être sur-stimulé par le développement des réseaux sociaux puis de la publicité ciblée, le non-quantifiable a pu être mesuré (l’attractivité sociale, la beauté physique, le temps d’attention) afin d’être mieux commercialisé, l’homme ordinaire a pu se transformer en marchandise ambulante et devenir influenceur de son prochain. Le fétichisme de l’écran n’a plus qu’une seule finalité : transformer l’homme en produit standardisé et lui faire oublier sa propre aliénation.

La vérité sur notre génération, c’est que nous avons été les victimes d’une OPA. Autrement dit, le marché a vu dans nos cerveaux plastiques la possibilité d’engranger des profits encore jamais atteints. Une nouvelle ressource avait été découverte à l’insu du monde. Le problème, c’est qu’il n’est pas question d’exploiter un filon, un champ ou des bras, mais bien notre attention. Notre mémoire, notre imaginaire, notre temps, tout cela devenait la cible d’une nouvelle industrie : l’industrie numérique. Les entreprises étaient prêtes à payer cher pour accéder à ces cervelles prépubères. Elles savaient que le désir est infini à l’enfant qui n’a pas conscience des limites, et que les parents sont sensibles aux appels de leur progéniture. Et il faut bien le comprendre, nous, jeunes, sommes ou étions un « super marché », un super marché car nous disposions d’un temps incalculable. Nous n’étions pas astreints à la monotonie du métro-boulot-dodo et exemptés de la plupart des tâches ménagères. C’est alors pleinement disposés que nous pouvions utiliser notre attention à engraisser les GAFAM. Et notre ressource attentionnelle était d’autant plus précieuse que nos désirs et habitudes n’étaient pas encore ancrés. Les suggestions des pubs, des proto-influenceurs pouvaient alors encore changer nos modes de vie et de consommation. Il faut le comprendre, pour tout capitaliste, nous étions des poules aux œufs d’or. Mais le poulailler en a pris un coup.

La jeunesse ne le sait pas, mais elle est la principale victime du numérique. Si les géants d’internet se jettent sur elle, c’est parce qu’elle dispose de ce temps en abondance. N’étant pas enserrée dans les griffes du salariat, elle peut allègrement participer à la société de consommation en donnant son attention et ses données. Notre temps est ainsi l’une des premières (mais aussi des dernières dans cette proportion) ressources du capitalisme. L’attention correspond à ce que l’économie de marché n’arrivait pas encore à quantifier et à marchander, la révolution numérique aura eu le mérite de nous transformer intégralement en objet de consommation. Pourtant, c’est bien l’esprit qui est ici victime de la capture : « attention » vient du latin « ad tensio » qui signifie « tension de l’esprit vers quelque chose ». Aujourd’hui, l’esprit est encore en nous, mais il s’abstient de faire l’effort de tendre vers quoi que ce soit. Il butte sur la surface lisse de l’écran et n’a plus aucune rugosité sur laquelle s’accrocher et croître. L’attention ainsi ne nous appartient plus. Elle est vampirisée par l’industrie numérique. Nous la déléguons contre des sommes onéreuses, qui nous servent en réalité à financer notre consommation de contenu virtuel.

Jusqu’à présent, l’homme avait résisté à ce devenir de marchandise : il était difficile de quantifier son aura sociale, ses opinions politiques, sa capacité à générer de la sympathie et à influencer ses pairs. Il semble que cela appartienne désormais au passé.

Jusqu’à présent, l’homme avait résisté, malgré lui, à ce devenir de marchandise : il était difficile de quantifier son aura sociale, ses opinions politiques, sa capacité à générer de la sympathie et à influencer ses pairs. Il semble que désormais l’affaire appartienne au passé. La quantification de l’existence permise par le numérique est totale. Du nombre de pas effectué en une journée en passant par sa popularité, sans oublier sa beauté physique, aucun aspect de la vie humaine n’échappe au merveilleux devenir de marchandise objectivable ! Plus rien désormais ne peut arrêter le développement du marché, l’extension ad nauseam de ce qu’il englobe. Tout doit pouvoir générer du profit, offrir de nouvelles mannes financières. L’homme est alors un nouveau produit de consommation, et une batterie de nouveaux acteurs en témoignent : des coachs en développement personnel que nous avons vus venant faire grimper notre valeur sociale et marchande, en passant par les influenceurs qui orientent nos désirs de consommation. Pour devenir un produit d’appel attractif, pour gagner en cotation sur le marché de la désirabilité sociale, une seule solution : standardiser l’homme. L’homologuer afin de le diffuser sur tous les marchés : l’homme démantelé est aussi un produit de l’uniformisation. Nos relations sociales se trouvent alors aseptisées pour mieux correspondre aux critères d’attractivité de l’époque : le crédit s’achète au prix de la profondeur d’être.

Les réseaux sociaux sont bien de grands marchés. Des immenses marchés de sociabilité et de rayonnement social. Ils sont parfaitement décloisonnés et mettent ainsi fin aux limitations géographiques. Chaque individu est accessible sur l’ensemble des plateformes, ce qui lui confère une visibilité pouvant être exponentielle. Cette absence de limites, c’est la porte ouverte à des individus au « pouvoir de marché » considérable, dont l’influence est peu commensurable. Les valeurs de référence elles aussi sont uniformisées : le nombre d’abonnés ou d’amis sont des indicateurs fiables de notre valorisation sur ce nouveau marché social.  Il appartient alors à chacun de savoir se démarquer sans trop dépasser les frontières de l’acceptable. Certains ainsi constatent leur succès, d’autres, face à cette transparence du marché numérique, ont le privilège de constater leur solitude, leur faible valeur aux yeux de leurs pairs.

L’homme est ainsi continuellement quantifié, jugé à l’aune de son attractivité. Il intègre dans sa psyché le marché. De la qualité de « sujet » nous ne devenons que des « objets » dont la valeur n’est que fonction du nombre de regards se posant sur nous. « Je » n’est pas cette expression de la magnifique dignité humaine, mais un bien de consommation à la disposition d’autrui. C’est tout l’idéal des Lumières d’un individu à la dignité inestimable qui s’effondre. Loin de l’idéal kantien de l’homme auquel on ne saurait apposer un prix, nous nous trouvons dans le lieu du quantifiable, de l’estimable. Or, rien n’est plus valeureux que le sans-prix, rien n’est plus estimable que ce qui ne s’estime pas. La quantification monétaire nivelle l’homme, le ramène aux sphères du marché. Nous vivons dans l’ignorance de notre réduction au rang d’objet de consommation et d’outil de production par l’empire industriel du numérique. Constamment anxieux face à l’évolution du chiffrage de notre popularité, nous faisons la difficile expérience de l’homme-marchandise.

Les derniers versants de l’homme encore protégés de la marchandisation du monde tombent. La donnée produite lors de nos déplacements géolocalisés, nos préférences affichés sur les réseaux par un like posé afin d’orienter le ciblage publicitaire, notre temps d’attention monnayé, la sexualité encore plus largement soumise au marché… L’industrie du numérique a eu cette malice que de rendre possible des extensions pharamineuses des profits tout en laissant l’impression au consommateur moyen que ses actions étaient gratuites, sans incidences. Nous vivons dans une naïveté confondante qui nous laisse croire que le virtuel est la liberté et la gratuité, alors qu’il est le temple transformé en marché. 

Or, le problème du marché, c’est qu’il institue une éternelle relativité des choses : tout n’a de valeur qu’au regard de la qualité de l’offre et de la quantité de demande générée. Rien n’a donc plus de valeur en soi. Tout est conditionnel. L’homme ne repose plus alors sur aucune valeur intrinsèque. La fragilité de l’individu contemporain repose dans cette instabilité permanente imposée par l’idée marchande. Notre conscience individuelle de nous-mêmes est alors friable. Nous savons que nous existons, mais nous déplorons la relativité de la valeur de nos existences. Nous n’avons, à vrai dire, plus le choix. Toute réalité doit être garantie. Il faut pour cela qu’elle soit adossée à des institutions qui peuvent affirmer que ce que nous vivons est réel et indubitable. Cette institution, aujourd’hui, c’est le marché. Nous sommes suspendus à ses lèvres. Il nous permet d’évaluer la pertinence d’une idée, la qualité d’un livre, l’attractivité d’une personnalité, l’originalité d’une œuvre d’art. Il est notre référentiel, notre focale, ainsi que le marqueur de notre insignifiance.

L’industrie du numérique a eu cette malice que de rendre possible des extensions pharamineuses des profits tout en laissant l’impression au consommateur moyen que ses actions étaient gratuites, sans incidences.

Ainsi, pour plaire à ce marché, une seule solution : la standardisation. Nous devons nous conformer aux critères d’attractivité de l’époque. Si cela a toujours été, notre temps est marqué par l’exacerbation de cette pression. Nous avons désormais besoin de nous rassurer face à la fragilité de notre valeur sociale. Plus encore, il nous faut rendre désirable l’homme public que nous sommes, mais aussi notre intimité, tout doit pouvoir être visible et attractif. Alors, si je veux réussir sur YouTube, il me faudra privilégier les contenus courts, à forte teneur en divertissement afin de maximiser leur accessibilité, avec un montage rapide et un faible contenu réflexif de sorte à ne pas perdre l’attention du consommateur. De même, si je veux que mon profil fonctionne sur Instagram, il importe que je sois prêt à publiciser à un rythme régulier des pans toujours plus importants de mon existence, à surjouer une certaine comédie qui attire les regards et suscite des émotions, à faire preuve d’une grande expressivité pour générer l’empathie, etc.

L’homme a accès à ces standards qui ne l’englobent plus seulement dans une sphère dite professionnelle, mais bien dans l’entièreté de son être, de son existence. C’est son mode d’existence social qui est ici conditionné par le numérique. En bout de course nous assistons à « la standardisation du semblable – un monde où l’opacité de l’autre serait finalement balayée[1]. » En somme, nous nous ennuyons des autres, nous les savons prévisibles, et ils le sont d’autant plus que nous n’attendons d’eux ni plus ni moins que cette prévisibilité. Cette exigence de standardisation amène à la simplification des hommes. Une simplicité confondante qui laisse une certaine amertume à ceux qui cherchent encore une certaine profondeur dans les rapports humains. En bout de course, se trouve la consécration de la « vacuité » humaine, qui est l’aboutissement de toute civilisation technicienne ne cherchant que des hommes malléables.

Les réseaux sociaux en publicisant l’existence ont fait de chacun de nous des publicités ambulantes, soit pour notre propre entreprise individuelle que nous incarnons malgré nous, soit pour les biens de consommation qui nous environnent ou le mode de vie qui est le nôtre. Pour être vendu tout produit doit répondre à une certaine homologation. Cette homologation permet de rassurer le consommateur, il ne dérive pas ainsi en terres inconnues. Plus nous sommes homologués, autrement dit, standardisés, et moins l’incertitude sur le contenu montré est grande. En cela, elle rassure et fait gagner du temps, au détriment de la disparité et de la singularité des diversités humaines inscrites dans les schèmes culturels. Tout marché impose donc une marchandise standardisé. Et l’homme, s’il est considéré comme telle, n’y échappe pas. Cette tendance donne ainsi crédit à Jacques Ellul qui considère que « Le grand mot des techniques de l’homme, c’est : adaptation[2]. » Il nous appartient alors de constamment nous adapter afin de rester désirable sur le grand marché numérique dont l’émergence est encore récente. Cette désirabilité est la condition de notre succès mais aussi la seule voie possible afin d’éviter une frustration génératrice de déprime.

Face à la déliquescence des lieux de convivialité, l’amour a été rapidement pris d’assaut par le marché. Les maisons matrimoniales ont été remplacées par les applications de rencontre, et avec elles les bars, discothèques et bals populaires sont devenus secondaires. Les mécanismes de marché inscrits dans ces applications sont apparus comme des solutions au regard des difficultés croissantes à faire des rencontres, du caractère plus instable des unions et de la recherche d’une plus grande compatibilité[3].

Autre exemple d’affadissement des rapports humains par le marché numérique : le covoiturage. Alors que pendant longtemps cette pratique relevait de l’économie collaborative, du partage, amenant à ne concevoir les frais que pour indemniser les coûts de l’essence et des péages, ceci a été transformé par l’essor des applications numériques. Blablacar est venu monopoliser le marché, augmenter progressivement les frais des commissions. La plus grande publicité faite au covoiturage a amené alors de nouveaux profils, qui y voient plus une manne financière qu’un moment de partage en société. Progressivement, ce qui était spontané, franc et joyeux, est devenu aseptisé, fade et prévisible. Nous n’étions plus là pour nous découvrir, faire connaissance le temps d’un trajet, mais seulement pour soutenir financièrement le conducteur. Les passagers ont alors été libres de rester sur leurs écrans ou de dormir tout le long du voyage. L’interaction s’est mortifiée face au règne du marché. Les avis sur l’application ont ainsi participé à uniformiser les comportements, afin de les normaliser et ainsi de rassurer. Toute la curiosité d’un moment de partage s’est envolée à mesure que la prévisibilité et la standardisation exigées par le marché numérique se sont instaurées.

Désormais il est même possible de rendre profitable le seul fait de se séparer du monde qui nous entoure, de nous éloigner de nos proches. Si le temps d’attention a toujours été monnayé, il peut l’être aujourd’hui explicitement. « TikTok Lite » propose ainsi de rémunérer les individus à regarder des vidéos. Il n’y a pas de vente de soi-même plus explicite, il n’y a pas de plus grands mépris faits à la vie, que de donner son temps pour alimenter une passivité stérile. Notre attention, notre mémoire, notre imaginaire : tout se trouve corrompu, que le numérique agisse explicitement comme ici, ou insidieusement comme à son habitude. Mais pour la première fois des voix s’élèvent, craignant que les enfants ne soient en première ligne face à cette marchandisation assumée. Il semblerait que la superficie compte plus que la profondeur. La marchandisation de notre temps d’attention a toujours été, et il est bien hypocrite de s’en inquiéter le jour où une plateforme ne s’en cache plus. Un peu de courage aurait néanmoins permis de comprendre que le phénomène n’est pas nouveau et qu’il n’est pas plus grave aujourd’hui qu’il est su.

Le rôle du marché numérique est de trouver des solutions aux problèmes que nous rencontrons. Face à la solitude relationnelle existe l’opportunité d’émergence d’une nouvelle application.

Mais le rôle du marché numérique est bien de trouver des solutions aux problèmes que nous rencontrons. Face à la solitude relationnelle, face à un nouveau problème, existe l’opportunité d’émergence d’une nouvelle application. L’application « Timeleft » s’est ainsi donnée pour mission d’organiser des dîners entre inconnus pour les célibataires débarqués à Paris. Face à l’anomie créée par d’immenses métropoles techniciennes la solution toute trouvée a donc été de créer une plateforme de rencontres. La technique crée ainsi les solutions aux problèmes qu’elle engendre.  Elle crée de la sorte des marchés infinis sans jamais cesser d’alimenter un capitalisme toujours à bout de souffle. La misère (sociale, humaine, amoureuse…) permet ainsi de faire croître de nouveaux marchés, à condition que les consommateurs aient le pouvoir d’achat suffisant…

Dans ce capitalisme numérique, l’influenceur est une figure centrale. Cette vedette mécanique est censée, par la sympathie qu’elle génère, inciter ses abonnés à l’imitation. Pour imiter une personne qu’on ne connaît point rien de plus simple : il faut singer son apparence, son mode de vie, qu’importe si cela ne nous convient pas. Ils servent alors de diffuseurs de modes, de tendances. Leurs larges communautés, si elles ne se conforment pas à l’instant aux modèles véhiculés, ne tardent pas à observer une modification de leur perception. Certains objets qui ne les intéressaient pas deviennent désirés, d’autres qui suscitaient déjà une certaine attraction se transforment en besoins. Les placements de produits sont à ce titre centraux, ils permettent d’expliciter l’objectif de ces stars de la consommation. Mais ils sont aussi trompeurs : ils laissent suggérer un objectif de vente unique et bien délimité, alors que dans les faits, c’est tout le lifestyle, le mode de vie, de la vedette qui stimule le marché.

L’avènement de ces stars numériques n’est autre qu’une excroissance logique de la modernité qui après avoir fait tomber toutes les sources de vénération (le roi, Dieu…) cherche partout où elle le peut à se raccrocher à la première idole venue. Le vide créé par un environnement relativiste implique, en effet, de sacraliser quelques pans de nos vies, quelques personnes de renom, afin de donner un peu d’aspérité à une existence qui serait, autrement, trop plate pour être vécue. Le philosophe Fabrice Hadjadj avait ainsi anticipé ce biais de notre temps : « l’un des traits propres à la modernité est autant son iconoclasme que sa propension à fabriquer des icônes, sinon des idoles[4]. » Le « sacré » lui-même est ainsi victime d’un processus de consommation, les idoles, influenceurs, sont adorées puis vouées aux gémonies en un temps record, elles sont ainsi éternellement renouvelées, éternellement recyclées. Les esprits sont occupés à adorer des veaux d’or pour mieux pouvoir les faire s’effondrer.

L’enjeu n’est plus tant de tendre vers un absolu, de s’adosser à des croyances structurantes, mais bien plutôt d’occuper un temps morne. Leur influence est d’autant plus forte que tous les référentiels se sont, un à un, effondrés, ne laissant à l’individu contemporain qu’un néant auquel s’accrocher. La perspective de faire partie d’un groupe, d’une communauté, si stérile soit-il est alors une opportunité rêvée. Suivre un influenceur c’est l’assurance de ne plus être seul et de pouvoir interagir avec d’autres fans, de vivre par procuration une aventure, ce sont des ersatz face à une solitude contemporaine chronique. Tout devient monétisable, et chaque influenceur se fait l’égérie de son secteur d’activité : un influenceur se proclame référent de l’industrie du sport, un autre de l’industrie crypto-financière. Un autre préfèrera se spécialiser dans les produits de beauté voire dans le matériel artistique. Toute l’économie, même dans ses niches les plus microscopiques, est ainsi en partie soumise au rôle central d’influenceurs, même l’entomologie (l’étude des insectes !) dispose désormais de ses référents en la matière. Il peut tant s’agir d’une paire de bottines que de lunettes de soleil, ou bien d’une décoration d’intérieure et de jeux de société ou d’alcool à pratiquer en couple. Absolument tous les marchés ont choisi dans le monde numérique leurs égéries pour pénétrer les désirs de chacun.

Il se pourrait pourtant bien que cette même civilisation occidentale ait préparé sa propre perte. Autrement dit, l’Occident a rendu possible le sabotage de son idéal. Nous portions en germe la fin d’un humanisme qui avait pourtant été moteur pendant des siècles. Comment en sommes-nous arrivés là ? D’abord en consacrant la suprématie de l’intérêt particulier et de la propriété privée. Ces institutions libérales, essentielles à toute économie de marché, ont formé un environnement protecteur et souple pour le développement de la technique. Les brevets pour protéger les inventions ont fait florès, l’idée que l’enrichissement était une vertu s’est épanouie. La primeur de la liberté individuelle a inhibé l’intervention de l’État. L’innovation a ainsi pu germer, l’idée d’autonomie humaine a pu s’épanouir. Nous n’avions pas anticipé que de cette technique rendue profitable par le marché ferait flancher les fondements de la civilisation occidentale. Nous n’avions pas vu que le numérique serait instrumentalisé par des multinationales pour leurs profits, contre notre idéal. L’humanisme s’en trouve ébranlé, abîmé. Nous avions alors oublié que l’exigence de l’homme n’était envisageable que dans un contexte favorable, dans lequel l’individu n’était pas aliéné à un smartphone décidant de sa propre vie.

L’exigence humaniste de l’Occident et la valeur donnée à l’individu ont malheureusement lié les mains de sociétés entières face à l’industrie numérique. Le mantra selon lequel la liberté des uns s’arrête là où celle des autres commence devait mettre à arme égale la dignité des citoyens et les intérêts lucratifs des géants du numérique. Le poids donné à la liberté des individus s’appliquant aussi au commerce et aux logiques du marché, aucun État ne pouvait envisager des restrictions, sans sombrer dans de fameux travers totalitaires. Empêcher le règne du marché permis par le virtuel ne pouvait être autre chose qu’un crime contre la liberté humaine. C’est ainsi que l’Occident tout entier s’est livré aux appétits financiers, a délaissé ses ouailles pour servir une liberté qui détruisait toutes les autres. Heureuses ces firmes qui monopolisent les plus grands experts pour détruire la cognition de générations entières ! Pourquoi leur en vouloir ? Elles ne font que se saisir de notre candeur et de notre naïveté. Nous les laissons ainsi ravager notre liberté, notre singularité, notre pensée et notre terreau culturel… afin de rester conforme à ce qui fait le suc de notre culture : la liberté. 

Le rapport gouvernemental d’avril 2024 intitulé « Enfants et écrans, à la recherche du temps perdu », incarne ce paradoxe ancré dans notre culture. Il résume en quelques mots l’impasse libérale d’un modèle occidental impotent face à l’industrie numérique. Il associe alors toute contrainte législative à un retour au totalitarisme en assimilant les restrictions collectives à la mise en place de « policiers devant chaque maison ». Manque de courage politique, perte d’ambition de l’action publique, tout cela est certainement vrai. Mais nous avons surtout une foi aveugle dans la liberté laissée à chacun de régir sa vie. Foi qui serait envisageable si tout notre environnement n’était pas fait pour nous faire sombrer dans l’addiction facile et destructrice. Il revient alors aux « parents » de « se saisir de ces recommandations ». La liberté prime, le marché gagne, les générations, elles, y passent. Nous ne pouvons, en effet, nous en remettre exclusivement aux parents. La question ici est systémique et économique, faire reposer cet enjeu de santé publique sur les seules épaules individuelles est une erreur terrible condamnant au sentiment d’impuissance.

Quel terrible paradoxe finalement que celui de ces nations victimes de leurs propres enfants. Nous choyons la liberté et ne voyons pas grandir en son sein une industrie numérique qui nous promet l’asservissement. Nous avions érigé le marché en outil de puissance et d’expansion, mais refusons de le contrôler maintenant qu’il a pris son indépendance, s’est émancipé. Nous nous trouvons alors face à un géant, le numérique allié au marché, qui n’a plus de limites et peut – sans autre aval que sa propre volonté – envahir l’imaginaire et la psyché de populations entières. L’industrie numérique gagne la bataille en se servant des armes de l’Occident. Notre naïveté nous a coûté et continuera d’être l’objet d’une dette dont les générations futures auront à s’acquitter. Peut-être aurions-nous dû, pour protéger l’homme, arrêter le marché. Non pas le supprimer, mais lui imposer un périmètre, des limites. Lui annoncer qu’il peut s’étendre dans la mesure où il ne menace pas des équilibres civilisationnel et anthropologique. Le renoncement aux contraintes collectives semble être aujourd’hui le cheval de Troie par lequel toute une civilisation se trouve prise en otage. Triste tragédie que celle de l’érection de l’homme dans toute sa noblesse dont on refuse le droit d’exister.

L’Occident est ainsi le serpent qui se mord la queue. C’est bien parce qu’il en porte en lui l’idéal de singularisation humaine, qu’il ne se sent pas capable d’interdire, de limiter les forces du marché. La liberté individuelle doit pouvoir tout justifier, et donc ne pas s’arrêter, même quand l’industrie numérique ravage l’idéal d’un humanisme en pleine désertion. Alors, se libérer du poison numérique, dans un Occident acquis à la cause de la liberté individuelle, risque encore d’être long. Pour reprendre Benjamin Constant, ce qui compte pour nous Modernes, c’est la jouissance privée. Tout ce qui pourra être fait pour la limiter est criminel. Même si cette jouissance est utilisée pour nous asservir et empêcher la réalisation de l’homme.

L’urgence n’est autre que de dompter le numérique, de faire de l’État le « maître et possesseur » du monde virtuel. Son expansion ne doit plus revenir aux lois du marché mais bien aux décisions des peuples. L’objectif est simple : repolitiser le numérique. Il faut admettre qu’il n’est pas une donnée technique qui nous dépasse. Nous n’avons pas nécessairement à nous soumettre à sa course. Il nous revient désormais de lui donner son rythme. La technique crée un monde sans limite, il revient au pouvoir démocratique de la redéfinir. Son invasion des moindres interstices encore épargnés de nos vies doit cesser. Et le plus ironique dans tout cela, c’est que nous n’aurons pas d’autres choix que de dire « stop » au numérique.

Notes :

[1] Pierre Legendre, Ce que l’Occident ne voit pas de l’Occident, France, Les Quarante Piliers, 2023, p. 26.
[2] Ibid, p. 316.
[3] Zygmunt Bauman, La Vie liquide, Paris, Fayard, 2013.
[4] Fabrice Hadjadj, Puisque tout est en voie de destruction, Paris, Points, 2014, p. 65.

L’intelligence artificielle au cœur du massacre à Gaza

© LHB pour LVSL

Le média israélien +972mag a révélé l’usage déterminant de deux programmes d’intelligence artificielle (IA) lors de la campagne de bombardement contre la bande de Gaza. Le premier, Lavender, sert à sélectionner des cibles en attribuant à chaque Gazaoui une probabilité qu’il soit affilié à la branche armée du Hamas. Le second, Where’s Daddy ? (« où est Papa ? »), permet de déterminer lorsque ces cibles rejoignent leur domicile. C’est seulement à ce moment qu’une personne intervient dans la chaîne décisionnelle : vingt secondes pour valider une frappe aérienne sur la résidence, le plus souvent avec des bombes non-guidées rasant des immeubles entiers. Pour un simple homme de main, jusqu’à vingt victimes collatérales étaient autorisées. Pour un commandant, plusieurs centaines. Une rupture avec le droit de la guerre et le principe de proportionnalité, aggravée par le fait que l’IA commet de nombreuses erreurs à tous les niveaux de la chaine décisionnelle. Retour sur les implications d’une enquête précise et détaillée.

« L’accent, dans cette opération, a été mis sur l’ampleur des dégâts, pas sur la précision des frappes » déclarait le 10 octobre 2023 le porte-parole de l’armée israélienne. Pour défendre le nombre inédit de victimes civiles causé par l’offensive contre Gaza en réponse à l’attaque terroriste du 7 octobre, le gouvernement israélien et ses nombreux relais ont répété que de telles pertes résultaient de l’emploi de bouclier humain par le Hamas. Cet argument vient de voler en éclat.

Dans une longue enquête, le média indépendant israélien +972mag détaille comment l’armée a utilisé l’intelligence artificielle pour cibler délibérément et massivement des civils. Ces révélations reposent six sources militaires israéliennes. +972mag a déjà été à l’origine de révélations majeures sur le conflit et l’auteur Yuval Abraham, basé à Jérusalem, est un journaliste travaillant fréquemment pour des médias américains. Les autorités israéliennes n’ont apporté qu’un démenti partiel reposant sur des affirmations contredites par des déclarations antérieures.

En plus des sources militaires, dont certaines assument pleinement l’usage de ces outils et ont perdu des proches dans l’attaque terroriste du 7 octobre, l’enquête cite trois éléments susceptibles de corroborer ses affirmations. D’abord un livre publié en 2021 par le responsable de l’unité de renseignement d’élite « Unit 8200 » qui détaille le concept du programme d’Intelligence artificielle incriminé et justifie son usage, comme l’avait déjà rapporté le quotidien israélien Haaretz.

Deuxièmement, une conférence tenue en 2023 à l’université de Tel-Aviv par des officiers du renseignement, où ils avaient détaillé, à l’aide de PowerPoint, le fonctionnement du programme.  Enfin, l’enquête note que ses conclusions permettent d’expliquer le nombre important de familles entièrement tuées lors des premières semaines de bombardements et de confirmer les révélations de CNN qui affirmaient qu’une munition sur deux employée à Gaza était une dumb bomb (« bombe idiote » ou non-guidée). Ces différents éléments expliquent le crédit apporté à l’enquête par de nombreuses grandes rédactions occidentales – malgré son peu d’écho médiatique.

Lavender :  comment bombarder des cibles à leur domicile

L’enquête de Yuval Abraham est divisée en six parties qui décrivent chaque étape menant au bombardement volontaire d’un nombre disproportionné de civils, ce qui constituerait un cas flagrant de crime de guerre. Tout commence par l’identification des cibles potentielles. Elle est effectuée par Lavender, un programme informatique fonctionnant à l’aide du deep learning [« apprentissage profond » : une intelligence artificielle évolutive, modifiant ses algorithmes en fonction des données qu’elle capte NDLR].

Slide PowerPoint destiné à présenter le programme Lavender à l’Université de Tel-Aviv, obtenue par Yuval Abraham et reprise dans son enquête

En entrée, le programme reçoit deux types de données : des très larges quantités d’information collectées sur les habitants de Gaza par le système de surveillance de masse du renseignement israélien et les éléments de profils-types de combattants du Hamas connus des services d’espionnage (quel type d’usage font-ils de leurs téléphones portables ? où se déplacent-ils ? avec qui interagissent-ils ? Etc).

Le programme a ensuite été entraîné à reconnaître les comportements et indices propres aux membres du Hamas pour les comparer à ceux collectés sur le reste de la population. Le simple fait d’être dans un groupe Whatsapp avec une personne suspecte est un motif incriminant, comme recevoir un paiement du Hamas, avoir appartenu à ce groupe par le passé ou posséder l’ancien appareil électronique d’un suspect.

L’algorithme attribue à chaque habitant de Gaza un score de 1 à 100 représentant sa probabilité d’être affilié à la branche armée du Hamas. Les services de renseignements déterminent ensuite un score minimal à atteindre pour être placé sur la kill list et devenir une cible. La limite d’âge de 17 ans ayant été supprimée, des enfants ont été ciblés, explique l’une des sources de l’enquête.

Comme pour tout programme d’intelligence artificielle de cette nature, les erreurs sont courantes. Dans au moins 10 % des cas, Lavender fiche des « innocents ». Parmi les causes fréquentes, l’enquête cite le fait d’avoir le même nom ou surnom qu’un membre de la branche armée du Hamas, ou d’interagir avec le mauvais téléphone portable. Une fois validée, la cible est placée sur l’agenda de bombardement de l’armée. Une seule intervention humaine a lieu avant d’autoriser la frappe : une vérification visant à confirmer que la cible est bien un homme (la branche armée du Hamas n’employant pas de femmes). Selon l’enquête, cette vérification prend vingt secondes tout au plus.

« Si une cible donne son téléphone à son fils, son frère ou juste un inconnu, cette personne sera bombardée dans sa maison avec toute sa famille. Ça arrive souvent. C’est comme cela qu’ont été commises les principales erreurs », selon une des sources cites par l’enquête.

L’étape suivante consiste à localiser la cible. C’est là qu’intervient un second programme d’intelligence artificielle, au nom quelque peu obscène : Where’s Daddy ? (« où est Papa ? »). Le programme utilise les différentes sources d’informations et données disponibles pour déclencher une alerte lorsque « Papa » est rentré chez lui. C’est uniquement à ce moment qu’une frappe aérienne est ordonnée. Il peut s’écouler de nombreuses heures entre l’ordre et l’exécution de la frappe. La cible a parfois quitté son logement lorsque le bâtiment est détruit, tuant les voisins et la famille sans supprimer le suspect.

La principale raison citée pour frapper les cibles à leur domicile, où aucune activité militaire n’a lieu, est qu’il est plus facile de les localiser dans leurs logements qu’à l’extérieur du domicile familial. Cela découle du fait que chaque Gazaoui possédait une adresse physique associée à son profil. Bien entendu, si l’adresse n’a pas été mise à jour ou que l’individu a déménagé, des « innocents » et leurs voisins périssent pour rien, précise une source citée par l’enquête.

Where’s Daddy ? : bombes non-guidées et dommages collatéraux assumés

L’armée israélienne dispose de différents types de bombes et munitions. Les missiles tirés depuis les drones sont capables d’une très haute précision et causent des dégâts limités, ce qui explique pourquoi ils sont en priorité utilisés contre des véhicules ou des piétons. Les bombes conventionnelles guidées permettent de cibler un appartement précis, dans un immeuble ou un étage particulier d’une maison. Les bombes non-guidées et « anti-bunker » d’une tonne, quant à elles, disposent d’un pouvoir de destruction largement supérieur. Au minimum, elles permettent de raser un bâtiment entier. Les plus grosses peuvent sévèrement endommager un pâté de maisons.

L’essentiel des cibles identifiées par Lavender étaient des simples militants ou combattants du Hamas sans responsabilités. Pour éviter de « gaspiller » des munitions précieuses et coûteuses sur de la « piétaille », ces cibles ont été systématiquement visées avec des bombes non-guidées. Ce qui signifie que pour tuer un membre présumé du Hamas, une maison ou un appartement entier est détruit, ensevelissant sous les décombres la famille et les voisins de la cible.

L’enquête révèle que l’armée acceptait de tuer entre dix et vingt « innocents » par membre présumé du Hamas. Pour les commandants, responsables et officiers, ce chiffre pouvait monter à plusieurs centaines. Ainsi, pour tuer Ayman Nofal, le commandant du bataillon de Gaza centre, un quartier entier a été détruit par plusieurs frappes simultanées (entre seize et dix-huit maisons rasées). Pas moins de trois cents pertes civiles avaient été autorisées.

Pour tuer Oussama Ben Laden, Yuval Abraham note que les États-Unis avaient fixé la limite à trente pertes civiles. En Afghanistan et en Irak, les dommages collatéraux autorisés pour supprimer un membre de base des organisations terroristes étaient « simplement de zéro ».

L’autre problème lié à cette tolérance inédite pour les pertes civiles et qu’elles sont souvent mal estimées. Les femmes et enfants ne faisant pas l’objet de traçage aussi précis, le nombre de victimes potentielles retenu avant d’autoriser une frappe s’est fréquemment révélé inférieur à la réalité. L’armée israélienne a ainsi pu valider des frappes censées tuer un membre du Hamas et quinze femmes et enfants avant de raser un immeuble où se trouvaient deux fois plus de civils. Par exemple, en partant du principe qu’un bâtiment situé dans une zone où des consignes d’évacuations avaient été données était vide ou à moitié vide, sans se donner la peine de vérifier. Et pour ces troupes de base, l’armée ne procédait à aucune vérification post-frappes pour évaluer les dégâts et confirmer la mort de la cible.  

« Uniquement lorsque c’est un haut responsable du Hamas, on suit les procédures d’évaluation post-bombardement. Pour le reste on s’en fout. On reçoit un rapport de l’armée qui confirme si le bâtiment a été détruit, et c’est tout. Nous n’avons aucune idée du niveau des dégâts collatéraux, nous passons immédiatement à la cible suivante. L’objectif est de générer autant de cibles que possible aussi vite que possible. »

Source militaire israélienne citée par l’enquête de +972mag.

Après plusieurs semaines de bombardements intensifs, le tarissement des cibles potentielles a poussé les autorités israéliennes à abaisser le seuil à partir duquel le programme Lavender plaçait une personne sur la kill list. Cet algorithme a également été entraîné à partir des profils de simples fonctionnaires apparentés au Hamas mais ne faisant pas partie de la branche armée, ce qui a considérablement accru le risque pour tout civil gazaoui de se retrouver sur la liste, puisque les comportements suspects ne se limitaient plus à ceux des combattants et leurs soutiens directs.

Au paroxysme de la campagne de bombardement, qui aurait fait plus de 15 000 morts en quatre semaines, Lavender a placé plus de 37 000 personnes sur sa kill list.  

Des implications multiples et préoccupantes

La lecture de l’enquête et les citations des sources dépeignent une profonde perte de repère des autorités et membres de l’armée israélienne, tout en témoignant d’une déshumanisation totale des Palestiniens. Un comble pour une guerre présentée comme un combat existentiel entre la civilisation et la barbarie.

Si l’on résume : un programme ayant recours à l’intelligence artificielle est chargé de générer des cibles sur la base de critères extrêmement vagues, en croisant des données collectées par un gigantesque système de surveillance de masse à la légalité douteuse. Selon ses propres critères contestés en interne, Lavender se trompait au moins une fois sur dix. Cela n’a pas empêché de transmettre la liste de personnes à éliminer à un second programme, Where’s Daddy ?, reposant lui aussi sur des données incomplètes et pas toujours à jour, pour déterminer quand une cible regagnait son domicile. Quelques heures plus tard, une bombe non-guidée d’une tonne était larguée sur la maison où la cible pouvait ne plus se trouver, tuant les habitants du dit immeuble sans distinction. Ces frappes étaient autorisées après un contrôle prenant moins de vingt secondes. Aucune vérification visant à confirmer l’étendue des pertes civiles ou la mort de la cible n’était ensuite menée.

Le choix de viser les combattants présumés du Hamas chez eux, au milieu de leurs familles et de leurs voisins plutôt que lorsqu’ils sont à l’extérieur de leur domicile – et occupés à des activités militaires -, fait voler en éclat l’idée que les pertes civils records seraient dues à l’emploi de boucliers humains par le Hamas. Bien au contraire : c’est l’armée israélienne qui attendait que ses cibles soient au milieu de civils pour les frapper avec des bombes non-guidées et surdimensionnées.

L’autre point sur lequel insiste Yuval Abraham est la contradiction dans l’approche de l’armée israélienne. Pour justifier l’emploi d’armes non-guidées, la quasi-absence de vérification de l’identité de la cible avant la frappe et l’absence d’évaluation de celle-ci après le bombardement, les militaires citent le manque d’intérêt stratégique de la cible. Les bombes guidées et le temps des officiers étaient trop précieux pour être gaspillé sur ce type de cibles à faible valeur militaire. Mais dans ce cas, comment justifier autant de dommages collatéraux sans violer le principe de proportionnalité situé au coeur de droit de la guerre ?

Les révélations posent des problèmes plus larges. La quasi-suppression du facteur humain dans la décision de tuer est généralement considérée comme une ligne rouge, avec laquelle l’État hébreu semble flirter dangereusement. Un élément d’autant plus inquiétant que le gouvernement israélien a déployé des robots en forme de chiens à Gaza et fait un usage massif de drones de combat. En parallèle, le complexe militaro-industriel israélien met en avant l’utilisation de ces outils technologiques sur le champ de bataille comme autant d’arguments de vente à l’international.

Enfin, les révélations de +972mag mentionnent l’emploi de donnée Whatsapp pour cibler des Palestiniens, certains pouvant être simplement pris pour cible pour s’être retrouvé dans un groupe Whatsapp avec un membre du Hamas. Dans le contexte des bombardements indiscriminés et du siège total imposé à Gaza, les groupes de voisins se retrouvant sur des boucles Whatsapp pour coordonner l’entraide ont certainement éclos un peu partout, aggravant le risque de se trouver dans le mauvais groupe au mauvais moment. Ce qui rend l’usage de ces données pour cibler des suspects encore plus problématique. Plus largement, cette enquête pose la question de la collaboration de Meta (ex-Facebook) avec le gouvernement israélien, que soutiennent activement les principaux dirigeants de l’entreprise, et qui ne semble manifestement pas préoccupée par la sécurité de ses clients.

L’intelligence artificielle à l’heure du « risque de génocide »

Le système décrit dans l’enquête de Yuval Abraham n’est plus utilisé à Gaza. Une des principales raisons citées par ce dernier est le fait qu’il n’est plus possible de lier un suspect à sa résidence, l’écrasante majorité des maisons ayant été détruites et leurs habitants transformés en réfugiés. Mais alors que les États-Unis viennent d’approuver une offensive sur Rafah contre la promesse qu’Israël ne réplique pas trop sévèrement contre l’Iran, Yuval Abraham craint que le système soit de nouveau déployé contre la seule ville encore debout, où se sont réfugiés plus d’un million de Palestiniens. Trois mois après l’arrêt de la Cour internationale de justice (CIJ), qui pointe un « risque de génocide » à Gaza, se dirige-t-on vers un crime majeur assisté par ordinateur ?

Protectionnisme numérique : quand les États-Unis tournent le dos à l’OMC

Protectionnisme numérique - Le Vent Se Lève

Coup de tonnerre, le 24 octobre dernier, dans le petit monde feutré des négociations commerciales internationales. Les États-Unis annoncent un revirement majeur dans leur position vis-à-vis de l’accord sur le commerce électronique en discussion au sein de l’OMC1. Partisan jusque-là des mesures les plus « ambitieuses » – comprendre « contraignantes » – en matière de « libre-circulation des données à travers les frontières », d’interdiction faite aux États d’imposer des mesures de stockage ou de traitement des données sur leur sol, ou encore de « protection des codes sources », Washington ne les soutiendra finalement plus. La raison invoquée : se donner davantage de temps et de marges de manœuvre pour mieux réguler en interne avant de se lier au niveau international. Derrière, on trouve également la volonté diffuse d’endiguer la progression de la Chine en matière numérique.

Un argument d’autant plus surprenant que c’est précisément un de ceux que mobilisaient jusqu’ici en vain les principaux opposants à ces négociations. Lancées en janvier 2019 en marge du Forum de Davos, celles-ci étaient accusées de faire le jeu des géants – essentiellement américains – du numérique, qui cherchent depuis une dizaine d’années à instrumentaliser les accords de libre-échange pour se prémunir contre deux menaces croissantes2. D’une part, les tentations de « protectionnisme numérique » en vogue dans de nombreux pays du Sud. D’autre part, les appels de plus en plus pressants à mieux réguler un secteur accusé de favoriser le pillage des données personnelles, l’abus de position dominante ou encore la désinformation en ligne.

Grâce à un travail de lobbying qui a porté ses fruits3, les grandes plateformes ont pu enregistrer des victoires importantes dans des accords comme le Partenariat Transpacifique (dont les États-Unis se sont toutefois retirés suite à l’élection de Donald Trump) ou le nouvel accord Canada-États-Unis-Mexique (qui a remplacé l’ALENA en 2020). Des traités qui reprennent quasiment mot pour mot les listes de doléances des entreprises du numérique dans les chapitres consacrés au « commerce électronique »4. Depuis 2017, cette offensive s’était donc également déplacée vers l’OMC, aboutissant en 2019 au lancement de négociations « plurilatérales », c’est-à-dire menées par un groupe d’États « volontaires », mais ouvertes à tous les États membres.

Un dispositif à la légalité douteuse, censé permettre de contourner l’opposition véhémente de nombreux pays du Sud – Inde et Afrique du Sud en tête – qui rejetaient le principe même de ces négociations au motif qu’elles étaient non seulement prématurées, mais aussi largement biaisées en faveur des États-Unis et de leurs entreprises technologiques. Or, voilà que le gouvernement américain semble leur donner raison ce 24 octobre, par la voix du porte-parole du représentant américain au commerce (USTR) : « de nombreux pays, dont les États-Unis, examinent leurs approches en matière de données et de code source, ainsi que l’impact des règles commerciales dans ces domaines. Afin de laisser suffisamment d’espace politique à ces débats, les États-Unis ont retiré leur soutien aux propositions susceptibles de porter préjudice ou d’entraver ces considérations de politique intérieure »5.

Vent de colère

Signe de l’importance et du caractère inattendu de cette décision, elle a immédiatement suscité l’ire des principaux lobbys du numérique aux États-Unis et de leurs nombreux relais au Congrès, tant du côté Républicain que Démocrate. Le sénateur démocrate de l’Oregon, Ron Wyden, qui préside l’influent comité sur les finances, a ainsi fustigé une décision qui, selon lui, « laissera un vide que la Chine sera plus qu’heureuse de remplir »6. Un argument également martelé par la Chambre de commerce américaine, qui s’insurge : « les règles commerciales numériques américaines bénéficient d’un large soutien bipartisan au Congrès, dans les milieux d’affaires et parmi les gouvernements alliés. Les abandonner, c’est saper les efforts déployés pour tenir en échec les gouvernements autoritaires et créer un vide qui cède le leadership à d’autres nations »7.

Une personne en particulier concentre l’essentiel des attaques : Katherine Tai. Cette jeune avocate a été nommée au poste de USTR par Joe Biden en 2020, après s’être fait un nom à la chambre des représentants en défendant un rééquilibrage de la politique commerciale américaine en faveur des travailleurs. Un objectif qu’elle entend poursuivre malgré les oppositions qu’il suscite jusqu’au sein même de l’administration Biden8. Mise sous pression suite au revirement du 24 octobre, on lui reproche d’avoir agi de façon unilatérale au risque de sacrifier les intérêts des entreprises américaines. Des accusations qu’elle balaye, en expliquant : « cela ne veut pas dire que nous n’aiderons pas nos grandes entreprises. Mais cela signifie que nous devons nous arrêter et nous poser la question de savoir si ce qu’elles veulent est dans l’intérêt des États-Unis. Parce qu’en fin de compte, je travaille pour Joe Biden, et il travaille pour le peuple des États-Unis. Je ne travaille pas pour ces entreprises »9.

Or, Mme Tai n’est pas totalement seule au moment de s’attaquer au pouvoir croissant des Big Tech. À la Federal Trade Commission (FTC, l’agence anti-trust), par exemple, une autre nominée « progressiste » de M. Biden, Lina Khan, s’en prend aux pratiques anti-concurrentielles des grandes plateformes, avec notamment un important procès qui vient de démarrer contre Amazon10. D’autres procédures similaires sont également en cours contre Google ou Meta, tandis que Joe Biden lui-même vient de signer un décret présidentiel visant à mieux encadrer le développement de l’intelligence artificielle (IA)11. Il est donc évident que le climat général est plutôt favorable à un meilleur encadrement des pratiques des Big Tech aux États-Unis, ce qui explique et justifie la volonté affichée par Mme Tai de ne pas corseter ces initiatives par le biais de traités commerciaux contraignants12.

Endiguer la Chine

Mais d’autres facteurs ont également pu jouer. Pour le chercheur indien Parminder Jeet Singh, par exemple, il faut également lire la récente décision américaine à la lumière de la rivalité entre les États-Unis et la Chine. En effet, selon lui, « Le monde plat faisait le bonheur des États-Unis lorsqu’il signifiait leur hégémonie numérique sur ce monde. Mais avec la Chine qui les talonne rapidement sur la voie de la superpuissance numérique, la situation est devenue plus complexe »13. Échaudés par la façon dont la Chine a su tirer profit de son admission à l’OMC, en 2001, pour se hisser au rang de deuxième puissance économique mondiale, certains dirigeants américains (dont Mme Tai) craignent la répétition d’un scénario similaire en cas de libéralisation du commerce électronique dont la Chine pourrait également bénéficier. Sans compter qu’un accord trop contraignant viendrait également compliquer la stratégie de « découplage technologique » promues par l’administration américaine depuis plusieurs années pour contenir la montée en puissance numérique de Pékin14.

Dans ce contexte, toujours selon Singh, « La déclaration historique des États-Unis peut donc être vue sous deux angles différents. D’une part, elle indique un consensus de plus en plus large sur le fait que la préservation de l’espace politique national en matière de flux de données, de code source et de localisation des installations informatiques est essentielle à la réglementation numérique. Il s’agit là d’une évolution tout à fait bienvenue. Mais à un autre niveau, ce qui est plutôt inquiétant, c’est qu’elle pourrait renforcer la division de l’espace numérique mondial, des structures et des chaînes de valeur en deux blocs concurrents – l’un dirigé par les États-Unis et l’autre par la Chine ».

Pour contrer ce risque, d’aucuns misent sur les Nations Unies, dont le secrétaire général vient justement d’annoncer un projet de « Pacte numérique mondial », censé fournir un cadre de référence pour une réelle gouvernance mondiale du numérique15. Mais si l’ONU constitue indéniablement une instance plus légitime que l’OMC pour aborder des problématiques à la fois mondiales et multidimensionnelles comme la gouvernance des données ou la régulation de l’IA, l’institution souffre également de ses propres contradictions. À commencer, ici aussi, par les rivalités géopolitiques, mais également par le rôle accordé aux multinationales du numérique dans le cadre d’une approche « multipartite » (multistakeholders) historiquement privilégiée en matière de gouvernance d’internet16.

En attendant, reste à savoir ce qu’il adviendra des négociations en cours à l’OMC. Les États-Unis ont bien précisé qu’ils ne remettaient pas en cause l’accord en lui-même, mais seulement les dispositions les plus litigieuses. Dès le 6 novembre, un nouveau texte circulait qui reprenait un langage beaucoup plus consensuel en matière de circulation des données ou de protections des codes sources17. Une capitulation, pour ce négociateur cité (anonymement) par le Third World Network : « La question est de savoir si vous voulez un accord avec des avantages commerciaux substantiels ou simplement un accord pour avoir un accord ».

Mais pour d’autres opposants au texte18, c’en est encore trop. Les clauses problématiques ne se limitent en effet pas aux domaines les plus sensibles visés par la récente décision américaine. La volonté de supprimer définitivement les droits de douanes sur les produits électroniques, par exemple, pourrait avoir des répercussions au moins aussi importantes pour de nombreux pays du Sud19. Et, plus largement, le besoin de se ménager des marges et des espaces de régulation internes pourrait concerner des domaines dont on n’a peut-être même pas encore conscience, tant les choses évoluent vite en matière de numérisation.

De quoi appeler à la plus grande prudence donc, y compris dans d’autres accords de libre-échange qui incluent des clauses sur le « commerce électronique », à l’image de ceux que négocie l’Union européenne. Jusqu’ici, celle-ci s’est plutôt faite le relais des exigences des lobbys numériques américains, quitte à fragiliser ses propres ambitions de régulation interne et de « souveraineté numérique »20. Une conséquence dont se défendait encore il y a peu la Commission, en affirmant qu’il est tout à fait possible de concilier les deux. La récente volte-face américaine sonne toutefois comme un désaveu cinglant de cette position – au mieux – naïve.

Notes :

1 D. Lawder, « US drops digital trade demands at WTO to allow room for stronger tech regulation », Reuters, 26 octobre 2023.

2 C. Leterme, « Bataille autour des données numériques », Le Monde diplomatique, novembre 2019.

3 En particulier sous la présidence Obama. Entre 2014 et 2017, le responsable de la politique commerciale numérique américaine n’était autre que Robert Holleyman, jusque-là président de la Business Software Alliance (BSA).

4 D. James, « Digital trade rules : a desastrous new constitution for the global economy, by and for Big Tech », Rosa Luxemburg Stiftung, Bruxelles, 2020.

5 Cité dans Lawder, « US drops digital trade demands at WTO… », op. cit.

6 « Wyden Statement on Ambassador Tai’s Decision to Abandon Digital Trade Leadership to China at WTO », United States Senate Coommitee on Finance, 25 octobre 2023.

7 D. Palmer, « Biden administration delivers U.S. business a digital trade loss », Politico, 26 octobre 2023.

8 R. Kuttner, « Will Katherine Tai Prevail Over the Corporate Undertow? », The American Prospect, 27 juin 2023.

9 D. Palmer & G. Bade, « USTR Tai on the defensive after digital trade move », Politico Pro, 17 novembre 2023.

10 B. Serrure & P. Neirynck, « Le procès contre Amazon, un test pour l’avenir de la Big Tech », L’Écho, 27 septembre 2023.

11 A. Leparmentier, « Joe Biden annonce un plan de mesures pour contrôler l’intelligence artificielle », Le Monde, 31 octobre 2023.

12 F. Stockman, « Should Big Tech Get to Write the Rules of the Digital Economy? », The New York Times, 27 novembre 2023.

13 P. J. Singh, « The U.S.’s signal of a huge digital shift », The Hindu, 10 novembre 2023.

14 C. Leterme, « Tik Tok ou l’escalade dans la « guerre froide numérique » », CETRI, 13 août 2020.

15 https://www.un.org/techenvoy/global-digital-compact

16 « Pragmatic Deal or Tragic Compromise? Reflections on the UN SG’s Policy Brief on the Global Digital Compact », IT for Change, 6 juin 2023.

17 R. Kanth, « WTO: “Domino effect” of US pullout of proposals from JSI e-com talks », SUNS (n°9894), 10 novembre 2023.

18 À l’image du réseau altermondialiste Our World is not for Sale (OWINFS) qui mobilise sur cet enjeu depuis de nombreuses années : https://ourworldisnotforsale.net/digital.

19 C. Leterme, « E-commerce à l’OMC : l’étau se resserre sur les pays en développement », IRIS, 10 mars 2021.

20 C. Leterme, « Numérique et libre-échange : schizophrénie européenne ? », La revue européenne des médias et du numérique, n°67, automne 2023.

La bataille oubliée de Salvador Allende pour la souveraineté technologique

« La technologie, c’est la géopolitique par d’autres moyens » : telle serait la leçon oubliée de la présidence de Salvador Allende, et du coup d’État qui l’a renversé. C’est ce qui ressort du podcast du chercheur Evgeny Morozov The Santiago boys, fruit d’un long travail dédié au projet Cybersyn. Cet « internet chilien avant la lettre », système sophistiqué de télécommunications développé sous le gouvernement d’Allende, était destinée à asseoir la souveraineté du pays en la matière. La « voie chilienne vers le socialisme » passait par une émancipation vis-à-vis des technologies américaines, perçues comme un facteur de sous-développement. Le podcast d’Evgeny Morozov permet de prendre la mesure de l’ambition du gouvernement de Salvador Allende. En négatif, il souligne le désintérêt que porte une grande partie de la gauche contemporaine à la question de la souveraineté technologique. Recension.

Lorsque Fiona Scott Morton, ex-lobbyiste pour les GAFAM, a été nommée à un poste clef auprès de la commissaire européenne à la Concurrence, il ne s’est trouvée que la France pour protester – bien timidement. Une fois son retrait acté, une grande partie de la gauche européenne a repris son souffle : les institutions européennes étaient sauves, le système de checks and balances avait fonctionné, c’est la loi européenne qui allait s’appliquer, au bénéfice des Européens, et non des Américains.

Des Big Tech américaines, la gauche européenne critique l’opacité, le gigantisme, le coût écologique ou les liens avec l’extrême droite. Elle réclame, toujours à l’échelle européenne, une régulation plus stricte. Il y a peu encore, elle érigeait la commissaire européenne à la Concurrence Magrethe Vestager au rang d’héroïne pour avoir dénoncé les pratiques anti-concurrentielles des GAFAM. Le Digital Markets Act et le Digital Services Act, adoptés par les institutions européennes en 2022 sous son impulsion, étaient censées forcer les géants de la Silicon Valley à respecter leurs obligations auprès des consommateurs européens.

Mais rares sont, au sein de la gauche européenne, ceux qui s’en prennent à la suprématie américaine sur les géants du numérique en tant que telle. Il semble acquis que si ces derniers se plient à leurs obligations légales et offrent un service de qualité, leur nationalité américaine sur tout un continent ne soulève aucun problème particulier. Pas davantage que l’absence de souveraineté numérique des Européens.

Parmi les administrateurs de la multinationale américaine des télécommunications nationalisée par Allende, on trouve John McCone, ancien directeur de la CIA (1961-1965).

Une telle attitude entre dans la catégorie de ce qu’Evgeny Morozov nomme « solutionnisme technologique », qui consiste à analyser les enjeux techniques sous un angle purement fonctionnel, en évacuant leur dimension politique et conflictuelle1. Il n’est donc pas surprenant qu’il se soit intéressé au Chili des années 1970, où les infrastructures techniques – notamment celles liées à la télécommunication – font l’objet d’une intense politisation, et sont pensées sous le prisme de la souveraineté, ou de l’absence de souveraineté. Le plus important, déclarait Salvador Allende (cité par Morozov) n’était pas d’apporter une solution aux problèmes des services téléphoniques et télégraphiques que connaissait le Chili des années 1970 ; le plus important était de « trouver nous-mêmes nos propres solutions ».

Il n’était pas le seul à penser de la sorte. Une grande hétérogénéité caractérisait l’Union populaire, cette coalition qui a dirigé le Chili pendant trois ans sous sa présidence. Dans les ministères, on croisait aussi bien des socialistes bon teint que les marxistes-léninistes du MIR (Movimiento de izquierda revolucionaria, « mouvement de la gauche révolutionnaire »). Mais s’il est un point qui faisait consensus, c’est le caractère néfaste du monopole américain sur le secteur des télécommunications au Chili.

En Amérique latine, la multinationale ITT (International Telephone and Telegraph, basée à Washington) est honnie, d’abord pour les tarifs abusifs qu’elle pratique. C’est en les dénonçant que le jeune avocat cubain Fidel Castro obtient une première notoriété. Mais ce n’est pas la seule raison, ni la principale. Confier un secteur aussi stratégique à des capitaux étrangers et privés, estime-t-on, nuit à la souveraineté des populations latino-américaines – et les condamne à un sous-développement chronique. Une fois élu, Allende entreprend d’exproprier ITT. Une lutte souterraine s’engage.

Intérêts oligarchiques et dépendance technologique

Il ne s’agit pas seulement, on l’a vu, de permettre aux Chiliens d’avoir accès à un système téléphonique et télégraphique fonctionnel. Le problème réside moins dans la piètre qualité des services d’ITT et des multinationales analogues que dans l’asymétrie de pouvoir qu’elles entretiennent avec la population chilienne. ITT elle-même constitue un emblème vivant de la confusion entre le renseignement américain et le secteur privé.

Lorsque Salvador Allende nationalise ITT, les intérêts qu’il heurte n’ont rien d’anodin. Parmi les administrateurs de l’entreprise on trouve John McCone, ancien directeur de la CIA (1961-1965). Quelques années plus tôt, il avait supervisé le coup d’État contre le gouvernement brésilien de Joao Goulart ; il s’était alors appuyé sur cette même ITT, qui avait contribué à paralyser les télécommunications du pays. Et plus tôt encore, il avait participé à des opérations de sabotage contre le gouvernement de Fidel Castro à Cuba, dont les plus importantes concernaient… les télécommunications. Il n’était donc nul besoin d’être un marxiste particulièrement radical pour considérer que ces enjeux n’étaient pas réductibles à des questions techniques…

Ainsi, Allende tente d’attirer des ingénieurs du monde entier afin de poser les fondements d’un système de télécommunications qui permettrait au Chili de se passer des brevets et infrastructures fournis par Washington. Parmi eux, l’excentrique britannique Anthony Stafford Beer, versé dans la cybernétique. Avant les tristement célèbres Chicago boys, d’autres contingents internationaux ont cherché à bouleverser l’organisation sociale du pays : les Santiago boys.

Evgeny Morozov rappelle que ces ingénieurs radicalisés sont influencés par la « théorie de la dépendance ». Selon celle-ci, la faible souveraineté technologique du Chili cantonne le pays au statut d’exportateur de matières premières. Les pays riches, estiment les « théoriciens de la dépendance », monopolisent les savoir-faire technologiques et possèdent les conditions de leur reproduction. Les pays pauvres, de leur côté, condamnés à importer des produits à haute valeur ajoutée, ne possèdent pas les ressources nécessaires pour les concurrencer. Inertie institutionnelle aidant, cet avantage de départ pour les uns et ce handicap pour les autres se maintiennent. Ils tendent même à s’accroître avec le commerce international tel qu’il prédomine sous le capitalisme2. Avec le projet Cybersyn, les Santiago boys cherchent à briser ce cercle vicieux.

C’est ainsi qu’à huis clos, ils travaillent à l’élaboration de moyens de communication révolutionnaires. Ils ébauchent un système télégraphique qui permettrait d’envoyer des messages d’un point à un autre du territoire, et de les afficher sur des téléimprimeurs. À Santiago, une salle secrète, avec un écran, centralise ces échanges. Ce système, estiment les Santiago boys, permettrait de cartographier l’ensemble du pays, et de connaître en temps réel les besoins et les capacités de tout un chacun (la demande et l’offre), de la zone australe à la frontière péruvienne du Chili.

On voit qu’il s’agit de bien autre chose que de remplacer le système téléphonique et télégraphique existant : le projet Cybersyn ouvre la voie à des modes de coordination et de communication inédits. Par bien des aspects, il anticipe les prouesses réalisées plus tard par l’internet de la Silicon Valley.

De l’économie de guerre civile à la planification ?

C’est lors de la grève des camionneurs que le projet Cybersyn révèle son utilité. En 1972, le pays manque d’être paralysé : sous l’impulsion du mouvement d’extrême droite Patria y libertad et de la CIA, les conducteurs routiers se livrent à une obstruction des voies publiques. En face, les militants du MIR tentent de faire échouer le mouvement et d’assurer autant que possible la normalité des échanges.

L’outil des Santiago boys permet alors de faire état, en temps réel, de la situation des uns et des autres : les entreprises dont les routes sont bloquées, celles dont les routes sont libres, les entreprises en pénurie, celles qui sont en excédent, peuvent être mises en rapport. On espère ainsi mettre en échec l’asphyxie de l’économie souhaitée par les grévistes. Bien sûr, Cybersyn demeure encore embryonnaire.

Mais l’idée fait son chemin : ce mode de coordination, si prometteur en temps de guerre civile, ne pourrait-il pas être généralisé en temps de paix ? Si l’ensemble des entreprises du pays étaient connecteés au telex, elles pourraient faire état, en temps réel, de leurs intrants et de leurs extrants. Il serait alors possible d’agréger ces données, d’établir des régularités, et de repérer (avant même que les agents en aient conscience) les éventuels problèmes dans le processus de production.

Révolutionnaire, le projet Cybersyn ? Morozov souligne que la CIA possédait en réalité un réseau de communication similaire, avant même les années 1970.

L’ingénieur britannique Stafford Beer est féru de cybernétique, cette « science des systèmes complexes » généralement associée à une idéologie autoritaire et libérale. Il cherche à en faire un outil d’émancipation au service de la planification. Il expose sa conception « cybernétique » de l’État à Salvador Allende : comme un organe, l’État possède une partie consciente – qui prend des décisions politiques – et une autre non consciente – qui effectue au jour le jour des schémas réguliers, répétés spontanément sans réflexion.

Or, ces schémas réguliers deviennent rapidement obsolètes face à un réel en perpétuelle évolution. Pour qu’ils s’adaptent de manière incrémentale à ses changements, quoi de mieux qu’un système national de télécommunications permettant à chaque organe de connaître, en temps réel, les changement qui surviennent dans n’importe quelle sphère du gouvernement ou de l’économie ?

Morozov souligne l’hostilité encourue par Stafford Beer et les Santiago boys. Les médias conservateurs tirent à boulets rouges sur un projet décrit comme orwellien. Mais l’opposition, plus douce, vient aussi de la gauche : les marxistes-léninistes du MIR défendent le pouvoir ouvrier face à celui de quelques ingénieurs. Cette tension entre démocratie ouvrière et technocratie caractérise, plus largement, l’ensemble du mandat de Salvador Allende3. Couplée à l’intensification des manoeuvres de sabotage de l’opposition, elles expliquent que Cybersyn n’ait, en grande partie, jamais dépassé le stade de projet. Le 11 septembre 1973, il est définitivement enterré.

Quelles leçons du 11 septembre 1973 ?

Révolutionnaire, le projet Cybersyn ? Morozov souligne que la CIA possédait en réalité un réseau de communication similaire, avant même les années 1970. Afin de coordonner la répression anticommuniste, elle avait fourni un système de telex à ses alliés latino-américains, destiné à faciliter la coopération. Plusieurs historiens, interrogés par Morozov, détaillent son fonctionnement. À Washington, un écran géant centralisait l’ensemble des informations et des conversations. Il pouvait afficher les messages échangés entre les uns et les autres, mais aussi des cartes, ou réaliser des agrégations de données.

Les Chicago boys n’ont-ils fait qu’imiter, bien maladroitement, un système de télécommunication déjà existant ? Une autre question plus lancinante traverse ce podcast : durant la présidence d’Allende, ces réseaux parallèles ont-ils continué à opérer, et à faciliter la communication entre la hiérarchie militaire et les services américains ? Des événements troublants, rapportés par Morozov, laissent entendre que les officiers putschistes, le 11 septembre 1973, se sont appuyés sur un tel système pour distiller de fausses informations, générer de la confusion et permettre au coup d’État de parvenir à son terme. Quoi qu’il en soit, ce système a perduré dans les années 1970. Il a garanti aux protagonistes de « l’Opération Condor » des moyens de répression d’une redoutable efficacité.

Le podcast de Morozov offre une plongée dans les canaux souterrains du coup d’État de 1973, avec une précision chirurgicale. Il dévoile à quel point les réseaux de communication abandonnent leur apparente neutralité sitôt que la situation politique se tend, pour devenir des armes de guerre – aux côtés de la finance ou de l’armée.

On ne peut s’empêcher d’effectuer un parallèle avec la situation présente – et de contraster le volontarisme politique de l’Union populaire chilienne avec l’atonie d’une grande partie de la gauche contemporaine. Quant l’une tentait de se débarrasser d’ITT, l’autre semble paralysée face aux GAFAM – quand elle n’y est pas totalement indifférente.

Les multiples affaires d’espionnage du gouvernement américain sur ses homologues européens, permises par leur suprématie technologique, n’ont soulevé qu’une faible indignation. L’affaire Pierucci, qui a vu un cadre français d’Alstom arrêté par le Department of Justice (DOJ) des États-Unis, puis condamné sur la base de messages échangés via Gmail (à laquelle le DOJ avait bien sûr accès), n’a jamais réellement mobilisé la gauche française. Et face au Cloud Act voté sous le mandat de Donald Trump, qui officialise le droit pour les États-Unis de violer la confidentialité des échanges si leur intérêt national le leur intime, la gauche européenne est surtout demeurée muette.

On objectera avec raison que les Big Tech américaines présentent des défis autrement plus importants que les multinationales de la télécommunication d’antan. Mais qui pourra dire que l’expérience de l’Unité populaire face à ITT n’est pas riche d’enseignements pour le présent ? Et que le dédain d’une partie de la gauche française pour toute forme de souveraineté numérique ne constitue pas un problème majeur ?

Notes :

1 Les implications du « solutionnisme technologique » vont au-delà de ce qu’il est possible de présenter dans cet article. On renverra notamment à l’ouvrage d’Evgeny Morozov Le mirage numérique. Pour une politique du Big Data (Les prairies ordinaires, 2015).

2 La « théorie de la dépendance » au sens strict met l’accent sur l’asymétrie technologique entre pays riches et pays pauvres, et l’inertie institutionnelle qui permet à cet état de fait de perdurer. Elle est souvent conjuguée au « théorème Singer-Prebisch » (du nom des deux économistes l’ayant théorisé), qui postule une « dégradation des termes de l’échange » : sur le long terme, le prix des biens à haute valeur ajoutée tendrait à augmenter plus rapidement que le prix des matières premières. Il s’agit, on s’en doute, d’un facteur supplémentaire de maintien ou de renforcement de cette asymétrie technologique…

3 Dans Chili, 1970-1973 – Mille jours qui ébranlèrent le monde (Presses universitaires de Rennes, 2017), Franck Gaudichaud détaille par le menu ces contradictions qui caractérisent l’expérience gouvernementale chilienne.

Le néolibéralisme comme reformatage du pouvoir de l’État – Entretien avec Amy Kapczynski

Le néolibéralisme ne consiste pas dans le simple retrait de l’État au profit du marché : il est l’institution, par l’État, d’une logique de marché. Mais au-delà de ce lieu commun, est-il une simple idéologie, un régime économique ou un paradigme de gouvernance ? Amy Kapczynski, professeur de droit à l’Université de Yale et co-fondatrice du « Law and Political Economy Project », se concentre sur ce troisième aspect. Selon elle, le néolibéralisme consiste en un « reformatage du pouvoir de l’État », qui accouche d’un cadre institutionnel favorable à la maximisation du profit des grandes sociétés dont les géants de la tech et les entreprises pharmaceutiques constituent deux des manifestations les plus emblématiques. Entretien réalisé par Evgeny Morozov et Ekaitz Cancela, édité par Marc Shkurovich pour The Syllabus et traduit par Alexandra Knez pour LVSL.

Evgeny Morozov et Ekaitz Cancela – Comment définissez-vous le néolibéralisme dans votre travail?

Amy Kapczynski – Comme une logique de gouvernance orientée vers l’accroissement du pouvoir des acteurs du marché, et la diminution de l’autorité publique sur ces acteurs. Wendy Brown utilise un terme charmant, le « reformatage du capitalisme ». Il s’agit d’un reformatage du capitalisme qui vise non seulement à accroître le pouvoir des acteurs privés – et donc leur capacité à extraire du profit – mais aussi à combattre le contrôle démocratique sur ces acteurs.

Pour moi, c’est ainsi qu’il faut voir les choses, plutôt que, par exemple, comme un mouvement de déréglementation. Le néolibéralisme est en réalité très régulateur. Il est régulateur avec un paradigme et un objectif particuliers comme horizon. Il est important de garder à l’esprit la manière dont l’économie a été réglementée – par un droit du travail défavorable aux salariés ou une législation antitrust, entre autres – pour d’optimiser la recherche de profit.

Il est également important de comprendre les liens entre cette régulation et les paradigmes réglementaires de l’État-providence, de l’État carcéral, etc. En un mot, la période néolibérale n’est pas une période de déréglementation générale – en particulier aux États-Unis.

EM et EK Si l’on s’en tient à cette définition du néolibéralisme, que vous explorez dans votre excellente conversation avec Wendy Brown, observe-t-on des changements au sein de cette logique au cours des dix ou quinze dernières années ? Ou observe-t-on une continuité depuis les années 1970 ?Quelque chose de distinct est-il apparu à l’horizon, notamment avec l’essor des GAFAM?

AK – Le néolibéralisme a, d’une certaine manière, suspendu les anciennes formes de réglementation juridique pour les grandes entreprises technologiques, puis a amplifié certains aspects de la recherche du profit. Ces intermédiaires technologiques, du paysage des réseaux sociaux à Amazon, contrôlent la vie publique et l’économie d’une manière distincte et nouvelle.

Mais je ne pense pas que ces changements reflètent une mutation dans la logique néolibérale elle-même, mais plutôt sa portée lorsqu’elle est appliqué à un secteur qui peut être transformé à la vitesse d’un logiciel. Aujourd’hui, les processus mis en place par le néolibéralisme peuvent fonctionner avec une vitesse stupéfiante. Et la capacité de ces formes de pouvoir concentré à sillonner les domaines ostensiblement publics et privés est extraordinaire.

EM et EK – Les efforts intellectuels pour penser au-delà du néolibéralisme, sur lesquels vous avez attiré l’attention, se sont concrétisés de deux manières différentes – et vous êtes critique à l’égard des deux. Dans un essai, vous vous concentrez sur le « productivisme », ou libéralisme de l’offre, tel qu’il est défendu par Dani Rodrik et d’autres membres de la gauche progressiste. Dans un autre essai, vous vous attaquez à un mouvement de droite connu sous le nom de « constitutionnalisme du bien commun ».Commençons par le premier. Pouvez-vous nous parler des pièges que vous voyez dans le productivisme ?

Des mutations ont lieu dans la doctrine du droit constitutionnel. Le premier amendement a été interprété dans un sens favorable aux entreprises, qui revendiquent un statut constitutionnel

AK – Le productivisme et le libéralisme de l’offre évoquent tous deux un aspect important de l’incapacité des logiques néolibérales et de la gouvernance économique à produire une économie que nous souhaitons réellement. Ils nomment quelque chose qu’il est important d’aborder. Mais je pense également qu’ils ne doivent pas être considérés comme une réponse au néolibéralisme. Si l’on pense que « là où il y avait le néolibéralisme, il y a maintenant la politique industrielle et le productivisme », alors ce sera un changement très limité…

Le productivisme tel que l’exprime Rodrik – et je pense que le libéralisme de l’offre possède cette même qualité – donne le sentiment que nous nous tournons vers une gestion gouvernementale plus directe des chaînes d’approvisionnement, vers un investissement gouvernemental plus important dans nos secteurs manufacturiers. Le problème est que le secteur des services est bien plus important pour l’avenir des travailleurs américains que le secteur manufacturier. L’ancien concept de « production » ne dit pas grand-chose de l’économie actuelle.

Ainsi, l’idée selon laquelle nous devrions miser sur un nouveau productivisme semble laisser de côté beaucoup de nombreuses dimensions de la critique du néolibéralisme. Qu’en est-il de l’agenda de la santé ? Que fait-on des salariés du secteur des services ? Quid des liens que l’on établit entre le capitalisme et la question environnementale ?

Le productivisme pourrait suggérer, par exemple, que les technologies vertes constitueraient la solution au changement climatique – et on peut bien sûr considérer qu’elles font partie de la solution, si l’on ajoute qu’elles ne seront pas suffisantes. En réalité, le productivisme et le libéralisme de l’offre s’appuient sur des fondements contestables – battus en brèche, par exemple, par les approches féministes et écologistes.

Tout dépend de votre compréhension de l’objectif du productivisme. S’agit-il d’une tentative de fonder une alternative au néolibéralisme ? C’est ainsi que j’ai interprété l’utilisation du terme par Rodrik. Et si c’est le cas, il semble négliger de nombreuses critiques du néolibéralisme en le traitant comme s’il s’agissait uniquement d’un mode de production, et non pas également d’un mode de gouvernement. Si l’on ne voit dans le néolibéralisme qu’un mode étroit de production – dans le sens d’uen consolidation des marché -, on ne comprend rien à la gouvernance à laquelle il est lié. Le néolibéralisme, en effet, consiste également à contraindre certains pour que d’autres puissent être libres.

C’est la raison pour laquelle nous avons investi dans l’État carcéral comme moyen de discipliner les travailleurs et d’éviter les obligations sociales, la raison pour laquelle nous investissons davantage dans la police que dans les travailleurs sociaux, etc.

EM et EK – L’autre approche que vous mentionnez, le constitutionnalisme du bien commun, est mise en avant par certaines franges de la droite théocratique. Avant de discuter de son contenu, pouvez-vous nous parler du rôle de ces écoles juridiques conservatrices dans la consolidation du modèle néolibéral ?

AK – Je considère que le droit, et dans une certaine mesure les écoles de droit et les institutions dans lesquelles elles naissent, assurent la cohésion entre les idées néolibérales et la gouvernance. Ces idées sont toujours reflétées à travers des champs de pouvoir et changent à mesure qu’elles s’intègrent dans la gouvernance.

Le loi relative aux ententes et abus de position dominante en est un bon exemple. Les idées sur les pratiques antitrust introduites dans les facultés de droit sous le titre « Law & Economics » sont devenues très puissantes. Elles ont été utilisées pour normaliser une idée du fonctionnement des marchés. Selon ce point de vue, tant qu’il n’y a pas de barrières à l’entrée érigées par le gouvernement, la concurrence se manifestera toujours et les monopoles seront intrinsèquement instables. Les monopoles étaient considérés comme un signe d’efficacité d’échelle. De nombreuses modifications ont donc été apportées à la législation afin de faciliter les fusions-acquisitions. L’application de la loi antitrust a été soumise à une économétrie extrêmement précise, plutôt qu’à des règles qui auraient pu, par exemple, limiter la taille ou l’orientation structurelle de certaines industries.

La législation antitrust repose également sur une autre idée importante, à savoir que ce domaine juridique ne doit servir qu’un seul objectif : l’efficacité. Dans ce contexte, l’efficacité est définie en grande partie par les effets sur les prix. Les conséquences pour la structuration de notre politique, ou pour les travailleurs en général, n’étaient plus considérées comme importantes. Ce qui importait, c’était de réduire les prix pour les consommateurs. Ainsi, de nombreux modèles d’entreprise se sont bâtis sur l’idée de rendre leurs produits gratuits – comme les réseaux sociaux – ou générer les prix les plus bas possibles pour les consommateurs – comme Amazon. Que le secteur génère un pouvoir structurel démesuré, entre autres effets néfastes, n’est pas pris en compte.

En ce qui concerne le droit de la propriété intellectuelle, de nombreuses modifications ont également été apportées pour faciliter la capitalisation dans l’industrie de l’information. La création de nouveaux types de propriété, les brevets logiciels, les brevets sur les méthodes commerciales, l’extension des droits exclusifs associés à ces types de propriété sont autant de moyens de permettre la capitalisation dans l’industrie. Ils sont apparus en même temps que les formes de réglementation qui auraient pu être utilisées pour limiter la manière dont les entreprises de ces secteurs exerçaient leur autorité. Le Communications Decency Act en est un exemple.

On observe également des changements internes au gouvernement lui-même, comme la montée en puissance de l’analyse coûts-bénéfices.

Enfin, des mutations importantes ont lieu dans la doctrine du droit constitutionnel : que l’on pense à la manière dont le premier amendement est compris. Ce n’est qu’à partir de 1974 qu’il est interprété dans un sens favorable aux entreprises, ce qui revient à revendiquer, pour elles, un statut constitutionnel. Les changements apportés à la loi sur le premier amendement ont eu des répercussions multiformes, des syndicats aux financement de campagnes.

EM et EK – Certaines des caractéristiques que vous critiquez – l’accent mis sur l’efficacité ou l’analyse coût-bénéfice – pourraient également être attribuées au fétichisme de l’économie elle-même. Je ne les attribuerais pas nécessairement au néolibéralisme en tant que tel. Au sein de ce courant, on peut trouver des penseurs – comme James Buchanan – qui refusent de prendre l’efficacité comme horizon. Il semble donc que certaines de ces critiques concernent davantage la pratique que la logique. Lorsqu’il s’agit de la manière dont les tribunaux ou les organismes de réglementation prennent leurs décisions, ils doivent faire appel à certains outils – l’analyse coût-bénéfice étant l’un d’entre eux – mais cette passerelle vers la logique néolibérale pourrait être attaquée par les néolibéraux eux-mêmes…

AK – C’est l’occasion de s’interroger sur ce que signifie appeler le néolibéralisme une « logique ». Plus précisément, nous devons parler du néolibéralisme comme d’un reformatage du pouvoir de l’État. En ce sens, il s’agit d’une politique et non d’une logique pure, je suis tout à fait d’accord.

Lorsque vous examinez de près la logique de l’efficience telle qu’elle est utilisée en droit, il s’avère qu’elle est en réalité utilisée pour signifier de nombreuses choses différentes dans de nombreux contextes juridiques différents. En ce qui concerne la propriété intellectuelle, le type d’efficacité dont on parle donne la priorité à l’innovation sur tout le reste ; mais il n’a pas grand-chose à voir avec le type d’efficacité dont il est question dans la législation antitrust, ou avec le type d’efficacité exprimé par l’analyse coût-bénéfice. En fait, elles sont toutes différentes.

Et elles sont toutes différentes parce qu’elles répondent en fin de compte à des idées sur la prédominance d’un certain type de pouvoir : le pouvoir des marchés sur les formes démocratiques de gouvernance. Ces conceptions de l’efficacité s’expriment alors de différentes manières, en fonction des avantages que procurent ces formes de pouvoir. En ce sens, je suis tout à fait d’accord pour dire que nous ne sommes pas face à l’expression pure d’une certaine logique, mais plutôt de nombreuses expressions d’un projet politique qui prennent des formes différentes dans des contextes différents.

EM et EK – Vous avez également écrit sur la relation entre le néolibéralisme et les droits humains, plus particulièrement sur le droit à la santé. Que nous révèle cette focalisation sur la santé quant à la relation plus large entre les droits de l’homme et le néolibéralisme ?

AK – J’ai écrit l’article que vous évoquez en raison de la frustration que m’inspiraient à la fois la forme de la législation et du discours dominants en matière de droits de l’homme et certaines critiques de ce discours, comme celles de mon collègue Sam Moyn. Ayant participé au mouvement mondial pour l’accès au traitement du VIH et à d’autres médicaments, il est clair que la revendication d’un droit à la santé implique nécessairement des questions d’économie politique. Comment peut-on parler de droit à la santé si les sociétés pharmaceutiques, par exemple, se voient accorder des droits de monopole – des brevets – qui leur permettent d’augmenter les prix de produits vitaux, même sans la moindre justification que cela génère de l’innovation ? Regardez les hausses de prix de l’insuline, ou les hausses de prix du vaccin Moderna (qui a été massivement financé par des fonds publics et qui a clairement amorti tous les coûts d’investissement privés) contre le Covid durant la pandémie.

Si vous vous souciez de la santé, vous devez vous attaquer à la structure du secteur et à son pouvoir. Il existe des moyens de structurer l’industrie (notamment en donnant un rôle plus important à l’investissement public et à la réglementation des prix) qui pourraient conduire à la fois à un meilleur accès aux soins et à plus d’innovation. Les tribunaux et les institutions de défense des droits de l’homme devraient s’en préoccuper, tout comme les militants qui luttent pour le droit à la santé. Mais la plupart du temps ils rejettent cette perspective, parce qu’ils considèrent les brevets et la structure industrielle comme quelque chose d’entièrement distinct de la sphère des droits de l’homme.

C’est la frustration que j’éprouve à l’égard des approches fondées sur les droits de l’homme : ils ont pris forme à une époque de néolibéralisme exacerbé, où l’on pensait que les questions d’économie étaient totalement distinctes des questions de droits. Les droits de l’homme sont même revendiqués au nom des entreprises, qui affirment – parfois avec succès, comme dans l’Union européenne – que leurs droits de propriété intellectuelle méritent d’être protégés dans le cadre des droits de l’homme !

Mais il y a également eu des dissidences dans cette tradition – les organisations de lutte contre le sida soutenant que le droit à la santé pourrait permettre aux tribunaux de limiter le droit des brevets, par exemple. En ce sens, les critiques des droits de l’homme comme celle de Sam Moyn atténuent ou négligent parfois les initiatives inédites visant à utiliser cette tradition, y compris pour contribuer à la mobilisation de l’opinion publique, comme l’a fait le mouvement en faveur d’un meilleur accès aux médicaments.

EM et EK – Quels sont les principaux héritages du néolibéralisme dans la gouvernance mondiale de la santé ? Qu’est-ce que le Covid nous a appris sur leur pérennité et leur contestabilité ?

AK – Nous sommes face à un régime de gouvernance mondiale de la santé qui n’a pas contesté le pouvoir du secteur privé, et qui s’est accommodé de discours et de pratiques marchnades qui nuisent gravement à la santé. Dans le contexte du Covid, nous avons pu produire des vaccins extrêmement efficaces – une merveille scientifique – grâce à un soutien public considérable, y compris un soutien à la recherche sur les coronavirus qui a eu lieu de nombreuses années avant la pandémie, ainsi qu’un soutien à la surveillance mondiale des maladies et à l’analyse génomique qui ont été essentiels pour le processus.

Mais au cours des dernières années, des gouvernements ont décidé de ne pas imposer aux entreprises des conditions qui auraient contribué à garantir la possibilité d’utiliser les vaccins obtenus pour faire progresser la santé de tous. Nous avons autorisé un monopole de production des vaccins ARNm les plus efficaces au sein de chaînes d’approvisionnement privées auxquelles le Nord avait un accès privilégié, et nous avons autorisé les entreprises à refuser toute assistance aux efforts critiques de fabrication de ces vaccins dans le Sud.

Bien qu’il y ait eu une nouvelle prise de conscience que l’ordre commercial mondial et l’accord ADPIC (qui fait partie de l’OMC et protège les brevets sur les médicaments) posaient un réel problème, et qu’il y ait eu de petites tentatives de réforme, nous n’avons finalement pas réussi à surmonter la capacité de l’industrie à dicter les termes de la production et de l’accès aux vaccins – ce, en dépit de subventions publiques massives. Il s’agit d’un héritage de l’ordre néolibéral dans le domaine de la santé.

EM et EK – Vous avez expliqué en détail comment le système actuel des brevets actuel profite aux pays riches et aux entreprises. Y a-t-il des raisons d’être optimistes quant à la possibilité de changer la donne ?

AK – Je vois des raisons d’espérer. Le fait que le gouvernement américain se soit prononcé en faveur de la suspension d’au moins certaines parties de l’accord sur les ADPIC concernant le Covid était sans précédent. J’aurais aimé qu’ils aillent plus loin et que l’Europe ne soit pas aussi récalcitrante, mais il s’agit d’une étape importante et nouvelle. Cela reflète le fait que l’ordre commercial néolibéral est réellement remis en question, même si ce qui le remplacera n’est pas encore clairement défini.

Il s’agit de s’éloigner du principe selon lequel les marchés suivent leurs propres lois. Nous établissons les lois, les formes de pratiques sociales qui donnent leur forme aux marchés

Je fonde encore plus d’espoir sur des expériences comme cette nouvelle installation de production d’ARNm en Afrique du Sud, qui est soutenue par l’Organisation mondiale de la santé, et dans le fait que l’État de Californie travaille maintenant à la fabrication de sa propre insuline. Pour contester l’autorité des entreprises, il faudra non seulement modifier les droits de propriété intellectuelle, mais aussi procéder à de véritables investissements matériels comme ceux-ci, afin de modifier l’équilibre des pouvoirs sur les biens essentiels.

Il existe une coalition, petite mais solide, de groupes de pression dans les pays du Nord qui s’efforcent de remettre en cause le pouvoir et les prix des entreprises pharmaceutiques, et dont beaucoup ont commencé à travailler dans ce domaine en tant que militants pour un meilleur accès aux médicaments à l’échelle mondiale. Ce sont finalement ces liens entre les mouvements qui me donnent le plus d’espoir, parce qu’ils impliquent des personnes brillantes et créatives qui se penchent sur les questions les plus difficiles, comme la manière d’améliorer à la fois l’innovation et l’accès, et parce qu’ils le font d’une manière qui peut être réellement bénéfique pour les populations du Nord comme du Sud.

EM et EK – Nous avons parlé plus tôt du bagage ontologique que les économistes apportent à ce débat.Pensez-vous que l’on puisse effectuer une analyse similaire dans le domaine du droit? Que lorsque le néolibéralisme est abordé dans les facultés de droit, on passe souvent à côté du sujet ?

AK – Inversons les rôles. Qu’en pensez-vous ?

EM – Je pense que certaines réalités sont invisibilisées. Mais je ne pense pas qu’il s’agisse uniquement d’un problème spécifique aux juristes. Même dans le cas de Wendy Brown, il y a une certaine réticence à aborder le néolibéralisme comme quelque chose qui pourrait réellement jouir d’une légitimité – même parmi ses victimes, pour ainsi dire. Pour expliquer cela, je pense qu’il faut reconnaître que dans le néolibéralisme il existe des éléments réellement excitants, voire utopiques – ce qui n’est pas le cas si l’on se concentre uniquement sur le reformatage du pouvoir de l’État. Au niveau de la vie quotidienne, il est difficile de s’enthousiasmer pour les réglementations..

Quelqu’un comme Hayek pense que le marché est un outil de civilisation. Ce n’est pas seulement un outil d’agrégation des connaissances ou d’allocation des ressources, mais plutôt un moyen d’organiser la modernité et de réduire la complexité. Ce qui empêche la société de s’effondrer, compte tenu de sa multiplicité, c’est cette gigantesque boîte noire qu’est le marché, qui nous fait aussi avancer.

Si l’on n’en tient pas compte, si l’on n’introduit pas une sorte d’utopie parallèle et alternative, j’ai beaucoup de mal à imaginer comment une logique alternative pourrait voir le jour. Et je ne vois pas comment cette logique pourrait voir le jour en se concentrant uniquement sur la redistribution, les réparations ou la restauration du pouvoir de l’État administratif.

AK – Je suis d’accord pour dire que qu’à certains égards le néolibéralisme exerce un réel attrait. Les analyses historiques sur la manière dont la gauche, ou du moins les libéraux « progressistes », en sont venus à adopter le néolibéralisme, sont instructives. Ce dernier prétendait revitaliser certaines parties de la société américaine. Il possédait un élan libérateur.

Il allait discipliner un État qui était profondément bloqué, incapable de fournir les choses que les gens souhaitaient. Ayant été formé dans une école de droit, j’ai entendu, en tant qu’étudiante, l’histoire du rôle que le tournant vers cette efficacité était censé jouer, en tant que technologie neutre qui nous permettrait à tous de nous entendre et d’avoir les choses que chacun d’entre nous désirait. À ce titre, je pense qu’il a exercé un attrait puissant.

La question qui se pose alors est la suivante : si nous voulons critiquer le néolibéralisme, quelles sont ses alternatives ? Je suis très intéressée par les écrits de l’un de mes collègues de Yale, Martin Hägglund, en particulier par son livre This Life. Ce livre propose une vision laïque de la libération – être libre d’utiliser son temps comme on l’entend, et avoir une obligation envers les autres, pour partager le travail que personne ne veut faire – qui comporte des aspects de gouvernance très intéressants.

Mais ce n’est pas fondamentalement basée sur l’idée, par exemple, d’un État administratif plus fort. Il s’agit plutôt d’une idée de ce que nous devrions attendre d’un État et de ce que nous devrions attendre de notre politique. Pour moi, c’est passionnant parce que cela correspond bien aux mobilisations politiques contemporaines, qu’il s’agisse des mouvements en faveur la généralisation des soins de santé ou des mouvements visant à remplacer les réponses carcérales par des réponses plus solidaires, enracinées dans des formes de soins.

En d’autres termes, les critiques du néolibéralisme devraient prendre au sérieux une partie de son attrait populaire. Critiquer le néolibéralisme ne dit pas grand-chose sur les alternatives possibles. Avoir une idée de ces alternatives me semble très important.

EM – Dans l’un de vos récents essais, vous parlez de la nécessité de démocratiser la conception des marchés. Qu’est-ce que cela implique ?

AK – Il s’agit notamment de s’éloigner du principe selon lequel les marchés suivent leurs propres lois. Nous devons admettre que nous établissons les lois, les formes de pratiques sociales qui donnent aux marchés leur forme et leurs conséquences. Nous devrions comprendre que nous avons un pouvoir sur la conception des marchés et ne pas nous contenter de dire que l’offre et la demande sont à l’origine de telle ou telle chose.

Les produits pharmaceutiques constituent une manifestation indéniable de la manière dont notre pouvoir collectif, par l’intermédiaire de l’État, est utilisé pour façonner ce que l’on appelle les résultats du marché. Nous conférons une grande autorité aux entreprises pour fixer les prix, puis nous constatons que les prix des médicaments augmentent. Cette situation est en profonde contradiction avec l’idée que nous devrions tous avoir un accès à ce dont nous avons besoin pour être en bonne santé.

EM et EK – Mais toutes les alternatives proposées ne relèvent pas de positions aussi progressistes, y compris cette idée de constitutionnalisme du bien commun, pour finalement y revenir.

AK – C’est vrai. Le constitutionnalisme du bien commun est une évolution du raisonnement juridique qu’un groupe de penseurs essentiellement catholiques est en train de consolider, afin de réinjecter une morale catholique dans le discours constitutionnel. Une manifestation très concrète de ceci dans le contexte politique américain est l’abandon par la droite de l’originalisme, une approche historique de l’interprétation de la Constitution qui revient à ce que voulaient les « pères fondateurs », au profit d’un ordre constitutionnel plus musclé et plus affirmé, fondé sur des principes religieux.

Par exemple, les originalistes ont remporté une victoire célèbre dans la récente bataille autour de l’avortement en soutenant que le texte de la Constitution ne protégeait pas l’avortement et qu’il laissait donc cette question à la discrétion des États. Les constitutionnalistes du bien commun, quant à eux, sont beaucoup plus intéressés par une Constitution qui protégerait la vie du fœtus. Plutôt que de laisser les États choisir de protéger l’avortement, la Constitution du bien commun leur interdirait de le faire. Cette imprégnation de l’ordre constitutionnel américain par des valeurs religieuses est l’expression d’un mouvement plus large que j’observe dans la droite post-néolibérale.

Une caractéristique très forte de ce mouvement est de reconnaître les problèmes posés par le fondamentalisme du marché et le néolibéralisme – ils utilisent même ce terme – et d’affirmer que nous devons réintroduire des valeurs dans la vie américaine. Pour eux, cela devrait prendre la forme d’un retour au salaire familial, d’un retour aux familles normatives et hétérosexuelles, d’un retour à des formes de soutien de l’État pour des modes de vie ordonnés par la religion, d’un retour aux valeurs religieuses même sur le marché.

Aux États-Unis, on peut en observer des manifestations économiques à travers une entreprise comme Hobby Lobby, qui souhaite imprégner le marché d’un caractère religieux – et aller à l’encontre, aussi bien, du progressisme marchand que de la couverture des moyens de contraception. Ce qui me préoccupe à ce sujet – bien qu’il ne s’agisse que d’une petite partie d’une droite très large et diversifiée – c’est que cette mouvance possède une idée assez nette de la manière dont elle pourrait parvenir à la prééminence, c’est-à-dire par le biais de la Cour suprême, étant donné le pouvoir dont celle-ci dispose dans ce pays. Il s’agit donc d’une évolution très importante…

EM et EK – Pour revenir aux thèmes du néolibéralisme et de l’utopie, il semble que nous devrions essayer d’élaborer une théorie sociale capable de nous montrer quelles autres institutions permettent de créer un monde aussi diversifié et dynamique que celui qui est médiatisé par les marchés et le droit – ce qui correspond à la vision de Jürgen Habermas, avec quelques mouvements sociaux en plus.

Il y a vingt ans, les écoles de droit américaines étaient très douées pour imaginer cette dimension utopique, même s’il s’agissait d’une utopie naïve. Mais cette dimension a disparu de l’analyse du néolibéralisme aujourd’hui, ce qui est troublant. Les plus utopistes ont-ils été tellement traumatisés par l’essor de la Silicon Valley qu’ils ont renoncé à réfléchir à ces questions ?

AK – Je pense qu’il y a des idées utopiques – certainement des idées progressistes et ambitieuses – dans les facultés de droit de nos jours. Regardez certains travaux sur l’argent. Les gens réfléchissent à ce que cela signifierait de créer toutes sortes de choses, depuis des autorités nationales d’investissement jusqu’à une Fed fonctionnant selon des principes très différents, en passant par la réorganisation de la structure bancaire afin de permettre de nouvelles formes d’aide sociale et de lutter contre le changement climatique. C’est un exemple de quelque chose d’assez nouveau.

Nous voyons également de nombreuses demandes pour ce que l’on pourrait appeler la démarchandisation : des garanties de logement, des garanties de soins de santé, et même des expressions institutionnelles qui pourraient participer à ce que vous décrivez. En d’autres termes, comment gérer un système complexe tel qu’un établissement de santé en se basant sur les besoins plutôt que sur le profit ? Les gens ont vraiment réfléchi à cette question. Nous avons des expressions réelles de ces principes dans le monde, et elles inspirent des idées sur ce que cela signifierait de faire évoluer d’autres pouvoirs institutionnels dans cette direction.

Si vous deviez rassembler un grand nombre de ces éléments – des idées sur la façon dont les investissements pourraient être dirigés plus démocratiquement, sur la façon dont le logement pourrait être organisé plus démocratiquement, sur la façon dont les soins de santé pourraient être organisés plus démocratiquement ; tous ces éléments font l’objet de discussions au sein des facultés de droit, ainsi qu’en dehors de celles-ci – ils constitueraient les éléments d’une vision beaucoup plus affirmée d’un avenir qui n’est pas organisé selon des lignes néolibérales. C’est l’assemblage de toutes ces pièces, et le fait de leur donner un nouveau nom, qui n’a pas encore été accompli.

Mais je pense que ces éléments sont beaucoup plus intéressants que ce qu’on avait dans les années 2000, par exemple les mouvements autour du libre accès et des Creative Commons auxquels vous avez fait allusion, parce qu’ils abordent aussi directement la nécessité de disposer de certaines formes de pouvoir public pour créer ces choses. Et ils ne reposent pas sur une idée purement volontariste de ce que nous pouvons attendre ou réaliser.

EM – Je suis d’accord pour dire qu’il s’agit d’une vision radicale, mais elle est conservatrice à mon goût en ce qui concerne son mélange institutionnel. Je reconnais que la démarchandisation est radicale après 50 ans de néolibéralisme, mais elle n’est pas radicale si on la compare à l’État-providence britannique des années 1940.

AK – Je vous propose à présent de vous interroger sur les alternatives.

EM – La personne qu’il faut convaincre que le règne du marché est révolu n’est pas tant le juge ordinaire que quelqu’un comme Habermas. Or, il n’y a pas grand-chose qui puisse le convaincre que nous nous sommes éloignés du marché et du droit comme les deux formes dominantes à travers lesquelles la modernité prend forme.

Je ne vois pas beaucoup de réflexion sur les autres façons de formater la modernité. Sans elles, la seule chose que nous pouvons changer est l’équilibre entre les deux formes – que, bien sûr, je préférerais du côté de l’État plutôt que du côté du marché.

AK – Quels sont les nouveaux véhicules qui vous viennent à l’esprit ? Un rapport avec le socialisme numérique ?

EM – En fin de compte, je pense qu’il s’agit de formes alternatives de génération de valeur, à la fois économique et culturelle. Et cela implique de comprendre la contrepartie progressiste adéquate au marché. Pour ma part, je ne pense pas que le pendant progressiste du marché soit l’État. Je pense qu’il devrait s’agir de la culture, définie de manière très large – une culture qui englobe les connaissances et les pratiques des communautés.

AK – En ce sens, vous vous situez davantage dans la lignée des biens communs que dans celle de l’État ?

EM – Oui, c’est un moyen de fournir des infrastructures pour susciter la nouveauté et s’assurer que nous pouvons ensuite nous coordonner pour appréhender les effets qui s’ensuivent. La technologie est un élément clé à cet égard.

Une guerre de géants pour quelques nanomètres

Une guerre mondiale a été déclarée le 7 octobre dernier. Si aucune chaîne d’information n’a couvert l’événement, nous aurons tous à souffrir de ses conséquences. Ce jour-là, l’administration Biden a lancé une offensive technologique contre la Chine, en imposant des limites plus strictes et des contrôles plus durs sur l’exportation non seulement des micro-processeurs, mais aussi de leurs schémas, des machines utilisées pour graver les circuits sur silicone et des outils que ces machines produisent. Désormais, si une usine chinoise a besoin de n’importe lequel de ces composants pour produire des marchandises, les entreprises doivent demander un permis spécial pour les importer. Pourquoi les USA ont-ils mis en place ces sanctions ? Et pourquoi sont-elles si dures ? Article du journaliste Marco D’Eramo, publié dans la New Left Review et traduit par Marc Lerenard pour LVSL.

Comme l’écrit Chris Miller dans son dernier livre, « l’industrie du semi-conducteur produit, chaque jour, plus de transistors qu’il n’y a de cellules dans le corps humain » (La guerre des puces : le combat pour la plus indispensable des technologiques mondiales – 2022). Les circuits intégrés (les « puces ») font partie de chaque produit que nous consommons – c’est-à-dire de tout ce que la Chine fabrique -, des voitures aux téléphones, des machines à laver aux grille-pains, des télévisions aux micro-ondes. C’est pourquoi la Chine consomme plus de 70% des produits semi-conducteurs mondiaux, même si contrairement à ce que l’on peut penser, elle n’en produit que 15%. En réalité ce dernier chiffre est même trompeur : la Chine ne produit aucune des puces les plus récentes, celles utilisées à des fins d’intelligence artificielle ou de systèmes d’armements perfectionnés.

Nous ne pouvons aller nulle part sans cette technologie. La Russie l’a découvert lorsque, après avoir été placée sous embargo par l’Occident à la suite de son invasion de l’Ukraine, elle a été obligée de fermer certaines de ces plus grosses usines automobiles. La rareté des puces participe également de l’inefficacité relative des missiles russes : très peu sont « intelligents », c’est-à-dire disposant de micro-processeurs qui guident et corrigent leur trajectoire. Aujourd’hui la production des micro-processeurs est un processus industriel globalisé, avec quatre points nodaux principaux listés par le Centre pour les Etudes Stratégiques et Internationales : 1) les modèles de puces d’intelligence artificielle, 2) les logiciels d’automatisation de conception électronique, 3) l’équipement de fabrication des semi-conducteurs, 4) les composants d’équipements.

Même un commentateur aussi obséquieux que Martin Wolf du Financial Times ne pouvait s’empêcher d’observer que « les annonces récentes sur le contrôle de l’exportation des semi-conducteurs en direction de la Chine sont plus menaçantes que tout ce que Donald Trump a pu faire. C’est un acte de guerre économique ».

Comme il l’explique, les dernières mesures de l’administration Biden exploitent simultanément la domination américaine sur ces quatre points. Ces mesures montrent le degré jusqu’ici jamais atteint d’interventionnisme du gouvernement américain visant non seulement à préserver son contrôle sur ces technologies, mais également à lancer une nouvelle politique visant à étouffer activement de larges segments de l’industrie chinoise – avec l’intention de la tuer.

Chris Miller est plus modéré dans son analyse. « La logique », écrit-il, « est de mettre du sable dans l’engrenage » même s’il souligne également que « ce nouvel embargo sur les exportations ne ressemble à rien de ce qu’on a pu voir depuis la Guerre Froide ». Même un commentateur aussi obséquieux vis-à-vis des États Unis que Martin Wolf du Financial Times ne peut s’empêcher d’observer que « les annonces récentes sur le contrôle de l’exportation des semi-conducteurs, et des technologies associées, en direction de la Chine sont plus menaçantes que tout ce que Donald Trump a pu faire. Le but est clairement de ralentir le développement économique chinois. C’est un acte de guerre économique. Et cela aura des conséquences géopolitiques majeures. »

« Etouffer avec l’intention de tuer » est une caractérisation convenable des objectifs de l’empire américain, sérieusement préoccupé par la sophistication technologique croissante des systèmes d’armement chinois, de ses missiles hypersoniques à l’intelligence artificielle. La Chine a en effet réalisé d’importants progrès en la matière grâce à l’utilisation de technologies qui sont soit détenues, soit contrôlées par les États-Unis. Pendant des années, le Pentagone et la Maison Blanche ont observé avec sourde irritation leur concurrent faire des pas de géant avec des outils qu’ils lui avaient eux-mêmes fourni. L’anxiété vis-à-vis de la « menace chinoise » n’était pas juste une pulsion transitoire de l’administration Trump. De telles préoccupations sont partagées par l’administration Biden, qui poursuit désormais les mêmes objectifs que son prédécesseur, mais avec une vigueur redoublée.

L’annonce américaine a été effectuée quelques jours après l’ouverture du Congrès national du Parti communiste chinois. En un sens, l’interdiction d’exportation était une manière pour la Maison Blanche d’intervenir dans ces assises, qui devait cimenter la suprématie politique de Xi Jinping. À l’inverse des sanctions imposées à la Russie – qui, blocus sur les micro-puces mis à part, ont été relativement inefficaces -, ces restrictions devraient avoir un impact considérable, étant donné la structure unique du marché des semi-conducteurs et la particularité de sa chaîne de production.

L’industrie des puces de semi-conducteurs se distingue par sa dispersion géographique et sa concentration financière, qui s’expliquent par la forte intensité capitalistique de leur production. Cette intensité en capital s’accélère avec le temps, puisque la dynamique de l’industrie est fondée sur une amélioration continue des performances, c’est-à-dire la capacité à gérer des algorithmes de plus en plus complexes tout en réduisant la consommation électrique. Les premiers circuits intégrés fiables développées au début des années 60 contenaient 130 transistors. Le processeur Intel de 1971 en avait 2.300. Dans les années 90, le nombre des transistors dans une seule puce dépassait le million. En 2010, une puce contenait 560 millions, et en 2022 l’IPhone d’Apple en avait 114 milliards. Puisque les transistors deviennent de plus en plus petits, les techniques de leur fabrication sur un semi-conducteur sont devenues de plus en plus sophistiquées : le rayon de lumière qui trace les plans devait être d’une longueur d’onde de plus en plus petite. Les premiers étaient de l’ordre de 700 à 400 milliardièmes de mètres – autrement dit, de nanomètres (nm). Au fil du temps, ils ont été réduits à 190 nm, puis 130 nm, avant d’atteindre les limites de l’ultraviolet : seulement 3 nm.

Une technologie coûteuse et hautement complexe est nécessaire pour atteindre ces dimensions microscopiques : des lasers et des appareils optiques de précision remarquable ainsi que les diamants les plus purs. Un laser capable de produire une lumière suffisamment stable et précise est composé de 457.329 parties, produites par des dizaines de milliers de sociétés spécialisées réparties à travers le monde – une seule imprimante de micro-puces avec ces caractéristiques possède une valeur de 100 millions de dollar, le dernier modèle ayant un coût prévu de 300 millions. Cela veut dire que l’ouverture d’une usine de micro-processeurs requiert un investissement d’environ 20 milliards – plus ou moins le même montant que pour la construction d’un porte-avion.

Notre modernité technologique est caractérisée par un paradoxe de taille : une miniaturisation infinitésimale nécessite des installations toujours plus titanesques, et d’une ampleur telle que même le Pentagone ne peut se les permettre, en dépit de son budget annuel de 700 milliards de dollars.

L’investissement doit porter ses fruits rapidement, puisqu’en quelques années les micro-puces sont dépassées par un modèle plus avancé, plus compact et plus miniaturisé, ce qui nécessite un équipement, une architecture et des procédures entièrement nouveaux. Il y a bien des limites physiques à ce procédé ; nous avons désormais atteint des couches de quelques atomes d’épaisseur seulement – raison pour laquelle il y a tant d’investissements dans l’informatique quantique, dans laquelle l’incertitude quantique n’est plus une limite, mais une caractéristique à exploiter. Aujourd’hui, la plupart des sociétés de composants électroniques ne produisent plus de semi-conducteurs ; ils se contentent de modéliser et de planifier leur architecture, d’où le nom standard que l’on utilise pour les nommer : fabless (« sans fabrication »). Mais ces entreprises ne sont pas non plus des sociétés artisanales. Pour donner quelques exemples, Qualcomm emploie 45.000 ouvriers et a un chiffre d’affaires de 35 milliards de dollar, Nvidia en emploie 22.400 avec un revenu de 27 milliards, et AMD a 15.000 employés et 16 milliards de revenus.

Ainsi, notre modernité technologique est caractérisée par un paradoxe de taille : une miniaturisation infinitésimale nécessite des installations toujours plus titanesques, et d’une ampleur telle que même le Pentagone ne peut se les permettre, en dépit de son budget annuel de 700 milliards de dollars. Et dans le même temps, un tel processus nécessite un niveau d’intégration lui aussi croissant pour assembler des centaines de milliers de composants différents, produits par diverses technologies, chacune d’entre elles hyper-spécialisées.

La poussée vers la concentration est inexorable. La production de machines qui « impriment » ces micro-puces de pointe est sous le monopole d’une seule société néerlandaise, ASM international, tandis que la production des puces elles-mêmes est réalisée par un nombre restreint de sociétés (qui se spécialisent dans un type particulier de puce : logique, DRAM, memory flash, élaboration graphique…). La compagnie américaine Intel produit presque tous les micro-processeurs d’ordinateur, tandis que l’industrie japonaise – qui atteignait des sommets dans les années 80 avant d’entrer en crise à la fin des années 90 – a été absorbée par la société américaine Micron, qui détient toujours des usines à travers l’Asie du Sud-Est.

Il n’y a, cependant, que deux vrais géants de la production matérielle : l’un est Samsung en Corée du Sud, privilégiée par les États-Unis pendant les années 90 pour contrer la montée du Japon, dont la précocité avant la fin de la Guerre Froide était devenue une menace ; l’autre est TSMC (Taiwan Semiconductor Manufacturing Company, avec 51.000 employés, un chiffre d’affaire de 43 milliards, et un profit de 16 milliards), qui fournit toutes les sociétés fabless américaines, produisant 90% des puces mondiales les plus avancées.

Usine du groupe TSMC à Taiwan. © Briáxis F.Mendes (孟必思)

Le réseau de production des puces est ainsi hautement disparate, avec des usines éparpillées à travers les Pays-Bas, les États-Unis, Taiwan, la Corée du Sud, le Japon et la Malaisie. Il est également concentré dans les mains de quasi-monopoles (ASML pour la lithographie ultraviolet, Intel pour les micro-processeurs, NVIDIA pour les GPUs, TSMC et Samsung pour la production) avec des montants d’investissement astronomiques. C’est ce réseau qui rend les sanctions si efficaces : un monopole américain sur la conception des micro-puces, établi par ses grandes sociétés fabless, à travers lesquelles une influence colossale peut être exercée sur les sociétés dans les États-vassaux qui produisent réellement le matériel. Les États-Unis peuvent efficacement bloquer le progrès technologique chinois puisqu’aucun pays dans le monde n’a la compétence ou les ressources pour développer de tels systèmes sophistiqués. Les États-Unis eux-mêmes dépendent d’infrastructures technologiques développées en Allemagne, en Grande-Bretagne et ailleurs.

Cependant, il n’est pas juste question de technologie : des ingénieurs formés, des chercheurs et des techniciens sont aussi nécessaires. Pour la Chine, donc, la pente à gravir est escarpée – et même vertigineuse. Dans ce secteur, l’autarcie technologique est impossible.

Beijing a naturellement cherché à se préparer à cette éventualité, ayant prévu l’arrivée de ces restrictions il y a quelques temps déjà, en accumulant des puces et en investissant de fortes sommes dans le développement d’une production technologique locale. Elle a fait quelques progrès en la matière : la société chinoise Corporation internationale de production de semi-conducteurs (SIMC) produit aujourd’hui des puces, même si sa technologie est en retard de plusieurs générations sur TSMC, Samsung et Intel. Il sera cependant impossible pour la Chine d’arriver à la hauteur de ses concurrents. Elle n’a pas accès à des machines lithographiques ou aux ultraviolets de haute qualité fourni par ASML, qui a bloqué toute exportation. L’impuissance de la Chine face à cette attaque est évidente : il suffit de considérer l’absence totale de réponse officielle des dirigeants de Beijing, qui n’ont pas annoncé de contre-mesures ou de représailles pour les sanctions américaines. La stratégie qui est préférée semble être la dissimulation : continuer à travailler sous les radars plutôt que d’être jeté à la mer sans bouée.

Les vassaux doivent choisir leur camp lorsqu’un conflit éclate. Un conflit qui se présente comme une gigantesque guerre, même si elle est menée pour quelques millionièmes de millimètres.

Le problème pour le blocus américain est qu’une large proportion des exportations de TSMC (puis celle Samsung, Intel et ASML) est destinée à la Chine, dont l’industrie dépend de l’île qu’ils veulent annexer. Les Taïwanais sont bien conscients du rôle central que joue l’industrie de semi-conducteurs dans leur sécurité nationale, si bien qu’ils parlent de « bouclier de silicone ». En effet, les États-Unis veulent tout faire pour éviter de perdre le contrôle de cette industrie, et la Chine ne peut se permettre de détruire ces infrastructures lors d’une invasion. Mais ce raisonnement était plus tenable avant le déclenchement de la Guerre Froide actuelle entre la Chine et les États-Unis.

En réalité, deux mois avant l’annonce des sanctions sur les micro-processeurs à destination de la Chine, l’administration Biden avait lancé le CHIPS Act, qui allouait 50 milliards au rapatriement d’au moins une partie de la chaîne de production, forçant presque Samsung et TSMC à construire des nouveaux sites de production (et à mettre à jour les anciens) sur le sol américain. Samsung a depuis engagé 200 milliards pour construire 11 nouveaux centres au Texas pour les dix prochaines années – même si le calendrier risque de se compter en décennies, au pluriel. Tout cela indique une chose : si les États-Unis sont certes prêts à « dé-globaliser » une partie de leur appareil productif, il est aussi très difficile de découpler les économies chinoises et américaines après 40 ans d’immixtion réciproque. Et il serait d’autant plus compliqué pour les États-Unis de convaincre ses autres alliés – Japon, Corée du Sud, Europe – de démêler leur économie de la Chine, en particulier puisque ces États ont historiquement utilisé ces liens commerciaux pour se libérer du joug américain.

L’Allemagne constitue un cas d’école : ce pays est le plus grand perdant de la guerre d’Ukraine. Ce conflit a remis en question chacune des décisions stratégiques de ses élites ces cinq dernières décennies. Depuis le début du millénaire, l’Allemagne a fondé sa fortune économique – et donc politique – sur sa relation avec la Chine, devenue son principal partenaire commerciale (leurs échanges commerciaux équivalent à 264 milliards de dollars annuels). Aujourd’hui, l’Allemagne continue de renforcer ses liens bilatéraux avec la Chine, en dépit du refroidissement des relations entre Washington et Beijing et la guerre en cours en Ukraine, qui a perturbé le rôle d’intermédiaire de la Russie entre le bloc allemand et la Chine.

En juin, le producteur chimique allemand BASG a annoncé un investissement de 10 milliards dans une nouvelle centrale au Zhanjiang dans le sud de la Chine. Olaf Scholz a même fait une visite à Beijing plus tôt dans le mois, menant une délégation de directeurs de Volkswagen et de BASF. Le chancelier est venu avec des cadeaux, s’engageant à autoriser l’investissement controversé du Chinois Costco dans un terminal pour containers dans le port d’Hambourg. Les Verts et les libéraux (membres de la coalition au pouvoir avec le SPD d’Olaf Scholz, ndlr) ont critiqué cette décision, mais le chancelier a répondu que la part de Costco ne s’élèverait qu’à 24,9%, sans aucun droit de veto, et ne couvrirait qu’un seul des terminaux d’Hambourg – incomparable avec l’acquisition pure et simple du Pirée en 2016. Finalement, l’aile la plus atlantiste de la coalition allemande a été forcée d’accepter la décision.

Dans la conjoncture présente, même ces petits gestes – le voyage de Scholz à Beijing, moins de 50 millions de dollars d’investissements chinois à Hambourg – semblent être des actes majeurs d’insubordination, surtout après les dernières sanctions américaines. Mais Washington ne pouvait pas s’attendre à ce que ses vassaux asiatiques et européens embrassent simplement cette dé-globalisation comme si l’ère néolibérale n’avait jamais eu lieu : comme si durant ces dernières décennies, ils n’avaient pas été encouragés, poussés, presque forcés à lier leurs économies les unes aux autres, créant une toile d’interdépendances qu’il est aujourd’hui difficile de rompre.

Et pourtant, les vassaux doivent choisir leur camp lorsqu’un conflit éclate. Un conflit qui se présente comme une gigantesque guerre, même si elle est menée pour quelques millionièmes de millimètres…

Evgeny Morozov : « L’Union européenne a capitulé face aux géants de la tech »

Evgeny Morozov © Clément Tissot pour Le Vent Se Lève

Auteur d’ouvrages influents sur la Silicon Valley, Evgeny Morozov analyse les conséquences de la mainmise des géants américains de la tech sur les sociétés occidentales [1]. Il met en garde contre les critiques qu’il estime superficielles de cette hégémonie, focalisées sur la défense de la vie privée ou de la souveraineté du consommateur, tout en restant silencieuses sur les déterminants économiques et géopolitiques de la domination des Big Tech américaines. Nous l’avons interrogé dans le cadre de sa venue à Paris pour une intervention lors de la journée de conférences organisée par Le Vent Se Lève le 25 juin dernier. Entretien réalisé par Maud Barret Bertelloni, Simon Woillet et Vincent Ortiz, retranscrit par Alexandra Knez et Marc Lerenard.

Le Vent Se Lève – En 2021, l’annonce par Joe Biden du démantèlement des Big Tech et la plainte contre Facebook intentée par la procureure démocrate Letitia James avaient suscité un important engouement médiatique. Cette volonté de briser le pouvoir des géants de la tech semble cependant appartenir au passé, en particulier depuis l’invasion de l’Ukraine par la Russie. Comment faut-il comprendre l’agenda de Biden sur les Big Tech ? Était-il une simple annonce médiatique, ou le symptôme de tensions grandissantes entre l’État américain et les entreprises de la tech ?

Evgeny Morozv  Le débat sur les Big Tech aux États-Unis – tout comme en Europe – est fonction de nombreux intérêts divergents et concurrents. Il résulte des conflits entre différentes factions du capital : certaines appartiennent au capital financier, d’autres au capital de type entrepreneurial (start-ups, capital-risque) ou à des industries qui ont un intérêt dans les données, comme le secteur pharmaceutique. La deuxième dimension du débat est géopolitique : elle tient à la volonté de maintenir le statut hégémonique des Etats-Unis dans le système financier international. Après 4-5 années de politiques incohérentes de l’administration Trump, il faut d’une part comprendre ce que l’on fait de la libéralisation des échanges, des traités bilatéraux ou encore des pactes commerciaux, et de l’autre ménager la puissance chinoise qui se profile à l’horizon, comme rivale possible à cette hégémonie.

Au vu des forces en présence, je ne m’attendais personnellement à aucune cohérence quant à l’agenda Biden sur les Big Tech – une farce progressiste, qui renouvelle une critique libérale éculée du capitalisme dominé par les grandes sociétés. Les différences factions du capital, nationales et internationales, tirent dans des directions opposées. La faction qui souhaite maintenir l’hégémonie américaine s’oppose à toute forme d’affaiblissement des Etats-Unis et de renforcement conséquent de la Chine ; cela n’a rien de nouveau. Quand Mark Zuckerberg se rend au Congrès avec une note qui dit déclare en substance : « ne nous démantelez pas, sinon la Chine gagnera », il ne fait que reconduire une vieille stratégie. Pendant les audiences du Congrès de l’ITT, dans les années 1973-74, les cadres de cette entreprise utilisaient la même rhétorique, déclarant que si l’on affaiblissait ITT, Erickson allait arriver et dominer les marchés américains [2].

LVSL – Par rapport au contexte des années 1970, comment caractériseriez-vous la relation actuelle entre l’État américain et les entreprises de la tech ? On a aujourd’hui une idée assez claire des contours du complexe militaire-industriel de l’époque, avec l’investissement de l’État dans la R&D (recherche et développement) et un important financement académique. Quelle est la nature de ce soutien aujourd’hui ?

EM – Il y a toujours d’important financements à travers la National Science Foundation, quoique bien inférieurs aux dépenses de Guerre froide. Walter Lippmann, l’un des penseurs les plus lucides de l’hégémonie américaine, soulignait dans un essai au début des années 1960 à quel point ce n’est que grâce à la Guerre froide que les États-Unis ont véritablement innové et développé la recherche et l’industrie nationales dans le domaine de la science et des technologies. D’une certaine manière, il trouvait ce contexte de Guerre froide bienvenu : une fois terminée, aucun de ces efforts de R&D ne survivrait. La Chine prend aujourd’hui le relai. Des individus comme Peter Thiel ont parfaitement compris que la menace chinoise est l’argument le plus simple pour mobiliser de l’argent pour le financement des entreprises privées. Elle est nécessaire pour maintenir artificiellement en vie les projets bancals du capital-risque – et la valorisation qui leur est associée – ainsi que pour soutenir la Silicon Valley ou la bulle du Bitcoin, qui risqueraient autrement de s’effondrer.

Je ne pense pas que l’Europe ait un quelconque pouvoir face à l’agenda des Big Tech. Il n’y a aucun lobby qui pèse en ce sens, si l’on met à part quelques militants à Bruxelles.

Évidemment, il n’y a pas de compétition nucléaire. Les Chinois ne font pas le poids en termes de capacités militaires. Ils pourraient envahir Taiwan, mais cela n’a rien à voir avec le niveau de compétition que l’Union soviétique imposait aux États-Unis. J’ajoute qu’avec le contexte actuel, les Big Tech elles-mêmes subventionnent la recherche dans les universités sur des thématiques telles que le respect de la vie privée ou la lutte contre les trusts !

LVSL – Nous observons une augmentation des taux d’intérêts, après deux décennies de taux très bas, qui permettaient à l’Etat américain de soutenir les Big Tech dans leur financement. Comme analyser la décision de la FED, après des années de contexte économique qui a permis aux Big Tech prospérer ?

EM : Je ne pense pas que la FED conçoive sa politique de taux d’intérêt en ayant les Big Tech à l’esprit. Les raisons qui la conduisent à relever ses taux ont trait au prix de l’énergie et à la guerre en Ukraine. Leur remontée aura évidemment des conséquences sur l’industrie de la tech : observez la manière dont la bulle des cryptos a explosé ! Cela va certainement engendrer de la pression sur les liquidités, et de nombreuses banques (celles à taux subventionné) vont en souffrir, ainsi que les acteurs qui dont la rentabilité reposait sur la capacité à emprunter de la monnaie à taux faible, investir et satisfaire les investisseurs avec une période d’attente de 5 à 10 ans.

Evgeny Morozov © Clément Tissot pour Le Vent Se Lève

À plus petite échelle, la plupart des acteurs du capital-risque suivent la même logique. Lorsque l’argent coûte plus cher, il est plus difficile de justifier le financement d’une start-up en état de mort cérébrale, alors qu’il est au contraire aisé d’acheter des obligations. Nous avons traversé une période d’accélération massive de cycles de développement technologique associée à un environnement de taux d’intérêt faibles de long terme, ce qui a fait oublier à beaucoup de personnes que l’argent que ces projets attiraient n’avait rien à voir avec leurs mérites ou ceux de leur industrie. On n’avait simplement nulle part ailleurs où investir cet argent. Quand le fonds souverain qatari devait décider où placer son argent, il n’avait pas beaucoup d’autres d’options que de le donner à des banques à taux subventionnés, qui ensuite le réinvestissaient. Il y désormais de nombreuses autres voies pour l’investir. Je m’attends à ce que ce que l’on entre dans une période très dur, avec de nombreux licenciements. Les start-ups n’auront plus d’argent, et celles qui auront besoin de se refinancer ne vont pouvoir le faire qu’à une valorisation plus faible…

LVSL – On peut conjecturer qu’un effet de concentration dans le secteur va en résulter, comme au moment du crash de la bulle internet en 2001. Quelles seront ses conséquences sur le développement technologique ?

EM – Les Big Tech sont toujours assises sur une montagne de cash. Ils continuaient jusqu’à présent d’emprunter parce que ce n’était pas cher. Maintenant ils vont emprunter beaucoup moins et réinvestir leurs bénéfices non distribués au lieu de réinvestir l’argent qu’ils empruntent. Les petites et moyennes entreprises et les start-ups seront les plus affectées, mais ce n’est pas forcément pour le pire : il y aura moins d’idiots en concurrence pour des fonds et les fonds pourront être investis dans des projets qui comptent. C’est difficile de juger de l’impact que cela aura.

LVSL – Mais qu’en est-il de la concentration de données, d’infrastructures de calcul et de travailleurs qualifiés dans ces rares entreprises ?

EM : Cela n’a rien avoir avec la profitabilité du secteur. Du point de vue d’une start-up, la concentration pourrait engendrer un accès bon marché à des biens d’équipement. Plutôt que de les développer, elles pourront emprunter à bas coût des capacités de reconnaissance faciale, de reconnaissance vocale de base, d’analyse d’image, etc. La concentration pourrait aussi permettre de réduire les coûts de transaction, avec un fournisseur unique pour tous ces services. Je n’ai à ce jour trouvé aucun argument convaincant pour dire que la concentration des données dans les mains de ces sociétés technologiques réduit les possibilités de développement technique.

LVSL – Mais l’effet de concentration dans le développement technologique revient à mettre tout acteur extérieur aux Big Tech dans une position d’utilisateur final, comme c’est le cas avec les modèles pré-entrainés dans le domaine du machine learning

EM – On se trouve en position d’utilisateur final à chaque fois que l’on emploie des biens d’équipement. Lorsque, dans une usine, j’utilise une machine, lorsque dans une mine j’utilise un camion, je me trouve dans une position d’utilisateur final. Pourquoi ce fétiche de tout vouloir construire soi-même ? Je ne vois pas pourquoi réduire les coûts d’accès aux biens d’équipement aurait, en soi, des conséquences négatives pour l’économie. Ce serait le cas si l’on pensait à un modèle de conglomérat gigantesque, où certaines sociétés sont présentes dans chaque industrie. On croyait autour de 2012 que ce serait le cas, mais la plupart des entrées des Big Tech dans la santé, l’éducation ou le transport n’ont pas été un succès. Où est cette Google car que tout le monde attend depuis 12 ans ?

LVSL – L’Europe et les États-Unis ont récemment signé un nouvel accord sur les transferts transatlantiques de données, après la révocation de l’accord Privacy Shield l’an dernier en raison du manque de garanties en matière de protection des données. Comment comprenez-vous la situation actuelle ?

EM – Je ne pense pas que l’Europe ait un quelconque pouvoir en la matière. Il n’y a aucun lobby qui pèse dans ce sens, si l’on met à part quelques militants à Bruxelles et peut-être quelques juges allemands attachés la question. L’Europe a cherché à sauver la face en affichant une forme d’exceptionnalisme européen. Poussée dans ses derniers retranchements – c’est ce qui est arrivé il y a quelques mois au moment de ce nouveau compromis – elle a capitulé. Cela est lié à l’existence d’une faction qui essaye de pousser pour une renaissance des traités commerciaux comme le TTIP, le TPP, etc. La libre circulation des données a été mentionnée dans ces traités, peut-être pas de manière très sophistiquée, mais ils pourraient à présent permettre de relancer le sujet de manière beaucoup plus forte.

Au-delà de cela… La vie est trop courte pour y penser : c’est un combat perdu d’avance et je ne sais pas que faire de cette information, pour être honnête.

LVSL – Christine Lagarde, présidente de la Banque Centrale Européenne (BCE), affirmait récemment que « les cryptos ne valent rien ». Comment analysez-vous l’explosion de la bulle des cryptos après des années d’enthousiasme en la matière ?

EM – Peu importe à quel point vous comptez sur les crypto-monnaies ou sur la monnaie numérique d’une banque centrale… tant que vous avez une mauvaise banque centrale. Peu importe si c’est 100% cash, ou 50% cash et 50% crypto, ou 40% crypto et 10% de monnaie numérique de banque centrale (MNBC), tant que la politique monétaire reste orientée vers la stabilité et la stabilisation des prix.

Le débat sur les crypto-monnaies en ce moment, à gauche, substitue un débat sur les imaginaires à un débat de substance. La question est de savoir quelle politique monétaire nous voulons. Qu’est-il possible de faire avec l’euro ? Comment allons-nous le mobiliser pour la reconstruction de l’État-providence ? C’est cette vision plus large qui manque actuellement. Une fois qu’on aura la réponse, alors là, oui, cela deviendra presque un problème technique : compte tenu de la quantité d’émissions de CO2 sur laquelle nous voulons nous engager, compte tenu de l’argent dont nous disposons, compte tenu de l’état de notre pénétration technologique – nous pourrons déterminer les outils techniques appropriés.

Je ne vois pas ce que la gauche gagne à présenter certaines parties du capitalisme actuel comme rétrogrades et impures, comme « féodales ». Dans la théorie marxiste, le féodalisme a une dynamique très particulière que l’on peut étudier et comprendre : ce n’est pas la dynamique que nous vivons.

LVSL : Mais les crypto-monnaies ne sont-elles pas actuellement dans une position critique ? La déclaration de Christine Lagarde risque-t-elle de fragiliser les efforts de stabilisation et de marketing des crypto-activistes avec les grandes entreprises financières ?

EM – Cela dépend de jusqu’où cela va chuter, mais cela, je ne peux pas le prédire. À l’heure actuelle, on trouve encore beaucoup d’acteurs pour les défendre, ainsi que des institutions qui y ont un intérêt direct. Il reste encore beaucoup de résilience institutionnelle et elle n’est pas près de s’estomper. Il y a aussi probablement des hordes de lobbyistes pour cette industrie qui est, ne l’oublions pas, toujours aussi riche qu’auparavant. Andressen Horowitz a encore un fonds de crypto à 3 milliards – avec 3 milliards, vous pouvez acheter beaucoup de lobbyistes [3]. Une fois que vous possédez ces lobbyistes, vous pouvez alors agir par la voix des politiciens.

LVSL – Dans un récent article pour la New Left Review, vous critiquez le recours à gauche au terme de « techno-féodalisme » pour décrire l’économie numérique et le système politique qui lui est associé [4]. Pourquoi estimez-vous qu’il ne rend pas compte de la réalité ?

EM – Je ne vois pas ce que la gauche gagne à présenter certaines parties du capitalisme actuel comme rétrogrades et impures, comme « féodales ». Comme si rendre le capitalisme plus évolué et plus pur pouvait changer quelque chose ! Cela ne me semble pas être une position défendable pour la gauche.

La conclusion principale qui découle de l’analyse en termes de techno-féodalisme est que nous devons combattre les rentiers et les monopoles, faire respecter la concurrence et nous assurer que les données constituent un terrain de jeu équitable. C’est ce que l’on retrouve par exemple dans les essais de Cédric Durand – auteur de Techno-féodalisme – : il fait allusion à de nouvelles formes de planification et ne veut pas démanteler les GAFAM – même s’il veut en quelque sorte faire quelque chose avec eux, mais quoi, il ne nous le dit pas… Si c’est à cela que doit nous amener le diagnostic du techno-féodalisme, je ne vois pas ce que l’on gagne à légitimer cette critique à gauche.

Evgeny Morozov © Clément Tissot pour Le Vent Se Lève

LVSL – On retrouve le concept de féodalisation sous la plume d’Alain Supiot. Dans La gouvernance par les nombres, il soutient que la numérisation relie les individus à des structures d’allégeance variables, sur un mode féodal…

EM – Des critiques intéressantes du pouvoir peuvent découler de positions comme celle de Supiot. Elles offrent un antidote à des positions comme celles de Fukuyama ou de Steven Pinker, qui pensent que le monde avance de manière téléologique et que tout s’améliore obligatoirement.

Elles peuvent être utiles pour leur rappeler au contraire que la répartition du pouvoir dans la société est moins démocratique aujourd’hui qu’il y a 30 ou 40 ans, et qu’en ce sens il s’agit d’un retour en arrière. Mais c’est un retour en arrière dont on s’aperçoit en analysant les effets du capitalisme ; ce n’est pas un nouveau mode de production qui serait féodal dans son fonctionnement. Dans la théorie marxiste, le féodalisme a une dynamique très particulière que l’on peut étudier et comprendre : ce n’est pas la dynamique que nous vivons.

LVSL – En quoi consisterait un programme de gauche en matière de technologie ?

EM – La gauche est prisonnière d’une vision étriquée de l’action sociale, d’inspiration wébérienne : elle croit passionnément que l’action est rationnelle et que l’action économique consiste à maximiser cette action, par le biais d’une planification centrale. Cela revient à s’assurer que tous les besoins sont satisfaits… et ce n’est que par la suite que l’on pourra retirer la raison instrumentale de l’ordre du jour. Les gens seront ces types créatifs, buvant du vin l’après-midi et écrivant de la poésie, tout en chassant. Mais en attendant, il faut d’abord s’occuper des besoins. Cette vision est profondément étriquée. Elle ne correspond en rien à la manière dont les gens rationnels agissent : je n’agis pas en ayant un objectif et en analysant le meilleur moyen de l’atteindre. Non, je commence quelque chose pour atteindre cet objectif et je me rends compte ce faisant que c’est le mauvais objectif, je passe alors à un autre objectif, je reviens en arrière… L’expérience humaine typique est marquée par le jeu, la créativité, l’ingéniosité.

Cette façon naturelle d’agir devrait être soutenue par la technologie et le big data. Si vous parvenez à permettre aux gens de s’engager dans une forme de collaboration, vous produirez bien plus de valeur et bien plus d’innovation qu’avec une planification centrale. Pour moi, ça devrait être cela le programme économique de la gauche ! Les technologies pourraient permettre à chacun d’agir, de se réaliser. L’approche actuelle les aliène les uns des autres, de la technologie et de l’infrastructure.

LVSL – Comment expliquez-vous dans ce cadre que la souveraineté numérique ne soit pas défendue par la gauche ?

EM – Quand on parle de souveraineté technologique, on désigne le plus souvent la capacité d’une nation à avoir accès aux technologies les plus avancées, pour la production industrielle. Mais si vous quittez le jeu de la compétition industrielle, pourquoi en auriez-vous besoin ? Si les services sont la seule chose qui vous intéresse, quel besoin de souveraineté numérique ? Prenez le cas de la Lettonie : ils ont une industrie bancaire, ils ont des touristes et ils ne prévoient pas d’avoir une industrie lourde. Quel est leur besoin de souveraineté numérique ? Ce genre de chose est plus facile à expliquer en Amérique latine. Ils ont essayé l’industrialisation dans les années 50 et 60 – avec la CEPAL et autres – mais ils ont été bloqués dans cette voie par de nombreux coups d’État militaires. Pourtant ils ont essayé de relancer tout le processus. Vous avez encore des gens là-bas – des personnes de 95 ans aujourd’hui – qui se souviennent de cette tradition, des gens qui ont travaillé dans les bureaux de la CEPAL à Santiago en 1965, des gens comme Calcagno et d’autres, qui savent ce que cela représentait dans le temps.

En Europe ce débat n’a pas eu la même ampleur, il a toujours été mené par les corporatistes, des gens comme François Perroux et d’autres. On ne peut plus y faire grand-chose maintenant. La vraie question en la matière est de savoir – et j’utiliserai une expression très populaire en Amérique latine dans les années 70 – quel style de développement souhaitons-nous ? Or, je ne pense pas que la gauche en Europe ait du tout pensé à un style de développement. Elle a un style de défense, oui : défendre le droit que les travailleurs ont acquis et l’État-providence, mais à part ça, les gauches ne savent pas ce qu’elles veulent.

Si vous allez demander aux gauches du monde entier : quel genre de nouvelles industries voulons-nous développer ? Elles vous diront ce dont elles ont besoin dans leur économie – d’informatique quantique par exemple – mais si vous leur demandez sur le fond, si vous interrogez comment cela se relie au développement économique et social, elles n’ont aucune réponse. Elles ne se demandent plus : faut-il des industries qui emploient plus de monde, ou moins de monde, etc. ? En Europe, ce débat a été gagné par les néolibéraux, tout le contraire de ce qui se passe en Amérique Latine. Le débat n’a pas été complètement gagné en Chine. Mais, franchement, en Europe, je pense que c’est une cause perdue.

Notes :

[1] L’aberration du solutionnisme technologique : pour tout résoudre, cliquez ici, Fyp, 2014 et Le mirage numérique : pour une politique du Big Data, Fyp, 2015.

[2] ITT (International Telephone and Telegraph), entreprise américaine de télécommunications, a permis aux États-Unis d’asseoir leur hégémonie dans une partie importante du monde non soviétique au cours de la Guerre froide.

[3] Entreprise américaine de capital-risque fondée en 2009.

[4] La thèse du techno-féodalisme, telle que défendue notamment par Cédric Durand, présente les géants de la tech comme le symptôme d’une régression féodale des économies contemporaines. Par opposition à des entreprises capitalistes plus traditionnelles, qui croîtraient par l’innovation, les tenants du techno-féodalisme estiment que les géants de la tech s’enrichissent par la rente, comme les propriétaires terriens d’antan.

« Le néolibéralisme est avant tout un projet de civilisation » – Conférence d’Evgeny Morozov

« Retour de l’État », « éclipse du néolibéralisme », « réhabilitation de la souveraineté » : à lire les principaux médias, une véritable révolution est en cours depuis la pandémie. Au sortir des législatives 2022, Le Vent Se Lève organisait une discussion avec Evgeny Morozov pour analyser les mutations du système économique dominant. Chercheur spécialiste des implications politiques des géants du numérique, Evgeny Morozov est l’auteur de plusieurs ouvrages de référence sur la question: L’aberration du solutionnisme technologique : pour tout résoudre, cliquez ici (Fyp, 2014) et Le mirage numérique : pour une politique du Big Data (Fyp, 2015). Découvrez la captation de cette conférence, donnée le 25 juin 2022 à la Maison des Métallos à Paris.

Internet : une si longue dépossession (2/2)

À l’occasion de la sortie du livre du théoricien critique Ben Tarnoff, Internet for the people, the fight for the future (Verso, 14 juin 2022), le journaliste spécialiste des conséquences politiques du numérique Hubert Guillaud nous propose de mieux comprendre les enjeux de la privatisation de nos biens sociaux (espaces de communications, services publics, industries…) par la numérisation à l’américaine et d’en retracer le fil historique. Un texte essentiel pour se repérer dans les grands enjeux contemporains d’internet (centralisation, décentralisation, articulation des différents réseaux et des différentes échelles, gouvernance privée versus gouvernance publique et intervention des citoyens dans ces transformations). (Partie 2/2)

Coincés dans les plateformes

Les années 90 sont les années du web. En 1995, l’internet ne ressemble plus tout à fait à un réseau de recherche. Avec 45 millions d’utilisateurs et 23 500 sites web, l’internet commence à se transformer. Chez Microsoft, Bill Gates annonce qu’internet sera leur priorité numéro un. Jeff Bezos lance Amazon. Pierre Omidyar AuctionWeb, qui deviendra eBay. C’est le début des grandes entreprises de l’internet, de celles qui deviendront des « plateformes », un terme qui mystifie plus qu’il n’éclaircit, qui permet de projeter sur la souveraineté qu’elles conquièrent une aura d’ouverture et de neutralité, quand elles ne font qu’ordonner et régir nos espaces digitaux. Si la privatisation d’internet a commencé par les fondements, les tuyaux, au mitan des années 90, cette phase est terminée. « La prochaine étape consistera à maximiser les profits dans les étages supérieurs, dans la couche applicative, là où les utilisateurs utilisent l’internet ». C’est le début de la bulle internet jusqu’à son implosion. 

eBay a survécu au crash des années 2000 parce qu’elle était l’une des rares exceptions aux startups d’alors. eBay avait un business model et est devenu très rapidement profitable. eBay a aussi ouvert un modèle : l’entreprise n’a pas seulement offert un espace à l’activité de ses utilisateurs, son espace a été constitué par eux, en les impliquant dans son développement, selon les principes de ce qu’on appellera ensuite le web 2.0. La valeur technique de l’internet a toujours été ailleurs. Sociale plus que technique, estime Tarnoff (pour ma part, je pense que ce n’est pas si clair, l’industrialisation inédite qui s’est construite avec le numérique, n’est pas uniquement sociale, elle me semble surtout économique et politique). 

En 1971, quand Ray Tomlinson invente le mail, celui-ci devient très rapidement très populaire et représente très vite l’essentiel du trafic du premier réseau. L’e-mail a humanisé le réseau. Les échanges avec les autres sont rapidement devenu l’attraction principale. Avec eBay, Omidyar va réussir à refondre sa communauté en marché. Le succès des plateformes du web 2.0 va consister à «fusionner les relations sociales aux relations de marché », par trois leviers : la position d’intermédiaire (entre acheteurs et vendeurs), la souveraineté (la plateforme façonne les interactions, écrits les règles, fonctionne comme un législateur et un architecte) et bien sûr les effets réseaux (plus les gens utilisent, plus l’espace prend de la valeur). La couche applicative de l’internet va ainsi se transformer en vastes centres commerciaux : des environnements clos, qui vont tirer leurs revenus à la fois de la rente que procurent ces espaces pour ceux qui veulent en bénéficier et de la revente de données le plus souvent sous forme publicitaire (mais pas seulement). La collecte et l’analyse de données vont d’ailleurs très vite devenir la fonction primaire de ces « centres commerciaux en ligne »« La donnée a propulsé la réorganisation de l’internet », à l’image de Google qui l’a utilisé pour améliorer son moteur, puis pour vendre de la publicité, lui permettant de devenir, dès 2002, profitable. C’est la logique même du Capitalisme de surveillance de Shoshana Zuboff. Une logique qui préexistait aux entreprises de l’internet, comme le raconte le pionnier des études sur la surveillance, Oscar H. Gandy, dans ses études sur les médias de masse, les banques ou les compagnies d’assurances, mais qui va, avec la circulation des données, élargir la surface de sa surveillance. 

« Quand le capitalisme transforme quelque chose, il tend à ajouter plus de machinerie »

Malgré toutes ses faiblesses (vous atteignez surtout les catégories produites par les systèmes que la réalité des gens, c’est-à-dire la manière dont le système caractérise les usagers, même si ces caractères se révèlent souvent faux parce que calculés), la surveillance des utilisateurs pour leur livrer de la publicité ciblée va construire les principaux empires des Gafams que nous connaissons encore aujourd’hui. Si la publicité joue un rôle essentiel dans la privatisation, les  «Empires élastiques » des Gafams, comme les appels Tarnoff, ne vont pas seulement utiliser l’analyse de données pour vendre des biens et de la publicité, ils vont aussi l’utiliser pour créer des places de marché pour les moyens de production, c’est-à-dire produire du logiciel pour l’internet commercial. 

« Quand le capitalisme transforme quelque chose, il tend à ajouter plus de machinerie », rappelle Tarnoff avec les accents de Pièces et Main d’œuvre. Avec les applications, les pages internet sont devenues plus dynamiques et complexes, « conçues pour saisir l’attention des utilisateurs, stimuler leur engagement, liées pour élaborer des systèmes souterrains de collecte et d’analyse des données »« Les centres commerciaux en ligne sont devenus les lieux d’un calcul intensif. Comme le capitalisme a transformé l’atelier en usine, la transformation capitaliste d’internet a produit ses propres usines », qu’on désigne sous le terme de cloud, pour mieux obscurcir leur caractère profondément industriel. Ces ordinateurs utilisés par d’autres ordinateurs, rappellent l’enjeu des origines du réseau : étendre le calcul et les capacités de calcul. Tarnoff raconte ainsi la naissance, dès 2004, de l’Elastic Compute Cloud (EC2) d’Amazon par Chris Pinkham et Christopher Brown, partis en Afrique du Sud pour rationaliser les entrailles numériques de la machine Amazon qui commençait à souffrir des limites de l’accumulation de ses couches logicielles. EC2 lancé en 2006 (devenu depuis Amazon Web Services, AWS, l’offre d’informatique en nuage), va permettre de vendre des capacités informatiques et d’analyse mesurées et adaptables. Le cloud d’Amazon va permettre d’apporter un ensemble d’outils à l’industrialisation numérique, de pousser plus loin encore la privatisation. Le Big Data puis les avancées de l’apprentissage automatisé (l’intelligence artificielle) dans les années 2010 vont continuer ces accélérations industrielles. La collecte et le traitement des données vont devenir partout un impératif

La tech est désormais le dernier archipel de super-profit dans un océan de stagnation. Pire, la privatisation jusqu’aux couches les plus hautes d’internet, a programmé la motivation du profit dans tous les recoins du réseau.

Dans le même temps, les utilisateurs ont conquis un internet devenu mobile. L’ordinateur devenant smartphone n’est plus seulement la machine à tout faire, c’est la machine qui est désormais partout, s’intégrant non seulement en ligne, mais jusqu’à nos espaces physiques, déployant un contrôle logiciel jusque dans nos vies réelles, à l’image d’Uber et de son management algorithmique. L’industrialisation numérique s’est ainsi étendue jusqu’à la coordination des forces de travail, dont la profitabilité a été accrue par la libéralisation du marché du travail. La contractualisation des travailleurs n’a été qu’une brèche supplémentaire dans la gestion algorithmique introduite par le déploiement sans fin de l’industrie numérique, permettant désormais de gérer les tensions sur les marchés du travail, localement comme globalement. La force de travail est elle-même gérée en nuage, à la demande. Nous voilà dans le Human Cloud que décrit Gavin Mueller dans Breaking things at Work ou David Weil dans The Fissured Workplace

Coincés dans les profits !

Les biens réelles abstractions de ces empires élastiques ont enfin été rendues possibles par la financiarisation sans précédent de cette nouvelle industrie. Tout l’enjeu de la privatisation d’internet, à tous les niveaux de la pile, demeure le profit, répète Tarnoff. La financiarisation de l’économie depuis les années 70 a elle aussi profité de cette industrialisation numérique… Reste que la maximisation des profits des empires élastiques semble ne plus suffire. Désormais, les entreprises de la tech sont devenues des véhicules pour la pure spéculation. La tech est l’un des rares centres de profit qui demeure dans des économies largement en berne. La tech est désormais le dernier archipel de super-profit dans un océan de stagnation. Pire, la privatisation jusqu’aux couches les plus hautes d’internet, a programmé la motivation du profit dans tous les recoins du réseau. De Comcast (fournisseur d’accès), à Facebook jusqu’à Uber, l’objectif est resté de faire de l’argent, même si cela se fait de manière très différente, ce qui implique des conséquences sociales très différentes également. Les fournisseurs d’accès vendent des accès à l’internet, au bénéfice des investisseurs et au détriment des infrastructures et de l’égalité d’accès. Dans les centres commerciaux en ligne comme Facebook, on vend la monétisation de l’activité des utilisateurs ainsi que l’appareillage techno-politique qui va avec… Dans Uber ou les plateformes du digital labor, on vend le travail lui-même au moins disant découpé en microtranches et micro-tâches… Mais tous ces éléments n’auraient pas été possibles hors d’internet. C’est la promesse d’innovation technologique qui persuade les autorités de permettre à ces entreprises à déroger aux règles communes, qui persuade les investisseurs qu’ils vont réaliser une martingale mirifique. Mais dans le fond, toutes restent des machines non démocratiques et des machines à produire des inégalités. Toutes redistribuent les risques de la même façon : « ils les poussent vers le bas, vers les plus faibles » (les utilisateurs comme les travailleurs) « et les répandent autour d’eux. Ils tirent les récompenses vers le haut et les concentrent en de moins en moins de mains »

Pourtant, rappelle Tarnoff, l’action collective a été le meilleur moyen pour réduire les risques, à l’image des régulations qu’ont obtenues dans le passé les chauffeurs de taxis… jusqu’à ce qu’Uber paupérise tout le monde. L’existence des chauffeurs est devenue plus précaire à mesure que la valorisation de l’entreprise s’est envolée. Le risque à terme est que la machine néolibérale programmée jusqu’au cœur même des systèmes, ubérise tout ce qui reste à ubériser, de l’agriculture à la santé, des services public à l’école jusqu’au développement logiciel lui-même. 

Pourtant, les centres commerciaux en ligne sont très gourmands en travail. Tous ont recours à une vaste force de travail invisible pour développer leurs logiciels, les maintenir, opérer les centres de données, labéliser les données… La sociologue Tressie McMillan Cottom parle d’« inclusion prédatrice » pour qualifier la dynamique de l’économie politique d’internet. C’est une logique, une organisation et une technique qui consiste à inclure les marginalisés selon des logiques extractives. C’est ce que montrait Safiya Umoja Noble dans Algorithms of oppression : les « filles noires » que l’on trouve dans une requête sur Google sont celles des sites pornos, les propositions publicitaires qui vous sont faites ne sont pas les mêmes selon votre niveau de revenu ou votre couleur de peau. Les plus exclus sont inclus, mais à la condition qu’ils absorbent les risques et renoncent aux moindres récompenses. L’oppression et les discriminations des espaces en ligne sont désormais le fait d’une boucle de rétroaction algorithmique qui ressasse nos stéréotypes pour ne plus s’en extraire, enfermant chacun dans les catégories que spécifie la machine. Nous sommes désormais pris dans une intrication, un enchevêtrement d’effets, d’amplification, de polarisation, dont nous ne savons plus comment sortir. 

« L’exploitation des travailleurs à la tâche, le renforcement des oppressions sexistes ou racistes en ligne, l’amplification de la propagande d’extrême-droite… aucun de ces dommages sociaux n’existeraient s’ils n’étaient pas avant tout profitables. » 

Les inégalités restent cependant inséparables de la poursuite du profit pour le profit. La tech est devenuel’équivalent de l’industrie du Téflon. Pour l’instant, les critiques sont mises en quarantaine, limitées au monde de la recherche, à quelques activistes, à quelques médias indépendants. Le techlash a bien entrouvert combien la tech n’avait pas beaucoup de morale, ça n’empêche pas les scandales des brèches de données de succéder aux scandales des traitements iniques. Réformer l’internet pour l’instant consiste d’un côté à écrire de nouvelles réglementations pour limiter le pouvoir de ces monopoles. C’est le propos des New Brandeisians (faisant référence à l’avocat américain Louis Brandeis, grand réformateur américain) qui veulent rendre les marchés plus compétitifs en réduisant les monopoles des Gafams. Ces faiseurs de lois ont raison : les centres commerciaux en ligne ne sont pas assez régulés ! Reste qu’ils souhaitent toujours un internet régi par le marché, plus compétitif que concentré. Pourtant, comme le souligne Nick Srnicek, l’auteur deCapitalisme de plateforme, c’est la compétition, plus que la taille, qui nécessite toujours plus de données, de traitements, de profits… 

Pour Tarnoff, il y a une autre stratégie : la déprivatisation. « Que les marchés soient plus régulés ou plus compétitifs ne touchera pas le problème le plus profond qui est le marché lui-même. Les centres commerciaux en ligne sont conçus pour faire du profit et faire du profit est ce qui construit des machines à inégalités ».« L’exploitation des travailleurs à la tâche, le renforcement des oppressions sexistes ou racistes en ligne, l’amplification de la propagande d’extrême-droite… aucun de ces dommages sociaux n’existeraient s’ils n’étaient pas avant tout profitables. » Certes, on peut chercher à atténuer ces effets… Mais le risque est que nous soyons en train de faire comme nous l’avons fait avec l’industrie fossile, où les producteurs de charbon se mettent à la capture du CO2 plutôt que d’arrêter d’en brûler ! Pour Tarnoff, seule la déprivatisation ouvre la porte à un autre internet, tout comme les mouvements abolitionnistes et pour les droits civiques ont changé la donne en adressant finalement le coeur du problème et pas seulement ses effets (comme aujourd’hui, les mouvements pour l’abolition de la police ou de la prison).

Mais cette déprivatisation, pour l’instant, nous ne savons même pas à quoi elle ressemble. Nous commençons à savoir ce qu’il advient après la fermeture des centres commerciaux (les Etats-Unis en ont fermé beaucoup) : ils sont envahis par les oiseaux et les mauvaises herbes ! Sur l’internet, bien souvent, les noms de domaines abandonnés sont valorisés par des usines à spam ! Si nous savons que les réseaux communautaires peuvent supplanter les réseaux privés en bas de couche technologique, nous avons peu d’expérience des alternatives qui peuvent se construire en haut des couches réseaux. 

Nous avons besoin d’expérimenter l’alternet !

Nous avons besoin d’expérimenter. L’enjeu, n’est pas de remplacer chaque centre commercial en ligne par son équivalent déprivatisé, comme de remplacer FB ou Twitter par leur clone placé sous contrôle public ou coopératif et attendre des résultats différents. Cela nécessite aussi des architectures différentes. Cela nécessite d’assembler des constellations de stratégies et d’institutions alternatives, comme le dit Angela Davisquand elle s’oppose à la prison et à la police. Pour Tarnoff, nous avons besoin de construire une constellation d’alternatives. Nous devons arrêter de croire que la technologie doit être apportée aux gens, plutôt que quelque chose que nous devons faire ensemble.

Comme le dit Ethan Zuckerman dans sa vibrante défense d’infrastructures publiques numériques, ces alternatives doivent être plurielles dans leurs formes comme dans leurs buts, comme nous avons des salles de sports, des bibliothèques ou des églises pour construire l’espace public dans sa diversité. Nous avons besoin d’une décentralisation, non seulement pour combattre la concentration, mais aussi pour élargir la diversité et plus encore pour rendre possible d’innombrables niveaux de participation et donc d’innombrables degrés de démocratie. Comme Zuckerman ou Michael Kwet qui milite pour un « socialisme numérique »  avant lui, Tarnoff évoque les logiciels libres, open source, les instances distribuées, l’interopérabilité…, comme autant de leviers à cet alternumérisme. Il évoque aussi une programmation publique, un cloud public comme nous avons finalement des médias publics ou des bibliothèques. On pourrait même imaginer, à défaut de construire des capacités souveraines, d’exiger d’Amazon de donner une portion de ses capacités de traitements, à défaut de les nationaliser. Nous avons besoin d’un secteur déprivatisé plus gros, plus fort, plus puissant. 

C’est oublier pourtant que ces idées (nationaliser l’internet ou Google hier, AWS demain…) ont déjà été émises et oubliées. Déconsidérées en tout cas. Tarnoff oublie un peu de se demander pourquoi elles n’ont pas été mises en œuvre, pourquoi elles n’ont pas accroché. Qu’est-ce qui manque au changement pour qu’il ait lieu ?, semble la question rarement posée. Pour ma part, pourtant, il me semble que ce qui a fait la différence entre l’essor phénoménal de l’internet marchand et la marginalité des alternatives, c’est assurément l’argent. Même si on peut se réjouir de la naissance de quelques coopératives, à l’image de Up&Go, CoopCycle ou nombre de plateformes coopératives, les niveaux d’investissements des uns ne sont pas les niveaux d’investissements des autres. Le recul des politiques publiques à investir dans des infrastructures publiques, on le voit, tient bien plus d’une déprise que d’une renaissance. Bien sûr, on peut, avec lui, espérer que les données soient gérées collectivement, par ceux qui les produisent. Qu’elles demeurent au plus près des usagers et de ceux qui les coproduisent avec eux, comme le prônent les principes du féminisme de donnéeset que défendent nombre de collectifs politisés (à l’image d’InterHop), s’opposant à une fluidification des données sans limites où l’ouverture sert bien trop ceux qui ont les moyens d’en tirer parti, et plus encore, profite à ceux qui veulent les exploiter pour y puiser de nouveaux gains d’efficacité dans des systèmes produits pour aller à l’encontre des gens. Pour démocratiser la conception et le développement des technologies, il faut créer des processus participatifs puissants, embarqués et embarquants. « Rien pour nous sans nous », disent les associations de handicapés, reprises par le mouvement du Design Justice.

« Écrire un nouveau logiciel est relativement simple. Créer des alternatives soutenables et capables de passer à l’échelle est bien plus difficile », conclut Tarnoff. L’histoire nous apprend que les Télécoms ont mené d’intenses campagnes pour limiter le pouvoir des réseaux communautaires, comme le pointait à son tour Cory Doctorow, en soulignant que, du recul de la neutralité du net à l’interdiction des réseaux haut débit municipaux aux US (oui, tous les Etats ne les autorisent pas, du fait de l’intense lobbying des fournisseurs d’accès privés !), les oppositions comme les régulateurs trop faibles se font dévorer par les marchés ! Et il y a fort à parier que les grands acteurs de l’internet mènent le même type de campagne à l’encontre de tout ce qui pourra les déstabiliser demain. Mais ne nous y trompons pas, souligne Tarnoff, l’offensive à venir n’est pas technique, elle est politique !

« Pour reconstruire l’internet, nous allons devoir reconstruire tout le reste ». Et de rappeler que les Ludditesn’ont pas tant chercher à mener un combat d’arrière garde que d’utiliser leurs valeurs pour construire une modernité différente. Le fait qu’ils n’y soient pas parvenus doit nous inquiéter. La déprivatisation à venir doit être tout aussi inventive que l’a été la privatisation à laquelle nous avons assisté. Nous avons besoin d’un monde où les marchés comptent moins, sont moins présents qu’ils ne sont… Et ils sont certainement encore plus pesants et plus puissants avec le net que sans !

***

Tarnoff nous invite à nous défaire de la privatisation comme d’une solution alors qu’elle tient du principal problème auquel nous sommes confrontés. Derrière toute privatisation, il y a bien une priva(tisa)tion, quelque chose qui nous est enlevé, dont l’accès et l’enjeu nous est soufflé, retranché, dénié. Derrière l’industrialisation numérique, il y a une privatisation massive rappelions-nous il y a peu. Dans le numérique public même, aux mains des cabinets de conseils, l’État est plus minimal que jamais ! Même aux États-Unis, où l’État est encore plus croupion, les grandes agences vendent l’internet public à des services privés qui renforcentl’automatisation des inégalités

Malgré la qualité de la synthèse que livre Ben Tarnoff dans son essai, nous semblons au final tourner en rond. Sans investissements massifs et orientés vers le bien public plutôt que le profit, sans projets radicaux et leurs constellations d’alternatives, nous ne construirons ni l’internet de demain, ni un monde, et encore moins un monde capable d’affronter les ravages climatiques et les dissolutions sociales à venir. L’enjeu désormais semble bien plus de parvenir à récupérer les milliards accaparés par quelques-uns qu’autre chose ! Si nous avons certes besoin de constellations d’alternatives, il nous faut aussi saisir que ces constellations d’alternatives en sont rarement, en tout cas, que beaucoup ne sont que des projets politiques libéraux et qu’elles obscurcissent la nécessité d’alternatives qui le soient. Le secteur marchand produit nombre d’alternatives mais qui demeurent pour l’essentiel des formes de marchandisation, sans s’en extraire, à l’image de son instrumentation de la tech for good, qui conduit finalement à paupériser et vider de son sens la solidarité elle-même. Comme il le dit dans une interview pour The Verge, nous avons besoin de politiques et de mobilisations sur les enjeux numériques, pas seulement d’alternatives, au risque qu’elles n’en soient pas vraiment ! La constellation d’alternatives peut vite tourner au techwashing.  

Il manque à l’essai de Ben Tarnoff quelques lignes sur comment réaliser une nécessaire désindustrialisation du numérique (est-elle possible et comment ?), sur la nécessité d’une définanciarisation, d’une démarchandisation, d’une déséconomisation, voire d’un définancement de la tech, et donc pointer la nécessité d’autres modèles, comme l’investissement démocratique qu’explorait récemment Michael McCarthy dans Noema Mag. Et même ce changement d’orientation de nos investissements risque d’être difficile, les moyens d’influence et de lobbying des uns n’étant pas au niveau de ceux des autres, comme s’en désolent les associations de défense des droits américaines. C’est-à-dire, comme nous y invitait dans la conclusion de son dernier livre le sociologue Denis Colombi, Pourquoi sommes-nous capitalistes (malgré nous) ?, à comment rebrancher nos choix d’investissements non pas sur la base des profits financiers qu’ils génèrent, mais sur ce qu’ils produisent pour la collectivité. C’est un sujet que les spécialistes de la tech ne maîtrisent pas, certes. Mais tant qu’on demandera à la tech de produire les meilleurs rendements du marché pour les actionnaires (15% à minima !), elle restera le bras armé du capital. Pour reconstruire l’internet, il faut commencer par reconstruire tout le reste ! 

Hubert Guillaud

A propos du livre de Ben Tarnoff, Internet for the people, the fight for our digital future, Verso, 2022. 

Journaliste, blogueur, Hubert Guillaud, longtemps rédacteur en chef d’InternetActu.net, décrypte comme nul autre nos vies dans les outils du numérique. @hubertguillaud

Lire la première partie de cet article.

Internet : une si longue dépossession (1/2)

@maximalfocus

À l’occasion de la sortie du livre du théoricien critique Ben Tarnoff, Internet for the people, the fight for the future (Verso, 14 juin 2022), le journaliste spécialiste des conséquences politiques du numérique Hubert Guillaud nous propose de mieux comprendre les enjeux de la privatisation de nos biens sociaux (espaces de communications, services publics, industries…) par la numérisation à l’américaine et d’en retracer le fil historique. Un texte essentiel pour se repérer dans les grands enjeux contemporains d’internet (centralisation, décentralisation, articulation des différents réseaux et des différentes échelles, gouvernance privée versus gouvernance publique et intervention des citoyens dans ces transformations). (Partie 1/2)

Ben Tarnoff est un chercheur et un penseur important des réseaux. Éditeur de l’excellent Logic Mag, il est également l’un des membres de la Collective action in tech, un réseau pour documenter et faire avancer les mobilisations des travailleurs de la tech. 

Il a publié notamment un manifeste, The Making of tech worker movement – dont avait rendu compte Irénée Régnauld dans Mais où va le web ? -, ainsi que Voices from the Valley, un recueil de témoignages des travailleurs de la tech. Critique engagé, ces dernières années, Tarnoff a notamment proposé, dans une remarquable tribune pour Jacobin, d’abolir les outils numériques pour le contrôle social (« Certains services numériques ne doivent pas être rendus moins commodes ou plus démocratiques, mais tout simplement abolis »), ou encore, pour The Guardian, de dé-informatiser pour décarboner le monde (en invitant à réfléchir aux activités numériques que nous devrions suspendre, arrêter, supprimer). Il publie ce jour son premier essai,Internet for the people, the fight of your digital future (Verso, 2022, non traduit). 

Internet for the People n’est pas une contre-histoire de l’internet, ni une histoire populaire du réseau (qui donnerait la voix à ceux qui ne font pas l’histoire, comme l’avait fait l’historien Howard Zinn), c’est avant tout l’histoire de notre déprise, de comment nous avons été dépossédé d’internet, et comment nous pourrions peut-être reconquérir le réseau des réseaux. C’est un livre souvent amer, mais assurément politique, qui tente de trouver les voies à des alternatives pour nous extraire de l’industrialisation du net. Sa force, assurément, est de très bien décrire comment l’industrialisation s’est structurée à toutes les couches du réseau. Car si nous avons été dépossédés, c’est bien parce qu’internet a été privatisé par devers nous, si ce n’est contre nous. 

Nous sommes en train de passer du techlash aux technoluttes, d’une forme d’animosité à l’égard du numérique à des luttes dont l’objet est d’abattre la technologie… c’est-à-dire de dresser le constat qu’internet est brisé et que nous devons le réparer. 

« Les réseaux ont toujours été essentiels à l’expansion capitaliste et à la globalisation. Ils participent à la création des marchés, à l’extraction des ressources, à la division et à la distribution du travail. » Pensez au rôle du télégraphe dans l’expansion coloniale par exemple, comme aux câbles sous-marins qui empruntent les routes maritimes des colons comme des esclaves – tout comme les données et processus de reporting standardisés ont été utilisés pour asseoir le commerce triangulaire et pour distancier dans et par les chiffres la réalité des violences commises par l’esclavage, comme l’explique l’historienne Caitlin Rosenthal dans son livre Accounting for Slavery : Masters & Management.

« La connectivité n’est jamais neutre. La croissance des réseaux a toujours été guidée par le désir de puissance et de profit. Ils n’ont pas été conduits pour seulement convoyer de l’information, mais comme des mécanismes pour forger des relations de contrôle. » La défiance envers le monde numérique et ses effets n’a cessé de monter ces dernières années, dénonçant la censure, la désinformation, la surveillance, les discriminations comme les inégalités qu’il génère. Nous sommes en train de passer du techlash aux technoluttes, d’une forme d’animosité à l’égard du numérique à des luttes dont l’objet est d’abattre la technologie… c’est-à-dire de dresser le constat qu’internet est brisé et que nous devons le réparer. Pour Tarnoff, la racine du problème est pourtant simple : « l’internet est brisé parce que l’internet est un business ». Même « un internet appartenant à des entreprises plus petites, plus entrepreneuriales, plus régulées, restera un internet qui marche sur le profit », c’est-à-dire « un internet où les gens ne peuvent participer aux décisions qui les affectent ». L’internet pour les gens sans les gens est depuis trop longtemps le mode de fonctionnement de l’industrie du numérique, sans que rien d’autre qu’une contestation encore trop timorée ne vienne le remettre en cause. 

Privatisation partout, justice nulle part

Internet for the People, Ben Tarnoff
Ben Tarnoff, Internet for the People (Verso, 2022)

L’internet n’a pas toujours eu la forme qu’on lui connaît, rappelle Tarnoff. Né d’une manière expérimentale dans les années 70, c’est à partir des années 90 que le processus de privatisation s’enclenche. Cette privatisation « n’est pas seulement un transfert de propriété du public au privé, mais un mouvement plus complexe où les entreprises ont programmé le moteur du profit à chaque niveau du réseau », que ce soit au niveau matériel, logiciel, législatif ou entrepreneurial… « Certaines choses sont trop petites pour être observées sans un microscope, d’autres trop grosses pour être observées sans métaphores ». Pour Tarnoff, nous devons regarder l’internet comme un empilement (stack, qui est aussi le titre du livre de Benjamin Bratton qui décompose et cartographie les différents régimes de souveraineté d’internet, qui se superposent et s’imbriquent les uns dans les autres), un agencement de tuyaux et de couches technologiques qui le compose, qui va des câbles sous-marins aux sites et applications d’où nous faisons l’expérience d’internet. Avec le déploiement d’internet, la privatisation est remontée des profondeurs de la pile jusqu’à sa surface. « La motivation au profit n’a pas seulement organisé la plomberie profonde du réseau, mais également chaque aspect de nos vies en ligne ».

En cela, Internet for the people se veut un manifeste, dans le sens où il rend cette histoire de la privatisation manifeste. Ainsi, le techlash ne signifie rien si on ne le relie pas à l’héritage de cette dépossession. Les inégalités d’accès comme la propagande d’extrême droite qui fleurit sur les médias sociaux sont également les conséquences de ces privatisations. « Pour construire un meilleur internet (ou le réparer), nous devons changer la façon dont il est détenu et organisé. Pas par un regard consistant à améliorer les marchés, mais en cherchant à les rendre moins dominants. Non pas pour créer des marchés ou des versions de la privatisation plus compétitifs ou réglementés, mais pour les renverser »

« La “déprivatisation” vise à créer un internet où les gens comptent plus que les profits ». Nous devons prendre le contrôle collectif des espaces en ligne, où nos vies prennent désormais place. Pour y parvenir, nous devons développer et encourager de nouveaux modèles de propriété qui favorisent la gouvernance collective et la participation, nous devons créer des structures qui favorisent ce type d’expérimentations. Or, « les contours précis d’un internet démocratique ne peuvent être découverts que par des processus démocratiques, via des gens qui s’assemblent pour construire le monde qu’ils souhaitent ». C’est à en créer les conditions que nous devons œuvrer, conclut Tarnoff dans son introduction. 

Coincés dans les tuyaux

Dans la première partie de son livre, Tarnoff s’intéresse d’abord aux tuyaux en nous ramenant aux débuts du réseau. L’internet n’est alors qu’un langage, qu’un ensemble de règles permettant aux ordinateurs de communiquer. À la fin des années 70, il est alors isolé des forces du marché par les autorités qui financent un travail scientifique de long terme. Il implique des centaines d’individus qui collaborent entre eux à bâtir ces méthodes de communication. C’est l’époque d’Arpanet où le réseau bénéficie de l’argent de la Darpa (l’agence de la Défense américaine chargée du développement des nouvelles technologies) et également d’une éthique open source qui va encourager la collaboration et l’expérimentation, tout comme la créativité scientifique. « C’est l’absence de motivation par le profit et la présence d’une gestion publique qui rend l’invention d’internet possible »

C’est seulement dans les années 90 que les choses changent. Le gouvernement américain va alors céder les tuyaux à des entreprises, sans rien exiger en retour. Le temps de l’internet des chercheurs est fini. Or, explique Tarnoff, la privatisation n’est pas venue de nulle part, elle a été planifiée. En cause, le succès de l’internet de la recherche. NSFNet, le réseau de la Fondation nationale pour la science qui a succédé à Arpanet en 1985, en excluant les activités commerciales, a fait naître en parallèle les premiers réseaux privés. Avec l’invention du web, qui rend l’internet plus convivial (le premier site web date de 1990, le navigateur Mosaic de 1993), les entreprises parviennent à proposer les premiers accès commerciaux à NSFNet en 1991. En fait, le réseau national des fondations scientifiques n’a pas tant ouvert l’internet à la compétition : il a surtout transféré l’accès à des opérateurs privés, sans leur imposer de conditions et ce, très rapidement. 

En 1995, la privatisation des tuyaux est achevée. Pour tout le monde, à l’époque, c’était la bonne chose à faire, si ce n’est la seule. Il faut dire que les années 90 étaient les années d’un marché libre triomphant. La mainmise sur l’internet n’est finalement qu’une mise en application de ces idées, dans un moment où la contestation n’était pas très vive, notamment parce que les utilisateurs n’étaient encore pas très nombreux pour défendre un autre internet. D’autres solutions auraient pu être possibles, estime Tarnoff. Mais plutôt que de les explorer, nous avons laissé l’industrie dicter unilatéralement ses conditions. Pour elle, la privatisation était la condition à la popularisation d’internet. C’était un faux choix, mais le seul qui nous a été présenté, estime Tarnoff. L’industrie a récupéré une technologie patiemment développée par la recherche publique. La dérégulation des télécoms concomitante n’a fait qu’accélérer les choses. Pour Tarnoff, nous avons raté les alternatives. Les profits les ont en tout cas fermé. Et le «pillage » a continué. L’épine dorsale d’internet est toujours la propriété de quelques entreprises qui pour beaucoup sont alors aussi devenues fournisseurs d’accès. La concentration de pouvoir prévaut à tous les niveaux, à l’image des principales entreprises qui organisent et possèdent l’information qui passent dans les réseaux. Google, Netflix, Facebook, Microsoft, Apple et Amazon comptent pour la moitié du trafic internet. La privatisation nous a promis un meilleur service, un accès plus large, un meilleur internet. Pourtant, le constat est inverse. Les Américains payent un accès internet parmi les plus chers du monde et le moins bon. Quant à ceux qui sont trop pauvres ou trop éloignés du réseau, ils continuent à en être exclus. En 2018, la moitié des Américains n’avaient pas accès à un internet à haut débit. Et cette déconnexion est encore plus forte si en plus d’habiter loin des villes vous avez peu de revenus. Aux États-Unis, l’accès au réseau demeure un luxe. 

Pour Tarnoff, brancher plus d’utilisateurs dans un internet privatisé ne propose rien pour changer l’internet, ni pour changer sa propriété, ni son organisation, ni la manière dont on en fait l’expérience.

Mais l’internet privé n’est pas seulement inéquitable, il est surtout non-démocratique. Les utilisateurs n’ont pas participé et ne participent toujours pas aux choix de déploiements techniques que font les entreprises pour eux, comme nous l’ont montré, très récemment, les faux débats sur la 5G. « Les marchés ne vous donnent pas ce dont vous avez besoin, ils vous donnent ce que vous pouvez vous offrir »« Le profit reste le principe qui détermine comment la connectivité est distribuée »

Pourtant, insiste Tarnoff, des alternatives existent aux monopoles des fournisseurs d’accès. En 1935, à Chattanooga, dans le Tennessee, la ville a décidé d’être propriétaire de son système de distribution d’électricité, l’Electric Power Board. En 2010, elle a lancé une offre d’accès à haut débit, The Gig, qui est la plus rapide et la moins chère des États-Unis, et qui propose un accès même à ceux qui n’en ont pas les moyens. C’est le réseau haut débit municipal le plus célèbre des États-Unis. Ce n’est pas le seul. Quelque 900 coopératives à travers les États-Unis proposent des accès au réseau. Non seulement elles proposent de meilleurs services à petits prix, mais surtout, elles sont participatives, contrôlées par leurs membres qui en sont aussi les utilisateurs. Toutes privilégient le bien social plutôt que le profit. Elles n’ont pas pour but d’enrichir les opérateurs. À Detroit, ville particulièrement pauvre et majoritairement noire, la connexion a longtemps été désastreuse. Depuis 2016, le Detroit Community Technology Project (DCTP) a lancé un réseau sans fil pour bénéficier aux plus démunis. Non seulement la communauté possède l’infrastructure, mais elle participe également à sa maintenance et à son évolution. DCTP investit des habitants en « digital stewards » chargés de maintenir le réseau, d’éduquer à son usage, mais également de favoriser la connectivité des gens entre eux, assumant par là une fonction politique à la manière de Community organizers

Pour Tarnoff, brancher plus d’utilisateurs dans un internet privatisé ne propose rien pour changer l’internet, ni pour changer sa propriété, ni son organisation, ni la manière dont on en fait l’expérience. Or, ces expériences de réseaux locaux municipaux défient la fable de la privatisation. Elles nous montrent qu’un autre internet est possible, mais surtout que l’expérience même d’internet n’a pas à être nécessairement privée. La privatisation ne décrit pas seulement un processus économique ou politique, mais également un processus social qui nécessite des consommateurs passifs et isolés les uns des autres. À Detroit comme à Chattanooga, les utilisateurs sont aussi des participants actifs à la croissance, à la maintenance, à la gouvernance de l’infrastructure. Tarnoff rappelle néanmoins que ces réseaux municipaux ont été particulièrement combattus par les industries du numériques et les fournisseurs d’accès. Mais contrairement à ce que nous racontent les grands opérateurs de réseaux, il y a des alternatives. Le problème est qu’elles ne sont pas suffisamment défendues, étendues, approfondies… Pour autant, ces alternatives ne sont pas magiques. « La décentralisation ne signifie pas automatiquement démocratisation : elle peut servir aussi à concentrer le pouvoir plus qu’à le distribuer ». Internet reste un réseau de réseau et les nœuds d’interconnections sont les points difficiles d’une telle topographie. Pour assurer l’interconnexion, il est nécessaire également de « déprivatiser » l’épine dorsale des interconnexions de réseaux, qui devrait être gérée par une agence fédérale ou une fédération de coopératives. Cela peut sembler encore utopique, mais si l’internet n’est déprivatisé qu’à un endroit, cela ne suffira pas, car cela risque de créer des zones isolées, marginales et surtout qui peuvent être facilement renversées – ce qui n’est pas sans rappeler le délitement des initiatives de réseau internet sans fil communautaire, comme Paris sans fil, mangés par la concurrence privée et la commodité de service qu’elle proposent que nous évoquions à la fin de cet article

Dans les années 90, quand la privatisation s’est installée, nous avons manqué de propositions, d’un mouvement en défense d’un internet démocratique, estime Tarnoff. Nous aurions pu avoir, « une voie publique sur les autoroutes de l’information ». Cela n’a pas été le cas. 

Désormais, pour déprivatiser les tuyaux (si je ne me trompe pas, Tarnoff n’utilise jamais le terme de nationalisation, un concept peut-être trop loin pour le contexte américain), il faut résoudre plusieurs problèmes. L’argent, toujours. Les cartels du haut débit reçoivent de fortes injections d’argent public notamment pour étendre l’accès, mais sans rien vraiment produire pour y remédier. Nous donnons donc de l’argent à des entreprises qui sont responsables de la crise de la connectivité pour la résoudre ! Pour Tarnoff, nous devrions surtout rediriger les aides publiques vers des réseaux alternatifs, améliorer les standards d’accès, de vitesse, de fiabilité. Nous devrions également nous assurer que les réseaux publics locaux fassent du respect de la vie privée une priorité, comme l’a fait à son époque la poste, en refusant d’ouvrir les courriers ! Mais, si les lois et les régulations sont utiles, « le meilleur moyen de garantir que les institutions publiques servent les gens, est de favoriser la présence de ces gens à l’intérieur de ces institutions ». Nous devons aller vers des structures de gouvernances inclusives et expansives, comme le défendent Andrew Cumbers et Thomas Hanna dans « Constructing the Democratic Public Entreprise »(.pdf) (à prolonger par le rapport Democratic Digital Infrastructure qu’a publié Democracy Collaborative, le laboratoire de recherche et développement sur la démocratisation de l’économie).

Lire la deuxième partie de cet article.