Internet : une si longue dépossession (2/2)

À l’occasion de la sortie du livre du théoricien critique Ben Tarnoff, Internet for the people, the fight for the future (Verso, 14 juin 2022), le journaliste spécialiste des conséquences politiques du numérique Hubert Guillaud nous propose de mieux comprendre les enjeux de la privatisation de nos biens sociaux (espaces de communications, services publics, industries…) par la numérisation à l’américaine et d’en retracer le fil historique. Un texte essentiel pour se repérer dans les grands enjeux contemporains d’internet (centralisation, décentralisation, articulation des différents réseaux et des différentes échelles, gouvernance privée versus gouvernance publique et intervention des citoyens dans ces transformations). (Partie 2/2)

Coincés dans les plateformes

Les années 90 sont les années du web. En 1995, l’internet ne ressemble plus tout à fait à un réseau de recherche. Avec 45 millions d’utilisateurs et 23 500 sites web, l’internet commence à se transformer. Chez Microsoft, Bill Gates annonce qu’internet sera leur priorité numéro un. Jeff Bezos lance Amazon. Pierre Omidyar AuctionWeb, qui deviendra eBay. C’est le début des grandes entreprises de l’internet, de celles qui deviendront des « plateformes », un terme qui mystifie plus qu’il n’éclaircit, qui permet de projeter sur la souveraineté qu’elles conquièrent une aura d’ouverture et de neutralité, quand elles ne font qu’ordonner et régir nos espaces digitaux. Si la privatisation d’internet a commencé par les fondements, les tuyaux, au mitan des années 90, cette phase est terminée. « La prochaine étape consistera à maximiser les profits dans les étages supérieurs, dans la couche applicative, là où les utilisateurs utilisent l’internet ». C’est le début de la bulle internet jusqu’à son implosion. 

eBay a survécu au crash des années 2000 parce qu’elle était l’une des rares exceptions aux startups d’alors. eBay avait un business model et est devenu très rapidement profitable. eBay a aussi ouvert un modèle : l’entreprise n’a pas seulement offert un espace à l’activité de ses utilisateurs, son espace a été constitué par eux, en les impliquant dans son développement, selon les principes de ce qu’on appellera ensuite le web 2.0. La valeur technique de l’internet a toujours été ailleurs. Sociale plus que technique, estime Tarnoff (pour ma part, je pense que ce n’est pas si clair, l’industrialisation inédite qui s’est construite avec le numérique, n’est pas uniquement sociale, elle me semble surtout économique et politique). 

En 1971, quand Ray Tomlinson invente le mail, celui-ci devient très rapidement très populaire et représente très vite l’essentiel du trafic du premier réseau. L’e-mail a humanisé le réseau. Les échanges avec les autres sont rapidement devenu l’attraction principale. Avec eBay, Omidyar va réussir à refondre sa communauté en marché. Le succès des plateformes du web 2.0 va consister à «fusionner les relations sociales aux relations de marché », par trois leviers : la position d’intermédiaire (entre acheteurs et vendeurs), la souveraineté (la plateforme façonne les interactions, écrits les règles, fonctionne comme un législateur et un architecte) et bien sûr les effets réseaux (plus les gens utilisent, plus l’espace prend de la valeur). La couche applicative de l’internet va ainsi se transformer en vastes centres commerciaux : des environnements clos, qui vont tirer leurs revenus à la fois de la rente que procurent ces espaces pour ceux qui veulent en bénéficier et de la revente de données le plus souvent sous forme publicitaire (mais pas seulement). La collecte et l’analyse de données vont d’ailleurs très vite devenir la fonction primaire de ces « centres commerciaux en ligne »« La donnée a propulsé la réorganisation de l’internet », à l’image de Google qui l’a utilisé pour améliorer son moteur, puis pour vendre de la publicité, lui permettant de devenir, dès 2002, profitable. C’est la logique même du Capitalisme de surveillance de Shoshana Zuboff. Une logique qui préexistait aux entreprises de l’internet, comme le raconte le pionnier des études sur la surveillance, Oscar H. Gandy, dans ses études sur les médias de masse, les banques ou les compagnies d’assurances, mais qui va, avec la circulation des données, élargir la surface de sa surveillance. 

« Quand le capitalisme transforme quelque chose, il tend à ajouter plus de machinerie »

Malgré toutes ses faiblesses (vous atteignez surtout les catégories produites par les systèmes que la réalité des gens, c’est-à-dire la manière dont le système caractérise les usagers, même si ces caractères se révèlent souvent faux parce que calculés), la surveillance des utilisateurs pour leur livrer de la publicité ciblée va construire les principaux empires des Gafams que nous connaissons encore aujourd’hui. Si la publicité joue un rôle essentiel dans la privatisation, les  «Empires élastiques » des Gafams, comme les appels Tarnoff, ne vont pas seulement utiliser l’analyse de données pour vendre des biens et de la publicité, ils vont aussi l’utiliser pour créer des places de marché pour les moyens de production, c’est-à-dire produire du logiciel pour l’internet commercial. 

« Quand le capitalisme transforme quelque chose, il tend à ajouter plus de machinerie », rappelle Tarnoff avec les accents de Pièces et Main d’œuvre. Avec les applications, les pages internet sont devenues plus dynamiques et complexes, « conçues pour saisir l’attention des utilisateurs, stimuler leur engagement, liées pour élaborer des systèmes souterrains de collecte et d’analyse des données »« Les centres commerciaux en ligne sont devenus les lieux d’un calcul intensif. Comme le capitalisme a transformé l’atelier en usine, la transformation capitaliste d’internet a produit ses propres usines », qu’on désigne sous le terme de cloud, pour mieux obscurcir leur caractère profondément industriel. Ces ordinateurs utilisés par d’autres ordinateurs, rappellent l’enjeu des origines du réseau : étendre le calcul et les capacités de calcul. Tarnoff raconte ainsi la naissance, dès 2004, de l’Elastic Compute Cloud (EC2) d’Amazon par Chris Pinkham et Christopher Brown, partis en Afrique du Sud pour rationaliser les entrailles numériques de la machine Amazon qui commençait à souffrir des limites de l’accumulation de ses couches logicielles. EC2 lancé en 2006 (devenu depuis Amazon Web Services, AWS, l’offre d’informatique en nuage), va permettre de vendre des capacités informatiques et d’analyse mesurées et adaptables. Le cloud d’Amazon va permettre d’apporter un ensemble d’outils à l’industrialisation numérique, de pousser plus loin encore la privatisation. Le Big Data puis les avancées de l’apprentissage automatisé (l’intelligence artificielle) dans les années 2010 vont continuer ces accélérations industrielles. La collecte et le traitement des données vont devenir partout un impératif

La tech est désormais le dernier archipel de super-profit dans un océan de stagnation. Pire, la privatisation jusqu’aux couches les plus hautes d’internet, a programmé la motivation du profit dans tous les recoins du réseau.

Dans le même temps, les utilisateurs ont conquis un internet devenu mobile. L’ordinateur devenant smartphone n’est plus seulement la machine à tout faire, c’est la machine qui est désormais partout, s’intégrant non seulement en ligne, mais jusqu’à nos espaces physiques, déployant un contrôle logiciel jusque dans nos vies réelles, à l’image d’Uber et de son management algorithmique. L’industrialisation numérique s’est ainsi étendue jusqu’à la coordination des forces de travail, dont la profitabilité a été accrue par la libéralisation du marché du travail. La contractualisation des travailleurs n’a été qu’une brèche supplémentaire dans la gestion algorithmique introduite par le déploiement sans fin de l’industrie numérique, permettant désormais de gérer les tensions sur les marchés du travail, localement comme globalement. La force de travail est elle-même gérée en nuage, à la demande. Nous voilà dans le Human Cloud que décrit Gavin Mueller dans Breaking things at Work ou David Weil dans The Fissured Workplace

Coincés dans les profits !

Les biens réelles abstractions de ces empires élastiques ont enfin été rendues possibles par la financiarisation sans précédent de cette nouvelle industrie. Tout l’enjeu de la privatisation d’internet, à tous les niveaux de la pile, demeure le profit, répète Tarnoff. La financiarisation de l’économie depuis les années 70 a elle aussi profité de cette industrialisation numérique… Reste que la maximisation des profits des empires élastiques semble ne plus suffire. Désormais, les entreprises de la tech sont devenues des véhicules pour la pure spéculation. La tech est l’un des rares centres de profit qui demeure dans des économies largement en berne. La tech est désormais le dernier archipel de super-profit dans un océan de stagnation. Pire, la privatisation jusqu’aux couches les plus hautes d’internet, a programmé la motivation du profit dans tous les recoins du réseau. De Comcast (fournisseur d’accès), à Facebook jusqu’à Uber, l’objectif est resté de faire de l’argent, même si cela se fait de manière très différente, ce qui implique des conséquences sociales très différentes également. Les fournisseurs d’accès vendent des accès à l’internet, au bénéfice des investisseurs et au détriment des infrastructures et de l’égalité d’accès. Dans les centres commerciaux en ligne comme Facebook, on vend la monétisation de l’activité des utilisateurs ainsi que l’appareillage techno-politique qui va avec… Dans Uber ou les plateformes du digital labor, on vend le travail lui-même au moins disant découpé en microtranches et micro-tâches… Mais tous ces éléments n’auraient pas été possibles hors d’internet. C’est la promesse d’innovation technologique qui persuade les autorités de permettre à ces entreprises à déroger aux règles communes, qui persuade les investisseurs qu’ils vont réaliser une martingale mirifique. Mais dans le fond, toutes restent des machines non démocratiques et des machines à produire des inégalités. Toutes redistribuent les risques de la même façon : « ils les poussent vers le bas, vers les plus faibles » (les utilisateurs comme les travailleurs) « et les répandent autour d’eux. Ils tirent les récompenses vers le haut et les concentrent en de moins en moins de mains »

Pourtant, rappelle Tarnoff, l’action collective a été le meilleur moyen pour réduire les risques, à l’image des régulations qu’ont obtenues dans le passé les chauffeurs de taxis… jusqu’à ce qu’Uber paupérise tout le monde. L’existence des chauffeurs est devenue plus précaire à mesure que la valorisation de l’entreprise s’est envolée. Le risque à terme est que la machine néolibérale programmée jusqu’au cœur même des systèmes, ubérise tout ce qui reste à ubériser, de l’agriculture à la santé, des services public à l’école jusqu’au développement logiciel lui-même. 

Pourtant, les centres commerciaux en ligne sont très gourmands en travail. Tous ont recours à une vaste force de travail invisible pour développer leurs logiciels, les maintenir, opérer les centres de données, labéliser les données… La sociologue Tressie McMillan Cottom parle d’« inclusion prédatrice » pour qualifier la dynamique de l’économie politique d’internet. C’est une logique, une organisation et une technique qui consiste à inclure les marginalisés selon des logiques extractives. C’est ce que montrait Safiya Umoja Noble dans Algorithms of oppression : les « filles noires » que l’on trouve dans une requête sur Google sont celles des sites pornos, les propositions publicitaires qui vous sont faites ne sont pas les mêmes selon votre niveau de revenu ou votre couleur de peau. Les plus exclus sont inclus, mais à la condition qu’ils absorbent les risques et renoncent aux moindres récompenses. L’oppression et les discriminations des espaces en ligne sont désormais le fait d’une boucle de rétroaction algorithmique qui ressasse nos stéréotypes pour ne plus s’en extraire, enfermant chacun dans les catégories que spécifie la machine. Nous sommes désormais pris dans une intrication, un enchevêtrement d’effets, d’amplification, de polarisation, dont nous ne savons plus comment sortir. 

« L’exploitation des travailleurs à la tâche, le renforcement des oppressions sexistes ou racistes en ligne, l’amplification de la propagande d’extrême-droite… aucun de ces dommages sociaux n’existeraient s’ils n’étaient pas avant tout profitables. » 

Les inégalités restent cependant inséparables de la poursuite du profit pour le profit. La tech est devenuel’équivalent de l’industrie du Téflon. Pour l’instant, les critiques sont mises en quarantaine, limitées au monde de la recherche, à quelques activistes, à quelques médias indépendants. Le techlash a bien entrouvert combien la tech n’avait pas beaucoup de morale, ça n’empêche pas les scandales des brèches de données de succéder aux scandales des traitements iniques. Réformer l’internet pour l’instant consiste d’un côté à écrire de nouvelles réglementations pour limiter le pouvoir de ces monopoles. C’est le propos des New Brandeisians (faisant référence à l’avocat américain Louis Brandeis, grand réformateur américain) qui veulent rendre les marchés plus compétitifs en réduisant les monopoles des Gafams. Ces faiseurs de lois ont raison : les centres commerciaux en ligne ne sont pas assez régulés ! Reste qu’ils souhaitent toujours un internet régi par le marché, plus compétitif que concentré. Pourtant, comme le souligne Nick Srnicek, l’auteur deCapitalisme de plateforme, c’est la compétition, plus que la taille, qui nécessite toujours plus de données, de traitements, de profits… 

Pour Tarnoff, il y a une autre stratégie : la déprivatisation. « Que les marchés soient plus régulés ou plus compétitifs ne touchera pas le problème le plus profond qui est le marché lui-même. Les centres commerciaux en ligne sont conçus pour faire du profit et faire du profit est ce qui construit des machines à inégalités ».« L’exploitation des travailleurs à la tâche, le renforcement des oppressions sexistes ou racistes en ligne, l’amplification de la propagande d’extrême-droite… aucun de ces dommages sociaux n’existeraient s’ils n’étaient pas avant tout profitables. » Certes, on peut chercher à atténuer ces effets… Mais le risque est que nous soyons en train de faire comme nous l’avons fait avec l’industrie fossile, où les producteurs de charbon se mettent à la capture du CO2 plutôt que d’arrêter d’en brûler ! Pour Tarnoff, seule la déprivatisation ouvre la porte à un autre internet, tout comme les mouvements abolitionnistes et pour les droits civiques ont changé la donne en adressant finalement le coeur du problème et pas seulement ses effets (comme aujourd’hui, les mouvements pour l’abolition de la police ou de la prison).

Mais cette déprivatisation, pour l’instant, nous ne savons même pas à quoi elle ressemble. Nous commençons à savoir ce qu’il advient après la fermeture des centres commerciaux (les Etats-Unis en ont fermé beaucoup) : ils sont envahis par les oiseaux et les mauvaises herbes ! Sur l’internet, bien souvent, les noms de domaines abandonnés sont valorisés par des usines à spam ! Si nous savons que les réseaux communautaires peuvent supplanter les réseaux privés en bas de couche technologique, nous avons peu d’expérience des alternatives qui peuvent se construire en haut des couches réseaux. 

Nous avons besoin d’expérimenter l’alternet !

Nous avons besoin d’expérimenter. L’enjeu, n’est pas de remplacer chaque centre commercial en ligne par son équivalent déprivatisé, comme de remplacer FB ou Twitter par leur clone placé sous contrôle public ou coopératif et attendre des résultats différents. Cela nécessite aussi des architectures différentes. Cela nécessite d’assembler des constellations de stratégies et d’institutions alternatives, comme le dit Angela Davisquand elle s’oppose à la prison et à la police. Pour Tarnoff, nous avons besoin de construire une constellation d’alternatives. Nous devons arrêter de croire que la technologie doit être apportée aux gens, plutôt que quelque chose que nous devons faire ensemble.

Comme le dit Ethan Zuckerman dans sa vibrante défense d’infrastructures publiques numériques, ces alternatives doivent être plurielles dans leurs formes comme dans leurs buts, comme nous avons des salles de sports, des bibliothèques ou des églises pour construire l’espace public dans sa diversité. Nous avons besoin d’une décentralisation, non seulement pour combattre la concentration, mais aussi pour élargir la diversité et plus encore pour rendre possible d’innombrables niveaux de participation et donc d’innombrables degrés de démocratie. Comme Zuckerman ou Michael Kwet qui milite pour un « socialisme numérique »  avant lui, Tarnoff évoque les logiciels libres, open source, les instances distribuées, l’interopérabilité…, comme autant de leviers à cet alternumérisme. Il évoque aussi une programmation publique, un cloud public comme nous avons finalement des médias publics ou des bibliothèques. On pourrait même imaginer, à défaut de construire des capacités souveraines, d’exiger d’Amazon de donner une portion de ses capacités de traitements, à défaut de les nationaliser. Nous avons besoin d’un secteur déprivatisé plus gros, plus fort, plus puissant. 

C’est oublier pourtant que ces idées (nationaliser l’internet ou Google hier, AWS demain…) ont déjà été émises et oubliées. Déconsidérées en tout cas. Tarnoff oublie un peu de se demander pourquoi elles n’ont pas été mises en œuvre, pourquoi elles n’ont pas accroché. Qu’est-ce qui manque au changement pour qu’il ait lieu ?, semble la question rarement posée. Pour ma part, pourtant, il me semble que ce qui a fait la différence entre l’essor phénoménal de l’internet marchand et la marginalité des alternatives, c’est assurément l’argent. Même si on peut se réjouir de la naissance de quelques coopératives, à l’image de Up&Go, CoopCycle ou nombre de plateformes coopératives, les niveaux d’investissements des uns ne sont pas les niveaux d’investissements des autres. Le recul des politiques publiques à investir dans des infrastructures publiques, on le voit, tient bien plus d’une déprise que d’une renaissance. Bien sûr, on peut, avec lui, espérer que les données soient gérées collectivement, par ceux qui les produisent. Qu’elles demeurent au plus près des usagers et de ceux qui les coproduisent avec eux, comme le prônent les principes du féminisme de donnéeset que défendent nombre de collectifs politisés (à l’image d’InterHop), s’opposant à une fluidification des données sans limites où l’ouverture sert bien trop ceux qui ont les moyens d’en tirer parti, et plus encore, profite à ceux qui veulent les exploiter pour y puiser de nouveaux gains d’efficacité dans des systèmes produits pour aller à l’encontre des gens. Pour démocratiser la conception et le développement des technologies, il faut créer des processus participatifs puissants, embarqués et embarquants. « Rien pour nous sans nous », disent les associations de handicapés, reprises par le mouvement du Design Justice.

« Écrire un nouveau logiciel est relativement simple. Créer des alternatives soutenables et capables de passer à l’échelle est bien plus difficile », conclut Tarnoff. L’histoire nous apprend que les Télécoms ont mené d’intenses campagnes pour limiter le pouvoir des réseaux communautaires, comme le pointait à son tour Cory Doctorow, en soulignant que, du recul de la neutralité du net à l’interdiction des réseaux haut débit municipaux aux US (oui, tous les Etats ne les autorisent pas, du fait de l’intense lobbying des fournisseurs d’accès privés !), les oppositions comme les régulateurs trop faibles se font dévorer par les marchés ! Et il y a fort à parier que les grands acteurs de l’internet mènent le même type de campagne à l’encontre de tout ce qui pourra les déstabiliser demain. Mais ne nous y trompons pas, souligne Tarnoff, l’offensive à venir n’est pas technique, elle est politique !

« Pour reconstruire l’internet, nous allons devoir reconstruire tout le reste ». Et de rappeler que les Ludditesn’ont pas tant chercher à mener un combat d’arrière garde que d’utiliser leurs valeurs pour construire une modernité différente. Le fait qu’ils n’y soient pas parvenus doit nous inquiéter. La déprivatisation à venir doit être tout aussi inventive que l’a été la privatisation à laquelle nous avons assisté. Nous avons besoin d’un monde où les marchés comptent moins, sont moins présents qu’ils ne sont… Et ils sont certainement encore plus pesants et plus puissants avec le net que sans !

***

Tarnoff nous invite à nous défaire de la privatisation comme d’une solution alors qu’elle tient du principal problème auquel nous sommes confrontés. Derrière toute privatisation, il y a bien une priva(tisa)tion, quelque chose qui nous est enlevé, dont l’accès et l’enjeu nous est soufflé, retranché, dénié. Derrière l’industrialisation numérique, il y a une privatisation massive rappelions-nous il y a peu. Dans le numérique public même, aux mains des cabinets de conseils, l’État est plus minimal que jamais ! Même aux États-Unis, où l’État est encore plus croupion, les grandes agences vendent l’internet public à des services privés qui renforcentl’automatisation des inégalités

Malgré la qualité de la synthèse que livre Ben Tarnoff dans son essai, nous semblons au final tourner en rond. Sans investissements massifs et orientés vers le bien public plutôt que le profit, sans projets radicaux et leurs constellations d’alternatives, nous ne construirons ni l’internet de demain, ni un monde, et encore moins un monde capable d’affronter les ravages climatiques et les dissolutions sociales à venir. L’enjeu désormais semble bien plus de parvenir à récupérer les milliards accaparés par quelques-uns qu’autre chose ! Si nous avons certes besoin de constellations d’alternatives, il nous faut aussi saisir que ces constellations d’alternatives en sont rarement, en tout cas, que beaucoup ne sont que des projets politiques libéraux et qu’elles obscurcissent la nécessité d’alternatives qui le soient. Le secteur marchand produit nombre d’alternatives mais qui demeurent pour l’essentiel des formes de marchandisation, sans s’en extraire, à l’image de son instrumentation de la tech for good, qui conduit finalement à paupériser et vider de son sens la solidarité elle-même. Comme il le dit dans une interview pour The Verge, nous avons besoin de politiques et de mobilisations sur les enjeux numériques, pas seulement d’alternatives, au risque qu’elles n’en soient pas vraiment ! La constellation d’alternatives peut vite tourner au techwashing.  

Il manque à l’essai de Ben Tarnoff quelques lignes sur comment réaliser une nécessaire désindustrialisation du numérique (est-elle possible et comment ?), sur la nécessité d’une définanciarisation, d’une démarchandisation, d’une déséconomisation, voire d’un définancement de la tech, et donc pointer la nécessité d’autres modèles, comme l’investissement démocratique qu’explorait récemment Michael McCarthy dans Noema Mag. Et même ce changement d’orientation de nos investissements risque d’être difficile, les moyens d’influence et de lobbying des uns n’étant pas au niveau de ceux des autres, comme s’en désolent les associations de défense des droits américaines. C’est-à-dire, comme nous y invitait dans la conclusion de son dernier livre le sociologue Denis Colombi, Pourquoi sommes-nous capitalistes (malgré nous) ?, à comment rebrancher nos choix d’investissements non pas sur la base des profits financiers qu’ils génèrent, mais sur ce qu’ils produisent pour la collectivité. C’est un sujet que les spécialistes de la tech ne maîtrisent pas, certes. Mais tant qu’on demandera à la tech de produire les meilleurs rendements du marché pour les actionnaires (15% à minima !), elle restera le bras armé du capital. Pour reconstruire l’internet, il faut commencer par reconstruire tout le reste ! 

Hubert Guillaud

A propos du livre de Ben Tarnoff, Internet for the people, the fight for our digital future, Verso, 2022. 

Journaliste, blogueur, Hubert Guillaud, longtemps rédacteur en chef d’InternetActu.net, décrypte comme nul autre nos vies dans les outils du numérique. @hubertguillaud

Lire la première partie de cet article.

Internet : une si longue dépossession (1/2)

@maximalfocus

À l’occasion de la sortie du livre du théoricien critique Ben Tarnoff, Internet for the people, the fight for the future (Verso, 14 juin 2022), le journaliste spécialiste des conséquences politiques du numérique Hubert Guillaud nous propose de mieux comprendre les enjeux de la privatisation de nos biens sociaux (espaces de communications, services publics, industries…) par la numérisation à l’américaine et d’en retracer le fil historique. Un texte essentiel pour se repérer dans les grands enjeux contemporains d’internet (centralisation, décentralisation, articulation des différents réseaux et des différentes échelles, gouvernance privée versus gouvernance publique et intervention des citoyens dans ces transformations). (Partie 1/2)

Ben Tarnoff est un chercheur et un penseur important des réseaux. Éditeur de l’excellent Logic Mag, il est également l’un des membres de la Collective action in tech, un réseau pour documenter et faire avancer les mobilisations des travailleurs de la tech. 

Il a publié notamment un manifeste, The Making of tech worker movement – dont avait rendu compte Irénée Régnauld dans Mais où va le web ? -, ainsi que Voices from the Valley, un recueil de témoignages des travailleurs de la tech. Critique engagé, ces dernières années, Tarnoff a notamment proposé, dans une remarquable tribune pour Jacobin, d’abolir les outils numériques pour le contrôle social (« Certains services numériques ne doivent pas être rendus moins commodes ou plus démocratiques, mais tout simplement abolis »), ou encore, pour The Guardian, de dé-informatiser pour décarboner le monde (en invitant à réfléchir aux activités numériques que nous devrions suspendre, arrêter, supprimer). Il publie ce jour son premier essai,Internet for the people, the fight of your digital future (Verso, 2022, non traduit). 

Internet for the People n’est pas une contre-histoire de l’internet, ni une histoire populaire du réseau (qui donnerait la voix à ceux qui ne font pas l’histoire, comme l’avait fait l’historien Howard Zinn), c’est avant tout l’histoire de notre déprise, de comment nous avons été dépossédé d’internet, et comment nous pourrions peut-être reconquérir le réseau des réseaux. C’est un livre souvent amer, mais assurément politique, qui tente de trouver les voies à des alternatives pour nous extraire de l’industrialisation du net. Sa force, assurément, est de très bien décrire comment l’industrialisation s’est structurée à toutes les couches du réseau. Car si nous avons été dépossédés, c’est bien parce qu’internet a été privatisé par devers nous, si ce n’est contre nous. 

Nous sommes en train de passer du techlash aux technoluttes, d’une forme d’animosité à l’égard du numérique à des luttes dont l’objet est d’abattre la technologie… c’est-à-dire de dresser le constat qu’internet est brisé et que nous devons le réparer. 

« Les réseaux ont toujours été essentiels à l’expansion capitaliste et à la globalisation. Ils participent à la création des marchés, à l’extraction des ressources, à la division et à la distribution du travail. » Pensez au rôle du télégraphe dans l’expansion coloniale par exemple, comme aux câbles sous-marins qui empruntent les routes maritimes des colons comme des esclaves – tout comme les données et processus de reporting standardisés ont été utilisés pour asseoir le commerce triangulaire et pour distancier dans et par les chiffres la réalité des violences commises par l’esclavage, comme l’explique l’historienne Caitlin Rosenthal dans son livre Accounting for Slavery : Masters & Management.

« La connectivité n’est jamais neutre. La croissance des réseaux a toujours été guidée par le désir de puissance et de profit. Ils n’ont pas été conduits pour seulement convoyer de l’information, mais comme des mécanismes pour forger des relations de contrôle. » La défiance envers le monde numérique et ses effets n’a cessé de monter ces dernières années, dénonçant la censure, la désinformation, la surveillance, les discriminations comme les inégalités qu’il génère. Nous sommes en train de passer du techlash aux technoluttes, d’une forme d’animosité à l’égard du numérique à des luttes dont l’objet est d’abattre la technologie… c’est-à-dire de dresser le constat qu’internet est brisé et que nous devons le réparer. Pour Tarnoff, la racine du problème est pourtant simple : « l’internet est brisé parce que l’internet est un business ». Même « un internet appartenant à des entreprises plus petites, plus entrepreneuriales, plus régulées, restera un internet qui marche sur le profit », c’est-à-dire « un internet où les gens ne peuvent participer aux décisions qui les affectent ». L’internet pour les gens sans les gens est depuis trop longtemps le mode de fonctionnement de l’industrie du numérique, sans que rien d’autre qu’une contestation encore trop timorée ne vienne le remettre en cause. 

Privatisation partout, justice nulle part

Internet for the People, Ben Tarnoff
Ben Tarnoff, Internet for the People (Verso, 2022)

L’internet n’a pas toujours eu la forme qu’on lui connaît, rappelle Tarnoff. Né d’une manière expérimentale dans les années 70, c’est à partir des années 90 que le processus de privatisation s’enclenche. Cette privatisation « n’est pas seulement un transfert de propriété du public au privé, mais un mouvement plus complexe où les entreprises ont programmé le moteur du profit à chaque niveau du réseau », que ce soit au niveau matériel, logiciel, législatif ou entrepreneurial… « Certaines choses sont trop petites pour être observées sans un microscope, d’autres trop grosses pour être observées sans métaphores ». Pour Tarnoff, nous devons regarder l’internet comme un empilement (stack, qui est aussi le titre du livre de Benjamin Bratton qui décompose et cartographie les différents régimes de souveraineté d’internet, qui se superposent et s’imbriquent les uns dans les autres), un agencement de tuyaux et de couches technologiques qui le compose, qui va des câbles sous-marins aux sites et applications d’où nous faisons l’expérience d’internet. Avec le déploiement d’internet, la privatisation est remontée des profondeurs de la pile jusqu’à sa surface. « La motivation au profit n’a pas seulement organisé la plomberie profonde du réseau, mais également chaque aspect de nos vies en ligne ».

En cela, Internet for the people se veut un manifeste, dans le sens où il rend cette histoire de la privatisation manifeste. Ainsi, le techlash ne signifie rien si on ne le relie pas à l’héritage de cette dépossession. Les inégalités d’accès comme la propagande d’extrême droite qui fleurit sur les médias sociaux sont également les conséquences de ces privatisations. « Pour construire un meilleur internet (ou le réparer), nous devons changer la façon dont il est détenu et organisé. Pas par un regard consistant à améliorer les marchés, mais en cherchant à les rendre moins dominants. Non pas pour créer des marchés ou des versions de la privatisation plus compétitifs ou réglementés, mais pour les renverser »

« La “déprivatisation” vise à créer un internet où les gens comptent plus que les profits ». Nous devons prendre le contrôle collectif des espaces en ligne, où nos vies prennent désormais place. Pour y parvenir, nous devons développer et encourager de nouveaux modèles de propriété qui favorisent la gouvernance collective et la participation, nous devons créer des structures qui favorisent ce type d’expérimentations. Or, « les contours précis d’un internet démocratique ne peuvent être découverts que par des processus démocratiques, via des gens qui s’assemblent pour construire le monde qu’ils souhaitent ». C’est à en créer les conditions que nous devons œuvrer, conclut Tarnoff dans son introduction. 

Coincés dans les tuyaux

Dans la première partie de son livre, Tarnoff s’intéresse d’abord aux tuyaux en nous ramenant aux débuts du réseau. L’internet n’est alors qu’un langage, qu’un ensemble de règles permettant aux ordinateurs de communiquer. À la fin des années 70, il est alors isolé des forces du marché par les autorités qui financent un travail scientifique de long terme. Il implique des centaines d’individus qui collaborent entre eux à bâtir ces méthodes de communication. C’est l’époque d’Arpanet où le réseau bénéficie de l’argent de la Darpa (l’agence de la Défense américaine chargée du développement des nouvelles technologies) et également d’une éthique open source qui va encourager la collaboration et l’expérimentation, tout comme la créativité scientifique. « C’est l’absence de motivation par le profit et la présence d’une gestion publique qui rend l’invention d’internet possible »

C’est seulement dans les années 90 que les choses changent. Le gouvernement américain va alors céder les tuyaux à des entreprises, sans rien exiger en retour. Le temps de l’internet des chercheurs est fini. Or, explique Tarnoff, la privatisation n’est pas venue de nulle part, elle a été planifiée. En cause, le succès de l’internet de la recherche. NSFNet, le réseau de la Fondation nationale pour la science qui a succédé à Arpanet en 1985, en excluant les activités commerciales, a fait naître en parallèle les premiers réseaux privés. Avec l’invention du web, qui rend l’internet plus convivial (le premier site web date de 1990, le navigateur Mosaic de 1993), les entreprises parviennent à proposer les premiers accès commerciaux à NSFNet en 1991. En fait, le réseau national des fondations scientifiques n’a pas tant ouvert l’internet à la compétition : il a surtout transféré l’accès à des opérateurs privés, sans leur imposer de conditions et ce, très rapidement. 

En 1995, la privatisation des tuyaux est achevée. Pour tout le monde, à l’époque, c’était la bonne chose à faire, si ce n’est la seule. Il faut dire que les années 90 étaient les années d’un marché libre triomphant. La mainmise sur l’internet n’est finalement qu’une mise en application de ces idées, dans un moment où la contestation n’était pas très vive, notamment parce que les utilisateurs n’étaient encore pas très nombreux pour défendre un autre internet. D’autres solutions auraient pu être possibles, estime Tarnoff. Mais plutôt que de les explorer, nous avons laissé l’industrie dicter unilatéralement ses conditions. Pour elle, la privatisation était la condition à la popularisation d’internet. C’était un faux choix, mais le seul qui nous a été présenté, estime Tarnoff. L’industrie a récupéré une technologie patiemment développée par la recherche publique. La dérégulation des télécoms concomitante n’a fait qu’accélérer les choses. Pour Tarnoff, nous avons raté les alternatives. Les profits les ont en tout cas fermé. Et le «pillage » a continué. L’épine dorsale d’internet est toujours la propriété de quelques entreprises qui pour beaucoup sont alors aussi devenues fournisseurs d’accès. La concentration de pouvoir prévaut à tous les niveaux, à l’image des principales entreprises qui organisent et possèdent l’information qui passent dans les réseaux. Google, Netflix, Facebook, Microsoft, Apple et Amazon comptent pour la moitié du trafic internet. La privatisation nous a promis un meilleur service, un accès plus large, un meilleur internet. Pourtant, le constat est inverse. Les Américains payent un accès internet parmi les plus chers du monde et le moins bon. Quant à ceux qui sont trop pauvres ou trop éloignés du réseau, ils continuent à en être exclus. En 2018, la moitié des Américains n’avaient pas accès à un internet à haut débit. Et cette déconnexion est encore plus forte si en plus d’habiter loin des villes vous avez peu de revenus. Aux États-Unis, l’accès au réseau demeure un luxe. 

Pour Tarnoff, brancher plus d’utilisateurs dans un internet privatisé ne propose rien pour changer l’internet, ni pour changer sa propriété, ni son organisation, ni la manière dont on en fait l’expérience.

Mais l’internet privé n’est pas seulement inéquitable, il est surtout non-démocratique. Les utilisateurs n’ont pas participé et ne participent toujours pas aux choix de déploiements techniques que font les entreprises pour eux, comme nous l’ont montré, très récemment, les faux débats sur la 5G. « Les marchés ne vous donnent pas ce dont vous avez besoin, ils vous donnent ce que vous pouvez vous offrir »« Le profit reste le principe qui détermine comment la connectivité est distribuée »

Pourtant, insiste Tarnoff, des alternatives existent aux monopoles des fournisseurs d’accès. En 1935, à Chattanooga, dans le Tennessee, la ville a décidé d’être propriétaire de son système de distribution d’électricité, l’Electric Power Board. En 2010, elle a lancé une offre d’accès à haut débit, The Gig, qui est la plus rapide et la moins chère des États-Unis, et qui propose un accès même à ceux qui n’en ont pas les moyens. C’est le réseau haut débit municipal le plus célèbre des États-Unis. Ce n’est pas le seul. Quelque 900 coopératives à travers les États-Unis proposent des accès au réseau. Non seulement elles proposent de meilleurs services à petits prix, mais surtout, elles sont participatives, contrôlées par leurs membres qui en sont aussi les utilisateurs. Toutes privilégient le bien social plutôt que le profit. Elles n’ont pas pour but d’enrichir les opérateurs. À Detroit, ville particulièrement pauvre et majoritairement noire, la connexion a longtemps été désastreuse. Depuis 2016, le Detroit Community Technology Project (DCTP) a lancé un réseau sans fil pour bénéficier aux plus démunis. Non seulement la communauté possède l’infrastructure, mais elle participe également à sa maintenance et à son évolution. DCTP investit des habitants en « digital stewards » chargés de maintenir le réseau, d’éduquer à son usage, mais également de favoriser la connectivité des gens entre eux, assumant par là une fonction politique à la manière de Community organizers

Pour Tarnoff, brancher plus d’utilisateurs dans un internet privatisé ne propose rien pour changer l’internet, ni pour changer sa propriété, ni son organisation, ni la manière dont on en fait l’expérience. Or, ces expériences de réseaux locaux municipaux défient la fable de la privatisation. Elles nous montrent qu’un autre internet est possible, mais surtout que l’expérience même d’internet n’a pas à être nécessairement privée. La privatisation ne décrit pas seulement un processus économique ou politique, mais également un processus social qui nécessite des consommateurs passifs et isolés les uns des autres. À Detroit comme à Chattanooga, les utilisateurs sont aussi des participants actifs à la croissance, à la maintenance, à la gouvernance de l’infrastructure. Tarnoff rappelle néanmoins que ces réseaux municipaux ont été particulièrement combattus par les industries du numériques et les fournisseurs d’accès. Mais contrairement à ce que nous racontent les grands opérateurs de réseaux, il y a des alternatives. Le problème est qu’elles ne sont pas suffisamment défendues, étendues, approfondies… Pour autant, ces alternatives ne sont pas magiques. « La décentralisation ne signifie pas automatiquement démocratisation : elle peut servir aussi à concentrer le pouvoir plus qu’à le distribuer ». Internet reste un réseau de réseau et les nœuds d’interconnections sont les points difficiles d’une telle topographie. Pour assurer l’interconnexion, il est nécessaire également de « déprivatiser » l’épine dorsale des interconnexions de réseaux, qui devrait être gérée par une agence fédérale ou une fédération de coopératives. Cela peut sembler encore utopique, mais si l’internet n’est déprivatisé qu’à un endroit, cela ne suffira pas, car cela risque de créer des zones isolées, marginales et surtout qui peuvent être facilement renversées – ce qui n’est pas sans rappeler le délitement des initiatives de réseau internet sans fil communautaire, comme Paris sans fil, mangés par la concurrence privée et la commodité de service qu’elle proposent que nous évoquions à la fin de cet article

Dans les années 90, quand la privatisation s’est installée, nous avons manqué de propositions, d’un mouvement en défense d’un internet démocratique, estime Tarnoff. Nous aurions pu avoir, « une voie publique sur les autoroutes de l’information ». Cela n’a pas été le cas. 

Désormais, pour déprivatiser les tuyaux (si je ne me trompe pas, Tarnoff n’utilise jamais le terme de nationalisation, un concept peut-être trop loin pour le contexte américain), il faut résoudre plusieurs problèmes. L’argent, toujours. Les cartels du haut débit reçoivent de fortes injections d’argent public notamment pour étendre l’accès, mais sans rien vraiment produire pour y remédier. Nous donnons donc de l’argent à des entreprises qui sont responsables de la crise de la connectivité pour la résoudre ! Pour Tarnoff, nous devrions surtout rediriger les aides publiques vers des réseaux alternatifs, améliorer les standards d’accès, de vitesse, de fiabilité. Nous devrions également nous assurer que les réseaux publics locaux fassent du respect de la vie privée une priorité, comme l’a fait à son époque la poste, en refusant d’ouvrir les courriers ! Mais, si les lois et les régulations sont utiles, « le meilleur moyen de garantir que les institutions publiques servent les gens, est de favoriser la présence de ces gens à l’intérieur de ces institutions ». Nous devons aller vers des structures de gouvernances inclusives et expansives, comme le défendent Andrew Cumbers et Thomas Hanna dans « Constructing the Democratic Public Entreprise »(.pdf) (à prolonger par le rapport Democratic Digital Infrastructure qu’a publié Democracy Collaborative, le laboratoire de recherche et développement sur la démocratisation de l’économie).

Lire la deuxième partie de cet article.

Internet Année Zéro : la naissance des monstres numériques

© John Lester – Flickr

Internet Année Zéro (Divergences 2021) est le dernier essai de Jonathan Bourguignon, spécialiste des origines du capitalisme numérique américain. Il y retrace l’avènement de la société de surveillance contemporaine à travers une galeries de portraits (Peter Thiel, Elon Musk) et le récit des chemins de traverse entre la contreculture américaine des années 60-70 et la cyberculture de la Silicon Valley. Fait notable pour un ouvrage de ce genre, une partie conséquente du livre est réservée à l’émergence du numérique chinois, permettant au lecteur de découvrir l’autre empire informatique actuel, celui des BATX et de la « grande muraille numérique », filtrant les influences extérieures. Les lignes suivantes sont extraites de son ouvrage.1

Les héritiers

La bulle Internet connaît son apogée au mois de mars 2000. Son éclatement aurait pu marquer la fin du rêve de cette nouvelle économie vouée à avaler l’ancien monde ; en réalité, il est surtout un assainissement de l’écosystème. Pendant les années de fièvre et d’exubérance de la fin du siècle, certains ont patiemment, rationnellement construit l’infrastructure du web marchand. Alors que les valeurs technologiques s’effondrent et que les industriels et investisseurs traditionnels qui se sont lancés dans l’aventure sauvent ce qu’ils peuvent de leurs investissements, ces bâtisseurs vont consolider durant les années suivantes des actifs qui deviendront des empires. En héritiers de la cyberculture, ils vont investir les fortunes considérables qu’ils ont amassées avant l’explosion de la bulle pour contribuer à l’avènement du monde libertarien, transhumaniste et cybernétique auquel ils croient.

La généalogie de ce nouveau groupe parmi les plus influents de la Silicon Valley remonte à la création du web marchand ; leur action contribuera à faire de la data (données) le nouvel or noir du cyberespace. Entre 1995 et 2000, la croissance du web est stupéfiante : la base d’utilisateurs passe de 16 à 360 millions, près de 6 % de la population mondiale est soudain en ligne. Cette croissance est nourrie par la multiplication des sites web : entreprises, administrations publiques, tous types d’organisations créent soudain leur propre site. Le trafic, anarchique et décentralisé, commence à s’organiser à partir de 1995, sous la forme de portails et annuaires en ligne, tels que AOL et Yahoo!, portes d’entrée dans la toile à partir desquels les utilisateurs n’ont plus qu’à suivre les liens qui sont étalés sous leurs yeux. Les moteurs de recherche les talonnent : Altavista (qui sera racheté par Yahoo!) est créé la même année, Google trois ans plus tard.

Les internautes sont désormais libres de découvrir l’étendue du réseau par simple recherche de mots clés, sans être guidés ou connaître préalablement l’existence et l’adresse précise des sites qu’ils vont visiter. Néanmoins, en 1997, le commerce en ligne aux États-Unis représente moins de 0,1 % de son parent dans la vie réelle. Quelque chose manque pour que les consommateurs et leurs dollars délaissent les devantures désirables des boutiques et magasins. C’est à la même époque que se constituent les trois éléments clés qui permettent à l’écosystème marchand d’éclore : les fournisseurs de services d’applications (l’ancêtre du SaaS ou Software as a Service, littéralement «logiciel en tant que service») qui permettent la multiplication des sites de commerce comme des médias ; les moyens de paiement en ligne qui créent un accès pour dériver l’économie classique vers la nouvelle économie en ligne; et le modèle de revenu publicitaire qui crée la dynamique entre marchands, médias en ligne et entreprises technologiques.

Les entreprises pionnières qui ouvrent la voie à chacune de ces innovations se nomment respectivement Viaweb, Paypal et Netscape. Leurs fondateurs porteront l’héritage idéologique de la vallée. Le modèle publicitaire est l’épine dorsale du web. Fondamentalement, il ne diffère guère de celui qui a fait la fortune des agences publicitaires de Madison avenue. Il fait intervenir trois types d’acteurs : les annonceurs (advertisers), les médias (publishers), et l’ensemble des acteurs publicitaires, agences et plateformes de placement, qui organisent le jeu. Les annonceurs permettent de faire rentrer de l’argent réel dans le cyberespace. Il s’agit essentiellement de commerçants, qui vendent des produits et des services de l’ancien monde, vêtements, objets, billets d’avion, nuits d’hôtel. Leur survie est soumise à une compétition de marché: ils doivent amener les consommateurs sur le cyberespace et les détourner de l’économie classique, mais surtout, ils doivent lutter entre eux. La publicité est leur arme pour attirer les internautes sur leurs services. Les médias ont pour principale valeur leur audience : des sites web et des applications, que visitent des utilisateurs plus ou moins nombreux, plus ou moins qualifiés, c’est-à-dire présentant un profil plus ou moins spécifique et valorisé par les annonceurs.

Les plateformes publicitaires créent les conditions qui permettent aux annonceurs d’atteindre l’audience des médias. Rien de nouveau sous le soleil du cyberespace : qu’ils s’appellent journal, magazine, chaîne de télévision ou station de radio, le modèle économique des médias n’a guère évolué depuis la révolution industrielle au début du XIXe siècle.

Viaweb : audience et données

Le nom Viaweb a laissé assez peu de traces. Et pourtant, l’influence de l’entreprise dans le développement du web marchand est très importante. Viaweb existe sous ce nom entre 1995 et 1998, jusqu’à son acquisition par Yahoo! qui rebaptisera le service Yahoo! Store. Viaweb est une application que l’on accède comme un site web, et qui permet de construire et d’héberger des sites d’e-commerce en ligne. Certains – et en particulier le génie technique derrière Viaweb, Paul Graham – considèrent que le service développé par Viaweb constitue le premier fournisseur d’application en ligne. Il permet de créer des sites web.

Comme son nom l’indique (« via le web ») et contrairement à la plupart des logiciels de l’époque, utiliser cette technologie dispense ses clients d’acheter une version du logiciel, qu’ils devraient ensuite installer sur leurs propres machines, avec laquelle ils généreraient un site qu’ils devraient ensuite héberger sur leurs propres serveurs. Les clients de Viaweb utilisent à distance un logiciel qui tourne directement sur les serveurs de Viaweb, pour générer un site opéré directement par Viaweb, avec des données hébergées elles aussi sur des serveurs gérés par Viaweb. Cette particularité permet d’abaisser le niveau d’expertise requis pour créer des sites web, et contribuera à la multiplication du nombre de services marchands. Des technologies équivalentes, développées pour la publication de contenus, permettront l’émergence du phénomène des blogs, et de transformer les internautes majoritairement visiteurs de site web, jusqu’à présent passifs, en éditeurs actifs (avant que le web 2.0 ne vienne encore brouiller la frontière en rendant les visiteurs eux-mêmes actifs, c’est-à-dire créateurs de contenus et générateurs de données, sur le site web même qu’ils visitent). Surtout, la technologie permet à une entreprise cliente de Viaweb d’héberger ses données chez Viaweb.

Ce qui semble un détail technique en 1995 aura des répercussions très importantes des décennies après : en créant au même endroit des banques de données agrégeant l’activité des employés, clients ou cibles marketing de milliers d’entreprises se constituent les premiers puits de ce nouveau pétrole que le marketing n’appelle pas encore big data ou cloud.

PayPal : le nerf de la guerre

Reste qu’acheter les services de ces nouveaux marchands et nouveaux médias qu’on ne rencontre jamais dans la vie réelle, ni dans un magasin, ni dans un kiosque n’a rien d’évident. Amazon vendait des livres en ligne dès 1994, eBay permettait d’organiser des brocantes virtuelles dès 1995, tandis que Netflix, à partir de 1997, louait des DVDs qui transitaient, aller et retour, par courrier. Le principal moyen de paiements consistait alors à envoyer des chèques par courrier. La promesse d’un univers émancipé et dématérialisé où l’information se transmet à la vitesse des photons dans une fibre optique bute sur les limites mécaniques et musculaires des bicyclettes des facteurs, des camions de ramassage et de l’organisation dans les centres de tri des services postaux fédéraux… Paypal naît du mariage en 2000 de deux entreprises pré-pubères, fondées au cours des dix-huit mois qui précèdent.

La première, x.com, s’est donné pour mission de concurrencer les banques dans le nouvel espace digital. À sa tête : Elon Musk, un jeune entrepreneur sud-africain. À vingt-sept ans, dont à peine quatre dans la Vallée, il a déjà revendu une première startup qui fournissait des outils de développement graphique en ligne aux médias (une époque où un écran standard d’ordinateur affichait des pixels d’environ un demi-millimètre, c’est-à-dire dix fois plus gros que ce que peuvent afficher les smartphones en 2020). La seconde, Confinity, compte un certain Peter Thiel, d’origine allemande, parmi ses fondateurs, et ambitionne de créer une monnaie digitale indépendante des banques et des gouvernements, dix ans avant que la cryptomonnaie Bitcoin ne voie le jour.

Le jeune couple devient Paypal, du nom du produit phare développé par Confinity : un système qui permet de faire circuler de l’argent en ligne de manière sécurisée, de la même façon que le fait une fédération de type VISA à travers ses propres réseaux de terminaux de paiement. À travers son compte en ligne, le payeur donne l’autorisation à Paypal d’effectuer une transaction qui prélève un certain montant du compte bancaire qu’il a spécifié, et le transfère vers le compte du bénéficiaire. Paypal fait circuler cette transaction sur les réseaux bancaires. La banque du payeur débite son compte du montant de la transaction, tandis que la banque du bénéficiaire crédite son compte. Seul Paypal est en mesure de voir les numéros de carte et de compte en ligne du payeur et du bénéficiaire, assurant la sécurité de la transaction. Rapidement, des divergences de culture se font jour entre les anciens de x.com et de Confinity.

En 2000, Elon Musk est évincé de Paypal alors qu’il se trouve dans les airs, un avion l’emportant vers l’Australie pour ses premières vacances depuis la fusion. Peter Thiel reprend les rênes. La compagnie entre en Bourse en 2002, et est rachetée la même année par eBay pour 1,5 milliards de dollars. Musk perçoit plus de 150 millions dans la transaction. Malgré l’audience du web qui explose et les transactions marchandes en ligne qui prennent de l’ampleur, les médias, qui génèrent l’essentiel du trafic, peinent à trouver des revenus. Le volume ne parvient pas à compenser la très faible valeur des emplacements publicitaires, en particulier comparée à la télévision. Une publicité en ligne est perçue comme peu valorisante pour l’image de marque des annonceurs ; leur impact est difficile à mesurer ; à l’instar du commerce, le marché publicitaire en ligne représente en 1997 une fraction de pour-cent.

L’arrivée des cookies

Un détail technique va changer la donne. Il porte le nom inoffensif de cookie. Le cookie est un petit fichier de mémoire, stocké par le navigateur sur l’ordinateur de l’utilisateur, qui ne peut être lu que par le service web qui l’a écrit. Le navigateur transmet le cookie chaque fois qu’une nouvelle connexion est établie avec le service, permettant de créer une relation de longue durée, et privée, entre le service et l’utilisateur. Par exemple, les cookies permettent de maintenir une session ouverte, donc que d’une page à l’autre, l’utilisateur n’ait pas à réintroduire ses identifiants, ou encore que le contenu d’un panier ne disparaisse pas. Le cookie est d’abord développé en 1994 au sein du navigateur Netscape. Trois ans plus tard, une spécification de l’Internet Engineering Task Force (IETF), l’organisme chargé de faire émerger les standards qui composent la suite des protocoles internet, met en garde contre le risque en termes de vie privée de certains types de cookies.

Ces cookies, dits cookies tiers ou third party, sont un cas d’utilisation qui n’avait pas été prévu à leur création – ce que l’industrie appelle, dans la continuité culturelle de l’année 1984, un hack. Les cookies tiers consistent en script hébergé sur le site que visite l’utilisateur, qui s’exécute dans le navigateur, créant une communication invisible avec l’entreprise tierce qui a écrit le code. Il peut y avoir de nombreuses raisons d’intégrer des cookies tiers: ils permettent à des entreprises partenaires de tracer le comportement des visiteurs, et ainsi d’aider à analyser un site web, optimiser son design et ses performances, détecter des bugs, ou… améliorer la publicité en ligne. L’IETF met en garde contre les risques en termes de vie privée pour les internautes : les cookies – tiers permettraient théoriquement à certaines entreprises d’avoir accès à l’activité des internautes sur un grand nombre de sites web, à leur insu. Le cookie est précisément l’un de ces bouts de code au sein desquels se cachent les nouvelles lois invisibles à la majorité des internautes aliénés à la technique.

Cette nouvelle loi révoque tacitement le droit à l’anonymat sur Internet : les cookies permettent de réconcilier facilement les différentes identités endossées par un même utilisateur sur différents sites. L’organisation préconise donc que les navigateurs interdisent nativement les cookies tiers. Pourtant, les deux entreprises qui éditent les navigateurs dominants de l’époque, Netscape de Marc Andreessen et Microsoft de Bill Gates, font la sourde oreille. La mise en garde disparaît de la nouvelle spécification publiée en octobre 2000. En particulier, les cookies vont permettre aux identités de persister entre les trois acteurs du modèle publicitaire: les plateformes technologiques vont être capables d’identifier les mêmes utilisateurs lorsqu’ils visitent le site d’un média ou d’un annonceur. Avant que le traçage des données permette aux publicitaires de prédire le comportement des consommateurs et de générer de la publicité ciblée, les cookies vont révolutionner la mesure de l’efficacité publicitaire. Internet invente la publicité à la performance.

Jusqu’à présent, la publicité était un levier de masse pour les marques et les publicitaires. Des données démographiques et des sondages permettaient d’évaluer l’audience d’un spot publicitaire dans un magazine ou sur une chaîne de télévision. Un spot publicitaire pendant le Superbowl était réservé aux entreprises les plus puissantes. L’impact sur les ventes ne pouvait qu’être grossièrement estimé. Sur Internet, les cookies permettent de savoir si un achat a été influencé par une publicité précise, si une publicité a été suivie d’une visite chez l’annonceur, voire d’un achat. Le jeu se perfectionne alors : les scripts installés par les plateformes publicitaires aussi bien chez leurs clients (les annonceurs) que chez leurs fournisseurs (les médias) captent de plus en plus d’information. Convenablement exploitées, les données d’activité de l’internaute permettent de prédire ses affinités, que ce soit côté marchand (caractéristiques des produits vus et mis au panier) ou côté média (centre d’intérêt, affinités politiques, comportement en ligne…). Nourris de ces données personnelles, les algorithmes sont alors capables de prédire, pour chaque utilisateur, sur chaque emplacement publicitaire et à chaque instant, la probabilité que l’affichage d’une bannière mène à un clic, voire à l’achat du produit mis en exergue.

Chaque fois qu’un utilisateur se présente sur le site d’un média, une mise aux enchères est organisée en quelques millisecondes : le publicitaire le plus offrant décide de ce qui s’affichera sous les yeux de l’internaute. Les annonceurs paient plus cher pour des publicités mieux ciblées. Les médias, eux, maximisent donc la valeur de leur audience à chaque visite. Tout le monde gagne à cette mise en commun de la donnée. Y compris les utilisateurs : alors que le web des premières années est inondé de publicités qui ouvrent des fenêtres pour des services déconcertants jusque dans les recoins les plus saugrenus de l’écran, la valorisation à la performance permet de montrer des publicités mieux ciblées et moins intrusives.

D’un point de vue strictement économique, le système semble vertueux : il met sur un pied d’égalité les mastodontes de la consommation et des petits annonceurs, ces derniers pouvant désormais contrôler leurs investissements marketing. De nouveaux acteurs marchands apparaissent, des pure players (dont l’activité ne s’exerce que dans l’univers dématérialisé du web), qui viennent concurrencer les distributeurs traditionnels. De tout petits médias peuvent eux aussi trouver des lignes de revenu, de nouvelles voix se font entendre. Durant presque vingt ans, les cookies tiers vont se multiplier sans qu’aucune remise en question ne vienne peser sur eux. Ils deviendront la clé de voûte du système économique sur lequel se repose une grande majorité des acteurs du web.

Don’t be evil

Parmi les entreprises de cette nouvelle vague publicitaire générée par les bourrasques violentes de l’année 2000 figure l’icône Google. Google existe depuis deux ans. Il naît du projet de recherche de deux doctorants à l’université de Stanford, Larry Page et Sergey Brin. Contrairement aux moteurs de recherche de l’époque qui se contentent d’indexer les sites web indépendamment les uns des autres à la recherche de mots clés, l’algorithme de Google se déploie en parfaite symbiose avec la philosophie du World Wide Web : il analyse les relations entre sites web, c’est-à-dire les liens hypertexte qui le connectent. Google s’attelle à la tâche monumentale de hiérarchiser l’information à travers le web, et l’écosystème lui sait gré de ce travail de titan: le moteur de recherche supplante tous ses concurrents; les plus prestigieux fonds d’investissement investissent dans Google. À l’époque, Google a plusieurs modèles de revenus. La régie publicitaire Adwords en fait partie mais est alors très minoritaire. Le fonctionnement d’Adwords est assez franc: chaque annonceur peut participer à une enchère pour acquérir un mot spécifique, par exemple dog (chien). S’il gagne, la prochaine fois qu’un utilisateur recherchera le mot dog, il verra apparaître au-dessus de ses résultats de recherche une publicité pour la dogfood (nourriture pour chiens) de l’annonceur.

Google vend aussi des licences pour faire tourner ses modèles au sein des systèmes d’information privés de larges organisations, une offre que n’aurait pas refusée le CERN de Tim Berners-Lee. À l’orée du nouveau millénaire, ce modèle est celui que privilégient ses fondateurs. La devise Don’t be evil («ne sois pas malfaisant»), qui deviendra le code de conduite officiel de l’entreprise, serait née à cette époque. Page et Brin, les fondateurs de Google, font publiquement part de leur sentiment que le mal, evil, ce pourrait bien être la publicité. Dans un papier de recherche, ils soutiennent qu’un moteur de recherche financé par la publicité en viendra tôt ou tard à prioriser les besoins des annonceurs face à ceux des consommateurs. Cette profession de foi ne résiste guère au cataclysme de mars 2000. Alors que les valeurs des stocks technologiques s’effondrent, les sources de financement dans la vallée, qui jusqu’alors semblaient inépuisables, tarissent subitement. Google est né sous les meilleurs auspices : Jeff Bezos, le jeune fondateur d’Amazon, est l’un des trois premiers business-angels à investir dans la startup ; moins d’un an s’écoule avant qu’il soit rejoint par les plus prestigieux fonds de capital-risque de la Vallée. Depuis sa naissance, le gourmand algorithme de Google siphonne les fonds injectés par les fonds de capital-risque – c’est le jeu du capital-risque – sans que personne ne mette en doute la pertinence des algorithmes de Google, qui surclassent la concurrence. Mais en cette période de défiance généralisée, plus personne ne veut risquer le moindre investissement dans une entreprise dont l’horizon de profitabilité est encore flou. Chez Google, c’est l’état d’urgence : il ne reste que quelques mois pour lever des fonds ou l’entreprise fera banqueroute, et pour lever des fonds, il faut réinventer la mécanique financière de l’entreprise. Eric Schmidt entre en jeu.

Poussé à prendre les rênes de l’entreprise par les investisseurs historiques de la firme de Mountain View, l’expérimenté manager orchestre le changement de paradigme qui fait d’Adwords la main de Midas des temps modernes. Ce changement est infinitésimal : à peine une règle du jeu de modifiée ; à peine une loi interne, qui régit la mise aux enchères des mots-clés. Auparavant, qui annonçait la plus forte mise gagnait l’enchère, donc le droit d’afficher un résultat de recherche sponsorisé. Google était payé lorsque (et si) l’internaute cliquait sur la publicité. Désormais, l’enchère est accordée non à l’annonceur le plus offrant, mais à celui dont l’enchère pondérée par la probabilité que l’utilisateur clique sur la publicité est la plus élevée. C’est-à-dire que pour deux enchères égales par ailleurs, Google montrera à l’internaute celle qui a le plus de chances de lui plaire. Cette différence maximise l’espérance de revenu pour chaque publicité montrée par Google; elle augmente aussi le retour sur investissement des annonceurs. Quant aux utilisateurs, ils sont désormais exposés à des publicités plus pertinentes. Il y a encore une conséquence plus profonde. Beaucoup plus profonde.

Pour être capable d’estimer cette probabilité de clic de l’utilisateur, Google doit être capable de prédire ses comportements, ce qui signifie accumuler les données personnelles en vue d’en nourrir ses algorithmes. À cette époque, Google occupe déjà une position de domination presque absolue sur les moteurs de recherche ; le système de surveillance qu’il met ainsi en place s’exerce donc déjà quasiment à l’échelle de la société. Google a découvert le nouvel or noir du cyberespace, la donnée comportementale. Contrairement aux puits de pétrole, propriétés communes pour lesquelles les entreprises pétrolières se voient accorder sous conditions une concession de recherche et d’exploitation, aucune autorité territoriale souveraine ne semble être consciente des forages en cours dans le cyberespace. D’un point de vue technologique, ce nouveau paradigme demande à Google de revisiter profondément ses services. En 2003, Google lance sa régie publicitaire AdSense, qui permet aux médias de mettre aux enchères leur espace publicitaire à travers Google. Deux ans plus tard, l’acquisition de Urchin Software Corp. donne naissance à Google Analytics, un service gratuit qui permet à n’importe quel site d’utiliser le service pour analyser son propre trafic. Pour faire fonctionner AdSense ou Analytics, le propriétaire d’un site web doit installer les scripts ou trackers créés par Google. Tous les visiteurs des sites clients du réseau Google se voient donc poser un cookie-tiers Google. En 2018, on estime que les scripts de Google sont déployés sur 76 % des sites web dans le monde ; c’est donc 76 % du trafic mondial que Google est capable de surveiller. L’état d’urgence instauré par Google en 2000 est devenu l’état permanent qui régit encore internet vingt ans après. Cette transformation était-elle inévitable ?

Dans le contexte de cette crise financière si intimement liée au manifeste libertarien Cyberspace and the American Dream, peut-être. Néanmoins, des moteurs de recherche concurrents ont par la suite su se créer et survivre en gardant un modèle économique publicitaire réduit aux enchères sans prédiction comportementale. La forme que revêt une technologie est indissociable des conditions économiques et idéologiques qui président à son apparition. Et si Google s’est trouvé sur la trajectoire de collision de l’idéologie libertarienne, son héritage techno-utopiste va aussi se révéler par d’autres traits. Pour les idéalistes Brin et Page, le tournant publicitaire de Google – et la prise de pouvoir d’Eric Schmidt – est une désillusion dont ils se rattrapent en prenant les rênes de Google X. Google X est la moonshot factory («fabrique à envoyer des fusées sur la lune») de Google, un laboratoire secret dont naîtront les lunettes de réalité augmentée Google Glass (2013), les voitures autonomes Waymo (2016), le réseau internet Loom (2018) distribué à travers des ballons (qui arrêtent leur ascension à la stratosphère, bien avant la Lune). Google utilise aussi son propre fonds d’investissement pour se diversifier et soutenir massivement les initiatives transhumanistes. En 2012, Ray Kurzweil, fondateur de la Singularity University, l’un des plus éminents penseurs transhumanistes rejoint Google. Dans les années suivantes, Google intensifie ses efforts de recherche dans une informatique quantique qui pourrait accélérer la marche vers le point de singularité technologique. En 2013, la succursale Calico se donne pour objectif ultime d’éradiquer la mort. Parmi les mille entreprises de la grande famille Google – renommée à partir de 2015 Alphabet, Google restant le nom de l’ensemble des entreprises incluses dans l’industrie des médias – fort peu visent à asseoir plus encore l’empire financier basé à Mountain View. Les autres, quoi qu’il en coûte, travaillent à faire advenir le futur espéré par les fondateurs Larry et Sergei. La déclaration fiscale d’Alphabet montre qu’en 2019, 82 % de ses revenus sont toujours basés sur la publicité, ce mal temporaire que Google a concédé face à la crise. Don’t be evil, répètent pourtant sans fin Larry et Sergei. Peut-être ajoutent-ils tout bas : à moins que la fin ne justifie les moyens.

Notes :

1 : Les lignes suivantes sont issues de son ouvrage.

Histony : « Il peut y avoir une culture accessible sans qu’elle soit divertissante »

https://www.youtube.com/watch?v=wYaARSuRfgY
Histony © Histoire, mémoire et politique sont-elles compatibles ? Janvier 2020, Youtube

En 2015, Histony, docteur en histoire, a créé sa chaine YouTube qui vise à rendre accessible au grand public l’histoire en tant que discipline savante et rigoureuse. Traitant de divers thèmes comme la Révolution française, l’invention du roman national, le Titanic, ou encore les Romains et le sexe, Histony mobilise l’histoire comme l’un des outils nécessaires au développement de l’esprit critique face à certaines de ses récupérations idéologiques et médiatiques. Entretien réalisé par Clément Plaisant et Xavier Vest.

Le Vent Se Lève Vous avez créé votre chaîne YouTube en 2015 afin d’aborder différentes thématiques historiques en mêlant honnêteté scientifique et clarté. Pouvez-vous nous en dire un peu plus sur la mise en place de ce projet ?

Histony – J’ai été tout d’abord assez déçu de la fermeture du milieu universitaire, tout en ayant conscience de la difficulté de ce champ à capter un large public avec les moyens à sa disposition : des colloques ou des publications scientifiques plus restreintes. Finalement, alors que l’université publie beaucoup de choses intéressantes, de tels contenus ont du mal à venir jusqu’à un large public et celui-ci est contraint d’aller vers des figures telles que Laurent Deutsch, Stéphane Bern. Il est clair que ce sont des individus idéologiquement peu convenables et surtout qui ne font pas quelque chose de bonne qualité, au demeurant, du point de vue historique. Évidemment, si l’on ne considère que l’aspect pédagogique et la vulgarisation, ils sont très en avance. 

Cela m’a décidé à trouver une alternative. J’avais une amie qui faisait un peu de montage vidéo et en voyant qu’il y avait un début d’essor de la vulgarisation scientifique, je me suis dit : je vais essayer. Ayant conscience que je proviens du milieu universitaire et que je me suis construit selon ses formats, j’ai compris que je ne pouvais pas et ne voulais pas faire le clown devant la caméra. Je me suis alors dit qu’il fallait plutôt faire quelque chose d’exigeant, peut-être plus restreint en termes d’audience, que de mal reprendre les codes de la vulgarisation. Très vite, j’ai été dépassé par la réception du format. Parler pendant 20 minutes, puis après 45 minutes, ce n’est pas quelque chose d’extrêmement attrayant. Pourtant, nombreuses ont été les personnes réceptives à ma proposition et j’en suis très heureux. 

LVSL – Vous abordez la construction contemporaine du roman national dans le discours politique, notamment avec les élections présidentielles. Y a-t-il en France une bataille hégémonique pour l’histoire?

Histony – La France est un pays très intéressé par l’Histoire. Regardons les ventes en librairie, les succès des émissions qui ont trait à l’Histoire à la télévision, la vitalité des débats publics liés à l’histoire. L’Histoire fait beaucoup parler. D’une certaine matière, nous sommes un des rares pays où l’Histoire est moins une matière d’historien qu’un enjeu de discussions, car tout le monde a l’impression de bien connaître cette discipline, ce qui n’est pas forcément le cas dans d’autres champs scientifiques.

Toutefois, nombre d’historiens réussissent à s’imposer comme des références, sans en être, à l’instar de Stéphane Bern, ou Franck Ferrand, qui peuvent aller jusqu’à diffuser des contre-vérités aux heures de grande écoute. Les individus n’ont pas forcément les clés pour savoir comment se construit l’histoire scientifique et préfèrent rester du côté de la croyance. Par exemple, certains résistent encore à admettre que nous sommes en possession de preuves qui montrent qu’Alésia n’est pas dans le Jura, ceux-ci étant largement influencés par les discours d’une figure comme Franck Ferrand. Ainsi, tout le monde ne dispose pas des éléments qui permettent de juger, et de se rendre compte que ce n’est pas chacun son avis, qu’il y a des preuves qui mènent vers Alise-Sainte-Reine et que le Jura, ce n’est pas possible. 

Il y a aussi le problème – comme partout –  qui est le suivant : l’Histoire peut avoir une utilisation politique. C’est comme ça que cela a commencé. Nous avons écrit l’Histoire pour servir le pouvoir ou pour servir une vision différente des sociétés humaines. Il y a toujours eu une réécriture de l’Histoire. C’est le cas depuis Hérodote. Alors aujourd’hui, l’approche semble beaucoup plus scientifique, ce qui permet aussi de prendre du recul, de se couper de ce roman historique et de chercher à tendre vers une forme de vérité, sans qu’à l’évidence, il existe en histoire, une vérité absolue puisqu’on retrouve toujours une pluralité de sources. 

LVSL – Vous abordez aussi la thématique de l’Éducation nationale, de l’enseignement supérieur et la diffusion de ce récit national. Sommes-nous passés de la diffusion d’un véritable “roman national” à l’image, sous la IIIe république, du manuel d’histoire d’Ernest Lavisse, à un enseignement davantage comparatiste visant à développer l’esprit critique ? 

Histony – Il faut différencier deux sphères, celle de l’école et de l’université. Ce n’est pas la même chose qui s’y passe. Globalement, l’école reste en retard par rapport à l’université puisque la seconde crée les connaissances tandis que la première les diffuse. Il y a donc toujours un décalage entre les deux. La deuxième précaution à prendre, c’est justement par exemple, lorsqu’on parle de Lavisse et de son manuel qui est assez caricatural aujourd’hui. Dans le cadre précis du XIXe siècle, Lavisse essaie déjà de mettre à jour et d’éduquer les enfants avec les connaissances scientifiques de l’époque.

Ensuite, il est clair que l’université depuis le début du 20ème siècle a pris ses distances avec une forme de récit national. Cela semble évident avec l’École des Annales, laquelle étudie des phénomènes massifs. On a fait entrer la statistique, la démographie dans l’Histoire. On commence à s’intéresser à l’histoire des petites gens, des masses mais aussi des  phénomènes culturels. Ce qui est très intéressant pour la discipline car la religion n’est pas quelque chose qui s’étudie seulement du point de vue politique. Il y a aussi un vrai rapport intime au religieux. On s’est rapidement éloigné des grandes batailles nationales et des grands personnages qui “faisaient l’Histoire”.

Néanmoins, l’ambition de l’école est restreinte aujourd’hui. Les enseignants sont contraints d’expliquer la Révolution en quelques heures, ce faisant, ils doivent négliger certains aspects importants. Le souci, c’est que la chronologie a toujours eu une place importante. Il y a un fort désir de cette dernière et je me souviens que dans mon parcours, elle est apparue à de nombreuses reprises : en primaire, au collège, au lycée. C’est ambitieux mais les professeurs sont contraints à se focaliser sur la chronologie, omettent d’autres thématiques, et s’adonnent à des simplifications. D’un autre côté, il est important de dire que l’on a réussi à faire rentrer d’autres choses, d’autres questions : l’histoire des femmes, l’histoire des sciences, etc. Cela permet de montrer aux élèves que l’Histoire, ce n’est pas juste des dates. Tout cela finit en définitive par se confronter au sein des programmes scolaires, et malgré tout, on continue à apprendre la chronologie française tout en faisant apparaître des éléments extérieurs comme les Empires chinois. Alors évidemment, ce sera toujours imparfait, puisque les professeurs ont chacun leurs spécificités, et certains seront à l’aise avec des sujets, d’autres non, mais il en est ainsi car cela relève de la structure même de l’enseignement scolaire.

On retrouve enfin aussi d’autres enjeux plus concrets. Comment évaluer la démarche critique ? L’apprendre, ce n’est pas forcément compliqué. L’évaluer cela l’est beaucoup plus. Regardons à l’université. On y retrouve l’épreuve de la dissertation qui consiste en première année, à recracher le cours. Maintenant, nous sommes passés à des exercices comme le QCM qui est l’exercice le moins critique qui puisse exister, puisqu’il suffit de choisir entre plusieurs options : A, B ou bien C ou D. Il faut donc faire attention entre des enjeux intellectuels, et des enjeux plutôt concrets, liés à l’éducation, à la transmission de la connaissance. 

L’école est finalement une porte d’entrée vers quelque chose de plus large et je pense que le défi, c’est de faire en sorte que l’école réussisse à intéresser plus qu’à apprendre. Car nombre de connaissances, apprises au collège, au lycée, seront oubliées plus tard. 

LVSL – Concernant la notion de peuple qui, d’après vous, est nécessairement plurielle et a souvent été instrumentalisée. L’Histoire doit-elle se refuser à parler du peuple, et donc laisser ce dernier à la théorie politique ? 

Histony – Le problème, c’est effectivement qu’il regroupe beaucoup de choses différentes à l’usage dans l’Histoire. Il est aisé de retrouver par exemple cette version populiste de la Révolution française, très utilisée par l’extrême droite. Elle est de dire : « le peuple a été manipulé par la bourgeoisie qui a renversé la noblesse. » De quel peuple parle-t-on ? Lorsqu’on évoque les sans-culottes parisiens, ce ne sont clairement pas des indigents. Ces derniers ont autre chose à faire que la révolution, et n’en ont guère le temps. La Révolution dure dix ans et pendant ces années-là, il faut aussi travailler. Car on l’oublie souvent, mais la Révolution, ce sont des gens qui continuent à se nourrir, à travailler. Finalement, ceux qui participent à ces journées sont plutôt des artisans et des petits patrons. Et c’est pour cela aussi que, par exemple, au niveau des sans-culottes, on note des divergences. Ils sont tous d’accord pour un maximum des prix parce que cela les arrange, et d’aucuns voudraient fixer un maximum du salaire, pour se protéger des grands patrons. Maintenant, on retrouve d’autres groupes, comme les agriculteurs. Pour eux, le maximum des prix, ce n’est pas avantageux, puisqu’on les force à vendre leur production à perte. Donc, ce qui est nécessaire pour nourrir Paris, pour les campagnes, cela peut se révéler être les affamer. C’est difficile de trouver un équilibre. Le peuple est marqué par sa diversité, puisqu’on y retrouve un petit patron parisien, un ouvrier parisien, ou un paysan dans une campagne quelconque. Tout cela n’est guère la même chose. En somme, le peuple est souvent perçu comme uniforme, se laissant manipuler, et rarement décrit dans sa pluralité tel qu’elle a pu se manifester récemment durant le mouvement des gilets jaunes. 

LVSL – Au passage, puisque vous évoquez le mouvement des gilets jaunes, on a pu y observer de nombreuses références à la Révolution française. Pensez-vous que les gilets jaunes portent un caractère révolutionnaire, similaire aux sans-culottes parisiens ?

Histony – Le mouvement des gilets jaunes est « gilet jaunesque ».  Qu’est-ce que cela signifie ? Qu’il faut cesser de vouloir tout comparer. Cependant, il semble assez clair que la recherche de comparaison à travers le passé peut avoir le but de fédérer ou d’effrayer. Effrayer, car vous allez comparer votre ennemi aux Khmers rouges, ou aux staliniens, et c’est très facile. Cela ne sert qu’à faire peur. Et c’est pour cela que, très fréquemment, vous avez des discours qui en reviennent « aux heures les plus sombres de l’Histoire ». Ainsi, ce fut le cas lorsque des jeunes en sont venus à déchirer l’ouvrage de François Hollande, Leçons du pouvoir. D’emblée, ils ont été assimilés à des nazis. C’est très intéressant parce que d’un côté, quand vous avez des militants néonazis qui se revendiquent du nazisme, il ne faut pas dire que ce sont des nazis, il faut parler d’alt right ou de droite alternative. Par contre, quand vous avez des étudiants qui déchirent trois bouquins de François Hollande, là, il est pertinent d’évoquer le terme de nazis ! Les comparaisons sont donc à usages multiples, parfois elles sont taboues, parfois elles ne le sont pas.

Ensuite, on peut comparer pour fédérer. On peut prendre un événement heureux, et espérer que ce qui se passe aujourd’hui ait la même fin heureuse. La Révolution française de 1789 est éloquente et souvent invoquée. Pourtant, la situation en France n’est pas celle de 1789 : les enjeux sont différents et l’on retrouve des formes de pouvoir, de répression et même des représentations du monde totalement diverses et variées. Finalement, les références au passé sont fédératrices mais aussi aveuglantes. Elles peuvent ainsi mener au fétichisme. Ici, je pense par exemple au fétichisme de la barricade dans les manifestations. Elle ne joue aucun rôle stratégique, si tant est qu’elle ait vraiment joué un rôle un jour. En ce qui concernent les grandes barricades : ou bien il y avait la garde nationale qui finissait par passer du côté des révolutionnaires, dans ce cas, cela fait une révolution qui marche comme en 1848 ; ou bien la garde nationale reste du côté du pouvoir et dans ce cas la barricade tombe, et la révolution est cette fois-ci avortée comme en 1832, ce qui a magistralement été dépeint par Victor Hugo dans Les Misérables. Même en 1968, la barricade n’a plus qu’un rôle symbolique, folklorique. Finalement, on a observé ici davantage ce qui relève de fantasmes, qui parfois se révèlent contre-productifs. Plus récemment, je me souviens que certains ont annoncé au matin d’un jour de grandes manifestations, le 31 mars 2016, qu’ils allaient remettre en place la Commune à Nantes. À la fin de la journée, une voiture avait été brûlée, un carrefour temporairement bloqué, et tout le monde avait été gazé. Cela a mené, certes, à Nuit Debout, mais cela n’est en rien la Commune ! 

LVSL – Vous avez évoqué dans une de vos vidéos des figures telles que Franck Ferrand ou Stéphane Bern. Il est flagrant aujourd’hui de remarquer à quel point “l’Histoire spectacle” semble populaire et monopolisée par les sphères contre-révolutionnaire. Quels enseignements en tirez-vous ? 

Histony – La façon de faire de l’Histoire scientifique n’est pas ce qui va plaire de prime abord. Une histoire où on retrouve des gentils et des méchants et non des acteurs plus ou moins faciles à comprendre, c’est plus attrayant. Ainsi, comprendre et analyser les fondements du régime nazi reste pour certains d’une trop grande complexité. Quand je parle de comprendre, c’est comprendre par quels mécanismes un humain peut participer à une telle entreprise génocidaire. Le souci ici est que l’explication est efficace au cinéma par exemple, mais si on veut s’aventurer sur quelque chose de plus scientifique, du domaine de l’analyse et de la compréhension, cela devient plus difficile, plus austère, à l’image des excellents travaux de Johann Chapoutot. Cela désacralise et démystifie l’Histoire, c’est l’inverse même de cette Histoire spectacle. Ce n’est plus de l’ordre de la légende, et donc, c’est inadaptable au cinéma. 

« Il peut y avoir une culture accessible, sans qu’elle soit nécessairement de l’ordre du divertissant.»

Toutefois, un jeune individu peut très bien aller au Puy du Fou, regarder les émissions de Stephane Bern, et puis, par diverses passerelles accéder à un savoir universitaire et réviser ses jugements. Il faut donc qu’il y ait une articulation qui permette d’arriver jusqu’à des ouvrages qui sont reconnus scientifiquement. L’Histoire spectacle existera toujours et il est clair qu’il est difficile de divertir avec de l’Histoire scientifique qui n’est guère compatible avec le divertissement. Les vulgarisateurs aujourd’hui ont toujours cette perspective du divertissement, et sont souvent à la quête de la blague : il faut ainsi que le contenu fasse absolument rire. Cela est un vrai défi pour les médias, et YouTube en particulier. Toutefois, il peut y avoir une culture accessible, sans qu’elle soit nécessairement de l’ordre du divertissant. 

LVSL – Comment l’historien peut investir l’espace public pour mettre en garde le public sans trop outrepasser sa place?

Histony –  C’est une vaste question, je n’ai pas de réponse définitive là-dessus. Je pense que déjà la première chose, c’est d’éviter de créer un contre roman national qui serait tout aussi nocif. Répondre à un roman par un autre roman est une mauvaise idée. Je pense qu’on est plutôt là pour donner des clés sur l’esprit critique, pour montrer comment se construit l’Histoire, montrer que l’Histoire est un récit et qu’il faut savoir le lire. Il y a des vérités vers lesquelles on tend avec un certain degré de certitude, mais dont on ne peut jamais avoir la version absolue et précise. Je pense que c’est plus large que l’Histoire, c’est le problème de l’esprit critique et de sa construction.

En tant qu’historien, je pense qu’on doit être présent et montrer le travail qu’on accomplit, qu’on produit des choses et des choses intéressantes. De plus en plus, il y a des historiens qui font des podcasts et qui essaient de sortir de l’Université pour faire des livres accessibles au grand public. Je pense à la très bonne Histoire dessinée de la France en train de se faire par la Revue dessinée avec à chaque fois un auteur de BD et un universitaire. Ils sont à huit tomes pour l’instant. À chaque fois c’est très historiographique et toujours accompagné d’un dossier documentaire intéressant. Le plus dur est de toucher la curiosité des gens. À mon sens, il faut continuer sur ces initiatives plutôt que de descendre dans l’arène politique pour contrebalancer un discours par un autre tout aussi faux. Le message qu’on doit faire passer est de se méfier des symboles avancés trop promptement et de prendre suffisamment de recul pour les inscrire dans la longue durée du temps historique.

LVSL – Quand on observe l’historiographie de la Révolution française, on voit pourtant qu’il y a une grande dimension politique. Alphonse Aulard est lié au parti radical et admire Danton, Mathiez est issu du socialisme et entretient un vif intérêt pour la Révolution bolchevique tout en réhabilitant la figure de Robespierre. Albert Soboul est quant à lui adhérant au PCF tandis que François Furet est anti-communiste et libéral, voyant la Révolution française comme la matrice des régimes totalitaires. La bataille idéologique n’est-elle pas ancrée au cœur même de certains sujets historiques tels que la Révolution française ?

Histony – Oui et non dans le sens où on a souvent tendance à surcharger le rôle de ces positions politiques. C’est à dire que ce soit Aulard, Mathiez, Soboul ou Furet, ce sont des gens qui, avant de retenir leur engagement politique, sont des chercheurs. On retient les grandes controverses de fond entre Aulard et Mathiez sur Robespierre qui sont tout à la fois idéologiques, scientifiques et personnelles. Pour Furet il y a un côté personnel. C’est quelqu’un de très libéral et anti-communiste qui vient du communisme et fait partie de ces déçus qui sont tombés de haut en découvrant ce qu’est l’URSS et passent donc de l’autre côté de l’échiquier politique. Ensuite, il va y avoir des analyses qui sont forcément celles du temps. Quand vous avez un Parti communiste fort, des gens vont forcément analyser la Révolution française à l’aune de leur vision du monde. Inversement, quand vous avez ce repli du communisme et cet anti-communisme qui naît, d’autres vont aborder la Révolution française en se demandant s’il ne s’agit pas du premier moment des totalitarismes. Il n’y a pas, en histoire, de mauvaises questions à poser. L’important, ce sont les réponses qu’elles permettent de développer. C’est ainsi le cas de François Furet dont les analyses sur la Révolution comme mère des totalitarismes sont balayées historiquement parlant. Mais il a eu l’intérêt de poser des questions auxquelles on a pu répondre sérieusement. On ne peut pas dire « tu n’as pas le droit de dire ça ». Ce type de raisonnement fonctionne sur Twitter, pas dans le domaine de la recherche. On est obligé de creuser la question en un plus d’une centaine de caractères pour aboutir à une conclusion et dire que c’est faux. Furet lui-même est par ailleurs revenu au fur et à mesure du temps sur certaines de ses thèses les plus bancales.

Il y a aussi des historiens qui sont des « francs-tireurs », des gens qui n’appartiennent à aucune école et qui s’engueulent avec tout le monde. Par exemple, Jean Clément Martin, une des plus grandes références sur la Révolution aujourd’hui qui vient du “furétisme” et qui aujourd’hui serait beaucoup plus classé dans une école historique « de gauche », en tout cas par ses ennemis de droite. Il a écrit un ouvrage très juste sur Robespierre où il le remet à sa place et le fait descendre de son piédestal et aussi, de facto, du banc des accusés. Il démontre également que « la Terreur » est un concept inventé a posteriori plus qu’un système réellement pensé sur le moment. Mais sur la Vendée, il se fait des ennemis de tous les côtés. D’un côté, c’est celui qui démontre avec le plus de fermeté et de rigueur que cela n’est pas un génocide mais c’est aussi lui qui donne les estimations de victimes les plus hautes. Il se met dos à dos les réactionnaires qui parlent de génocide et ceux qui idéalisent la Révolution et qui refusent de parler du bilan humain. Il y a donc parfois des réflexions historiques qui débordent des cadres politiques traditionnels. 

Et même ceux inscrits dans des écoles historiques “marquées”, peuvent penser en dehors et réfléchir à des choses beaucoup plus larges. Soboul travaille sur des sujets très spécifiques et avec beaucoup de rigueur, à l’image des sans-culottes. Ce qui ne veut pas dire qu’il n’y a pas d’idéologie pour autant. On ne peut pas mettre l’engagement politique d’un Soboul ou d’un Furet sur le même pied d’égalité que quelqu’un comme Franck Ferrand ou d’autres figures qui sont dans le déni du débat scientifique.

LVSL – Concernant Robespierre sur lequel vous avez réalisé une vidéo au sujet de la construction de sa légende noire, on observe aujourd’hui un retour en force de sa personne dans le champ scientifique avec plusieurs ouvrages historiques mais aussi dans le champ politique. Y a-t-il dans l’esprit général, une mystification de son action politique comme la frange la plus extrême de la Révolution française?

Histony – Le problème de Robespierre, c’est que c’est la figure polarisante depuis toujours de la Révolution. On n’est jamais totalement sorti du champ du débat. On a parlé précédemment d’Aulard et Mathiez au début du 20ème siècle qui divergent sur sa personne. Il y a aussi Jean Jaurès dans son Histoire socialiste de la Révolution française puis Henri Guillemin dans les années 60 qui redorent son blason. On n’est jamais sorti d’une sorte de binarité sur le personnage de Robespierre. 

De plus, la culture populaire s’est emparée du personnage pour le noircir. Notamment plusieurs films réalisés par des gens qui venaient d’Europe de l’est qui avaient cette tendance à calquer la Révolution sur ce qu’ils vivaient. Robespierre est alors caricaturé en Staline à l’image du film Danton d’Andrzej Wajda, climat qui s’est accentué après la chute du mur. Arrive ensuite la fin des années 2000 avec en 2011, toute cette polémique sur des papiers de Robespierre mis aux enchères. Il y a eu à l’époque une levée de boucliers de la droite qui le désignait comme un dictateur et refusait l’acquisition par l’État de ces papiers, ce qui est totalement ahurissant du point de vue historiographique. Quand bien même Robespierre serait le pire des tyrans, ces papiers seraient intéressants. Après, il y a eu des débats sur la question de baptiser une Rue Robespierre…

Portrait de Maximilien de Robespierre, peint par Adélaïde Labille-Guiard en 1791.

À cela s’ajoute le fait que sur le champ scientifique, plusieurs historiens ont écrit sur Robespierre comme Hervé Leuwers, Jean Clément Martin, Cécile Obligi ou encore un long ouvrage de l’Histoire à propos de l’historiographie de Robespierre par Marc Belissa et Yannick Bosc qui détricote la légende noire de Robespierre. Il y a eu des colloques, des ouvrages collectifs ce qui a ravivé scientifiquement les analyses sur son action politique. Le problème est que le Robespierre des scientifiques n’est pas le Robespierre des politiques. Jean Clément Martin l’explique très bien. Juste après sa mort, Robespierre est érigé en figure dominante de la Révolution par ceux qui l’ont fait tomber et qui avaient des choses à se reprocher comme Joseph Fouché ou Tallien qui ont été des bouchers dans les endroits où ils ont été envoyés en mission.

Ils reviennent à Paris après avoir été rappelés, notamment par Robespierre qui veut leur demander des comptes. Dès sa chute, ils utilisent sa figure pour dire que c’est le grand responsable des crimes de la Révolution et cela arrange évidemment tout le monde. Cette image du Robespierre tyran se développe et tout le monde peut se dédouaner de ses crimes. Tout le monde peut traquer ce que les gens appellent la « queue de Robespierre » avec toute la métaphore sexuelle qu’il y a autour. C’est très pratique et on met en alliés de Robespierre des gens qu’il ne pouvait pas supporter comme Carrier en tant qu’associé du mal alors que Carrier est derrière sa chute. C’est le problème de cette légende noire. 

Je pense donc que c’est ici que réside tout l’intérêt de l’ouvrage de Jean-Clément Martin : replacer Robespierre dans son contexte au milieu d’autres acteurs qui pensent comme lui ou contre lui. Il n’est jamais en position de force majeure, à part dans les quelques mois précédant sa mort lors desquels il se trouve dans une situation d’importance avec certains de ses amis au sein de différents organes de pouvoir tels que la Commune de Paris ou la Garde nationale. Hors de cela ce n’est ni un député comme un autre ni un homme tout puissant. Mais à cela s’ajoute le Comité de Salut Public durant les mois ou il possède du pouvoir, et le fait qu’il doit parfois agir avec des gens qui, parfois, ne peuvent pas le supporter et vont finir par le tuer. Cela prouve en définitive qu’il n’est pas si puissant que ce qu’on a pu laisser croire, sans quoi il aurait sans doute eu les moyens d’empêcher sa chute lors du coup de Thermidor.

Pour aller plus loin :

Chaine YouTube d’Histony : https://www.youtube.com/channel/UCt8ctlakIflnSG0ebFps7cw

Site d’Histony : https://venividisensivvs.wordpress.com

La cyberguerre : rivalités et enjeux de la « gouvernance » d’internet

https://www.flickr.com/photos/statephotos/5449329376/in/photostream/
Hillary Clinton prononce un discours sur la liberté de l’internet, le 15 février 2011. © US Secretary of State

La cyberguerre n’est pas qu’une affaire de hackers. Firmes transnationales et gouvernements collaborent ou s’affrontent pour définir le modèle de gouvernance de l’internet et imposer leur vision. Quelle est la cohérence entre les intérêts américains et la doctrine de l’ “internet freedom”? Les institutions actuelles sont-elles légitimes ? Sont-elles utiles à des stratégies hégémoniques ou contre-hégémoniques ? Et surtout, quel contrôle les États peuvent-ils prétendre exercer sur les flux informationnels qui traversent leurs frontières ? Derrière ces questions figurent des enjeux globaux, parmi les plus critiques du 21ème siècle, au sujet desquels l’ouvrage de S. Powers et M. Jablonski, The Real Cyber War (2015) offre un éclairage précieux et plus que jamais d’actualité.


À quoi ressemble la « vraie » cyberguerre ?

Le terme « cyberguerre » est contesté et difficile à définir. Dans l’esprit du profane ou de l’expert, il renvoie souvent au recours à des lignes de codes malveillantes, destinées à perturber le fonctionnement normal de l’adversaire. De fait, le cyberespace s’est militarisé : la littérature stratégique et militaire le considère désormais comme un lieu d’affrontement à part entière entre de nombreux acteurs – pas uniquement étatiques. Il est dit qu’il s’y déroule, en somme, « une guerre par, pour et contre l’information », correspondant au triptyque : subversion, espionnage et sabotage. [1]

Mais c’est de tout autre chose dont parlent Shawn Powers et Michael Jablonski. Le cyberespace, colossal vecteur d’information, suscite des convoitises, donc des rivalités et des luttes d’influence, qui vont bien au-delà du hacking et des opérations militaires dans le cyberespace. En témoignent par exemple les efforts des entreprises des technologies de l’information et de la communication (TIC), pour influencer la gouvernance de l’internet et la définition de certaines normes, qui ne sont techniques qu’en apparence. Aux États-Unis, la remarquable symbiose entre l’agenda de ce secteur privé et celui des départements américains d’État et du Commerce indique, si cela était nécessaire, que les pouvoirs étatiques sont de la partie.

C’est pourquoi il serait bon de se détacher de l’approche belliciste habituelle afin d’élargir notre horizon. C’est tout l’intérêt de la perspective de Powers et Jablonski. La « vraie cyber guerre » qu’ils décrivent n’a pas lieu devant des ordinateurs, mais dans les couloirs des chancelleries, des institutions internationales, et des firmes transnationales. Elle ne vise pas à rendre hors service des sites internet, mais à peser dans la définition des normes techniques, politiques et même philosophiques et morales relatives à l’internet et ses usages. Les enjeux économiques et géopolitiques – que les auteurs s’attachent à décrire avec précision – sont colossaux. D’où les importants efforts que chaque acteur déploie, à la hauteur de ses moyens, pour peser dans ce petit monde.

« Les américains  (…) ont considéré le Congrès mondial sur les technologies de l’information comme un champ de bataille crucial pour le futur de la gouvernance d’internet, et comme une menace pour les intérêts économiques américains. »

Ainsi, le livre entend révéler « comment les politiques d’internet et de gouvernance sont devenues les hauts lieux d’une compétition géopolitique entre grands acteurs internationaux et dont le résultat façonnera l’action publique, la diplomatie, et les conflits du 21ème siècle ». L’occasion pour Powers et Jablonski de revenir sur les acteurs de ce jeu d’influence et de compétition, où les États continuent de jouer un rôle primordial, bien que rapidement secondés par le secteur privé, regroupant des entreprises du secteur des TIC et des communications internationales. Les GAFAM (un chapitre est notamment consacré à Google) sont évidemment importants, mais ils n’occultent pas le rôle majeur d’autres entreprises de services numériques, moins médiatisées : AT&T, Cisco ou Verizon, pour ne citer qu’elles. Diverses organisations de droit international ou organisations privées à « gouvernance multipartite » (Multistakeholder governance) sont enfin présentées en détails. Elles constituent, en effet, le point nodal de cette « vraie cyber guerre » ; le lieu de matérialisation des tensions sous-jacentes et de mécanismes discrets de domination.

Les auteurs s’attachent, par ailleurs, à décrire les méthodes, stratégies et ambitions de ces réseaux d’acteurs. La légitimation du processus de prise de décision par un mode de gouvernance présenté comme inclusif, transparent et ouvert à tous ; une rhétorique imparable qui promet simultanément un formidable développement économique, le renforcement des droits humains et la propagation de la démocratie ; des projets de développement généreux et en apparence désintéressés… Autant d’éléments qui nécessitent d’être analysés et contextualisés. On appréciera, au passage, la minutie et le sérieux des auteurs : il n’est nulle part question de croisade anti-GAFAM ou de pourfendre l’hégémon américain. On trouve simplement les outils nécessaires pour faire la part des choses et déchiffrer cet univers complexe. La démarche est salutaire quand les protagonistes dominants ont plutôt tendance à présenter une vision prescriptive et « personnelle » des choses.

À l’opposé, on trouve les pays en développement et les économies émergentes : Russie, Chine, des pays d’Amérique latine ou d’Afrique… Nombreux sont les gouvernements qui ne se satisfont pas du statu quo. Sont notamment décrites dans le livre, la dégradation des « termes de l’échange » à la suite du bouleversement économique d’internet, et la perception d’une forte domination occidentale – et à plus forte raison américaine – dans la gouvernance d’internet. Désireux de procéder à un rééquilibrage politique et économique et soucieux d’exercer comme ils l’entendent leur souveraineté sur les flux informationnels, ces pays trouvent dans les institutions internationales et les sommets internationaux des arènes pour exprimer leurs inquiétudes et organiser leurs efforts.

La démonstration du livre, d’une grande efficacité, sert une conclusion simple : « La vraie cyber guerre ne concerne pas les capacités offensives ou de cybersécurité, mais plutôt la légitimation d’institutions et de normes existantes qui gouvernent l’industrie de l’internet, afin d’assurer sa domination du marché et sa profitabilité. »

La doctrine de l’« internet freedom » : arguments et intérêts sous-jacents

Tout part d’un discours d’Hillary Clinton [2], dans lequel l’ancienne secrétaire d’Etat américaine dévoile la doctrine de la liberté d’internet (internet freedom doctrine). Elle appelle à une libre circulation de l’information (free flow of information) et à une « liberté de se connecter » (freedom to connect) universelle : l’accès à internet devrait être un droit fondamental et reconnu par tous.

Assurément, les Américains aiment leur « freedom ». Le verbatim du discours et des questions-réponses montre que le terme est prononcé cinquante-deux fois en une heure ! Mais cet agenda de la liberté d’internet a une manière bien singulière de présenter la chose. 1. L’information a tendance à être assimilée à un bien économique, monnayable et échangeable. Évidemment, ce cadrage consacre le modèle économique d’internet, fondé sur le captage, l’échange et d’analyse d’immenses quantités de données personnelles. Mais une telle perspective tend aussi à réduire la légitimité des politiques publiques qui viseraient à en contrôler le flux. L’issue du débat sur la liberté de l’internet pourrait donc jouer un rôle déterminant dans le traitement des flux d’information numérique par les États, et dans la définition du degré de contrôle jugé légitime, voire légal, au regard du droit international ou du commerce. 2. Internet est comparé à un « espace public ». Ainsi présenté, la surveillance y pose beaucoup moins de problèmes éthiques et juridiques que si internet était considéré comme un espace privé. Cette doctrine et les termes associés (internet freedom, mais aussi freedom-to-connect et connectivity) méritaient donc bien une analyse plus approfondie.

De l’intérêt d’une approche géopolitique : l’information comme un bien et comme une ressource

Des intérêts économiques, certes. Mais géopolitiques ? Le mot est souvent utilisé abusivement, et plusieurs experts s’en méfient, au point qu’on entend dire que « la géopolitique n’existe plus »[3]. On ne saurait pleinement souscrire à cette lecture ; d’ailleurs il existe bien une géopolitique de l’internet, ne serait-ce que par l’ancrage territorial des serveurs ou des câbles sous-marins. Si l’on s’en tient à la définition traditionnelle de la « géopolitique », rappelée par les auteurs, il s’agit d’une méthode d’étude de la politique étrangère s’intéressant aux effets de la géographie, donc des espaces physiques. Créée en réaction à une approche considérée comme excessivement légaliste, elle insiste notamment sur le poids des ressources dans la compétition entre États.

Or, l’hypothèse initiale des auteurs, reprenant la vision de l’historien de la communication Dan Schiller, est celle d’une information entendue comme un bien (commodity) mais aussi comme une ressource. Dès lors, les politiques étatiques relatives à l’internet peuvent être abordées comme une lutte pour le contrôle de ressources d’un genre nouveau. Ce cadre théorique permet de dépasser les questions liées aux effets sociaux, culturels, économiques ou politiques de l’internet. À la place, on s’interroge ici sur les motivations réelles des politiques étatiques relatives à l’internet, en termes de compétition internationale pour des ressources.

« Le soutien du gouvernement américain fut déterminant dans la création, l’adoption, et la structuration de l’internet, ainsi que dans l’intégration des technologies de l’information dans l’économie globale. »

De ce point de vue, la liberté de l’information (information freedom), la libre circulation de l’information (free flow of information), ou encore les partenariats multi-acteurs (multistakeholderism) constituent le socle d’une rhétorique et d’une stratégie qui contribuent au maintien d’un statu quo, bénéficiant à quelques acteurs acteurs dominants.

Une telle rhétorique déforme les aspects intrinsèquement politiques et économiques de l’information. Présenter la libre circulation de l’information comme une opportunité immense de développement économique, et lui prêter un pouvoir naturel de démocratisation, permet de dévier l’attention d’autres sujets.

Des gains économiques… pour qui ?

Quels sont les arguments économiques mis en avant ? L’internet est présenté comme un « grand égalisateur » (great equalizer), qui va permettre aux pays en développement de combler leur retard avec les pays occidentaux. Ce discours s’inscrit dans une perspective que Vincent Mosco, professeur émérite de communication, qualifie de « néodéveloppementaliste ». Elle postule que la dissémination des TIC permettra d’accélérer le développement et l’intégration économique des pays en développement et d’y développer des économies de marché robustes et performantes. Les auteurs rappellent que cet ancrage théorique est difficile à départager de considérations stratégiques et économiques. À grands renforts d’exemples de décorrélation entre croissance, richesse, et connectivité internet, ils montrent d’ailleurs que ces postulats sont empiriquement contestables.

On ne saurait reprocher aux pays occidentaux et à leurs entreprises de diffuser l’accès à internet et de construire les infrastructures nécessaires dans les pays en développement, quelles que puissent en être les raisons. Mais des travaux comme ceux de l’économiste Eli Noam suggèrent que l’élargissement de la connectivité pourrait en fait accentuer les écarts de richesses. Il anticipe par exemple qu’à peine huit pays dans le monde pourraient bientôt concentrer jusqu’à 80% de la production de contenus numériques.[4] Quand un pays pauvre, peu doté en infrastructures, bénéficie de programmes d’aide qui lui permettent d’accéder à internet, sa population – le peu qui peut se le permettre – devient consommatrice, et non productrice, des services numériques et des contenus médiatiques proposés par des entreprises occidentales.

Or, justement, ces programmes, prêts et autres projets occidentaux, notamment américains, en matière de connectivité et d’infrastructures liées à l’internet, sont souvent conditionnés à des mesures de dérégulation, de privatisation et d’ouverture des marchés nationaux. Les entreprises américaines accèdent ainsi à ces marchés étrangers, d’autant plus aisément avec la notoriété et les fonds propres dont elles disposent. Les économies d’échelle, les effets de réseau, l’existence d’une masse critique d’utilisateurs, sont autant d’éléments, bien connus en science économique, qui facilitent encore cette implantation. Ils font en revanche cruellement défaut aux acteurs locaux et nouveaux entrants, qui font face à de fortes barrières à l’entrée. Les quelques concurrents qui parviennent malgré tout à se développer sont souvent rachetés. [5]

« Il y a un principe sur lequel les responsables politiques, l’industrie, et les acteurs de la sociÉté civile, sont tous d’accord : l’internet global et déréglementé est une bonne affaire pour l’économie américaine. »

En matière de communications internationales, la détérioration des termes de l’échange suite à l’apparition de l’internet a été fort défavorable aux pays en développement. De telle sorte que l’anecdote de l’artisan africain ou sud-asiatique qui parvient à développer son activité grâce au e-commerce est un peu l’arbre qui cache la forêt. En effet, jusqu’à quelques décennies en arrière, les pays en développement, comme les autres, bénéficiaient des normes de l’Union internationale des télécommunications (UIT).

Rattachée aux Nations unies en 1947, l’UIT fut, au cours du 20ème siècle, le principal mécanisme de coordination des coûts et bénéfices liés aux communications internationales. Le prix de tel service, payé par tel acteur à tel autre : tout cela était relativement clair et fixé par le Règlement des télécommunications internationales (RTI) de l’UIT. Cette régulation garantissait un contexte international stable pour la croissance et l’activité économique dans le domaine des télécommunications. Les acteurs économiques locaux et nationaux continuaient de dominer leur marché.

Mais le développement d’internet et des « internet-based services », qui échappent à ces règles de l’UIT, ont bouleversé cet équilibre. Un appel Skype de la Turquie vers l’Allemagne, par exemple, permet de contourner l’opérateur téléphonique turc qui était jusqu’alors sollicité. On perçoit mieux la nature des frictions qui peuvent exister lieu au sein de l’UIT. Lors du sommet de Dubaï en 2012, l’une des grandes questions était ainsi de savoir si le terme de « télécommunications » devait ou non inclure les flux d’information transitant par internet.

Une réponse positive aurait signifié que ces services seraient soumis aux régulations prévues par l’UIT, contrariant la position dominante de certaines entreprises occidentales. Les négociations concernaient aussi l’extension du pouvoir de l’UIT à certains aspects de la gouvernance d’internet. Avec cet exemple et d’autres, Powers et Jablonski expliquent comment les pays du Sud et les économies émergentes se servent de l’UIT comme d’un outil contre-hégémonique face à un internet perçu comme dominé par les Etats-Unis.

En retour, les États-Unis ne se privent par pour saper ces revendications et façonner à leur avantage les normes internationales en matière de communications internationales. Les exemples sont nombreux. S’agissant du sommet de Dubaï de 2012, les revendications avaient été fermement dénoncées comme une tentative de « prendre le contrôle de l’internet ». L’occasion d’observer la rhétorique de l’internet freedom tourner à plein régime[6]. Robert McDowell, commissaire de la Commission fédérale des communications, avait notamment déclaré devant une commission sénatoriale : « Nous sommes en train de perdre la bataille pour la liberté de l’internet. » [7] Les tribunes publiées, le ton employé, les fonctions occupées par les auteurs : tout cela semble incarner à merveille l’état du débat et laisse voir l’étendue des enjeux économiques à la clé.

Un intérêt stratégique : la déstabilisation politique

Il se trouve une deuxième utilité à la rhétorique de la connectivité, du « free flow of information » et de la « freedom to connect ». Sans trop d’effort, ces notions sont associées au démocraties occidentales, face aux opposés symétriques que sont les pays totalitaires et censeurs qui entravent la libre circulation de l’information et des idées. Des caractéristiques fortement associées à des pays comme la Russie, la Chine, ou encore l’Iran.

En effet, à défaut de pouvoir obtenir, dans les arènes internationales, une gouvernance interétatique, ces pays comptent parmi ceux qui cherchent à développer leur propre « internet souverain » et/ou à contrôler fortement les flux entrants et sortants de leurs frontières. Car le cyberespace, en sa qualité de vecteur d’importantes quantités d’informations, suscite aussi de grandes angoisses. Les gouvernements autoritaires sont les premiers à craindre pour leur légitimité et leur stabilité.

Les États-Unis le savent : les revendications américaines pour la promotion et la diffusion d’un internet global, unique et universel vont directement à l’encontre de ces projets d’intranet. Elles sont aussi sensées faciliter l’exposition de certaines populations à des horizons démocratiques, plus désirables que leurs régimes politiques actuels. Il est même prévu d’aider activement les “cyberactivistes” et “cyberdissidents”. En pointant du doigt les intranets nationaux et les velléités de contrôle des flux informationnels, et en les assimilant purement et simplement à de la censure, cette rhétorique permet de normaliser et légitimer le statu quo de la gouvernance actuelle d’internet, qui fait figure de seul système capable de de préserver la freedom to connect.

A l’évidence, tous les États exercent leur souveraineté, et donc mettent en place des formes de contrôle ou de surveillance des flux informationnels ; les États-Unis n’y échappent pas. Le livre le rappelle en revenant notamment sur les programmes de surveillance de masse révélés par Edward Snowden ; mais aussi en montrant comment, aux États-Unis, des intranets sécurisés destinés aux administrations, à la communauté du renseignement, ou aux secteurs sensibles de l’industrie, ont tendance à s’étendre de plus en plus à d’autres secteurs civils moins sensibles.

Résumé des chapitres

Avec plusieurs exemples historiques, le premier chapitre montre comment les États-Unis, par le passé, ont façonné à leur avantage les normes internationales en matière de communication et de technologies de l’information.

Le chapitre 2 retrace l’apparition du complexe militaro-industriel aux États-Unis à partir de la seconde guerre mondiale. L’objectif est de montrer que les mécanismes gouvernementaux de stimulation de la croissance et de l’innovation à l’œuvre, s’observent également, de façon plus récente, dans le secteur industriel des technologies de l’information. Or, c’est l’occasion pour les auteurs de rappeler que l’interdépendance mutuelle ainsi créée présente des risques sur le plan économique (perte de compétitivité, décalage avec la demande réelle) et sur le plan politique (distorsion du processus de décision politique, manque de transparence).

Pour l’heure, les entreprises américaines demeurent performantes économiquement. Mais le rattrapage technologique chinois ne s’est jamais autant fait sentir qu’avec les frictions actuelles autour de la 5G. Surtout, les révélations de l’affaire Snowden sur l’espionnage de la NSA (National Security Agency) révèlent l’étendue de certaines dérives politiques et du manque de transparence en la matière, ce qui tend à donner raison aux auteurs.

Google (chapitre 3) fait l’objet d’une étude détaillée, afin d’explorer la gestion et l’exploitation les données par l’entreprise, et de rappeler sa prépondérance dans le marché de la publicité. Si Google embrasse autant les principes de l’internet freedom et de libre circulation des données, c’est certes parce que cela correspond vraisemblablement à son idéologie. Mais c’est peut-être aussi parce que l’entreprise voit d’un très mauvais œil le contrôle étatique des flux d’information. On peut même dire qu’elle les craint plus que tout.

Le modèle de régulation de l’internet a potentiellement des effets immenses sur le « business » de Google. Après tout, son modèle économique repose pour une très large partie sur la publicité ciblée, donc sur la captation et l’analyse de données personnelles. Enfin, la croissance économique de l’entreprise est notamment déterminée par sa capacité à étendre ses divers services à des utilisateurs toujours plus nombreux. De ce point de vue, Google a tout intérêt à soutenir l’internet freedom, la connectivité et la libre circulation de l’information. C’est même une question de survie et de santé économique.

De même, et plus généralement, si la politique américaine consiste à diffuser autant que possible l’accès à internet dans le monde, c’est parce que cela s’avère particulièrement favorable aux entreprises américaines. Le chapitre 4 détaille ainsi divers projets d’investissement, de construction, de transferts de compétences ou de technologies, réalisés en partenariat avec Cisco, Google, Hewlett Packard, IBM, Intel et d’autres. Ainsi, la politique internet américaine peut être résumée en deux volets inséparables : connecter un maximum d’individus à travers le monde à internet d’une part, et d’autre part maintenir le statu quo des arrangements économiques, légaux et institutionnels qui gouvernent la connectivité et les échanges en ligne.

Le chapitre 5, en passant à la loupe l’ICANN (Internet Corporation for Assigned Names and Numbers), l’ISOC (Internet Society) et l’IETF (Internet Engineering Task Force), révèle les dessous de la gouvernance multi-acteurs (multistakeholderism) et de son argument du rôle de la société civile, qui s’avère bien décevant, sinon illusoire. Plus que tout autre chose, le multistakeholderism renforce la position des acteurs dominants en légitimant les décisions qui sont prises, tandis que l’injonction à atteindre un consensus neutralise les critiques et les tentatives de changer le statu quo.

Le chapitre 6 est dédié à la souveraineté. Il rappelle ses fondements théoriques et revient sur ses liens avec les nouvelles technologies de l’information. Quatre cas d’études (Chine, Egypte, Iran, États-Unis) montrent autant de façons de contrôler l’accès à internet ou les flux informationnels. Le contrôle américain est évidemment sans commune mesure avec les autres, notamment celui de la Chine. Cependant, d’un point de vue strictement analytique, les efforts vont dans le même sens. Il est indéniable que tous les pays, démocratiques ou non, cherchent à atteindre un certain degré de contrôle de ces flux, dans le cadre de l’exercice normal de leur souveraineté. Ainsi, les stratégies chinoises et américaines, bien que culturellement spécifiques et atteignant un niveau de contrôle très différent, demeurent l’une et l’autre des stratégies de contrôle et de surveillance.

Enfin, le chapitre 7 explore les tensions et les contradictions profondes qui existent entre la doctrine de l’internet freedom et la cybersécurité, notamment en réfléchissant à l’avenir incertain de l’anonymat en ligne. En présentant l’internet comme « l’espace public du 21ème siècle », Hillary Clinton réussit le tour de force d’imposer l’idée que, sur l’internet, chaque utilisateur s’expose au regard des autres et des autorités. Le tout est habilement relié par les auteurs aux révélations d’Edward Snowden sur la NSA et de différents programmes de surveillance (PRISM, MUSCULAR, et TEMPORA), ainsi qu’à la collaboration entre Google et la NSA.

Conclusion

Finalement, dans un monde où l’information est au centre des économies modernes, les grandes questions soulevées sont celles de la légitimité des institutions qui gouvernent les flux informationnels, ainsi que de l’autorité dont disposent les États pour gérer et contrôler ces flux au sein de leurs frontières. Le livre donne une idée des désaccords profonds qui existent à cet égard. Ainsi, « la vraie cyberguerre est donc une compétition entre différentes économies politiques de la société de l’information ».

De ce point de vue, la doctrine américaine de l’internet freedom se comprend comme relevant d’un agenda spécifique. Il vise certes à relier le monde à internet, mais suivant une logique économique et géopolitique particulière, qui bénéficie disproportionnément à une poignée d’acteurs dominants. Autrement dit, cette doctrine constitue un effort de légitimation et de propagation d’une économie politique bien précise. On en revient toujours à cette question au fondement du livre : « De quelle autorité légitime les États disposent-ils pour gérer les flux d’information à l’intérieur et au sein de leur territoire souverain ? »

Le parallèle tracé avec le pétrole est intéressant : les États se sont entendus pour créer des institutions qui gouvernent cette industrie. Les normes qui en résultent, conformément à leur fonction fondamentale, permettent d’anticiper les comportements. Elles créent un contexte relativement stable qui permet une prévisibilité énergétique et l’anticipation des flux, sans quoi l’approvisionnement en pétrole générerait des tensions et des angoisses terribles. Dans une logique similaire, Shawn Powers et Michael Jablonski espèrent voir advenir une gouvernance où les États comprennent la nécessité qu’il y a à s’entendre sur ces questions. Mais on ne dispose toujours pas, sur le plan international, de réponse claire sur la façon dont les données peuvent être gérées, collectées, stockées, transférées, voire même taxées. Malheureusement, rien ne permet aux auteurs d’être optimistes au sujet de cette future gouvernance.

Ajoutons que ces questions, déjà cruciales, redoublent encore de gravité, alors que l’internet continue de se densifier et de s’installer dans nos vies, et que les flux informationnels numériques sont sur le point d’être décuplés par la 5G et l’avènement de l’internet des objets.

Shawn M. Powers & Michael Jablonski, The Real Cyber War. The Political Economy of Internet Freedom. University of Illinois Press, 2015, 272 p.

[1] Nicolas Mazzucchi (2019) La cyberconflictualité et ses évolutions, effets physiques, effets symboliques. Revue Défense Nationale, 2019/6 n°821, pp. 138-143.

Voir aussi : François-Bernard Huyghe, Olivier Kempf et Nicolas Mazzucchi, Gagner les cyberconflits, Paris, Économica, 2015.

[2] Hillary Rodham Clinton, « Remarques sur la liberté de l’internet », discours prononcé au Newseum, Washington D.C., 21 janvier 2010. [URL] : https://2009-2017.state.gov/secretary/20092013clinton/rm/2010/01/135519.htm

[3] « – […] La géopolitique n’existe plus, de toute façon.
– C’est fini !?

– Oui, complétement. D’ailleurs le sous-titre de mon prochain livre, « Intersocialité », sera « Le monde n’est plus géopolitique ». Je ne veux plus entendre parler de ce mot. Il n’a aucun sens, parce que le monde d’aujourd’hui n’est ni géo, ni politique. »

Extrait d’un entretien personnel avec Bertrand Badie, Paris, 13 juillet 2020.

[4] Eli Noam, “Overcoming the Three Digital Divides”, in Daya Thussu (éd.), International Communication: A Reader, Routledge, Londres, 2011, p.50.

[5] Voir par exemple : https://fr.wikipedia.org/wiki/Liste_des_acquisitions_de_Google

[6] Voir par exemple: Robert McDowell, “The U.N. Threat to Internet Freedom”, Wall Street Journal, February 21, 2012. Gordon Crovitz, “The U.N.’s Internet Power Grab: Leaked Documents Show a Real Threat to the International Flow of Information, Wall Street Journal, June 17, 2012.

[7]We are losing the fight for Internet Freedom.” Statement of Commissioner Robert M. McDowell before the U.S. Senate Committee on Commerce, Science, and Transportation. March 12, 2013. http://transition.fcc.gov/Daily_Releases/Daily_Business/2013/db0312/DOC-319446A1.pdf

Le politiquement correct a-t-il tué l’humour ?

https://commons.wikimedia.org/wiki/File:Max_Amini_Persian_American_Stand_Up_Comedian_2015.jpg
©PersianDutchNetwork

« Peut-on (encore) rire de tout ? », « Le politiquement correct est-il en train de tuer l’humour ? » lit-on régulièrement dans la presse ou sur les réseaux sociaux. Certains ne s’embarrassent d’ailleurs plus de l’interrogatif : pour les apôtres du « c’était mieux avant », la messe est déjà dite. Cette question mérite pourtant non seulement d’être posée, mais surtout de recevoir des réponses plus satisfaisantes que les levées de bouclier que l’on observe de part et d’autre ; elle nous mène à des réflexions plus profondes sur le rôle de l’humour dans nos sociétés, et à entrevoir ses nouveaux paradigmes et antagonismes, exacerbés comme tout semble l’être à l’ère des réseaux.


À croire certains pourfendeurs zélés du politiquement correct, l’humour ne devrait, par définition, ne pas être pris au sérieux et a fortiori être sujet à critique. Forcer des questions de société ou des grilles d’analyse politique sur des énoncés qui ne sont « que des blagues », et dont l’intention n’est ni d’offenser ni de faire passer un quelconque message, serait un contresens.

Cette réponse, qui peut sembler aller de soi, ignore cependant le fait que « l’homme est un animal politique », pour citer Aristote. L’humour et le rire, comme à peu près tout ce qui relève des rapports entre être humains, sont affaires de représentations sociales et culturelles : preuve en est le fait qu’on parle volontiers d’humour british ; que la drôlerie n’est pas pareillement définie dans un milieu social ou dans un autre, dans une tranche d’âge ou dans une autre ; que certaines saillies qui amuseraient un Français feraient bondir un Canadien… L’humour étant un fait social, et non un fait naturel, il ne peut être déclaré exempt d’analyse quant à son rôle politique, c’est-à-dire son rôle sur les dynamiques de pouvoir.

« Desproges ne disait-il pas… »

Le célèbre humoriste français Pierre Desproges est cité à l’envi et à tort comme ayant affirmé, en substance, « on peut rire de tout mais pas avec n’importe qui ». À tort car cette phrase, assez vague pour que chacun puisse l’interpréter comme bon lui semble, l’est généralement d’une manière qui trahit la pensée de son auteur. Dans une interview datée de 1986, il précisait ainsi son point de vue : « Il y a une expression qui dit : “On ne tire pas sur une ambulance”. J’ajouterais : “Sauf s’il y a Patrick Sabatier dedans !”… Oui, on ne peut pas rire aux dépens de n’importe qui. On peut rire des forts mais pas des faibles. »

La question au coeur du problème est implicitement posée : elle n’est pas « de quoi rit-on ? » (d’où « on peut rire de tout ») mais « de qui rit-on ? ». De la réponse — les forts ou les faibles, pour schématiser — dépend la position d’un trait d’esprit, entre reproduction et déconstruction des représentations sociales dominantes, des mythes au sens barthésien du terme. « Grand phénomène de sociabilité, le rire forme et défait les liens à l’intérieur de groupes et joue un rôle prépondérant dans des stratégies sociales, culturelles ou politiques », selon l’historien Jacques Le Goff. Plus simplement : « Dis-moi si tu ris, comment tu ris, pourquoi tu ris, de qui et de quoi, avec qui et contre qui, et je te dirai qui tu es ».

Un nouveau climat politique

Partant, on comprend aisément les dynamiques actuelles de contrôle social, voire de censure autour de l’humour, à notre époque marquée par une sensibilité accrue aux enjeux sociaux, politiques mais également psychologiques liés aux discriminations et aux violences sociales (le concept de « micro-agression » qui a, explicitement ou non, investi le débat public nord-américain et dans une moindre mesure français, fut initialement théorisé dans les années 70 par un psychiatre, Chester M. Pierce, dans le cadre des tensions dites raciales aux États-Unis).

Les appels à un plus grand contrôle du discours humoristique, comme du reste du débat public, non seulement répondent à une volonté de ne pas se voir infligé, à très court terme, des idées et des propos perçus comme une violence, mais s’inscrivent également dans une vision stratégique plus large visant à étouffer un puissant relais de diffusion et de perpétuation des mythes tenus pour oppressifs.

Si États-Unis et Canada sont de loin les fers de lance de cette dynamique, des polémiques similaires ont également éclaté en France

En pratique, un nombre croissant d’humoristes en fait les frais. L’exemple notable le plus récent est celui de l’humoriste américain Dave Chappelle, qui a suscité de vives polémiques dans son dernier spectacle Sticks and Stones en tournant en dérision les accusateurs de Michael Jackson. Comme en anticipation de l’opprobre, il a dans le même spectacle pris le temps de critiquer la « call-out culture » et la « cancel culture » très prégnantes outre-Atlantique, et plus particulièrement sur les réseaux sociaux. Celles-ci consistent, respectivement, en la dénonciation publique de célébrités ou de notables pour des propos tenus ou actes commis considérés comme socialement répréhensibles, en leur sommant de rendre des comptes ; et en un boycott massif d’une célébrité perçue comme indésirable, pour les mêmes raisons.

Si États-Unis et Canada sont de loin les fers de lance de cette dynamique, des polémiques similaires ont également éclaté en France : on pense par exemple à l’éviction de l’animateur Tex de son jeu télévisé, en 2018, pour une blague sur les femmes battues en plein mouvement #Balancetonporc, ou encore aux innombrables condamnations publiques et signalements au CSA dont a été l’objet Cyril Hanouna pour des traits d’humour contestables.

Constructif par la destruction

Un tel climat politique a de sérieuses conséquences sur la pratique de l’humour, menant de nombreux humoristes et caricaturistes à la réflexion, voire la remise en question. Certains choisissent la facilité : pour n’offenser personne, le plus sûr reste encore de ne rien dire. Un exemple en est le New York Times qui, après qu’une caricature a été accusée d’antisémitisme, a décidé de tout simplement cesser de publier des caricatures dans les colonnes de son édition internationale.

« La limite, elle est dans l’intelligence du propos qu’on tient. […] Ce n’est pas une question de liberté d’expression, mais bien de technique »

En France, l’attachement à la liberté d’expression et à pouvoir « rire de tout » reste prépondérant, mais une nouvelle garde d’humoristes tente de ne pas pour autant se vautrer dans l’inconséquence. Blanche Gardin, étoile montante de la comédie française récompensée du Molière de l’humour en 2018 et 2019, résumait ainsi cette recherche de l’équilibre : « … il ne faudrait pas qu’il y ait une censure permanente comme aux États-Unis. Il y a cette espèce d’injonction aujourd’hui à être absolument quelqu’un de bien, à s’indigner pour les bonnes causes. Mais être une bonne personne, ça n’existe pas ! Faire de l’humour, c’est forcément être sur le fil, sinon on va vers quelque chose de propre, à l’abri de tout ce qui pourrait blesser les gens. C’est impossible. En tant qu’artiste on doit pouvoir tout dire et faire toutes les blagues, mais il faut avoir l’intelligence du contexte chaque fois, et surtout travailler son écriture. »

L’humoriste Vérino abonde en ce sens : « C’est surtout la fin des blagues nulles, à mono-lecture, et c’est merveilleux […] La limite, elle est dans l’intelligence du propos qu’on tient. […] Ce n’est pas une question de liberté d’expression, mais bien de technique ». En somme : renoncer à la facilité, éviter la paresse intellectuelle, analyser par l’absurde les mythes collectifs au lieu de les reproduire. L’intelligence de la plume comme guide dans les champs de mines, une idée aussi séduisante que difficile à incarner.

Allant plus loin, Jordi Costa, critique de cinéma et de télévision espagnol, a théorisé le concept de « posthumour ». Dans son essai Una risa nueva. Posthumor, parodias y otras mutaciones de la comedia, il se penche sur le sujet des mutations récentes de l’humour, et imagine la possibilité d’un « festival d’humour où personne ne rit » comme « la possibilité d’une nouvelle forme de comédie ». Le posthumour n’a pas pour objectif premier de faire rire, mais plutôt de susciter un inconfort, un malaise à même de pousser à une réflexion plus large sur des sujets sociaux, politiques ou éthiques.

Ce posthumour trouve, selon Costa, de multiples illustrations dans la comédie contemporaine. Louis C.K., que d’aucuns tenaient pour rien de moins que « l’homme le plus drôle du monde », qui exposait sans complexes à son public ses névroses et ses perversions ; l’humour particulièrement grinçant du cinéma des frères Coen, ou encore du réalisateur japonais Takeshi Kitano ; The Office et son observation moqueuse et désabusée du monde corporate

L’une des questions centrales de l’essai, « l’humour peut-il être constructif ? », y trouve l’une de ses possibilités de réponse. « Tout humour qui vous amène à réfléchir ou à réaliser un paradoxe ou une hypocrisie plus ou moins intériorisée est constructif. S’il détruit ou tente de détruire un préjugé ou une construction sociale, il est constructif par la destruction », explique Jordi Costa dans une interview.

L’humour « politiquement incorrect » autoproclamé, nouvelle forme de réaction

Toute action entraînant réaction, ces nouvelles dynamiques sont évidemment remises en cause par de nombreux opposants autoproclamés au politiquement correct, qu’ils soient humoristes, fans ou internautes. Pour les premiers, certains font le choix du jusqu’au-boutisme, de l’enfermement dans la catégorie de polémiste, par intérêt — après tout, there is no such thing as bad publicity — ou par réelle conviction. C’est le cas de Dave Chappelle, déjà évoqué plus haut, ou encore de Dieudonné en France.

L’humour « politiquement incorrect » — expression qui relève aujourd’hui davantage de l’autocongratulation que de la condamnation — a pu trouver refuge sur Internet, et en particulier sur les réseaux sociaux. Le virtuel, difficile voire impossible à maîtriser en l’état, offre un espace de liberté inespéré pour ceux qui s’estiment bâillonnés. Par des sites webs à vocation de divertissement, des pages ou groupes Facebook, ou encore via Twitter, les parodies, caricatures et autres memes véhiculant par l’humour des messages a minima conservateurs, parfois franchement réactionnaires, racistes, misogynes… ont proliféré.

Le virtuel, difficile voire impossible à maîtriser en l’état, offre un espace de liberté inespéré pour ceux qui s’estiment bâillonnés

Aux États-Unis, l’alt-right a très bien su appréhender le levier que représente Internet pour diffuser insidieusement sa propagande, par des sites tels que le forum 4chan ou via Facebook, et a su construire et propager toute une imagerie virtuelle associée à son idéologie, souvent reconnaissable exclusivement par les initiés. En France, des figures telles que le youtubeur Raptor Dissident, ou encore le haut-fonctionnaire Henry de Lesquen ont émergé comme des icônes par leur maîtrise des codes humoristiques propres à Internet, y compris auprès d’un public peu susceptible d’adhérer idéologiquement à leur rhétorique.

Comme toute réaction, les idées promues n’ont, dans leur substance, rien d’inédit (allant, selon les cas, d’un simple conservatisme social au rejet de l’émancipation des femmes, la pathologisation d’orientations sexuelles minoritaires, le racisme…). La nouveauté est qu’elles se pensent de manière réflexive. L’objectif, au-delà de la diffusion d’idées, est de se placer dans une position de résistance à une supposée doxa majoritaire. Les memes n’ont pas pour objectif premier de faire rire, mais de marquer son appartenance à un camp, d’offenser les personnes opposées, et de répandre un message social et politique. De là à y voir une autre forme de posthumour ? En tous les cas, l’impact politique, difficile à mesurer, est très réel : l’humour sur Internet est un nouveau terrain où se jouent les luttes pour une hégémonie culturelle.

La neutralité du Net, condition d’un Internet libre

Marche pour la neutralité du net, Berkeley, 2015. © Steve Rhodes

Avec l’abolition de la neutralité du net, les actuels géants de l’Internet tiendront encore plus fermement les rênes de l’Internet mondial et l’émergence d’une saine concurrence, déjà compromise à l’heure actuelle, deviendra impossible.


La neutralité du net est déjà morte. Dans son vote du 14 décembre 2018, la Federal communications commission a approuvé une mesure visant à abroger les règles de neutralité du net qu’elle avait mises en place deux ans auparavant. En mettant fin à la protection de ce principe fondateur d’Internet, la Federal communications commission, dirigée par Ajit Pai, ancien cadre de l’opérateur Verizon, prétend agir dans le sens de l’innovation et de la concurrence.

Si, dans l’Union européenne, ledit principe a toujours les faveurs du BEREC[1] (Body of european regulators for electronic communications) et est consacré par le règlement 2015/2120, l’exemple américain et les récentes critiques adressées à ce principe méritent que l’on s’attarde sur les conséquences de la récente décision américaine.

En effet, a contrario des milieux libéraux qui se félicitent de cette mise à mort et ne manquent pas de déplorer le frein à la concurrence et à l’innovation que représente le concept de la neutralité du Net, la fin de ladite neutralité laisse en réalité augurer un Internet bien moins libre qu’aujourd’hui.

TOUS LES PAQUETS NAISSENT ET DEMEURENT LIBRES ET ÉGAUX EN DROITS…

Tim Wu, juriste et professeur à la Columbia Law School.
Crédits : New America

Né sous la plume de Tim Wu (professeur de droit à l’Université de Virginie) en 2003, ce concept de neutralité juridique se définit de la façon suivante : « La neutralité de l’Internet est mieux définie comme un principe de conception du réseau. L’idée est qu’un réseau public d’information le plus utile possible aspire à traiter tous les contenus, sites et plateformes de manière égale. Cela permet au réseau de distribuer toute forme d’information et de supporter tous types d’application. »[2]

Jusqu’ici, la croissance d’Internet a reposé sur ce principe : en offrant une architecture non-propriétaire, ouverte et sans autorité centralisée, l’Internet s’est développé et a permis l’essor d’une myriade de nouveaux services et d’une concurrence pléthorique. A-t-on oublié qu’AltaVista, le moteur de recherche phare de la fin des années 90, a été supplanté par Google au début des années 2000, alors même que ce dernier est né dans un garage de la Silicon Valley en 1998 ? Dans cet univers où tout va très vite, les entreprises reines d’aujourd’hui seront les têtes déchues de demain (souvenons-nous de Caramail, de MySpace, de Netscape, d’AOL, de Lycos, de MSN Messenger) : dire que la neutralité du net est un frein à la concurrence et à l’innovation semble donc relever de la mauvaise foi éhontée.

Cette conception d’essence philosophique libérale où « tous les paquets naissent et demeurent libres et égaux en droits »,est aujourd’hui mise à mal par les mêmes thuriféraires de la « liberté ».

À titre d’exemple, citons Cécile Philippe, directrice de l’Institut économique Molinari — d’obédience libérale et proche des milieux libertariens —, qui, dans Les Échos le 6 août 2015, disait : « Tout d’abord, la neutralité du Net est en quelque sorte un concept rétrograde. En effet, c’est justement parce qu’elle n’a jamais été mise en œuvre qu’Internet est devenu la merveille qu’il est aujourd’hui, accessible à tous pour un prix extrêmement compétitif. Rappelons-nous, il n’y a encore pas si longtemps, l’accès à Internet était cher et facturé à l’heure. Aujourd’hui, le haut débit assure une vitesse plusieurs centaines de fois plus rapide à une fraction du prix. Cela s’est fait grâce à un saut technologique gigantesque, que la mise en œuvre de la neutralité du Net aurait tout simplement rendu impossible ».

En se reposant sur la définition stricto sensu de la neutralité du net, il nous faut nous poser cette question : à quel moment avons-nous pu constater une quelconque discrimination à l’égard de la source, de la destination ou du contenu de l’information transmise par le réseau ? Le saut technologique gigantesque salué par Cécile Philippe s’est produit en présence du concept de neutralité du net, ne lui en déplaise. L’Institut économique Molinari pèche-t-il par méconnaissance ou par idéologie ?

Paradoxalement, cette conception d’essence philosophique libérale où « tous les paquets naissent et demeurent libres et égaux en droits », est aujourd’hui mise à mal par les mêmes thuriféraires de la liberté.

… MAIS CERTAINS PAQUETS SONT PLUS ÉGAUX QUE D’AUTRES

L’opérateur portugais Meo propose de nombreuses options à ses offres mobiles pouvant illustrer ce que serait un Internet sans neutralité.

Arguant que les investissements et l’innovation pâtissent de cette neutralité du net prétendument surannée, les adversaires du concept de neutralité dénoncent un « Internet socialiste »[3] où personne ne paie à sa juste valeur l’usage du réseau. L’opérateur portugais Meo a illustré les travers d’un Internet sans neutralité en proposant à sa clientèle une kyrielle de packs : packs réseaux sociaux, musique, vidéo etc. lesquels comprennent l’usage de certains services. Si à l’heure actuelle l’opérateur respecte la législation en la matière et ne fait que proposer de larges packs de data à destination de certains services (à l’image de certaines offres françaises zero rating, qui ne décomptent pas l’usage de certains services de l’enveloppe de données), l’exemple donné par Meo permet d’entrevoir aisément ce qu’il adviendra du Web si la neutralité du réseau venait à disparaître :

Vous n’utilisez pas Facebook mais Diaspora ? Pas Twitter mais Mastodon ? Pas Spotify mais Qobuz ? Vous voudriez regarder Means TV plutôt que Netflix ? Votre appétence pour l’originalité vous coûtera cher. En d’autres termes, l’absence de neutralité accentuera les imperfections du marché, en orientant la demande vers les services des acteurs dominants plutôt que vers ceux des outsiders. Les actuels géants de l’Internet tiendront encore plus fermement les rênes de l’Internet mondial et l’émergence d’une saine concurrence, déjà compromise à l’heure actuelle, sera rendue impossible. Cette réalité est d’ores et déjà décrite de manière cynique par certains des plus importants acteurs de l’Internet d’aujourd’hui :

« Ce n’est pas notre premier enjeu à l’heure actuelle. Nous pensons que la neutralité du net est incroyablement importante mais qu’elle n’est PAS aussi capitale pour nous parce que nous sommes assez gros pour obtenir les accords que nous voulons. » Reed Hastings, directeur général de Netflix.

Cette phrase de Reed Hastings révèle la légereté avec laquelle ces grands groupes envisagent les enjeux civiques et économiques de la neutralité du net. En l’absence d’un poids financier suffisant pour négocier avec les fournisseurs d’accès[4] (lesquels pourront segmenter leur offre pour cibler au mieux leur clientèle, comme Meo), les petits acteurs se retrouveront relégués dans un Internet de seconde zone. Le blocage, la dégradation du débit et la priorisation de certains contenus et applications sur d’autres deviendront la norme; partant, la liberté d’expression sur Internet s’érodera significativement. Ce dernier point paraît, hélas, absent des considérations des personnes opposées à la neutralité du net, lesquelles jouent le jeu des grands acteurs oligopolistiques du marché des télécoms tels que Comcast et Verizon, faiseurs de rois de l’Internet de demain.

EUROPE NEUTRE

En vigueur depuis le 30 avril 2016, le règlement 2015/2120 consacre le principe d’un Internet ouvert.[5] Dans un rapport daté du 30 avril 2019[6], la Commission européenne revient sur les incidences de l’article 3 dudit règlement, lequel a permis entre autres et selon le rapport, l’émergence de services VoIP et le développement de la pratique du partage de connexion (tethering).

Cependant, sur le sujet du zero rating abordé infra, le rapport rappelle que ce type d’offre a été pris en compte par les colégislateurs et respecte ainsi les dispositions de l’article 3 du règlement européen 2015/2120. Il note toutefois que les associations de consommateurs portent un regard sévère sur les offres commerciales zero rating, estimant qu’elles sont génératrices d’asymétries entre les acteurs du marché et favorisent ceux incluent dans lesdites offres au détriment des autres, faussant de facto la concurrence.
En réponse à ces critiques, le rapport mentionne que : « Les fournisseurs de services d’accès à l’internet considèrent que le règlement leur permet de proposer plusieurs offres à différents prix et qu’il donne à l’utilisateur final la liberté de choisir parmi les offres ». Ce parti pris pour la liberté de choisir permet ainsi à des opérateurs de concevoir des offres commerciales qui flirtent avec le non-respect du principe de neutralité : une tolérance, dirons-nous, qui laisse entrevoir un espoir tant pour les thuriféraires de la dérégulation que pour les apôtres d’un Internet souverain et protectionniste.

Ainsi, toujours dans les Échos, le pourtant libéral (et proche soutien d’Emmanuel Macron) Édouard Tetreau dénonce une « tarte à la crème idéologique […], cheval de Troie des intérêts américains en Europe » et fustige le « sympathique Internet libertarien [qui] devait triompher des méchants opérateurs télécoms aux poches si pleines ».[7] En dépit de leurs contradictions sur le principe de neutralité sui generis, les antagonismes idéologiques semblent converger pour le supprimer.

QUEL INTERNET POUR DEMAIN ?

Aujourd’hui le zero rating, et demain ? Quel serait le visage français d’un Internet sans neutralité ? Xavier Niel, patron de Free et co-propriétaire du journal Le Monde, dégraderait-t-il le service des personnes désirant lire Le Figaro ? Altice, propriété du milliardaire Patrick Drahi, (qui offre déjà à travers SFR Presse un accès privilégié à ses nombreux titres comme Libération) en ferait-t-il de même pour ses abonnés ?

L’accès à l’information, déjà biaisé par l’usage intensif des réseaux sociaux, ne serait-t-il pas davantage dégradé ? Les fournisseurs d’accès s’arrogeraient-ils de droit de censurer ce qui contrevient à leurs intérêts ? Il conviendra à l’avenir de garder en mémoire ce que disait le professeur Bill D. Herman dans le volume 59 du Federal Communications Law Journal (2006) : « Un fournisseur ne devrait pas être capable d’arrêter le courriel ou la publication de blog d’un client en raison de son contenu politique, pas plus qu’une compagnie télécom devrait être permise de dicter le contenu des conversations de ses clients. »[8]

Considérer la fin de la neutralité du net aux États-Unis comme un progrès est donc particulièrement fallacieux. Cela aboutira inexorablement vers un Internet à plusieurs vitesses où la discrimination du contenu, la verticalité des services intégrés et les ententes entre acteurs seront la norme ; les oligopoles se verront renforcés, la concurrence se tarira et nos libertés ne seront plus que chimériques, évanouies dans un Internet privatisé.


[1] BEREC Guidelines on the Implementation by National Regulators of European Net Neutrality Rules
[2] Tim WU « Network Neutrality, Broadband Discrimination », Journal of Telecommunications and High Technology Law », vol. 2, 2003, p. 141.
[3] Jeffrey TUCKER, “Good bye Net Neutrality, hello competition”, fee.org, 22 novembre 2017.
[4] Broadband Connectivity Competition Policy, FTC Staff Report, 2007, p. 57.
[5] Règlement (UE)2015/2120 du Parlement européen et du Conseil du 25 novembre 2015 établissant des mesures relatives à l’accès à un internet ouvert et aux prix de détail pour les communications à l’intérieur de l’Union européenne réglementées et modifiant la directive 2002/22/CE et le règlement (UE) nº531/2012 (JOL310 du 26 novembre 2015, p.1).
[6] Rapport de la commission au Parlement européen et au Conseil sur la mise en œuvre des dispositions du règlement (UE) 2015/2120 relatives à l’accès à un internet ouvert.
[7] Édouard TERTREAU, « Pour en finir avec la neutralité du net », Les Échos, 22 mai 2019.
[8] Bill D. HERMAN, Federal Communications Law Journal, vol. 59, 2006, p. 114.

« Les gilets jaunes sont la version populaire de Nuit Debout » – Entretien avec Paolo Gerbaudo

Le chercheur Paolo Gerbaudo. En fond, le Parlement grec. © Léo Balg, LVSL

Spécialiste de l’impact d’Internet sur la politique et des mouvements d’occupation de places de 2011, Paolo Gerbaudo est sociologue politique au King’s College de Londres. À l’occasion de la sortie de son troisième livre, The Digital Party, nous avons voulu l’interroger sur la démocratie digitale, le rôle du leader en politique, le Mouvement 5 Etoiles ou encore le mouvement des gilets jaunes. Retranscription par Bérenger Massard.


LVSL – Peut-être devrions nous débuter avec la question suivante : comment sont nés ce que vous appelez les partis digitaux ? Et en quoi sont-ils liés, par exemple, à Occupy ou aux indignés en Espagne, c’est-à-dire aux mouvements qui occupent les places ? Existe-t-il un idéal-type de parti numérique ?

Paolo Gerbaudo – C’est une question très intéressante. En effet, cette nouvelle génération de partis est fortement liée à la génération de mouvements sociaux apparus en 2011, notamment Occupy, Los Indignados, Syntagma en Grèce, qui ont porté de nombreux thèmes similaires à ceux de ces partis : le thème de la démocratie, la critique envers les élites, les demandes de participation citoyenne, la critique du capitalisme financier… Malgré leur puissance, ces mouvements ne parvenaient pas à atteindre leurs objectifs finaux, ce qui a donné lieu à beaucoup de discussions sur les places quant aux objectifs et aux moyens à définir. Cela a déclenché une prise de conscience autour de la nécessité de s’organiser pour lutter à plus long terme. Ainsi, je vois la création de ces partis comme une réponse à ces enjeux organisationnels, au fait que vous devez structurer la campagne des mouvements sociaux afin de la rendre plus durable.

Tweets and the Streets, premier ouvrage de Paolo Gerbaudo, publié en 2012. ©Pluto Books

Par exemple en Espagne, il y a eu tout un débat autour du slogan « Non me representam » [« ils ne me représentent pas »]. L’anarchiste l’interprète comme un rejet de la représentation sous toutes ses formes. Mais en réalité, pour beaucoup de gens, c’était quelque chose de plus complexe, qui signifiait : « Nous voulons être représentés, mais les gens qui nous représentent ne sont pas à la hauteur de la tâche. Nous voulons une bonne représentation, nous voulons être représentés par des personnes en qui nous pouvons faire confiance ». Ces nouvelles formations cherchent donc à combler ce vide de la représentation et à en renouveler les formes.

En termes de parti digital idéal, je pense que le modèle le plus pur est celui du mouvement Cinq étoiles, même s’il est en retard sur le numérique. Ils sont convaincus d’utiliser des technologies de pointe, mais ce qu’ils utilisent est assez moyen. Le nombre d’inscrits sur la plateforme est plutôt limité, mais l’idéologie du parti est très fortement imprégnée d’une utopie techniciste, qui repose sur le pouvoir participatif qu’offre la technologie. Il s’agit selon moi de l’idéal-type du parti numérique. C’est celui qui incarne le plus l’esprit populiste et la nouvelle croyance dans le pouvoir de la technologie, qui est au centre de cette génération de partis politiques.

LVSL – Ces partis digitaux semblent difficiles à définir selon les lignes idéologiques classiques, ou même selon des lignes socio-économiques comme la classe sociale, comme c’était le cas pour les partis au XXe siècle. Ils regroupent ce que vous appelez des people of the web qui appartiennent à différents groupes sociaux. Est-ce qu’il s’agit seulement de nouveaux partis attrape-tout, au détriment de la clarté idéologique ?

PG – C’est une question intéressante car pour beaucoup de gens, il y a une différence entre les partis traditionnels de gauche, qui auraient un électorat clair, à savoir la classe ouvrière, et ces nouveaux partis attrape-tout. En réalité, quand vous regardez l’histoire, le PCF en France ou le PCI en Italie ne se sont pas limités à être des partis de la classe ouvrière : environ 50% de leur électorat venait de la classe ouvrière industrielle, le reste provenait d’un mélange de petite bourgeoisie, d’intellectuels, de professions intermédiaires, etc. Il faut garder cela à l’esprit, car existe le mythe selon lequel l’ère industrielle était complètement cohérente, alors que ce n’était pas le cas.

« Ce qui caractérise les électeurs du mouvement 5 Étoiles est la précarité, notamment dans l’emploi, qu’ils travaillent dans des usines, dans les services ou dans des bureaux. »

Pour parler comme Nikos Poulantzas, ce qui est vrai est qu’il existe un nombre diversifié de segments de classe qui composent la base électorale des partis digitaux. Ils sont principalement orientés vers les jeunes qui ont un niveau d’éducation élevé et qui se servent beaucoup d’internet, ainsi que vers la classe moyenne et la classe moyenne inférieure. Bien qu’ils soient nominalement de la classe moyenne, étant donné que leurs parents en faisaient partie, ils se retrouvent souvent dans une situation de déclassement. La classe moyenne se caractérise par son patrimoine, notamment sous forme immobilière. Mais pour de nombreux enfants de la classe moyenne, l’achat d’une maison n’est plus possible, car ils souffrent de bas salaires et d’emploi précarisé. Ils paient des loyers élevés, ce qui signifie qu’ils ne peuvent épargner suffisamment pour obtenir un crédit. Ils se résignent à louer à long terme et à subir un déclassement progressif.

À côté de cela, vous avez d’autres segments de l’électorat qui sont représentés par ces partis : des pauvres, des chômeurs, des gens de la classe ouvrière. C’est donc un ensemble assez disparate, mais qui malgré sa diversité partage un mécontentement à l’égard de la situation actuelle. Par exemple, dans le cas du mouvement Cinq étoiles, certaines recherches socio-démographiques indiquent que ce qui caractérise ses électeurs est la précarité, notamment dans l’emploi, qu’ils travaillent dans des usines, dans les services ou dans des bureaux. En revanche, les électeurs du Partito democratico [parti centriste italien, au pouvoir de 2013 à 2018 avec notamment le passage Matteo Renzi, issu de la fusion des deux anciens partis d’après-guerre, la démocratie chrétienne et le parti communiste] dans les mêmes secteurs de l’économie que ceux du M5S, ont tendance à occuper des postes plus stables et plus sûrs. Cette opposition n’a pas grand chose à voir avec l’occupation d’un emploi dans tel ou tel secteur de l’économie, ou que vous soyez travailleur manuel ou intellectuel, mais plutôt avec le degré de sécurité et de stabilité de votre emploi. Ainsi, les personnes qui se sentent précarisées sont plus susceptibles de voter pour ces partis. Ce sont aussi des gens qui ont tendance à être plus jeunes, car il y a un clivage générationnel.

LVSL – Pensez-vous que les coalitions de ces partis, fondées sur les jeunes et les précaires, reposent sur un contenu idéologique commun ? En réalité, ces partis ne sont-il pas seulement des machines de guerre électorale destinées à mettre dehors le personnel politique actuel et à le remplacer, mais sans véritable programme ?

PG – C’est un autre point intéressant, dans la mesure où ces partis risquent en effet d’être incohérents sur le plan idéologique. Je dirais qu’ils ont une idéologie : elle est fondée sur la récupération de la souveraineté, la coopération, la restauration de la démocratie, la participation citoyenne, la réforme du capitalisme financier… Mais lorsqu’il s’agit d’exigences plus spécifiques, puisqu’ils sont plutôt divers du point de vue de l’appartenance de classe de leurs électeurs, les contradictions apparaissent rapidement.

Le cas de Syriza en Grèce est particulièrement éloquent. Ce n’est certes pas un parti digital à proprement parler, mais plutôt un parti populiste de gauche. Syriza a néanmoins réuni des ouvriers pauvres, des chômeurs qui n’avaient fondamentalement rien à perdre, et des secteurs de la classe moyenne qui avaient beaucoup à perdre, des comptes à vue, des propriétés immobilières libellées en euros… Donc, quand il a été question de quitter l’euro, et sans doute également l’Union européenne, bien que cette sortie ait obtenu un soutien considérable de la part des classes populaires, les classes moyennes ont vraiment eu très peur. Au final, ce sont ces derniers qui l’ont emporté en juillet 2015. C’est pourquoi il a été décidé de rester dans l’euro, en dépit de leurs difficultés et des problèmes que cela représentait pour leur pays.

Nous pouvons aussi voir cela chez Podemos, où il y a deux options idéologiques : une plus populiste et attrape-tout avec Íñigo Errejón, et une seconde plus traditionnellement de gauche radicale, poussée par Pablo Iglesias et Irene Montero. Cette dernière est fondamentalement un mélange d’extrême gauche, de radicalisme et de politique identitaire qui rebute les personnes moins politisées.

LVSL – Comment percevez-vous le Mouvement 5 étoiles qui gouverne avec la Lega depuis environ un an ? Les sondages actuels montrent que la Lega est plus populaire que son partenaire de coalition, en partie grâce de la figure de Salvini et de l’agenda anti-migrants qu’il met constamment en avant. Le M5S peut-il inverser cette tendance, c’est-à-dire mettre en place des mesures qu’il pourra vendre à son électorat ? Ou restera-t-il simplement au gouvernement pour éviter de nouvelles élections, mais sans savoir exactement où aller ?

PG – Ils ont beaucoup souffert de leur alliance avec la Lega. D’une certaine manière, la première option consistait à s’allier au Partito Democratico car ils venaient à l’origine du même espace politique. Leur base initiale était globalement celle des électeurs de centre-gauche déçus par la politique du PD. Maintenant, cette alliance oppose d’un côté un parti populiste à la structure très légère, le Mouvement cinq étoiles, et de l’autre un parti fondamentalement léniniste, à la structure très puissante et à la direction très centralisée et personnalisée, la Lega. Cette dernière a été aux affaires depuis très longtemps. Ses cadres connaissent toutes les combines et toutes les magouilles et ils les utilisent sans retenue. On pouvait donc s’attendre à ce que cela arrive. Le Mouvement cinq étoiles a poussé certaines revendications économiques, en particulier le reddito di cittadinanza [revenu de citoyenneté], de façon à avoir quelques victoires à montrer à ses électeurs. Mais cela ne suffit pas, évidemment, car cela ne résout que certains des problèmes de pauvreté et ne résout pas celui du chômage. Cela ne résout pas les problèmes de beaucoup d’autres personnes, qui ne sont peut-être pas au chômage, mais qui sont confrontées, entre autres, à de bas salaires.

« Cette alliance oppose d’une côté un parti populiste à la structure très légère, le Mouvement Cinq Etoiles, et de l’autre ce qui est fondamentalement un parti léniniste, à la structure très puissante et à la direction très centralisée et personnalisée, la Lega. »

Cela tient aussi au caractère très fluide du parti. La Lega a un récit très clair à présenter à l’électorat. Celui du M5S, globalement, est que ce sont les inscrits du mouvement qui décident. Comme si le parti n’avait aucune valeur, même substantiellement. Comme si les inscrits sur la plateforme pouvaient décider que la peine de mort est bonne ou non. On pourrait imaginer que quelqu’un lance une proposition comme « interdisons les syndicats » et que cela puisse passer après un simple vote sur la plateforme… Donc cela les rend très faibles lorsqu’il s’agit de former une alliance avec un parti plus structuré comme la Lega.

Autre fait intéressant : Salvini a néanmoins compris qu’il ne pouvait pas pousser trop loin son conflit avec le M5S. Il a dernièrement essayé de menacer de quitter le gouvernement sur la question du projet de ligne à grande vitesse qu’il soutient, le Lyon-Turin. C’était assez intéressant de voir les réactions sur Facebook. D’habitude la page de Salvini, peut-être la plus grosse page Facebook d’Europe en ce qui concerne les personnalités politiques, est une base de fans inconditionnels qui boivent ses paroles. Cependant, au cours de ce conflit, et à mesure que devenait réelle la possibilité d’une rupture au sein du gouvernement, il a reçu de nombreuses critiques de la part de ses partisans : « si vous faites ça, vous êtes un traître, si vous faites ça, nous ne vous suivrons plus ». Ces critiques ne se cantonnaient pas à cette question du Lyon-Turin. Elles s’expliquent plutôt par la popularité globale du gouvernement, qui se présente comme un gouvernement de changement. D’une certaine manière, Salvini est enfermé dans son alliance avec le M5S. Son électorat ne veut pas qu’il revienne vers Berlusconi.

LVSL – En France, il y avait en 2017 deux mouvements ou partis qui reprenaient certains aspects des partis digitaux : la France Insoumise de Jean-Luc Mélenchon et En Marche ! d’Emmanuel Macron. Tous deux avaient, du moins au début, des structures très faibles et des dirigeants très puissants au sommet. Comment analysez-vous ces deux partis, après deux ans d’existence ?

PG – À l’origine, la France Insoumise est un exemple très réussi de parti numérique, qui a été capable de recruter rapidement un demi-million de personnes. Par rapport au Mouvement cinq étoiles, où les membres sont supposés pouvoir décider de n’importe quoi et même de présenter des propositions de loi, la démocratie numérique de la France Insoumise est plus limitée. Mais quelque part, le système décisionnel de la France Insoumise est plus honnête : il est plus sincère de dire que les membres peuvent avoir leur mot à dire, mais pas sur absolument tout. Par exemple, lors de la préparation de l’élection de 2017, il y a eu deux phases. D’abord, la contribution sous forme de texte ouvert : tout partisan de la France insoumise pouvait envoyer un texte avec ses propositions, après quoi une équipe technique, celle qui a produit les livrets thématiques, analysait la récurrence de certains termes ou propositions dans ces textes. Puis, la base intervenait de nouveau pour donner la priorité à une mesure parmi une dizaine. C’est une intervention limitée, mais c’est peut-être mieux ainsi, car le leadership est une réalité et le restera.

En fait, c’est un mensonge envers les électeurs que de dire qu’il n’y a pas de chef et qu’ils ont un contrôle total. C’est ce que le Mouvement cinq étoiles tente de faire. Ils disent qu’il n’y a pas de chef, seulement des porte-paroles du mouvement, qu’il n’y a pas d’intermédiation en tant que telle, que tout vient de ce que les gens proposent… Pour moi, ce récit ne correspond pas à la réalité. Il vaut mieux avoir un processus de prise de décision participatif plus limité, mais plus clair et plus transparent. La France Insoumise s’est un peu éloigné de cela et a évolué vers un parti plus traditionnel depuis, où les grandes décisions sont plutôt prises lors de consultations internes. Par exemple, il n’y a pas eu de primaires en ligne pour les élections européennes, ce qui me semble être un pas en arrière.

Quant au mouvement En Marche !, il n’a aucun élément de démocratie numérique, juste une stratégie adaptée aux réseaux sociaux : leur plate-forme ne sert qu’à créer des groupes locaux, à coordonner leurs actions, envoyer les membres ici ou là pour diverses activités. Il n’y a aucun lieu où les membres disposent réellement d’une voix sur les décisions importantes. Il n’a pas d’élément démocratique, c’est du top-down autoritaire.

LVSL – Dans votre livre, vous dîtes que l’appareil du parti est court-circuité par une relation beaucoup plus désintermédiée entre les militants et un hyper leader. Vous expliquez que, lorsqu’il y a des votes internes dans ces partis du numérique, la plupart des membres adoptent au final la position de leader. Pourquoi ?

PG – Il y a un certain nombre d’exemples de leadership fortement personnalisé au sommet, qui base son pouvoir sur la célébrité sur les médias sociaux. Par exemple, AOC (Alexandria Ocasio Cortez) est une célébrité, elle a une audience sur les réseaux sociaux, avec 3 millions d’abonnés sur Twitter. Même chose pour Salvini. Ces leaders sont avant tout des célébrités sur les médias sociaux. Cette célébrité a un pouvoir énorme, c’est de cela qu’ils tirent leur autorité. Ils agissent comme des influenceurs ou des youtubeurs, un peu comme Kim Kardashian et toutes ces célébrités, nous racontant tout ce qu’ils font, ce qu’ils mangent, ce qu’ils cuisinent, qui ils rencontrent, où ils vont en vacances. Salvini est incroyable : il n’est au Parlement que 2% du temps, il n’est presque jamais au Ministère de l’Intérieur, car il voyage constamment pour des raisons de campagne.

Pourquoi ? Parce qu’il parcourt le pays, se présente à de nombreux meetings, filme des vidéos, des livestreams… C’est une sorte de campagne permanente, qui ne finit jamais. Pourquoi ? Parce que nous vivons à une époque où il y a beaucoup de méfiance à l’égard des organisations collectives et des bureaucraties… C’est l’idéologie dominante, le néolibéralisme, qui nous a appris à ne pas faire confiance aux bureaucrates, ces figures sombres qui prennent des décisions à huis clos dans des salles pleines de fumée. Donc les gens sont plus enclins à faire confiance aux individus, aux personnalités auxquelles ils s’identifient. Ils pensent pouvoir leur faire confiance, car ils peuvent les voir directement, les suivre jour après jour. D’une certaine façon, il n’y a aucun moyen d’échapper à ce phénomène. Ce fut également la raison du succès de Bernie Sanders, de Jeremy Corbyn, de Mélenchon. Tout cela met avant tout l’accent sur l’individu. Pour la gauche, cela soulève des questions épineuses car le collectif devrait passer avant les individus. Et en même temps, tactiquement, on ne peut rien faire, on ne peut s’affranchir de cette réalité.

LVSL – Depuis quelques années, les primaires se sont multipliées en Europe, parfois même des primaires ouvertes où les non-membres du parti peuvent voter pour choisir le leader pour les prochaines élections. Par nature, ces primaires personnalisent la politique et ignorent l’appareil du parti. Est-ce un outil de démocratisation des partis ou un moyen de donner le pouvoir à des célébrités ?

PG – C’est un phénomène qui a une certaine histoire maintenant. Beaucoup de politologues décrivent un tournant plébiscitaire depuis une vingtaine d’années, non seulement dans le fait de recourir à un référendum sur des questions spécifiques comme le Brexit, mais aussi de manière plus générale. Dans le passé, par exemple dans les partis socialistes ou communistes, vous élisiez votre représentant local, puis de ces représentants locaux émergeait un congrès ou une convention nationale. Et cette assemblée était émancipée vis-à-vis du leader, du comité central, du trésor, etc. Aujourd’hui, on considère que toutes ces sphères doivent être élues de manière directe. Donc, est-ce démocratique ou pas ?

Je pense que bon nombre de ces représentants, ces figures intermédiaires, ne se préoccupent plus que d’eux-mêmes, se sont autonomisés, détachés de la circonscription locale qu’ils sont censés représenter. Pourquoi ? Parce que la participation aux réunions locales est très faible et principalement dominée par des activistes zélés qui ne représentent pas vraiment l’électorat. En fait, la base est devenue un peu trop paresseuse pour assister aux réunions. Lui permettre d’élire directement ses dirigeants, plutôt que de passer par des représentants qui ne sont pas représentatifs, garantit une meilleur respect de la volonté des membres.

On l’a vu dans le parti travailliste [du Royaume-Uni, ndlr], c’était assez paradoxal : Ed Miliband [prédecesseur de Jeremy Corbyn, candidat perdant aux élections de 2015] avait décidé de baisser le tarif des cotisations à seulement 3 livres pour vaincre définitivement la gauche, fortement dépendante des syndicats qui ont votes collectifs dans le parti ; ils votent pour tous leurs membres. Donc, en ouvrant le parti, Miliband pensait attirer des individualistes de classe moyenne qui voteraient pour des gens comme lui. En fait, ce fut exactement le contraire : plus de 60%, une majorité écrasante, ont choisi Corbyn. Et désormais, nous assistons à une lutte entre Corbyn et les adhérents contre les couches intermédiaires du parti. La machine du parti ne supporte pas d’être contrôlée par des adhérents dotés de pouvoirs.

Pour moi, ce qui est important, c’est que seuls les membres du parti puissent voter, pas comme avec le Partito Democratico [qui a récemment organisé sa primaire ouverte] où tout le monde peut voter. Là, c’est très dangereux : cela signifie que des personnes extérieures au parti peuvent le manipuler… La primaire du Parti Démocrate a réuni plus de 1,5 million de personnes. Cela ressemble à une grande réussite démocratique, mais cela contribue-t-il à forger une identité cohérente à ce parti ? Au minimum, nous devrions faire comme aux États-Unis, où les gens, même s’ils ne sont pas membres, doivent s’enregistrer en tant que Démocrates ou Républicains. Au moins, vous vous prémunissez des manipulations de personnes extérieures au parti.

LVSL – Que ce soit en Espagne, en France ou en Italie, les partis numériques, même s’ils ont bénéficié de la haine envers les élus sortants, ont plutôt bien réussi aux élections ces dernières année. Cependant, beaucoup de gens qui rejoignent ces partis ne se mobilisent pas vraiment à long terme, tandis que nous assistons à un déclin, du moins dans les sondages, du M5S, de la France Insoumise ou de Podemos. Les partis numériques sont-ils condamnés, comme les partis pirates, à n’être que des bulles temporaires ?

PG – Je pense qu’ils vont continuer à exister pendant un certain temps, tout simplement parce qu’une fois qu’un parti dépasse 20% ou même moins, il y a une inertie. Il est extrêmement difficile de créer et de consolider de nouveaux partis. Les systèmes partisans sont parmi les systèmes les plus immuables de nos sociétés. Dans n’importe quel système politique, d’une manière générale, de nouveaux partis n’émergent que tous les 40 ans. La dernière vague comparable a peut-être été celle de 1968, avec la formation de nouveaux partis de gauche, comme les partis verts, etc. Une fois fondés, il leur faut un élément majeur pour que les partis disparaissent. Et si déclin il y a, il est plutôt lent.

The Digital Party, dernier livre de Paolo Gerbaudo. ©Pluto Books

Très honnêtement, j’ignore où va le Mouvement cinq étoiles. La situation est extrêmement fluide dans le monde entier à présent, et donc très imprévisible. En France, nous verrons peut-être quelque chose de similaire au M5S, qui représenterait les revendications du mouvement des gilets jaunes. Dans le fond, il faut tout d’abord un élément de rupture pour qu’arrive une nouvelle génération de partis. Même si, intrinsèquement, cette nouvelle génération de partis est pleine de problèmes et de contradictions internes qui menacent leurs performances à long terme.

 

LVSL – À propos des gilets jaunes : dans un entretien avec Novara, vous expliquiez qu’à l’inverse du M5S, ils avaient une approche bottom-up plutôt que top-down. Les gilets jaunes sont résolument en faveur de plus de démocratie, ce sur quoi ils sont presque tous d’accord, et ils rejettent également tout type de leadership ou de structure. Comment analysez-vous ce mouvement ?

PG – Pour moi, cela ressemble beaucoup aux mouvements des places et à la vague Occupy de 2011, mais en plus populaire et plus col bleu que ces mouvements. Les mouvements de 2011 étaient en quelque sorte très novateurs car ils adoptaient une identité populiste en cessant de faire appel aux gens avec un langage minoritaire. Ils disaient : « Nous sommes la majorité, nous voulons représenter tout le monde sauf les super riches ». Les gilets jaunes suivent complètement cette vague. En comparaison, Nuit Debout était très bourgeois, très urbain, très parisien, et n’a pas percé en dehors de Paris ou dans les circonscriptions ouvrières. D’une certaine manière, les gilets jaunes sont la version plus populaire de Nuit Debout.

« Les mouvements de 2011 étaient très novateurs car ils adoptaient une identité populiste, ils cessaient de parler aux gens en termes minoritaires et disaient « nous sommes la majorité, nous voulons représenter tout le monde sauf les super-riches. » Les gilets jaunes suivent complètement cette vague. »

Ils contestent très vivement le président et le système de pouvoir, tout en formulant des revendications très concrètes, qui, au fond, concernent des problèmes de fin de mois. Ils ne se préoccupent pas des droits civils, et l’environnement est vu comme une chose abstraite… Leurs revendications concernent le salaire minimum, la limitation des impôts qui punissent les pauvres, les services publics, l’interventionnisme de l’État… Donc c’est principalement un populisme progressiste, qui récupère une part de la social-démocratie des Trente Glorieuses. Ces gens veulent plus de démocratie et veulent avoir leur mot à dire dans les décisions qui les concernent. Toni Negri a beau les percevoir comme une sorte de multitude de gens qui veulent une autonomie par rapport à l’État, c’est exactement le contraire. Ils veulent de l’État, mais pas de celui-ci [rires].

LVSL – Le rejet du leadership et de la structuration fait-il passer le mouvement à côté de tout son potentiel ? Les gilets jaunes veulent plus de démocratie directe, font des sondages sur Facebook, les porte-paroles ne se déclarent jamais leaders… Où conduira cet horizontalisme ?

PG – Dans certains domaines, c’est très horizontal, comme les petits groupes où ils se coordonnent, où pratiquement tout le monde peut prendre la parole… Mais ils ont aussi des leaders tel qu’Eric Drouet. On peut parfois penser qu’il n’y a pas de chef parce qu’il n’y a pas qu’un seul dirigeant. Mais c’est faux, le leadership peut être polycentrique, avec une multitude de dirigeants qui représentent différentes factions du mouvement ; c’est précisément ce qui s’est passé avec les gilets jaunes. Ils ont différentes sections, groupes, sensibilités, donc les leaders parlent à différentes catégories de personnes qui appartiennent au mouvement.

En fin de compte, c’est le rituel des marches du samedi et des ronds points qui maintient la cohérence. Il n’y a pas besoin d’un chef pour vous dire quoi faire car vous marchez chaque samedi jusqu’à l’acte 1000… C’est comparable aux mouvements des places, qui n’avaient pas besoin d’un leadership centralisé car un rituel était instauré : le rassemblement sur des places publiques. D’une certaine façon, les places ou les marches du samedi se substituent au chef. Mais cela ne signifie pas qu’il n’y a pas de leaders : de fait, il y a des gens qui ont essayé de créer des partis en dehors du mouvement.

LVSL – Il y a eu quelques tentatives, mais chaque fois que cela a été fait, presque tout le monde a immédiatement dit que ces personnes ne représentaient pas les gilets jaunes.

PG – Oui, parce que le passage au parti est souvent un processus assez laborieux, qui ne peut émerger du mouvement lui-même. Le mouvement est une chose et le parti en est une autre. Par exemple, Podemos est arrivé trois ans après les Indignados et était principalement constitué de personnes peu impliquées dans ces mouvements, même si elles avaient sympathisé avec celui-ci. Néanmoins, Podemos a réussi à se présenter comme représentant plus ou moins la sensibilité des indignés. Il en va de même pour le Mouvement cinq étoiles, issu des manifestations anti-corruption, anti-Berlusconi et en partie anti-mondialisation initiées par Grillo auparavant, et qui se présente comme le représentant de ces mobilisations. Les conséquences à long terme du mouvement des Gilets jaunes sur la scène politique prendront donc un certain temps à se manifester.

Taxer les GAFA ne sera pas suffisant

https://www.flickr.com/photos/seattlecitycouncil/39074799225/
Jeff Bezos, patron d’Amazon © Seattle City Council

Bruno Le Maire, ministre de l’Économie, lance des promesses intenables sur une future taxation française des GAFA, alors qu’on apprend qu’en 2017, Google aurait déplacé aux Bermudes près de 20 milliards de bénéfices réalisés en Europe et aux États-Unis. Avec Google, Amazon, Facebook et Apple, ces champions d’internet, de la Bourse et de l’optimisation fiscale, on commencerait presque à se lasser de ce genre de scandales. Pourtant, leur récurrence ne peut que nous amener au constat simple de l’incapacité de nos États à intégrer ces géants dans une juste redistribution des richesses. La question doit alors évoluer vers celle de leur contrôle.


« Dans le futur, nos relations bilatérales avec Google seront aussi importantes que celles que nous avons avec la Grèce. » Ces paroles ont été prononcées début 2017 par Anders Samuelsen, ministre des affaires étrangères du Danemark. Elles font suite à l’annonce de la création d’un poste d’ambassadeur numérique auprès des multinationales de la Silicon Valley dans le pays. Et le ministre danois poursuit, « Ces firmes sont devenues un nouveau type de nation et nous avons besoin de nous confronter à cela. »

https://commons.wikimedia.org/wiki/File:Informal_meeting_of_ministers_for_foreign_affairs_(Gymnich)._Arrivals_Anders_Samuelsen_(36685969800)_(cropped).jpg
Anders Samuelsen, Ministry of Foreign Affairs, Denmark © Raul Mee

Ce qui saute aux yeux, c’est d’abord la puissance financière de ces nouvelles « nations », ainsi que la fulgurance de leur ascension. En 2008, notre CAC 40 national était valorisé en bourse à 1600 milliards de dollars ; il pèse, dix ans plus tard, 1880 milliards. Dans le même temps, la valorisation des GAFA est passée de 300 milliards de dollars à près de 3500 milliards. Les deux « A » de cet acronyme (Apple et Amazon) ont tous les deux dépassé la barre symbolique des 1000 milliards. Au-delà de ces chiffres vertigineux, il est nécessaire d’identifier les particularités de ces géants pour sortir de la stupéfaction première, voire de l’émerveillement qu’ils suscitent, pour comprendre les conséquences politiques des changements sociétaux engagés par les GAFA. Car leur croissance économique exponentielle ne saurait cacher l’idéologie qu’ils sous-tendent. Si la face visible de l’iceberg, celle de la réussite financière et du progrès par la technologie, est en effet la plus encensée, nombreuses sont les voix qui alarment sur la face cachée : celle d’un nouveau rapport au travail, à l’information et aux marchés, mais surtout, celle d’un nouveau rapport entre nos représentations démocratiques et ces multinationales.

La question de la taxation de ces acteurs est évidemment essentielle, mais elle ne doit pas éluder celle de leur contrôle. Nous le savons, ces entreprises américaines n’ont que peu d’estime à l’égard des systèmes fiscaux des pays dans lesquels elles travaillent. Google et Apple sont domiciliés en Irlande, Facebook n’a payé que 1,6 millions d’euros d’impôts en France en 2016, Amazon s’arrange avec le Luxembourg, et toutes sont engagées dans un semblant de bras de fer fiscal avec l’UE, sur fond de désaccord franco-allemand. La centralité de cette problématique n’est pas à remettre en cause puisqu’elle montre avant tout l’opportunisme de ces géants, bien contents de profiter d’un marché européen de plus de 500 millions de consommateurs éduqués et en bonne santé, de profiter des infrastructures maritimes et routières, toutes ces choses qu’ils semblent considérer comme gratuites, ou du moins, dont ils ne souhaitent pas aider à l’entretien, à travers l’impôt.

« Imaginez que vous ne puissiez plus voir les vidéos que vous aimez»

Le constat de l’inefficacité des mesures fiscales engagées doit nous permettre de dépasser cette problématique première pour nous concentrer sur celle de la relation qu’entretiennent les GAFA avec nos représentations démocratiques. Ces géants redoublent d’imagination lorsqu’il s’agit d’orienter ces dernières dans le sens de leurs intérêts. « Imaginez que vous ne puissiez plus voir les vidéos que vous aimez» C’est de cette manière que commence la page sobrement intitulé #SaveYourInternet, que Youtube a dédiée à la lutte contre l’Article 13 de la directive sur les droits d’auteur votée par le Parlement européen. Google mobilise directement sa communauté contre cette loi européenne, qu’il considère contraire à ses intérêts. D’une autre manière, le schéma est le même lorsque les GAFA mettent en concurrence les territoires pour faire monter les enchères en termes de cadeaux fiscaux accordés lors de leurs implantations. Ils se jouent de nos juridictions dont ils exploitent les moindres failles, grâce à des armées d’avocats d’affaires sur-rémunérés, contre des systèmes juridiques et fiscaux obsolètes.

Comment donc ne pas faire le constat de l’inefficacité de la quasi-totalité des forces mobilisées pour recadrer ces puissances grandissantes ? Les sermons du congrès américain lors de l’audition de Mark Zuckerberg sont loin d’avoir ébranlé la puissance de Facebook. Tout juste ont-ils ralenti la croissance de son action en bourse.

L’HYDRE DES GAFA

Le constat premier est celui d’une stratégie monopolistique et dominatrice. La stratégie des GAFA est bien souvent complexe sur certains aspects spécifiques, mais semble globalement simple : capturer le marché, et s’étendre.

https://www.flickr.com/photos/art_inthecity/21234198928
Mèches noires (Grand vent) 2015 © Laurent Gagnon

Amazon, connu pour sa plate-forme de vente en ligne, fait bien plus de bénéfices grâce à AWS, son service d’hébergement de données. Il investit massivement dans la production de contenus audiovisuels, dans la grande distribution alimentaire, dans les assurances santé américaines. Facebook est en première ligne de l’innovation sur l’intelligence artificielle, la reconnaissance faciale et la publicité. Google domine le marché des OS smartphone avec Android, développe la voiture autonome, investit massivement dans le cloud…

La diversification, permise par une accumulation de capitaux sans précédent, construit leur puissance économique et leur mainmise sur un vaste ensemble de marchés. Parallèlement, cette diversification permet la consolidation de leur position dominante sur leur marché d’origine respectif. Google favorise ses propres innovations en les mettant en avant sur son moteur de recherche, utilisé par 90% des internautes. Amazon n’hésite pas à utiliser massivement la vente à perte par ses capacités techniques et financières pour réduire la concurrence, comme il l’a fait en 2009 avec Zappos. Ce très rentable marchand de chaussures en ligne avait doublé ses ventes entre 2004 et 2007 et refusait une offre de rachat d’Amazon. Quelques mois plus tard, Amazon lança un site concurrent (Endless.com), qui vend des chaussures à perte et livre gratuitement sous 24 heures. Zappos dû s’aligner sur son nouveau concurrent pour ne pas perdre ses parts de marché et a commencé à livrer aussi rapidement. Mais il perdait alors de l’argent sur chaque paire vendue. Amazon perdit plus de 150 millions de dollars dans cette affaire mais finit par gagner en 2009. Le conseil d’administration de Zappos accepte de vendre.

La réussite des GAFA, et sa consécration par les marchés financiers, permet le développement de mastodontes, qui s’infiltrent progressivement dans tous les secteurs de l’économie. Toutes ces tentacules numériques deviennent très concrètes lorsque, par exemple, Facebook s’associe avec Microsoft pour investir massivement dans les câbles sous-marins qui transportent des données à travers l’Océan. Loin d’être cantonnés au monde immatériel de l’internet, les GAFA s’arment pour s’implanter et se développer partout. Avec un objectif évident de rentabilité, mais aussi avec cette vision claire d’expansion et cette représentation d’eux-mêmes comme marqueurs de l’Histoire.

L’IDÉOLOGIE LIBERTARIENNE

« Nous sommes si inventifs que, quelque soit la réglementation promulguée, cela ne nous empêchera pas de servir nos clients », affirme Jeff Bezos, PDG fondateur d’Amazon. C’est avec M. Bezos que « l’idéologie GAFA » est la plus claire. Rien, même pas une quelconque législation démocratiquement imposée, ne pourra faire plier son entreprise. L’homme le plus riche du monde se revendique volontiers adepte de certaines idées libertariennes. Le développement de la liberté comme principe fondamental, le refus de toute forme de violence légale ou d’expropriation, le respect le plus total des volontés individuelles. Toutes ces idées qui impliquent le recul, l’adaptation, voire la disparition pour certains, du principale obstructeur de liberté : l’État.

“Les GAFA sont de petits voyous devenus grands. Dès qu’ils en ont l’occasion, ils s’affranchissent de l’impôt, contournent les règles et écrasent leurs concurrents dans le mépris le plus total des règles commerciales.”

Si la promulgation de cette idéologie est moins nettement affichée chez les autres GAFA, le dénominateur commun de ces entités reste celui du bras de fer constant avec les autorités publiques. Les GAFA sont de petits voyous devenus grands. Dès qu’ils en ont l’occasion, ils s’affranchissent de l’impôt, contournent les règles et écrasent leurs concurrents dans le mépris le plus total des règles commerciales. Leur existence même dépend de leurs capacités à optimiser. Les barrières imposées par telle ou telle juridiction ne sont que des obstacles temporaires sur le chemin de leur hégémonie. Tel est le danger et la nouveauté de cette situation. Au moment de la libéralisation du secteur financier, les banques privées ont imposé progressivement leur influence sur le fonctionnement des marchés financiers. Notamment sur la fixation des taux, au détriment des Banques Centrales qui ont, par la même occasion, perdu progressivement leur rôle de régulateur. De la même manière, les GAFA, qui ont profité de l’absence de régulations dans le monde en ligne originel, savourent le recul du rôle régulateur des seules entités capables de les contrôler : les États. Ils souhaitent s’imposer sur leur marché d’origine, e-commerce, réseau social, moteur de recherche ou informatique, pour y dicter leurs règles. Mais en développant leurs tentacules dans tous les secteurs de l’économie, ils augmentent du même coup leur capacité à dicter les règles du jeu bien plus largement.

Amazon n’a pas pour but de devenir un acteur du marché du e-commerce, il souhaite incarner ce marché. Au vu de la concurrence, notamment en provenance de la Chine, il n’est pas évident que cette stratégie fonctionne, pourtant tous les mécanismes sont étudiés en ce sens par la marque au sourire. Fidéliser le consommateur et l’enfermer dans un écosystème commercial à travers ses dispositifs phares comme Alexa, son assistante vocale présente dans de plus en plus de dispositifs (enceintes, voitures ou box internet ; il n’a jamais été aussi facile de consommer sur internet). Ou Prime, son cercle de clients les plus fidèles… et les plus coûteux puisqu’une étude a démontré que le coût réel d’un abonnement Prime (au vu de tous les services proposés) serait de près de 800 dollars.

http://www.syndicat-librairie.fr/images/documents/ilsr_amazonreport_def_fr_bd.pdf
Amazon, cette inexorable machine de guerre qui étrangle la concurrence, dégrade le travail et menace nos centres-villes © ILSR

Mais qu’importe, perdre de l’argent n’est pas un problème pour Amazon dont l’objectif n’est pas la rentabilité de court terme. Devenir le marché, voilà l’objectif. Pour cela il faut d’abord éliminer tous les concurrents, en passant donc par un enfermement des consommateurs et une pressurisation des prix. Et tant pis si les intérimaires se tuent à la tâche dans les entrepôts du monde entier. En imaginant Amazon réussir à s’imposer réellement sur le marché du e-commerce, certains voient déjà son influence comme celui d’une nouvelle forme de régulateur de ce marché. Les commentaires et avis seraient une forme de contrôle qualité ; pourquoi s’encombrer de règles sanitaires européennes ? Les comptes vendeurs sur la Marketplace seraient une forme de registraire commerciale ; pourquoi s’encombrer de l’INSEE ou de numéro SIRET ? Les commissions du groupe seraient finalement une nouvelle sorte d’impôts sur la consommation, lorsque les services de stockage de données qu’elle facture aux entreprises seraient un impôt sur les sociétés. Pourquoi continuer de faire confiance à un État si Amazon, cette belle entreprise philanthrope qui construit des forêts artificielles et veut explorer l’espace, peut nous en libérer ? Un système d’assurance-santé est même en cours d’expérimentation aux États-Unis. Sur sa Marketplace régneront bien les règles concurrentielles du libéralisme, mais pas pour Amazon qui, à l’image d’un État, se verrait volontiers chapeauter la situation, depuis sa position d’intermédiaire global.

“les comportements de l’ensemble des GAFA nous rapprochent chaque jour un peu plus d’un monde où les citoyens n’auraient plus la légitimité de réguler la manière dont leur économie fonctionne.”

Évidemment cette perspective est pour le moment loin de la réalité, mais il est important de noter que M. Bezos aurait bien du mal à désapprouver cette vision d’avenir. Et que les comportements de l’ensemble des GAFA nous rapprochent chaque jour un peu plus d’un monde où les citoyens n’auraient plus la légitimité de réguler la manière dont leur économie fonctionne. À l’inverse, ce serait ces nouvelles entités supra-étatique qui détermineraient, directement ou non, nos manières de consommer. Le plus terrifiant réside dans le fait que ce basculement est de plus en plus imaginable à mesure de la montée d’une forme de défiance envers les États, que leur rôle historique de régulateurs est attaqué par l’idéologie libérale et que l’image altruiste des GAFA se développe.

FACE À UNE ASYMÉTRIE DES POUVOIRS

L’idée n’est pas celle d’une grande conspiration mondiale des GAFA, qui auraient prévu depuis des années de contrôler le monde, mais bien celle d’un basculement progressif des pouvoirs. Ce n’est pas non plus celle d’une disparition des États, mais plutôt celle d’un renversement hiérarchique partiel entre multinationales, devenues par endroit capables de dicter leurs lois à des représentations démocratiques souveraines, et autorités publiques en recherche aveugle de croissance et d’emplois.

Lorsque M. Macron reçoit Mark Zuckerberg, les deux hommes parlent à l’unisson d’un “nouveau schéma de régulation” pour le plus grand réseau social du monde. Tout cela semble en bonne voie puisque de l’avis de Nick Clegg, vice-président des affaires globales de Facebook, c’est de régulation dont son entreprise a besoin ! « Nous croyons qu’avec l’importance croissante prise par Internet dans la vie des gens, il y aura besoin d’une régulation. La meilleure façon de s’assurer qu’une régulation soit intelligente et efficace pour les gens est d’amener les gouvernements, les régulateurs et les entreprises à travailler ensemble, en apprenant les uns des autres et en explorant de nouvelles idées. Nous sommes reconnaissants envers le gouvernement français pour son leadership dans cette approche de corégulation. » Outre l’idée saugrenue que l’on puisse construire une régulation efficace main dans la main avec le régulé, ne nous méprenons pas : la régulation évoquée ici est celle des utilisateurs et non celle de la plateforme. Les accords passés entre la France et Facebook portent sur la création d’une entité commune de modération des « contenus haineux ». En arguant qu’il est « complexe » de réguler les contenus partagés par plus de 2 milliards de personnes, Facebook, en plus d’éviter l’impôt national, « sous-traitera » donc en partie cette régulation à un groupe qui sera payé directement par les deniers publics. Cette question reste complexe et pose d’autres problèmes, notamment celui de la manière dont Facebook modère ses contenus. Il n’en reste pas moins qu’ici, le groupe américain, sous couvert de co-construction responsable, parvient à imposer la gestion des dommages collatéraux de sa plateforme à la collectivité.

Les GAFA jouent du pouvoir que leur confère leur gigantisme, parfois de manière moins subtile. Lorsqu’en 2014 l’Espagne tente d’imposer à Google une rétribution pour les auteurs d’articles de presse que son service « News » reproduit et diffuse, le géant décide tout simplement de suspendre Google News dans le pays. Fort de la centralité de sa plateforme et de l’obligation d’être référencé sur Google pour exister sur internet, il menace aujourd’hui de faire de même à l’échelle européenne. Dans le combat (déjà évoqué précédemment) que mène l’entreprise américaine contre la loi européenne sur les droits d’auteur, l’argument du retrait pur et simple est de vigueur pour faire plier l’UE. Si le lobbying n’est évidemment pas chose nouvelle, cette confrontation directe et assumée avec les représentations démocratiques nous renseigne sur la manière dont les GAFA voient leur place dans la société. Ce ne sont plus de simples entreprises, mais bien de « nouvelles formes de nations » comme le disait Samuelsen. Des nations d’actionnaires avec pour seul but l’expansion et la rentabilité.

Que penser alors du manque de contrôle, voire de la soumission, de nos démocraties face à ces entités ? Le dernier exemple sera à nouveau celui d’Amazon. L’affaire “HQ2” démontre avec brio l’absurdité de la situation dans laquelle nous conduit l’absence de régulation des GAFA. Fin 2017, le géant du commerce en ligne annonce sa volonté d’ouvrir un second siège social nord-américain, un « Headquarter 2 », sans préciser la localisation de ce projet. À travers une forme « d’appel d’offres », l’entreprise propose très officiellement aux villes et territoires de « candidater » pour l’obtention de cet investissement faramineux de plus de 5 milliards de dollars. Subventions et aides publiques sont expressément demandées dans ce court document. Amazon profitera de la mise en concurrence territoriale engendrée pour faire monter les enchères, jusqu’à des propositions incroyables comme celle de Stonecrest, petite ville américaine proche d’Atlanta, qui souhaitait donner un vaste terrain à l’entreprise, et créer une nouvelle ville nommée « Amazon City » dont Jeff Bezos serait Maire à vie. D’autres propositions plus sérieuses des 200 villes candidates sont tout aussi inquiétantes, du remodelage urbain autour d’Amazon à la promesse d’un crédit d’impôt de plus de 8 milliards de dollars par le Maryland.

https://www.flickr.com/photos/scobleizer/2265816229/in/photostream/
Amazon’s front door © Robert Scoble

Le fin mot de l’histoire surprendra les commentateurs. Amazon a choisi de diviser son investissement et de créer non pas un, mais deux nouveaux sièges sociaux. L’un à Long Island à New York et l’autre à Arlington en Virginie, pour un total de 5,5 milliards de dollars cumulés en subventions et avantages fiscaux. Si la recherche d’incitations financières n’est pas nouvelle, particulièrement aux États-Unis, elle est particulièrement indécente lorsqu’elle est ainsi massivement utilisée par une entreprise redoublant par ailleurs d’imagination pour éviter l’impôt.

“Les contribuables américains financent directement la construction de bureaux flambants neufs dans lesquels des centaines d’experts marketing redoubleront d’imagination pour cloisonner les consommateurs dans l’offre Amazon.”

Mais plus que cela, cette affaire démontre à nouveau la forme de retournement des pouvoirs dont profitent les GAFA. Les pouvoirs publics, avides de croissance et d’emplois se soumettent aux exigences de ces nouveaux géants qui, soutenus par les marchés financiers, sont source d’un dynamisme économique certain. Mais que cache ce dynamisme ? Souhaitons nous réellement participer à la construction de ces géants tentaculaires qui semblent chaque jour plus aptes à imposer leurs idéaux à nos sociétés ? Doit-on aveuglément favoriser la croissance sans questionner ses conséquences politiques ? Avec ces nouveaux Headquarters, les contribuables américains financent directement la construction de bureaux flambants neufs dans lesquels des centaines d’experts marketing redoubleront d’imagination pour cloisonner les consommateurs dans l’offre Amazon ; et des centaines d’experts juridiques feront de même pour positionner l’entreprise là où elle participera le moins à la compensation financière des désastres écologiques dont elle est la cause.

LA CONSTRUCTION D’UNE SITUATION PARTICULIÈRE

Monsanto et McDonald’s influent eux aussi très largement sur nos sociétés, l’un pousse vers l’utilisation intensive de pesticides qui détruisent notre biodiversité, l’autre pousse vers la malbouffe qui détruit nos estomacs. Mais la différence des GAFA se résume en trois points.

D’abord la rapidité de leur expansion qui, loin d’être le fruit du hasard, a été construite par les choix politiques de la libéralisation d’internet. Cette rapidité empêche largement les instances régulatrices de développer les actions nécessaires. La rapidité du développement de Facebook en Birmanie, ou du moins son manque de régulation, a rendu impossible le contrôle des publications haineuses à l’encontre des Rohingya, population opprimée du pays. Jusqu’à ce que l’ONU accuse officiellement le réseau social d’avoir accentué cette crise.

“Les GAFA prennent la place des États qui reculent.”

Ensuite la centralité tentaculaire de ces nouveaux acteurs, qui développent les moyens financiers et techniques de s’imposer sur un ensemble inédit de marchés. Enfin l’orientation idéologique de leur expansion. Les GAFA sont le fruit d’un capitalisme libéralisé et résilient. Ils s’adaptent, se ré-adaptent, contournent et ne se soumettent aux règles qu’en cas d’extrême obligation. Ils se passeraient avec plaisir d’un État outrepassant ses fonctions régaliennes, imposent leurs propres règles à leurs concurrents, aux consommateurs et aux marchés. Et, en profitant d’une période d’idéologie libérale qui prône partout le libre marché, commencent par endroits à prendre la place des États qui reculent.

N’est-il pas temps de réfléchir collectivement à de véritables règles ou instances réglementaires, capables d’encadrer le comportement de ces acteurs, pour ne pas s’enfoncer aveuglément dans l’idéologie libertarienne qu’ils nous proposent ? Car c’est bien de cela dont nous devons nous rendre compte, les GAFA changent le monde socio-économique en y apposant leur vision. Une vision qui, loin d’être démocratiquement construite, s’élabore dans le petit monde fermé de la Silicon Valley. Taxer quelques pourcents de leurs chiffres d’affaires sera alors loin, très loin, d’être suffisant.

Comment Internet est devenu un espace politique en dispute

https://www.maxpixel.net/Network-Digital-Internet-Data-Technology-Matrix-3407252
Network Digital Internet Data Technology Matrix

Durant cette dernière seconde, alors que vous avez à peine terminé la première ligne de cet article, 8174 tweets et 8500 commentaires sur Facebook ont déjà été postés, 69 191 recherches sur Google et 3 333 appels sur Skype ont déjà été réalisés, 75 304 vidéos sur YouTube ont été visionnées et 2 723 944 e-mails ont été envoyés. Voilà le cadre de l’Internet d’aujourd’hui, qui en plus d’offrir à l’esprit humain des activités cognitives infinies, se déploie également vers un potentiel inégalé d’accumulation de profit et de pouvoir. Par Florence Poznanski, politologue et directrice du bureau Brésil d’Internet sans Frontières.


Ainsi, en 2017, Google a réalisé un chiffre d’affaires de 110,9 milliards de dollars, em augmentation de 23% par rapport à 2016. Soit l’équivalent du PIB du Koweït (120 mds de dollars) et plus que l’Équateur (102), l’Ukraine (109) ou le Luxembourg (62) (données FMI, 2017), mais avec un taux de croissance qui ferait rougir n’importe quel pays de la planète.

De son côté, Amazon, l’entreprise de commerce et de services en ligne, a atteint début septembre 2018 une valeur de marché d’un trillion de dollars (valeur boursière), devenant ainsi la deuxième entreprise de l’histoire à atteindre ce jalon. Deuxième après… Apple, qui a battu ce record un mois plus tôt. Plus que n’importe quelle compagnie pétrolière, qui jusque-là caracolaient en tête du palmarès boursier.

Selon l’ONU et Frank La Rue, son rapporteur spécial sur la promotion et la protection de la liberté d’opinion et d’expression, Internet est un outil indispensable pour réaliser un ensemble de droits fondamentaux, combattre les inégalités et accélérer le développement et le progrès humain. Mais aujourd’hui, seulement 55% de la population mondiale a accès à Internet et 84 % des pays n’ont pas de législation adéquate pour protéger les données personnelles des citoyens.

De ce fait, Internet n’est pas seulement un outil fantastique pour accéder à la connaissance, s’exprimer, effectuer des activités quotidiennes d’achats, de loisirs, ou de gestion administrative, il n’est pas non plus seulement un espace de participation sociale et politique, d’organisation de réseaux, de création d’entreprises et d’initiatives innovantes. Internet est bel et bien un espace de pouvoir en dispute.

Un espace qui englobe toutes les politiques publiques réglementées au niveau des États, un espace contrôlé principalement par des multinationales des télécommunications et des technologies de l’information (TIC), dont les stratégies commerciales affectent constamment la vie collective. Un espace où la collectivité mondiale ne participe ni ne délibère sur les décisions à prendre. En fait, un espace pratiquement antidémocratique. Mais un espace de pouvoir en expansion constante qui s’inscrit dans une nouvelle phase du capitalisme dont la caractéristique est le transfert de compétences historiquement assumées par les États à des multinationales privées agissant “en faveur de l’intérêt public”.

Cela s’explique par le fait que depuis les premiers pas d’Internet, lorsque sa commercialisation a commencé dans les années 90, les processus d’harmonisation des normes techniques, des protocoles logiques et de ses principes normatifs ont été pilotés par des acteurs techniques, issus du monde des télécommunications et de l’informatique. Là, l’influence du secteur privé prédomine ce qui engendre un certain manque de transparence dans les prises de décision et une absence de représentation du secteur public et de participation sociale[1]. Il faut souligner aussi que les années 90 correspondent à la période des ajustements structurels, des grandes phases de privatisation, ce qui explique aussi pourquoi les États ont mis tant de temps à saisir l’enjeu stratégique de la commercialisation d’Internet.

Cela a permis l’expansion fulgurante de ce que l’on appelle les GAFAM (Google, Amazon, Facebook, Apple, Microsoft), “le nouveau G20 du monde”, dans un vaste vide réglementaire sur lequel les institutions internationales et étatiques cherchent à rattraper près de deux décennies de retard depuis le début des années 2000[2].

 

Le capitalisme de surveillance : le contrôle comme moyen et fin de l’accumulation du capital

Ce pouvoir croissant et de plus en plus concentré des multinationales des TIC, et leur impact sur le comportement des sociétés, a été appréhendé par différents chercheurs à travers les concepts de “société de la surveillance” ou de “capitalisme de surveillance”. Selon le sociologue canadien David Murakami Wood, “dans la société de contrôle contemporaine, la surveillance sert à faciliter le fonctionnement du néolibéralisme en naturalisant le global comme échelle d’action”.

Dans le format de la société disciplinaire de Foucault, le contrôle s’exerçait dans différents espaces autour du travail : l’usine, le bureau, l’école, les moyens de transports. En se débarrassant de la restriction spatiale, la société de surveillance généralise le contrôle en tout lieu et à toute heure, se transformant ainsi en un modèle de gestion du capitalisme, comme le rappelle la chercheuse Shoshana Zuboff. La surveillance fait partie du processus d’accumulation du capital des industries de l’information, de la collecte et du traitement des données. Dans cette logique, toutes les données sont intéressantes, quel que soit le sujet, afin d’alimenter les algorithmes et les machines d’intelligence artificielle qui cherchent à modéliser le comportement humain, à profiter d’une diffusion publicitaire toujours plus ciblée, et ainsi à assurer un contrôle permanent.

Dans ce scénario, il est possible de faire un parallèle avec les notions marxistes de travail et de plus-value. Un travail qui, dans le modèle global de la société de la surveillance, devient gratuit et ne nécessite plus de rémunération. Nous produisons des données en ligne à tout moment de la journée pour répondre à tous nos besoins. Mais les bénéfices produits en plus de la transformation de notre matière première (les données) à partir de notre travail (la disponibilité/extraction des données), ne sont pas redistribués à la collectivité[3]. Nos données sont devenues le carburant nécessaire à l’accumulation du capital qui se nourrit de la transformation de cette matière première dans le but de contrôler et de maintenir sa puissance. La surveillance devient à la fois un moyen (la collecte des données) et une finalité (le maintien de son pouvoir).

La vulnérabilité à ces processus est toujours plus visible dans les pays où la réglementation publique est faible. En d’autres termes, les pays qui ont une tradition de réglementation publique plus forte ont tendance à résister un peu plus à ce processus. Ainsi, l’anthropologue brésilien Rafael Evangelista affirme que : ” Le Sud, avec ses marchés précaires et déréglementés, avec sa population avide de survie et de croissance accélérée vers le futur, est un laboratoire propice pour le capitalisme de surveillance”[4].

Selon lui, même en ayant un accès limité à Internet[5], la dépendance aux plateformes augmente avec le niveau de précarité de l’individu. L’intimité devient un luxe. Les inégalités déjà présentes dans le monde hors ligne se reproduisent et s’accroissent en ligne. Les différences entre être en ligne et hors ligne sont toujours plus faibles, car les comportements assimilés en ligne filtrent en dehors. Ainsi, nous cessons d’être des citoyens pour devenir des utilisateurs, et nous cessons de nous soumettre aux droits et devoirs des lois issues d’un processus démocratique auquel nous avons pu prendre part pour dépendre des visions du monde d’algorithmes dont les codes restent confidentiels.

A l’instar des luttes contre l’agro-business ou l’extraction des matières premières qui empoisonnent notre alimentation et polluent l’environnement ou des luttes contre la précarisation de l’emploi et la casse des services publics, la lutte contre le pouvoir des multinationales des TIC sur le futur d’Internet devient, à une échelle beaucoup plus large, un chantier où il est urgent de se mobiliser en masse. Il s’agit d’un espace politique dans lequel, en raison de l’absence de réglementation étatique et d’interlocuteurs, les citoyens ne se sont pas habitués à participer et se limitent trop souvent au rôle de simple consommateur, préservant ainsi les lucratifs intérêts de ceux qui le contrôlent.

Quand élirons-nous le président de Google ?

Un jour, lors d’un événement international sur Internet, j’ai osé poser cette question en public devant un panel de représentants d’entreprises des TIC. On a pris la peine de me répondre en m’alertant sur  les conséquences néfastes des nationalisations d’entreprises sur le progrès de l’innovation et l’importance de l’initiative privée comme garante de cet équilibre.

On pourra discuter si la nationalisation de Google est ou non un scénario bénéfique et plausible pour le bien-être du monde, mais l’enjeu de cette question était ailleurs. Si le modèle économique des GAFAM a un tel impact sur le fonctionnement de la société mondiale, son comportement, et même ses résultats électoraux, la collectivité ne peut manquer de délibérer et de contrôler ses arbitrages, ce qui implique la construction d’un véritable espace démocratique autour de ce que l’on appelle « la gouvernance d’Internet ».

On ne part pas de zéro. Depuis le début des années 2000 les États et la société civile ont commencé à participer davantage aux débats globaux sur le futur du numérique. Depuis 2005 et le sommet mondial sur la société de l’information qui s’est tenu à Genève, des rencontres annuelles ont commencé à se tenir sous la tutelle des Nations Unies dans le cadre du forum sur la gouvernance de l’Internet (FGI) dont la dernière édition s’est tenue à Paris fin 2018. Il existe aussi des espaces de participation pour la société civile au sein des principales instances de régulation comme la Société pour l’attribution des noms de domaine et des numéros sur Internet (ou ICANN) ou l’union internationale des télécommunications (UIT), mais qui restent très restreints et consultatifs.

Progressivement des États ont pris le pas en adoptant des normes de régulation importantes pour contenir l’emprise des intérêts économiques des GAFAM sur les libertés des individus. Parmi les conquêtes les plus emblématiques, le règlement européen de protection des données personnelles (RGPD) entré en vigueur en 2018 qui vient compléter une législation européenne déjà robuste, visant à redonner aux usagers le contrôle de leurs données sur la toile. Un règlement qui ne s’applique certes qu’aux services destinés aux citoyens européens, mais qui par ricochet affecte une large partie des fournisseurs de services et d’application dans le monde.

À l’inverse, certaines mesures défendues par les pouvoirs publics tendent à desservir l’intérêt commun en matière numérique. Aux États-Unis, par exemple, la décision fin 2017 de l’agence régulatrice des communications (FCC) de mettre fin à la neutralité du net aura des répercussions mondiales sur le trafic de données. Elle autorise que certains types de services soient accessibles plus rapidement que d’autres et à des tarifs différents, contribuant ainsi à renforcer les monopoles qui détiennent déjà le marché, au dépends de l’innovation.

De même, le phénomène faussement nouveau des fake-news a engagé de nombreux législateurs sur la pente très dangereuse de la régulation des contenus, visant à responsabiliser les intermédiaires (sites, plateformes de réseaux sociaux) des contenus considérés comme inappropriés qui seraient partagés sur leurs réseaux. Le Président Macron, à l’occasion de l’ouverture de l’IGF à Paris fin 2018, défendait ainsi dans son discours sur la confiance dans le cyberespace que les principes universalistes de la liberté d’expression étaient devenus trop laxistes et qu’il fallait assumer et faire la part des choses entre des « gouvernements démocratiques et anti-démocratiques, libéraux ou illibéraux » afin de « faire respecter nos valeurs et nos idéaux ». Un positionnement préoccupant qui ouvre la voie vers une censure incontrôlable du débat public en ligne.

Mais d’autres sujets brûlants d’actualité sont encore loin d’être traités. Des questions telles que la responsabilité sociale des algorithmes, qui font de plus en plus partie de la sphère publique, sont devenues cruciales. Quel niveau de transparence les pouvoirs publics peuvent-ils exiger d’un algorithme, une propriété intellectuelle privée, à partir du moment où ses biais peuvent avoir des effets sociaux antidémocratiques et injustes ?[6]

La liste est encore bien longue et ne fait que s’allonger. Respect de la vie privée, neutralité, liberté d’expression, droits humains, universalisation du savoir, décentralisation de la création artistique, taxation des profits de l’industrie des communications, voilà quelques-uns des enjeux de l’agenda public mondial de l’Internet qu’il faut défendre. Il est temps de se réapproprier Internet et de construire le modèle démocratique et émancipateur dont le peuple a besoin.

Crédits photos : Mathieu Fontaine

[1]Ceux qui désirent explorer ces domaines peuvent consulter le fonctionnement de certains des principaux organismes internationaux de réglementation de l’Internet tels que l’ICANN (Internet Corporation for Assigned Names and Numbers), l’ITU (International Telcommunication Union) ou l’IETE (Institution of Electronics and Telecommunication Engineers).

[2]La réflexion sur la nécessité d’une gouvernance mondiale de l’Internet a commencé dans les années 2000, comme le Sommet mondial sur la société de l’information (2005) et la création du Forum sur la gouvernance de l’Internet (FGI) lié au système des Nations Unies, qui se réunit annuellement depuis 2006 mais n’a pas de fonction délibérative.

[3]La faiblesse du cadre juridique d’imposition des bénéfices des multinationales rend cette redistribution encore plus difficile que d’autres services. Alors que le taux normal de la TVA en France est à 20%, Apple a négocié une taxe de 0,005% avec l’Irlande, où se trouve son siège, sur tous ses revenus en Europe.

[4]De même que l’ajustement budgétaire l’était déjà dans les années 1990 après le consensus de Washington.

[5]Au Brésil par exemple seuls 61 % des foyers ont un accès à Internet en 2017.

[6]https://www.bbc.com/mundo/noticias-39883234 voir les cas d’algorithmes utilisés par la justice pour aider le juge dans la définition des peines, avec des biais racistes avérées.