Pourquoi la bulle de l’intelligence artificielle est condamnée à exploser

Serveurs dans un datacenter. © Taylor Vick

Depuis le lancement de ChatGPT il y a bientôt deux ans, les grandes entreprises de la Silicon Valley ne jurent plus que par l’intelligence artificielle. Pendant un an et demi, leurs promesses d’une nouvelle révolution technologique grâce à l’IA ont séduit les investisseurs, qui ont parié énormément d’argent sur ces outils. Mais la bulle spéculative est condamnée à exploser, un premier avertissement ayant eu lieu sur les marchés financiers en août. Dès les prochaines années, les quantités de données et de ressources physiques nécessaires à l’IA risquent en effet de manquer. [1]

Début août, les sept plus grandes entreprises technologiques américaines ont perdu une valeur combinée de 800 milliards de dollars, les investisseurs ayant liquidé leurs actions dans un mouvement de panique soudain face à l’imminence d’une récession aux États-Unis et à la prise de conscience progressive que la « révolution de l’IA » tant attendue avait été spectaculairement surestimée. Ce marasme boursier est venu couronner 18 mois extraordinaires qui ont suivi le lancement, en décembre 2022, du modèle génératif de langage ChatGTP appartenant à la société Open AI, dont la capacité à produire des écrits et des conversations semblables à ceux d’un être humain a surpris le monde entier. Malgré un rebond partiel des valorisations en bourse depuis août, le sentiment de malaise qui s’installe, à savoir que l’IA ne sera pas à la hauteur de l’extraordinaire battage médiatique qu’elle a suscité, ne s’est pas dissipé pour autant. Goldman Sachs et la banque ING ont ainsi récemment publié des rapports mettant en garde contre les coûts excessifs et les avantages limités de l’IA.

Cet engouement de la financer pour l’IA avait fini par atteindre des sommets caricaturaux. De vaines spéculations sur une éventuelle « conscience » des machines et la perspective imminente d’un superordinateur tout-puissant – ce que l’on appelle l’intelligence artificielle générale – ont été incessamment alimentées par des prophètes de l’IA tels que Sam Altman, PDG d’OpenAI. Cela a bien sûr contribué à faire grimper les valorisations de sa propre entreprise et bien d’autres dans le domaine de la technologie à des niveaux extraordinaires. Le concepteur de puces Nvidia, dont les semi-conducteurs et cartes graphiques ont été réorientés des jeux vidéo vers les applications d’intelligence artificielle, est ainsi brièvement devenu, en juin dernier, l’entreprise la plus valorisée au monde, ses puces essentielles au processus d’« entraînement » des modèles d’intelligence artificielle à partir d’énormes quantités de données étant en pénurie face à la demande.

Aujourd’hui, 5,35 milliards de personnes sont en ligne, soit plus que les 4,18 milliards qui ont accès à des toilettes à domicile.

Pour comprendre pourquoi l’IA est une bulle, il est essentiel de comprendre qu’elle n’est qu’une extension de technologies déjà existantes et très familières. Depuis deux décennies, le modèle économique de base du secteur technologique repose sur la collecte et le traitement d’énormes quantités de données produites par les utilisateurs, ce qui permet d’obtenir des informations précieuses sur le comportement des consommateurs, qui sont vendues aux professionnels du secteur publicitaire. Avec l’arrivée des smartphones à la fin des années 2000, toute une infrastructure technologique s’est rapidement mise en place pour permettre la collecte impitoyable, minute par minute, des données des utilisateurs. Aujourd’hui, 5,35 milliards de personnes sont en ligne, soit plus que les 4,18 milliards qui ont accès à des toilettes à domicile.

Cette agrégation ahurissante de données humaines constitue une partie de la matière première de l’IA. Associée à des processeurs spécialisés, du type de ceux fournis par Nvidia, la quantité de données est aujourd’hui si importante que de nouvelles applications jusqu’alors irréalisables peuvent être développées – la plus frappante étant la création de logiciels informatiques apparemment capables de tenir une conversation. À nos yeux humains, les résultats peuvent paraître presque magiques : l’ordinateur intelligent pouvant converser avec un humain est un vieux rêve de science-fiction. Dans le même temps, d’incroyables créations artistiques sont à la portée de quelques clics. Il n’est donc pas surprenant que l’IA ait suscité un engouement aussi extraordinaire. Mais elle reste, fondamentalement, une extension de l’industrie de l’extraction de données dans laquelle nous nous sommes tous empêtrés au cours des deux dernières décennies.

Selon le Wall Street Journal, l’IA sera à court de données provenant de l’ensemble de l’internet et produites par l’ensemble de l’humanité dès 2026.

Le volume de données extraites est désormais tel que des résultats relevant de la science-fiction semblent aujourd’hui possibles. Mais parce qu’il s’agit d’une industrie extractive, et parce qu’elle doit fonctionner à une échelle aussi vaste, il y a des limites strictes à ce que les technologies actuelles de l’IA peuvent faire. C’est ainsi que la valorisation boursière des entreprises technologiques dépasse largement la réalité économique, créant les conditions d’une bulle spéculative classique. 

Le premier obstacle est l’épuisement de la matière première que constituent les données humaines. Selon un calcul publié dans le Wall Street Journal, l’IA sera à court de données provenant de l’ensemble de l’internet et produites par l’ensemble de l’humanité dès 2026. Les entreprises spécialisées dans l’IA ont donc pris l’habitude d’utiliser des données générées par l’IA pour essayer d’entraîner leurs machines ! Mais cela produit ce qu’un récent article universitaire a appelé « l’effondrement du modèle » : L’IA cesse de fonctionner lorsqu’elle doit se nourrir d’elle-même. Et plus l’internet sera inondé de « déchets d’IA », moins l’IA sera utile. Un scénario qui met en doute la survie même de l’IA selon le spécialiste Corey Doctorow.

À l’autre extrémité de la machine d’extraction de données se trouve l’infrastructure matérielle nécessaire pour faire fonctionner ses algorithmes. Cependant, plus les ordinateurs qui exécutent les logiciels sont alimentés en données, plus ils deviennent gourmands en ressources. Les centres de données se multiplient dans le monde entier pour répondre à la demande : Microsoft ouvre actuellement un nouveau datacenter quelque part sur la planète tous les trois jours. Or, ces datacenters exigent d’énormes ressources. Ainsi, un centre de données moyen de Google consomme autant d’électricité que 80.000 ménages. En Pennsylvanie, un complexe de serveurs d’Amazon dispose ainsi d’une centrale nucléaire dédiée à son alimentation en électricité. Pour maintenir au frais ces serveurs bourdonnants, il faut d’énormes volumes d’eau : un nouveau centre de données à grande échelle consomme en général la même quantité d’eau par jour que 40.000 personnes. Il n’est donc pas étonnant que, du Chili à l’Irlande, les protestations contre ces monstres commencent à se multiplier. En Grande-Bretagne, les plans d’expansion rapide de l’IA récemment annoncés par le gouvernement travailliste risquent de se heurter de plein fouet à des réserves d’eau déjà très sollicitées.

Il existe donc des limites strictes à ce que cette génération d’IA est susceptible d’apporter et cela signifie que la bulle éclatera de nouveau : la réalité ne peut pas être à la hauteur du battage médiatique. Avant qu’elle ne s’effondre, certaines applications réellement utiles dans le domaine médical, par exemple, seront supplantées par la production de « déchets » à but lucratif et, plus inquiétant encore, par l’extension rapide des technologies de l’IA à des fins militaires, comme le tristement célèbre système israélien « Lavender », utilisé pour générer des milliers de cibles pour les forces de défense israéliennes dans la bande de Gaza.

Alors que le changement climatique s’aggrave et que les contraintes en matière de ressources se font sentir partout dans le monde, il est plus que temps de nous poser de sérieuses questions plus difficiles sur l’engagement extraordinaire que nous prenons en faveur de technologies de plus en plus axées sur le profit et la guerre.

[1] Article de notre partenaire Novara Media, traduit par Alexandra Knez.

Internet Année Zéro : la naissance des monstres numériques

© John Lester – Flickr

Internet Année Zéro (Divergences 2021) est le dernier essai de Jonathan Bourguignon, spécialiste des origines du capitalisme numérique américain. Il y retrace l’avènement de la société de surveillance contemporaine à travers une galeries de portraits (Peter Thiel, Elon Musk) et le récit des chemins de traverse entre la contreculture américaine des années 60-70 et la cyberculture de la Silicon Valley. Fait notable pour un ouvrage de ce genre, une partie conséquente du livre est réservée à l’émergence du numérique chinois, permettant au lecteur de découvrir l’autre empire informatique actuel, celui des BATX et de la « grande muraille numérique », filtrant les influences extérieures. Les lignes suivantes sont extraites de son ouvrage.1

Les héritiers

La bulle Internet connaît son apogée au mois de mars 2000. Son éclatement aurait pu marquer la fin du rêve de cette nouvelle économie vouée à avaler l’ancien monde ; en réalité, il est surtout un assainissement de l’écosystème. Pendant les années de fièvre et d’exubérance de la fin du siècle, certains ont patiemment, rationnellement construit l’infrastructure du web marchand. Alors que les valeurs technologiques s’effondrent et que les industriels et investisseurs traditionnels qui se sont lancés dans l’aventure sauvent ce qu’ils peuvent de leurs investissements, ces bâtisseurs vont consolider durant les années suivantes des actifs qui deviendront des empires. En héritiers de la cyberculture, ils vont investir les fortunes considérables qu’ils ont amassées avant l’explosion de la bulle pour contribuer à l’avènement du monde libertarien, transhumaniste et cybernétique auquel ils croient.

La généalogie de ce nouveau groupe parmi les plus influents de la Silicon Valley remonte à la création du web marchand ; leur action contribuera à faire de la data (données) le nouvel or noir du cyberespace. Entre 1995 et 2000, la croissance du web est stupéfiante : la base d’utilisateurs passe de 16 à 360 millions, près de 6 % de la population mondiale est soudain en ligne. Cette croissance est nourrie par la multiplication des sites web : entreprises, administrations publiques, tous types d’organisations créent soudain leur propre site. Le trafic, anarchique et décentralisé, commence à s’organiser à partir de 1995, sous la forme de portails et annuaires en ligne, tels que AOL et Yahoo!, portes d’entrée dans la toile à partir desquels les utilisateurs n’ont plus qu’à suivre les liens qui sont étalés sous leurs yeux. Les moteurs de recherche les talonnent : Altavista (qui sera racheté par Yahoo!) est créé la même année, Google trois ans plus tard.

Les internautes sont désormais libres de découvrir l’étendue du réseau par simple recherche de mots clés, sans être guidés ou connaître préalablement l’existence et l’adresse précise des sites qu’ils vont visiter. Néanmoins, en 1997, le commerce en ligne aux États-Unis représente moins de 0,1 % de son parent dans la vie réelle. Quelque chose manque pour que les consommateurs et leurs dollars délaissent les devantures désirables des boutiques et magasins. C’est à la même époque que se constituent les trois éléments clés qui permettent à l’écosystème marchand d’éclore : les fournisseurs de services d’applications (l’ancêtre du SaaS ou Software as a Service, littéralement «logiciel en tant que service») qui permettent la multiplication des sites de commerce comme des médias ; les moyens de paiement en ligne qui créent un accès pour dériver l’économie classique vers la nouvelle économie en ligne; et le modèle de revenu publicitaire qui crée la dynamique entre marchands, médias en ligne et entreprises technologiques.

Les entreprises pionnières qui ouvrent la voie à chacune de ces innovations se nomment respectivement Viaweb, Paypal et Netscape. Leurs fondateurs porteront l’héritage idéologique de la vallée. Le modèle publicitaire est l’épine dorsale du web. Fondamentalement, il ne diffère guère de celui qui a fait la fortune des agences publicitaires de Madison avenue. Il fait intervenir trois types d’acteurs : les annonceurs (advertisers), les médias (publishers), et l’ensemble des acteurs publicitaires, agences et plateformes de placement, qui organisent le jeu. Les annonceurs permettent de faire rentrer de l’argent réel dans le cyberespace. Il s’agit essentiellement de commerçants, qui vendent des produits et des services de l’ancien monde, vêtements, objets, billets d’avion, nuits d’hôtel. Leur survie est soumise à une compétition de marché: ils doivent amener les consommateurs sur le cyberespace et les détourner de l’économie classique, mais surtout, ils doivent lutter entre eux. La publicité est leur arme pour attirer les internautes sur leurs services. Les médias ont pour principale valeur leur audience : des sites web et des applications, que visitent des utilisateurs plus ou moins nombreux, plus ou moins qualifiés, c’est-à-dire présentant un profil plus ou moins spécifique et valorisé par les annonceurs.

Les plateformes publicitaires créent les conditions qui permettent aux annonceurs d’atteindre l’audience des médias. Rien de nouveau sous le soleil du cyberespace : qu’ils s’appellent journal, magazine, chaîne de télévision ou station de radio, le modèle économique des médias n’a guère évolué depuis la révolution industrielle au début du XIXe siècle.

Viaweb : audience et données

Le nom Viaweb a laissé assez peu de traces. Et pourtant, l’influence de l’entreprise dans le développement du web marchand est très importante. Viaweb existe sous ce nom entre 1995 et 1998, jusqu’à son acquisition par Yahoo! qui rebaptisera le service Yahoo! Store. Viaweb est une application que l’on accède comme un site web, et qui permet de construire et d’héberger des sites d’e-commerce en ligne. Certains – et en particulier le génie technique derrière Viaweb, Paul Graham – considèrent que le service développé par Viaweb constitue le premier fournisseur d’application en ligne. Il permet de créer des sites web.

Comme son nom l’indique (« via le web ») et contrairement à la plupart des logiciels de l’époque, utiliser cette technologie dispense ses clients d’acheter une version du logiciel, qu’ils devraient ensuite installer sur leurs propres machines, avec laquelle ils généreraient un site qu’ils devraient ensuite héberger sur leurs propres serveurs. Les clients de Viaweb utilisent à distance un logiciel qui tourne directement sur les serveurs de Viaweb, pour générer un site opéré directement par Viaweb, avec des données hébergées elles aussi sur des serveurs gérés par Viaweb. Cette particularité permet d’abaisser le niveau d’expertise requis pour créer des sites web, et contribuera à la multiplication du nombre de services marchands. Des technologies équivalentes, développées pour la publication de contenus, permettront l’émergence du phénomène des blogs, et de transformer les internautes majoritairement visiteurs de site web, jusqu’à présent passifs, en éditeurs actifs (avant que le web 2.0 ne vienne encore brouiller la frontière en rendant les visiteurs eux-mêmes actifs, c’est-à-dire créateurs de contenus et générateurs de données, sur le site web même qu’ils visitent). Surtout, la technologie permet à une entreprise cliente de Viaweb d’héberger ses données chez Viaweb.

Ce qui semble un détail technique en 1995 aura des répercussions très importantes des décennies après : en créant au même endroit des banques de données agrégeant l’activité des employés, clients ou cibles marketing de milliers d’entreprises se constituent les premiers puits de ce nouveau pétrole que le marketing n’appelle pas encore big data ou cloud.

PayPal : le nerf de la guerre

Reste qu’acheter les services de ces nouveaux marchands et nouveaux médias qu’on ne rencontre jamais dans la vie réelle, ni dans un magasin, ni dans un kiosque n’a rien d’évident. Amazon vendait des livres en ligne dès 1994, eBay permettait d’organiser des brocantes virtuelles dès 1995, tandis que Netflix, à partir de 1997, louait des DVDs qui transitaient, aller et retour, par courrier. Le principal moyen de paiements consistait alors à envoyer des chèques par courrier. La promesse d’un univers émancipé et dématérialisé où l’information se transmet à la vitesse des photons dans une fibre optique bute sur les limites mécaniques et musculaires des bicyclettes des facteurs, des camions de ramassage et de l’organisation dans les centres de tri des services postaux fédéraux… Paypal naît du mariage en 2000 de deux entreprises pré-pubères, fondées au cours des dix-huit mois qui précèdent.

La première, x.com, s’est donné pour mission de concurrencer les banques dans le nouvel espace digital. À sa tête : Elon Musk, un jeune entrepreneur sud-africain. À vingt-sept ans, dont à peine quatre dans la Vallée, il a déjà revendu une première startup qui fournissait des outils de développement graphique en ligne aux médias (une époque où un écran standard d’ordinateur affichait des pixels d’environ un demi-millimètre, c’est-à-dire dix fois plus gros que ce que peuvent afficher les smartphones en 2020). La seconde, Confinity, compte un certain Peter Thiel, d’origine allemande, parmi ses fondateurs, et ambitionne de créer une monnaie digitale indépendante des banques et des gouvernements, dix ans avant que la cryptomonnaie Bitcoin ne voie le jour.

Le jeune couple devient Paypal, du nom du produit phare développé par Confinity : un système qui permet de faire circuler de l’argent en ligne de manière sécurisée, de la même façon que le fait une fédération de type VISA à travers ses propres réseaux de terminaux de paiement. À travers son compte en ligne, le payeur donne l’autorisation à Paypal d’effectuer une transaction qui prélève un certain montant du compte bancaire qu’il a spécifié, et le transfère vers le compte du bénéficiaire. Paypal fait circuler cette transaction sur les réseaux bancaires. La banque du payeur débite son compte du montant de la transaction, tandis que la banque du bénéficiaire crédite son compte. Seul Paypal est en mesure de voir les numéros de carte et de compte en ligne du payeur et du bénéficiaire, assurant la sécurité de la transaction. Rapidement, des divergences de culture se font jour entre les anciens de x.com et de Confinity.

En 2000, Elon Musk est évincé de Paypal alors qu’il se trouve dans les airs, un avion l’emportant vers l’Australie pour ses premières vacances depuis la fusion. Peter Thiel reprend les rênes. La compagnie entre en Bourse en 2002, et est rachetée la même année par eBay pour 1,5 milliards de dollars. Musk perçoit plus de 150 millions dans la transaction. Malgré l’audience du web qui explose et les transactions marchandes en ligne qui prennent de l’ampleur, les médias, qui génèrent l’essentiel du trafic, peinent à trouver des revenus. Le volume ne parvient pas à compenser la très faible valeur des emplacements publicitaires, en particulier comparée à la télévision. Une publicité en ligne est perçue comme peu valorisante pour l’image de marque des annonceurs ; leur impact est difficile à mesurer ; à l’instar du commerce, le marché publicitaire en ligne représente en 1997 une fraction de pour-cent.

L’arrivée des cookies

Un détail technique va changer la donne. Il porte le nom inoffensif de cookie. Le cookie est un petit fichier de mémoire, stocké par le navigateur sur l’ordinateur de l’utilisateur, qui ne peut être lu que par le service web qui l’a écrit. Le navigateur transmet le cookie chaque fois qu’une nouvelle connexion est établie avec le service, permettant de créer une relation de longue durée, et privée, entre le service et l’utilisateur. Par exemple, les cookies permettent de maintenir une session ouverte, donc que d’une page à l’autre, l’utilisateur n’ait pas à réintroduire ses identifiants, ou encore que le contenu d’un panier ne disparaisse pas. Le cookie est d’abord développé en 1994 au sein du navigateur Netscape. Trois ans plus tard, une spécification de l’Internet Engineering Task Force (IETF), l’organisme chargé de faire émerger les standards qui composent la suite des protocoles internet, met en garde contre le risque en termes de vie privée de certains types de cookies.

Ces cookies, dits cookies tiers ou third party, sont un cas d’utilisation qui n’avait pas été prévu à leur création – ce que l’industrie appelle, dans la continuité culturelle de l’année 1984, un hack. Les cookies tiers consistent en script hébergé sur le site que visite l’utilisateur, qui s’exécute dans le navigateur, créant une communication invisible avec l’entreprise tierce qui a écrit le code. Il peut y avoir de nombreuses raisons d’intégrer des cookies tiers: ils permettent à des entreprises partenaires de tracer le comportement des visiteurs, et ainsi d’aider à analyser un site web, optimiser son design et ses performances, détecter des bugs, ou… améliorer la publicité en ligne. L’IETF met en garde contre les risques en termes de vie privée pour les internautes : les cookies – tiers permettraient théoriquement à certaines entreprises d’avoir accès à l’activité des internautes sur un grand nombre de sites web, à leur insu. Le cookie est précisément l’un de ces bouts de code au sein desquels se cachent les nouvelles lois invisibles à la majorité des internautes aliénés à la technique.

Cette nouvelle loi révoque tacitement le droit à l’anonymat sur Internet : les cookies permettent de réconcilier facilement les différentes identités endossées par un même utilisateur sur différents sites. L’organisation préconise donc que les navigateurs interdisent nativement les cookies tiers. Pourtant, les deux entreprises qui éditent les navigateurs dominants de l’époque, Netscape de Marc Andreessen et Microsoft de Bill Gates, font la sourde oreille. La mise en garde disparaît de la nouvelle spécification publiée en octobre 2000. En particulier, les cookies vont permettre aux identités de persister entre les trois acteurs du modèle publicitaire: les plateformes technologiques vont être capables d’identifier les mêmes utilisateurs lorsqu’ils visitent le site d’un média ou d’un annonceur. Avant que le traçage des données permette aux publicitaires de prédire le comportement des consommateurs et de générer de la publicité ciblée, les cookies vont révolutionner la mesure de l’efficacité publicitaire. Internet invente la publicité à la performance.

Jusqu’à présent, la publicité était un levier de masse pour les marques et les publicitaires. Des données démographiques et des sondages permettaient d’évaluer l’audience d’un spot publicitaire dans un magazine ou sur une chaîne de télévision. Un spot publicitaire pendant le Superbowl était réservé aux entreprises les plus puissantes. L’impact sur les ventes ne pouvait qu’être grossièrement estimé. Sur Internet, les cookies permettent de savoir si un achat a été influencé par une publicité précise, si une publicité a été suivie d’une visite chez l’annonceur, voire d’un achat. Le jeu se perfectionne alors : les scripts installés par les plateformes publicitaires aussi bien chez leurs clients (les annonceurs) que chez leurs fournisseurs (les médias) captent de plus en plus d’information. Convenablement exploitées, les données d’activité de l’internaute permettent de prédire ses affinités, que ce soit côté marchand (caractéristiques des produits vus et mis au panier) ou côté média (centre d’intérêt, affinités politiques, comportement en ligne…). Nourris de ces données personnelles, les algorithmes sont alors capables de prédire, pour chaque utilisateur, sur chaque emplacement publicitaire et à chaque instant, la probabilité que l’affichage d’une bannière mène à un clic, voire à l’achat du produit mis en exergue.

Chaque fois qu’un utilisateur se présente sur le site d’un média, une mise aux enchères est organisée en quelques millisecondes : le publicitaire le plus offrant décide de ce qui s’affichera sous les yeux de l’internaute. Les annonceurs paient plus cher pour des publicités mieux ciblées. Les médias, eux, maximisent donc la valeur de leur audience à chaque visite. Tout le monde gagne à cette mise en commun de la donnée. Y compris les utilisateurs : alors que le web des premières années est inondé de publicités qui ouvrent des fenêtres pour des services déconcertants jusque dans les recoins les plus saugrenus de l’écran, la valorisation à la performance permet de montrer des publicités mieux ciblées et moins intrusives.

D’un point de vue strictement économique, le système semble vertueux : il met sur un pied d’égalité les mastodontes de la consommation et des petits annonceurs, ces derniers pouvant désormais contrôler leurs investissements marketing. De nouveaux acteurs marchands apparaissent, des pure players (dont l’activité ne s’exerce que dans l’univers dématérialisé du web), qui viennent concurrencer les distributeurs traditionnels. De tout petits médias peuvent eux aussi trouver des lignes de revenu, de nouvelles voix se font entendre. Durant presque vingt ans, les cookies tiers vont se multiplier sans qu’aucune remise en question ne vienne peser sur eux. Ils deviendront la clé de voûte du système économique sur lequel se repose une grande majorité des acteurs du web.

Don’t be evil

Parmi les entreprises de cette nouvelle vague publicitaire générée par les bourrasques violentes de l’année 2000 figure l’icône Google. Google existe depuis deux ans. Il naît du projet de recherche de deux doctorants à l’université de Stanford, Larry Page et Sergey Brin. Contrairement aux moteurs de recherche de l’époque qui se contentent d’indexer les sites web indépendamment les uns des autres à la recherche de mots clés, l’algorithme de Google se déploie en parfaite symbiose avec la philosophie du World Wide Web : il analyse les relations entre sites web, c’est-à-dire les liens hypertexte qui le connectent. Google s’attelle à la tâche monumentale de hiérarchiser l’information à travers le web, et l’écosystème lui sait gré de ce travail de titan: le moteur de recherche supplante tous ses concurrents; les plus prestigieux fonds d’investissement investissent dans Google. À l’époque, Google a plusieurs modèles de revenus. La régie publicitaire Adwords en fait partie mais est alors très minoritaire. Le fonctionnement d’Adwords est assez franc: chaque annonceur peut participer à une enchère pour acquérir un mot spécifique, par exemple dog (chien). S’il gagne, la prochaine fois qu’un utilisateur recherchera le mot dog, il verra apparaître au-dessus de ses résultats de recherche une publicité pour la dogfood (nourriture pour chiens) de l’annonceur.

Google vend aussi des licences pour faire tourner ses modèles au sein des systèmes d’information privés de larges organisations, une offre que n’aurait pas refusée le CERN de Tim Berners-Lee. À l’orée du nouveau millénaire, ce modèle est celui que privilégient ses fondateurs. La devise Don’t be evil («ne sois pas malfaisant»), qui deviendra le code de conduite officiel de l’entreprise, serait née à cette époque. Page et Brin, les fondateurs de Google, font publiquement part de leur sentiment que le mal, evil, ce pourrait bien être la publicité. Dans un papier de recherche, ils soutiennent qu’un moteur de recherche financé par la publicité en viendra tôt ou tard à prioriser les besoins des annonceurs face à ceux des consommateurs. Cette profession de foi ne résiste guère au cataclysme de mars 2000. Alors que les valeurs des stocks technologiques s’effondrent, les sources de financement dans la vallée, qui jusqu’alors semblaient inépuisables, tarissent subitement. Google est né sous les meilleurs auspices : Jeff Bezos, le jeune fondateur d’Amazon, est l’un des trois premiers business-angels à investir dans la startup ; moins d’un an s’écoule avant qu’il soit rejoint par les plus prestigieux fonds de capital-risque de la Vallée. Depuis sa naissance, le gourmand algorithme de Google siphonne les fonds injectés par les fonds de capital-risque – c’est le jeu du capital-risque – sans que personne ne mette en doute la pertinence des algorithmes de Google, qui surclassent la concurrence. Mais en cette période de défiance généralisée, plus personne ne veut risquer le moindre investissement dans une entreprise dont l’horizon de profitabilité est encore flou. Chez Google, c’est l’état d’urgence : il ne reste que quelques mois pour lever des fonds ou l’entreprise fera banqueroute, et pour lever des fonds, il faut réinventer la mécanique financière de l’entreprise. Eric Schmidt entre en jeu.

Poussé à prendre les rênes de l’entreprise par les investisseurs historiques de la firme de Mountain View, l’expérimenté manager orchestre le changement de paradigme qui fait d’Adwords la main de Midas des temps modernes. Ce changement est infinitésimal : à peine une règle du jeu de modifiée ; à peine une loi interne, qui régit la mise aux enchères des mots-clés. Auparavant, qui annonçait la plus forte mise gagnait l’enchère, donc le droit d’afficher un résultat de recherche sponsorisé. Google était payé lorsque (et si) l’internaute cliquait sur la publicité. Désormais, l’enchère est accordée non à l’annonceur le plus offrant, mais à celui dont l’enchère pondérée par la probabilité que l’utilisateur clique sur la publicité est la plus élevée. C’est-à-dire que pour deux enchères égales par ailleurs, Google montrera à l’internaute celle qui a le plus de chances de lui plaire. Cette différence maximise l’espérance de revenu pour chaque publicité montrée par Google; elle augmente aussi le retour sur investissement des annonceurs. Quant aux utilisateurs, ils sont désormais exposés à des publicités plus pertinentes. Il y a encore une conséquence plus profonde. Beaucoup plus profonde.

Pour être capable d’estimer cette probabilité de clic de l’utilisateur, Google doit être capable de prédire ses comportements, ce qui signifie accumuler les données personnelles en vue d’en nourrir ses algorithmes. À cette époque, Google occupe déjà une position de domination presque absolue sur les moteurs de recherche ; le système de surveillance qu’il met ainsi en place s’exerce donc déjà quasiment à l’échelle de la société. Google a découvert le nouvel or noir du cyberespace, la donnée comportementale. Contrairement aux puits de pétrole, propriétés communes pour lesquelles les entreprises pétrolières se voient accorder sous conditions une concession de recherche et d’exploitation, aucune autorité territoriale souveraine ne semble être consciente des forages en cours dans le cyberespace. D’un point de vue technologique, ce nouveau paradigme demande à Google de revisiter profondément ses services. En 2003, Google lance sa régie publicitaire AdSense, qui permet aux médias de mettre aux enchères leur espace publicitaire à travers Google. Deux ans plus tard, l’acquisition de Urchin Software Corp. donne naissance à Google Analytics, un service gratuit qui permet à n’importe quel site d’utiliser le service pour analyser son propre trafic. Pour faire fonctionner AdSense ou Analytics, le propriétaire d’un site web doit installer les scripts ou trackers créés par Google. Tous les visiteurs des sites clients du réseau Google se voient donc poser un cookie-tiers Google. En 2018, on estime que les scripts de Google sont déployés sur 76 % des sites web dans le monde ; c’est donc 76 % du trafic mondial que Google est capable de surveiller. L’état d’urgence instauré par Google en 2000 est devenu l’état permanent qui régit encore internet vingt ans après. Cette transformation était-elle inévitable ?

Dans le contexte de cette crise financière si intimement liée au manifeste libertarien Cyberspace and the American Dream, peut-être. Néanmoins, des moteurs de recherche concurrents ont par la suite su se créer et survivre en gardant un modèle économique publicitaire réduit aux enchères sans prédiction comportementale. La forme que revêt une technologie est indissociable des conditions économiques et idéologiques qui président à son apparition. Et si Google s’est trouvé sur la trajectoire de collision de l’idéologie libertarienne, son héritage techno-utopiste va aussi se révéler par d’autres traits. Pour les idéalistes Brin et Page, le tournant publicitaire de Google – et la prise de pouvoir d’Eric Schmidt – est une désillusion dont ils se rattrapent en prenant les rênes de Google X. Google X est la moonshot factory («fabrique à envoyer des fusées sur la lune») de Google, un laboratoire secret dont naîtront les lunettes de réalité augmentée Google Glass (2013), les voitures autonomes Waymo (2016), le réseau internet Loom (2018) distribué à travers des ballons (qui arrêtent leur ascension à la stratosphère, bien avant la Lune). Google utilise aussi son propre fonds d’investissement pour se diversifier et soutenir massivement les initiatives transhumanistes. En 2012, Ray Kurzweil, fondateur de la Singularity University, l’un des plus éminents penseurs transhumanistes rejoint Google. Dans les années suivantes, Google intensifie ses efforts de recherche dans une informatique quantique qui pourrait accélérer la marche vers le point de singularité technologique. En 2013, la succursale Calico se donne pour objectif ultime d’éradiquer la mort. Parmi les mille entreprises de la grande famille Google – renommée à partir de 2015 Alphabet, Google restant le nom de l’ensemble des entreprises incluses dans l’industrie des médias – fort peu visent à asseoir plus encore l’empire financier basé à Mountain View. Les autres, quoi qu’il en coûte, travaillent à faire advenir le futur espéré par les fondateurs Larry et Sergei. La déclaration fiscale d’Alphabet montre qu’en 2019, 82 % de ses revenus sont toujours basés sur la publicité, ce mal temporaire que Google a concédé face à la crise. Don’t be evil, répètent pourtant sans fin Larry et Sergei. Peut-être ajoutent-ils tout bas : à moins que la fin ne justifie les moyens.

Notes :

1 : Les lignes suivantes sont issues de son ouvrage.

Flux de données contre pouvoirs publics

Les situations de déliquescence des données ouvertes questionnent le rôle de l’acteur public. Doit‑il produire de la donnée uniquement pour ses propres besoins ou prendre en considération les besoins externes d’entreprises privées ? Dans le premier cas, il laisse le champ libre à d’autres acteurs pour produire des données qui nourriront les services numériques développés sur son territoire. L’établissement de ces conventions d’équivalence n’est alors plus l’apanage de l’État ou des acteurs publics. Il est pris en charge par des acteurs privés qui imposent leur représentation de l’espace urbain au risque, pour les acteurs publics, d’une perte de maîtrise de leurs politiques publiques. C’est la thèse d’Antoine Courmont, qui vient de publier aux Presses universitaires de Grenoble (PUG) Quand la donnée arrive en ville – open data et gouvernance urbaine. Antoine Courmont est chercheur associé au Centre d’études européennes de Sciences Po et responsable scientifique de la chaire Villes et numérique de l’École urbaine de Sciences Po. Il enseigne à Sciences Po Paris. Les lignes suivantes sont extraites de son ouvrage.

Cette situation est manifeste dans le secteur de la mobilité où des entreprises telles que Waze ou Here ont développé leur propre cartographie routière1. Or celles‑ci s’appuient sur des conventions de représentation du réseau routier qui diffèrent de celle du Grand Lyon et qui ont un effet sur la régulation de la circulation automobile. Cela provoque des controverses avec les producteurs privés de données de navigation routière. Le réseau de voies de l’agglomération lyonnaise est hiérarchisé par le Grand Lyon en fonction de différents critères (volume des flux, dimensionnement de la voirie, usages, etc.). Les producteurs privés s’appuient sur des typologies alternatives comme l’indique ce cartographe de l’entreprise Here : « Nous, on a 5 classes de voies. Le Grand Lyon en a 6. Je sais que l’autre fabricant de GPS en a 8323 ». Dès lors, selon les bases de données, certaines voies ne sont pas catégorisées de manière identique.

Quand les acteurs publics perdent la maîtrise de la représentation de leur territoire

La classification de l’entreprise Here a été définie afin de prendre en compte la diversité des voies à l’échelle de la région, tandis que la communauté urbaine de Lyon a construit la sienne dans une optique de régulation du réseau à l’échelle de l’agglomération. Cette différence de représentation n’est pas neutre : elle est une force de prescription importante sur le comportement des automobilistes par l’intermédiaire de l’itinéraire mis en avant par leur GPS. Particulièrement visibles lors de situations de congestion, ces différences de classification entraînent un report du trafic automobile par les GPS sur des voies que le Grand Lyon considère comme non adaptées. Ce cas s’est produit notamment au cours de l’été 2013 où une série d’embouteillages a saturé le réseau urbain. Les autorités et la presse locale ont alors fait porter la responsabilité sur les producteurs privés de données, exigeant qu’ils alignent leur classification sur celle du Grand Lyon.

Des réunions entre les représentants locaux de l’entreprise Here et du Grand Lyon ont alors été organisées. Elles ont toutefois été peu concluantes, le Grand Lyon ne disposant d’aucun moyen réglementaire pour imposer sa classification. Ce conflit entre l’autorité chargée de la régulation du réseau routier et ces producteurs privés de base de données de navigation routière met en évidence les répercussions des représentations alternatives de l’espace urbain sur la politique publique de la communauté urbaine de Lyon. La hiérarchisation des voies établie par l’acteur public ne fait plus convention, ce qui réduit sa capacité de régulation du réseau2. Face à ces nouvelles conventions d’équivalence, le Grand Lyon ne maîtrise plus la politique de mobilité de l’agglomération.

L’application Waze : le gouvernement privé des mobilités automobiles métropolitaines

L’application mobile de navigation routière Waze fournit un autre exemple de mise à l’épreuve des capacités de gouvernement de l’acteur public par les données. Fondée en 2008 en Israël, et achetée en 2013 par le groupe Alphabet (Google), la particularité de l’application est de s’appuyer sur des données collectées directement auprès de ses utilisateurs. Par l’intermédiaire de la localisation GPS du téléphone mobile, elle enregistre les traces de déplacement des automobilistes et leur vitesse de circulation. Financée par la publicité, elle compte au printemps 2019 douze millions d’utilisateurs en France, soit plus d’un automobiliste sur quatre. Après l’Île‑de‑France, l’agglomération lyonnaise est un des territoires qui concentrent le plus d’utilisateurs de l’application. Les services de la métropole lyonnaise estiment qu’au moins 30 % des automobilistes dans l’agglomération utilisent l’application3.

L’augmentation considérable du trafic routier aux heures de pointe sur certaines voiries a contribué à rendre visible cet usage croissant et massif de Waze. En effet, l’algorithme de l’application privilégie l’itinéraire le plus rapide sans tenir compte de la hiérarchisation du réseau de voirie. Adoptant une perspective temporelle plutôt que spatiale4, ces choix algorithmiques ont conduit, à proximité de zones de congestion récurrente, à entraîner des reports conséquents de circulation sur des réseaux secondaires non adaptés pour recevoir de tels flux. Cela provoque des situations de congestion induites, des nuisances environnementales, des risques accrus d’insécurité publique, des coûts de maintenance supplémentaire et la contestation des riverains.

Financée par la publicité, Waze compte au printemps 2019 douze millions d’utilisateurs en France, soit plus d’un automobiliste sur quatre.

En second lieu, le succès de Waze ne peut se comprendre qu’en relation avec les failles des systèmes de transport métropolitain face aux processus subis d’étalement urbain et de périurbanisation. Le développement de Waze est une réponse à l’incapacité des institutions publiques à planifier les infrastructures de transport dans certaines zones métropolitaines où des flux pendulaires toujours plus importants provoquent des phénomènes récurrents de congestion5. L’entreprise impute d’ailleurs la responsabilité des reports de trafic aux autorités publiques. « C’est davantage un symptôme qu’une cause. Il faut regarder la situation dans son ensemble. La question qu’il faut se poser c’est “pourquoi il y a des embouteillages sur les voies principales ?”. Parce que la planification urbaine a été dépassée et que les infrastructures ne sont pas adaptées pour répondre aux besoins des personnes vivant dans les banlieues (suburbs)6 ». Face à la saturation quotidienne des infrastructures routières et en l’absence d’alternatives modales satisfaisantes, les automobilistes perçoivent en Waze une solution de substitution qui satisfait leur intérêt individuel en minimisant leur temps de parcours.

L’émergence de cet acteur privé, indépendant des pouvoirs publics, suscite des tensions avec les autorités locales qui, impuissantes, assistent aux reports de trafic routier provoqués par cette application dans des zones résiden‑ tielles. Les autorités locales dénoncent la logique utilitariste inscrite dans son algorithme qui s’adresse à une multitude de clients individuels que l’entreprise cherche à satisfaire. « Ils [Waze] ont une vision individualiste du déplacement qui se heurte avec les politiques publiques qui veulent faire passer les flux de véhicules par les voies principales. Ils sont en contradiction avec les pouvoirs publics7. » L’entreprise rétorque que les principes de régulation inscrits dans l’algorithme de Waze suivent un principe strict de « neutralité » algorithmique, une rationalité procédurale8, qui considère de manière égale l’ensemble des voiries comme le souligne le PDG de Waze : « If the governing body deems the road as public and navigable, we will use it for routing as needed for the good of everyone. Our algorithms are neutral to the evalue of the real estate, the infrastructure cost to maintain the roads or the wishes of the locals. Waze will utilize every public road available considering variables such as road type and current flow, and keep the city moving9 ».

Cette justification de Noam Bardin marque le cadrage alternatif de la régulation de la circulation routière. Waze vise à optimiser l’usage de l’infrastructure routière pour répondre aux phénomènes de congestion. Son service se veut universel, neutre et indépendant des spécificités territoriales, des contextes culturels et des cibles auxquelles il s’adresse. L’application produit une forme de gouvernement « déterritorialisé » centré sur la satisfaction de l’intérêt individuel et inscrit dans une vision individualiste de l’automobiliste. Elle interroge en creux la capacité du pouvoir métropolitain à négocier la mise en œuvre de principes d’intérêt général avec cette entreprise de l’économie numérique. Le Grand Lyon va tenter de s’appuyer sur la mise à disposition de certaines données publiques au travers d’un partenariat avec Waze, qui s’éloigne des principes de l’opendata, pour infléchir la position de l’entreprise.

Waze et Google : des entreprises qui refusent le jeu du marché des données ouvertes

Les plateformes de l’économie numérique sont souvent présentées comme des entreprises prédatrices de données publiques. Les producteurs de données avancent régulièrement la crainte que la mise à disposition de leurs données conduise à renforcer la position dominante d’une entreprise telle que Google au détriment des capacités d’expertise de la collectivité. Cette suspicion à l’égard des géants du numérique est partagée par certains universitaires lyonnais :

La donnée, c’est l’or noir du XXIe siècle. Or actuellement, il y a effectivement des tentatives de privatisation de la donnée ; c’est préoccupant […] Des représentants de grands groupes déclarent publiquement que les données publiques qu’ils peuvent récupérer ne sont plus vraiment publiques parce qu’ils les structurent, les nettoient ou les enrichissent. Ils sont en train de revendiquer que les données publiques qu’ils vont aspirer peuvent leur appartenir10.

Pour éviter ce risque de « privatisation » des données publiques, ces acteurs suggéraient de mettre en place un certain nombre de garde‑fous au marché des données ouvertes. Si leurs craintes sont légitimes, force est de constater que les données ouvertes par les collectivités ne sont que marginalement réutilisées par ces entreprises de l’économie numérique. Ces dernières, pour conserver une indépendance et une maîtrise de l’ensemble de la chaîne de la donnée, s’appuient sur de multiples sources de données. Lorsqu’elles sont contraintes d’utiliser des données publiques locales, elles rechignent à utiliser les données ouvertes qui nécessitent un lourd travail de nettoyage et de standardisation afin d’effacer tous particularismes locaux pour être intégrées dans un service standardisé internationalement. Comme le souligne le cas de Waze et de Google, ces entreprises profitent de leur position dominante pour imposer aux collectivités des modalités alternatives d’accès à leurs données. En proposant des partenariats aux institutions publiques, elles font reposer sur celles‑ci le coûteux travail de préparation et d’intégration des données.

La donnée, c’est l’or noir du XXIe siècle. Or actuellement, il y a effectivement des tentatives de privatisation de la donnée ; c’est préoccupant.

En 2004, constatant que près d’un quart des requêtes sur son moteur de recherche concerne des informations localisées, Google achète deux start‑up, Where2Tech et Keyhole, afin de développer un service de cartographie numérique. Lancé en février 2005, Google Maps offre des cartes, des images satellite et de rues, des informations de circulation routière et un service de calcul d’itinéraires. Google Maps reçoit plus d’un milliard d’utilisateurs par mois et son API (Application Programming Interface), qui permet d’insérer ces cartes dans des sites tiers, est utilisé par plus d’un million de sites. Si elle propose une représentation unifiée de l’espace, l’entreprise utilise marginalement des données en opendata.

La production des cartographies de Google Maps repose sur plusieurs sources de données. Google s’est appuyé initialement sur des bases de données publiques11 ou privées12. Ces données initiales ont été harmonisées, actualisées et enrichies à l’aide d’images satellite, aériennes et de rue (Google Street View), traitées par des algorithmes d’analyse d’images13, dont les opérations sont vérifiées et corrigées par des centaines d’opérateurs. Enfin, l’entreprise fait appel aux utilisateurs au travers de trois dispositifs : le service MapMaker qui permet à l’internaute d’ajouter des informations, l’onglet Report a Problem pour signaler une erreur et un outil interne appelé Boule de cristal qui analyse les réseaux sociaux et les sites Internet pour identifier des sources d’erreurs. Le croisement et l’harmonisation de ces données hétérogènes reposent sur un travail manuel considérable effectué par des opérateurs. En 2012, plus de 7 000 personnes travaillaient sur Google Maps : 1 100 employés par Google et 6 000 prestataires, des chauffeurs des véhicules Street View aux opérateurs localisés à Bangalore en Inde dessinant les cartes ou corrigeant des listings14. La base de données est actualisée en permanence : il n’y a pas de campagnes de mise à jour ou de versioningdes données, les mises à jour sont continues. Les données sont standardisées pour l’ensemble des zones géographiques représentées : cette standardisation s’appuie sur des modèles de spécifications qui décrivent précisément les modalités de représentation de chaque entité.

À cette cartographie initiale, Google a ajouté deux services relatifs à l’information des voyageurs : Google Traffic et Google Transit. Google Traffic indique en temps réel les conditions de circulation routière. Il a été lancé en février 2007 dans trente villes des États‑Unis. Il s’est maintenant généralisé. Les informations ne proviennent pas des pouvoirs publics, mais sont obtenues par les localisations GPS transmises par les utilisateurs de téléphones portables. L’entreprise calcule la vitesse de déplacement de ces utilisateurs le long d’une voie pour déterminer les conditions de déplacement15. Le second service, Google Transit, fournit un calcul d’itinéraire de déplacement en transport en commun. Il a été lancé en octobre 2007 par l’intégration de données des réseaux de transports publics de plusieurs villes américaines.

https://www.pug.fr/produit/1897/9782706147357/quand-la-donnee-arrive-en-ville

Dans la continuité du projet de cartographie communautaire dont elle trouve son origine16, l’entreprise Waze fait reposer la production de ses données sur des logiques de crowdsourcing. Trois modalités de crowdsourcing, demandant plus ou moins d’engagements de la part du contributeur, cohabitent : les traces, les signalements et les éditions cartographiques. En premier lieu, Waze enregistre les traces de déplacement de ses utilisateurs afin de connaître la vitesse de circulation sur les différents tronçons de voirie. Ce premier type de crowdsourcing, reposant sur la collecte de traces d’activités des utilisateurs, est passif : il ne nécessite aucune interaction de la part de l’utilisateur. En deuxième lieu, l’application propose à ses utilisateurs de signaler les événements qu’ils rencontrent lors de leur trajet (embouteillage, accidents, fermetures de voies, présence policière, etc.). Enfin, une communauté d’éditeurs locaux est chargée de l’édition de la cartographie. Au travers d’une interface en ligne proposée par l’entreprise (WazeMap Editor342), des bénévoles enrichissent la base de données géographiques décrivant l’infrastructure routière. Ils tracent l’ensemble des tronçons de voirie, les mettent à jour et y associent des informations (type et nom de la voie, vitesse autorisée, sens de circulation, etc.).

La combinaison de ces trois sources de données offre à Waze une autonomie vis‑à‑vis de producteurs privés ou publics de données. Cela lui offre un double avantage. D’une part, elle n’est pas contrainte de déployer des infrastructures physiques de collecte de données puisque celles‑ci proviennent des téléphones des automobilistes. L’entreprise peut dès lors développer son service sans aucune présence territoriale ni contractualisation préalable avec les acteurs publics17. D’autre part, le crowdsourcing lui offre également une capacité à fournir une représentation unifiée des réseaux routiers qui dépassent les frontières administratives. Les données produites et utilisées par Waze, attachées aux véhicules et non à l’infrastructure, s’affranchissent des territoires institutionnels. Le service de Waze se veut sans frontières : présent dans plusieurs dizaines de pays, il s’appuie sur une description homogène des réseaux routiers quels que soient les territoires ou les domanialités de réseau. En cela, Waze unifie la réalité, sans tenir compte des spécificités locales, projet qui a longtemps été la raison d’être de l’État18.

Si elles tendent à maîtriser la chaîne de production de leurs données, tant Waze que Google restent dépendantes de certaines données publiques détenues par les autorités locales. Pour améliorer son service, Waze a besoin d’informations relatives aux fermetures planifiées de voirie qu’elle peine à collecter par ailleurs.

Les données produites et utilisées par Waze, attachées aux véhicules et non à l’infrastructure, s’affranchissent des territoires institutionnels.

Les villes ont tout un tas de données que l’on n’a pas : la planification des travaux, des événements, de visites, etc. Toutes ces données sont absolument critiques pour le bon fonctionnement de l’application. Et ça, c’est pas des données que l’on a. En tout cas, c’est pas des données que l’on a en avance. C’est des données que les utilisateurs peuvent déclarer à l’instant t, une fois que le bouchon est créé, mais pas en avance […] C’est une information critique qui nous manque19.

De même, les transports en commun sont un secteur sur lequel Google est aujourd’hui dépendant des données des opérateurs publics, puisqu’elle ne peut obtenir autrement les informations sur les horaires. Google pourrait utiliser les données mises à disposition en opendata, pourtant, elle ne le fait pas systématiquement. Si les données de la RATP sont intégrées au service Google Transit, ce n’est pas le cas de Rennes, Lyon, Toulouse ou Nantes par exemple. Cette absence d’utilisation des données en opendata interpelle, alors que Google est un acteur incontournable dans le discours des producteurs et suscite de nombreuses craintes.

De fait, Waze et Google n’ont recours que marginalement aux données ouvertes par les autorités locales. D’une part, l’hétérogénéité de ces dernières rend très longue et coûteuse leur intégration dans un système d’information standardisée à l’échelle internationale comme en témoigne le responsable technique de Waze : « Technically the hardest thing was that each municipality had a different level of knowledge. They give us the data in different ways. One is XML.One is KML. Another city would give us information by email. The Israeli police gave us data by fax. It was hard to beas flexible as possible in order to b eable to digest all of this information and to upload it to the users20  ».

Si le travail de nettoyage et d’intégration est possible ponctuellement et pour quelques villes, il devient vite considérable et difficilement industrialisable. D’autre part, la bonne intégration de ces informations dans leurs services requiert une connaissance des territoires dont ces entreprises, qui n’ont pas d’implantation territoriale fine, ne disposent pas. La vérification de la qualité des données nécessite une expertise minimale du réseau de transport et de ses spécificités pour s’assurer que les informations proposées à l’utilisateur sont cohérentes. « Nous, on n’est pas capable de dire si l’arrêt de bus se trouve de tel côté de la place, ou de l’autre21. » Pour preuve, en 2012, Google avait intégré directement les données proposées par la RATP en opendata. Mais le service de calcul d’itinéraires était de mauvaise qualité : seuls les métros et les RER étaient disponibles, les tramways et les bus étaient absents du service, qui ne prenait pas en compte les perturbations du réseau22. Pour y remédier, depuis le championnat d’Europe de football de 2016, Google fait désormais appel à un prestataire français, très bon connaisseur des spécificités du système de transport parisien, afin d’intégrer les données.

Pour éviter ces frais de standardisation, de nettoyage et d’intégration, les plateformes de l’économie numérique privilégient la mise en place de « partenariats » avec les producteurs locaux de données et leur imposent leurs conditions d’accès aux données publiques. Waze a lancé en 2014 le Connected Citizens Program, un programme d’échange de données avec des acteurs publics. L’entreprise propose de fournir gratuitement des données anonymisées et agrégées sur les conditions de circulation en temps réel et les incidents signalés par les utilisateurs ; en échange, les pouvoirs publics transmettent des informations sur les fermetures de voies et les événements impactant la circulation. De son côté, Google propose depuis plusieurs années aux opérateurs de transport un partenariat visant à intégrer les informations relatives à leurs réseaux dans Google Transit.

Dans les deux cas, les entreprises ont développé des formats techniques et des contrats juridiques standardisés à l’échelle internationale et proposent des interfaces en ligne de vérification et d’intégration de leurs données. Google a créé le General Transit Feed Specification (GTFS) pour les informations de transport en commun, tandis que Waze a élaboré le Closure and Incident Feed Specifications (CIFS), pour les fermetures de voirie. Elles proposent également des contrats génériques, non négociables, en anglais, de partenariats avec les fournisseurs de données qui indiquent les droits et obligations de chacun. Enfin, Google et Waze donnent accès à des interfaces qui permettent de visualiser les données et de vérifier les incohérences. « C’est vraiment un outil que l’on met à la disposition des collectivités. C’est pour ça que l’on préfère un partenariat. Ça permet d’améliorer la qualité des informations que l’on diffuse, puisqu’il y a une vérification par les acteurs locaux. Ça nous permet également d’assurer une certaine stabilité de la fourniture du service dans le temps. Par exemple, si la ville de Besançon publie ses données, mais, du jour au lendemain, change l’URL de son service, nous, on ne le verra pas forcément. Si la collectivité met à jour l’URL, ça permet d’éviter des problèmes de mise à jour, et comme ça, nous on n’indique pas des infos foireuses. C’est pourquoi on préfère faire des collaborations avec les collectivités. C’est comme cela que l’on procède partout dans le monde, on ne vient pas utiliser directement les données en opendata23 ».

Ainsi, contrairement à l’open data qui est perçu comme « plus complexe et moins engageant », Google souhaite ajouter des médiations supplémentaires pour « cadrer la relation » entre les producteurs de données et l’entreprise réutilisatrice. Surtout, par le biais de ces partenariats, Google réussit à faire reposer le travail de nettoyage, d’actualisation et d’intégration de ses données dans son service sur les autorités locales24. Ces dernières doivent en effet prendre à leur charge les coûts humains de formatage des données en GTFS, d’intégration, de vérification de la qualité et de mise à jour régulière des données. Le site Internet présentant les partenariats est particulièrement clair sur la responsabilité qui incombe aux producteurs de données.

Il est essentiel de fournir un flux de données d’excellente qualité. Google a créé un certain nombre d’outils opensource afin d’aider les réseaux à vérifier la qualité de leurs flux de données. Ainsi, les modalités des partenariats proposés par ces plateformes visent non seulement à industrialiser l’usage de données publiques en standardi‑ sant l’appariement entre offres et demandes, mais également à tirer profit de l’expertise locale des producteurs. Tout usage de données requiert une connaissance des spécificités propres à chaque territoire afin de s’assurer que les résultats algorithmiques ne sont pas aberrants pour l’utilisateur. Par ces partenariats, il s’agit d’éviter que le fonctionnement procédural des algorithmes se heurte au caractère substantiel des territoires et de leurs particularités25.

« Peut‑on ne pas être sur Google ? » : un rapport de force défavorable aux pouvoirs publics

Cette logique de partenariat imposée par les plateformes illustre le rapport de force défavorable entre les acteurs publics et ces nouveaux intermédiaires. Les entreprises de l’économie numérique s’appuient sur leur grand nombre d’utilisateurs pour contraindre les collectivités à accepter leurs conditions de partenariats et faire reposer la charge de travail sur les producteurs de données. Au sein de la métropole de Lyon, le débat vis‑à‑vis de ces partenariats s’est posé en ces termes : « On ne sait pas comment faire vis‑à‑vis d’eux, est‑ce que l’on doit leur donner nos données et accepter leurs conditions ? Pour l’instant on résiste, mais est‑ce qu’on pourra le faire longtemps ? Peut‑on aujourd’hui ne pas être sur Google Maps ? En termes de visibilité de notre offre de transport, à l’international notamment, et de services pour nos usagers, on doit y être26. » Les plateformes mobilisent ainsi leurs utilisateurs comme une force politique pour peser indirectement dans les négociations avec les autorités locales et imposer leurs conditions d’accès aux données.

Les plateformes mobilisent ainsi leurs utilisateurs comme une force politique pour peser indirectement dans les négociations avec les autorités locales et imposer leurs conditions d’accès aux données.

Au sein des collectivités, le sujet de la relation à adopter vis‑à‑vis des plateformes numériques est l’objet de discussions vigoureuses. Le partenariat avec Waze a suscité de vifs débats et a été l’objet de combats politiques au sein de la métropole. « C’est compliqué, parce que politiquement, ça peut être le meilleur comme le pire. Le meilleur parce que ça améliore le service à l’usager et qu’ils s’appuient sur nos informations de trafic. Le pire parce qu’ils ont des effets délétères sur les reports de trafic et qu’on risque de perdre le contrôle […] On ne sait donc pas bien où ça va mener parce que l’exécutif reste divisé sur le sujet : des adjoints sont pour, d’autres s’y opposent fermement27 ». Le Grand Lyon souhaitait profiter de cette proposition de partenariat pour infléchir la position de l’entreprise quant à l’évolution de ses algorithmes pour qu’ils prennent en compte les orientations de sa politique de mobilité. Face au refus ferme de l’entreprise, la collectivité a longtemps décliné le partenariat. Pourtant, quelques mois plus tard, alors que d’importants travaux sont réalisés, perturbant le trafic au cœur de l’agglomération, la métropole décide de signer le partenariat et d’accepter les conditions de l’entreprise. « L’augmentation du nombre d’utilisateurs de cette application devenue incontournable […] et des perspectives d’innovation et d’amélioration du service pour les usagers conduisent aujourd’hui à réviser la position de la Métropole dans le sens d’une participation à ce partenariat et d’en faire une opportunité […] Les données de la Métropole, notamment les chantiers prévisionnels, permettraient à Waze d’améliorer ses services et ainsi de ne pas orienter des flux de véhicules dans les secteurs concernés […] L’intérêt premier pour la Métropole de cette participation réside dans la perspective d’améliorer la sécurité et l’information des voyageurs28 ». Les perturbations liées à ces longs chantiers dans l’agglomération, mais surtout la place acquise par l’application dans la régulation routière du fait de son nombre toujours croissant d’utilisateurs ont conduit le Grand Lyon à revoir sa position. « Pourquoi les élus ont bougé ? Parce qu’on leur a dit qu’aujourd’hui, ça s’imposait à nous. Il vaut mieux en être plutôt que de les laisser prendre le contrôle29». La prise en compte par Waze de leurs informations est perçue comme un prolongement bénéfique de leur politique de régulation routière. Pour les pouvoirs publics, la réutilisation de leurs données est vue comme un moyen de conserver une partie de la maîtrise de leur politique publique en s’assurant que ces services se basent sur des informations officielles et fiabilisées.

Toutefois, si ces partenariats rencontrent un relatif succès dans le monde, les pouvoirs publics locaux français sont encore très peu à s’y soumettre. Plus de 7 000 opérateurs de transport dans le monde transmettent leurs données à Google. En France, ils ne sont que 64 (sur plusieurs centaines), dont plus d’un tiers transmettent uniquement le plan du réseau et non les horaires qui permettent le calcul d’itinéraire. Dans le cas de Waze, la situation est similaire. Alors que la France est le troisième marché mondial de l’entreprise, seule une trentaine d’autorités publiques locales ont signé le partenariat d’échange de données (contre plus de 900 partenaires dans 50 pays). Ces partenariats sont ainsi difficiles à mettre en place en France comme me le révèle un responsable de Waze : « C’est assez galère […] On a beaucoup de mal avec la France, parce qu’ils demandent toujours des trucs spécifiques, ils ne vont pas signer des contrats en anglais, y a des lois, y a des machins et on a beaucoup de mal à avancer […] Je crois qu’il y a vraiment un enjeu de compréhension, d’échange. On a rencontré une grande ville française il y a deux semaines, y avait une incompréhension totale30. » Cet extrait souligne les difficultés d’échange entre deux mondes sociaux éloignés l’un de l’autre, les acteurs publics d’une part et les salariés des plateformes d’autre part.

Alors que les premiers ont l’habitude des négociations avec les entreprises pour adapter leur offre au contexte local et construire une « action publique négociée31 », les seconds souhaitent établir ces partenariats sans contrôle de leurs activités ni transformation de leur service. Surtout, en quête de rendements croissants, leur enjeu est de multiplier ces partenariats en réduisant au maximum leurs interactions avec les acteurs locaux. « Mon enjeu c’est scale. On ne peut pas faire du one‑to‑one, il faut que l’on fasse du one‑to‑many. C’est plus possible. Je ne peux passer une demi‑journée avec Cannes, je ne peux pas passer une après‑midi à Marseille, même si c’est Marseille, c’est impossible32. » De fait, les ressources humaines que Waze consacre au développement de ces partenariats sont très limitées. Le bureau français de l’entreprise est composé exclusivement de personnes au profil commercial, chargées de vendre des espaces publicitaires à des annonceurs, très éloignées des problématiques urbaines. « Il y a une personne sur la zone EMEA [Europe, Middle East & Africa] qui est en charge des CCP, mais il est Israélien et basé en Israël. Il ne parle qu’anglais, et fait des rendez‑vous par visioconférence. Donc, c’est moyen pour les collectivités françaises en termes de relations33 » Cette faible ressource accordée par l’entreprise au développement de ces partenariats illustre la profonde différence entre ces plateformes de l’économie numérique et les firmes urbaines traditionnelles dans leur relation aux acteurs publics locaux. Alors que les dernières, attentives aux enjeux des territoires, s’attachent à construire des relations personnali‑ sées et pérennes avec l’administration et les élus territoriaux, la logique de croissance rapide des plateformes les conduit à considérer les acteurs publics comme d’autres usagers de la plateforme auxquels on propose une offre de services standardisée en libre‑service.

Les exemples de Google et de Waze mettent en évidence une autre modalité de coordination entre acteurs publics et privés qui se joue au travers de la mise en circulation des données publiques. Ces entreprises de l’économie numérique appliquent dans leurs relations aux collectivités les principes de rationalisation et de standardisation, caractéristiques du fonctionnement des marchés de consommation de masse. Afin d’intégrer dans leurs services, à un coût réduit, les données, très hétérogènes, provenant d’une multitude d’acteurs locaux, elles n’ont d’autres choix que de rationaliser et standardiser le produit échangé (les données), mais également toutes les opérations accompagnant cet échange. La standardisation de la donnée garantit que celle‑ci corresponde à un certain nombre de caractéristiques qui facilitent son utilisation sans friction dans le système d’information de l’entreprise. D’autre part, la standardisation des opérations d’appariement au travers d’un contrat unique, signé à distance, et d’une interface et d’outils en ligne de nettoyage et de transfert des données assure une réduction au strict minimum de la relation entre les plateformes et les collectivités locales. L’alignement de toutes ces opérations sur un même modèle permet aux plateformes d’industrialiser l’usage de données publiques provenant de multiples sources.

Le réattachement des données à de nouveaux utilisateurs pose la question de l’appariement entre offre et demande de données. Loin d’aller de soi, cette rencontre est fragile et repose sur de nombreuses médiations qui facilitent l’attachement de la donnée à un nouvel environnement informationnel. L’analyse des modalités de la rencontre entre offres et demandes de données fait émerger une tension entre la singularisation et la standardisation des données ouvertes. Les données sont des biens singuliers, qu’il est nécessaire de qualifier par le biais d’un ensemble de dispositifs, afin de réduire l’incertitude sur leur qualité et assurer leur usage au sein d’un nouvel environnement informationnel. À la suite de ces opérations de qualification, la donnée devient un objet‑frontière circulant entre deux mondes sociaux : elle reste attachée aux producteurs tout en étant réattachée à de nouveaux utilisateurs. Cette singularité peut toutefois constituer une limite à la réutilisation. Les attachements initiaux des données sont trop solides et empêchent un usage alternatif sans trahir la donnée initiale. Les derniers cas présentés mettent en avant comment les plateformes entendent dépasser les singularités des données publiques en imposant leurs modalités standardisées d’accès aux données. En cela, elles parviennent à industrialiser la réutilisation des données territoriales sans passer par le marché des données ouvertes.

Ne pouvant s’appuyer sur les données ouvertes, les entreprises développent leurs propres représentations du territoire à partir desquelles vont reposer leurs services numériques.

Au travers de ces trois politiques des données ouvertes, la place et le rôle de l’institution publique sont interrogés, tout comme sa capacité à gouverner son territoire par la mise en circulation des données. Devenue objet‑frontière, la donnée renforce le pouvoir sémantique de la collectivité. La mise en circulation des données renforce sa capacité à coordonner des acteurs autour d’une représentation partagée du territoire. À l’inverse, les situations de déliquescence illustrent la perte de la maîtrise de représentation de leurs territoires par les acteurs publics. Ne pouvant s’appuyer sur les données ouvertes, les entreprises développent leurs propres représentations du territoire à partir desquelles vont reposer leurs services numériques. Ces situations questionnent le rôle que doit jouer l’acteur public : doit‑il produire des données pour ses politiques publiques ou pour des acteurs externes ? Doit‑il rester dans une politique de l’offre ou s’adapter à la demande de données pour préserver son pouvoir sémantique ?

Enfin, les rapports de pouvoir défavorables à l’institution publique peuvent la conduire à accepter des formes alternatives de diffusion de ses données. Celles‑ci peuvent tout à la fois être interprétées comme une diminution ou un renforcement du pouvoir sémantique des autorités publiques à dire ce qui est. Même si l’information leur est fournie par un autre canal, elles conservent en effet la maîtrise de l’information transmise aux usagers. Les autorités publiques restent la source d’informations légitime à partir de laquelle vont se coordonner les usagers. Pour les pouvoirs publics, la réutilisation de leurs données est perçue comme un moyen de conserver une part de la maîtrise de leur politique publique en s’assurant que ces services se basent sur des informations officielles et fiabilisées. Ces partenariats soulignent le redéploiement des autorités publiques dans certains territoires. Celles‑ci effectuent un gouvernement indirect par l’intermédiaire de la mise en circulation de leurs données, ce qui conduit à une « décharge34 » des collectivités locales vers ces plateformes. Pour les autorités publiques, ce partenariat renforce leur pouvoir d’instituer ce qu’est la réalité en s’assurant de faire réalité commune avec les nouvelles représentations offertes par le bigdata.

Sources :

1 : Here Maps est l’héritière de la société américaine Navteq. Fondée en 1985, Navteq a été achetée en 2007 par l’entreprise Nokia. Cette dernière a revendu à l’été 2015 cette activité cartographique à un consortium de constructeurs automobiles allemands (Audi, BMW et Daimler) pour un montant de 2,8 milliards d’euros. Ses cartographies, qui couvrent près de 190 pays, sont vendues à de nombreux constructeurs es entreprises numériques (Amazon, Bing, Yahoo!, etc.).

2 : Face à cette situation, le Grand Lyon se trouve réduit à agir sur l’infrastructure, en réclamant à l’État le déclassement de la voie, afin de pouvoir réduire drastiquement la vitesse de circulation et installer des feux de circulation, ce qui contribuerait à modifier substantiellement les calculs d’itinéraires. https://www.rue89lyon.fr/2016/04/01/autoroute-a6-a7-quand-gerard-collomb-voulait-convaincre-les-gps-dignorer-fourviere/ (consulté le 26/11/20).

3 : En Île‑de‑France, l’entreprise estime que près de 70% des automobilistes sont utilisateurs de l’application.

4 : Antoine Courmont, 2018, « Plateforme, big data et recomposition du gouver‑ nement urbain. Les effets de Waze sur les politiques de régulation du trafic », Revue française de sociologie, vol. 59, n° 3, p. 423‑449.

5 : Éric Le Breton, 2017, « L’espace social des mobilités périurbaines », SociologieS. https://journals.openedition.org/sociologies/5917 (consulté le 26/11/20).

6 : Entretien avec Claudia, responsable des partenariats, Waze, juillet 2017.

7 : Entretien avec les responsables du PC Circulation, Lyon, mai 2017.

8 : Dominique Cardon, 2018, « Le pouvoir des algorithmes », Pouvoirs, vol. 164, n° 1, p. 63‑73.

9 : Noam Bardim, 2018, « Keeping cities moving. How Waze works ? », 12 avril 2018. https://medium.com/@noambardin/keeping‑cities‑moving‑how‑waze‑works‑4aad0 66c7bfa (consulté le 26/11/20).

10 : Interview d’Atilla Baskurt et Jean‑François Boulicaut (30 novembre 2012). https://www.millenaire3.com/Interview/2012/liris‑le‑marche‑des‑donnees (consulté le 26/11/20)

11 : L’US Census Bureau aux États‑Unis, l’IGN en France par exemple. La liste des sources de données de Google Maps est disponible à cette adresse : http://www.google. com/intl/fr/help/legalnotices_maps.html (consulté le 26/11/20).

12 : Google achète des bases de données géographiques auprès de l’entreprise TomTom.

13 : Ces algorithmes permettent de détecter et d’interpréter les panneaux de signa‑ lisation routière, les noms et numéros de rue et certains points d’intérêts (enseignes commerciales, etc.).

14 : https://www.businessinsider.fr/us/to‑do‑what‑google‑does‑in‑maps‑apple‑would‑ have‑to‑hire‑7000‑people‑2012‑6 (consulté le 26/11/20).

15 : http://googleblog.blogspot.fr/2009/08/bright‑side‑of‑sitting‑in‑traffic.html (consulté le 26/11/20).

16 : Waze trouve son origine dans le projet de cartographie communautaire « Free‑ MapIsrael », qui visait à produire une base de données cartographique d’Israël à partir d’informations issues des terminaux mobiles des utilisateurs, qui étaient ensuite certi‑ fiées et nommées.

17 : https://www.waze.com/fr/editor (consulté le 26/11/20).

18 : Cette indépendance est renforcée par le modèle économique de l’entreprise. Gratuite pour ses utilisateurs, l’application est financée par la publicité.

19 : Entretien avec Simon, responsable des partenariats, Waze France (31 mai 2017)

20 : Mitchell Weiss et Alissa Davies, 2017, « Waze Connected Citizens Program », Harvard Business School Case 817‑035.

21 : Entretien téléphonique avec Francesca, cheffe de produit, Google (9 février 2015).

22 : Les informations lacunaires rendent le service peu efficace comme le souligne ce billet de blog. Yann Le Tilly, « Google Transit à Paris : pour les cowboys uniquement ! » (28 novembre 2012). https://transid.blogspot.com/2012/11/google‑transit‑paris‑pour‑ les‑cowboys.html (consulté le 26/11/20).

23 : Entretien téléphonique avec Hugues, directeur des politiques publiques, Google (11 février 2015).

24 : La liste des villes présentes sur Google Transit est disponible à cette adresse : http://maps.google.com/landing/transit/cities/index.html (consulté le 26/11/20).

25 : Dominique Cardon et Maxime Crépel, 2019, « Les algorithmes et la régulation des territoires » dans Antoine Courmont et Patrick Le Galès (dir.), Gouverner la ville numérique, Paris, PUF, p. 83‑101.

26 : Journal de terrain, discussion avec Léa, juin 2015.

27 : Entretien avec Guillaume, service de la mobilité urbaine, Grand Lyon (5 mai 2018).

28 : Décision n° CP‑2019‑2915 (commission permanente du 4 mars 2019).

29 : Échange avec François, services informatiques, Grand Lyon (5 mai 2018).

30 : Entretien avec Simon, responsable des partenariats, Waze France (31 mai 2017).

31 : Maxime Huré, 2012, « Une action publique hybride ? Retour sur l’institution‑ nalisation d’un partenariat public‑privé, JCDecaux à Lyon (1965‑2005) », Sociologie du travail, vol. 54, n° 2, p. 29.

32 : Entretien avec Simon, responsable des partenariats, Waze France (31 mai 2017).

33 : Échange avec Marine, cheffe de projet, Waze France (mai 2019).

34 : Béatrice Hibou, 1998, « Retrait ou redéploiement de l’État ? », Critique internationale, n° 1, p. 151‑168.

Taxer les GAFA ne sera pas suffisant

https://www.flickr.com/photos/seattlecitycouncil/39074799225/
Jeff Bezos, patron d’Amazon © Seattle City Council

Bruno Le Maire, ministre de l’Économie, lance des promesses intenables sur une future taxation française des GAFA, alors qu’on apprend qu’en 2017, Google aurait déplacé aux Bermudes près de 20 milliards de bénéfices réalisés en Europe et aux États-Unis. Avec Google, Amazon, Facebook et Apple, ces champions d’internet, de la Bourse et de l’optimisation fiscale, on commencerait presque à se lasser de ce genre de scandales. Pourtant, leur récurrence ne peut que nous amener au constat simple de l’incapacité de nos États à intégrer ces géants dans une juste redistribution des richesses. La question doit alors évoluer vers celle de leur contrôle.


« Dans le futur, nos relations bilatérales avec Google seront aussi importantes que celles que nous avons avec la Grèce. » Ces paroles ont été prononcées début 2017 par Anders Samuelsen, ministre des affaires étrangères du Danemark. Elles font suite à l’annonce de la création d’un poste d’ambassadeur numérique auprès des multinationales de la Silicon Valley dans le pays. Et le ministre danois poursuit, « Ces firmes sont devenues un nouveau type de nation et nous avons besoin de nous confronter à cela. »

https://commons.wikimedia.org/wiki/File:Informal_meeting_of_ministers_for_foreign_affairs_(Gymnich)._Arrivals_Anders_Samuelsen_(36685969800)_(cropped).jpg
Anders Samuelsen, Ministry of Foreign Affairs, Denmark © Raul Mee

Ce qui saute aux yeux, c’est d’abord la puissance financière de ces nouvelles « nations », ainsi que la fulgurance de leur ascension. En 2008, notre CAC 40 national était valorisé en bourse à 1600 milliards de dollars ; il pèse, dix ans plus tard, 1880 milliards. Dans le même temps, la valorisation des GAFA est passée de 300 milliards de dollars à près de 3500 milliards. Les deux « A » de cet acronyme (Apple et Amazon) ont tous les deux dépassé la barre symbolique des 1000 milliards. Au-delà de ces chiffres vertigineux, il est nécessaire d’identifier les particularités de ces géants pour sortir de la stupéfaction première, voire de l’émerveillement qu’ils suscitent, pour comprendre les conséquences politiques des changements sociétaux engagés par les GAFA. Car leur croissance économique exponentielle ne saurait cacher l’idéologie qu’ils sous-tendent. Si la face visible de l’iceberg, celle de la réussite financière et du progrès par la technologie, est en effet la plus encensée, nombreuses sont les voix qui alarment sur la face cachée : celle d’un nouveau rapport au travail, à l’information et aux marchés, mais surtout, celle d’un nouveau rapport entre nos représentations démocratiques et ces multinationales.

La question de la taxation de ces acteurs est évidemment essentielle, mais elle ne doit pas éluder celle de leur contrôle. Nous le savons, ces entreprises américaines n’ont que peu d’estime à l’égard des systèmes fiscaux des pays dans lesquels elles travaillent. Google et Apple sont domiciliés en Irlande, Facebook n’a payé que 1,6 millions d’euros d’impôts en France en 2016, Amazon s’arrange avec le Luxembourg, et toutes sont engagées dans un semblant de bras de fer fiscal avec l’UE, sur fond de désaccord franco-allemand. La centralité de cette problématique n’est pas à remettre en cause puisqu’elle montre avant tout l’opportunisme de ces géants, bien contents de profiter d’un marché européen de plus de 500 millions de consommateurs éduqués et en bonne santé, de profiter des infrastructures maritimes et routières, toutes ces choses qu’ils semblent considérer comme gratuites, ou du moins, dont ils ne souhaitent pas aider à l’entretien, à travers l’impôt.

« Imaginez que vous ne puissiez plus voir les vidéos que vous aimez»

Le constat de l’inefficacité des mesures fiscales engagées doit nous permettre de dépasser cette problématique première pour nous concentrer sur celle de la relation qu’entretiennent les GAFA avec nos représentations démocratiques. Ces géants redoublent d’imagination lorsqu’il s’agit d’orienter ces dernières dans le sens de leurs intérêts. « Imaginez que vous ne puissiez plus voir les vidéos que vous aimez» C’est de cette manière que commence la page sobrement intitulé #SaveYourInternet, que Youtube a dédiée à la lutte contre l’Article 13 de la directive sur les droits d’auteur votée par le Parlement européen. Google mobilise directement sa communauté contre cette loi européenne, qu’il considère contraire à ses intérêts. D’une autre manière, le schéma est le même lorsque les GAFA mettent en concurrence les territoires pour faire monter les enchères en termes de cadeaux fiscaux accordés lors de leurs implantations. Ils se jouent de nos juridictions dont ils exploitent les moindres failles, grâce à des armées d’avocats d’affaires sur-rémunérés, contre des systèmes juridiques et fiscaux obsolètes.

Comment donc ne pas faire le constat de l’inefficacité de la quasi-totalité des forces mobilisées pour recadrer ces puissances grandissantes ? Les sermons du congrès américain lors de l’audition de Mark Zuckerberg sont loin d’avoir ébranlé la puissance de Facebook. Tout juste ont-ils ralenti la croissance de son action en bourse.

L’HYDRE DES GAFA

Le constat premier est celui d’une stratégie monopolistique et dominatrice. La stratégie des GAFA est bien souvent complexe sur certains aspects spécifiques, mais semble globalement simple : capturer le marché, et s’étendre.

https://www.flickr.com/photos/art_inthecity/21234198928
Mèches noires (Grand vent) 2015 © Laurent Gagnon

Amazon, connu pour sa plate-forme de vente en ligne, fait bien plus de bénéfices grâce à AWS, son service d’hébergement de données. Il investit massivement dans la production de contenus audiovisuels, dans la grande distribution alimentaire, dans les assurances santé américaines. Facebook est en première ligne de l’innovation sur l’intelligence artificielle, la reconnaissance faciale et la publicité. Google domine le marché des OS smartphone avec Android, développe la voiture autonome, investit massivement dans le cloud…

La diversification, permise par une accumulation de capitaux sans précédent, construit leur puissance économique et leur mainmise sur un vaste ensemble de marchés. Parallèlement, cette diversification permet la consolidation de leur position dominante sur leur marché d’origine respectif. Google favorise ses propres innovations en les mettant en avant sur son moteur de recherche, utilisé par 90% des internautes. Amazon n’hésite pas à utiliser massivement la vente à perte par ses capacités techniques et financières pour réduire la concurrence, comme il l’a fait en 2009 avec Zappos. Ce très rentable marchand de chaussures en ligne avait doublé ses ventes entre 2004 et 2007 et refusait une offre de rachat d’Amazon. Quelques mois plus tard, Amazon lança un site concurrent (Endless.com), qui vend des chaussures à perte et livre gratuitement sous 24 heures. Zappos dû s’aligner sur son nouveau concurrent pour ne pas perdre ses parts de marché et a commencé à livrer aussi rapidement. Mais il perdait alors de l’argent sur chaque paire vendue. Amazon perdit plus de 150 millions de dollars dans cette affaire mais finit par gagner en 2009. Le conseil d’administration de Zappos accepte de vendre.

La réussite des GAFA, et sa consécration par les marchés financiers, permet le développement de mastodontes, qui s’infiltrent progressivement dans tous les secteurs de l’économie. Toutes ces tentacules numériques deviennent très concrètes lorsque, par exemple, Facebook s’associe avec Microsoft pour investir massivement dans les câbles sous-marins qui transportent des données à travers l’Océan. Loin d’être cantonnés au monde immatériel de l’internet, les GAFA s’arment pour s’implanter et se développer partout. Avec un objectif évident de rentabilité, mais aussi avec cette vision claire d’expansion et cette représentation d’eux-mêmes comme marqueurs de l’Histoire.

L’IDÉOLOGIE LIBERTARIENNE

« Nous sommes si inventifs que, quelque soit la réglementation promulguée, cela ne nous empêchera pas de servir nos clients », affirme Jeff Bezos, PDG fondateur d’Amazon. C’est avec M. Bezos que « l’idéologie GAFA » est la plus claire. Rien, même pas une quelconque législation démocratiquement imposée, ne pourra faire plier son entreprise. L’homme le plus riche du monde se revendique volontiers adepte de certaines idées libertariennes. Le développement de la liberté comme principe fondamental, le refus de toute forme de violence légale ou d’expropriation, le respect le plus total des volontés individuelles. Toutes ces idées qui impliquent le recul, l’adaptation, voire la disparition pour certains, du principale obstructeur de liberté : l’État.

“Les GAFA sont de petits voyous devenus grands. Dès qu’ils en ont l’occasion, ils s’affranchissent de l’impôt, contournent les règles et écrasent leurs concurrents dans le mépris le plus total des règles commerciales.”

Si la promulgation de cette idéologie est moins nettement affichée chez les autres GAFA, le dénominateur commun de ces entités reste celui du bras de fer constant avec les autorités publiques. Les GAFA sont de petits voyous devenus grands. Dès qu’ils en ont l’occasion, ils s’affranchissent de l’impôt, contournent les règles et écrasent leurs concurrents dans le mépris le plus total des règles commerciales. Leur existence même dépend de leurs capacités à optimiser. Les barrières imposées par telle ou telle juridiction ne sont que des obstacles temporaires sur le chemin de leur hégémonie. Tel est le danger et la nouveauté de cette situation. Au moment de la libéralisation du secteur financier, les banques privées ont imposé progressivement leur influence sur le fonctionnement des marchés financiers. Notamment sur la fixation des taux, au détriment des Banques Centrales qui ont, par la même occasion, perdu progressivement leur rôle de régulateur. De la même manière, les GAFA, qui ont profité de l’absence de régulations dans le monde en ligne originel, savourent le recul du rôle régulateur des seules entités capables de les contrôler : les États. Ils souhaitent s’imposer sur leur marché d’origine, e-commerce, réseau social, moteur de recherche ou informatique, pour y dicter leurs règles. Mais en développant leurs tentacules dans tous les secteurs de l’économie, ils augmentent du même coup leur capacité à dicter les règles du jeu bien plus largement.

Amazon n’a pas pour but de devenir un acteur du marché du e-commerce, il souhaite incarner ce marché. Au vu de la concurrence, notamment en provenance de la Chine, il n’est pas évident que cette stratégie fonctionne, pourtant tous les mécanismes sont étudiés en ce sens par la marque au sourire. Fidéliser le consommateur et l’enfermer dans un écosystème commercial à travers ses dispositifs phares comme Alexa, son assistante vocale présente dans de plus en plus de dispositifs (enceintes, voitures ou box internet ; il n’a jamais été aussi facile de consommer sur internet). Ou Prime, son cercle de clients les plus fidèles… et les plus coûteux puisqu’une étude a démontré que le coût réel d’un abonnement Prime (au vu de tous les services proposés) serait de près de 800 dollars.

http://www.syndicat-librairie.fr/images/documents/ilsr_amazonreport_def_fr_bd.pdf
Amazon, cette inexorable machine de guerre qui étrangle la concurrence, dégrade le travail et menace nos centres-villes © ILSR

Mais qu’importe, perdre de l’argent n’est pas un problème pour Amazon dont l’objectif n’est pas la rentabilité de court terme. Devenir le marché, voilà l’objectif. Pour cela il faut d’abord éliminer tous les concurrents, en passant donc par un enfermement des consommateurs et une pressurisation des prix. Et tant pis si les intérimaires se tuent à la tâche dans les entrepôts du monde entier. En imaginant Amazon réussir à s’imposer réellement sur le marché du e-commerce, certains voient déjà son influence comme celui d’une nouvelle forme de régulateur de ce marché. Les commentaires et avis seraient une forme de contrôle qualité ; pourquoi s’encombrer de règles sanitaires européennes ? Les comptes vendeurs sur la Marketplace seraient une forme de registraire commerciale ; pourquoi s’encombrer de l’INSEE ou de numéro SIRET ? Les commissions du groupe seraient finalement une nouvelle sorte d’impôts sur la consommation, lorsque les services de stockage de données qu’elle facture aux entreprises seraient un impôt sur les sociétés. Pourquoi continuer de faire confiance à un État si Amazon, cette belle entreprise philanthrope qui construit des forêts artificielles et veut explorer l’espace, peut nous en libérer ? Un système d’assurance-santé est même en cours d’expérimentation aux États-Unis. Sur sa Marketplace régneront bien les règles concurrentielles du libéralisme, mais pas pour Amazon qui, à l’image d’un État, se verrait volontiers chapeauter la situation, depuis sa position d’intermédiaire global.

“les comportements de l’ensemble des GAFA nous rapprochent chaque jour un peu plus d’un monde où les citoyens n’auraient plus la légitimité de réguler la manière dont leur économie fonctionne.”

Évidemment cette perspective est pour le moment loin de la réalité, mais il est important de noter que M. Bezos aurait bien du mal à désapprouver cette vision d’avenir. Et que les comportements de l’ensemble des GAFA nous rapprochent chaque jour un peu plus d’un monde où les citoyens n’auraient plus la légitimité de réguler la manière dont leur économie fonctionne. À l’inverse, ce serait ces nouvelles entités supra-étatique qui détermineraient, directement ou non, nos manières de consommer. Le plus terrifiant réside dans le fait que ce basculement est de plus en plus imaginable à mesure de la montée d’une forme de défiance envers les États, que leur rôle historique de régulateurs est attaqué par l’idéologie libérale et que l’image altruiste des GAFA se développe.

FACE À UNE ASYMÉTRIE DES POUVOIRS

L’idée n’est pas celle d’une grande conspiration mondiale des GAFA, qui auraient prévu depuis des années de contrôler le monde, mais bien celle d’un basculement progressif des pouvoirs. Ce n’est pas non plus celle d’une disparition des États, mais plutôt celle d’un renversement hiérarchique partiel entre multinationales, devenues par endroit capables de dicter leurs lois à des représentations démocratiques souveraines, et autorités publiques en recherche aveugle de croissance et d’emplois.

Lorsque M. Macron reçoit Mark Zuckerberg, les deux hommes parlent à l’unisson d’un “nouveau schéma de régulation” pour le plus grand réseau social du monde. Tout cela semble en bonne voie puisque de l’avis de Nick Clegg, vice-président des affaires globales de Facebook, c’est de régulation dont son entreprise a besoin ! « Nous croyons qu’avec l’importance croissante prise par Internet dans la vie des gens, il y aura besoin d’une régulation. La meilleure façon de s’assurer qu’une régulation soit intelligente et efficace pour les gens est d’amener les gouvernements, les régulateurs et les entreprises à travailler ensemble, en apprenant les uns des autres et en explorant de nouvelles idées. Nous sommes reconnaissants envers le gouvernement français pour son leadership dans cette approche de corégulation. » Outre l’idée saugrenue que l’on puisse construire une régulation efficace main dans la main avec le régulé, ne nous méprenons pas : la régulation évoquée ici est celle des utilisateurs et non celle de la plateforme. Les accords passés entre la France et Facebook portent sur la création d’une entité commune de modération des « contenus haineux ». En arguant qu’il est « complexe » de réguler les contenus partagés par plus de 2 milliards de personnes, Facebook, en plus d’éviter l’impôt national, « sous-traitera » donc en partie cette régulation à un groupe qui sera payé directement par les deniers publics. Cette question reste complexe et pose d’autres problèmes, notamment celui de la manière dont Facebook modère ses contenus. Il n’en reste pas moins qu’ici, le groupe américain, sous couvert de co-construction responsable, parvient à imposer la gestion des dommages collatéraux de sa plateforme à la collectivité.

Les GAFA jouent du pouvoir que leur confère leur gigantisme, parfois de manière moins subtile. Lorsqu’en 2014 l’Espagne tente d’imposer à Google une rétribution pour les auteurs d’articles de presse que son service « News » reproduit et diffuse, le géant décide tout simplement de suspendre Google News dans le pays. Fort de la centralité de sa plateforme et de l’obligation d’être référencé sur Google pour exister sur internet, il menace aujourd’hui de faire de même à l’échelle européenne. Dans le combat (déjà évoqué précédemment) que mène l’entreprise américaine contre la loi européenne sur les droits d’auteur, l’argument du retrait pur et simple est de vigueur pour faire plier l’UE. Si le lobbying n’est évidemment pas chose nouvelle, cette confrontation directe et assumée avec les représentations démocratiques nous renseigne sur la manière dont les GAFA voient leur place dans la société. Ce ne sont plus de simples entreprises, mais bien de « nouvelles formes de nations » comme le disait Samuelsen. Des nations d’actionnaires avec pour seul but l’expansion et la rentabilité.

Que penser alors du manque de contrôle, voire de la soumission, de nos démocraties face à ces entités ? Le dernier exemple sera à nouveau celui d’Amazon. L’affaire “HQ2” démontre avec brio l’absurdité de la situation dans laquelle nous conduit l’absence de régulation des GAFA. Fin 2017, le géant du commerce en ligne annonce sa volonté d’ouvrir un second siège social nord-américain, un « Headquarter 2 », sans préciser la localisation de ce projet. À travers une forme « d’appel d’offres », l’entreprise propose très officiellement aux villes et territoires de « candidater » pour l’obtention de cet investissement faramineux de plus de 5 milliards de dollars. Subventions et aides publiques sont expressément demandées dans ce court document. Amazon profitera de la mise en concurrence territoriale engendrée pour faire monter les enchères, jusqu’à des propositions incroyables comme celle de Stonecrest, petite ville américaine proche d’Atlanta, qui souhaitait donner un vaste terrain à l’entreprise, et créer une nouvelle ville nommée « Amazon City » dont Jeff Bezos serait Maire à vie. D’autres propositions plus sérieuses des 200 villes candidates sont tout aussi inquiétantes, du remodelage urbain autour d’Amazon à la promesse d’un crédit d’impôt de plus de 8 milliards de dollars par le Maryland.

https://www.flickr.com/photos/scobleizer/2265816229/in/photostream/
Amazon’s front door © Robert Scoble

Le fin mot de l’histoire surprendra les commentateurs. Amazon a choisi de diviser son investissement et de créer non pas un, mais deux nouveaux sièges sociaux. L’un à Long Island à New York et l’autre à Arlington en Virginie, pour un total de 5,5 milliards de dollars cumulés en subventions et avantages fiscaux. Si la recherche d’incitations financières n’est pas nouvelle, particulièrement aux États-Unis, elle est particulièrement indécente lorsqu’elle est ainsi massivement utilisée par une entreprise redoublant par ailleurs d’imagination pour éviter l’impôt.

“Les contribuables américains financent directement la construction de bureaux flambants neufs dans lesquels des centaines d’experts marketing redoubleront d’imagination pour cloisonner les consommateurs dans l’offre Amazon.”

Mais plus que cela, cette affaire démontre à nouveau la forme de retournement des pouvoirs dont profitent les GAFA. Les pouvoirs publics, avides de croissance et d’emplois se soumettent aux exigences de ces nouveaux géants qui, soutenus par les marchés financiers, sont source d’un dynamisme économique certain. Mais que cache ce dynamisme ? Souhaitons nous réellement participer à la construction de ces géants tentaculaires qui semblent chaque jour plus aptes à imposer leurs idéaux à nos sociétés ? Doit-on aveuglément favoriser la croissance sans questionner ses conséquences politiques ? Avec ces nouveaux Headquarters, les contribuables américains financent directement la construction de bureaux flambants neufs dans lesquels des centaines d’experts marketing redoubleront d’imagination pour cloisonner les consommateurs dans l’offre Amazon ; et des centaines d’experts juridiques feront de même pour positionner l’entreprise là où elle participera le moins à la compensation financière des désastres écologiques dont elle est la cause.

LA CONSTRUCTION D’UNE SITUATION PARTICULIÈRE

Monsanto et McDonald’s influent eux aussi très largement sur nos sociétés, l’un pousse vers l’utilisation intensive de pesticides qui détruisent notre biodiversité, l’autre pousse vers la malbouffe qui détruit nos estomacs. Mais la différence des GAFA se résume en trois points.

D’abord la rapidité de leur expansion qui, loin d’être le fruit du hasard, a été construite par les choix politiques de la libéralisation d’internet. Cette rapidité empêche largement les instances régulatrices de développer les actions nécessaires. La rapidité du développement de Facebook en Birmanie, ou du moins son manque de régulation, a rendu impossible le contrôle des publications haineuses à l’encontre des Rohingya, population opprimée du pays. Jusqu’à ce que l’ONU accuse officiellement le réseau social d’avoir accentué cette crise.

“Les GAFA prennent la place des États qui reculent.”

Ensuite la centralité tentaculaire de ces nouveaux acteurs, qui développent les moyens financiers et techniques de s’imposer sur un ensemble inédit de marchés. Enfin l’orientation idéologique de leur expansion. Les GAFA sont le fruit d’un capitalisme libéralisé et résilient. Ils s’adaptent, se ré-adaptent, contournent et ne se soumettent aux règles qu’en cas d’extrême obligation. Ils se passeraient avec plaisir d’un État outrepassant ses fonctions régaliennes, imposent leurs propres règles à leurs concurrents, aux consommateurs et aux marchés. Et, en profitant d’une période d’idéologie libérale qui prône partout le libre marché, commencent par endroits à prendre la place des États qui reculent.

N’est-il pas temps de réfléchir collectivement à de véritables règles ou instances réglementaires, capables d’encadrer le comportement de ces acteurs, pour ne pas s’enfoncer aveuglément dans l’idéologie libertarienne qu’ils nous proposent ? Car c’est bien de cela dont nous devons nous rendre compte, les GAFA changent le monde socio-économique en y apposant leur vision. Une vision qui, loin d’être démocratiquement construite, s’élabore dans le petit monde fermé de la Silicon Valley. Taxer quelques pourcents de leurs chiffres d’affaires sera alors loin, très loin, d’être suffisant.

Comment Internet est devenu un espace politique en dispute

https://www.maxpixel.net/Network-Digital-Internet-Data-Technology-Matrix-3407252
Network Digital Internet Data Technology Matrix

Durant cette dernière seconde, alors que vous avez à peine terminé la première ligne de cet article, 8174 tweets et 8500 commentaires sur Facebook ont déjà été postés, 69 191 recherches sur Google et 3 333 appels sur Skype ont déjà été réalisés, 75 304 vidéos sur YouTube ont été visionnées et 2 723 944 e-mails ont été envoyés. Voilà le cadre de l’Internet d’aujourd’hui, qui en plus d’offrir à l’esprit humain des activités cognitives infinies, se déploie également vers un potentiel inégalé d’accumulation de profit et de pouvoir. Par Florence Poznanski, politologue et directrice du bureau Brésil d’Internet sans Frontières.


Ainsi, en 2017, Google a réalisé un chiffre d’affaires de 110,9 milliards de dollars, em augmentation de 23% par rapport à 2016. Soit l’équivalent du PIB du Koweït (120 mds de dollars) et plus que l’Équateur (102), l’Ukraine (109) ou le Luxembourg (62) (données FMI, 2017), mais avec un taux de croissance qui ferait rougir n’importe quel pays de la planète.

De son côté, Amazon, l’entreprise de commerce et de services en ligne, a atteint début septembre 2018 une valeur de marché d’un trillion de dollars (valeur boursière), devenant ainsi la deuxième entreprise de l’histoire à atteindre ce jalon. Deuxième après… Apple, qui a battu ce record un mois plus tôt. Plus que n’importe quelle compagnie pétrolière, qui jusque-là caracolaient en tête du palmarès boursier.

Selon l’ONU et Frank La Rue, son rapporteur spécial sur la promotion et la protection de la liberté d’opinion et d’expression, Internet est un outil indispensable pour réaliser un ensemble de droits fondamentaux, combattre les inégalités et accélérer le développement et le progrès humain. Mais aujourd’hui, seulement 55% de la population mondiale a accès à Internet et 84 % des pays n’ont pas de législation adéquate pour protéger les données personnelles des citoyens.

De ce fait, Internet n’est pas seulement un outil fantastique pour accéder à la connaissance, s’exprimer, effectuer des activités quotidiennes d’achats, de loisirs, ou de gestion administrative, il n’est pas non plus seulement un espace de participation sociale et politique, d’organisation de réseaux, de création d’entreprises et d’initiatives innovantes. Internet est bel et bien un espace de pouvoir en dispute.

Un espace qui englobe toutes les politiques publiques réglementées au niveau des États, un espace contrôlé principalement par des multinationales des télécommunications et des technologies de l’information (TIC), dont les stratégies commerciales affectent constamment la vie collective. Un espace où la collectivité mondiale ne participe ni ne délibère sur les décisions à prendre. En fait, un espace pratiquement antidémocratique. Mais un espace de pouvoir en expansion constante qui s’inscrit dans une nouvelle phase du capitalisme dont la caractéristique est le transfert de compétences historiquement assumées par les États à des multinationales privées agissant “en faveur de l’intérêt public”.

Cela s’explique par le fait que depuis les premiers pas d’Internet, lorsque sa commercialisation a commencé dans les années 90, les processus d’harmonisation des normes techniques, des protocoles logiques et de ses principes normatifs ont été pilotés par des acteurs techniques, issus du monde des télécommunications et de l’informatique. Là, l’influence du secteur privé prédomine ce qui engendre un certain manque de transparence dans les prises de décision et une absence de représentation du secteur public et de participation sociale[1]. Il faut souligner aussi que les années 90 correspondent à la période des ajustements structurels, des grandes phases de privatisation, ce qui explique aussi pourquoi les États ont mis tant de temps à saisir l’enjeu stratégique de la commercialisation d’Internet.

Cela a permis l’expansion fulgurante de ce que l’on appelle les GAFAM (Google, Amazon, Facebook, Apple, Microsoft), “le nouveau G20 du monde”, dans un vaste vide réglementaire sur lequel les institutions internationales et étatiques cherchent à rattraper près de deux décennies de retard depuis le début des années 2000[2].

 

Le capitalisme de surveillance : le contrôle comme moyen et fin de l’accumulation du capital

Ce pouvoir croissant et de plus en plus concentré des multinationales des TIC, et leur impact sur le comportement des sociétés, a été appréhendé par différents chercheurs à travers les concepts de “société de la surveillance” ou de “capitalisme de surveillance”. Selon le sociologue canadien David Murakami Wood, “dans la société de contrôle contemporaine, la surveillance sert à faciliter le fonctionnement du néolibéralisme en naturalisant le global comme échelle d’action”.

Dans le format de la société disciplinaire de Foucault, le contrôle s’exerçait dans différents espaces autour du travail : l’usine, le bureau, l’école, les moyens de transports. En se débarrassant de la restriction spatiale, la société de surveillance généralise le contrôle en tout lieu et à toute heure, se transformant ainsi en un modèle de gestion du capitalisme, comme le rappelle la chercheuse Shoshana Zuboff. La surveillance fait partie du processus d’accumulation du capital des industries de l’information, de la collecte et du traitement des données. Dans cette logique, toutes les données sont intéressantes, quel que soit le sujet, afin d’alimenter les algorithmes et les machines d’intelligence artificielle qui cherchent à modéliser le comportement humain, à profiter d’une diffusion publicitaire toujours plus ciblée, et ainsi à assurer un contrôle permanent.

Dans ce scénario, il est possible de faire un parallèle avec les notions marxistes de travail et de plus-value. Un travail qui, dans le modèle global de la société de la surveillance, devient gratuit et ne nécessite plus de rémunération. Nous produisons des données en ligne à tout moment de la journée pour répondre à tous nos besoins. Mais les bénéfices produits en plus de la transformation de notre matière première (les données) à partir de notre travail (la disponibilité/extraction des données), ne sont pas redistribués à la collectivité[3]. Nos données sont devenues le carburant nécessaire à l’accumulation du capital qui se nourrit de la transformation de cette matière première dans le but de contrôler et de maintenir sa puissance. La surveillance devient à la fois un moyen (la collecte des données) et une finalité (le maintien de son pouvoir).

La vulnérabilité à ces processus est toujours plus visible dans les pays où la réglementation publique est faible. En d’autres termes, les pays qui ont une tradition de réglementation publique plus forte ont tendance à résister un peu plus à ce processus. Ainsi, l’anthropologue brésilien Rafael Evangelista affirme que : ” Le Sud, avec ses marchés précaires et déréglementés, avec sa population avide de survie et de croissance accélérée vers le futur, est un laboratoire propice pour le capitalisme de surveillance”[4].

Selon lui, même en ayant un accès limité à Internet[5], la dépendance aux plateformes augmente avec le niveau de précarité de l’individu. L’intimité devient un luxe. Les inégalités déjà présentes dans le monde hors ligne se reproduisent et s’accroissent en ligne. Les différences entre être en ligne et hors ligne sont toujours plus faibles, car les comportements assimilés en ligne filtrent en dehors. Ainsi, nous cessons d’être des citoyens pour devenir des utilisateurs, et nous cessons de nous soumettre aux droits et devoirs des lois issues d’un processus démocratique auquel nous avons pu prendre part pour dépendre des visions du monde d’algorithmes dont les codes restent confidentiels.

A l’instar des luttes contre l’agro-business ou l’extraction des matières premières qui empoisonnent notre alimentation et polluent l’environnement ou des luttes contre la précarisation de l’emploi et la casse des services publics, la lutte contre le pouvoir des multinationales des TIC sur le futur d’Internet devient, à une échelle beaucoup plus large, un chantier où il est urgent de se mobiliser en masse. Il s’agit d’un espace politique dans lequel, en raison de l’absence de réglementation étatique et d’interlocuteurs, les citoyens ne se sont pas habitués à participer et se limitent trop souvent au rôle de simple consommateur, préservant ainsi les lucratifs intérêts de ceux qui le contrôlent.

Quand élirons-nous le président de Google ?

Un jour, lors d’un événement international sur Internet, j’ai osé poser cette question en public devant un panel de représentants d’entreprises des TIC. On a pris la peine de me répondre en m’alertant sur  les conséquences néfastes des nationalisations d’entreprises sur le progrès de l’innovation et l’importance de l’initiative privée comme garante de cet équilibre.

On pourra discuter si la nationalisation de Google est ou non un scénario bénéfique et plausible pour le bien-être du monde, mais l’enjeu de cette question était ailleurs. Si le modèle économique des GAFAM a un tel impact sur le fonctionnement de la société mondiale, son comportement, et même ses résultats électoraux, la collectivité ne peut manquer de délibérer et de contrôler ses arbitrages, ce qui implique la construction d’un véritable espace démocratique autour de ce que l’on appelle « la gouvernance d’Internet ».

On ne part pas de zéro. Depuis le début des années 2000 les États et la société civile ont commencé à participer davantage aux débats globaux sur le futur du numérique. Depuis 2005 et le sommet mondial sur la société de l’information qui s’est tenu à Genève, des rencontres annuelles ont commencé à se tenir sous la tutelle des Nations Unies dans le cadre du forum sur la gouvernance de l’Internet (FGI) dont la dernière édition s’est tenue à Paris fin 2018. Il existe aussi des espaces de participation pour la société civile au sein des principales instances de régulation comme la Société pour l’attribution des noms de domaine et des numéros sur Internet (ou ICANN) ou l’union internationale des télécommunications (UIT), mais qui restent très restreints et consultatifs.

Progressivement des États ont pris le pas en adoptant des normes de régulation importantes pour contenir l’emprise des intérêts économiques des GAFAM sur les libertés des individus. Parmi les conquêtes les plus emblématiques, le règlement européen de protection des données personnelles (RGPD) entré en vigueur en 2018 qui vient compléter une législation européenne déjà robuste, visant à redonner aux usagers le contrôle de leurs données sur la toile. Un règlement qui ne s’applique certes qu’aux services destinés aux citoyens européens, mais qui par ricochet affecte une large partie des fournisseurs de services et d’application dans le monde.

À l’inverse, certaines mesures défendues par les pouvoirs publics tendent à desservir l’intérêt commun en matière numérique. Aux États-Unis, par exemple, la décision fin 2017 de l’agence régulatrice des communications (FCC) de mettre fin à la neutralité du net aura des répercussions mondiales sur le trafic de données. Elle autorise que certains types de services soient accessibles plus rapidement que d’autres et à des tarifs différents, contribuant ainsi à renforcer les monopoles qui détiennent déjà le marché, au dépends de l’innovation.

De même, le phénomène faussement nouveau des fake-news a engagé de nombreux législateurs sur la pente très dangereuse de la régulation des contenus, visant à responsabiliser les intermédiaires (sites, plateformes de réseaux sociaux) des contenus considérés comme inappropriés qui seraient partagés sur leurs réseaux. Le Président Macron, à l’occasion de l’ouverture de l’IGF à Paris fin 2018, défendait ainsi dans son discours sur la confiance dans le cyberespace que les principes universalistes de la liberté d’expression étaient devenus trop laxistes et qu’il fallait assumer et faire la part des choses entre des « gouvernements démocratiques et anti-démocratiques, libéraux ou illibéraux » afin de « faire respecter nos valeurs et nos idéaux ». Un positionnement préoccupant qui ouvre la voie vers une censure incontrôlable du débat public en ligne.

Mais d’autres sujets brûlants d’actualité sont encore loin d’être traités. Des questions telles que la responsabilité sociale des algorithmes, qui font de plus en plus partie de la sphère publique, sont devenues cruciales. Quel niveau de transparence les pouvoirs publics peuvent-ils exiger d’un algorithme, une propriété intellectuelle privée, à partir du moment où ses biais peuvent avoir des effets sociaux antidémocratiques et injustes ?[6]

La liste est encore bien longue et ne fait que s’allonger. Respect de la vie privée, neutralité, liberté d’expression, droits humains, universalisation du savoir, décentralisation de la création artistique, taxation des profits de l’industrie des communications, voilà quelques-uns des enjeux de l’agenda public mondial de l’Internet qu’il faut défendre. Il est temps de se réapproprier Internet et de construire le modèle démocratique et émancipateur dont le peuple a besoin.

Crédits photos : Mathieu Fontaine

[1]Ceux qui désirent explorer ces domaines peuvent consulter le fonctionnement de certains des principaux organismes internationaux de réglementation de l’Internet tels que l’ICANN (Internet Corporation for Assigned Names and Numbers), l’ITU (International Telcommunication Union) ou l’IETE (Institution of Electronics and Telecommunication Engineers).

[2]La réflexion sur la nécessité d’une gouvernance mondiale de l’Internet a commencé dans les années 2000, comme le Sommet mondial sur la société de l’information (2005) et la création du Forum sur la gouvernance de l’Internet (FGI) lié au système des Nations Unies, qui se réunit annuellement depuis 2006 mais n’a pas de fonction délibérative.

[3]La faiblesse du cadre juridique d’imposition des bénéfices des multinationales rend cette redistribution encore plus difficile que d’autres services. Alors que le taux normal de la TVA en France est à 20%, Apple a négocié une taxe de 0,005% avec l’Irlande, où se trouve son siège, sur tous ses revenus en Europe.

[4]De même que l’ajustement budgétaire l’était déjà dans les années 1990 après le consensus de Washington.

[5]Au Brésil par exemple seuls 61 % des foyers ont un accès à Internet en 2017.

[6]https://www.bbc.com/mundo/noticias-39883234 voir les cas d’algorithmes utilisés par la justice pour aider le juge dans la définition des peines, avec des biais racistes avérées.

Une “fake news” peut en cacher une autre

Il y aurait une prolifération de « fake news » sur internet et nous serions en train de basculer petit à petit dans un monde de « post-vérité ». Cette idée semble, en tout cas, avoir fait son chemin dans le débat public et s’impose désormais à certains comme une évidence. Des journalistes aux responsables politiques en passant par les acteurs du net, tout le monde s’est emparé du sujet et martèle la nécessité impérieuse de lutter contre ce fléau. Une série d’initiatives de toutes sortes a d’ailleurs vu le jour pour combattre les « fausses informations ». La question est récemment revenue au centre du débat depuis que certains gouvernements entendent s’en mêler directement comme c’est le cas de notre pays où Emmanuel Macron a annoncé son intention de légiférer sur le sujet.

Un concept flou et fluctuant

« Je parie que vous n’avez pas entendu parler de tout ce qu’a accompli le Président cette semaine à cause de toutes les fake news qui circulent » s’exclame la belle-fille de Donald Trump dans une vidéo publiée sur la page Facebook du chef de l’état américain l’été dernier. C’est désormais une vieille habitude chez Trump que d’accuser les médias de « fake news ». Les médias accusent à leur tour le président de mentir à répétition à grand coup de « fake news ». La « fake news », c’est toujours l’autre et on ne sait plus bien qui a commencé dans l’affaire. Bref, à les entendre, la vérité aurait définitivement laissé place à la post-vérité et les Etats-Unis seraient submergés par les fausses informations. Cette vague de « faits alternatifs » aurait également fini par toucher la France et les « fake news » seraient en augmentation au pays de Descartes.

Ce sont, en tout cas, les conclusions d’une étude de l’Oxford Internet Institute, régulièrement citée dans la presse française l’an dernier. L’étude donne des « junk news » la définition suivante : « diverses formes de propagande et de contenus politiques idéologiquement extrêmes, ultra-partisans, ou conspirationnistes. »  Problème : quels sont les critères retenus par les auteurs pour distinguer ce qui est « idéologiquement extrême » de ce qui ne l’est pas ? Ce qui est « ultra-partisan » de ce qui n’est que modérément partisan ? L’étude ne le précise nulle part. Par exemple, ce qui peut apparaître comme idéologiquement extrême à la Fondation Saint-Simon (d’orientation libérale), qualifiée de « cercle de la raison » par Alain Minc, ne l’est pas forcément aux yeux de la Fondation Gabriel Péri, proche du Parti Communiste. Et inversement. Tout ceci est finalement très subjectif et dépend grandement de l’orientation politique des auteurs de l’étude dont on ne sait malheureusement rien. Peut-être pouvons-nous définir la fake news par son contraire, les « sources d’actualité professionnelles » qui « affichent les caractéristiques du journalisme professionnel » et qui ne sont donc ni propagandistes, ni conspirationnistes, ni ultra-partisanes ou idéologiquement extrêmes. Cette catégorie regroupe principalement les « groupes des médias reconnus ».

Colin Powell, secrétaire d’Etat sous le président Bush fils, brandissant une fiole d’anthrax devant le conseil de sécurité de l’ONU, le 5 février 2003 : “il ne peut faire aucun doute que Saddam Hussein possède des armes biologiques.” Un mensonge en mondovision. ©United States Government

Cas pratique : dans quelle catégorie ranger le Washington Post, CNN ou le Wall Street Journal ? Le 5 février 2003, devant le conseil de sécurité de l’ONU, le Secrétaire d’Etat Colin Powell, tente de démontrer, documents à l’appui, la présence d’armes de destruction massive en Irak. Allant jusqu’à brandir une fiole d’anthrax, il déclare notamment qu’il « ne peut faire aucun doute que Saddam Hussein possède des armes biologiques. » Il a été établi depuis que ces allégations qui ont servi de prétexte à l’intervention nord-américaine en Irak reposaient sur un énorme mensonge d’état, une sorte de « fake  news » avant l’heure. Dans une de ces éditions, la Columbia Journalism Review a dressé un bilan de la couverture médiatique nord-américaine des semaines qui ont précédé le début de la guerre et a constaté que « bien qu’ils n’aient pas pu en être sûrs, presque tous les journaux américains ont déclaré que Powell avait raison. En un mot, ils lui ont fait confiance. Ce faisant, ils ont manqué du plus élémentaire scepticisme sur les arguments de Bush en faveur de la guerre. » Il semblerait que la frontière ne soit pas toujours aussi nette entre le « groupe média reconnu »  et l’organe de propagande. Les auteurs de l’étude pour qui tout cela est peut-être de l’histoire ancienne, n’en tiennent aucunement rigueur aux médias de masse états-uniens.

« N’est-ce pas le Washington Post qui affirmait en décembre dernier que des hackers russes avaient pénétré le système informatique d’un fournisseur d’électricité américain avant de rectifier ? Si les journalistes ont le droit à l’erreur et le devoir de rectifier, les citoyens n’auraient-ils pas le droit de remettre en cause les médias de masse sans être pour autant taxés de conspirationnisme ? »

En revanche, ils prennent le soin de classer à part « les sources d’informations russes connues » (Russia Today, Sputnik). Sans doute ont-ils raison, dans ce climat de guerre froide, de prendre les informations russes avec des pincettes mais la presse nord-américaine n’est pas irréprochable non plus. N’est-ce pas le Washington Post qui affirmait en décembre dernier que des hackers russes avaient pénétré le système informatique d’un fournisseur d’électricité américain avant de rectifier comme le souligne Vincent Glad dans Libération ? Si les journalistes ont le droit à l’erreur et le devoir de rectifier, les citoyens  n’auraient-ils pas le droit de remettre en cause les médias de masse sans être pour autant taxés de conspirationnisme ?

Les mêmes reproches pourraient d’ailleurs être adressés à l’autre étude régulièrement citée par la presse, celle de Bakamo Social. En tout état de cause, ces considérations illustrent bien le nœud du problème : la « fake news » est un concept flou et fluctuant. Du reste, le terme perd une partie de son sens originel lorsqu’il est traduit en Français par « fausses nouvelles » puisque l’Anglais distingue le fake (falsifié) du false (erroné). Cependant, outre-Atlantique aussi, le terme semble déjà galvaudé ; il est, à tout le moins, sujet à controverse depuis que Donald Trump se l’est réapproprié lors de la campagne présidentielle. En tout cas, ce concept est vite devenu, dans l’arène politico-médiatique française, un terme fourre-tout qui permet de mettre opportunément dans un même sac faits inventés ou invérifiables, informations inexactes ou incomplètes, interprétations tendancieuses, contre-sens, contre-vérités, raccourcis, ragots, rumeurs infondées, théories du complot, etc…. Sans doute par paresse intellectuelle, certains en ont fait un anathème bien commode pour discréditer leur contradicteur et esquiver le débat. Certes, ces accusations sont parfois fondées comme, par exemple, lorsque Najat Vallaud-Belkacem a reproché, à juste titre, à Vanessa Burgraff de relayer une « fake news » sur le plateau d’ONPC mais ce nouveau cheval de bataille apporte également de l’eau au moulin des conformistes de tout poil qui, pétris de certitudes, assimilent, depuis longtemps, toute pensée critique à du complotisme, à l’instar de Bernard-Henri Lévy dans sa dernière controverse en date avec le Monde diplomatique. Complotisme, le mot est lâché.

Fake news, médias alternatifs et médias traditionnels

Le soupçon de fake news pèse principalement sur les médias émergents et « alternatifs » (blogs, journaux « citoyens », « youtubeurs », radios associatives, etc…), c’est-à-dire non-étatiques et indépendants des puissances d’argent. Il est vrai que certains d’entre eux diffusent, à plus ou moins grande échelle, des faits inventés, erronés ou invérifiables et s’affranchissent des règles les plus élémentaires du journalisme. Pourtant, il arrive aussi que de grands médias installés relayent, à leur tour, des informations pour le moins douteuses. On se souvient par exemple des mensonges de Patrick Cohen (France Inter) et du médiateur de la radio publique sur les prétendus mensonges de Sabrina Ali Benali. Une intox reprise ensuite par d’autres médias bien comme il faut, à l’instar de Pure Medias, propriété du milliardaire Marc Ladreit de Lacharrière, qui avait titré “France Inter et Quotidien piégés par une fausse interne” dans un article toujours en ligne. Inutile de s’attarder à nouveau sur les armes de destruction massive inventées en Irak ou sur les faux hackers russes du Washington Post… Les « fake news » ont la vie longue dans les médias de masse d’autant plus qu’elles font généralement bien plus de dégâts que les intox publiées par des blogs lus par quelques milliers d’internautes. La guerre en Irak en atteste.

« Le soupçon de fake news pèse principalement sur les médias émergents et « alternatifs », c’est-à-dire non-étatiques et indépendants des puissances d’argent. Il est vrai que certains d’entre eux diffusent des faits inventés, erronés ou invérifiables. Pourtant, il arrive aussi que de grands médias installés relayent, à leur tour, des informations pour le moins douteuses. »

Le Monde, le Décodex et la « démarche militante cachée »

 

Décodex, le moteur de recherche lancé par Le Monde pour détecter les fake news.

Il y a un peu moins d’un an, Le Monde lançait le Décodex, un moteur de recherche qui classe les sites d’information en fonction de leur fiabilité. L’outil fait débat et suscite des critiques, y compris chez les journalistes à l’instar de Vincent Glad qui se demande très justement « qui décodexera le Décodex ». « Qui veut noyer son chien l’accuse de la rage. Qui veut discréditer un site trouvera toujours une fausse information quelque part » écrit-il et rappelle à toute fin utile qu’il arrive également au Monde de publier des informations douteuses comme lorsqu’il relayait l’histoire des hackers russes du Washington Post. Un son de cloche à peu près similaire chez Daniel Schneidermann pour qui Le Monde est « juge et partie » et qui se demande : « de quel droit, une source d’information vient-elle dire que d’autres sources d’informations concurrentes sont fiables ou non ? Quelle est sa fiabilité ? C’est comme si on demandait à la compagnie de taxis G7 de labelliser Uber ou aux agences immobilières de dire si Airbnb est une appli cool. » Pour lui, cet outil ne convaincra que les convaincus, c’est-à-dire ceux qui tiennent le Monde en haute estime.

La page du Décodex dédiée au Monde propose, dans les liens, cet article de la rubrique “idées” publié en 2010.

Le Décodex nous met en garde contre la « démarche militante cachée » de certains sites. En pianotant sur le moteur de recherche, on comprend vite que les concepteurs de l’outil visent les sites qui n’affichent pas clairement leur orientation politique comme Nordactu ou Breizh info, situés à l’extrême-droite, qui se présentent comme des médias d’actualité locale. Sur ce point, on pourra difficilement être en désaccord.

« L’outil fait débat et suscite des critiques, y compris chez les journalistes à l’instar de Vincent Glad qui se demande très justement « qui décodexera le Décodex ». »

On distingue d’ordinaire les médias d’opinion qui expriment les orientations d’une famille de pensée, d’un parti comme L’Humanité, Le Figaro ou Libération et les médias d’information « privilégiant les faits » réputés neutres et pluralistes comme les agences de presse (AFP, Reuters), les chaînes d’information en continu (BFMTV, LCI), les chaînes et radios généralistes (TF1, Europe 1), le service public (France Télévisions et Radio France) et la presse gratuite (CNews Matin, 20 minutes). Les créateurs du Décodex semblent d’accord avec cette distinction et rangent Le Monde, « le quotidien de référence », parmi les médias d’information. En effet, quand on tape le nom du journal dans la barre de recherche, le site propose, parmi les références, un article de la rubrique Idée intitulé « Ligne politique ? » et dont le sous-titre est on ne peut plus explicite : « La “ligne politique” du journal est un mythe. Le Monde n’en a pas, n’en a jamais eu. »

Nombre d’apparitions comparé dans les médias audiovisuels réputés neutres et pluralistes entre 2002 et 2007 (tiré du documentaire “Les nouveaux chiens de garde”). Une démarche militante cachée ?

Si l’existence d’une presse d’opinion ne fait pas de doute, existe-t-il pour autant une presse véritablement neutre et authentiquement pluraliste ? Le simple fait de traiter plus ou moins souvent ou de ne pas traiter de certains sujets, de privilégier un certain angle plutôt qu’un autre, de reporter ou de ne pas reporter certains faits, de mettre tel article en une est, en soi, un choix éditorial qui reflète et véhicule déjà une certaine conception du monde. Aussi, donner la parole à tel ou tel spécialiste ou encore donner plus souvent la parole à certains « experts » plutôt qu’à d’autres ne relève-t-il pas d’une démarche militante ? C’est, en tout cas, la pratique récurrente et ancienne des radios et chaînes de télévision qui se revendiquent du pluralisme et de la neutralité. A titre d’exemple, le documentaire « Les nouveaux chiens de garde » relève qu’entre 2002 et 2007, Frédéric Lordon, aujourd’hui membre des « économistes atterrés » a été invité 24 fois à la télévision et à la radio contre 572 fois pour Jacques Attali, le « sherpa » des présidents, sur la même période !

« Quelle est la légitimité démocratique de ces grandes multinationales du net pour filtrer ainsi l’information ? D’autant plus que ces multinationales s’allient avec des médias d’Etat ou appartenant à de grands empires industriels »

Entre septembre 2008 et décembre 2010, au moment de la crise des subprimes, Jean Gadrey, membre du conseil scientifique d’ATTAC (alter-mondialiste), a été invité 5 fois contre 117 fois pour Alain Minc, le « libéral de gauche » comme il se définit lui-même, qui n’avait pas du tout vu la crise venir.  Et que dire du rouleau-compresseur des grands médias audiovisuels privés et publics en faveur du « oui » pendant le référendum sur la constitution européenne, décortiqué par ACRIMED à l’époque et illustré encore récemment dans le documentaire « 2005 : quand les français ont dit non » ? Dans « DSK, Hollande, etc. », une équipe de journalistes belges s’étaient également penchés sur la couverture médiatique très favorable à François Hollande pendant les primaires socialistes de 2011. Les exemples du parti pris des médias réputés neutres et pluralistes ne manquent pas.

Qui peut juguler les fake news ?

Le principal terreau de propagation des fake news serait internet. C’est pour cette raison que des acteurs du net se sont saisis du sujet. Et pas n’importe lesquels puisqu’il s’agit des plus gros acteurs, les « Géants du Web » ou GAFA. Google et Facebook se sont associés pour lancer l’outil Cross Check en partenariat avec plusieurs médias (France 24, Le Monde, Libération). Google et Facebook ont en outre altéré leurs algorithmes pour mieux juguler les fake news. Le réseau social de Mark Zuckerberg a également décidé d’interdire de publicité les pages Facebook accusées de relayer régulièrement des fake news. Un fonds de recherche financé entre autre par Facebook, Craiglist et la Fondation Ford a été lancé. Quelle est la légitimité démocratique de ces grandes multinationales du net pour filtrer ainsi l’information ? D’autant plus que ces multinationales s’allient avec des médias d’Etat ou appartenant à de grands empires industriels. Certains y voient déjà de possibles censures politiques. Suite aux modifications des algorithmes de Google, les références de recherche depuis ce moteur de recherche quasi hégémonique vers le World Socialist Web Site, édité par le comité de la Quatrième Internationale (trotskiste) ont chuté vertigineusement. Dans un autre registre, Twitter a décidé de son côté de priver les médias russes Sputnik et Russia Today de toute publicité au motif de leur ingérence présumée dans les dernières élections présidentielles états-uniennes.

« Définir ce qui est une vraie information et une “fake news” relève déjà de la censure, d’autant plus que ce serait chapeauté par une autorité politique et délégué à des algorithmes non-européens, en l’occurrence Facebook et Google principalement. » (Fabrice Epelboin)

La commissaire européenne chargée du numérique aurait également depuis l’an dernier, dans ses cartons, un projet de création d’un comité d’experts pour lutter contre la désinformation en ligne et faire pression sur les GAFA et autres acteurs du net. Fabrice Epelboin, spécialiste des médias sociaux et enseignant à Sciences Po y voit un danger pour la liberté de presse et d’expression en ligne : « définir ce qui est une vraie information et une “fake news” relève déjà de la censure, d’autant plus que ce serait chapeauté par une autorité politique et délégué à des algorithmes non-européens, en l’occurrence Facebook et Google principalement. » Au début de l’année, Emmanuel Macron a, quant à lui, annoncé lors de ses vœux à la presse, une loi contre les « fake news », remettant ainsi le sujet sur le devant de la scène. La France n’est pas la seule puisque l’Italie et le Brésil sont également en train de mettre en place des mécanismes de contrôle des fausses nouvelles en mobilisant les services de la Police. Plus inquiétant encore :  le journal en ligne The Intercept nous apprend que Facebook avait supprimé certains comptes à la demande des gouvernements israélien et états-unien.

La chasse aux fake news ou le cache-sexe d’une opération de reconquête menée par les médias dominants ?

Pour les historiens Robert Zaretsky (Université de Houston) et Robert Darnton (Université d’Harvard), les « fake news » font partie du discours politique depuis l’Antiquité. Plus proches de nous, ils citent en exemples les labelles ou les « canards » sous l’Ancien Régime. Pourquoi ce phénomène devient-il aujourd’hui une préoccupation majeure ? Peut-être faut-il y voir la tentative d’allumer un contre-feu au moment où la côte de confiance des médias auprès des citoyens est au plus bas. Le baromètre TNS-Sofres pour La Croix, publié annuellement depuis 1987, révèle par exemple une baisse constante, malgré une embellie dans la dernière enquête, même si les méthodes d’enquête sont contestables. En tout cas, la chasse aux fake news est en passe de devenir une sorte de label qualité pour les médias dominants. Rien de mieux pour se relégitimer auprès du public. L’été dernier, dans une bande-annonce diffusée sur les chaînes du groupe Canal + (Bolloré), Yves Calvi faisait la promotion de « L’info du vrai », la nouvelle émission « access » de la chaîne cryptée qui remplace le Grand journal : « A l’heure des fake news, deux heures de vraie info quotidienne pour comprendre l’actu, c’est vraiment pas du luxe. » Le Figaro a quant à lui publié début novembre un article de fond au titre on ne peut plus affirmatif : « les médias traditionnels, remparts contre les fake news ». Aussi, certaines parties prenantes de cette chasse aux fake news – géants du net et grands cartels médiatiques – ont dernièrement noué de juteuses alliances stratégiques et se tiendraient, comme qui dirait, par la barbichette comme l’a bien décrypté Mediapart dans un article de décembre dernier intitulé “Comment Facebook achète la presse française“. Peut-être les relations ténues d’interdépendance qu’ils entretiennent expliquent-elles l’intérêt qu’ils ont à se serrer les coudes face à la montée des médias alternatifs et au discrédit qui frappe les médias installés.

ACRIMED / Le Monde diplomatique – dernière mise à jour : octobre 2017

Aussi, les fake news sont une polémique bien commode pour évacuer le débat urgent et nécessaire autour de l’indépendance des médias. Dans son livre « Main basse sur l’information », Laurent Mauduit, cofondateur de Mediapart, fait un constat alarmant de l’état de la presse 70 ans après que le programme du CNR a proclamé l’exigence démocratique d’une « presse indépendante de l’Etat et des puissances d’argent ». 80% à 90% des médias privés sont aujourd’hui détenus par une poignée de grands milliardaires (Martin Bouygues, Patrick Drahi, Xavier Niel, Arnaud Lagardère, Bernard Arnault, Serge Dassault, Vincent Bolloré). La concentration n’a jamais été aussi forte et le pluralisme aussi menacé. Laurent Mauduit parle d’une double normalisation « économique et éditoriale », suivie par le service public, et d’un musèlement de la presse par les milliardaires. Il rappelle notamment le licenciement abusif d’Aude Lancelin de l’Obs (journal alors détenu par le trio Pigasse-Niel-Berger) ou encore la censure d’un reportage sur l’évasion fiscale et le Crédit Mutuel par Vincent Bolloré, le patron du groupe Canal +. Cette semaine, une vingtaine de médias et de nombreux journalistes ont d’ailleurs signé une tribune pour dénoncer les pressions exercées par le même Bolloré alors que s’ouvre un procès que le magnat a intenté contre trois journaux et les ONG Sherpa et ReAct. En matière d’information, le combat pour une presse libre et indépendante des grands intérêts industriels et financiers n’est-il pas la véritable urgence démocratique du moment ?

Crédits photos :

©Gage Skidmore.  Creative Commons Attribution-Share Alike 2.0 Generic license.

« Pardon Youtube » démonte le lobbyisme à visage humain

Plus efficace qu’un numéro de Cash Investigation, le film « Pardon Youtube » dévoile les dessous d’une opération de communication soigneusement orchestrée et démonte habilement les mécanismes d’une censure à peine masquée.

En septembre 2016, la blogueuse Laetitia Nadji était contactée par Youtube pour interviewer le président de la Commission européenne Jean-Claude Juncker, avec deux autres youtubeurs européens.  Peu après l’interview en question, Laetitia révélait avoir subi des pressions de la part de Youtube et de Google pour éviter de poser au cours de l’entretien certaines questions jugées sensibles. Des questions qu’elle s’est tout de même risquée à aborder  : Tafta, poids des lobbies, Luxleaks, tout y passe, la youtubeuse allant même jusqu’à comparer son interlocuteur à un « braqueur de banques ».

Les coulisses d’un plan de com’

Le film « Pardon Youtube », publié au beau milieu des vacances de Noël et sous-titré « comment on a hacké Google et la Commission européenne », révèle les coulisses de cette surprenante entreprise. On suit pendant une heure les aventures de Laetitia et de son complice Raj – aka “Autodisciple”, qui se mue en caméraman et en assistant pour l’occasion.

 La youtubeuse, qui anime la chaîne lifestyle « Le Corps La Maison L’Esprit », est peu portée sur les questions politiques. Pour préparer cet entretien haut en couleur avec l’homme fort de l’Union européenne, elle décide de s’entourer de Ludo, Xavier et Stéphane de la très populaire chaîne Osons Causer, qui  vont l’épauler dans la rédaction des questions brûlantes. L’objectif ? Profiter de l’occasion offerte par Youtube pour bousculer le Président de la Commission européenne. Un « David contre Goliath dans la vraie vie », résume Ludo.

Laetitia nous embarque dans ses  pérégrinations bruxelloises, de la découverte de sa spatieuse chambre d’hôtel aux répétitions tendues de l’interview, en passant par les dîners offerts par Google. On découvre rapidement que l’exercice est en réalité une opération de promotion élaborée par la Commission Européenne et Youtube pour égayer l’image de Jean-Claude Juncker, souvent dépeint comme un austère technocrate.

On lui avait assuré qu’elle pourrait poser ses questions comme bon lui semble. Pourtant, Laetitia prend vite conscience de la gêne des organisateurs lorsqu’elle évoque son souhait d’aborder le traité transatlantique ou le scandale d’évasion fiscale impliquant le Luxembourg, dont Jean-Claude Juncker a été Premier ministre pendant plus de 18 ans.

Éclairer les rouages d’une censure qui ne dit pas son nom 

A plusieurs reprises, la caméra de Raj immortalise des dialogues entre Laetitia et un responsable de Google visiblement embarrassé,  qui tente tant bien que mal de lui faire comprendre que ses questions sont très « touchy », qu’elle devrait peut-être songer à les remanier. Toujours sur un ton cordial. Jusqu’à ce que les pressions se fassent plus explicites à l’approche de l’interview : «  Pense bien aux conséquences de cette question… », « Tu vas pas te mettre et la Commission, et Youtube, et tous les gens qui croient en toi à dos. Enfin sauf si tu veux pas faire long feu sur Youtube mais… »

La caméra cachée de Raj amène notre regard au plus près des pratiques de lobbying qui ont cours auprès des institutions européennes, et dévoile les mécanismes d’une censure souvent plus subtile et plus diffuse qu’on ne pourrait le croire. C’est bien là la force du film : ces pratiques – qui ne sont un secret pour personne – y sont incarnées par des acteurs en situation, matérialisées par des dialogues. Les rapports humains y tiennent toute leur place. « Le fait qu’ils m’invitent, qu’ils me payent des trucs, c’est hyper difficile pour moi de pas aller dans leur sens », explique Laetitia à ses complices d’Osons Causer. Ce à quoi Stéphane répond « Les lobbyistes, ça fait partie de leur taf d’être des gens sympa ». Un lobbyisme à visage humain en somme.

Au cours du film, la youtubeuse en vient parfois à s’interroger, à douter : faut-il aller jusqu’au bout ? Peut-on aller à l’encontre de ces personnes avec qui l’on a partagé des repas, des discussions, des instants de sociabilité ?

Un film bienvenu, qui invite à réfléchir sur l’influence des lobbys auprès de l’Union européenne, mais aussi sur nos propres réactions une fois pris dans une configuration de rapports de pouvoir qui nous dépasse. Aurions-nous eu suffisamment de cran, à la place de Laetitia, pour ne pas renoncer ?

Quoi qu’il en soit, la conclusion de Ludo résume bien l’état d’esprit du film : « à cinq couillons, on a un petit peu mis en difficulté la boite la plus puissante du monde ». Si la sociologie est bien un sport de combat,  « Pardon Youtube » a effectivement frappé fort.

La bande-annonce :

Crédits photos : 

Capture YouTube