Tout acte de lecture est un jeu avec des structures de pouvoir – Entretien avec Peter Szendy

© LHB

Peter Szendy est l’un des théoriciens de la littérature les plus importants de notre époque. Nous l’avons rencontré à l’occasion de la parution de son ouvrage, Pouvoirs de la lecture. De Platon au livre électronique (La Découverte, 2022), dans lequel il étudie l’expérience de la lecture comme une scène, psychologique, sociale et politique complexe. Il se penche également sur les récentes transformations technologiques de cette expérience et notamment sur les implications anthropologiques de la croissance significative du marché du livre audio. Entretien réalisé par Simon Woillet.

LVSL – À l’heure où les technologies numériques bouleversent notre rapport aux savoirs, vous proposez de réinterroger l’expérience fondamentale de la lecture, dans une approche qui tente de faire droit aux zones d’ombres entre lecteur et texte. Vous déclarez, ce faisant, vouloir sortir de la vision de la lecture produite par les Lumières, où la relation au texte était principalement conçue selon vous sur le mode de la transparence en termes de transmission des connaissances. Pouvez-vous nous éclairer sur le sens de cette démarche ?

Peter Szendy – Il y a dans votre question deux marqueurs temporels importants : le passage au numérique d’une part et les Lumières d’autre part. Il ne s’agit pas pour moi de tenir ces balises chronologiques pour des frontières historiques intangibles. Au contraire, mon travail consiste à faire droit à ce que l’on pourrait appeler des hétérochronies, c’est-à-dire des temporalités différentes mais simultanées. Autrement dit, la relation des lecteurs d’aujourd’hui aux textes qu’ils lisent obéit à des régimes anciens en même temps que contemporains, des régimes qui peuvent coexister, s’hybrider ou s’affronter, ce qui implique une vision stratifiée des paradigmes historiques de l’expérience de la lecture.

J’essaie d’être attentif à la coexistence de vitesses contrastées, par exemple : qu’il s’agisse des vitesses propres aux systèmes de renvois internes à un texte (la consultation d’une note en fin d’ouvrage n’implique pas la même vitesse de renvoi qu’un lien hypertexte à cliquer) ou bien des vitesses de réception, de diffusion d’un ouvrage dans la texture de l’espace dit public (où la lecture qu’on a pu qualifier d’intensive, à savoir la rumination des mêmes textes, comme ce fut longtemps le cas de la Bible, coexiste avec la lecture dite extensive, celle des journaux, des nouvelles, des romans-feuilletons au XIXe siècle, des tweets ou autres notifications aujourd’hui…).

S’il y a donc des différences de vitesse dans la circulation des Lumières et dans leurs inscriptions sur papier ou sur écrans rétroéclairés, c’est aussi qu’il se crée des zones d’ombre, aujourd’hui comme au XVIIIe siècle. Non seulement parce qu’il y a de l’incompréhension, de l’inattention, disons, en un mot, de l’inéclairé qui résiste ou se reforme dans les plis de l’hétérochronie, mais aussi (j’imagine que nous y reviendrons) parce que tout acte de lecture implique de la violence, de la soumission, de l’irraisonné et de l’infondé. Il faudrait dire en outre, si l’on considère cette fois l’histoire matérielle des supports d’inscription des savoirs, que la propagation des « lumières » actuelles — les lasers, les systèmes de gravure et de décodage, les fibres optiques… — repose sur l’obscurité des tractations géopolitiques, du secret industriel et de la raison d’État ainsi que sur l’aveuglement face aux conséquences environnementales de ces technologies du visible ou du lisible.

LVSL – Vous proposez également une interprétation fascinante de notre rapport ambigu au livre audio.

PS – Je voulais d’abord faire un pas en arrière face à ce que l’on appelle un peu vite la crise de la lecture à l’ère numérique. Car le premier effort de réflexion devrait d’ores et déjà consister à ne pas tenir pour acquis que la lecture serait strictement cantonnée à un rapport silencieux à un texte écrit. Je ne suis bien évidemment pas le seul à le penser : beaucoup d’autres avant moi ont travaillé sur l’histoire de l’expérience de la lecture et sur les formes de résistance de l’oralité face au scriptural. C’est notamment ce qu’a pu développer Roger Chartier. Mais il reste que la puissance du paradigme scriptural continue de faire écran à une compréhension plus fine des voix intérieures de la lecture.

Toujours est-il que, en adoptant une perspective décentrée par rapport au seul support écrit, il me semble que l’on peut éviter d’en rester aux mêmes discours nostalgiques sur la perte du goût de la lecture ou la « mort du livre ». Qu’il suffise de penser à l’importance immense que revêt aujourd’hui le livre électronique (tant sur un plan économique qu’anthropologique). Il se présente sous deux formes : le livre numérisé lu sur écran, certes, mais également le livre audio, qui représente une part de marché toujours plus importante. « 9,9 millions d’audio-lecteurs en 2022 », pouvait-on lire dans un communiqué du Syndicat national de l’édition qui annonçait le lancement, en mai 2022, du « mois du livre audio », accompagné du slogan « lire ça s’écoute » (www.sne.fr/actu/parce-que-lire-ca-secoute).

Même si l’idée que lire peut consister à écouter un livre commence à faire son chemin, ce type de propos ne va pourtant pas de soi. Matthew Rubery, dans sa belle histoire du « livre parlant » (The Untold Story of the Talking Book), se fait l’écho d’une attitude fréquente : « écouter des livres », écrit-il, « est une des rares formes de lecture pour lesquelles les gens s’excusent ». Il met ainsi le doigt sur un malaise diffus mais sensible, révélateur en tout cas, dès lors qu’on applique le verbe « lire », voire un verbe d’action tout court, au fait d’écouter un livre audio. Il semble que l’on hésite à concevoir cette écoute comme un acte, car on ne sait pas très bien ce que l’on fait, au juste, avec ou face à un livre audio. Comme si écouter un livre n’était pas vraiment faire quelque chose, surtout lorsqu’on se consacre en même temps, comme c’est souvent le cas, à une activité parallèle (les courses, le ménage, la marche, la conduite…). Sans doute qu’une partie de cette drôle de honte ressentie à l’égard du format audio tient à la prétendue « passivité » de ce type d’expérience.

Quoi qu’il en soit, l’hésitation quant au statut de la lecture audio en tant qu’acte de lecture me semble révélatrice d’un changement de paradigme. Les failles du langage quotidien révèlent ici la tectonique des plaques en jeu dans les transformations anthropotechniques de la lecture. Il faut rouvrir le chantier de l’analyse de la lecture à l’aune de ces formes nouvelles.

LVSL – Selon vous, sommes-nous réellement sortis de ces représentations passives de la lecture oralisée ? Dans un chapitre de votre livre intitulé « l’anagnoste et l’archonte », vous convoquez les formes antiques de la lecture et les rôles sociaux liés à cette activité pour construire une grille d’interprétation des différentes « voix » qui cohabitent dans notre psychisme de lecteur. Pouvez-vous revenir sur ces concepts et ce qu’ils impliquent pour l’époque actuelle, notamment du point de vue des nouvelles formes de subordination de la lecture impliquée par les algorithmes de recommandation des contenus ?

PS – L’anagnoste, dans l’antiquité gréco-romaine, c’est l’esclave spécialisé dans la lecture à haute voix pour d’autres. C’est un rôle défini au sein d’une hiérarchie économique et politique précise, un rôle qui s’inscrit dans un réseau de relations aussi bien sociales que symboliques. Tout d’abord, l’anagnoste est bien évidemment une figure du dominé ou du subalterne — c’est un esclave —, mais qui est d’emblée complexe car il s’agit d’un travail auquel on associe une haute valeur symbolique. Son labeur ouvre la voie, facilite l’accès à la sphère idéalisée du sens.

Dans ses rares représentations ou apparitions (rares, car il est voué par essence à s’effacer devant le texte), l’anagnoste est une figure qui oscille de manière fascinante entre ces deux extrêmes que sont l’activité totale et la passivité totale. En effet, en lisant pour son maître, il est actif face à ce dernier, qui l’écoute passivement. Mais en même temps, l’anagnoste prête son corps et sa voix à un texte par lequel il se laisse traverser et littéralement posséder. Dans le lexique qui était celui de la pratique grecque de la lecture (comme l’a montré Jesper Svenbro dans sa remarquable Anthropologie de la lecture en Grèce ancienne), l’esclave lecteur, l’anagnoste peut être décrit à la fois comme l’« éraste », l’amant en position active, et l’« éromène », l’aimé en position passive. Il est actif en tant qu’il lit pour l’autre ; il est passif en tant qu’il est le simple relais du discours lu qui passe par lui.

LVSL – De ce point de vue, la figure de l’anagnoste vous semble-t-elle pertinente pour décrire notre propre situation vis-à-vis des algorithmes de recommandation de contenus sur les technologies numériques ? Puisque nous sommes autant producteurs des données qui les alimentent qu’esclaves des techniques de manipulation émotionnelle et attentionnelle qui constituent leur raison d’être économique ?

PS – C’est une idée intéressante. On pourrait déjà faire l’hypothèse que l’anagnoste antique se dilue ou se dissémine dans toute sorte de machines, de logiciels, d’algorithmes qui font ce travail de « faire exister » des textes en les lisant pour nous. L’exemple le plus évident serait la voix automatisée du GPS qui vous « lit » la carte de votre trajet, qui est l’anagnoste de votre itinéraire. Mais il existe aussi quantité d’applications pour la vocalisation des textes, à l’instar de Speechify ou NaturalReader, qui vous permettent de choisir le genre ou l’âge ou les caractéristiques ethniques de la voix lisante ainsi que sa vitesse de lecture.

Ceci dit, votre question nécessite que l’on considère la position de l’anagnoste au sein de la scène de lecture antique d’une manière à la fois plus précise et plus vaste. Car l’anagnoste n’est qu’une des voix ou qu’une des instances dans cette scène. Il y a également le texte lui-même, bien sûr, à savoir le texte lu par l’anagnoste lorsqu’il prête sa voix à celle de l’auteur. Il y a ensuite la place de l’auditeur, de celle ou celui qui écoute la lecture : j’ai proposé, pour désigner cette instance, le néologisme de lectaire, par analogie avec destinataire. Enfin, et c’est le plus important peut-être dans la perspective ouverte par votre question, il y a cette figure implicite et pourtant centrale qui peut, je crois, éclairer notre relation aux algorithmes de recommandation dans la lecture numérique : il s’agit de l’instance qui commande la lecture, à ne pas confondre avec le lectaire, car un personnage peut, comme on le voit par exemple dans certains dialogues de Platon, commander à l’anagnoste de lire à haute voix pour quelqu’un d’autre que lui-même, pour un tiers.

Avant d’en venir à cette antique instance prescriptive et à ce qu’elle pourrait bien nous dire sur les prescriptions de lecture actuelles, je voudrais souligner que la structure de la scène de lecture, telle qu’elle nous apparaît depuis son histoire lointaine et largement oubliée, est fondamentalement triangulée. Il est en effet impossible d’en dégager ou d’y identifier une relation simplement et purement duelle, à l’image de ce que nous avons fini par construire comme l’expérience par excellence de la lecture, à savoir le face-à-face du lecteur et du texte, l’immersion de celui-là dans celui-ci. Lorsque l’anagnoste s’entend commander de lire à haute voix pour un lectaire, c’est déjà une relation à trois, c’est déjà un réseau qui s’ébauche, une circulation réticulée plutôt qu’une absorption frontale, immédiate, transparente.

On pourrait donc faire l’hypothèse que la lecture a toujours été une affaire de « réseaux ». C’était le cas pour la lecture pratiquée par l’anagnoste antique, mais c’est également vrai lorsque c’est le phonographe qui « lit » des « livres parlants » ou lorsqu’on lit aujourd’hui des livres électroniques. L’une des premières idées de Thomas Edison, dans son texte intitulé The Phonograph and its Future(1878), était précisément que son invention servirait à enregistrer des textes pour que d’autres puissent les écouter. Le phonographe ainsi utilisé, c’est, si vous voulez, la mécanisation de la fonction de l’anagnoste, sa rationalisation technique et sa reproductibilité à une échelle industrielle.

Mais je reviens à votre question concernant les algorithmes de recommandation. Là où l’ordre de lire adressé à l’anagnoste avait la structure simple d’un impératif (« prends le livre et lis ! », disent l’un des personnages du prologue du Théétète de Platon à l’esclave lecteur), les modalités actuelles de la prescription, à l’ère du capitalisme numérique, impliquent des bouquets de données (ce que Gilles Deleuze, dans son « Post-scriptum sur les sociétés de contrôle », avait analysé comme la désagrégation de l’individu en flux dividuels). Cela modifie et l’injonction de lecture sur les réseaux sociaux et la signification même de l’acte de lire, qui se redouble d’un ensemble d’activités d’enregistrement et de formatage invisible de votre comportement, en temps réel et à votre insu. Sur Kindle par exemple, vous pensez être seul face à votre livre, mais en réalité vous êtes vous-même « lu », c’est-à-dire observé, et constitué en travailleur numérique inconscient par les technologies de ce type d’entreprises : vous êtes une série de points, un nœud de données (vitesse de lecture, types de contenus choisis, fréquence de la consultation de l’outil, passages relus…) dans un réseau plus vaste et dont la finalité est en général purement commerciale (l’ergonomie servant souvent à cacher ces formes de surveillance et de formatage autant qu’à les rendre possibles en renforçant la fluidité de l’expérience de l’utilisateur).

Je raconte dans Pouvoirs de la lecture une anecdote personnelle à ce propos. Me pensant bien assis chez moi, dans l’intimité d’une scène de lecture domestique idéalisée, je m’aperçois soudain, en touchant naïvement le texte à l’écran de ma tablette et en voyant s’afficher une petite case de commentaire, que je suis le nième utilisateur à souligner telle phrase précise. Une expérience comme celle-ci, que nous sommes tous susceptibles de faire, nous ramène brutalement à la puissance des technologies de prescription qui structurent désormais nos vies sans que nous en ayons suffisamment conscience.

Au début des années 1990, Bernard Stiegler avait initié un beau projet à la Bibliothèque nationale de France, qui consistait à produire des outils numériques de « lecture assistée par ordinateur » afin de matérialiser et de rendre transmissibles les traces laissées par les lecteurs dans leur élaboration du texte (je renvoie à son article intitulé « Machines à écrire, machines à penser », paru dans le n° 5 de la revue Genesis en 1994). Ce système d’annotations devait permettre de rendre visibles les gestes de lecture autrement invisibles au sein d’une sorte de communauté de lecteurs qui se formerait autour d’une œuvre. Et ce que montre ce type de démarche, c’est qu’il est possible de concevoir des régimes numériques de circulation de la lecture, des mises en réseau d’actes de lecture qui ne soient pas pensés uniquement dans la perspective d’une prescription marchande.

L’une des questions passionnantes que soulèvent les annotations des lecteurs, c’est sans doute celle de la singularité de l’acte de lecture. Une marque de lecture doit-elle ou peut-elle être signée, et si oui, comment ? Ce n’est pas le même type d’anonymat qui est en jeu dans l’impersonnalité machinique des algorithmes de recommandation de contenu, dans les commentaires de lecteurs identifiés par des pseudonymes sur les plateformes de vente en ligne ou dans les griffonnages dus à d’autres lecteurs inconnus que l’on rencontre en feuilletant un ouvrage emprunté à une bibliothèque. L’anonymat des modes de prescription propres au capitalisme numérique tend à être celui, statistique, du nivellement, de l’homogénéisation des singularités. Mais l’anonymat d’une trace de lecture, ce peut être aussi ce qui ouvre la possibilité de l’accident, la chance de l’imprévu.

LVSL- Vous parlez de « phonoscène » intérieure de la lecture notamment pour désigner les développements que vous venez de nous présenter et vous suggérez qu’il faut se pencher sur les relations entre les parties prenantes implicites de toute « scène de lecture ». Vous montrez dans votre livre et comme nous venons de le voir qu’il existe toujours une instance que l’on peut appeler « l’impératif de lecture ».

PS – En effet, cette instance impérative fait partie intégrante de toute scène de lecture, c’est-à-dire de tout acte de lecture. Mais elle est susceptible d’être configurée et appropriée — sur le plan psychique, social et technologique — de manière extrêmement différente selon les contextes et les époques historiques. Il semble n’y avoir rien de commun entre, par exemple, l’enfant qui exige qu’on lui lise une histoire et l’injonction implicite de lecture qui se loge dans la nécessité de cocher la case « lu et aprouvé » des « conditions générales d’utilisation ». Mais il y va, dans l’une comme l’autre de ces situations de lecture, d’une certaine configuration de l’impératif dont nous parlons. Il arrive aussi que cette instance impérative ou prescriptive (« lis ! ») soit détachée, présentée pour elle-même, pour ainsi dire sur le devant de la scène de lecture. Pensons au cas de La philosophie dans le boudoir de Sade, que j’analyse dans Pouvoirs de la lecture : l’impératif de lecture vient se loger sur la couverture du livre, sous la forme d’une sorte d’exergue (« la mère en prescrira la lecture à sa fille »).

Si l’impératif de lecture fait donc partie intégrante de toute scène de lecture, c’est parce que lire implique toujours quelque chose qui est de l’ordre de la soumission. Une soumission à déjouer, à contester, à refouler, mais implicitement à l’œuvre, avec laquelle il faut compter. Pas de lecture sans soumission du lecteur à l’ordre (typographique, syntactique, argumentatif, rhétorique, narratif…) du texte. Ce qui ne veut pas dire, loin de là, que la lecture se réduit à cette passivité. Les lecteurs ne cessent de subvertir l’autorité de cet ordre, consciemment ou inconsciemment, volontairement ou non. Qu’on pense à l’attention flottante, aux formes variées de l’interprétation, érudite ou spontanée, des textes : le lecteur est en permanence dans une relation équivoque, tendue, avec le tissu des « micropouvoirs » dont est constitué tout ordre textuel. On pourrait dire, en reprenant ce mot proposé par Deleuze et Guattari, que tout acte de lecture est un acte « micropolitique ». Autrement dit : la lecture rejoue en miniature, sur un mode micrologique, des rapports de pouvoir que l’on retrouve ailleurs, sur d’autres scènes, sociales, politiques… Tout acte de lecture est un tel jeu avec des structures de pouvoir. C’est ce qui fait de la lecture un espace intrinsèquement politique (bien au-delà du fait que tel ou tel texte puisse proposer ou non des idées ou des thèmes explicitement identifiés comme politiques).

LVSL – Pouvez-vous revenir sur votre analyse magistrale du Léviathan de Hobbes et la relation entre politique et lecture dans ce texte fondamental ?

PS – Comme nous l’évoquions à l’instant, tout acte de lecture est à la fois un acte de soumission et d’affrontement, de contestation et d’assimilation critique des règles du pouvoir. En ce qui concerne le Léviathan de Hobbes, on est face à un moment-clé de l’histoire de la philosophie politique, bien sûr, mais également face à un moment-clé dans l’histoire des discours sur la lecture, des réflexions sur la performativité, l’efficacité des dispositifs de lecture. Il y a, dans ce texte, une sorte de correspondance entre, d’une part, le dispositif micropolitique des prescriptions adressées au lecteur (le Léviathan est en effet ponctué de conseils, explicites ou implicites, sur la manière de lire ce livre qu’il est) et, d’autre part, le dispositif macropolitique de l’État moderne tel qu’il est élaboré théoriquement au fil de l’ouvrage. Ces deux niveaux s’articulent en permanence et de manière souvent paradoxale. Le lecteur est ainsi appelé à devenir une sorte de souverain pour s’assimiler pleinement le sens du texte, en même temps qu’il est incité explicitement par Hobbes à se soumettre au dispositif de lecture. Hobbes construit une sorte de machine textuelle qui identifie les opérations de lecture et les opérations du bon gouvernement. La souveraineté politique et la souveraineté du lecteur sont superposées ou repliées l’une sur l’autre tout au long du texte.

Les conseils de lecture qui ponctuent le Léviathan sont parfois explicites, par exemple quand Hobbes recommande à son lecteur de ne pas faire comme ces oiseaux qui perdent la mémoire de l’entrée dans la pièce où ils sont dès lors bloqués et condamnés à virevolter (une belle métaphore pour l’inattention du lecteur distrait ou vagabond dans sa lecture). Mais certaines prescriptions de lecture du Léviathan restent implicites, sans être moins efficaces pour autant, au contraire. C’est le cas lorsque Hobbes performe l’acte de lecture pour le lecteur, en employant par exemple des expressions apparemment anodines mais en réalité puissamment configurantes telles que « en somme », ou encore en proposant au lecteur des résumés de ce qui a été lu. C’est ainsi que s’établit, que s’impose un dispositif de lecture cumulative, une lecture additive. À savoir un régime de lecture (entendez ce mot de « régime » à la fois dans son sens mécanique ou moteur et dans son sens politique) qui en exclut beaucoup d’autres possibles.

Cette petite machine de lecture, implicite et explicite, explose toutefois lorsque Hobbes conclut sur deux prescriptions contradictoires, enjoignant simultanément le lecteur à opérer une somme intégrale de tout ce qui a été préalablement énoncé et à contester chaque aspect. Car, dit-il sans réaliser pleinement les conséquences de ce qu’il dit, c’est en objectant que l’on peut renforcer sa conviction de la nécessité des arguments et de leur ordre précis d’énonciation. Ce moment, ce point de lecture aux exigences contradictoire est fascinant, car on y voit le code des prescriptions se déconstruire lui-même et faire signe vers son caractère impossible ou aporétique.

LVSL – Vous proposez également une interprétation philosophique du passage du volumen au codex puis du codex à l’écran, pouvez-vous revenir là-dessus. On parle fréquemment de l’infinite scrolling, est-ce un nouveau temps de lecture ?

PS – C’est une question que pose Giorgio Agamben dans « Du livre à l’écran » (l’un de ses textes recueillis dans Le Feu et le récit). Il oppose, d’une part, un temps circulaire et continu qui serait propre au volumen, c’est-à-dire à la forme enroulée d’un rouleau de papyrus ou de parchemin, et, d’autre part, un temps linéaire qui serait celui du codex, c’est-à-dire le cahier paginé, voire indexé, donc discontinu. L’écran paraît conjuguer ces deux propriétés opposées. D’une part, le scrolling se présente comme un déroulement potentiellement infini, même s’il est en réalité bel et bien bordé, limité par des caractéristiques matérielles et spatio-temporelles (il ne saurait y avoir de page infinie car tout stockage est par essence fini). Mais d’autre part, l’hypertexte sur écran se compose d’innombrables renvois sous forme de liens qui sont autant d’indexations, autant de discontinuités, autant de « paginations », si l’on veut, interrompant la continuité du déroulement. Bref, à l’écran, le codex devient volumen et le volumen devient codex.

On est donc face à un déroulement en forme de flux, certes, mais infiniment accidenté, discrétisé ou discrétisable. Cette discrétisation fluide ou cette fluidité discrète de l’espace de lecture relève de ce que Deleuze et Guattari, reprenant une distinction proposée par Pierre Boulez, appelaient le « temps lisse » (ici : celui de la lecture continue) et le « temps strié » (ici : celui de la lecture discontinue, ponctuée par des renvois référentiels). Ces temporalités contrastées se replient sans cesse l’une sur l’autre dans notre expérience contemporaine de la lecture numérique. Et ce faisant, elles invitent à instituer, mais aussi et aussitôt à destituer, de nouveaux dispositifs de lecture-pouvoir constitués par des injonctions — souvent invisibles pour les lecteurs — qui se trament entre ces divers registres, entre ces strates que sont le texte lu, le sous-texte de son encodage ainsi que le formatage inhérent aux supports logiciels et matériels qui les portent.

Plus que jamais, l’acte de lecture, à l’ère du numérique, est tramé, transi de micropouvoirs.

Flux de données contre pouvoirs publics

Les situations de déliquescence des données ouvertes questionnent le rôle de l’acteur public. Doit‑il produire de la donnée uniquement pour ses propres besoins ou prendre en considération les besoins externes d’entreprises privées ? Dans le premier cas, il laisse le champ libre à d’autres acteurs pour produire des données qui nourriront les services numériques développés sur son territoire. L’établissement de ces conventions d’équivalence n’est alors plus l’apanage de l’État ou des acteurs publics. Il est pris en charge par des acteurs privés qui imposent leur représentation de l’espace urbain au risque, pour les acteurs publics, d’une perte de maîtrise de leurs politiques publiques. C’est la thèse d’Antoine Courmont, qui vient de publier aux Presses universitaires de Grenoble (PUG) Quand la donnée arrive en ville – open data et gouvernance urbaine. Antoine Courmont est chercheur associé au Centre d’études européennes de Sciences Po et responsable scientifique de la chaire Villes et numérique de l’École urbaine de Sciences Po. Il enseigne à Sciences Po Paris. Les lignes suivantes sont extraites de son ouvrage.

Cette situation est manifeste dans le secteur de la mobilité où des entreprises telles que Waze ou Here ont développé leur propre cartographie routière1. Or celles‑ci s’appuient sur des conventions de représentation du réseau routier qui diffèrent de celle du Grand Lyon et qui ont un effet sur la régulation de la circulation automobile. Cela provoque des controverses avec les producteurs privés de données de navigation routière. Le réseau de voies de l’agglomération lyonnaise est hiérarchisé par le Grand Lyon en fonction de différents critères (volume des flux, dimensionnement de la voirie, usages, etc.). Les producteurs privés s’appuient sur des typologies alternatives comme l’indique ce cartographe de l’entreprise Here : « Nous, on a 5 classes de voies. Le Grand Lyon en a 6. Je sais que l’autre fabricant de GPS en a 8323 ». Dès lors, selon les bases de données, certaines voies ne sont pas catégorisées de manière identique.

Quand les acteurs publics perdent la maîtrise de la représentation de leur territoire

La classification de l’entreprise Here a été définie afin de prendre en compte la diversité des voies à l’échelle de la région, tandis que la communauté urbaine de Lyon a construit la sienne dans une optique de régulation du réseau à l’échelle de l’agglomération. Cette différence de représentation n’est pas neutre : elle est une force de prescription importante sur le comportement des automobilistes par l’intermédiaire de l’itinéraire mis en avant par leur GPS. Particulièrement visibles lors de situations de congestion, ces différences de classification entraînent un report du trafic automobile par les GPS sur des voies que le Grand Lyon considère comme non adaptées. Ce cas s’est produit notamment au cours de l’été 2013 où une série d’embouteillages a saturé le réseau urbain. Les autorités et la presse locale ont alors fait porter la responsabilité sur les producteurs privés de données, exigeant qu’ils alignent leur classification sur celle du Grand Lyon.

Des réunions entre les représentants locaux de l’entreprise Here et du Grand Lyon ont alors été organisées. Elles ont toutefois été peu concluantes, le Grand Lyon ne disposant d’aucun moyen réglementaire pour imposer sa classification. Ce conflit entre l’autorité chargée de la régulation du réseau routier et ces producteurs privés de base de données de navigation routière met en évidence les répercussions des représentations alternatives de l’espace urbain sur la politique publique de la communauté urbaine de Lyon. La hiérarchisation des voies établie par l’acteur public ne fait plus convention, ce qui réduit sa capacité de régulation du réseau2. Face à ces nouvelles conventions d’équivalence, le Grand Lyon ne maîtrise plus la politique de mobilité de l’agglomération.

L’application Waze : le gouvernement privé des mobilités automobiles métropolitaines

L’application mobile de navigation routière Waze fournit un autre exemple de mise à l’épreuve des capacités de gouvernement de l’acteur public par les données. Fondée en 2008 en Israël, et achetée en 2013 par le groupe Alphabet (Google), la particularité de l’application est de s’appuyer sur des données collectées directement auprès de ses utilisateurs. Par l’intermédiaire de la localisation GPS du téléphone mobile, elle enregistre les traces de déplacement des automobilistes et leur vitesse de circulation. Financée par la publicité, elle compte au printemps 2019 douze millions d’utilisateurs en France, soit plus d’un automobiliste sur quatre. Après l’Île‑de‑France, l’agglomération lyonnaise est un des territoires qui concentrent le plus d’utilisateurs de l’application. Les services de la métropole lyonnaise estiment qu’au moins 30 % des automobilistes dans l’agglomération utilisent l’application3.

L’augmentation considérable du trafic routier aux heures de pointe sur certaines voiries a contribué à rendre visible cet usage croissant et massif de Waze. En effet, l’algorithme de l’application privilégie l’itinéraire le plus rapide sans tenir compte de la hiérarchisation du réseau de voirie. Adoptant une perspective temporelle plutôt que spatiale4, ces choix algorithmiques ont conduit, à proximité de zones de congestion récurrente, à entraîner des reports conséquents de circulation sur des réseaux secondaires non adaptés pour recevoir de tels flux. Cela provoque des situations de congestion induites, des nuisances environnementales, des risques accrus d’insécurité publique, des coûts de maintenance supplémentaire et la contestation des riverains.

Financée par la publicité, Waze compte au printemps 2019 douze millions d’utilisateurs en France, soit plus d’un automobiliste sur quatre.

En second lieu, le succès de Waze ne peut se comprendre qu’en relation avec les failles des systèmes de transport métropolitain face aux processus subis d’étalement urbain et de périurbanisation. Le développement de Waze est une réponse à l’incapacité des institutions publiques à planifier les infrastructures de transport dans certaines zones métropolitaines où des flux pendulaires toujours plus importants provoquent des phénomènes récurrents de congestion5. L’entreprise impute d’ailleurs la responsabilité des reports de trafic aux autorités publiques. « C’est davantage un symptôme qu’une cause. Il faut regarder la situation dans son ensemble. La question qu’il faut se poser c’est “pourquoi il y a des embouteillages sur les voies principales ?”. Parce que la planification urbaine a été dépassée et que les infrastructures ne sont pas adaptées pour répondre aux besoins des personnes vivant dans les banlieues (suburbs)6 ». Face à la saturation quotidienne des infrastructures routières et en l’absence d’alternatives modales satisfaisantes, les automobilistes perçoivent en Waze une solution de substitution qui satisfait leur intérêt individuel en minimisant leur temps de parcours.

L’émergence de cet acteur privé, indépendant des pouvoirs publics, suscite des tensions avec les autorités locales qui, impuissantes, assistent aux reports de trafic routier provoqués par cette application dans des zones résiden‑ tielles. Les autorités locales dénoncent la logique utilitariste inscrite dans son algorithme qui s’adresse à une multitude de clients individuels que l’entreprise cherche à satisfaire. « Ils [Waze] ont une vision individualiste du déplacement qui se heurte avec les politiques publiques qui veulent faire passer les flux de véhicules par les voies principales. Ils sont en contradiction avec les pouvoirs publics7. » L’entreprise rétorque que les principes de régulation inscrits dans l’algorithme de Waze suivent un principe strict de « neutralité » algorithmique, une rationalité procédurale8, qui considère de manière égale l’ensemble des voiries comme le souligne le PDG de Waze : « If the governing body deems the road as public and navigable, we will use it for routing as needed for the good of everyone. Our algorithms are neutral to the evalue of the real estate, the infrastructure cost to maintain the roads or the wishes of the locals. Waze will utilize every public road available considering variables such as road type and current flow, and keep the city moving9 ».

Cette justification de Noam Bardin marque le cadrage alternatif de la régulation de la circulation routière. Waze vise à optimiser l’usage de l’infrastructure routière pour répondre aux phénomènes de congestion. Son service se veut universel, neutre et indépendant des spécificités territoriales, des contextes culturels et des cibles auxquelles il s’adresse. L’application produit une forme de gouvernement « déterritorialisé » centré sur la satisfaction de l’intérêt individuel et inscrit dans une vision individualiste de l’automobiliste. Elle interroge en creux la capacité du pouvoir métropolitain à négocier la mise en œuvre de principes d’intérêt général avec cette entreprise de l’économie numérique. Le Grand Lyon va tenter de s’appuyer sur la mise à disposition de certaines données publiques au travers d’un partenariat avec Waze, qui s’éloigne des principes de l’opendata, pour infléchir la position de l’entreprise.

Waze et Google : des entreprises qui refusent le jeu du marché des données ouvertes

Les plateformes de l’économie numérique sont souvent présentées comme des entreprises prédatrices de données publiques. Les producteurs de données avancent régulièrement la crainte que la mise à disposition de leurs données conduise à renforcer la position dominante d’une entreprise telle que Google au détriment des capacités d’expertise de la collectivité. Cette suspicion à l’égard des géants du numérique est partagée par certains universitaires lyonnais :

La donnée, c’est l’or noir du XXIe siècle. Or actuellement, il y a effectivement des tentatives de privatisation de la donnée ; c’est préoccupant […] Des représentants de grands groupes déclarent publiquement que les données publiques qu’ils peuvent récupérer ne sont plus vraiment publiques parce qu’ils les structurent, les nettoient ou les enrichissent. Ils sont en train de revendiquer que les données publiques qu’ils vont aspirer peuvent leur appartenir10.

Pour éviter ce risque de « privatisation » des données publiques, ces acteurs suggéraient de mettre en place un certain nombre de garde‑fous au marché des données ouvertes. Si leurs craintes sont légitimes, force est de constater que les données ouvertes par les collectivités ne sont que marginalement réutilisées par ces entreprises de l’économie numérique. Ces dernières, pour conserver une indépendance et une maîtrise de l’ensemble de la chaîne de la donnée, s’appuient sur de multiples sources de données. Lorsqu’elles sont contraintes d’utiliser des données publiques locales, elles rechignent à utiliser les données ouvertes qui nécessitent un lourd travail de nettoyage et de standardisation afin d’effacer tous particularismes locaux pour être intégrées dans un service standardisé internationalement. Comme le souligne le cas de Waze et de Google, ces entreprises profitent de leur position dominante pour imposer aux collectivités des modalités alternatives d’accès à leurs données. En proposant des partenariats aux institutions publiques, elles font reposer sur celles‑ci le coûteux travail de préparation et d’intégration des données.

La donnée, c’est l’or noir du XXIe siècle. Or actuellement, il y a effectivement des tentatives de privatisation de la donnée ; c’est préoccupant.

En 2004, constatant que près d’un quart des requêtes sur son moteur de recherche concerne des informations localisées, Google achète deux start‑up, Where2Tech et Keyhole, afin de développer un service de cartographie numérique. Lancé en février 2005, Google Maps offre des cartes, des images satellite et de rues, des informations de circulation routière et un service de calcul d’itinéraires. Google Maps reçoit plus d’un milliard d’utilisateurs par mois et son API (Application Programming Interface), qui permet d’insérer ces cartes dans des sites tiers, est utilisé par plus d’un million de sites. Si elle propose une représentation unifiée de l’espace, l’entreprise utilise marginalement des données en opendata.

La production des cartographies de Google Maps repose sur plusieurs sources de données. Google s’est appuyé initialement sur des bases de données publiques11 ou privées12. Ces données initiales ont été harmonisées, actualisées et enrichies à l’aide d’images satellite, aériennes et de rue (Google Street View), traitées par des algorithmes d’analyse d’images13, dont les opérations sont vérifiées et corrigées par des centaines d’opérateurs. Enfin, l’entreprise fait appel aux utilisateurs au travers de trois dispositifs : le service MapMaker qui permet à l’internaute d’ajouter des informations, l’onglet Report a Problem pour signaler une erreur et un outil interne appelé Boule de cristal qui analyse les réseaux sociaux et les sites Internet pour identifier des sources d’erreurs. Le croisement et l’harmonisation de ces données hétérogènes reposent sur un travail manuel considérable effectué par des opérateurs. En 2012, plus de 7 000 personnes travaillaient sur Google Maps : 1 100 employés par Google et 6 000 prestataires, des chauffeurs des véhicules Street View aux opérateurs localisés à Bangalore en Inde dessinant les cartes ou corrigeant des listings14. La base de données est actualisée en permanence : il n’y a pas de campagnes de mise à jour ou de versioningdes données, les mises à jour sont continues. Les données sont standardisées pour l’ensemble des zones géographiques représentées : cette standardisation s’appuie sur des modèles de spécifications qui décrivent précisément les modalités de représentation de chaque entité.

À cette cartographie initiale, Google a ajouté deux services relatifs à l’information des voyageurs : Google Traffic et Google Transit. Google Traffic indique en temps réel les conditions de circulation routière. Il a été lancé en février 2007 dans trente villes des États‑Unis. Il s’est maintenant généralisé. Les informations ne proviennent pas des pouvoirs publics, mais sont obtenues par les localisations GPS transmises par les utilisateurs de téléphones portables. L’entreprise calcule la vitesse de déplacement de ces utilisateurs le long d’une voie pour déterminer les conditions de déplacement15. Le second service, Google Transit, fournit un calcul d’itinéraire de déplacement en transport en commun. Il a été lancé en octobre 2007 par l’intégration de données des réseaux de transports publics de plusieurs villes américaines.

https://www.pug.fr/produit/1897/9782706147357/quand-la-donnee-arrive-en-ville

Dans la continuité du projet de cartographie communautaire dont elle trouve son origine16, l’entreprise Waze fait reposer la production de ses données sur des logiques de crowdsourcing. Trois modalités de crowdsourcing, demandant plus ou moins d’engagements de la part du contributeur, cohabitent : les traces, les signalements et les éditions cartographiques. En premier lieu, Waze enregistre les traces de déplacement de ses utilisateurs afin de connaître la vitesse de circulation sur les différents tronçons de voirie. Ce premier type de crowdsourcing, reposant sur la collecte de traces d’activités des utilisateurs, est passif : il ne nécessite aucune interaction de la part de l’utilisateur. En deuxième lieu, l’application propose à ses utilisateurs de signaler les événements qu’ils rencontrent lors de leur trajet (embouteillage, accidents, fermetures de voies, présence policière, etc.). Enfin, une communauté d’éditeurs locaux est chargée de l’édition de la cartographie. Au travers d’une interface en ligne proposée par l’entreprise (WazeMap Editor342), des bénévoles enrichissent la base de données géographiques décrivant l’infrastructure routière. Ils tracent l’ensemble des tronçons de voirie, les mettent à jour et y associent des informations (type et nom de la voie, vitesse autorisée, sens de circulation, etc.).

La combinaison de ces trois sources de données offre à Waze une autonomie vis‑à‑vis de producteurs privés ou publics de données. Cela lui offre un double avantage. D’une part, elle n’est pas contrainte de déployer des infrastructures physiques de collecte de données puisque celles‑ci proviennent des téléphones des automobilistes. L’entreprise peut dès lors développer son service sans aucune présence territoriale ni contractualisation préalable avec les acteurs publics17. D’autre part, le crowdsourcing lui offre également une capacité à fournir une représentation unifiée des réseaux routiers qui dépassent les frontières administratives. Les données produites et utilisées par Waze, attachées aux véhicules et non à l’infrastructure, s’affranchissent des territoires institutionnels. Le service de Waze se veut sans frontières : présent dans plusieurs dizaines de pays, il s’appuie sur une description homogène des réseaux routiers quels que soient les territoires ou les domanialités de réseau. En cela, Waze unifie la réalité, sans tenir compte des spécificités locales, projet qui a longtemps été la raison d’être de l’État18.

Si elles tendent à maîtriser la chaîne de production de leurs données, tant Waze que Google restent dépendantes de certaines données publiques détenues par les autorités locales. Pour améliorer son service, Waze a besoin d’informations relatives aux fermetures planifiées de voirie qu’elle peine à collecter par ailleurs.

Les données produites et utilisées par Waze, attachées aux véhicules et non à l’infrastructure, s’affranchissent des territoires institutionnels.

Les villes ont tout un tas de données que l’on n’a pas : la planification des travaux, des événements, de visites, etc. Toutes ces données sont absolument critiques pour le bon fonctionnement de l’application. Et ça, c’est pas des données que l’on a. En tout cas, c’est pas des données que l’on a en avance. C’est des données que les utilisateurs peuvent déclarer à l’instant t, une fois que le bouchon est créé, mais pas en avance […] C’est une information critique qui nous manque19.

De même, les transports en commun sont un secteur sur lequel Google est aujourd’hui dépendant des données des opérateurs publics, puisqu’elle ne peut obtenir autrement les informations sur les horaires. Google pourrait utiliser les données mises à disposition en opendata, pourtant, elle ne le fait pas systématiquement. Si les données de la RATP sont intégrées au service Google Transit, ce n’est pas le cas de Rennes, Lyon, Toulouse ou Nantes par exemple. Cette absence d’utilisation des données en opendata interpelle, alors que Google est un acteur incontournable dans le discours des producteurs et suscite de nombreuses craintes.

De fait, Waze et Google n’ont recours que marginalement aux données ouvertes par les autorités locales. D’une part, l’hétérogénéité de ces dernières rend très longue et coûteuse leur intégration dans un système d’information standardisée à l’échelle internationale comme en témoigne le responsable technique de Waze : « Technically the hardest thing was that each municipality had a different level of knowledge. They give us the data in different ways. One is XML.One is KML. Another city would give us information by email. The Israeli police gave us data by fax. It was hard to beas flexible as possible in order to b eable to digest all of this information and to upload it to the users20  ».

Si le travail de nettoyage et d’intégration est possible ponctuellement et pour quelques villes, il devient vite considérable et difficilement industrialisable. D’autre part, la bonne intégration de ces informations dans leurs services requiert une connaissance des territoires dont ces entreprises, qui n’ont pas d’implantation territoriale fine, ne disposent pas. La vérification de la qualité des données nécessite une expertise minimale du réseau de transport et de ses spécificités pour s’assurer que les informations proposées à l’utilisateur sont cohérentes. « Nous, on n’est pas capable de dire si l’arrêt de bus se trouve de tel côté de la place, ou de l’autre21. » Pour preuve, en 2012, Google avait intégré directement les données proposées par la RATP en opendata. Mais le service de calcul d’itinéraires était de mauvaise qualité : seuls les métros et les RER étaient disponibles, les tramways et les bus étaient absents du service, qui ne prenait pas en compte les perturbations du réseau22. Pour y remédier, depuis le championnat d’Europe de football de 2016, Google fait désormais appel à un prestataire français, très bon connaisseur des spécificités du système de transport parisien, afin d’intégrer les données.

Pour éviter ces frais de standardisation, de nettoyage et d’intégration, les plateformes de l’économie numérique privilégient la mise en place de « partenariats » avec les producteurs locaux de données et leur imposent leurs conditions d’accès aux données publiques. Waze a lancé en 2014 le Connected Citizens Program, un programme d’échange de données avec des acteurs publics. L’entreprise propose de fournir gratuitement des données anonymisées et agrégées sur les conditions de circulation en temps réel et les incidents signalés par les utilisateurs ; en échange, les pouvoirs publics transmettent des informations sur les fermetures de voies et les événements impactant la circulation. De son côté, Google propose depuis plusieurs années aux opérateurs de transport un partenariat visant à intégrer les informations relatives à leurs réseaux dans Google Transit.

Dans les deux cas, les entreprises ont développé des formats techniques et des contrats juridiques standardisés à l’échelle internationale et proposent des interfaces en ligne de vérification et d’intégration de leurs données. Google a créé le General Transit Feed Specification (GTFS) pour les informations de transport en commun, tandis que Waze a élaboré le Closure and Incident Feed Specifications (CIFS), pour les fermetures de voirie. Elles proposent également des contrats génériques, non négociables, en anglais, de partenariats avec les fournisseurs de données qui indiquent les droits et obligations de chacun. Enfin, Google et Waze donnent accès à des interfaces qui permettent de visualiser les données et de vérifier les incohérences. « C’est vraiment un outil que l’on met à la disposition des collectivités. C’est pour ça que l’on préfère un partenariat. Ça permet d’améliorer la qualité des informations que l’on diffuse, puisqu’il y a une vérification par les acteurs locaux. Ça nous permet également d’assurer une certaine stabilité de la fourniture du service dans le temps. Par exemple, si la ville de Besançon publie ses données, mais, du jour au lendemain, change l’URL de son service, nous, on ne le verra pas forcément. Si la collectivité met à jour l’URL, ça permet d’éviter des problèmes de mise à jour, et comme ça, nous on n’indique pas des infos foireuses. C’est pourquoi on préfère faire des collaborations avec les collectivités. C’est comme cela que l’on procède partout dans le monde, on ne vient pas utiliser directement les données en opendata23 ».

Ainsi, contrairement à l’open data qui est perçu comme « plus complexe et moins engageant », Google souhaite ajouter des médiations supplémentaires pour « cadrer la relation » entre les producteurs de données et l’entreprise réutilisatrice. Surtout, par le biais de ces partenariats, Google réussit à faire reposer le travail de nettoyage, d’actualisation et d’intégration de ses données dans son service sur les autorités locales24. Ces dernières doivent en effet prendre à leur charge les coûts humains de formatage des données en GTFS, d’intégration, de vérification de la qualité et de mise à jour régulière des données. Le site Internet présentant les partenariats est particulièrement clair sur la responsabilité qui incombe aux producteurs de données.

Il est essentiel de fournir un flux de données d’excellente qualité. Google a créé un certain nombre d’outils opensource afin d’aider les réseaux à vérifier la qualité de leurs flux de données. Ainsi, les modalités des partenariats proposés par ces plateformes visent non seulement à industrialiser l’usage de données publiques en standardi‑ sant l’appariement entre offres et demandes, mais également à tirer profit de l’expertise locale des producteurs. Tout usage de données requiert une connaissance des spécificités propres à chaque territoire afin de s’assurer que les résultats algorithmiques ne sont pas aberrants pour l’utilisateur. Par ces partenariats, il s’agit d’éviter que le fonctionnement procédural des algorithmes se heurte au caractère substantiel des territoires et de leurs particularités25.

« Peut‑on ne pas être sur Google ? » : un rapport de force défavorable aux pouvoirs publics

Cette logique de partenariat imposée par les plateformes illustre le rapport de force défavorable entre les acteurs publics et ces nouveaux intermédiaires. Les entreprises de l’économie numérique s’appuient sur leur grand nombre d’utilisateurs pour contraindre les collectivités à accepter leurs conditions de partenariats et faire reposer la charge de travail sur les producteurs de données. Au sein de la métropole de Lyon, le débat vis‑à‑vis de ces partenariats s’est posé en ces termes : « On ne sait pas comment faire vis‑à‑vis d’eux, est‑ce que l’on doit leur donner nos données et accepter leurs conditions ? Pour l’instant on résiste, mais est‑ce qu’on pourra le faire longtemps ? Peut‑on aujourd’hui ne pas être sur Google Maps ? En termes de visibilité de notre offre de transport, à l’international notamment, et de services pour nos usagers, on doit y être26. » Les plateformes mobilisent ainsi leurs utilisateurs comme une force politique pour peser indirectement dans les négociations avec les autorités locales et imposer leurs conditions d’accès aux données.

Les plateformes mobilisent ainsi leurs utilisateurs comme une force politique pour peser indirectement dans les négociations avec les autorités locales et imposer leurs conditions d’accès aux données.

Au sein des collectivités, le sujet de la relation à adopter vis‑à‑vis des plateformes numériques est l’objet de discussions vigoureuses. Le partenariat avec Waze a suscité de vifs débats et a été l’objet de combats politiques au sein de la métropole. « C’est compliqué, parce que politiquement, ça peut être le meilleur comme le pire. Le meilleur parce que ça améliore le service à l’usager et qu’ils s’appuient sur nos informations de trafic. Le pire parce qu’ils ont des effets délétères sur les reports de trafic et qu’on risque de perdre le contrôle […] On ne sait donc pas bien où ça va mener parce que l’exécutif reste divisé sur le sujet : des adjoints sont pour, d’autres s’y opposent fermement27 ». Le Grand Lyon souhaitait profiter de cette proposition de partenariat pour infléchir la position de l’entreprise quant à l’évolution de ses algorithmes pour qu’ils prennent en compte les orientations de sa politique de mobilité. Face au refus ferme de l’entreprise, la collectivité a longtemps décliné le partenariat. Pourtant, quelques mois plus tard, alors que d’importants travaux sont réalisés, perturbant le trafic au cœur de l’agglomération, la métropole décide de signer le partenariat et d’accepter les conditions de l’entreprise. « L’augmentation du nombre d’utilisateurs de cette application devenue incontournable […] et des perspectives d’innovation et d’amélioration du service pour les usagers conduisent aujourd’hui à réviser la position de la Métropole dans le sens d’une participation à ce partenariat et d’en faire une opportunité […] Les données de la Métropole, notamment les chantiers prévisionnels, permettraient à Waze d’améliorer ses services et ainsi de ne pas orienter des flux de véhicules dans les secteurs concernés […] L’intérêt premier pour la Métropole de cette participation réside dans la perspective d’améliorer la sécurité et l’information des voyageurs28 ». Les perturbations liées à ces longs chantiers dans l’agglomération, mais surtout la place acquise par l’application dans la régulation routière du fait de son nombre toujours croissant d’utilisateurs ont conduit le Grand Lyon à revoir sa position. « Pourquoi les élus ont bougé ? Parce qu’on leur a dit qu’aujourd’hui, ça s’imposait à nous. Il vaut mieux en être plutôt que de les laisser prendre le contrôle29». La prise en compte par Waze de leurs informations est perçue comme un prolongement bénéfique de leur politique de régulation routière. Pour les pouvoirs publics, la réutilisation de leurs données est vue comme un moyen de conserver une partie de la maîtrise de leur politique publique en s’assurant que ces services se basent sur des informations officielles et fiabilisées.

Toutefois, si ces partenariats rencontrent un relatif succès dans le monde, les pouvoirs publics locaux français sont encore très peu à s’y soumettre. Plus de 7 000 opérateurs de transport dans le monde transmettent leurs données à Google. En France, ils ne sont que 64 (sur plusieurs centaines), dont plus d’un tiers transmettent uniquement le plan du réseau et non les horaires qui permettent le calcul d’itinéraire. Dans le cas de Waze, la situation est similaire. Alors que la France est le troisième marché mondial de l’entreprise, seule une trentaine d’autorités publiques locales ont signé le partenariat d’échange de données (contre plus de 900 partenaires dans 50 pays). Ces partenariats sont ainsi difficiles à mettre en place en France comme me le révèle un responsable de Waze : « C’est assez galère […] On a beaucoup de mal avec la France, parce qu’ils demandent toujours des trucs spécifiques, ils ne vont pas signer des contrats en anglais, y a des lois, y a des machins et on a beaucoup de mal à avancer […] Je crois qu’il y a vraiment un enjeu de compréhension, d’échange. On a rencontré une grande ville française il y a deux semaines, y avait une incompréhension totale30. » Cet extrait souligne les difficultés d’échange entre deux mondes sociaux éloignés l’un de l’autre, les acteurs publics d’une part et les salariés des plateformes d’autre part.

Alors que les premiers ont l’habitude des négociations avec les entreprises pour adapter leur offre au contexte local et construire une « action publique négociée31 », les seconds souhaitent établir ces partenariats sans contrôle de leurs activités ni transformation de leur service. Surtout, en quête de rendements croissants, leur enjeu est de multiplier ces partenariats en réduisant au maximum leurs interactions avec les acteurs locaux. « Mon enjeu c’est scale. On ne peut pas faire du one‑to‑one, il faut que l’on fasse du one‑to‑many. C’est plus possible. Je ne peux passer une demi‑journée avec Cannes, je ne peux pas passer une après‑midi à Marseille, même si c’est Marseille, c’est impossible32. » De fait, les ressources humaines que Waze consacre au développement de ces partenariats sont très limitées. Le bureau français de l’entreprise est composé exclusivement de personnes au profil commercial, chargées de vendre des espaces publicitaires à des annonceurs, très éloignées des problématiques urbaines. « Il y a une personne sur la zone EMEA [Europe, Middle East & Africa] qui est en charge des CCP, mais il est Israélien et basé en Israël. Il ne parle qu’anglais, et fait des rendez‑vous par visioconférence. Donc, c’est moyen pour les collectivités françaises en termes de relations33 » Cette faible ressource accordée par l’entreprise au développement de ces partenariats illustre la profonde différence entre ces plateformes de l’économie numérique et les firmes urbaines traditionnelles dans leur relation aux acteurs publics locaux. Alors que les dernières, attentives aux enjeux des territoires, s’attachent à construire des relations personnali‑ sées et pérennes avec l’administration et les élus territoriaux, la logique de croissance rapide des plateformes les conduit à considérer les acteurs publics comme d’autres usagers de la plateforme auxquels on propose une offre de services standardisée en libre‑service.

Les exemples de Google et de Waze mettent en évidence une autre modalité de coordination entre acteurs publics et privés qui se joue au travers de la mise en circulation des données publiques. Ces entreprises de l’économie numérique appliquent dans leurs relations aux collectivités les principes de rationalisation et de standardisation, caractéristiques du fonctionnement des marchés de consommation de masse. Afin d’intégrer dans leurs services, à un coût réduit, les données, très hétérogènes, provenant d’une multitude d’acteurs locaux, elles n’ont d’autres choix que de rationaliser et standardiser le produit échangé (les données), mais également toutes les opérations accompagnant cet échange. La standardisation de la donnée garantit que celle‑ci corresponde à un certain nombre de caractéristiques qui facilitent son utilisation sans friction dans le système d’information de l’entreprise. D’autre part, la standardisation des opérations d’appariement au travers d’un contrat unique, signé à distance, et d’une interface et d’outils en ligne de nettoyage et de transfert des données assure une réduction au strict minimum de la relation entre les plateformes et les collectivités locales. L’alignement de toutes ces opérations sur un même modèle permet aux plateformes d’industrialiser l’usage de données publiques provenant de multiples sources.

Le réattachement des données à de nouveaux utilisateurs pose la question de l’appariement entre offre et demande de données. Loin d’aller de soi, cette rencontre est fragile et repose sur de nombreuses médiations qui facilitent l’attachement de la donnée à un nouvel environnement informationnel. L’analyse des modalités de la rencontre entre offres et demandes de données fait émerger une tension entre la singularisation et la standardisation des données ouvertes. Les données sont des biens singuliers, qu’il est nécessaire de qualifier par le biais d’un ensemble de dispositifs, afin de réduire l’incertitude sur leur qualité et assurer leur usage au sein d’un nouvel environnement informationnel. À la suite de ces opérations de qualification, la donnée devient un objet‑frontière circulant entre deux mondes sociaux : elle reste attachée aux producteurs tout en étant réattachée à de nouveaux utilisateurs. Cette singularité peut toutefois constituer une limite à la réutilisation. Les attachements initiaux des données sont trop solides et empêchent un usage alternatif sans trahir la donnée initiale. Les derniers cas présentés mettent en avant comment les plateformes entendent dépasser les singularités des données publiques en imposant leurs modalités standardisées d’accès aux données. En cela, elles parviennent à industrialiser la réutilisation des données territoriales sans passer par le marché des données ouvertes.

Ne pouvant s’appuyer sur les données ouvertes, les entreprises développent leurs propres représentations du territoire à partir desquelles vont reposer leurs services numériques.

Au travers de ces trois politiques des données ouvertes, la place et le rôle de l’institution publique sont interrogés, tout comme sa capacité à gouverner son territoire par la mise en circulation des données. Devenue objet‑frontière, la donnée renforce le pouvoir sémantique de la collectivité. La mise en circulation des données renforce sa capacité à coordonner des acteurs autour d’une représentation partagée du territoire. À l’inverse, les situations de déliquescence illustrent la perte de la maîtrise de représentation de leurs territoires par les acteurs publics. Ne pouvant s’appuyer sur les données ouvertes, les entreprises développent leurs propres représentations du territoire à partir desquelles vont reposer leurs services numériques. Ces situations questionnent le rôle que doit jouer l’acteur public : doit‑il produire des données pour ses politiques publiques ou pour des acteurs externes ? Doit‑il rester dans une politique de l’offre ou s’adapter à la demande de données pour préserver son pouvoir sémantique ?

Enfin, les rapports de pouvoir défavorables à l’institution publique peuvent la conduire à accepter des formes alternatives de diffusion de ses données. Celles‑ci peuvent tout à la fois être interprétées comme une diminution ou un renforcement du pouvoir sémantique des autorités publiques à dire ce qui est. Même si l’information leur est fournie par un autre canal, elles conservent en effet la maîtrise de l’information transmise aux usagers. Les autorités publiques restent la source d’informations légitime à partir de laquelle vont se coordonner les usagers. Pour les pouvoirs publics, la réutilisation de leurs données est perçue comme un moyen de conserver une part de la maîtrise de leur politique publique en s’assurant que ces services se basent sur des informations officielles et fiabilisées. Ces partenariats soulignent le redéploiement des autorités publiques dans certains territoires. Celles‑ci effectuent un gouvernement indirect par l’intermédiaire de la mise en circulation de leurs données, ce qui conduit à une « décharge34 » des collectivités locales vers ces plateformes. Pour les autorités publiques, ce partenariat renforce leur pouvoir d’instituer ce qu’est la réalité en s’assurant de faire réalité commune avec les nouvelles représentations offertes par le bigdata.

Sources :

1 : Here Maps est l’héritière de la société américaine Navteq. Fondée en 1985, Navteq a été achetée en 2007 par l’entreprise Nokia. Cette dernière a revendu à l’été 2015 cette activité cartographique à un consortium de constructeurs automobiles allemands (Audi, BMW et Daimler) pour un montant de 2,8 milliards d’euros. Ses cartographies, qui couvrent près de 190 pays, sont vendues à de nombreux constructeurs es entreprises numériques (Amazon, Bing, Yahoo!, etc.).

2 : Face à cette situation, le Grand Lyon se trouve réduit à agir sur l’infrastructure, en réclamant à l’État le déclassement de la voie, afin de pouvoir réduire drastiquement la vitesse de circulation et installer des feux de circulation, ce qui contribuerait à modifier substantiellement les calculs d’itinéraires. https://www.rue89lyon.fr/2016/04/01/autoroute-a6-a7-quand-gerard-collomb-voulait-convaincre-les-gps-dignorer-fourviere/ (consulté le 26/11/20).

3 : En Île‑de‑France, l’entreprise estime que près de 70% des automobilistes sont utilisateurs de l’application.

4 : Antoine Courmont, 2018, « Plateforme, big data et recomposition du gouver‑ nement urbain. Les effets de Waze sur les politiques de régulation du trafic », Revue française de sociologie, vol. 59, n° 3, p. 423‑449.

5 : Éric Le Breton, 2017, « L’espace social des mobilités périurbaines », SociologieS. https://journals.openedition.org/sociologies/5917 (consulté le 26/11/20).

6 : Entretien avec Claudia, responsable des partenariats, Waze, juillet 2017.

7 : Entretien avec les responsables du PC Circulation, Lyon, mai 2017.

8 : Dominique Cardon, 2018, « Le pouvoir des algorithmes », Pouvoirs, vol. 164, n° 1, p. 63‑73.

9 : Noam Bardim, 2018, « Keeping cities moving. How Waze works ? », 12 avril 2018. https://medium.com/@noambardin/keeping‑cities‑moving‑how‑waze‑works‑4aad0 66c7bfa (consulté le 26/11/20).

10 : Interview d’Atilla Baskurt et Jean‑François Boulicaut (30 novembre 2012). https://www.millenaire3.com/Interview/2012/liris‑le‑marche‑des‑donnees (consulté le 26/11/20)

11 : L’US Census Bureau aux États‑Unis, l’IGN en France par exemple. La liste des sources de données de Google Maps est disponible à cette adresse : http://www.google. com/intl/fr/help/legalnotices_maps.html (consulté le 26/11/20).

12 : Google achète des bases de données géographiques auprès de l’entreprise TomTom.

13 : Ces algorithmes permettent de détecter et d’interpréter les panneaux de signa‑ lisation routière, les noms et numéros de rue et certains points d’intérêts (enseignes commerciales, etc.).

14 : https://www.businessinsider.fr/us/to‑do‑what‑google‑does‑in‑maps‑apple‑would‑ have‑to‑hire‑7000‑people‑2012‑6 (consulté le 26/11/20).

15 : http://googleblog.blogspot.fr/2009/08/bright‑side‑of‑sitting‑in‑traffic.html (consulté le 26/11/20).

16 : Waze trouve son origine dans le projet de cartographie communautaire « Free‑ MapIsrael », qui visait à produire une base de données cartographique d’Israël à partir d’informations issues des terminaux mobiles des utilisateurs, qui étaient ensuite certi‑ fiées et nommées.

17 : https://www.waze.com/fr/editor (consulté le 26/11/20).

18 : Cette indépendance est renforcée par le modèle économique de l’entreprise. Gratuite pour ses utilisateurs, l’application est financée par la publicité.

19 : Entretien avec Simon, responsable des partenariats, Waze France (31 mai 2017)

20 : Mitchell Weiss et Alissa Davies, 2017, « Waze Connected Citizens Program », Harvard Business School Case 817‑035.

21 : Entretien téléphonique avec Francesca, cheffe de produit, Google (9 février 2015).

22 : Les informations lacunaires rendent le service peu efficace comme le souligne ce billet de blog. Yann Le Tilly, « Google Transit à Paris : pour les cowboys uniquement ! » (28 novembre 2012). https://transid.blogspot.com/2012/11/google‑transit‑paris‑pour‑ les‑cowboys.html (consulté le 26/11/20).

23 : Entretien téléphonique avec Hugues, directeur des politiques publiques, Google (11 février 2015).

24 : La liste des villes présentes sur Google Transit est disponible à cette adresse : http://maps.google.com/landing/transit/cities/index.html (consulté le 26/11/20).

25 : Dominique Cardon et Maxime Crépel, 2019, « Les algorithmes et la régulation des territoires » dans Antoine Courmont et Patrick Le Galès (dir.), Gouverner la ville numérique, Paris, PUF, p. 83‑101.

26 : Journal de terrain, discussion avec Léa, juin 2015.

27 : Entretien avec Guillaume, service de la mobilité urbaine, Grand Lyon (5 mai 2018).

28 : Décision n° CP‑2019‑2915 (commission permanente du 4 mars 2019).

29 : Échange avec François, services informatiques, Grand Lyon (5 mai 2018).

30 : Entretien avec Simon, responsable des partenariats, Waze France (31 mai 2017).

31 : Maxime Huré, 2012, « Une action publique hybride ? Retour sur l’institution‑ nalisation d’un partenariat public‑privé, JCDecaux à Lyon (1965‑2005) », Sociologie du travail, vol. 54, n° 2, p. 29.

32 : Entretien avec Simon, responsable des partenariats, Waze France (31 mai 2017).

33 : Échange avec Marine, cheffe de projet, Waze France (mai 2019).

34 : Béatrice Hibou, 1998, « Retrait ou redéploiement de l’État ? », Critique internationale, n° 1, p. 151‑168.

Et pourtant, c’est un beau métier, facteur…

©Yves Souben
Devant le bureau de Poste Crimée, à Rennes, les postiers en grève contre la réorganisation de leur travail. © Yves Souben

Des gestes répétitifs, des cadences imposées par des algorithmes, un métier vidé de son sens. En grève depuis le 9 janvier, les facteurs de toute l’Ille-et-Vilaine protestent contre une nouvelle réorganisation de leur travail. Et dénoncent une pénibilité ignorée par leur direction.

Il faut prendre son courrier. Sortir de la voiture. Le distribuer. Lettre par lettre. Boîte par boîte. Revenir dans sa voiture. Et, un peu plus loin, recommencer. Prendre le courrier, sortir, distribuer. Lettre par lettre, boîte par boîte. Toujours les mêmes gestes, répétés pendant des heures.

On pense facilement que les mouvements répétitifs et le travail à la chaîne appartiennent au passé, au XXe siècle. C’est faux. Publiée le 20 décembre 2017, une étude du ministère du travail souligne que 42,7% des salariés en France doivent répéter continuellement une même série de gestes ou d’opérations. En 2005, ils étaient 27%. Le travail à la chaîne existait dans l’industrie, il s’impose désormais dans le secteur des services. Figures emblématiques du service public, les facteurs en savent quelque chose. Prendre le courrier, sortir de la voiture, distribuer, rentrer, sortir, distribuer, rentrer…

« A un moment donné, tu auras un accident avec ces gestes répétitifs », proteste Philippe Charles, délégué syndical de la CGT FAPT d’Ille-et-Vilaine. Ce mardi 9 janvier, il est avec les autres, sur le piquet de grève du bureau de Poste Crimée, à Rennes. Depuis une semaine, une partie des facteurs du département a arrêté le travail, pour protester contre une nouvelle « réorg’ », imposée par la direction de La Poste.

Des corps marqués par les cadences de travail

Présents depuis sept heures du matin, les grévistes se réchauffent auprès des braséros improvisés dans des bidons métalliques. Un peu plus loin, la sono crachotte du France Gall. « Résiste », encourage-t-elle les salariés. « Prouve que tu existes ! » Auprès des palettes qui se consument en flammes vives, ceux-ci énumèrent les derniers accidents, les souffrances du travail. Il y a les chutes des vélos, plus nombreuses depuis que La Poste est passée aux vélos électriques. On va plus vite avec moins d’effort, mais les accidents n’en sont que plus violents. Une cheville, un genou cassé.

Et puis surtout, il y a « les TMS », expliquent les délégués syndicaux. Avant de préciser : les troubles musculosquelettiques. Toutes ces maladies qui touchent les tissus mous : muscles, tendons, nerfs ; de loin les maladies professionnelles les plus courantes. « J’ai une militante de 45 ans qui est factrice », témoigne Yann Brault, secrétaire-adjoint de SUD PTT sur le département. « Elle a une capsulite, elle s’est décrochée l’épaule en distribuant le courrier. »

Il y a Nounours, aussi, qui se tient à côté du feu. Inutile de chercher pourquoi il veut se donner ce surnom, son imposante stature engoncée dans son blouson de cuir l’explique à elle seule. « Il a mal au dos, toute l’année », explique une de ses collègues factrices. « Depuis qu’on a les nouvelles positions de travail soi-disant ergonomiques, les cadences se sont accélérées », se plaint-il. A la lueur des flammes, il imite ses gestes de travail, pour trier son courrier avant de faire sa tournée. Aux mouvements amples du tri au jet se sont substitués les petits gestes du tri par casier, numéro d’habitation par numéro d’habitation.

Dans d’autres centres, la rationalisation du travail rend celui-ci plus pénible encore, à travers l’imposition des « tournées sacoches ». Le facteur n’a plus la possibilité de trier lui-même son courrier et de s’organiser en fonction de son terrain, il récupère sa sacoche déjà apprêtée et se contente de distribuer ses plis.

Les algorithmes, les pires contremaîtres qui soient

« L’accroissement des contraintes de productivité, l’intensification du travail dans un contexte de vieillissement de la population active expliquent au moins en partie l’augmentation des TMS », résume sobrement l’Institut National de Recherche et de Sécurité (INRS) sur son site. Les facteurs en savent quelque chose. L’âge moyen des salariés du groupe La Poste est de 47,2 ans. Mais surtout, ils sont confrontés à une intensification sans cesse de leurs tâches exigées.

« On a des tournées surchargées, démesurées, et donc des heures supplémentaires qui ne sont pas payées », dénonce Philippe Charles. Mandatées par le comité d’hygiène, de sécurité et des conditions de travail (CHSCT), des études indépendantes ont conclu que la charge de travail des salariés était sous évaluée, avec de nombreux dépassements des horaires officiels. Alors les facteurs s’adaptent. « Les collègues arrivent 30 minutes avant l’heure, détaille Christelle, ils ne prennent pas leur pause de 20 minutes pour finir à temps. »

« La charge de travail n’est plus calculée sur le terrain maintenant », déplore Philippe Charles. Les facteurs sont désormais livrés à des algorithmes, qui définissent le temps de travail nécessaire par tournée. Gare à ceux qui dépassent les horaires ainsi calculés. Le cégétiste témoigne : « on a des jeunes qui viennent nous dire qu’on les a engueulé, on leur dit qu’ils ne vont pas assez vite, qu’ils ne savent pas travailler ».

La direction de La Poste, de son côté, se base sur la baisse du courrier pour réorganiser le travail. « Le centre de Rennes Crimée a distribué 25 000 plis en moyenne chaque jour en 2017 », explique dans Ouest France le directeur de l’établissement, Stéphane Lavrilloux. Et de préciser : « c’est deux fois moins qu’il y a deux ans ».

Alors le groupe réduit ses effectifs, drastiquement. En 18 ans, 78 000 emplois de postiers ont été détruits au niveau national. Des tournées de distribution sont elles aussi supprimées. « En 1995, on avait 43 tournées » sur le centre postal de Rennes Crimée, se souvient Nounours. Il n’en reste que 22 aujourd’hui.

Perte de sens, perte de moral

Secrétaire adjoint du syndicat SUD PTT d’Ille et Vilaine, Yann Brault énumère les prochaines suppressions de tournées. « Il y en aura six au bureau Crimée, à partir du 23 janvier. Au bureau Colombier, une douzaine, au moins, dans trois mois. Et au mois de septembre, 3 ou 4 tournées seront supprimées, une douzaine au moins au bureau de Maurepas. »

Plus qu’accompagner la baisse du courrier, ces évolutions accentuent la charge de travail des facteurs. Le CHSCT a demandé une expertise indépendante pour motiver la nécessité de supprimer ces tournées sur les centres rennais. « La direction a refusé de transmettre les logiciels de calcul et les documents », indique Yann Brault. L’affaire a été portée devant la justice. A Grenoble, une réorganisation similaire a été suspendue pour les mêmes raisons.

Quant aux facteurs, ils doivent déjà se plier à la transformation du groupe en prestataire de services. Vérification de chauffe-eaux, tâches demandées par les copropriétés, visites aux personnes âgées… « J’ai dû faire des remises commentées de catalogues », décrit Christelle. « Il faut les remettre en mains propres, en faisant des commentaires. Les gens, ça les emmerde, mais on utilise quand même notre image pour vendre ces produits. » Surtout auprès des personnes âgées, qui ne sont pas touchées par les publicités en ligne.

« On perd le sens de notre métier », constate Philippe Charles. Auprès du feu, dans son blouson de cuir, Nounours confirme les propos du cégétiste. Plus que la douleur physique, c’est le moral des facteurs qui est touché par les réorganisations imposées. « Avant on avait la conscience professionnelle, mais ça s’épuise, on n’est plus motivés. » A ses côtés, Christelle tire le même constat. Avant de soupirer : « et pourtant, c’est un beau métier, facteur… »

Et qu’en pense la direction de La Poste ?

“Vous allez voir, si vous posez des questions sur la surcharge de travail des facteurs, la direction ne vous parlera que de baisse du courrier”, soupiraient les délégués syndicaux sur le piquet de grève. Contacté, l’attache de presse du groupe la poste pour la Bretagne propose immédiatement de venir à la conférence de presse du lendemain. Soit.

Les bureaux administratifs de la poste en Bretagne se trouvent dans l’ancien palais des commerces de Rennes, bâtiment emblématique dont les arcades longent la place de la République, en plein centre-ville. Accompagné par une vigile, on peut rejoindre les étages qui surplombent la poste centrale, inaccessibles habituellement au public. Lorsque vient le moment d’entrer dans la salle de la conférence de presse, une responsable tique.

“Je n’ai pas été prévenue de votre présence.” Ce n’est pas faute, pourtant, d’avoir répondu à l’invitation envoyée. Alors que le journaliste de Ouest France entre sans encombre, l’interrogatoire commence. “Est-ce que vous êtes un média local ? Est-ce que vous êtes politisés ? Est-ce que vous allez prendre en compte notre point de vue ?” On aurait bien aimé transmettre plus précisément les réponses du groupe La Poste aux divers témoignages recueillis. Seulement, un coup de fil au national de la poste plus tard, on se retrouve mis à la rue.  “On vous rappelle dans l’après midi pour que vous puissiez nous poser vos questions.” On attend toujours.

 

Crédits :

© Yves Souben