Dématérialiser pour mieux régner : l’algorithmisation du contrôle CAF

Depuis près de quinze ans, la CAF emploie un algorithme pour contrôler ses allocataires. Croisant les données des administrations, il assigne à chaque allocataire un score de risque de « fraude ». Plus le score de risque est élevé, plus il est probable que la personne soit contrôlée. Des associations comme Changer de Cap et la Quadrature du Net ont documenté la manière dont ces pratiques pénalisent les plus précaires. Elles dénoncent des suspensions automatiques des droits, des contrôles à répétition, le manque de transparence autour de décisions prises et le manque de voies de recours. De quelle politique sociale cet algorithme est-il le nom ? Entre réduction des dépenses, criminalisation de la pauvreté et contrôle de la fraude, il met en lumière la face autoritaire et austéritaire du système contemporain de protection sociale.

Rencontre organisée par le Mouton Numérique avec Bernadette Nantois, fondatrice de l’association APICED, qui œuvre pour l’accès aux droits des travailleurs immigrés ; Vincent Dubois, professeur de sociologie et de science politique à Sciences Po Strasbourg et auteur de Contrôler les assistés. Genèses et usages d’un mot d’ordre (Raisons d’Agir, 2021) et les membres de La Quadrature du Net, association de défense des libertés en ligne. Transcrit par Dany Meyniel et édité par MBB.

Mouton Numérique – Depuis les années 1990, la branche « famille » de la Sécurité sociale a mis en place une politique de contrôle. En 2022, le collectif Stop Contrôles et Changer de Cap ont commencé à alerter sur la mise en place d’algorithmes de contrôle à la CNAF et sur leurs impacts : suspensions préventives des allocations, manque de justification de ces décisions, impossibilité de faire recours… Derrière ces pratiques, un algorithme de notation des personnes allocataires. Comment fonctionne-t-il ? A quoi est-il destiné ?

Noémie Levain (La Quadrature du Net) – À la Quadrature, on a commencé à travailler sur le sujet des algorithmes de contrôle à la CAF en rencontrant le collectif « Stop Contrôles ». On est une association qui se bat pour les libertés numériques et principalement contre la surveillance : d’abord la surveillance privée des GAFAM, la surveillance d’État et le renseignement, enfin la surveillance dans l’espace public et les outils de surveillance policiers installés dans les villes de France. La question de la dématérialisation et des algorithmes publics est arrivée par un cas de dématérialisation chez Pôle emploi où un demandeur d’emploi s’était fait radier parce qu’il faisait des demandes d’emploi en format papier plutôt qu’en ligne. On a fait un article dessus, ce qui nous a amené à rencontrer le collectif « Stop Contrôles » qui regroupe des syndicats et des associations et à lire le livre de Vincent Dubois sur l’histoire du contrôle à la CAF.

On sait que grâce à la dématérialisation des dix dernières années, la CAF dispose de profils très fins des allocataires. Elle dispose des données collectées par les services sociaux, partagées et interconnectées avec d’autres nombreux services. La volonté politique affichée au moment de développement de l’algorithme était de lutter contre la fraude à la CAF, en définissant un profil-type de « fraudeur » social et en le comparant à chaque allocataire. Ce profil type est constitué de plusieurs variables, qui correspondent à des caractéristiques, qui permettent d’établir pour chaque personne allocataire un score de risque qui va de zéro à un.

Plus la personne est proche du profil type, plus le score de risque est élevé ; et plus le score est élevé plus cette personne a une probabilité de subir un contrôle. Parmi ces critères, figurent par exemple le fait d’être un parent seul ou d’être né en dehors de l’UE. Pour mieux comprendre le fonctionnement et les critères de l’algorithme, on a fait des demandes d’accès à des documents administratifs auprès de la CNAF. [Voir le détail du fonctionnement de l’algorithme et la liste des critères pris en compte dans l’enquête de la Quadrature, n.d.r.].

Alex (LQDN) – Au tout début, autour de 2010, l’algorithme a été créé pour lutter contre la fraude mais il ne marchait pas trop bien : la fraude implique un élément intentionnel et c’est donc très compliqué, malgré toutes les données, de qualifier un élément intentionnel à partir de données socio-démographiques, professionnelles ou familiales. Par contre, l’algorithme détecte très bien les indus, les trop-perçus liés aux erreurs de déclaration des allocataires. La CAF a donc ré-entrainé son algorithme pour viser le trop-perçu. Et ça, ça a bien marché.

Sauf que dans leur discours, la CAF a continué de parler de son algorithme comme un algorithme de lutte contre la fraude. Ils ont même été interviewés à l’Assemblée Nationale, par la Délégation Nationale de lutte contre la fraude, une sorte de pseudo institution créée par Sarkozy pour chapeauter la lutte contre la fraude en France et qui œuvre au transfert de « bonnes pratiques » entre administrations. Ils mettaient toujours la CAF en avant et la CAF, à ce moment-là, parlait de son algorithme comme un algorithme contre la fraude alors même qu’elle savait que c’était la lutte contre les trop-perçus. Pendant dix ans elle a joué un jeu un peu flou et aujourd’hui où on lui dit : « vous notez les gens selon leur potentialité d’être fraudeur(se)s », elle se rend compte que ce n’est pas bon et fait un rétropédalage et dit : « non, nous on a un truc qui détecte les erreurs ».

En creusant le sujet de la CAF on s’est rendu compte que ce type de pratiques sont présentes à l’Assurance Maladie et à l’Assurance Vieillesse. En ce qui concerne Pôle emploi, ils ont des projets pour organiser les contrôles des chômeurs et chômeuses par du profilage. Les impôts font la même chose. C’est le même principe que la surveillance automatisée dans l’espace public que nous constatons dans Technopolice : on va confier à un algorithme la tâche de repérer un profil type avec des critères et des paramètres préétablis, qui vont être la source d’une interpellation ou d’une action policière. Chaque institution a son profil type de profils à risque : dans la rue on a des profils type de comportements suspects ; la DGSI flague les suspects en surveillant l’intégralité des flux internet ; la Sécurité Sociale a ses fraudeurs. On assiste à une multiplication des scores de risques dans les administrations dans l’opacité la plus totale. Mais elle a des implications très concrètes et très violentes pour les usagèr.es.

M.N. – Comment ces techniques de data mining ont-elles été développées dans l’action sociale ?

Vincent Dubois – En ce qui concerne la constitution des modèles et leurs données, la CNAF diligente périodiquement des enquêtes grandeur nature avec des échantillons extrêmement importants. Au début du datamining, c’était cinq mille dossiers d’allocataires sélectionnés de façon aléatoire qui ont fait l’objet de contrôle sur place, d’enquêtes très approfondies. L’idée était donc d’identifier, sur ce grand nombre de dossiers, les dossiers frauduleux.

À partir du moment où on a identifié les dossiers frauduleux et des dossiers avec des erreurs et des possibilités d’indus, on s’est intéressé aux caractéristiques qui spécifiaient ces dossiers par rapport aux autres. C’est là qu’intervient la technique de datamining qui est une technique de statistique prédictive qui modélise, calcule les corrélations entre les caractéristiques propres à ces dossiers « à problème » de façon à construire des modèles qui ensuite vont être appliqués à l’ensembles des dossiers. Une fois ces modèles réalisés, l’ensemble des dossiers des allocataires sont chaque mois passés de façon automatisée sous les fourches caudines de ce traitement statistique et là effectivement on détermine ce que l’institution appelle un « score de risque ».

Les Caisses locales reçoivent les listings avec les scores de risque et décident de lancer des contrôles sur pièces, sur place et les dossiers les plus fortement scorés font systématiquement l’objet de contrôles et ensuite on descend dans la liste en fonction du nombre de dossiers concernés et rapportés aux moyens humains déployés. Donc si on veut être précis, ce n’est pas en tant que tel un outil de contrôle, c’est un outil de détection des risques de survenance d’une erreur qui sert au déclenchement d’un contrôle.

M.N. – Si l’algorithme a été généralisé autour des années 2010, il s’inscrit dans un politique de contrôle de longue date, laquelle est-elle ?

Vincent Dubois – La longue histoire politique du contrôle commence autour de 1995, quand Alain Juppé commandite le premier rapport parlementaire et lance le premier plan de ce qui va devenir le plan de lutte contre la fraude. C’était tout de suite après l’élection de Chirac, dont la campagne avait été consacrée à la fameuse fracture sociale, plus ou moins oubliée par la suite, et à des réductions d’impôts qui n’ont pas eu lieu. Il y a alors une ambition très politique, c’est assez explicitement pour donner le change que Juppé met en avant la « bonne dépense » de l’argent public plutôt que de chiffrer le montant de la fraude dont on n’a à l’époque aucune idée.

La Cour des comptes, l’ensemble des organismes soutenaient d’ailleurs que c’était impossible à chiffrer. La politique ne sera donc pas fondée sur une évaluation a priori ni de l’importance de la fraude ni de l’augmentation de la fraude. C’est très politique, même si le sens peu changer dans le temps. Ce qu’il se passe autour de 2007, c’est que la dimension morale intervient. On ne fait pas seulement rogner sur la protection sociale : autour de 2007, le grand projet de société proposé par Sarkozy – je personnalise mais Sarkozy n’est pas le seul – c’est le travail, la valeur travail. Tous les sociologues savent que pour qu’une norme existe il faut aussi identifier son contraire. Le contraire de la valeur travail c’est l’assistanat, et le comble de l’assistanat c’est l’abus des prestations sociales. Mon hypothèse est que si à l’époque de Sarkozy on a autant mis l’accent là-dessus, c’est que c’était un moyen de, par contraste, de promouvoir ce qui était au cœur du projet de société sarkozyste.

À la Caisse Nationale des Allocations Familiales, il y a trois formes essentielles de contrôle.Je vais les détailler pour permettre de comprendre la place qu’occupe effectivement le datamining. La première, c’est le contrôle automatisé par échange de données entre administrations. Lorsque les allocataires déclarent leurs ressources à la CAF, on les croise avec celles déclarées à l’administration fiscale ; si ça ne correspond pas, cela débouche sur une suspicion de fausse déclaration ou d’erreur de déclaration. La pratique s’est développée grâce à l’autorisation de l’usage du NIR[Numéro d’Inscription au Répertoire, n.d.r.], le numéro de sécurité sociale.

Pour la petite histoire, la licitation de l’usage du NIR pour ce genre de pratiques, auparavant interdites, est le produit dans les années 90 d’un amendement déposé par un député, ancien maire ex-communiste de Montreuil, qui l’avait déposé pour la lutte contre la fraude fiscale1. Depuis 1995-1996, les échanges de données se sont démultipliés par petites touches successives, de convention bilatérale en convention bilatérale entre la CNAF et les Impôts, la CNAF et Pôle emploi, la CNAF et les rectorats pour l’inscription des enfants dans les établissements scolaires, les autres caisses nationales de sécurité sociale, etc. Cette complexité est bien faite pour empêcher toute visibilité publique du développement de ces échanges.

Celles et ceux qui s’intéressent à ce sujet connaissent l’historique classique de la loi informatique et libertés et le fichier Safari, un grand projet de concentration des données personnelles détenues par les administrations de l’État. Au milieu des années 1970, il a induit un grand débat donnant lieu à la Loi Informatique et Libertés et la création de la CNIL (Commission Nationale Informatique et Libertés) pour encadrer, réguler et vérifier les usages du numérique dans les administrations. Avec le croisement de données grâce au NIR il n’y a pas eu de débat, parce que ce sont des mesures techniques qui ont eu lieu institution par institution. Résultat : une prolifération de techniques et un volume de données personnelles détenues par les administrations sans commune mesure avec le projet Safari.

Le deuxième volet du contrôle, avec son outil le plus classique, c’est ce qu’on appelle le contrôle sur pièces : l’appel de documents complémentaires ou de justificatifs lancé par les techniciens conseil dans les CAF qui demandent de leur envoyer une fiche de paye, un certificat de scolarité ou autres. Le troisième outil est le contrôle sur place. Des contrôleurs assermentés et mandatés pour aller vérifier sur place les situations des personnes avec toute une série de techniques qui se pensent comme quasi policières avec d’ailleurs des prérogatives qui sont plus importantes que celle d’un officier de police judiciaire qui n’agit que sur commission rogatoire et qui ne peut pas rentrer dans le domicile des personnes alors que les contrôleurs de la CAF le peuvent. Ça prend souvent la forme d’une enquête de voisinage, une visite au domicile avec un interrogatoire qui a changé un petit peu de forme et puis de statuts durant ces dernières années entre autres sous l’effet du datamining.

Ces trois outils sont inégalement appliqués en fonction des caractéristiques sociales des allocataires. Schématiquement, une personne allocataire ou une famille qui ne perçoit que les allocations familiales et/ou un peu d’allocation logement, qui a un foyer stable, un emploi stable etc., n’est contrôlée que de façon distante et invisible, par des échanges de données informatisées. Les appels sur pièces sont un peu plus ciblés sur des cas un peu plus difficiles et les contrôles sur place, les plus intrusifs sont quasiment exclusivement réservés aux dossiers les plus complexes, qui sont en fait les dossiers des allocataires aux situations les plus précaires. Il y a une différenciation sociale dans la manière d’être contrôlé et dans l’exposition aux sanctions.

M.N. – En quoi consiste cette différenciation sociale du contrôle et de l’exposition aux sanctions ? Et en fonction de quelles catégories socio-démographiques ou prestations le contrôle à la CNAF va-t-il varier ?

Vincent Dubois – En règle générale, on peut dire que datamining intensifie la différenciation sociale du contrôle déjà à l’œuvre avec les techniques antérieures. La politique de contrôle de la CNAF a été formalisée au milieu des années 90, de manière de plus en plus rationalisée avec des objectifs contractuellement définis dans les Conventions d’Objectifs et de Gestion (les COG, qui lient contractuellement les branches de la Sécu et l’État2) avec une batterie d’indicateurs : indicateurs de performance, de réalisation, d’intéressement, indicateurs de risque, indice de risque résiduel, etc.

C’est là qu’a été établi un plan annuel de contrôles avec des objectifs chiffrés : « objectif fraude », « objectif fraude arrangée », etc. Le déclenchement des contrôles sur pièces et sur place reposait précisément sur ces cibles. Avant cette politique, les cadres de la CNAF proposaient des cibles de contrôle sur la base des résultats des politiques antérieures. Tout ça a disparu au profit du datamining qui est une déduction ex-post des types de dossiers susceptibles d’erreurs et donc objets de contrôle. C’est important, parce que ça permet à l’institution de se dédouaner complètement de ses choix. Ça lui permet de soutenir que personne ne décide de surcontrôler les bénéficiaires du RSA, que c’est juste le calcul algorithmique qui établit que le niveau de risque est plus important pour les bénéficiaires du RSA. « C’est la machine qui le dit. »

La technique de data mining a, de fait, un effet discriminatoire et conduit à surcontrôler les plus précaires. Plus les situations sont précaires, plus les personnes qui les vivent sont éligibles à des prestations dont les critères sont extrêmement complexes et nombreux. Pour le RSA par exemple, il y a énormément de critères pris en compte et une déclaration trimestrielle à remplir. De façon mécanique, plus il y a de critères et plus il y a d’échéances, plus il y a de risques d’erreur, de non-déclarations intentionnelles ou non, de retards dans la déclaration…

Ce qui ne veut pas du tout dire que les bénéficiaires du RSA trichent davantage que les bénéficiaires de l’allocation logement, mais que la structure même de la prestation qu’ils reçoivent les conduisent à être surcontrôlés. Ajoutez que les personnes dans des situations de précarité sont définies précisément par l’instabilité de leurs revenus, de leurs statuts d’emploi, parfois de leurs situations familiales et de leurs logements… Elle sont sujettes à davantage de changements et il y aura forcément davantage de risques d’erreurs qui justifient techniquement le surcontrôle.

Il est possible de prouver tout ça statistiquement, avec les données mises à disposition par la CNAF et les CAF, qui sont en fait des institutions assez ouvertes, du moins pour des éléments statistiques. J’ai pu avoir et mettre ensemble des données sur les types de contrôle rapportées aux caractéristiques des allocataires et constater de façon extrêmement claire que les chances de statistiques d’exposition au contrôle croissent linéairement avec le niveau de précarité. Autrement dit, plus on est précaire plus on est contrôlé.

M.N. – Comment interpréter le type de politique sociale qui se dégage de ces pratiques de contrôle ? Est-elle guidée par une volonté de contrôle ? Ou bien, plus classiquement, par une ambition de réduction des dépenses ?

Noémie Levain (LQDN) – Le livre de Vincent illustre comment les enjeux de fraude ont été créés dans les années 90. C’est aussi le moment où s’installe l’idée que les personnes précaires qui demandent des aides sont redevables à l’égard de la société – comme avec le RSA, où ils et elles sont redevables de quinze ou vingt heures de travail. Demander des aides a une contrepartie : on va te surveiller, tu es sur le fil constamment, tu n’as pas le droit à l’erreur avec la vieille rengaine du « Si tu n’as rien à cacher, ce n’est pas grave ». Surveiller les demandeurs et demandeuses d’aide est en fait très grave et lié à une forme de criminalisation de la pauvreté.

Bernadette Nantois – Outre cette dimension de surveillance, il y a clairement une logique néo-libérale de réduction des dépenses publiques. Elle n’est pas assumée et opère de fait, par la complexité du système. C’est le cas dans les différentes branches de la Sécurité sociale : je pense qu’il y a une véritable volonté de réduire les dépenses sociales par l’introduction d’obstacles de l’accès aux droits.

Peu importe l’intention précise des dirigeants CNAF : le non-recours est budgété chaque année dans les budgets de l’État. Ce que les organismes sociaux appellent le « non-recours » c’est le fait que des gens qui auraient droit à des prestations ne les réclament pas. Or, une partie du budget est prévue comme étant non-dépensée ; c’est inclus et calculé. Cela signifie que l’on affiche la lutte contre le non-recours alors qu’on l’organise dans la pratique. Ça n’élimine pas cette dimension de surveillance mais qu’il y a aussi une logique purement politique froide, économique, claire qui consiste à dire que « les pauvres ont un coût et ils coûtent trop cher » même si en réalité ils coûtent beaucoup moins que d’autres dépenses. Mais ça, c’est un autre sujet…

Vincent Dubois – Quelques chiffres pour avoir un ordre de grandeur au sujet de la fraude et du non-recours. Le montant de la fraude détectée dans la branche famille et sécurité sociale se situe entre 300 et 320 millions d’euros par an3 [le montant s’élevait à 351 millions d’euros pour l’année 2022, n.d.r.]. L’évaluation qui est faite du non-recours au seul RSA dépasse les 3 milliards. Dans tous les cas, le montant de fraude évaluée reste inférieur au montant du non-recours évalué pour le seul RSA. On pourrait ajouter à cela de nombreuses comparaisons avec les montants et les proportions en matière de travail non déclaré, le défaut de cotisation patronale, sans parler de l’évasion fiscale, pour laquelle on est dans des ordres de grandeur qui n’ont rien à voir. C’est ce qu’en tout cas disent des institutions aussi furieusement libertaires et gauchistes que la Cour des Comptes !

En ce qui concerne les objectifs politiques de la CNAF, je ne suis pas à l’aise à l’idée de donner un grand objectif à ces politiques parce que c’est en fait – c’est un mot de sociologue un peu facile – toujours plus compliqué que ça. En matière d’objectif proprement financier, on constate que le contrôle en tant que tel ne produit pas tant de rentrées d’argent que ça, rapporté et au volume global des prestations et surtout rapporté aux autres formes de fraude.

Ce qui est intéressant cependant, c’est qu’alors qu’on renforçait le contrôle des bénéficiaires de prestations sociales, qu’on adoptait une acception de plus en plus large de la notion même de « fraude » dans le domaine de la Sécurité sociale, on a largement assoupli le contrôle fiscal. Le travail du sociologue Alexis Spire le montre très bien. De même, alors qu’en 2005 on a fait obligation légalement, dans le code de la Sécurité sociale, aux caisses de Sécurité sociale de déposer plainte au pénal dans les cas de fraudes avérées qui atteignent un certain montant.

Avec le « verrou de Bercy » – certes un peu assoupli par la loi de 2018 – on est dans le cas symétriquement inverse [le « verrou de Bercy » définit le monopole du Ministère du budget en matière de poursuites pénales pour fraude fiscale, n.d.r.] Enfin, on a doté les corps de contrôleurs d’effectifs supplémentaires, passant de 500 à 700 controleurs ; ça ne semble pas beaucoup mais dans un contexte de réduction des effectifs, c’est une augmentation nette. Pendant ce temps, les moyens alloués au contrôle fiscal ont décliné…

Dernier élément : je vous parlais de l’explosion du nombre d’indicateurs (de performance, de réalisation, d’intéressement, de risque, etc.). On calcule vraiment beaucoup de choses, sauf une : le coût du contrôle, c’est étonnant… Le coût du contrôle n’est jamais calculé, sauf pour le contrôle sur place.

La culture du contrôle a essaimé au sein des institutions et ça fait partie du rôle quotidien d’un grand nombre d’employés qui ne sont pas spécifiquement dédiés au contrôle, du guichetier aux techniciens conseil en passant par l’agent comptable, etc. Donc l’argument financier qui voudrait que ce soit de bonne gestion, en fait, ne s’applique pas si bien que ça. Je dirais qu’il y a davantage une logique de mise en scène de la gestion rigoureuse qu’une logique véritablement comptable de limitation des dépenses dans le cadre de la lutte contre la fraude.

M.N. – On a parlé des pratiques, des techniques et des objectifs du contrôle. Qu’en est-il de ses conséquences du point de vue des allocataires ? On sait qu’un contrôle conduit souvent à la suspension des allocations, à des sanctions envers les allocataires, qui sont par ailleurs très difficiles à contester.

Bernadette Nantois – Je vais reprendre ce qui a été dit à un niveau peut-être plus concret, en partant du point de vue des allocataires. En 2022, il y avait 13,7 millions de personnes allocataires à la CAF et 31,1 millions de personnes concernées par les prestations versées4. Concrètement, la plupart des prestations versées par les CAF le sont sous condition de ressources ; c’est notamment le cas du RSA, de la prime d’activité et de l’AAH, qui représentent 7,43 millions de bénéficiaires sur un total de 13,7 millions foyers allocataires. Elles sont soumises à des déclarations de ressources trimestrielles (DTR).

Cela permet une grande collecte de données par le dispositif de ressources mensuelle, DRM, mis en place pour permettre le croisement entre administrations5. Les CAF reçoivent des données qui viennent de Pôle emploi, de l’assurance maladie, de la CNAV, des Impôts, qui viennent des URSSAF via la DSN (Déclaration Sociale Nominative) par les employeurs et toutes ces données sont mises en écho avec les données déclarées par les personnes allocataires. C’est ce qui aboutit aux fameux contrôles automatisés dont parlait Vincent Dubois, qui sont extrêmement fréquents et les allocataires n’en ont connaissance que quand il y a une incohérence, qui peut avoir plusieurs raisons.

Les raisons peuvent être des erreurs des allocataires, puisqu’effectivement pour chaque allocation la base ressource à déclarer n’est pas la même, mais aussi un retard dans des feuilles de paye ou des heures en plus ou en moins qui causent une incohérence… Une variation de 50 à 100 euros suffit à déclencher un contrôle.

Ça se traduit dans les faits sur ce qu’on appelle une « suspension préventive » des droits. Concrètement, la personne découvre tout simplement que le cinq du mois, l’AAH ne tombe pas… et généralement ce n’est pas que l’AAH qui ne tombe pas c’est aussi l’allocation logement, ou la prime d’activité, les allocations familiales sous condition de ressources et l’APL ne tombent pas.

Selon la CNAF, il y a 31,6 millions de contrôles automatisés par an – pour 33 millions de personnes bénéficiaires et 13,7 millions de foyers6. Ce qui signifie qu’un foyer peut faire l’objet de plusieurs contrôles en même temps. Il y a 4 millions de contrôles sur pièces – en gros la moitié des bénéficiaires du RSA, de la prime d’activité et de l’AAH, et 106 000 contrôles sur place. Les contrôles sur place ont quelque chose de pervers et de malhonnête – je ne peux pas le qualifier autrement. Ce dont on se rend compte, c’est qu’ une partie de ces contrôles sur place sont faits de façon inopinée, c’est-à-dire qu’on le découvre quand on est au contentieux face à la CNAF. L’allocataire n’est pas mis au courant qu’il y a eu le passage d’un contrôleur à son domicile, et de fait si par hasard, il n’était pas à son domicile, on décide qu’il s’est volontairement soustrait à un contrôle. C’est comme ça que la CAF argumente quand on se retrouve devant le pôle social du tribunal judiciaire lorsqu’on conteste la suspension du versement des prestations.

Les contrôles automatisés – avec les scores de risque derrière- sont le cas le plus massif de contrôle. Le plus souvent, les personnes allocataires ne seraient pas informées s’ils ne se traduisaient pas par la suspension des droits. Cette suspension peut durer des mois et des mois. Lorsque c’est la seule ressource dont elles disposent, les situations deviennent assez vite extrêmement dramatiques ; concrètement on peut avoir des ménages avec deux/trois contrôles par an, avec suspension des droits. Ce n’est pas rare : c’est la moyenne de ce qu’on constate au quotidien depuis les sept/huit dernières années de travail avec les personnes allocataires.

Ces contrôles peuvent aussi être déclenchés du fait du dysfonctionnement interne de ces organismes – c’est fréquemment le cas en Ile-de-France – en raison des les pertes de documents et en raison des délais de traitement des documents. À Paris, c’est six mois de délai… Ce délai signifie qu’il y a deux déclarations de ressources trimestrielles qui ne sont pas arrivées. L’allocataire va s’apercevoir qu’il n’a pas eu de versement sur son compte. Conséquence : une famille avec trois enfants qui a une allocation soutien familial, si elle fait l’objet d’un contrôle automatisé dont elle n’est pas informée, va se trouver confrontée à la suspension des droits qui est corrélative. Cela va suspendre aussi l’allocation adulte handicapé et l’allocation logement, a minima.

Ce sont vraiment des situations assez dramatiques et qui peuvent durer : il faut au minimum trois ou quatre mois pour arriver à rétablir une suspension de droits. Au mieux, ça se dénoue moyennant intervention d’une association ou d’un juriste, sans en arriver au contentieux total. Pendant ce temps, impossibilité de payer le loyer, d’assurer les dépenses courantes, de payer l’électricité, endettement, frais bancaires, emprunts auprès des proches, etc. Ça créé des situations de profonde détresse. Les suicides ne sont pas rares.

En cas de trop-perçus, les allocataires ne reçoivent pas non plus de notification.Ils ne sont pas informés des modalités de calcul, de comment l’indu a été identifié, des possibilités qu’ils ont de rectifier – alors qu’il y a quand même cette fameuse loi du droit à l’erreur de 2018 – et quand il y a des notifications, elles sont sommaires, automatiques et ne permettent en rien d’organiser la défense de la personne. Pour les montants des retenues c’est exactement la même chose, ils ne sont pas calculés en prenant en compte la situation de l’allocataire et de ce qu’on appelle le reste à vivre, le minimum à lui laisser pour qu’il puisse s’en sortir.

En revanche, ni les rappels, ni les suspensions, ni les dettes ne sont prises en compte pour demander d’autres droits, comme la Complémentaire de Santé Solidaire (C2S) ou la prime d’activité. Pour faire une demande de C2S, ça se fait sur la base des revenus de l’année précédente, sur le montant total reçu, sans prendre en compte les rappels et les suspensions. Ça génère des cumuls de précarité pour les personnes. Et ce, sans oublier que les rappels et suspensions sont souvent liées à des dysfonctionnements internes et pas seulement à des erreurs, voire intention de fraude.

Que faire pour se défendre ? Face à une suspension de droits, la première des choses est de faire une demande de motif pour la suspension. Généralement il n’y a pas de réponse, donc on essaie d’avoir des arguments pour organiser la défense sans réponse sur les motifs. Il faut d’abord faire un recours amiable devant la commission de recours amiable : c’est obligatoire pour aller au contentieux. Et les commissions de recours amiable ne répondent jamais. Au bout de deux mois sans réponse, on va aller au contentieux, soit devant le tribunal administratif, soit devant le pôle social du tribunal judiciaire. Et là se pose le problème des délais. Le recours est censé être suspensif, c’est-à-dire de rétablir le versement des droits, mais le fait de faire un recours n’interrompt pas la suspension et les allocataires restent toujours sans ressources, dans une situation véritablement d’impasse.

Il faut compter quatre, six mois, voire un an dans une procédure normale pour avoir une audience. Et une fois devant la justice, les CAF sont très familières d’un procédé qui est le renvoi d’audience : dès lors qu’elles reçoivent une assignation et qu’une date d’audience est fixée, elles font généralement un rappel partiel ou total des droits pour lesquels l’allocataire a saisi la juridiction, avec une incitation vive à ce que l’allocataire se désiste.

Si ce dernier ne le fait pas et qu’il va jusqu’à l’audience, un renvoi est systématiquement demandé – les renvois c’est encore trois, quatre cinq, six, huit mois – et les CAF vont utiliser des manœuvres dilatoires, elles vont par exemple redéclencher un contrôle. Je l’ai vu dans tous les cas qui sont passés au pôle social du tribunal judiciaire. A l’issue de ce laborieux processus, on peut arriver à terme à obtenir des bons jugements et à rétablir la situation des personnes allocataires, mais elles se seront trouvées pendant huit, neuf, dix mois, un an sans ressources. Je vous laisse imaginer les situations que ça peut générer…

M.N. – Par-delà l’accompagnement des personnes allocataires, comment les associations se mobilisent-elles dans de telles circonstances ?

Bernadette Nantois – Les défenses individuelles sont un peu désespérantes. Elles sont nécessaires mais laborieuses et énormément d’allocataires se retrouvent dans une impasse complète, sans aucune assistance pour se défendre. Ce n’est pas APICED qui se mobilise toute seule, loin de là. Le collectif « Changer de Cap » a fait un énorme travail de recensement de témoignages et d’identification de ces problèmes. On essaie de mobiliser à différents niveaux : on commence à avoir un petit relai médiatique avec quelques émissions sur ces questions-là ; il y a eu une mobilisation au niveau associatif, avec la mise en place de groupes d’entraide entre personnes allocataires, et on essaie de mobiliser des grosses structures (Secours Catholique, ATD Quart Monde, Ligue des Droits de l’Homme, Fondation Abbé Pierre, etc.) pour qu’elles relayent le travail auprès des instances de concertation auxquelles elles participent, notamment au sujet des Conventions d’Objectifs et de Gestion (COG).

Au niveau des revendications, ce que Changer de Cap essaie de porter auprès de la CNAF, c’est premièrement l’égalité des pratiques et des contrôles et d’instaurer un contrôle de légalité et mise en place des évaluations des obstacles rencontrés par les allocataires. Le deuxième point c’est d’essayer d’humaniser les pratiques et les relations, de remettre un accueil physique en place avec des agents qualifiés, de restaurer un accompagnement social de qualité, de créer des postes qualifiées au sein des CAF, pour réinternaliser un certain nombre d’actions, à commencer par les services numériques et par les agents techniciens. Aujourd’hui, il y a énormément de marchés privés qui sont contractés par la CNAF. À titre d’exemple, elle a attribué 477 millions d’euros en novembre 2022 à des cabinets de conseil sur des questions de prestations informatiques et sur des questions de gestion de la relation aux usagers.

Troisième point : c’est restaurer la transparence. On demande que toutes les circulaires ou les textes internes qui ont valeur de circulaires, qui ont des effets juridiques soient publiés. On est dans une situation de dissimulations totale, alors qu’il y a une obligation légale que les organismes sociaux transmettent ces informations à l’ensemble de la population. On demande aussi de mettre le numérique au service de la relation humaine.

La formule est large mais l’idée ce serait qu’il y ait un débat public autour de ces questions et notamment autour de cette sous-traitance au privé. Enfin, associer les usagers aussi aux interfaces. Nous ne nous illusionnons pas, nous n’allons pas revenir à un traitement papier, mais que ceux contraints d’utiliser ces interfaces soient a minima associés pour pouvoir expérimenter, essayer de trouver des systèmes qui soient un peu plus fluides et un peu plus simples. Et puis, d’une manière plus large, en finir avec l’affaiblissement de la protection sociale, et revoir le budget de la protection sociale à la hausse.

Alex (LQDN) – Du côté de la Quadrature, nous allons continuer le travail de documentation. On a demandé le code source de l’algorithme, demande évidemment refusée par la CNAF. On a saisi la CADA (Commission d’accès aux documents administratifs) qui est censée dire si notre demande était légitime, et celle-ci ayant répondu qu’elle l’était, nous allons redemander le code source à la CAF. L’argument principal pour refuser le code source de l’algorithme consiste à dire qu’il permettrait aux fraudeurs et fraudeuses de le déjouer.

Si l’on considère que les principaux critères qui dégradent la note des personnes allocataires sont des critères de précarité, l’argument est simplement scandaleux. Comme si, une fois les critères connus, les gens se trouvaient un emploi bien payé et changeaient de quartier de résidence pour mieux… frauder. Mais comme on sait que ces algorithmes sont mis à jour régulièrement, on en a demandé les versions antérieures, pour lesquelles il n’est pas possible d’avancer l’argument de la fraude.

On parle actuellement de l’algorithme de lutte contre la fraude, mais il y a aussi le problème de l’algorithme de calcul des prestations sociales CRISTAL, qui est une sorte d’énorme masse informatique, fourrée d’erreurs. C’est un algorithme qui est censé prendre la loi et calculer le montant des droits, mais on finit par comprendre que le programme informatique est plein des bugs. Un certain nombre d’associations a repéré que des droits étaient régulièrement refusés ou calculés de manière erronée. Évidemment CAF a connaissance de ces problèmes-là, puisque pour les personnes qui ont la chance d’être accompagnées par des structures qui font des recours individuels ont fini par identifier les problèmes, mais elle ne change toujours pas le code de son programme.

Dernier point : Macron a beaucoup mis l’accent sur l’importance de la solidarité à la source7. Seulement, cette mesure requiert pour sa mise en œuvre la collecte et l’échanges de données entre administrations. L’idée est d’avoir une sorte d’État social automatisé où il n’y aurait plus rien à déclarer et les aides seraient versées (ou non) automatiquement. Ça implique concrètement une transparence ultra forte vis-à-vis de l’État, avec une sorte de chantage : si vous n’êtes pas transparents on ne vous donne pas d’argent. Mais la collecte de données n’est pas neutre. Ce que l’on a récemment découvert, c’est par exemple que la police peut aussi demander les données de l’URSSAF, de Pôle emploi, de la CAF… Lors des enquêtes, elle sollicite la CAF, qui a une adresse mail dédiée aux réquisitions. Par-delà la promesse d’automatisation, la solidarité à la source c’est aussi plus de transparence face à l’État, plus d’interconnections de fichiers. C’est un pouvoir que l’on donne à l’État.

Vincent Dubois – Le datamining, même s’il est initialement conçu pour identifier les fraudes et plus généralement les erreurs, peut aussi permettre identifier le non-recours. Je l’avais naïvement écrit dans mon premier rapport : pourquoi ne pas faire des modèles pour lutter contre le non-recours ? Mais voilà, le modèle de data mining date de plus de dix ans, et rien n’a été mis en place pour lutter contre le non-recours de façon systématique…

Bernadette Nantois – Au vu du niveau de dysfonctionnement actuel, je suis très réservée sur la question de la solidarité à la source. Inverser le datamining, mais l’utiliser pour repérer ceux qui ont des droits théoriquement… Sur les espaces des allocataires aujourd’hui, on a souvent des alertes rouges sur la page d’accueil : « alerte », un gros carré rouge et un message qui vous dit : « vous avez droit à la prime d’activité… » et c’est probablement lié à une programmation informatique… Le problème c’est que généralement ce n’est pas vrai et ça peut aussi être un élément de blocage pour l’allocataire qui ne souhaite pas y répondre.

Que ce soit pour des allocations sous conditions de ressources ou pour l’allocation soutien familial, une personne peut très bien ne pas souhaiter faire une procédure ou demander l’allocation pour différentes raisons. Mais s’il ne le fait pas, ça bloque… Il y a des petits indices dans la manière dont les choses se passent aujourd’hui qui font que je ne suis absolument pas favorable ni à l’inversion du datamining ni à la solidarité à la source qui s’accompagnerait d’un DRM généralisé (dispositif de déclaration des ressources mensuelles), avec la transmission totale des données entre tous les organismes de Sécurité sociale et assimilés : URSSAF, les déclarations des employeurs, ainsi que les impôts.

Alex (LQDN) – Cette proposition de retourner le datamining, c’est aussi pour justifier l’utilisation du datamining à des fins de contrôle. Pour la petite histoire, dans les années 2012-2013, le directeur des statistiques de la CAF qui a écrit un petit article pour présenter l’utilisation du datamining par la CAF à des fins de contrôle et il finit son article en disant : « ça nous embête un peu de le faire que pour la lutte contre le contrôle, on aimerait bien aussi le faire pour utiliser le datamining à des fins de non-recours… ». Donc quand en 2022, la CAF dit ça y est, on a un peu travaillé sur l’algorithme de non-recours, ce qu’elle ne dit pas c’est que ça fait dix ans qu’elle aurait pu le faire et qu’en interne par ailleurs il y avait des demandes. Ça fait dix ans qu’ils ne le font pas et ils ne le font pas sciemment.

Personne du public – Je pense que cette idée d’inversion du contrôle n’est pas la bonne. D’une part, ça implique une collecte de données de plus en plus invasive, massive et fine. De l’autre, vous avez cité Brard, l’ancien maire de Montreuil qui a autorisé l’utilisation du NIR : c’était originairement à des fins de contrôle fiscal… Ce qu’on voit, c’est qu’il n’y a pas un mauvais ou un bon contrôle. Les gens veulent opposer fraude dite sociale et fraude fiscale, mais tout le monde est d’accord pour lutter contre les fraudeurs, seulement pas sur leur identité. C’est contrôle la logique du contrôle qu’il faut lutter. Ce contrôle-là, comme vous l’avez dit, n’est pas motivé par une raison strictement comptable : il n’y a pas énormément d’argent en jeu.

Ce que vous avez moins évoqué c’est qu’il y a une idéologie « travailliste » forte et que c’est là-dessus que le mouvement ouvrier est d’accord avec les patrons, avec les Macron : il faut que les gens aillent bosser… La première fois où j’ai entendu parler d’assistanat c’est dans la bouche de Lionel Jospin en 1998, ce n’était pas Sarkozy et la valeur travail. Ceux qui nous ont rabâché pendant des décennies avec le fait qu’on avait sa dignité dans le boulot, ce sont les socialistes.

C’est une idéologie extrêmement forte, qui lutte pied à pied contre l’idée de la solidarité collective et de l’aide sociale. Personne ne veut défendre des pratiques qui sortent de la norme, comme la fraude, donc personne ne va prendre la défense de ces catégories-là, même s’il y a peut-être quelque chose qui est en train de changer lorsqu’on arrive à dire, comme le fait La Quadrature du Net, qu’on s’oppose à la logique du contrôle.

Notes :

1 L’amendement Brard réintroduit la possibilité, supprimée par la Loi Informatique et Libertés de 1978, de réintroduire le NIR dans les fichiers, ce qui permet de rapprocher les informations détenues sur une même personne par différentes administrations. Initialement prévu pour lutter contre la fraude fiscale, cet usage va être progressivement étendu à la « fraude sociale », puis généralisé. Voir à ce sujet l’article de Claude Poulain sur la revue Terminal.

2 Conventions conclues depuis 1996 entre l’État et les différents organismes de Sécurité sociale, elles établissent sous forme d’un document contractuel les axes stratégiques et les objectifs de gestion des caisses.

3 Ce chiffre concerne la fraude détectée. Il soulève la question de savoir quelle part de fraude est effectivement détectée, et à quel point ses montants dépendent d’une augmentation de la fraude réelle ou plutôt une augmentatin des moyens consacrés à sa détection. La CNAF est le seul organise à avoir établi des projections permettant d’évaluer ce que serait la fraude réelle, au-delà de celle détectée. Elle serait comprise entre 1,9 et 2,6 milliards d’euros par an.

4 Les prestations se divisent entre allocations liées à la famille, les aides personnalisées au logement (toutes deux issues du budget de l’État) et les allocations de solidarité envers les personnes les plus fragiles (le RSA, issu des budgets des départements ; la prime d’activité en complément des revenus pour les travailleurs aux revenus modestes et l’allocation adulte handicapés, issue du budget de l’État). Le versement d’une prestation – ou sa suspension – affecte autant l’allocataire que les membres de son foyer.

5 Créée en 2019, cette base de données centralise pour chaque assuré social différentes données. Le 31 janvier 2024, l’emploi a été étendu à titre d’expérimentation, afin de permettre par exemple de cibler les contrôles à la Caisse Nationale d’Assurance Vieillesse ou pour commencer à mettre en place le projet de solidarité à la source.

6 En 2022, le nombre de contrôles automatisés était de 29,2 millions. Source CNAF.

7 Projet de versement automatique des aides sociales, sur le modèle du prélèvement à la source mise en place par les impôts.

Tout acte de lecture est un jeu avec des structures de pouvoir – Entretien avec Peter Szendy

© LHB

Peter Szendy est l’un des théoriciens de la littérature les plus importants de notre époque. Nous l’avons rencontré à l’occasion de la parution de son ouvrage, Pouvoirs de la lecture. De Platon au livre électronique (La Découverte, 2022), dans lequel il étudie l’expérience de la lecture comme une scène, psychologique, sociale et politique complexe. Il se penche également sur les récentes transformations technologiques de cette expérience et notamment sur les implications anthropologiques de la croissance significative du marché du livre audio. Entretien réalisé par Simon Woillet.

LVSL – À l’heure où les technologies numériques bouleversent notre rapport aux savoirs, vous proposez de réinterroger l’expérience fondamentale de la lecture, dans une approche qui tente de faire droit aux zones d’ombres entre lecteur et texte. Vous déclarez, ce faisant, vouloir sortir de la vision de la lecture produite par les Lumières, où la relation au texte était principalement conçue selon vous sur le mode de la transparence en termes de transmission des connaissances. Pouvez-vous nous éclairer sur le sens de cette démarche ?

Peter Szendy – Il y a dans votre question deux marqueurs temporels importants : le passage au numérique d’une part et les Lumières d’autre part. Il ne s’agit pas pour moi de tenir ces balises chronologiques pour des frontières historiques intangibles. Au contraire, mon travail consiste à faire droit à ce que l’on pourrait appeler des hétérochronies, c’est-à-dire des temporalités différentes mais simultanées. Autrement dit, la relation des lecteurs d’aujourd’hui aux textes qu’ils lisent obéit à des régimes anciens en même temps que contemporains, des régimes qui peuvent coexister, s’hybrider ou s’affronter, ce qui implique une vision stratifiée des paradigmes historiques de l’expérience de la lecture.

J’essaie d’être attentif à la coexistence de vitesses contrastées, par exemple : qu’il s’agisse des vitesses propres aux systèmes de renvois internes à un texte (la consultation d’une note en fin d’ouvrage n’implique pas la même vitesse de renvoi qu’un lien hypertexte à cliquer) ou bien des vitesses de réception, de diffusion d’un ouvrage dans la texture de l’espace dit public (où la lecture qu’on a pu qualifier d’intensive, à savoir la rumination des mêmes textes, comme ce fut longtemps le cas de la Bible, coexiste avec la lecture dite extensive, celle des journaux, des nouvelles, des romans-feuilletons au XIXe siècle, des tweets ou autres notifications aujourd’hui…).

S’il y a donc des différences de vitesse dans la circulation des Lumières et dans leurs inscriptions sur papier ou sur écrans rétroéclairés, c’est aussi qu’il se crée des zones d’ombre, aujourd’hui comme au XVIIIe siècle. Non seulement parce qu’il y a de l’incompréhension, de l’inattention, disons, en un mot, de l’inéclairé qui résiste ou se reforme dans les plis de l’hétérochronie, mais aussi (j’imagine que nous y reviendrons) parce que tout acte de lecture implique de la violence, de la soumission, de l’irraisonné et de l’infondé. Il faudrait dire en outre, si l’on considère cette fois l’histoire matérielle des supports d’inscription des savoirs, que la propagation des « lumières » actuelles — les lasers, les systèmes de gravure et de décodage, les fibres optiques… — repose sur l’obscurité des tractations géopolitiques, du secret industriel et de la raison d’État ainsi que sur l’aveuglement face aux conséquences environnementales de ces technologies du visible ou du lisible.

LVSL – Vous proposez également une interprétation fascinante de notre rapport ambigu au livre audio.

PS – Je voulais d’abord faire un pas en arrière face à ce que l’on appelle un peu vite la crise de la lecture à l’ère numérique. Car le premier effort de réflexion devrait d’ores et déjà consister à ne pas tenir pour acquis que la lecture serait strictement cantonnée à un rapport silencieux à un texte écrit. Je ne suis bien évidemment pas le seul à le penser : beaucoup d’autres avant moi ont travaillé sur l’histoire de l’expérience de la lecture et sur les formes de résistance de l’oralité face au scriptural. C’est notamment ce qu’a pu développer Roger Chartier. Mais il reste que la puissance du paradigme scriptural continue de faire écran à une compréhension plus fine des voix intérieures de la lecture.

Toujours est-il que, en adoptant une perspective décentrée par rapport au seul support écrit, il me semble que l’on peut éviter d’en rester aux mêmes discours nostalgiques sur la perte du goût de la lecture ou la « mort du livre ». Qu’il suffise de penser à l’importance immense que revêt aujourd’hui le livre électronique (tant sur un plan économique qu’anthropologique). Il se présente sous deux formes : le livre numérisé lu sur écran, certes, mais également le livre audio, qui représente une part de marché toujours plus importante. « 9,9 millions d’audio-lecteurs en 2022 », pouvait-on lire dans un communiqué du Syndicat national de l’édition qui annonçait le lancement, en mai 2022, du « mois du livre audio », accompagné du slogan « lire ça s’écoute » (www.sne.fr/actu/parce-que-lire-ca-secoute).

Même si l’idée que lire peut consister à écouter un livre commence à faire son chemin, ce type de propos ne va pourtant pas de soi. Matthew Rubery, dans sa belle histoire du « livre parlant » (The Untold Story of the Talking Book), se fait l’écho d’une attitude fréquente : « écouter des livres », écrit-il, « est une des rares formes de lecture pour lesquelles les gens s’excusent ». Il met ainsi le doigt sur un malaise diffus mais sensible, révélateur en tout cas, dès lors qu’on applique le verbe « lire », voire un verbe d’action tout court, au fait d’écouter un livre audio. Il semble que l’on hésite à concevoir cette écoute comme un acte, car on ne sait pas très bien ce que l’on fait, au juste, avec ou face à un livre audio. Comme si écouter un livre n’était pas vraiment faire quelque chose, surtout lorsqu’on se consacre en même temps, comme c’est souvent le cas, à une activité parallèle (les courses, le ménage, la marche, la conduite…). Sans doute qu’une partie de cette drôle de honte ressentie à l’égard du format audio tient à la prétendue « passivité » de ce type d’expérience.

Quoi qu’il en soit, l’hésitation quant au statut de la lecture audio en tant qu’acte de lecture me semble révélatrice d’un changement de paradigme. Les failles du langage quotidien révèlent ici la tectonique des plaques en jeu dans les transformations anthropotechniques de la lecture. Il faut rouvrir le chantier de l’analyse de la lecture à l’aune de ces formes nouvelles.

LVSL – Selon vous, sommes-nous réellement sortis de ces représentations passives de la lecture oralisée ? Dans un chapitre de votre livre intitulé « l’anagnoste et l’archonte », vous convoquez les formes antiques de la lecture et les rôles sociaux liés à cette activité pour construire une grille d’interprétation des différentes « voix » qui cohabitent dans notre psychisme de lecteur. Pouvez-vous revenir sur ces concepts et ce qu’ils impliquent pour l’époque actuelle, notamment du point de vue des nouvelles formes de subordination de la lecture impliquée par les algorithmes de recommandation des contenus ?

PS – L’anagnoste, dans l’antiquité gréco-romaine, c’est l’esclave spécialisé dans la lecture à haute voix pour d’autres. C’est un rôle défini au sein d’une hiérarchie économique et politique précise, un rôle qui s’inscrit dans un réseau de relations aussi bien sociales que symboliques. Tout d’abord, l’anagnoste est bien évidemment une figure du dominé ou du subalterne — c’est un esclave —, mais qui est d’emblée complexe car il s’agit d’un travail auquel on associe une haute valeur symbolique. Son labeur ouvre la voie, facilite l’accès à la sphère idéalisée du sens.

Dans ses rares représentations ou apparitions (rares, car il est voué par essence à s’effacer devant le texte), l’anagnoste est une figure qui oscille de manière fascinante entre ces deux extrêmes que sont l’activité totale et la passivité totale. En effet, en lisant pour son maître, il est actif face à ce dernier, qui l’écoute passivement. Mais en même temps, l’anagnoste prête son corps et sa voix à un texte par lequel il se laisse traverser et littéralement posséder. Dans le lexique qui était celui de la pratique grecque de la lecture (comme l’a montré Jesper Svenbro dans sa remarquable Anthropologie de la lecture en Grèce ancienne), l’esclave lecteur, l’anagnoste peut être décrit à la fois comme l’« éraste », l’amant en position active, et l’« éromène », l’aimé en position passive. Il est actif en tant qu’il lit pour l’autre ; il est passif en tant qu’il est le simple relais du discours lu qui passe par lui.

LVSL – De ce point de vue, la figure de l’anagnoste vous semble-t-elle pertinente pour décrire notre propre situation vis-à-vis des algorithmes de recommandation de contenus sur les technologies numériques ? Puisque nous sommes autant producteurs des données qui les alimentent qu’esclaves des techniques de manipulation émotionnelle et attentionnelle qui constituent leur raison d’être économique ?

PS – C’est une idée intéressante. On pourrait déjà faire l’hypothèse que l’anagnoste antique se dilue ou se dissémine dans toute sorte de machines, de logiciels, d’algorithmes qui font ce travail de « faire exister » des textes en les lisant pour nous. L’exemple le plus évident serait la voix automatisée du GPS qui vous « lit » la carte de votre trajet, qui est l’anagnoste de votre itinéraire. Mais il existe aussi quantité d’applications pour la vocalisation des textes, à l’instar de Speechify ou NaturalReader, qui vous permettent de choisir le genre ou l’âge ou les caractéristiques ethniques de la voix lisante ainsi que sa vitesse de lecture.

Ceci dit, votre question nécessite que l’on considère la position de l’anagnoste au sein de la scène de lecture antique d’une manière à la fois plus précise et plus vaste. Car l’anagnoste n’est qu’une des voix ou qu’une des instances dans cette scène. Il y a également le texte lui-même, bien sûr, à savoir le texte lu par l’anagnoste lorsqu’il prête sa voix à celle de l’auteur. Il y a ensuite la place de l’auditeur, de celle ou celui qui écoute la lecture : j’ai proposé, pour désigner cette instance, le néologisme de lectaire, par analogie avec destinataire. Enfin, et c’est le plus important peut-être dans la perspective ouverte par votre question, il y a cette figure implicite et pourtant centrale qui peut, je crois, éclairer notre relation aux algorithmes de recommandation dans la lecture numérique : il s’agit de l’instance qui commande la lecture, à ne pas confondre avec le lectaire, car un personnage peut, comme on le voit par exemple dans certains dialogues de Platon, commander à l’anagnoste de lire à haute voix pour quelqu’un d’autre que lui-même, pour un tiers.

Avant d’en venir à cette antique instance prescriptive et à ce qu’elle pourrait bien nous dire sur les prescriptions de lecture actuelles, je voudrais souligner que la structure de la scène de lecture, telle qu’elle nous apparaît depuis son histoire lointaine et largement oubliée, est fondamentalement triangulée. Il est en effet impossible d’en dégager ou d’y identifier une relation simplement et purement duelle, à l’image de ce que nous avons fini par construire comme l’expérience par excellence de la lecture, à savoir le face-à-face du lecteur et du texte, l’immersion de celui-là dans celui-ci. Lorsque l’anagnoste s’entend commander de lire à haute voix pour un lectaire, c’est déjà une relation à trois, c’est déjà un réseau qui s’ébauche, une circulation réticulée plutôt qu’une absorption frontale, immédiate, transparente.

On pourrait donc faire l’hypothèse que la lecture a toujours été une affaire de « réseaux ». C’était le cas pour la lecture pratiquée par l’anagnoste antique, mais c’est également vrai lorsque c’est le phonographe qui « lit » des « livres parlants » ou lorsqu’on lit aujourd’hui des livres électroniques. L’une des premières idées de Thomas Edison, dans son texte intitulé The Phonograph and its Future(1878), était précisément que son invention servirait à enregistrer des textes pour que d’autres puissent les écouter. Le phonographe ainsi utilisé, c’est, si vous voulez, la mécanisation de la fonction de l’anagnoste, sa rationalisation technique et sa reproductibilité à une échelle industrielle.

Mais je reviens à votre question concernant les algorithmes de recommandation. Là où l’ordre de lire adressé à l’anagnoste avait la structure simple d’un impératif (« prends le livre et lis ! », disent l’un des personnages du prologue du Théétète de Platon à l’esclave lecteur), les modalités actuelles de la prescription, à l’ère du capitalisme numérique, impliquent des bouquets de données (ce que Gilles Deleuze, dans son « Post-scriptum sur les sociétés de contrôle », avait analysé comme la désagrégation de l’individu en flux dividuels). Cela modifie et l’injonction de lecture sur les réseaux sociaux et la signification même de l’acte de lire, qui se redouble d’un ensemble d’activités d’enregistrement et de formatage invisible de votre comportement, en temps réel et à votre insu. Sur Kindle par exemple, vous pensez être seul face à votre livre, mais en réalité vous êtes vous-même « lu », c’est-à-dire observé, et constitué en travailleur numérique inconscient par les technologies de ce type d’entreprises : vous êtes une série de points, un nœud de données (vitesse de lecture, types de contenus choisis, fréquence de la consultation de l’outil, passages relus…) dans un réseau plus vaste et dont la finalité est en général purement commerciale (l’ergonomie servant souvent à cacher ces formes de surveillance et de formatage autant qu’à les rendre possibles en renforçant la fluidité de l’expérience de l’utilisateur).

Je raconte dans Pouvoirs de la lecture une anecdote personnelle à ce propos. Me pensant bien assis chez moi, dans l’intimité d’une scène de lecture domestique idéalisée, je m’aperçois soudain, en touchant naïvement le texte à l’écran de ma tablette et en voyant s’afficher une petite case de commentaire, que je suis le nième utilisateur à souligner telle phrase précise. Une expérience comme celle-ci, que nous sommes tous susceptibles de faire, nous ramène brutalement à la puissance des technologies de prescription qui structurent désormais nos vies sans que nous en ayons suffisamment conscience.

Au début des années 1990, Bernard Stiegler avait initié un beau projet à la Bibliothèque nationale de France, qui consistait à produire des outils numériques de « lecture assistée par ordinateur » afin de matérialiser et de rendre transmissibles les traces laissées par les lecteurs dans leur élaboration du texte (je renvoie à son article intitulé « Machines à écrire, machines à penser », paru dans le n° 5 de la revue Genesis en 1994). Ce système d’annotations devait permettre de rendre visibles les gestes de lecture autrement invisibles au sein d’une sorte de communauté de lecteurs qui se formerait autour d’une œuvre. Et ce que montre ce type de démarche, c’est qu’il est possible de concevoir des régimes numériques de circulation de la lecture, des mises en réseau d’actes de lecture qui ne soient pas pensés uniquement dans la perspective d’une prescription marchande.

L’une des questions passionnantes que soulèvent les annotations des lecteurs, c’est sans doute celle de la singularité de l’acte de lecture. Une marque de lecture doit-elle ou peut-elle être signée, et si oui, comment ? Ce n’est pas le même type d’anonymat qui est en jeu dans l’impersonnalité machinique des algorithmes de recommandation de contenu, dans les commentaires de lecteurs identifiés par des pseudonymes sur les plateformes de vente en ligne ou dans les griffonnages dus à d’autres lecteurs inconnus que l’on rencontre en feuilletant un ouvrage emprunté à une bibliothèque. L’anonymat des modes de prescription propres au capitalisme numérique tend à être celui, statistique, du nivellement, de l’homogénéisation des singularités. Mais l’anonymat d’une trace de lecture, ce peut être aussi ce qui ouvre la possibilité de l’accident, la chance de l’imprévu.

LVSL- Vous parlez de « phonoscène » intérieure de la lecture notamment pour désigner les développements que vous venez de nous présenter et vous suggérez qu’il faut se pencher sur les relations entre les parties prenantes implicites de toute « scène de lecture ». Vous montrez dans votre livre et comme nous venons de le voir qu’il existe toujours une instance que l’on peut appeler « l’impératif de lecture ».

PS – En effet, cette instance impérative fait partie intégrante de toute scène de lecture, c’est-à-dire de tout acte de lecture. Mais elle est susceptible d’être configurée et appropriée — sur le plan psychique, social et technologique — de manière extrêmement différente selon les contextes et les époques historiques. Il semble n’y avoir rien de commun entre, par exemple, l’enfant qui exige qu’on lui lise une histoire et l’injonction implicite de lecture qui se loge dans la nécessité de cocher la case « lu et aprouvé » des « conditions générales d’utilisation ». Mais il y va, dans l’une comme l’autre de ces situations de lecture, d’une certaine configuration de l’impératif dont nous parlons. Il arrive aussi que cette instance impérative ou prescriptive (« lis ! ») soit détachée, présentée pour elle-même, pour ainsi dire sur le devant de la scène de lecture. Pensons au cas de La philosophie dans le boudoir de Sade, que j’analyse dans Pouvoirs de la lecture : l’impératif de lecture vient se loger sur la couverture du livre, sous la forme d’une sorte d’exergue (« la mère en prescrira la lecture à sa fille »).

Si l’impératif de lecture fait donc partie intégrante de toute scène de lecture, c’est parce que lire implique toujours quelque chose qui est de l’ordre de la soumission. Une soumission à déjouer, à contester, à refouler, mais implicitement à l’œuvre, avec laquelle il faut compter. Pas de lecture sans soumission du lecteur à l’ordre (typographique, syntactique, argumentatif, rhétorique, narratif…) du texte. Ce qui ne veut pas dire, loin de là, que la lecture se réduit à cette passivité. Les lecteurs ne cessent de subvertir l’autorité de cet ordre, consciemment ou inconsciemment, volontairement ou non. Qu’on pense à l’attention flottante, aux formes variées de l’interprétation, érudite ou spontanée, des textes : le lecteur est en permanence dans une relation équivoque, tendue, avec le tissu des « micropouvoirs » dont est constitué tout ordre textuel. On pourrait dire, en reprenant ce mot proposé par Deleuze et Guattari, que tout acte de lecture est un acte « micropolitique ». Autrement dit : la lecture rejoue en miniature, sur un mode micrologique, des rapports de pouvoir que l’on retrouve ailleurs, sur d’autres scènes, sociales, politiques… Tout acte de lecture est un tel jeu avec des structures de pouvoir. C’est ce qui fait de la lecture un espace intrinsèquement politique (bien au-delà du fait que tel ou tel texte puisse proposer ou non des idées ou des thèmes explicitement identifiés comme politiques).

LVSL – Pouvez-vous revenir sur votre analyse magistrale du Léviathan de Hobbes et la relation entre politique et lecture dans ce texte fondamental ?

PS – Comme nous l’évoquions à l’instant, tout acte de lecture est à la fois un acte de soumission et d’affrontement, de contestation et d’assimilation critique des règles du pouvoir. En ce qui concerne le Léviathan de Hobbes, on est face à un moment-clé de l’histoire de la philosophie politique, bien sûr, mais également face à un moment-clé dans l’histoire des discours sur la lecture, des réflexions sur la performativité, l’efficacité des dispositifs de lecture. Il y a, dans ce texte, une sorte de correspondance entre, d’une part, le dispositif micropolitique des prescriptions adressées au lecteur (le Léviathan est en effet ponctué de conseils, explicites ou implicites, sur la manière de lire ce livre qu’il est) et, d’autre part, le dispositif macropolitique de l’État moderne tel qu’il est élaboré théoriquement au fil de l’ouvrage. Ces deux niveaux s’articulent en permanence et de manière souvent paradoxale. Le lecteur est ainsi appelé à devenir une sorte de souverain pour s’assimiler pleinement le sens du texte, en même temps qu’il est incité explicitement par Hobbes à se soumettre au dispositif de lecture. Hobbes construit une sorte de machine textuelle qui identifie les opérations de lecture et les opérations du bon gouvernement. La souveraineté politique et la souveraineté du lecteur sont superposées ou repliées l’une sur l’autre tout au long du texte.

Les conseils de lecture qui ponctuent le Léviathan sont parfois explicites, par exemple quand Hobbes recommande à son lecteur de ne pas faire comme ces oiseaux qui perdent la mémoire de l’entrée dans la pièce où ils sont dès lors bloqués et condamnés à virevolter (une belle métaphore pour l’inattention du lecteur distrait ou vagabond dans sa lecture). Mais certaines prescriptions de lecture du Léviathan restent implicites, sans être moins efficaces pour autant, au contraire. C’est le cas lorsque Hobbes performe l’acte de lecture pour le lecteur, en employant par exemple des expressions apparemment anodines mais en réalité puissamment configurantes telles que « en somme », ou encore en proposant au lecteur des résumés de ce qui a été lu. C’est ainsi que s’établit, que s’impose un dispositif de lecture cumulative, une lecture additive. À savoir un régime de lecture (entendez ce mot de « régime » à la fois dans son sens mécanique ou moteur et dans son sens politique) qui en exclut beaucoup d’autres possibles.

Cette petite machine de lecture, implicite et explicite, explose toutefois lorsque Hobbes conclut sur deux prescriptions contradictoires, enjoignant simultanément le lecteur à opérer une somme intégrale de tout ce qui a été préalablement énoncé et à contester chaque aspect. Car, dit-il sans réaliser pleinement les conséquences de ce qu’il dit, c’est en objectant que l’on peut renforcer sa conviction de la nécessité des arguments et de leur ordre précis d’énonciation. Ce moment, ce point de lecture aux exigences contradictoire est fascinant, car on y voit le code des prescriptions se déconstruire lui-même et faire signe vers son caractère impossible ou aporétique.

LVSL – Vous proposez également une interprétation philosophique du passage du volumen au codex puis du codex à l’écran, pouvez-vous revenir là-dessus. On parle fréquemment de l’infinite scrolling, est-ce un nouveau temps de lecture ?

PS – C’est une question que pose Giorgio Agamben dans « Du livre à l’écran » (l’un de ses textes recueillis dans Le Feu et le récit). Il oppose, d’une part, un temps circulaire et continu qui serait propre au volumen, c’est-à-dire à la forme enroulée d’un rouleau de papyrus ou de parchemin, et, d’autre part, un temps linéaire qui serait celui du codex, c’est-à-dire le cahier paginé, voire indexé, donc discontinu. L’écran paraît conjuguer ces deux propriétés opposées. D’une part, le scrolling se présente comme un déroulement potentiellement infini, même s’il est en réalité bel et bien bordé, limité par des caractéristiques matérielles et spatio-temporelles (il ne saurait y avoir de page infinie car tout stockage est par essence fini). Mais d’autre part, l’hypertexte sur écran se compose d’innombrables renvois sous forme de liens qui sont autant d’indexations, autant de discontinuités, autant de « paginations », si l’on veut, interrompant la continuité du déroulement. Bref, à l’écran, le codex devient volumen et le volumen devient codex.

On est donc face à un déroulement en forme de flux, certes, mais infiniment accidenté, discrétisé ou discrétisable. Cette discrétisation fluide ou cette fluidité discrète de l’espace de lecture relève de ce que Deleuze et Guattari, reprenant une distinction proposée par Pierre Boulez, appelaient le « temps lisse » (ici : celui de la lecture continue) et le « temps strié » (ici : celui de la lecture discontinue, ponctuée par des renvois référentiels). Ces temporalités contrastées se replient sans cesse l’une sur l’autre dans notre expérience contemporaine de la lecture numérique. Et ce faisant, elles invitent à instituer, mais aussi et aussitôt à destituer, de nouveaux dispositifs de lecture-pouvoir constitués par des injonctions — souvent invisibles pour les lecteurs — qui se trament entre ces divers registres, entre ces strates que sont le texte lu, le sous-texte de son encodage ainsi que le formatage inhérent aux supports logiciels et matériels qui les portent.

Plus que jamais, l’acte de lecture, à l’ère du numérique, est tramé, transi de micropouvoirs.

Flux de données contre pouvoirs publics

Les situations de déliquescence des données ouvertes questionnent le rôle de l’acteur public. Doit‑il produire de la donnée uniquement pour ses propres besoins ou prendre en considération les besoins externes d’entreprises privées ? Dans le premier cas, il laisse le champ libre à d’autres acteurs pour produire des données qui nourriront les services numériques développés sur son territoire. L’établissement de ces conventions d’équivalence n’est alors plus l’apanage de l’État ou des acteurs publics. Il est pris en charge par des acteurs privés qui imposent leur représentation de l’espace urbain au risque, pour les acteurs publics, d’une perte de maîtrise de leurs politiques publiques. C’est la thèse d’Antoine Courmont, qui vient de publier aux Presses universitaires de Grenoble (PUG) Quand la donnée arrive en ville – open data et gouvernance urbaine. Antoine Courmont est chercheur associé au Centre d’études européennes de Sciences Po et responsable scientifique de la chaire Villes et numérique de l’École urbaine de Sciences Po. Il enseigne à Sciences Po Paris. Les lignes suivantes sont extraites de son ouvrage.

Cette situation est manifeste dans le secteur de la mobilité où des entreprises telles que Waze ou Here ont développé leur propre cartographie routière1. Or celles‑ci s’appuient sur des conventions de représentation du réseau routier qui diffèrent de celle du Grand Lyon et qui ont un effet sur la régulation de la circulation automobile. Cela provoque des controverses avec les producteurs privés de données de navigation routière. Le réseau de voies de l’agglomération lyonnaise est hiérarchisé par le Grand Lyon en fonction de différents critères (volume des flux, dimensionnement de la voirie, usages, etc.). Les producteurs privés s’appuient sur des typologies alternatives comme l’indique ce cartographe de l’entreprise Here : « Nous, on a 5 classes de voies. Le Grand Lyon en a 6. Je sais que l’autre fabricant de GPS en a 8323 ». Dès lors, selon les bases de données, certaines voies ne sont pas catégorisées de manière identique.

Quand les acteurs publics perdent la maîtrise de la représentation de leur territoire

La classification de l’entreprise Here a été définie afin de prendre en compte la diversité des voies à l’échelle de la région, tandis que la communauté urbaine de Lyon a construit la sienne dans une optique de régulation du réseau à l’échelle de l’agglomération. Cette différence de représentation n’est pas neutre : elle est une force de prescription importante sur le comportement des automobilistes par l’intermédiaire de l’itinéraire mis en avant par leur GPS. Particulièrement visibles lors de situations de congestion, ces différences de classification entraînent un report du trafic automobile par les GPS sur des voies que le Grand Lyon considère comme non adaptées. Ce cas s’est produit notamment au cours de l’été 2013 où une série d’embouteillages a saturé le réseau urbain. Les autorités et la presse locale ont alors fait porter la responsabilité sur les producteurs privés de données, exigeant qu’ils alignent leur classification sur celle du Grand Lyon.

Des réunions entre les représentants locaux de l’entreprise Here et du Grand Lyon ont alors été organisées. Elles ont toutefois été peu concluantes, le Grand Lyon ne disposant d’aucun moyen réglementaire pour imposer sa classification. Ce conflit entre l’autorité chargée de la régulation du réseau routier et ces producteurs privés de base de données de navigation routière met en évidence les répercussions des représentations alternatives de l’espace urbain sur la politique publique de la communauté urbaine de Lyon. La hiérarchisation des voies établie par l’acteur public ne fait plus convention, ce qui réduit sa capacité de régulation du réseau2. Face à ces nouvelles conventions d’équivalence, le Grand Lyon ne maîtrise plus la politique de mobilité de l’agglomération.

L’application Waze : le gouvernement privé des mobilités automobiles métropolitaines

L’application mobile de navigation routière Waze fournit un autre exemple de mise à l’épreuve des capacités de gouvernement de l’acteur public par les données. Fondée en 2008 en Israël, et achetée en 2013 par le groupe Alphabet (Google), la particularité de l’application est de s’appuyer sur des données collectées directement auprès de ses utilisateurs. Par l’intermédiaire de la localisation GPS du téléphone mobile, elle enregistre les traces de déplacement des automobilistes et leur vitesse de circulation. Financée par la publicité, elle compte au printemps 2019 douze millions d’utilisateurs en France, soit plus d’un automobiliste sur quatre. Après l’Île‑de‑France, l’agglomération lyonnaise est un des territoires qui concentrent le plus d’utilisateurs de l’application. Les services de la métropole lyonnaise estiment qu’au moins 30 % des automobilistes dans l’agglomération utilisent l’application3.

L’augmentation considérable du trafic routier aux heures de pointe sur certaines voiries a contribué à rendre visible cet usage croissant et massif de Waze. En effet, l’algorithme de l’application privilégie l’itinéraire le plus rapide sans tenir compte de la hiérarchisation du réseau de voirie. Adoptant une perspective temporelle plutôt que spatiale4, ces choix algorithmiques ont conduit, à proximité de zones de congestion récurrente, à entraîner des reports conséquents de circulation sur des réseaux secondaires non adaptés pour recevoir de tels flux. Cela provoque des situations de congestion induites, des nuisances environnementales, des risques accrus d’insécurité publique, des coûts de maintenance supplémentaire et la contestation des riverains.

Financée par la publicité, Waze compte au printemps 2019 douze millions d’utilisateurs en France, soit plus d’un automobiliste sur quatre.

En second lieu, le succès de Waze ne peut se comprendre qu’en relation avec les failles des systèmes de transport métropolitain face aux processus subis d’étalement urbain et de périurbanisation. Le développement de Waze est une réponse à l’incapacité des institutions publiques à planifier les infrastructures de transport dans certaines zones métropolitaines où des flux pendulaires toujours plus importants provoquent des phénomènes récurrents de congestion5. L’entreprise impute d’ailleurs la responsabilité des reports de trafic aux autorités publiques. « C’est davantage un symptôme qu’une cause. Il faut regarder la situation dans son ensemble. La question qu’il faut se poser c’est “pourquoi il y a des embouteillages sur les voies principales ?”. Parce que la planification urbaine a été dépassée et que les infrastructures ne sont pas adaptées pour répondre aux besoins des personnes vivant dans les banlieues (suburbs)6 ». Face à la saturation quotidienne des infrastructures routières et en l’absence d’alternatives modales satisfaisantes, les automobilistes perçoivent en Waze une solution de substitution qui satisfait leur intérêt individuel en minimisant leur temps de parcours.

L’émergence de cet acteur privé, indépendant des pouvoirs publics, suscite des tensions avec les autorités locales qui, impuissantes, assistent aux reports de trafic routier provoqués par cette application dans des zones résiden‑ tielles. Les autorités locales dénoncent la logique utilitariste inscrite dans son algorithme qui s’adresse à une multitude de clients individuels que l’entreprise cherche à satisfaire. « Ils [Waze] ont une vision individualiste du déplacement qui se heurte avec les politiques publiques qui veulent faire passer les flux de véhicules par les voies principales. Ils sont en contradiction avec les pouvoirs publics7. » L’entreprise rétorque que les principes de régulation inscrits dans l’algorithme de Waze suivent un principe strict de « neutralité » algorithmique, une rationalité procédurale8, qui considère de manière égale l’ensemble des voiries comme le souligne le PDG de Waze : « If the governing body deems the road as public and navigable, we will use it for routing as needed for the good of everyone. Our algorithms are neutral to the evalue of the real estate, the infrastructure cost to maintain the roads or the wishes of the locals. Waze will utilize every public road available considering variables such as road type and current flow, and keep the city moving9 ».

Cette justification de Noam Bardin marque le cadrage alternatif de la régulation de la circulation routière. Waze vise à optimiser l’usage de l’infrastructure routière pour répondre aux phénomènes de congestion. Son service se veut universel, neutre et indépendant des spécificités territoriales, des contextes culturels et des cibles auxquelles il s’adresse. L’application produit une forme de gouvernement « déterritorialisé » centré sur la satisfaction de l’intérêt individuel et inscrit dans une vision individualiste de l’automobiliste. Elle interroge en creux la capacité du pouvoir métropolitain à négocier la mise en œuvre de principes d’intérêt général avec cette entreprise de l’économie numérique. Le Grand Lyon va tenter de s’appuyer sur la mise à disposition de certaines données publiques au travers d’un partenariat avec Waze, qui s’éloigne des principes de l’opendata, pour infléchir la position de l’entreprise.

Waze et Google : des entreprises qui refusent le jeu du marché des données ouvertes

Les plateformes de l’économie numérique sont souvent présentées comme des entreprises prédatrices de données publiques. Les producteurs de données avancent régulièrement la crainte que la mise à disposition de leurs données conduise à renforcer la position dominante d’une entreprise telle que Google au détriment des capacités d’expertise de la collectivité. Cette suspicion à l’égard des géants du numérique est partagée par certains universitaires lyonnais :

La donnée, c’est l’or noir du XXIe siècle. Or actuellement, il y a effectivement des tentatives de privatisation de la donnée ; c’est préoccupant […] Des représentants de grands groupes déclarent publiquement que les données publiques qu’ils peuvent récupérer ne sont plus vraiment publiques parce qu’ils les structurent, les nettoient ou les enrichissent. Ils sont en train de revendiquer que les données publiques qu’ils vont aspirer peuvent leur appartenir10.

Pour éviter ce risque de « privatisation » des données publiques, ces acteurs suggéraient de mettre en place un certain nombre de garde‑fous au marché des données ouvertes. Si leurs craintes sont légitimes, force est de constater que les données ouvertes par les collectivités ne sont que marginalement réutilisées par ces entreprises de l’économie numérique. Ces dernières, pour conserver une indépendance et une maîtrise de l’ensemble de la chaîne de la donnée, s’appuient sur de multiples sources de données. Lorsqu’elles sont contraintes d’utiliser des données publiques locales, elles rechignent à utiliser les données ouvertes qui nécessitent un lourd travail de nettoyage et de standardisation afin d’effacer tous particularismes locaux pour être intégrées dans un service standardisé internationalement. Comme le souligne le cas de Waze et de Google, ces entreprises profitent de leur position dominante pour imposer aux collectivités des modalités alternatives d’accès à leurs données. En proposant des partenariats aux institutions publiques, elles font reposer sur celles‑ci le coûteux travail de préparation et d’intégration des données.

La donnée, c’est l’or noir du XXIe siècle. Or actuellement, il y a effectivement des tentatives de privatisation de la donnée ; c’est préoccupant.

En 2004, constatant que près d’un quart des requêtes sur son moteur de recherche concerne des informations localisées, Google achète deux start‑up, Where2Tech et Keyhole, afin de développer un service de cartographie numérique. Lancé en février 2005, Google Maps offre des cartes, des images satellite et de rues, des informations de circulation routière et un service de calcul d’itinéraires. Google Maps reçoit plus d’un milliard d’utilisateurs par mois et son API (Application Programming Interface), qui permet d’insérer ces cartes dans des sites tiers, est utilisé par plus d’un million de sites. Si elle propose une représentation unifiée de l’espace, l’entreprise utilise marginalement des données en opendata.

La production des cartographies de Google Maps repose sur plusieurs sources de données. Google s’est appuyé initialement sur des bases de données publiques11 ou privées12. Ces données initiales ont été harmonisées, actualisées et enrichies à l’aide d’images satellite, aériennes et de rue (Google Street View), traitées par des algorithmes d’analyse d’images13, dont les opérations sont vérifiées et corrigées par des centaines d’opérateurs. Enfin, l’entreprise fait appel aux utilisateurs au travers de trois dispositifs : le service MapMaker qui permet à l’internaute d’ajouter des informations, l’onglet Report a Problem pour signaler une erreur et un outil interne appelé Boule de cristal qui analyse les réseaux sociaux et les sites Internet pour identifier des sources d’erreurs. Le croisement et l’harmonisation de ces données hétérogènes reposent sur un travail manuel considérable effectué par des opérateurs. En 2012, plus de 7 000 personnes travaillaient sur Google Maps : 1 100 employés par Google et 6 000 prestataires, des chauffeurs des véhicules Street View aux opérateurs localisés à Bangalore en Inde dessinant les cartes ou corrigeant des listings14. La base de données est actualisée en permanence : il n’y a pas de campagnes de mise à jour ou de versioningdes données, les mises à jour sont continues. Les données sont standardisées pour l’ensemble des zones géographiques représentées : cette standardisation s’appuie sur des modèles de spécifications qui décrivent précisément les modalités de représentation de chaque entité.

À cette cartographie initiale, Google a ajouté deux services relatifs à l’information des voyageurs : Google Traffic et Google Transit. Google Traffic indique en temps réel les conditions de circulation routière. Il a été lancé en février 2007 dans trente villes des États‑Unis. Il s’est maintenant généralisé. Les informations ne proviennent pas des pouvoirs publics, mais sont obtenues par les localisations GPS transmises par les utilisateurs de téléphones portables. L’entreprise calcule la vitesse de déplacement de ces utilisateurs le long d’une voie pour déterminer les conditions de déplacement15. Le second service, Google Transit, fournit un calcul d’itinéraire de déplacement en transport en commun. Il a été lancé en octobre 2007 par l’intégration de données des réseaux de transports publics de plusieurs villes américaines.

https://www.pug.fr/produit/1897/9782706147357/quand-la-donnee-arrive-en-ville

Dans la continuité du projet de cartographie communautaire dont elle trouve son origine16, l’entreprise Waze fait reposer la production de ses données sur des logiques de crowdsourcing. Trois modalités de crowdsourcing, demandant plus ou moins d’engagements de la part du contributeur, cohabitent : les traces, les signalements et les éditions cartographiques. En premier lieu, Waze enregistre les traces de déplacement de ses utilisateurs afin de connaître la vitesse de circulation sur les différents tronçons de voirie. Ce premier type de crowdsourcing, reposant sur la collecte de traces d’activités des utilisateurs, est passif : il ne nécessite aucune interaction de la part de l’utilisateur. En deuxième lieu, l’application propose à ses utilisateurs de signaler les événements qu’ils rencontrent lors de leur trajet (embouteillage, accidents, fermetures de voies, présence policière, etc.). Enfin, une communauté d’éditeurs locaux est chargée de l’édition de la cartographie. Au travers d’une interface en ligne proposée par l’entreprise (WazeMap Editor342), des bénévoles enrichissent la base de données géographiques décrivant l’infrastructure routière. Ils tracent l’ensemble des tronçons de voirie, les mettent à jour et y associent des informations (type et nom de la voie, vitesse autorisée, sens de circulation, etc.).

La combinaison de ces trois sources de données offre à Waze une autonomie vis‑à‑vis de producteurs privés ou publics de données. Cela lui offre un double avantage. D’une part, elle n’est pas contrainte de déployer des infrastructures physiques de collecte de données puisque celles‑ci proviennent des téléphones des automobilistes. L’entreprise peut dès lors développer son service sans aucune présence territoriale ni contractualisation préalable avec les acteurs publics17. D’autre part, le crowdsourcing lui offre également une capacité à fournir une représentation unifiée des réseaux routiers qui dépassent les frontières administratives. Les données produites et utilisées par Waze, attachées aux véhicules et non à l’infrastructure, s’affranchissent des territoires institutionnels. Le service de Waze se veut sans frontières : présent dans plusieurs dizaines de pays, il s’appuie sur une description homogène des réseaux routiers quels que soient les territoires ou les domanialités de réseau. En cela, Waze unifie la réalité, sans tenir compte des spécificités locales, projet qui a longtemps été la raison d’être de l’État18.

Si elles tendent à maîtriser la chaîne de production de leurs données, tant Waze que Google restent dépendantes de certaines données publiques détenues par les autorités locales. Pour améliorer son service, Waze a besoin d’informations relatives aux fermetures planifiées de voirie qu’elle peine à collecter par ailleurs.

Les données produites et utilisées par Waze, attachées aux véhicules et non à l’infrastructure, s’affranchissent des territoires institutionnels.

Les villes ont tout un tas de données que l’on n’a pas : la planification des travaux, des événements, de visites, etc. Toutes ces données sont absolument critiques pour le bon fonctionnement de l’application. Et ça, c’est pas des données que l’on a. En tout cas, c’est pas des données que l’on a en avance. C’est des données que les utilisateurs peuvent déclarer à l’instant t, une fois que le bouchon est créé, mais pas en avance […] C’est une information critique qui nous manque19.

De même, les transports en commun sont un secteur sur lequel Google est aujourd’hui dépendant des données des opérateurs publics, puisqu’elle ne peut obtenir autrement les informations sur les horaires. Google pourrait utiliser les données mises à disposition en opendata, pourtant, elle ne le fait pas systématiquement. Si les données de la RATP sont intégrées au service Google Transit, ce n’est pas le cas de Rennes, Lyon, Toulouse ou Nantes par exemple. Cette absence d’utilisation des données en opendata interpelle, alors que Google est un acteur incontournable dans le discours des producteurs et suscite de nombreuses craintes.

De fait, Waze et Google n’ont recours que marginalement aux données ouvertes par les autorités locales. D’une part, l’hétérogénéité de ces dernières rend très longue et coûteuse leur intégration dans un système d’information standardisée à l’échelle internationale comme en témoigne le responsable technique de Waze : « Technically the hardest thing was that each municipality had a different level of knowledge. They give us the data in different ways. One is XML.One is KML. Another city would give us information by email. The Israeli police gave us data by fax. It was hard to beas flexible as possible in order to b eable to digest all of this information and to upload it to the users20  ».

Si le travail de nettoyage et d’intégration est possible ponctuellement et pour quelques villes, il devient vite considérable et difficilement industrialisable. D’autre part, la bonne intégration de ces informations dans leurs services requiert une connaissance des territoires dont ces entreprises, qui n’ont pas d’implantation territoriale fine, ne disposent pas. La vérification de la qualité des données nécessite une expertise minimale du réseau de transport et de ses spécificités pour s’assurer que les informations proposées à l’utilisateur sont cohérentes. « Nous, on n’est pas capable de dire si l’arrêt de bus se trouve de tel côté de la place, ou de l’autre21. » Pour preuve, en 2012, Google avait intégré directement les données proposées par la RATP en opendata. Mais le service de calcul d’itinéraires était de mauvaise qualité : seuls les métros et les RER étaient disponibles, les tramways et les bus étaient absents du service, qui ne prenait pas en compte les perturbations du réseau22. Pour y remédier, depuis le championnat d’Europe de football de 2016, Google fait désormais appel à un prestataire français, très bon connaisseur des spécificités du système de transport parisien, afin d’intégrer les données.

Pour éviter ces frais de standardisation, de nettoyage et d’intégration, les plateformes de l’économie numérique privilégient la mise en place de « partenariats » avec les producteurs locaux de données et leur imposent leurs conditions d’accès aux données publiques. Waze a lancé en 2014 le Connected Citizens Program, un programme d’échange de données avec des acteurs publics. L’entreprise propose de fournir gratuitement des données anonymisées et agrégées sur les conditions de circulation en temps réel et les incidents signalés par les utilisateurs ; en échange, les pouvoirs publics transmettent des informations sur les fermetures de voies et les événements impactant la circulation. De son côté, Google propose depuis plusieurs années aux opérateurs de transport un partenariat visant à intégrer les informations relatives à leurs réseaux dans Google Transit.

Dans les deux cas, les entreprises ont développé des formats techniques et des contrats juridiques standardisés à l’échelle internationale et proposent des interfaces en ligne de vérification et d’intégration de leurs données. Google a créé le General Transit Feed Specification (GTFS) pour les informations de transport en commun, tandis que Waze a élaboré le Closure and Incident Feed Specifications (CIFS), pour les fermetures de voirie. Elles proposent également des contrats génériques, non négociables, en anglais, de partenariats avec les fournisseurs de données qui indiquent les droits et obligations de chacun. Enfin, Google et Waze donnent accès à des interfaces qui permettent de visualiser les données et de vérifier les incohérences. « C’est vraiment un outil que l’on met à la disposition des collectivités. C’est pour ça que l’on préfère un partenariat. Ça permet d’améliorer la qualité des informations que l’on diffuse, puisqu’il y a une vérification par les acteurs locaux. Ça nous permet également d’assurer une certaine stabilité de la fourniture du service dans le temps. Par exemple, si la ville de Besançon publie ses données, mais, du jour au lendemain, change l’URL de son service, nous, on ne le verra pas forcément. Si la collectivité met à jour l’URL, ça permet d’éviter des problèmes de mise à jour, et comme ça, nous on n’indique pas des infos foireuses. C’est pourquoi on préfère faire des collaborations avec les collectivités. C’est comme cela que l’on procède partout dans le monde, on ne vient pas utiliser directement les données en opendata23 ».

Ainsi, contrairement à l’open data qui est perçu comme « plus complexe et moins engageant », Google souhaite ajouter des médiations supplémentaires pour « cadrer la relation » entre les producteurs de données et l’entreprise réutilisatrice. Surtout, par le biais de ces partenariats, Google réussit à faire reposer le travail de nettoyage, d’actualisation et d’intégration de ses données dans son service sur les autorités locales24. Ces dernières doivent en effet prendre à leur charge les coûts humains de formatage des données en GTFS, d’intégration, de vérification de la qualité et de mise à jour régulière des données. Le site Internet présentant les partenariats est particulièrement clair sur la responsabilité qui incombe aux producteurs de données.

Il est essentiel de fournir un flux de données d’excellente qualité. Google a créé un certain nombre d’outils opensource afin d’aider les réseaux à vérifier la qualité de leurs flux de données. Ainsi, les modalités des partenariats proposés par ces plateformes visent non seulement à industrialiser l’usage de données publiques en standardi‑ sant l’appariement entre offres et demandes, mais également à tirer profit de l’expertise locale des producteurs. Tout usage de données requiert une connaissance des spécificités propres à chaque territoire afin de s’assurer que les résultats algorithmiques ne sont pas aberrants pour l’utilisateur. Par ces partenariats, il s’agit d’éviter que le fonctionnement procédural des algorithmes se heurte au caractère substantiel des territoires et de leurs particularités25.

« Peut‑on ne pas être sur Google ? » : un rapport de force défavorable aux pouvoirs publics

Cette logique de partenariat imposée par les plateformes illustre le rapport de force défavorable entre les acteurs publics et ces nouveaux intermédiaires. Les entreprises de l’économie numérique s’appuient sur leur grand nombre d’utilisateurs pour contraindre les collectivités à accepter leurs conditions de partenariats et faire reposer la charge de travail sur les producteurs de données. Au sein de la métropole de Lyon, le débat vis‑à‑vis de ces partenariats s’est posé en ces termes : « On ne sait pas comment faire vis‑à‑vis d’eux, est‑ce que l’on doit leur donner nos données et accepter leurs conditions ? Pour l’instant on résiste, mais est‑ce qu’on pourra le faire longtemps ? Peut‑on aujourd’hui ne pas être sur Google Maps ? En termes de visibilité de notre offre de transport, à l’international notamment, et de services pour nos usagers, on doit y être26. » Les plateformes mobilisent ainsi leurs utilisateurs comme une force politique pour peser indirectement dans les négociations avec les autorités locales et imposer leurs conditions d’accès aux données.

Les plateformes mobilisent ainsi leurs utilisateurs comme une force politique pour peser indirectement dans les négociations avec les autorités locales et imposer leurs conditions d’accès aux données.

Au sein des collectivités, le sujet de la relation à adopter vis‑à‑vis des plateformes numériques est l’objet de discussions vigoureuses. Le partenariat avec Waze a suscité de vifs débats et a été l’objet de combats politiques au sein de la métropole. « C’est compliqué, parce que politiquement, ça peut être le meilleur comme le pire. Le meilleur parce que ça améliore le service à l’usager et qu’ils s’appuient sur nos informations de trafic. Le pire parce qu’ils ont des effets délétères sur les reports de trafic et qu’on risque de perdre le contrôle […] On ne sait donc pas bien où ça va mener parce que l’exécutif reste divisé sur le sujet : des adjoints sont pour, d’autres s’y opposent fermement27 ». Le Grand Lyon souhaitait profiter de cette proposition de partenariat pour infléchir la position de l’entreprise quant à l’évolution de ses algorithmes pour qu’ils prennent en compte les orientations de sa politique de mobilité. Face au refus ferme de l’entreprise, la collectivité a longtemps décliné le partenariat. Pourtant, quelques mois plus tard, alors que d’importants travaux sont réalisés, perturbant le trafic au cœur de l’agglomération, la métropole décide de signer le partenariat et d’accepter les conditions de l’entreprise. « L’augmentation du nombre d’utilisateurs de cette application devenue incontournable […] et des perspectives d’innovation et d’amélioration du service pour les usagers conduisent aujourd’hui à réviser la position de la Métropole dans le sens d’une participation à ce partenariat et d’en faire une opportunité […] Les données de la Métropole, notamment les chantiers prévisionnels, permettraient à Waze d’améliorer ses services et ainsi de ne pas orienter des flux de véhicules dans les secteurs concernés […] L’intérêt premier pour la Métropole de cette participation réside dans la perspective d’améliorer la sécurité et l’information des voyageurs28 ». Les perturbations liées à ces longs chantiers dans l’agglomération, mais surtout la place acquise par l’application dans la régulation routière du fait de son nombre toujours croissant d’utilisateurs ont conduit le Grand Lyon à revoir sa position. « Pourquoi les élus ont bougé ? Parce qu’on leur a dit qu’aujourd’hui, ça s’imposait à nous. Il vaut mieux en être plutôt que de les laisser prendre le contrôle29». La prise en compte par Waze de leurs informations est perçue comme un prolongement bénéfique de leur politique de régulation routière. Pour les pouvoirs publics, la réutilisation de leurs données est vue comme un moyen de conserver une partie de la maîtrise de leur politique publique en s’assurant que ces services se basent sur des informations officielles et fiabilisées.

Toutefois, si ces partenariats rencontrent un relatif succès dans le monde, les pouvoirs publics locaux français sont encore très peu à s’y soumettre. Plus de 7 000 opérateurs de transport dans le monde transmettent leurs données à Google. En France, ils ne sont que 64 (sur plusieurs centaines), dont plus d’un tiers transmettent uniquement le plan du réseau et non les horaires qui permettent le calcul d’itinéraire. Dans le cas de Waze, la situation est similaire. Alors que la France est le troisième marché mondial de l’entreprise, seule une trentaine d’autorités publiques locales ont signé le partenariat d’échange de données (contre plus de 900 partenaires dans 50 pays). Ces partenariats sont ainsi difficiles à mettre en place en France comme me le révèle un responsable de Waze : « C’est assez galère […] On a beaucoup de mal avec la France, parce qu’ils demandent toujours des trucs spécifiques, ils ne vont pas signer des contrats en anglais, y a des lois, y a des machins et on a beaucoup de mal à avancer […] Je crois qu’il y a vraiment un enjeu de compréhension, d’échange. On a rencontré une grande ville française il y a deux semaines, y avait une incompréhension totale30. » Cet extrait souligne les difficultés d’échange entre deux mondes sociaux éloignés l’un de l’autre, les acteurs publics d’une part et les salariés des plateformes d’autre part.

Alors que les premiers ont l’habitude des négociations avec les entreprises pour adapter leur offre au contexte local et construire une « action publique négociée31 », les seconds souhaitent établir ces partenariats sans contrôle de leurs activités ni transformation de leur service. Surtout, en quête de rendements croissants, leur enjeu est de multiplier ces partenariats en réduisant au maximum leurs interactions avec les acteurs locaux. « Mon enjeu c’est scale. On ne peut pas faire du one‑to‑one, il faut que l’on fasse du one‑to‑many. C’est plus possible. Je ne peux passer une demi‑journée avec Cannes, je ne peux pas passer une après‑midi à Marseille, même si c’est Marseille, c’est impossible32. » De fait, les ressources humaines que Waze consacre au développement de ces partenariats sont très limitées. Le bureau français de l’entreprise est composé exclusivement de personnes au profil commercial, chargées de vendre des espaces publicitaires à des annonceurs, très éloignées des problématiques urbaines. « Il y a une personne sur la zone EMEA [Europe, Middle East & Africa] qui est en charge des CCP, mais il est Israélien et basé en Israël. Il ne parle qu’anglais, et fait des rendez‑vous par visioconférence. Donc, c’est moyen pour les collectivités françaises en termes de relations33 » Cette faible ressource accordée par l’entreprise au développement de ces partenariats illustre la profonde différence entre ces plateformes de l’économie numérique et les firmes urbaines traditionnelles dans leur relation aux acteurs publics locaux. Alors que les dernières, attentives aux enjeux des territoires, s’attachent à construire des relations personnali‑ sées et pérennes avec l’administration et les élus territoriaux, la logique de croissance rapide des plateformes les conduit à considérer les acteurs publics comme d’autres usagers de la plateforme auxquels on propose une offre de services standardisée en libre‑service.

Les exemples de Google et de Waze mettent en évidence une autre modalité de coordination entre acteurs publics et privés qui se joue au travers de la mise en circulation des données publiques. Ces entreprises de l’économie numérique appliquent dans leurs relations aux collectivités les principes de rationalisation et de standardisation, caractéristiques du fonctionnement des marchés de consommation de masse. Afin d’intégrer dans leurs services, à un coût réduit, les données, très hétérogènes, provenant d’une multitude d’acteurs locaux, elles n’ont d’autres choix que de rationaliser et standardiser le produit échangé (les données), mais également toutes les opérations accompagnant cet échange. La standardisation de la donnée garantit que celle‑ci corresponde à un certain nombre de caractéristiques qui facilitent son utilisation sans friction dans le système d’information de l’entreprise. D’autre part, la standardisation des opérations d’appariement au travers d’un contrat unique, signé à distance, et d’une interface et d’outils en ligne de nettoyage et de transfert des données assure une réduction au strict minimum de la relation entre les plateformes et les collectivités locales. L’alignement de toutes ces opérations sur un même modèle permet aux plateformes d’industrialiser l’usage de données publiques provenant de multiples sources.

Le réattachement des données à de nouveaux utilisateurs pose la question de l’appariement entre offre et demande de données. Loin d’aller de soi, cette rencontre est fragile et repose sur de nombreuses médiations qui facilitent l’attachement de la donnée à un nouvel environnement informationnel. L’analyse des modalités de la rencontre entre offres et demandes de données fait émerger une tension entre la singularisation et la standardisation des données ouvertes. Les données sont des biens singuliers, qu’il est nécessaire de qualifier par le biais d’un ensemble de dispositifs, afin de réduire l’incertitude sur leur qualité et assurer leur usage au sein d’un nouvel environnement informationnel. À la suite de ces opérations de qualification, la donnée devient un objet‑frontière circulant entre deux mondes sociaux : elle reste attachée aux producteurs tout en étant réattachée à de nouveaux utilisateurs. Cette singularité peut toutefois constituer une limite à la réutilisation. Les attachements initiaux des données sont trop solides et empêchent un usage alternatif sans trahir la donnée initiale. Les derniers cas présentés mettent en avant comment les plateformes entendent dépasser les singularités des données publiques en imposant leurs modalités standardisées d’accès aux données. En cela, elles parviennent à industrialiser la réutilisation des données territoriales sans passer par le marché des données ouvertes.

Ne pouvant s’appuyer sur les données ouvertes, les entreprises développent leurs propres représentations du territoire à partir desquelles vont reposer leurs services numériques.

Au travers de ces trois politiques des données ouvertes, la place et le rôle de l’institution publique sont interrogés, tout comme sa capacité à gouverner son territoire par la mise en circulation des données. Devenue objet‑frontière, la donnée renforce le pouvoir sémantique de la collectivité. La mise en circulation des données renforce sa capacité à coordonner des acteurs autour d’une représentation partagée du territoire. À l’inverse, les situations de déliquescence illustrent la perte de la maîtrise de représentation de leurs territoires par les acteurs publics. Ne pouvant s’appuyer sur les données ouvertes, les entreprises développent leurs propres représentations du territoire à partir desquelles vont reposer leurs services numériques. Ces situations questionnent le rôle que doit jouer l’acteur public : doit‑il produire des données pour ses politiques publiques ou pour des acteurs externes ? Doit‑il rester dans une politique de l’offre ou s’adapter à la demande de données pour préserver son pouvoir sémantique ?

Enfin, les rapports de pouvoir défavorables à l’institution publique peuvent la conduire à accepter des formes alternatives de diffusion de ses données. Celles‑ci peuvent tout à la fois être interprétées comme une diminution ou un renforcement du pouvoir sémantique des autorités publiques à dire ce qui est. Même si l’information leur est fournie par un autre canal, elles conservent en effet la maîtrise de l’information transmise aux usagers. Les autorités publiques restent la source d’informations légitime à partir de laquelle vont se coordonner les usagers. Pour les pouvoirs publics, la réutilisation de leurs données est perçue comme un moyen de conserver une part de la maîtrise de leur politique publique en s’assurant que ces services se basent sur des informations officielles et fiabilisées. Ces partenariats soulignent le redéploiement des autorités publiques dans certains territoires. Celles‑ci effectuent un gouvernement indirect par l’intermédiaire de la mise en circulation de leurs données, ce qui conduit à une « décharge34 » des collectivités locales vers ces plateformes. Pour les autorités publiques, ce partenariat renforce leur pouvoir d’instituer ce qu’est la réalité en s’assurant de faire réalité commune avec les nouvelles représentations offertes par le bigdata.

Sources :

1 : Here Maps est l’héritière de la société américaine Navteq. Fondée en 1985, Navteq a été achetée en 2007 par l’entreprise Nokia. Cette dernière a revendu à l’été 2015 cette activité cartographique à un consortium de constructeurs automobiles allemands (Audi, BMW et Daimler) pour un montant de 2,8 milliards d’euros. Ses cartographies, qui couvrent près de 190 pays, sont vendues à de nombreux constructeurs es entreprises numériques (Amazon, Bing, Yahoo!, etc.).

2 : Face à cette situation, le Grand Lyon se trouve réduit à agir sur l’infrastructure, en réclamant à l’État le déclassement de la voie, afin de pouvoir réduire drastiquement la vitesse de circulation et installer des feux de circulation, ce qui contribuerait à modifier substantiellement les calculs d’itinéraires. https://www.rue89lyon.fr/2016/04/01/autoroute-a6-a7-quand-gerard-collomb-voulait-convaincre-les-gps-dignorer-fourviere/ (consulté le 26/11/20).

3 : En Île‑de‑France, l’entreprise estime que près de 70% des automobilistes sont utilisateurs de l’application.

4 : Antoine Courmont, 2018, « Plateforme, big data et recomposition du gouver‑ nement urbain. Les effets de Waze sur les politiques de régulation du trafic », Revue française de sociologie, vol. 59, n° 3, p. 423‑449.

5 : Éric Le Breton, 2017, « L’espace social des mobilités périurbaines », SociologieS. https://journals.openedition.org/sociologies/5917 (consulté le 26/11/20).

6 : Entretien avec Claudia, responsable des partenariats, Waze, juillet 2017.

7 : Entretien avec les responsables du PC Circulation, Lyon, mai 2017.

8 : Dominique Cardon, 2018, « Le pouvoir des algorithmes », Pouvoirs, vol. 164, n° 1, p. 63‑73.

9 : Noam Bardim, 2018, « Keeping cities moving. How Waze works ? », 12 avril 2018. https://medium.com/@noambardin/keeping‑cities‑moving‑how‑waze‑works‑4aad0 66c7bfa (consulté le 26/11/20).

10 : Interview d’Atilla Baskurt et Jean‑François Boulicaut (30 novembre 2012). https://www.millenaire3.com/Interview/2012/liris‑le‑marche‑des‑donnees (consulté le 26/11/20)

11 : L’US Census Bureau aux États‑Unis, l’IGN en France par exemple. La liste des sources de données de Google Maps est disponible à cette adresse : http://www.google. com/intl/fr/help/legalnotices_maps.html (consulté le 26/11/20).

12 : Google achète des bases de données géographiques auprès de l’entreprise TomTom.

13 : Ces algorithmes permettent de détecter et d’interpréter les panneaux de signa‑ lisation routière, les noms et numéros de rue et certains points d’intérêts (enseignes commerciales, etc.).

14 : https://www.businessinsider.fr/us/to‑do‑what‑google‑does‑in‑maps‑apple‑would‑ have‑to‑hire‑7000‑people‑2012‑6 (consulté le 26/11/20).

15 : http://googleblog.blogspot.fr/2009/08/bright‑side‑of‑sitting‑in‑traffic.html (consulté le 26/11/20).

16 : Waze trouve son origine dans le projet de cartographie communautaire « Free‑ MapIsrael », qui visait à produire une base de données cartographique d’Israël à partir d’informations issues des terminaux mobiles des utilisateurs, qui étaient ensuite certi‑ fiées et nommées.

17 : https://www.waze.com/fr/editor (consulté le 26/11/20).

18 : Cette indépendance est renforcée par le modèle économique de l’entreprise. Gratuite pour ses utilisateurs, l’application est financée par la publicité.

19 : Entretien avec Simon, responsable des partenariats, Waze France (31 mai 2017)

20 : Mitchell Weiss et Alissa Davies, 2017, « Waze Connected Citizens Program », Harvard Business School Case 817‑035.

21 : Entretien téléphonique avec Francesca, cheffe de produit, Google (9 février 2015).

22 : Les informations lacunaires rendent le service peu efficace comme le souligne ce billet de blog. Yann Le Tilly, « Google Transit à Paris : pour les cowboys uniquement ! » (28 novembre 2012). https://transid.blogspot.com/2012/11/google‑transit‑paris‑pour‑ les‑cowboys.html (consulté le 26/11/20).

23 : Entretien téléphonique avec Hugues, directeur des politiques publiques, Google (11 février 2015).

24 : La liste des villes présentes sur Google Transit est disponible à cette adresse : http://maps.google.com/landing/transit/cities/index.html (consulté le 26/11/20).

25 : Dominique Cardon et Maxime Crépel, 2019, « Les algorithmes et la régulation des territoires » dans Antoine Courmont et Patrick Le Galès (dir.), Gouverner la ville numérique, Paris, PUF, p. 83‑101.

26 : Journal de terrain, discussion avec Léa, juin 2015.

27 : Entretien avec Guillaume, service de la mobilité urbaine, Grand Lyon (5 mai 2018).

28 : Décision n° CP‑2019‑2915 (commission permanente du 4 mars 2019).

29 : Échange avec François, services informatiques, Grand Lyon (5 mai 2018).

30 : Entretien avec Simon, responsable des partenariats, Waze France (31 mai 2017).

31 : Maxime Huré, 2012, « Une action publique hybride ? Retour sur l’institution‑ nalisation d’un partenariat public‑privé, JCDecaux à Lyon (1965‑2005) », Sociologie du travail, vol. 54, n° 2, p. 29.

32 : Entretien avec Simon, responsable des partenariats, Waze France (31 mai 2017).

33 : Échange avec Marine, cheffe de projet, Waze France (mai 2019).

34 : Béatrice Hibou, 1998, « Retrait ou redéploiement de l’État ? », Critique internationale, n° 1, p. 151‑168.

Et pourtant, c’est un beau métier, facteur…

©Yves Souben
Devant le bureau de Poste Crimée, à Rennes, les postiers en grève contre la réorganisation de leur travail. © Yves Souben

Des gestes répétitifs, des cadences imposées par des algorithmes, un métier vidé de son sens. En grève depuis le 9 janvier, les facteurs de toute l’Ille-et-Vilaine protestent contre une nouvelle réorganisation de leur travail. Et dénoncent une pénibilité ignorée par leur direction.

Il faut prendre son courrier. Sortir de la voiture. Le distribuer. Lettre par lettre. Boîte par boîte. Revenir dans sa voiture. Et, un peu plus loin, recommencer. Prendre le courrier, sortir, distribuer. Lettre par lettre, boîte par boîte. Toujours les mêmes gestes, répétés pendant des heures.

On pense facilement que les mouvements répétitifs et le travail à la chaîne appartiennent au passé, au XXe siècle. C’est faux. Publiée le 20 décembre 2017, une étude du ministère du travail souligne que 42,7% des salariés en France doivent répéter continuellement une même série de gestes ou d’opérations. En 2005, ils étaient 27%. Le travail à la chaîne existait dans l’industrie, il s’impose désormais dans le secteur des services. Figures emblématiques du service public, les facteurs en savent quelque chose. Prendre le courrier, sortir de la voiture, distribuer, rentrer, sortir, distribuer, rentrer…

« A un moment donné, tu auras un accident avec ces gestes répétitifs », proteste Philippe Charles, délégué syndical de la CGT FAPT d’Ille-et-Vilaine. Ce mardi 9 janvier, il est avec les autres, sur le piquet de grève du bureau de Poste Crimée, à Rennes. Depuis une semaine, une partie des facteurs du département a arrêté le travail, pour protester contre une nouvelle « réorg’ », imposée par la direction de La Poste.

Des corps marqués par les cadences de travail

Présents depuis sept heures du matin, les grévistes se réchauffent auprès des braséros improvisés dans des bidons métalliques. Un peu plus loin, la sono crachotte du France Gall. « Résiste », encourage-t-elle les salariés. « Prouve que tu existes ! » Auprès des palettes qui se consument en flammes vives, ceux-ci énumèrent les derniers accidents, les souffrances du travail. Il y a les chutes des vélos, plus nombreuses depuis que La Poste est passée aux vélos électriques. On va plus vite avec moins d’effort, mais les accidents n’en sont que plus violents. Une cheville, un genou cassé.

Et puis surtout, il y a « les TMS », expliquent les délégués syndicaux. Avant de préciser : les troubles musculosquelettiques. Toutes ces maladies qui touchent les tissus mous : muscles, tendons, nerfs ; de loin les maladies professionnelles les plus courantes. « J’ai une militante de 45 ans qui est factrice », témoigne Yann Brault, secrétaire-adjoint de SUD PTT sur le département. « Elle a une capsulite, elle s’est décrochée l’épaule en distribuant le courrier. »

Il y a Nounours, aussi, qui se tient à côté du feu. Inutile de chercher pourquoi il veut se donner ce surnom, son imposante stature engoncée dans son blouson de cuir l’explique à elle seule. « Il a mal au dos, toute l’année », explique une de ses collègues factrices. « Depuis qu’on a les nouvelles positions de travail soi-disant ergonomiques, les cadences se sont accélérées », se plaint-il. A la lueur des flammes, il imite ses gestes de travail, pour trier son courrier avant de faire sa tournée. Aux mouvements amples du tri au jet se sont substitués les petits gestes du tri par casier, numéro d’habitation par numéro d’habitation.

Dans d’autres centres, la rationalisation du travail rend celui-ci plus pénible encore, à travers l’imposition des « tournées sacoches ». Le facteur n’a plus la possibilité de trier lui-même son courrier et de s’organiser en fonction de son terrain, il récupère sa sacoche déjà apprêtée et se contente de distribuer ses plis.

Les algorithmes, les pires contremaîtres qui soient

« L’accroissement des contraintes de productivité, l’intensification du travail dans un contexte de vieillissement de la population active expliquent au moins en partie l’augmentation des TMS », résume sobrement l’Institut National de Recherche et de Sécurité (INRS) sur son site. Les facteurs en savent quelque chose. L’âge moyen des salariés du groupe La Poste est de 47,2 ans. Mais surtout, ils sont confrontés à une intensification sans cesse de leurs tâches exigées.

« On a des tournées surchargées, démesurées, et donc des heures supplémentaires qui ne sont pas payées », dénonce Philippe Charles. Mandatées par le comité d’hygiène, de sécurité et des conditions de travail (CHSCT), des études indépendantes ont conclu que la charge de travail des salariés était sous évaluée, avec de nombreux dépassements des horaires officiels. Alors les facteurs s’adaptent. « Les collègues arrivent 30 minutes avant l’heure, détaille Christelle, ils ne prennent pas leur pause de 20 minutes pour finir à temps. »

« La charge de travail n’est plus calculée sur le terrain maintenant », déplore Philippe Charles. Les facteurs sont désormais livrés à des algorithmes, qui définissent le temps de travail nécessaire par tournée. Gare à ceux qui dépassent les horaires ainsi calculés. Le cégétiste témoigne : « on a des jeunes qui viennent nous dire qu’on les a engueulé, on leur dit qu’ils ne vont pas assez vite, qu’ils ne savent pas travailler ».

La direction de La Poste, de son côté, se base sur la baisse du courrier pour réorganiser le travail. « Le centre de Rennes Crimée a distribué 25 000 plis en moyenne chaque jour en 2017 », explique dans Ouest France le directeur de l’établissement, Stéphane Lavrilloux. Et de préciser : « c’est deux fois moins qu’il y a deux ans ».

Alors le groupe réduit ses effectifs, drastiquement. En 18 ans, 78 000 emplois de postiers ont été détruits au niveau national. Des tournées de distribution sont elles aussi supprimées. « En 1995, on avait 43 tournées » sur le centre postal de Rennes Crimée, se souvient Nounours. Il n’en reste que 22 aujourd’hui.

Perte de sens, perte de moral

Secrétaire adjoint du syndicat SUD PTT d’Ille et Vilaine, Yann Brault énumère les prochaines suppressions de tournées. « Il y en aura six au bureau Crimée, à partir du 23 janvier. Au bureau Colombier, une douzaine, au moins, dans trois mois. Et au mois de septembre, 3 ou 4 tournées seront supprimées, une douzaine au moins au bureau de Maurepas. »

Plus qu’accompagner la baisse du courrier, ces évolutions accentuent la charge de travail des facteurs. Le CHSCT a demandé une expertise indépendante pour motiver la nécessité de supprimer ces tournées sur les centres rennais. « La direction a refusé de transmettre les logiciels de calcul et les documents », indique Yann Brault. L’affaire a été portée devant la justice. A Grenoble, une réorganisation similaire a été suspendue pour les mêmes raisons.

Quant aux facteurs, ils doivent déjà se plier à la transformation du groupe en prestataire de services. Vérification de chauffe-eaux, tâches demandées par les copropriétés, visites aux personnes âgées… « J’ai dû faire des remises commentées de catalogues », décrit Christelle. « Il faut les remettre en mains propres, en faisant des commentaires. Les gens, ça les emmerde, mais on utilise quand même notre image pour vendre ces produits. » Surtout auprès des personnes âgées, qui ne sont pas touchées par les publicités en ligne.

« On perd le sens de notre métier », constate Philippe Charles. Auprès du feu, dans son blouson de cuir, Nounours confirme les propos du cégétiste. Plus que la douleur physique, c’est le moral des facteurs qui est touché par les réorganisations imposées. « Avant on avait la conscience professionnelle, mais ça s’épuise, on n’est plus motivés. » A ses côtés, Christelle tire le même constat. Avant de soupirer : « et pourtant, c’est un beau métier, facteur… »

Et qu’en pense la direction de La Poste ?

“Vous allez voir, si vous posez des questions sur la surcharge de travail des facteurs, la direction ne vous parlera que de baisse du courrier”, soupiraient les délégués syndicaux sur le piquet de grève. Contacté, l’attache de presse du groupe la poste pour la Bretagne propose immédiatement de venir à la conférence de presse du lendemain. Soit.

Les bureaux administratifs de la poste en Bretagne se trouvent dans l’ancien palais des commerces de Rennes, bâtiment emblématique dont les arcades longent la place de la République, en plein centre-ville. Accompagné par une vigile, on peut rejoindre les étages qui surplombent la poste centrale, inaccessibles habituellement au public. Lorsque vient le moment d’entrer dans la salle de la conférence de presse, une responsable tique.

“Je n’ai pas été prévenue de votre présence.” Ce n’est pas faute, pourtant, d’avoir répondu à l’invitation envoyée. Alors que le journaliste de Ouest France entre sans encombre, l’interrogatoire commence. “Est-ce que vous êtes un média local ? Est-ce que vous êtes politisés ? Est-ce que vous allez prendre en compte notre point de vue ?” On aurait bien aimé transmettre plus précisément les réponses du groupe La Poste aux divers témoignages recueillis. Seulement, un coup de fil au national de la poste plus tard, on se retrouve mis à la rue.  “On vous rappelle dans l’après midi pour que vous puissiez nous poser vos questions.” On attend toujours.

 

Crédits :

© Yves Souben