Flux de données contre pouvoirs publics

Les situations de déliquescence des données ouvertes questionnent le rôle de l’acteur public. Doit‑il produire de la donnée uniquement pour ses propres besoins ou prendre en considération les besoins externes d’entreprises privées ? Dans le premier cas, il laisse le champ libre à d’autres acteurs pour produire des données qui nourriront les services numériques développés sur son territoire. L’établissement de ces conventions d’équivalence n’est alors plus l’apanage de l’État ou des acteurs publics. Il est pris en charge par des acteurs privés qui imposent leur représentation de l’espace urbain au risque, pour les acteurs publics, d’une perte de maîtrise de leurs politiques publiques. C’est la thèse d’Antoine Courmont, qui vient de publier aux Presses universitaires de Grenoble (PUG) Quand la donnée arrive en ville – open data et gouvernance urbaine. Antoine Courmont est chercheur associé au Centre d’études européennes de Sciences Po et responsable scientifique de la chaire Villes et numérique de l’École urbaine de Sciences Po. Il enseigne à Sciences Po Paris. Les lignes suivantes sont extraites de son ouvrage.

Cette situation est manifeste dans le secteur de la mobilité où des entreprises telles que Waze ou Here ont développé leur propre cartographie routière1. Or celles‑ci s’appuient sur des conventions de représentation du réseau routier qui diffèrent de celle du Grand Lyon et qui ont un effet sur la régulation de la circulation automobile. Cela provoque des controverses avec les producteurs privés de données de navigation routière. Le réseau de voies de l’agglomération lyonnaise est hiérarchisé par le Grand Lyon en fonction de différents critères (volume des flux, dimensionnement de la voirie, usages, etc.). Les producteurs privés s’appuient sur des typologies alternatives comme l’indique ce cartographe de l’entreprise Here : « Nous, on a 5 classes de voies. Le Grand Lyon en a 6. Je sais que l’autre fabricant de GPS en a 8323 ». Dès lors, selon les bases de données, certaines voies ne sont pas catégorisées de manière identique.

Quand les acteurs publics perdent la maîtrise de la représentation de leur territoire

La classification de l’entreprise Here a été définie afin de prendre en compte la diversité des voies à l’échelle de la région, tandis que la communauté urbaine de Lyon a construit la sienne dans une optique de régulation du réseau à l’échelle de l’agglomération. Cette différence de représentation n’est pas neutre : elle est une force de prescription importante sur le comportement des automobilistes par l’intermédiaire de l’itinéraire mis en avant par leur GPS. Particulièrement visibles lors de situations de congestion, ces différences de classification entraînent un report du trafic automobile par les GPS sur des voies que le Grand Lyon considère comme non adaptées. Ce cas s’est produit notamment au cours de l’été 2013 où une série d’embouteillages a saturé le réseau urbain. Les autorités et la presse locale ont alors fait porter la responsabilité sur les producteurs privés de données, exigeant qu’ils alignent leur classification sur celle du Grand Lyon.

Des réunions entre les représentants locaux de l’entreprise Here et du Grand Lyon ont alors été organisées. Elles ont toutefois été peu concluantes, le Grand Lyon ne disposant d’aucun moyen réglementaire pour imposer sa classification. Ce conflit entre l’autorité chargée de la régulation du réseau routier et ces producteurs privés de base de données de navigation routière met en évidence les répercussions des représentations alternatives de l’espace urbain sur la politique publique de la communauté urbaine de Lyon. La hiérarchisation des voies établie par l’acteur public ne fait plus convention, ce qui réduit sa capacité de régulation du réseau2. Face à ces nouvelles conventions d’équivalence, le Grand Lyon ne maîtrise plus la politique de mobilité de l’agglomération.

L’application Waze : le gouvernement privé des mobilités automobiles métropolitaines

L’application mobile de navigation routière Waze fournit un autre exemple de mise à l’épreuve des capacités de gouvernement de l’acteur public par les données. Fondée en 2008 en Israël, et achetée en 2013 par le groupe Alphabet (Google), la particularité de l’application est de s’appuyer sur des données collectées directement auprès de ses utilisateurs. Par l’intermédiaire de la localisation GPS du téléphone mobile, elle enregistre les traces de déplacement des automobilistes et leur vitesse de circulation. Financée par la publicité, elle compte au printemps 2019 douze millions d’utilisateurs en France, soit plus d’un automobiliste sur quatre. Après l’Île‑de‑France, l’agglomération lyonnaise est un des territoires qui concentrent le plus d’utilisateurs de l’application. Les services de la métropole lyonnaise estiment qu’au moins 30 % des automobilistes dans l’agglomération utilisent l’application3.

L’augmentation considérable du trafic routier aux heures de pointe sur certaines voiries a contribué à rendre visible cet usage croissant et massif de Waze. En effet, l’algorithme de l’application privilégie l’itinéraire le plus rapide sans tenir compte de la hiérarchisation du réseau de voirie. Adoptant une perspective temporelle plutôt que spatiale4, ces choix algorithmiques ont conduit, à proximité de zones de congestion récurrente, à entraîner des reports conséquents de circulation sur des réseaux secondaires non adaptés pour recevoir de tels flux. Cela provoque des situations de congestion induites, des nuisances environnementales, des risques accrus d’insécurité publique, des coûts de maintenance supplémentaire et la contestation des riverains.

Financée par la publicité, Waze compte au printemps 2019 douze millions d’utilisateurs en France, soit plus d’un automobiliste sur quatre.

En second lieu, le succès de Waze ne peut se comprendre qu’en relation avec les failles des systèmes de transport métropolitain face aux processus subis d’étalement urbain et de périurbanisation. Le développement de Waze est une réponse à l’incapacité des institutions publiques à planifier les infrastructures de transport dans certaines zones métropolitaines où des flux pendulaires toujours plus importants provoquent des phénomènes récurrents de congestion5. L’entreprise impute d’ailleurs la responsabilité des reports de trafic aux autorités publiques. « C’est davantage un symptôme qu’une cause. Il faut regarder la situation dans son ensemble. La question qu’il faut se poser c’est “pourquoi il y a des embouteillages sur les voies principales ?”. Parce que la planification urbaine a été dépassée et que les infrastructures ne sont pas adaptées pour répondre aux besoins des personnes vivant dans les banlieues (suburbs)6 ». Face à la saturation quotidienne des infrastructures routières et en l’absence d’alternatives modales satisfaisantes, les automobilistes perçoivent en Waze une solution de substitution qui satisfait leur intérêt individuel en minimisant leur temps de parcours.

L’émergence de cet acteur privé, indépendant des pouvoirs publics, suscite des tensions avec les autorités locales qui, impuissantes, assistent aux reports de trafic routier provoqués par cette application dans des zones résiden‑ tielles. Les autorités locales dénoncent la logique utilitariste inscrite dans son algorithme qui s’adresse à une multitude de clients individuels que l’entreprise cherche à satisfaire. « Ils [Waze] ont une vision individualiste du déplacement qui se heurte avec les politiques publiques qui veulent faire passer les flux de véhicules par les voies principales. Ils sont en contradiction avec les pouvoirs publics7. » L’entreprise rétorque que les principes de régulation inscrits dans l’algorithme de Waze suivent un principe strict de « neutralité » algorithmique, une rationalité procédurale8, qui considère de manière égale l’ensemble des voiries comme le souligne le PDG de Waze : « If the governing body deems the road as public and navigable, we will use it for routing as needed for the good of everyone. Our algorithms are neutral to the evalue of the real estate, the infrastructure cost to maintain the roads or the wishes of the locals. Waze will utilize every public road available considering variables such as road type and current flow, and keep the city moving9 ».

Cette justification de Noam Bardin marque le cadrage alternatif de la régulation de la circulation routière. Waze vise à optimiser l’usage de l’infrastructure routière pour répondre aux phénomènes de congestion. Son service se veut universel, neutre et indépendant des spécificités territoriales, des contextes culturels et des cibles auxquelles il s’adresse. L’application produit une forme de gouvernement « déterritorialisé » centré sur la satisfaction de l’intérêt individuel et inscrit dans une vision individualiste de l’automobiliste. Elle interroge en creux la capacité du pouvoir métropolitain à négocier la mise en œuvre de principes d’intérêt général avec cette entreprise de l’économie numérique. Le Grand Lyon va tenter de s’appuyer sur la mise à disposition de certaines données publiques au travers d’un partenariat avec Waze, qui s’éloigne des principes de l’opendata, pour infléchir la position de l’entreprise.

Waze et Google : des entreprises qui refusent le jeu du marché des données ouvertes

Les plateformes de l’économie numérique sont souvent présentées comme des entreprises prédatrices de données publiques. Les producteurs de données avancent régulièrement la crainte que la mise à disposition de leurs données conduise à renforcer la position dominante d’une entreprise telle que Google au détriment des capacités d’expertise de la collectivité. Cette suspicion à l’égard des géants du numérique est partagée par certains universitaires lyonnais :

La donnée, c’est l’or noir du XXIe siècle. Or actuellement, il y a effectivement des tentatives de privatisation de la donnée ; c’est préoccupant […] Des représentants de grands groupes déclarent publiquement que les données publiques qu’ils peuvent récupérer ne sont plus vraiment publiques parce qu’ils les structurent, les nettoient ou les enrichissent. Ils sont en train de revendiquer que les données publiques qu’ils vont aspirer peuvent leur appartenir10.

Pour éviter ce risque de « privatisation » des données publiques, ces acteurs suggéraient de mettre en place un certain nombre de garde‑fous au marché des données ouvertes. Si leurs craintes sont légitimes, force est de constater que les données ouvertes par les collectivités ne sont que marginalement réutilisées par ces entreprises de l’économie numérique. Ces dernières, pour conserver une indépendance et une maîtrise de l’ensemble de la chaîne de la donnée, s’appuient sur de multiples sources de données. Lorsqu’elles sont contraintes d’utiliser des données publiques locales, elles rechignent à utiliser les données ouvertes qui nécessitent un lourd travail de nettoyage et de standardisation afin d’effacer tous particularismes locaux pour être intégrées dans un service standardisé internationalement. Comme le souligne le cas de Waze et de Google, ces entreprises profitent de leur position dominante pour imposer aux collectivités des modalités alternatives d’accès à leurs données. En proposant des partenariats aux institutions publiques, elles font reposer sur celles‑ci le coûteux travail de préparation et d’intégration des données.

La donnée, c’est l’or noir du XXIe siècle. Or actuellement, il y a effectivement des tentatives de privatisation de la donnée ; c’est préoccupant.

En 2004, constatant que près d’un quart des requêtes sur son moteur de recherche concerne des informations localisées, Google achète deux start‑up, Where2Tech et Keyhole, afin de développer un service de cartographie numérique. Lancé en février 2005, Google Maps offre des cartes, des images satellite et de rues, des informations de circulation routière et un service de calcul d’itinéraires. Google Maps reçoit plus d’un milliard d’utilisateurs par mois et son API (Application Programming Interface), qui permet d’insérer ces cartes dans des sites tiers, est utilisé par plus d’un million de sites. Si elle propose une représentation unifiée de l’espace, l’entreprise utilise marginalement des données en opendata.

La production des cartographies de Google Maps repose sur plusieurs sources de données. Google s’est appuyé initialement sur des bases de données publiques11 ou privées12. Ces données initiales ont été harmonisées, actualisées et enrichies à l’aide d’images satellite, aériennes et de rue (Google Street View), traitées par des algorithmes d’analyse d’images13, dont les opérations sont vérifiées et corrigées par des centaines d’opérateurs. Enfin, l’entreprise fait appel aux utilisateurs au travers de trois dispositifs : le service MapMaker qui permet à l’internaute d’ajouter des informations, l’onglet Report a Problem pour signaler une erreur et un outil interne appelé Boule de cristal qui analyse les réseaux sociaux et les sites Internet pour identifier des sources d’erreurs. Le croisement et l’harmonisation de ces données hétérogènes reposent sur un travail manuel considérable effectué par des opérateurs. En 2012, plus de 7 000 personnes travaillaient sur Google Maps : 1 100 employés par Google et 6 000 prestataires, des chauffeurs des véhicules Street View aux opérateurs localisés à Bangalore en Inde dessinant les cartes ou corrigeant des listings14. La base de données est actualisée en permanence : il n’y a pas de campagnes de mise à jour ou de versioningdes données, les mises à jour sont continues. Les données sont standardisées pour l’ensemble des zones géographiques représentées : cette standardisation s’appuie sur des modèles de spécifications qui décrivent précisément les modalités de représentation de chaque entité.

À cette cartographie initiale, Google a ajouté deux services relatifs à l’information des voyageurs : Google Traffic et Google Transit. Google Traffic indique en temps réel les conditions de circulation routière. Il a été lancé en février 2007 dans trente villes des États‑Unis. Il s’est maintenant généralisé. Les informations ne proviennent pas des pouvoirs publics, mais sont obtenues par les localisations GPS transmises par les utilisateurs de téléphones portables. L’entreprise calcule la vitesse de déplacement de ces utilisateurs le long d’une voie pour déterminer les conditions de déplacement15. Le second service, Google Transit, fournit un calcul d’itinéraire de déplacement en transport en commun. Il a été lancé en octobre 2007 par l’intégration de données des réseaux de transports publics de plusieurs villes américaines.

https://www.pug.fr/produit/1897/9782706147357/quand-la-donnee-arrive-en-ville

Dans la continuité du projet de cartographie communautaire dont elle trouve son origine16, l’entreprise Waze fait reposer la production de ses données sur des logiques de crowdsourcing. Trois modalités de crowdsourcing, demandant plus ou moins d’engagements de la part du contributeur, cohabitent : les traces, les signalements et les éditions cartographiques. En premier lieu, Waze enregistre les traces de déplacement de ses utilisateurs afin de connaître la vitesse de circulation sur les différents tronçons de voirie. Ce premier type de crowdsourcing, reposant sur la collecte de traces d’activités des utilisateurs, est passif : il ne nécessite aucune interaction de la part de l’utilisateur. En deuxième lieu, l’application propose à ses utilisateurs de signaler les événements qu’ils rencontrent lors de leur trajet (embouteillage, accidents, fermetures de voies, présence policière, etc.). Enfin, une communauté d’éditeurs locaux est chargée de l’édition de la cartographie. Au travers d’une interface en ligne proposée par l’entreprise (WazeMap Editor342), des bénévoles enrichissent la base de données géographiques décrivant l’infrastructure routière. Ils tracent l’ensemble des tronçons de voirie, les mettent à jour et y associent des informations (type et nom de la voie, vitesse autorisée, sens de circulation, etc.).

La combinaison de ces trois sources de données offre à Waze une autonomie vis‑à‑vis de producteurs privés ou publics de données. Cela lui offre un double avantage. D’une part, elle n’est pas contrainte de déployer des infrastructures physiques de collecte de données puisque celles‑ci proviennent des téléphones des automobilistes. L’entreprise peut dès lors développer son service sans aucune présence territoriale ni contractualisation préalable avec les acteurs publics17. D’autre part, le crowdsourcing lui offre également une capacité à fournir une représentation unifiée des réseaux routiers qui dépassent les frontières administratives. Les données produites et utilisées par Waze, attachées aux véhicules et non à l’infrastructure, s’affranchissent des territoires institutionnels. Le service de Waze se veut sans frontières : présent dans plusieurs dizaines de pays, il s’appuie sur une description homogène des réseaux routiers quels que soient les territoires ou les domanialités de réseau. En cela, Waze unifie la réalité, sans tenir compte des spécificités locales, projet qui a longtemps été la raison d’être de l’État18.

Si elles tendent à maîtriser la chaîne de production de leurs données, tant Waze que Google restent dépendantes de certaines données publiques détenues par les autorités locales. Pour améliorer son service, Waze a besoin d’informations relatives aux fermetures planifiées de voirie qu’elle peine à collecter par ailleurs.

Les données produites et utilisées par Waze, attachées aux véhicules et non à l’infrastructure, s’affranchissent des territoires institutionnels.

Les villes ont tout un tas de données que l’on n’a pas : la planification des travaux, des événements, de visites, etc. Toutes ces données sont absolument critiques pour le bon fonctionnement de l’application. Et ça, c’est pas des données que l’on a. En tout cas, c’est pas des données que l’on a en avance. C’est des données que les utilisateurs peuvent déclarer à l’instant t, une fois que le bouchon est créé, mais pas en avance […] C’est une information critique qui nous manque19.

De même, les transports en commun sont un secteur sur lequel Google est aujourd’hui dépendant des données des opérateurs publics, puisqu’elle ne peut obtenir autrement les informations sur les horaires. Google pourrait utiliser les données mises à disposition en opendata, pourtant, elle ne le fait pas systématiquement. Si les données de la RATP sont intégrées au service Google Transit, ce n’est pas le cas de Rennes, Lyon, Toulouse ou Nantes par exemple. Cette absence d’utilisation des données en opendata interpelle, alors que Google est un acteur incontournable dans le discours des producteurs et suscite de nombreuses craintes.

De fait, Waze et Google n’ont recours que marginalement aux données ouvertes par les autorités locales. D’une part, l’hétérogénéité de ces dernières rend très longue et coûteuse leur intégration dans un système d’information standardisée à l’échelle internationale comme en témoigne le responsable technique de Waze : « Technically the hardest thing was that each municipality had a different level of knowledge. They give us the data in different ways. One is XML.One is KML. Another city would give us information by email. The Israeli police gave us data by fax. It was hard to beas flexible as possible in order to b eable to digest all of this information and to upload it to the users20  ».

Si le travail de nettoyage et d’intégration est possible ponctuellement et pour quelques villes, il devient vite considérable et difficilement industrialisable. D’autre part, la bonne intégration de ces informations dans leurs services requiert une connaissance des territoires dont ces entreprises, qui n’ont pas d’implantation territoriale fine, ne disposent pas. La vérification de la qualité des données nécessite une expertise minimale du réseau de transport et de ses spécificités pour s’assurer que les informations proposées à l’utilisateur sont cohérentes. « Nous, on n’est pas capable de dire si l’arrêt de bus se trouve de tel côté de la place, ou de l’autre21. » Pour preuve, en 2012, Google avait intégré directement les données proposées par la RATP en opendata. Mais le service de calcul d’itinéraires était de mauvaise qualité : seuls les métros et les RER étaient disponibles, les tramways et les bus étaient absents du service, qui ne prenait pas en compte les perturbations du réseau22. Pour y remédier, depuis le championnat d’Europe de football de 2016, Google fait désormais appel à un prestataire français, très bon connaisseur des spécificités du système de transport parisien, afin d’intégrer les données.

Pour éviter ces frais de standardisation, de nettoyage et d’intégration, les plateformes de l’économie numérique privilégient la mise en place de « partenariats » avec les producteurs locaux de données et leur imposent leurs conditions d’accès aux données publiques. Waze a lancé en 2014 le Connected Citizens Program, un programme d’échange de données avec des acteurs publics. L’entreprise propose de fournir gratuitement des données anonymisées et agrégées sur les conditions de circulation en temps réel et les incidents signalés par les utilisateurs ; en échange, les pouvoirs publics transmettent des informations sur les fermetures de voies et les événements impactant la circulation. De son côté, Google propose depuis plusieurs années aux opérateurs de transport un partenariat visant à intégrer les informations relatives à leurs réseaux dans Google Transit.

Dans les deux cas, les entreprises ont développé des formats techniques et des contrats juridiques standardisés à l’échelle internationale et proposent des interfaces en ligne de vérification et d’intégration de leurs données. Google a créé le General Transit Feed Specification (GTFS) pour les informations de transport en commun, tandis que Waze a élaboré le Closure and Incident Feed Specifications (CIFS), pour les fermetures de voirie. Elles proposent également des contrats génériques, non négociables, en anglais, de partenariats avec les fournisseurs de données qui indiquent les droits et obligations de chacun. Enfin, Google et Waze donnent accès à des interfaces qui permettent de visualiser les données et de vérifier les incohérences. « C’est vraiment un outil que l’on met à la disposition des collectivités. C’est pour ça que l’on préfère un partenariat. Ça permet d’améliorer la qualité des informations que l’on diffuse, puisqu’il y a une vérification par les acteurs locaux. Ça nous permet également d’assurer une certaine stabilité de la fourniture du service dans le temps. Par exemple, si la ville de Besançon publie ses données, mais, du jour au lendemain, change l’URL de son service, nous, on ne le verra pas forcément. Si la collectivité met à jour l’URL, ça permet d’éviter des problèmes de mise à jour, et comme ça, nous on n’indique pas des infos foireuses. C’est pourquoi on préfère faire des collaborations avec les collectivités. C’est comme cela que l’on procède partout dans le monde, on ne vient pas utiliser directement les données en opendata23 ».

Ainsi, contrairement à l’open data qui est perçu comme « plus complexe et moins engageant », Google souhaite ajouter des médiations supplémentaires pour « cadrer la relation » entre les producteurs de données et l’entreprise réutilisatrice. Surtout, par le biais de ces partenariats, Google réussit à faire reposer le travail de nettoyage, d’actualisation et d’intégration de ses données dans son service sur les autorités locales24. Ces dernières doivent en effet prendre à leur charge les coûts humains de formatage des données en GTFS, d’intégration, de vérification de la qualité et de mise à jour régulière des données. Le site Internet présentant les partenariats est particulièrement clair sur la responsabilité qui incombe aux producteurs de données.

Il est essentiel de fournir un flux de données d’excellente qualité. Google a créé un certain nombre d’outils opensource afin d’aider les réseaux à vérifier la qualité de leurs flux de données. Ainsi, les modalités des partenariats proposés par ces plateformes visent non seulement à industrialiser l’usage de données publiques en standardi‑ sant l’appariement entre offres et demandes, mais également à tirer profit de l’expertise locale des producteurs. Tout usage de données requiert une connaissance des spécificités propres à chaque territoire afin de s’assurer que les résultats algorithmiques ne sont pas aberrants pour l’utilisateur. Par ces partenariats, il s’agit d’éviter que le fonctionnement procédural des algorithmes se heurte au caractère substantiel des territoires et de leurs particularités25.

« Peut‑on ne pas être sur Google ? » : un rapport de force défavorable aux pouvoirs publics

Cette logique de partenariat imposée par les plateformes illustre le rapport de force défavorable entre les acteurs publics et ces nouveaux intermédiaires. Les entreprises de l’économie numérique s’appuient sur leur grand nombre d’utilisateurs pour contraindre les collectivités à accepter leurs conditions de partenariats et faire reposer la charge de travail sur les producteurs de données. Au sein de la métropole de Lyon, le débat vis‑à‑vis de ces partenariats s’est posé en ces termes : « On ne sait pas comment faire vis‑à‑vis d’eux, est‑ce que l’on doit leur donner nos données et accepter leurs conditions ? Pour l’instant on résiste, mais est‑ce qu’on pourra le faire longtemps ? Peut‑on aujourd’hui ne pas être sur Google Maps ? En termes de visibilité de notre offre de transport, à l’international notamment, et de services pour nos usagers, on doit y être26. » Les plateformes mobilisent ainsi leurs utilisateurs comme une force politique pour peser indirectement dans les négociations avec les autorités locales et imposer leurs conditions d’accès aux données.

Les plateformes mobilisent ainsi leurs utilisateurs comme une force politique pour peser indirectement dans les négociations avec les autorités locales et imposer leurs conditions d’accès aux données.

Au sein des collectivités, le sujet de la relation à adopter vis‑à‑vis des plateformes numériques est l’objet de discussions vigoureuses. Le partenariat avec Waze a suscité de vifs débats et a été l’objet de combats politiques au sein de la métropole. « C’est compliqué, parce que politiquement, ça peut être le meilleur comme le pire. Le meilleur parce que ça améliore le service à l’usager et qu’ils s’appuient sur nos informations de trafic. Le pire parce qu’ils ont des effets délétères sur les reports de trafic et qu’on risque de perdre le contrôle […] On ne sait donc pas bien où ça va mener parce que l’exécutif reste divisé sur le sujet : des adjoints sont pour, d’autres s’y opposent fermement27 ». Le Grand Lyon souhaitait profiter de cette proposition de partenariat pour infléchir la position de l’entreprise quant à l’évolution de ses algorithmes pour qu’ils prennent en compte les orientations de sa politique de mobilité. Face au refus ferme de l’entreprise, la collectivité a longtemps décliné le partenariat. Pourtant, quelques mois plus tard, alors que d’importants travaux sont réalisés, perturbant le trafic au cœur de l’agglomération, la métropole décide de signer le partenariat et d’accepter les conditions de l’entreprise. « L’augmentation du nombre d’utilisateurs de cette application devenue incontournable […] et des perspectives d’innovation et d’amélioration du service pour les usagers conduisent aujourd’hui à réviser la position de la Métropole dans le sens d’une participation à ce partenariat et d’en faire une opportunité […] Les données de la Métropole, notamment les chantiers prévisionnels, permettraient à Waze d’améliorer ses services et ainsi de ne pas orienter des flux de véhicules dans les secteurs concernés […] L’intérêt premier pour la Métropole de cette participation réside dans la perspective d’améliorer la sécurité et l’information des voyageurs28 ». Les perturbations liées à ces longs chantiers dans l’agglomération, mais surtout la place acquise par l’application dans la régulation routière du fait de son nombre toujours croissant d’utilisateurs ont conduit le Grand Lyon à revoir sa position. « Pourquoi les élus ont bougé ? Parce qu’on leur a dit qu’aujourd’hui, ça s’imposait à nous. Il vaut mieux en être plutôt que de les laisser prendre le contrôle29». La prise en compte par Waze de leurs informations est perçue comme un prolongement bénéfique de leur politique de régulation routière. Pour les pouvoirs publics, la réutilisation de leurs données est vue comme un moyen de conserver une partie de la maîtrise de leur politique publique en s’assurant que ces services se basent sur des informations officielles et fiabilisées.

Toutefois, si ces partenariats rencontrent un relatif succès dans le monde, les pouvoirs publics locaux français sont encore très peu à s’y soumettre. Plus de 7 000 opérateurs de transport dans le monde transmettent leurs données à Google. En France, ils ne sont que 64 (sur plusieurs centaines), dont plus d’un tiers transmettent uniquement le plan du réseau et non les horaires qui permettent le calcul d’itinéraire. Dans le cas de Waze, la situation est similaire. Alors que la France est le troisième marché mondial de l’entreprise, seule une trentaine d’autorités publiques locales ont signé le partenariat d’échange de données (contre plus de 900 partenaires dans 50 pays). Ces partenariats sont ainsi difficiles à mettre en place en France comme me le révèle un responsable de Waze : « C’est assez galère […] On a beaucoup de mal avec la France, parce qu’ils demandent toujours des trucs spécifiques, ils ne vont pas signer des contrats en anglais, y a des lois, y a des machins et on a beaucoup de mal à avancer […] Je crois qu’il y a vraiment un enjeu de compréhension, d’échange. On a rencontré une grande ville française il y a deux semaines, y avait une incompréhension totale30. » Cet extrait souligne les difficultés d’échange entre deux mondes sociaux éloignés l’un de l’autre, les acteurs publics d’une part et les salariés des plateformes d’autre part.

Alors que les premiers ont l’habitude des négociations avec les entreprises pour adapter leur offre au contexte local et construire une « action publique négociée31 », les seconds souhaitent établir ces partenariats sans contrôle de leurs activités ni transformation de leur service. Surtout, en quête de rendements croissants, leur enjeu est de multiplier ces partenariats en réduisant au maximum leurs interactions avec les acteurs locaux. « Mon enjeu c’est scale. On ne peut pas faire du one‑to‑one, il faut que l’on fasse du one‑to‑many. C’est plus possible. Je ne peux passer une demi‑journée avec Cannes, je ne peux pas passer une après‑midi à Marseille, même si c’est Marseille, c’est impossible32. » De fait, les ressources humaines que Waze consacre au développement de ces partenariats sont très limitées. Le bureau français de l’entreprise est composé exclusivement de personnes au profil commercial, chargées de vendre des espaces publicitaires à des annonceurs, très éloignées des problématiques urbaines. « Il y a une personne sur la zone EMEA [Europe, Middle East & Africa] qui est en charge des CCP, mais il est Israélien et basé en Israël. Il ne parle qu’anglais, et fait des rendez‑vous par visioconférence. Donc, c’est moyen pour les collectivités françaises en termes de relations33 » Cette faible ressource accordée par l’entreprise au développement de ces partenariats illustre la profonde différence entre ces plateformes de l’économie numérique et les firmes urbaines traditionnelles dans leur relation aux acteurs publics locaux. Alors que les dernières, attentives aux enjeux des territoires, s’attachent à construire des relations personnali‑ sées et pérennes avec l’administration et les élus territoriaux, la logique de croissance rapide des plateformes les conduit à considérer les acteurs publics comme d’autres usagers de la plateforme auxquels on propose une offre de services standardisée en libre‑service.

Les exemples de Google et de Waze mettent en évidence une autre modalité de coordination entre acteurs publics et privés qui se joue au travers de la mise en circulation des données publiques. Ces entreprises de l’économie numérique appliquent dans leurs relations aux collectivités les principes de rationalisation et de standardisation, caractéristiques du fonctionnement des marchés de consommation de masse. Afin d’intégrer dans leurs services, à un coût réduit, les données, très hétérogènes, provenant d’une multitude d’acteurs locaux, elles n’ont d’autres choix que de rationaliser et standardiser le produit échangé (les données), mais également toutes les opérations accompagnant cet échange. La standardisation de la donnée garantit que celle‑ci corresponde à un certain nombre de caractéristiques qui facilitent son utilisation sans friction dans le système d’information de l’entreprise. D’autre part, la standardisation des opérations d’appariement au travers d’un contrat unique, signé à distance, et d’une interface et d’outils en ligne de nettoyage et de transfert des données assure une réduction au strict minimum de la relation entre les plateformes et les collectivités locales. L’alignement de toutes ces opérations sur un même modèle permet aux plateformes d’industrialiser l’usage de données publiques provenant de multiples sources.

Le réattachement des données à de nouveaux utilisateurs pose la question de l’appariement entre offre et demande de données. Loin d’aller de soi, cette rencontre est fragile et repose sur de nombreuses médiations qui facilitent l’attachement de la donnée à un nouvel environnement informationnel. L’analyse des modalités de la rencontre entre offres et demandes de données fait émerger une tension entre la singularisation et la standardisation des données ouvertes. Les données sont des biens singuliers, qu’il est nécessaire de qualifier par le biais d’un ensemble de dispositifs, afin de réduire l’incertitude sur leur qualité et assurer leur usage au sein d’un nouvel environnement informationnel. À la suite de ces opérations de qualification, la donnée devient un objet‑frontière circulant entre deux mondes sociaux : elle reste attachée aux producteurs tout en étant réattachée à de nouveaux utilisateurs. Cette singularité peut toutefois constituer une limite à la réutilisation. Les attachements initiaux des données sont trop solides et empêchent un usage alternatif sans trahir la donnée initiale. Les derniers cas présentés mettent en avant comment les plateformes entendent dépasser les singularités des données publiques en imposant leurs modalités standardisées d’accès aux données. En cela, elles parviennent à industrialiser la réutilisation des données territoriales sans passer par le marché des données ouvertes.

Ne pouvant s’appuyer sur les données ouvertes, les entreprises développent leurs propres représentations du territoire à partir desquelles vont reposer leurs services numériques.

Au travers de ces trois politiques des données ouvertes, la place et le rôle de l’institution publique sont interrogés, tout comme sa capacité à gouverner son territoire par la mise en circulation des données. Devenue objet‑frontière, la donnée renforce le pouvoir sémantique de la collectivité. La mise en circulation des données renforce sa capacité à coordonner des acteurs autour d’une représentation partagée du territoire. À l’inverse, les situations de déliquescence illustrent la perte de la maîtrise de représentation de leurs territoires par les acteurs publics. Ne pouvant s’appuyer sur les données ouvertes, les entreprises développent leurs propres représentations du territoire à partir desquelles vont reposer leurs services numériques. Ces situations questionnent le rôle que doit jouer l’acteur public : doit‑il produire des données pour ses politiques publiques ou pour des acteurs externes ? Doit‑il rester dans une politique de l’offre ou s’adapter à la demande de données pour préserver son pouvoir sémantique ?

Enfin, les rapports de pouvoir défavorables à l’institution publique peuvent la conduire à accepter des formes alternatives de diffusion de ses données. Celles‑ci peuvent tout à la fois être interprétées comme une diminution ou un renforcement du pouvoir sémantique des autorités publiques à dire ce qui est. Même si l’information leur est fournie par un autre canal, elles conservent en effet la maîtrise de l’information transmise aux usagers. Les autorités publiques restent la source d’informations légitime à partir de laquelle vont se coordonner les usagers. Pour les pouvoirs publics, la réutilisation de leurs données est perçue comme un moyen de conserver une part de la maîtrise de leur politique publique en s’assurant que ces services se basent sur des informations officielles et fiabilisées. Ces partenariats soulignent le redéploiement des autorités publiques dans certains territoires. Celles‑ci effectuent un gouvernement indirect par l’intermédiaire de la mise en circulation de leurs données, ce qui conduit à une « décharge34 » des collectivités locales vers ces plateformes. Pour les autorités publiques, ce partenariat renforce leur pouvoir d’instituer ce qu’est la réalité en s’assurant de faire réalité commune avec les nouvelles représentations offertes par le bigdata.

Sources :

1 : Here Maps est l’héritière de la société américaine Navteq. Fondée en 1985, Navteq a été achetée en 2007 par l’entreprise Nokia. Cette dernière a revendu à l’été 2015 cette activité cartographique à un consortium de constructeurs automobiles allemands (Audi, BMW et Daimler) pour un montant de 2,8 milliards d’euros. Ses cartographies, qui couvrent près de 190 pays, sont vendues à de nombreux constructeurs es entreprises numériques (Amazon, Bing, Yahoo!, etc.).

2 : Face à cette situation, le Grand Lyon se trouve réduit à agir sur l’infrastructure, en réclamant à l’État le déclassement de la voie, afin de pouvoir réduire drastiquement la vitesse de circulation et installer des feux de circulation, ce qui contribuerait à modifier substantiellement les calculs d’itinéraires. https://www.rue89lyon.fr/2016/04/01/autoroute-a6-a7-quand-gerard-collomb-voulait-convaincre-les-gps-dignorer-fourviere/ (consulté le 26/11/20).

3 : En Île‑de‑France, l’entreprise estime que près de 70% des automobilistes sont utilisateurs de l’application.

4 : Antoine Courmont, 2018, « Plateforme, big data et recomposition du gouver‑ nement urbain. Les effets de Waze sur les politiques de régulation du trafic », Revue française de sociologie, vol. 59, n° 3, p. 423‑449.

5 : Éric Le Breton, 2017, « L’espace social des mobilités périurbaines », SociologieS. https://journals.openedition.org/sociologies/5917 (consulté le 26/11/20).

6 : Entretien avec Claudia, responsable des partenariats, Waze, juillet 2017.

7 : Entretien avec les responsables du PC Circulation, Lyon, mai 2017.

8 : Dominique Cardon, 2018, « Le pouvoir des algorithmes », Pouvoirs, vol. 164, n° 1, p. 63‑73.

9 : Noam Bardim, 2018, « Keeping cities moving. How Waze works ? », 12 avril 2018. https://medium.com/@noambardin/keeping‑cities‑moving‑how‑waze‑works‑4aad0 66c7bfa (consulté le 26/11/20).

10 : Interview d’Atilla Baskurt et Jean‑François Boulicaut (30 novembre 2012). https://www.millenaire3.com/Interview/2012/liris‑le‑marche‑des‑donnees (consulté le 26/11/20)

11 : L’US Census Bureau aux États‑Unis, l’IGN en France par exemple. La liste des sources de données de Google Maps est disponible à cette adresse : http://www.google. com/intl/fr/help/legalnotices_maps.html (consulté le 26/11/20).

12 : Google achète des bases de données géographiques auprès de l’entreprise TomTom.

13 : Ces algorithmes permettent de détecter et d’interpréter les panneaux de signa‑ lisation routière, les noms et numéros de rue et certains points d’intérêts (enseignes commerciales, etc.).

14 : https://www.businessinsider.fr/us/to‑do‑what‑google‑does‑in‑maps‑apple‑would‑ have‑to‑hire‑7000‑people‑2012‑6 (consulté le 26/11/20).

15 : http://googleblog.blogspot.fr/2009/08/bright‑side‑of‑sitting‑in‑traffic.html (consulté le 26/11/20).

16 : Waze trouve son origine dans le projet de cartographie communautaire « Free‑ MapIsrael », qui visait à produire une base de données cartographique d’Israël à partir d’informations issues des terminaux mobiles des utilisateurs, qui étaient ensuite certi‑ fiées et nommées.

17 : https://www.waze.com/fr/editor (consulté le 26/11/20).

18 : Cette indépendance est renforcée par le modèle économique de l’entreprise. Gratuite pour ses utilisateurs, l’application est financée par la publicité.

19 : Entretien avec Simon, responsable des partenariats, Waze France (31 mai 2017)

20 : Mitchell Weiss et Alissa Davies, 2017, « Waze Connected Citizens Program », Harvard Business School Case 817‑035.

21 : Entretien téléphonique avec Francesca, cheffe de produit, Google (9 février 2015).

22 : Les informations lacunaires rendent le service peu efficace comme le souligne ce billet de blog. Yann Le Tilly, « Google Transit à Paris : pour les cowboys uniquement ! » (28 novembre 2012). https://transid.blogspot.com/2012/11/google‑transit‑paris‑pour‑ les‑cowboys.html (consulté le 26/11/20).

23 : Entretien téléphonique avec Hugues, directeur des politiques publiques, Google (11 février 2015).

24 : La liste des villes présentes sur Google Transit est disponible à cette adresse : http://maps.google.com/landing/transit/cities/index.html (consulté le 26/11/20).

25 : Dominique Cardon et Maxime Crépel, 2019, « Les algorithmes et la régulation des territoires » dans Antoine Courmont et Patrick Le Galès (dir.), Gouverner la ville numérique, Paris, PUF, p. 83‑101.

26 : Journal de terrain, discussion avec Léa, juin 2015.

27 : Entretien avec Guillaume, service de la mobilité urbaine, Grand Lyon (5 mai 2018).

28 : Décision n° CP‑2019‑2915 (commission permanente du 4 mars 2019).

29 : Échange avec François, services informatiques, Grand Lyon (5 mai 2018).

30 : Entretien avec Simon, responsable des partenariats, Waze France (31 mai 2017).

31 : Maxime Huré, 2012, « Une action publique hybride ? Retour sur l’institution‑ nalisation d’un partenariat public‑privé, JCDecaux à Lyon (1965‑2005) », Sociologie du travail, vol. 54, n° 2, p. 29.

32 : Entretien avec Simon, responsable des partenariats, Waze France (31 mai 2017).

33 : Échange avec Marine, cheffe de projet, Waze France (mai 2019).

34 : Béatrice Hibou, 1998, « Retrait ou redéploiement de l’État ? », Critique internationale, n° 1, p. 151‑168.

TikTok + élections américaines = WTF (?)

Les influenceurs occupent désormais une place prépondérante dans la communication politique. Devenus incontournables avec l’émergence des nouveaux réseaux socionumériques, ces acteurs issus du marketing digital opèrent en prescripteur relatif pour toucher des groupes particulièrement larges, notamment chez les jeunes. TikTok, Snapchat, Instagram, autant de nouveaux espaces dont les usages bousculent les codes de la communication classique – et la stratégie à élaborer par les candidats. Ce nouveau phénomène ouvre-t-il un espace vers une démocratisation des prises de paroles et des forces de soutien ? Ou bien marque-t-il un pas supplémentaire vers la marchandisation, favorisée par les plateformes, des nouvelles voies d’influence du politique ? Le risque est grand de laisser cet espace aux seuls tenants de l’establishment. L’organisation d’une communication par le bas, par les militants qui s’approprient et maîtrisent les codes des réseaux, semble donc nécessaire pour concilier le militantisme avec ces nouvelles techniques de marketing politique. Par Marion Beauvalet. 


Les influenceurs constituent le point nodal entre la démocratisation des réseaux et l’incursion du capitalisme sur les plateformes : si les plateformes démocratisent les prises de parole, il n’est pas possible d’occulter le fait qu’elles sont elles-mêmes le produit du capitalisme et en perpétuent des règles et des principes.

Qu’est-ce qu’un influenceur ? Les influenceurs sont à différencier des prescripteurs absolus, comme peuvent l’être les médecins. Prescripteurs relatifs dans le sens où leurs propos et prises de positions n’engagent pas nécessairement les choix de ceux qui les suivent, les influenceurs ne formulent pas d’injonctions. Ce qui n’élimine pas pour autant une forme de conditionnement, notamment lié à la répétition de certains messages. L’incursion des influenceurs dans le champ politique modifie en outre la nature de leur statut, puisqu’ils ne s’adressent plus seulement aux personnes qui les suivent en qualité de consommateurs, mais de citoyens. Il convient ainsi de comprendre comment intégrer un réseau social à une stratégie politique définie en amont (I). Ce sont ensuite les différentes catégories d’influenceurs qu’il convient de distinguer : communique-t-on de la même manière sur TikTok selon qu’on soit pro-Sanders ou pro-Trump (II) ? Enfin de quoi la communication de ces influenceurs politique est-elle faite (III) ?

Le recours aux réseaux sociaux et par ce biais, à l’intégration des influenceurs dans une stratégie de campagne, ne constitue pas une rupture au sein des stratégies de communication politique. Pour Guilhem Fouetillou (cofondateur et directeur stratégie et innovation de Linkfluence, startup qui propose des solutions de monitoring pour analyser les données issues des réseaux sociaux), ces nouveaux espaces témoignent d’une amplification de phénomènes pré-existants qui tendent à gagner en intensité. Dans un récent reportage sur France 24, il distingue notamment trois niveaux d’utilisation des réseaux sociaux en politique : l’utilisation directe, la publicité, et la synchronisation des partisans. Dans cet article, nous nous limiterons au troisième versant, en montrant comment une telle finalité peut être remplie par le recours à ces nouveaux acteurs et actrices de la communication politique.

Réseaux sociaux et stratégie politique : à chaque élection son réseau de prédilection

Qui utilise quoi aujourd’hui ?

Chaque nouvelle élection, peu importe son échelon, voit s’agréger autour d’elle un certain nombre de médias, de journaux, de sites ou de réseaux sociaux. Le premier espace qui vient à l’esprit, quand on aborde le thème croisé de la politique et des réseaux sociaux, est Twitter. En juin 2020, Twitter comptait plus de 186 millions d’utilisateurs dans le monde, dont 67 millions aux États-Unis. Avec des formats courts de messages (140 caractères jusqu’en novembre 2017 puis 280), Twitter permet de partager publiquement des éléments de langage et les phrases marquantes d’un passage média. Il joue un rôle de relai de la presse politique et offre un espace de discussion, plus ou moins apaisé, sur l’actualité.

Les utilisateurs sur twitter sont plus jeunes, mieux diplômé que l'américain moyenCependant, qui utilise Twitter ? Nombre de twitternautes se contentent de scroller ou de retweeter sans créer eux-mêmes du contenu. Une enquête de 2019 du Pew Research Center indique que l’utilisateur américain moyen sur Twitter poste en moyenne une fois par mois, contre 138 tweets par mois pour les 10% les plus actifs sur la plateforme. Une enquête plus récente menée entre novembre 2019 et septembre 2020 montre que 92% du volume de tweets sont produits par seulement 10% des utilisateurs. Parmi ces 10%, on retrouve majoritairement des comptes identifiés démocrates ou sympathisants (69%). La même enquête révèle que le twitternaute moyen est plus jeune, mieux diplômé et a de plus haut revenus que le citoyen américain moyen.

Néanmoins, bien que Twitter soit désormais un espace investi par les jeunes, les générations dites Z et milliennials se tournent de plus en plus vers d’autres réseaux : Twitch, TikTok et Instagram. Selon une étude du morning consult, TikTok est en particulier préféré à Twitter chez les 13-16 et cheville ce même réseau auprès des 17-21. En effet, TikTok est un lieu de création plus facile à appréhender (pour le moment) pour des personnes qui ont toujours grandi avec un accès à Internet et un smartphone dans la main. Ces générations (la génération Z, les personnes nées en 1996 et après) disposent d’un rapport fluide aux nouvelles technologiques, ce qui était moins le cas pour les générations antérieures.

Quelles spécificités ces nouveaux réseaux ont-ils par rapport à Twitter ? TikTok ou Instagram répondent à des codes propres, qui viennent tant des particularités des différentes plateformes que des groupes sociaux auxquels ces espaces s’adressent. Ainsi, à chaque plateforme répond un usage, lié à un groupe social plus ou moins homogène. Laissant une équation cruelle à résoudre : comment les personnalités publiques peuvent-elles se les approprier, sans encourir le risque de bad buzz ? Il est en effet difficile d’objectiver la qualité d’une vidéo à moins d’interroger les cibles premières, les usagers et usagères presque archétypiques de ces réseaux. Très concrètement : un trentenaire sera très probablement gêné par les contenus politiques diffusés sur TikTok, cela signifie-t-il pour autant que le contenu est raté ? Pas nécessairement puisque ce n’est pas à lui que s’adresse en premier lieu ce contenu inédit.

Mais surtout, parce qu’ils reposent sur une forte personnalisation, ces espaces favorisent l’émergence d’influenceurs, avec leurs techniques de profilage associées. 72% des américains issus de la génération Z et millénials disent suivre un ou plusieurs influenceurs, contre 57% des personnes de la tranche d’âge 32-38 (selon le rapport du Morning consult).

Ainsi, en cartographiant les influenceurs et TikTokers américains, il est possible de saisir les stratégies et choix de communication faits à l’heure des élections présidentielles. Qui sont les créateurs des contenus les plus en vue ? Quelles sont les nuances et modulations au sein d’un même camp selon l’âge ou l’origine géographique des personnes qui produisent des vidéos ? Comment adapte-t-on l’usage même du réseau social selon l’électorat ciblé ? Une vidéo TikTok politique est-elle la même si on parle à un démocrate new-yorkais ou à un démocrate du Mississippi (spoiler : non). Quelles différences dans la communication peut-on noter de part et d’autre de l’échiquier politique ? Il serait intéressant de mettre en perspective ces stratégies et usages avec des contenus tirés de Twitter et Instagram, des mêmes utilisateurs ou des mêmes structures politiques.

Qu’est-ce qu’un influenceur ? Qu’est-ce qu’un micro-influenceur ?

Il va de soi que l’idée d’influencer des individus pour prescrire des comportements n’est pas un phénomène nouveau. C’est ce qu’Edward Bernays (Propaganda, 1928) a théorisé et pratiqué dès les années 1920. Pour inciter des consommateur à acheter du bacon, il a choisi de se rapprocher de médecins qui mettaient en avant l’intérêt du bacon sur la santé plutôt que de faire une simple publicité invitant à acheter ce produit. Le fait de se servir d’individus qui mettent leur image au service d’un produit ou d’une idée est consubstantiel à l’existence de la publicité et de la communication. Qu’apportent de nouveau nos influenceurs contemporains ?

Les influenceurs évoqués dans cet article ne sont pas les blogueurs des années 2000. Le poids des influenceurs contemporains va de pair avec une démocratisation de l’accès à Internet, à une massification des usages, et à son intégration dans le marketing d’influence. Les influenceurs se sont imposés comme acteurs en soi, coexistant avec les stars et célébrités dans le monde de la publicité. Le sentiment de promiscuité et d’identification qu’ils dégagent via les plateformes n’a pas la même intensité qu’une personne connue dans une publicité.

Il s’agit tout d’abord d’une question de statut et de nombre d’abonnés. Contrairement à ce qu’on pourrait penser, les micro-influenceurs ne sont pas moins convoités que leurs homologues « macro ». On considère qu’un micro-influenceur est quelqu’un qui dispose de 10 000 à 100 000 abonnés. Contrairement à la portée des influenceurs classiques, plus exigeants en termes de partenariats, de rémunération et d’audience, le nombre d’interactions que peut susciter un micro-influenceur le rendrait plus « rentable » pour les institutions qui voudraient se payer ses services. Les études en marketing sont cependant unanimes : la micro-influence permet de mieux atteindre l’audience visée. En effet, les utilisateurs des plateformes de réseaux sociaux se sentent aujourd’hui plus touchés par des personnes qui leur ressemblent.

Un micro-influenceur à la communauté plus restreinte se fait ainsi plus accessible, plus authentique et suscite davantage d’engagement qu’une personne dont toutes les photos sembleraient tirées d’un album photo de vacances dans les Bermudes. C’est ce que montrent des études de marketing : « les utilisateurs d’Instagram ayant moins de 1 000 followers ont généré des likes 8% du temps. Ceux qui ont entre 1 000 et 10 000 abonnés ont un taux de likes de 4%. Pour les utilisateurs qui ont entre 1 million et 10 millions d’abonnés, ce  taux est de 1,7% » (rapport de Markerly, agence d’influence en marketing).

Le recours à des micro-influenceurs, s’il ne constitue pas une alternative au fait d’obtenir le soutien d’un influenceur suivi par des millions d’abonnés, ne peut donc pas être écarté d’une stratégie de campagne. Cette forte personnalisation permise par la micro-influence est accrue par l’effet de bulle créé par les réseaux sociaux. Même en disposant de plusieurs milliers d’abonnés, il est fort probable que ceux-ci soient des personnes en accord avec ce qu’on poste ou tout du moins sensibilisées et manifestant un intérêt pour ce dont on parle, ce qu’on montre. Pour un même sujet, il est également probable que les cercles d’abonnés se recoupent, voire soient en grande partie similaire.

Autant de types d’influenceurs qu’il y a d’électeurs

Le renouveau des formes d’influence : la libération d’une parole politique ?

Aux États-Unis, la rupture remonte à l’élection de Donald Trump. Nombre de personnalités publiques s’étaient élevées pour déplorer son élection, en essayant de sensibiliser sur les dangers qu’elle représentait. Il s’agit d’un sujet sur lequel s’exprimaient traditionnellement les chanteurs et les acteurs, mais les influenceurs qui sont suivis au quotidien – parfois par des dizaines voire des centaines ou millions de personnes – ont désormais davantage de voix que les personnalités publiques de « l’ancien monde ».

La mobilisation au printemps 2020 autour du hashtag Black Lives Matter donne un bon exemple de ces nouvelles formes de prise de parole et de politisation par les réseaux. Entre le 26 mai et le 7 juin 2020, le hashtag a été utilisé plus de 47,8 millions de fois, devenant le deuxième plus relayé sur Twitter. Dans la période allant de novembre 2019 à septembre 2020, 3% des utilisateurs américains ayant un compte public ont publié avec ce hashtag selon l’enquête du Pew Researcher Center. Mais c’est sur Instagram que l’engouement autour de ce sujet a été le plus inattendu : The NAACP (National Association for the Advancement of Colored People) a vu son nombre de followers augmenter de plus 1 million en l’espace de quelques mois et Black Lives Matter Los Angeles est passé de 40 000 followers sur Instagram à 150 000 en quelques semaines. Une activiste du compte Justiceforgeorgefloyd soutient ainsi dans un article de Recode « Ce mouvement a permis de toucher une audience plus large qu’elle ne le faisait sur Twitter. En pleine campagne présidentielle, nous devons aller là où sont les gens, et ils sont sur Instagram ».

Pour les influenceurs, prendre position avec le hashtag #Black Lives Matter pouvait néanmoins poser un certains nombres de questions. Par les effets de bulles de filtre ainsi qu’en raison d’une forte présence démocrate sur les réseaux, le sujet jouissait d’une hégémonie relative (tous les Américains ne soutenaient pas le mouvement mais les personnes les plus visibles sur les réseaux oui). C’est le reproche que certaines personnes adressent parfois à ces dynamiques : quand un sujet devient justement tendance, il perd en radicalité, et peine à transformer les marques de soutien en mobilisation réelle de la part des followers (un phénomène qui a pris le nom de slacktivisme, par opposition à l’activisme réel). Nombre de personnes demandent par exemple aux militants ou aux personnes qui veulent afficher leur soutien au mouvement Black Lives Matter de le faire sans toucher au hashtag du même nom, puisque cela obstrue et rend moins visible les publications des personnes qui font part de leur expérience. Notons ici que cette cause parvient à toucher au-delà des cercles militants ; avec une ampleur telle que la norme sur les plateformes est de soutenir la lutte antiraciste. Précisons néanmoins qu’il peut être plus risqué pour un individu de soutenir une personne et non une cause. Si cela constitue une impasse pour certaines personnalités publiques qui peinent à agréger des soutiens variés, Bernie Sanders a réussi à fédérer au point qu’une célébrité de réseau, en rendant public son soutien, ne mettait pas sa base ni sa popularité en danger.

Les réseaux sociaux sont aujourd’hui des lieux incontournables pour les militants. Le blog Digimind qui agrège des données concernant les réseaux sociaux rapporte que « Twitter a dépassé mercredi 3 juin 2020 son record d’installations de l’application avec 677 000 téléchargements dans le monde. Le chiffre des téléchargements aux États-Unis (140 000)  est le deuxième record du nombre d’installations quotidiennes depuis la naissance de Twitter. Ces records sont dus aux nombreux tweets sur la pandémie de coronavirus et relatifs aux protestations liées à la mort de George Floyd aux USA ». Les moments où la population prend position sont des moments où les personnes se tournent de plus en plus naturellement vers les réseaux sociaux, tant pour communiquer que suivre ce qui se dit. Ces pics de politisation vont de pair avec un rapport plus intense aux réseaux sociaux, faisant d’eux des espaces incontournables et alternatifs aux canaux traditionnels plus fermés et moins immédiats : chaînes d’information, blogs…

Ces plateformes constituent des lieux d’expression d’une urgence politique, particulièrement vive depuis l’arrivée de Donald Trump au pouvoir. Il s’agit finalement de lieux pour prendre la parole et en ce sens, refuser l’ordre établi.

Payer des influenceurs ou valoriser des initiatives spontanées ? Entre communication et marketisation de la politique

Il convient au préalable de préciser que si les influenceurs incarnent un poste de dépense relativement inédit, celui-ci s’inscrit plus largement dans une stratégie numérique d’ampleur, dans laquelle chaque candidat dépense facilement plusieurs millions de dollars. Ils ne représentent en ce sens qu’une extension du domaine du marketing politique, un nouvel espace à occuper et dans lequel investir. Cependant, tous les influenceurs ne monétiseront pas leur soutien, celui-ci, une fois affiché publiquement, risquant de leur faire perdre en popularité.

Dès lors, l’enjeu est de taille pour les acteurs politiques : il faut soit créer des influenceurs, – valoriser des personnes ou espérer que des militants s’approprient un réseau social et ses codes pour qu’en découle un contenu inédit –, soit engager des personnes disposant d’une audience conséquente et d’une influence, – des prescripteurs d’opinion et de comportement 2.0 –, pour qu’ils rendent public leur soutien à une personnalité, à un mouvement.

« En revanche, M. Trump n’est apprécié que de 33 % des 18 à 34 ans, selon le sondage The Wall Street Journal/NBC, et les candidats démocrates ont accordé une attention particulière aux jeunes électeurs cette fois-ci, soutenant des propositions comme l’annulation de la dette des étudiants. Mais la génération d’électeurs qui croît le plus rapidement n’est pas celle des millennials, mais celle des séniors. Selon le Pew Research Center, les électeurs de plus de 65 ans devraient représenter près d’un quart de l’électorat en 2020, soit la proportion la plus élevée depuis 1970 » explique Michelle Hackman dans un article sur le vote des seniors et Donald Trump publié dans l’Opinion.

Aussi, toucher les plus jeunes permet d’activer un vote, de sécuriser un vote ou encore de sensibiliser des personnes qui seront les actifs de demain et les seniors d’après-demain.

Novatrices, incomprises ou dérisoires pour le moment, ces nouvelles plateformes constituent néanmoins des espaces qui vont se normaliser voire occuper une place centrale dans les scrutins à venir. À l’état d’ébauche, de tâtonnement pour l’heure, il incombe à celles et ceux qui s’emparent de ces réseaux d’en définir les règles puis d’en adapter les codes à des types de discours politiques, à des programmes, et à des cibles.

Dans un article du 13 février 2020, Taylor Lorenz explique que Bloomberg avait par exemple fait appel a Meme 2020, une boîte qui rassemble les personnes détenant des comptes influents. Voici la liste des comptes associés à Meme 2020 : @MyTherapistSays (5,6 millions d’abonnés), @WhitePeopleHumor (2,6 millions d’abonnés), @KaleSalad (4 millions d’abonnés), @Sonny5ideUp (1,4 million d’abonnés)…

« Si Michael Bloomberg, 77 ans, a cité la semaine dernière sur Instagram 50 Cent dans le légendaire tube How We Do, ce n’est pas par passion soudaine pour le rap. L’ancien maire de New York, qui pèse plus de 60 milliards de dollars selon Forbes, a accéléré sa campagne de publicité en ligne, à quelques semaines des élections du Super Tuesday (3 mars). En plus des 340 millions de dollars dépensés en trois mois, le candidat démocrate s’est rapproché de Meme 2020, une société créée par des influenceurs sur Instagram » détaillait Thomas Liabot dans un article publié dans le JDD.

L’audience derrière eux est forte de 60 millions de personnes comme l’indique Taylor Lorenz. Au mois de février, un article paru dans The Daily Beast indiquait par ailleurs que Bloomberg offrait 150 dollars à des internautes pour produire un contenu inédit à son propos. S’offrir les services de personnes influentes, comme le ferait une marque semble s’intégrer pleinement dans les budgets de campagne de certains candidats. Ce choix marque un peu plus l’écart entre les candidats de l’establishment, celles et ceux qui peuvent se permettre de dépenser des sommes conséquentes dans des postes annexes et non-nécessaires à une campagne, et les autres candidats, les outsiders qui ne peuvent pas engager des influenceurs à mettre leur image en jeu pour leur compte, et qui doivent centrer leurs dépenses de campagne sur des frais plus nécessaires.

“Le ciblage et la mobilisation des influenceurs et micro-influenceurs constitue un véritable business, un espace d’enchères et de mise en jeu de sommes conséquentes ; il s’agit de quelque chose de plus en plus mobilisé et d’un espace finalement nécessaire à investir.”

« Nous devons toucher tous les aspects de la vie des gens afin d’être omniprésents pour atteindre notre but, déclare Ben Wessel, directeur exécutif de NextGen America. Nous croyons depuis longtemps que l’humour et l’influence sont les moyens pour toucher cette population [plus jeune]. » peut-on lire dans un article rédigé par Emily Glazer dans L’Opinion. La journaliste indique également que « l’équipe de campagne de M. Sanders a travaillé ponctuellement avec des influenceurs qui l’avaient contactée pour diffuser son message auprès de leurs followers sur des plateformes comme YouTube et Twitch, qui appartient à Amazon. Son équipe avait déjà travaillé avec des influenceurs des médias sociaux lors des élections de 2016 ». Le ciblage et la mobilisation des influenceurs et micro-influenceurs constitue un véritable business, un espace d’enchères et de mise en jeu de sommes conséquentes ; il s’agit de quelque chose de plus en plus mobilisé et d’un espace finalement nécessaire à investir.

Laisser une plateforme, un réseau, à son adversaire, reviendrait à ne pas couvrir un espace géographique, or dans la conquête du pouvoir, il faut être présent partout. Cela ne coûte pas forcément cher, mais il demeure risqué de laisser aux autres un espace en friche. D’autant que, si beaucoup de personnes sur ces réseaux ne sont pas en âge de voter, ils constituent l’électorat de demain.

Un marché mais pas uniquement…

Si certains doivent payer pour cela, d’autres candidats savent s’attirer l’intérêt, la force de travail, et la créativité de certains influenceurs ou de communautés. Cela avait été le cas en France avec Jean-Luc Mélenchon et les utilisateurs de Discord en 2016. Aux États-Unis, certains influenceurs ou célébrités avaient spontanément annoncé leur soutien à la campagne de Bernie Sanders. Bien sûr, le fait d’avoir des contenus inédits par des personnes qui soutiennent et souhaitent mettre en valeur un candidat n’entre bien évidemment pas en contradition avec le fait de payer pour des contenus sollicités à côte.

Les deux exemples cités plus haut éclairent le fait que si l’influence constitue un marché important, les internautes les plus créatifs et les plus jeunes sont enclins à afficher et à créer pour des candidats en rupture avec l’ordre établi, de gauche notamment. L’hypothèse est celle de la concordance de ces programmes avec les préoccupations des plus jeunes électeurs (pour rappel en 2017, 27% des 18-24 ans avaient soutenu Jean-Luc Mélenchon, de même pendant les primaires d’investiture, les 18-29 ans avaient plébiscité Bernie Sanders).

On a là un cercle vertueux et une forme d’adéquation qui se dessine : pour communiquer sur internet, quoi de mieux qu’une personne rompue aux codes des réseaux, à leurs nuances, et qui appartient directement au groupe auquel il veut parler ? Les communicants et experts de la communication n’ont qu’à bien se tenir.

Que disent concrètement les influenceurs ?

Cette matrice permet  de saisir le  positionnement politique approximatif et le poids sur les réseaux sociaux d’un certain nombre d’influenceurs. Pour les stars, il est difficile d’objectiver un nombre d’abonnés, leur influence étant finalement antérieure et indépendante de leur existence sur les réseaux sociaux. Leurs prises de position sont parfois publicisées dans des contenus en ligne (cela avait été le cas avec Les Strokes ou Emily Ratajkowski, qui avaient affiché leur soutien à Bernie Sanders), mais peuvent aussi l’être dans la presse ou juste être connus et inscrits dans les esprits. L’appartenance à la scientologie de Tom Cruise est à titre d’exemple connue de nombre de personnes qui ne sont pas forcément présentes sur les réseaux sociaux.

https://www.instagram.com/p/B7HKToihoS9/

TikTok, Instagram, à quelle plateforme se vouer, avec quelle personne communiquer ?

TikTok permet pour l’heure des contenus politiques innovants, originaux, et qui sont surtout le fait de militants pour les contenus les plus viraux. Alexandria Ocasio-Cortez reste une adepte des stories Instagram quand Donald Trump utilise abondamment Twitter. Les contenus les plus intéressants sont ceux des militants. Se promener sur les hashtags #Bernie2020 ou encore #Trump2020 sur TikTok permet d’appréhender la créativité des utilisateurs. Une chose est au préalable à noter : ces hashtags sont également des espaces de lutte. #Trump2020, est en ce sens totalement approprié par des utilisateurs de gauche ; ils produisent des contenus se moquant de Donald Trump et font passer leurs vidéos sur les canaux des militants républicains.

https://www.tiktok.com/@girlwithamicrophone_/video/6871415092378963205?_d=secCgsIARCbDRgBIAMoARI%2BCjwfUWHGsATWGVxS7FDM3UvJCcyVi67Kihyui3mdngbgzUwiyJn6bANy4Epo1AO%2F3KoAOybmn5QKKNbuE4oaAA%3D%3D&language=fr&preview_pb=0&sec_user_id=MS4wLjABAAAAo1PwJNGjidTKZe7M1sH4b0O_0RoRAkh_hJnAT33SndJfujalnFH8Mbic2VZLjl5v&share_app_name=musically&share_item_id=6871415092378963205&share_link_id=11798ba3-413e-4ded-9b76-84965b34e905×tamp=1602532608&u_code=dbibee68j45kma&user_id=6811166175419876357&utm_campaign=client_share&utm_medium=android&utm_source=copy&source=h5_m

C’est par exemple le cas de cette vidéo, aimée 4,8 millions de fois au 13 octobre 2020. Il s’agit de la vidéo qui a obtenu le meilleur score sur le hashtag de soutien au président sortant. Son contenu est pourtant critique (« fuck Donald Trump »). Du côté des réels soutiens, Bernies Sanders avait partagé la vidéo de just_a_weird_lemon (34 900 abonnés au 13 octobre 2020). La vidéo reprend les codes du réseau : un travail de montage, une musique, des textes pour quelque chose à même de facilement devenir viral.

Les profils assument pour beaucoup être des profils militants, c’est par exemple le cas de @kristensoulina, jeune militante politique qui met en scène son militantisme ; le poids de la dette étudiante, pourquoi préférer Bernie Sanders : elle aborde avec de courtes vidéos beaucoup de ces sujets. Une stratégie beaucoup plus efficace pour toucher ses pairs que de longues publications Facebook. Comment ?

Le fait de s’approprier les codes de l’application et de créer des contenus qui deviennent viraux (c’est-à-dire faire en sorte que sa vidéo s’inscrive dans une tendance) permet de légèrement dépasser les effets de bulle, particulièrement difficiles sinon impossibles à dépasser avec la plupart des réseaux sociaux. En effet, sur TikTok, contrairement aux autres plateformes, on peut non seulement suivre des personnes mais le fil de publications est avant tout constitué de publications semblables à celles qu’on regarde. On peut ainsi suivre des profils de militants politiques, mais si on surfe sur des hashtags avec des vidéos de cuisine, notre feed sera composé de contenus militants et de vidéos de cuisine.

Instagram est davantage saturé que ne l’est TikTok, qui pour le moment permet encore à de nouvelles personnes de s’imposer et d’accéder à la notoriété. Les personnes qui ont acquis une popularité avec leur compte Instagram ont souvent pu le faire lorsque le réseau était embryonnaire. C’est par exemple le cas de Chiara Ferragni qui s’était approprié le réseau très tôt pour devenir la blogueuse la plus influente, selon Forbes. Instagram est aujourd’hui beaucoup plus standardisé et bloqué que les plateformes plus récentes, de même que la communication politique est désormais extrêmement codifiée et sera plus difficilement un espace d’innovation.

https://www.instagram.com/p/B4cbuEHAVrV/

De plus, si l’âge des utilisateurs d’une plateforme augmente avec le temps, cela implique également une forme de limitation et d’adaptation des contenus. On imagine difficilement certaines tendances sur TikTok toucher des trentenaires ou même des jeunes actifs. Aussi, une plateforme peut être un moyen de toucher des niches et des segments particuliers, en adaptant la manière dont on communique et les contenus qu’on publie pour intéresser les gens. En 2019, Hootsuite affichait les données suivantes concernant l’âge et le genre des utilisateurs de la plateforme : 43% des femmes détiennent un compte Instagram aux Etats-Unis, contre un tiers des hommes.

Par ailleurs, la tranche d’âge la plus importante est celle des 25-34 ans, puis des utilisateurs plus jeunes. Regardez ce que publient ces tranches d’âge et vous pourrez deviner (avec des modulations géographiques) à quoi peut ressembler une publication d’un influenceur à laquelle on peut s’identifier à des âges comparables. Par exemple, lorsqu’elle veut inciter à aller voter, la micro-influenceuse Kaelin Armstrong Dunn dont on voit une publication ci-dessus intègre une photo à son feed : il s’agit d’une photo chez elle, avec un de ses cinq enfants. Une photographie simple, qui ressemble à un selfie de mère de famille avec son bébé. L’identification est facile et elle s’intègre à des publications sur la vie d’une mère de famille.

Si la palette de réseaux sociaux accessible aux candidats s’accroît perpétuellement, les choix de communication qui sont faits sont cruciaux : ce n’est pas parce qu’une nouvelle plateforme existe qu’il faut s’en emparer et dupliquer des contenus qui pourraient exister ailleurs. Cela implique également de faire des choix concernant les stratégies d’influence : Payer des influenceurs ? Ne pas payer ? Faire émerger des soutiens en les valorisant ? L’une des pistes les plus sûres est celle de l’autonomie de micro-influenceurs, sur TikTok notamment. Disposant d’une base et correspondant parfaitement au profil-type de l’utilisateur, ils produisent des contenus à destination de leurs pairs sans risquer de perdre en popularité.

 

Pourquoi il faut un moratoire sur la 5G

Une antenne 5G de Vodafone en Allemagne. © Fabian Horst

Alors qu’a lieu l’attribution des fréquences pour le réseau 5G, le déploiement de cette technologie fait de plus en plus débat. Le 12 septembre dernier, 70 élus, pour la plupart étiquetés EELV et France Insoumise, ont appelé à un moratoire et à un débat démocratique sur le sujet. Ils rejoignent ainsi les préconisations de la Convention Citoyenne pour le Climat. Le Président de la République leur a répondu négativement le lendemain, arguant qu’il ne croyait pas au « modèle amish ». Derrière cette polémique, les sources d’inquiétudes autour de cette infrastructure sont en effet nombreuses. Elles nous invitent à questionner les technologies avant de les introduire dans notre quotidien.


« On n’arrête pas le progrès »

Alors que les zones blanches sont encore nombreuses dans notre pays, la dernière génération de réseau mobile, la 5G, devrait bientôt faire partie de notre quotidien. Les enchères auront lieu le 29 septembre 2020. Grâce à l’usage de nouvelles fréquences, les débits seront très fortement améliorés (ils devraient être multipliés par 10) et les temps de latence beaucoup plus faibles. Au-delà d’un confort accru dans nos usages numériques, la 5G est surtout l’infrastructure nécessaire à la poursuite de la numérisation de toute l’économie. De nombreux nouveaux usages sont prévus : automatisation des usines, véhicules autonomes, télémédecine, jeux vidéo en ligne, gestion plus « intelligente » des villes… 

Pour certains dirigeants politiques, ces promesses de développement de nouvelles activités sont une aubaine. En effet, la croissance économique stagne depuis des années. Ainsi, Emmanuel Macron a de nouveau prôné l’urgence du déploiement de ce nouveau réseau le 13 septembre dernier devant un public conquis d’entrepreneurs du numérique. Les défenseurs de la start-up nation estiment en effet impératif de ne pas se laisser distancer. En Chine ou en Corée du Sud, la couverture 5G dans les villes est de fait de plus en plus large. 

Pourtant, cet enthousiasme pour le « progrès » n’est pas partagé par tous. D’abord, la question du risque sanitaire n’est toujours pas résolue. Les différentes études sur le sujet se contredisent. En France, une étude complète de l’ANSES à ce sujet est d’ailleurs très attendue, sauf par le gouvernement et les opérateurs. Ces derniers souhaitent mettre en place le nouveau réseau le plus rapidement possible. Le refus des quatre grands opérateurs français d’attendre cette étude a d’ailleurs conduit à une récente attaque en justice par 500 militants écologistes au nom du principe de précaution. 

Par ailleurs, ce nouveau réseau pose d’importantes questions de souveraineté numérique. Pour l’heure, le leader mondial des équipements 5G n’est autre que le groupe chinois Huawei, dont la proximité avec le Parti Communiste Chinois n’est plus à prouver. Le risque de fuite des données produites par les milliards d’objets connectés à la 5G est donc réel, autant vers Pékin que vers Washington, qui jamais eu de scrupule à espionner ses alliés européens. Les européens sont en train de multiplier les obstacles à la mainmise de Huawei sur le réseau du futur. Ils emboîtent ainsi le pas aux États-Unis qui mènent une guerre tous azimuts contre le géant chinois des télécoms. Mais auprès de qui se fournir ces équipements télécom ? Si les compagnies européennes Nokia et Ericsson en produisent, ils ne sont pour l’instant pas aussi avancés que ceux de Huawei. Cela a conduit le ministre de l’Intérieur allemand, Horst Seehofer, à déclarer que le déploiement de la 5G prendrait un retard de « 5 à 10 ans » sans Huawei. 

La précipitation du Président de la République et des opérateurs mobiles pose donc question. Plutôt que de se précipiter vers des fournisseurs américains, la France (ou l’Europe) ne devrait-elle pas plutôt prendre le temps de développer des technologies souveraines ? Cela mettrait un terme à l’espionnage de masse par les puissances étrangères Si l’on excepte ces questions de souveraineté numérique, la technologie 5G est désormais prête. Mais faut-il pour autant croire aux promesses de la start-up nation ?

Un impact environnemental désastreux

Malgré les promesses d’optimisation de la consommation énergétique de ce nouveau réseau et des appareils connectés, la consommation énergétique globale augmentera très probablement. D’une part, la nécessité de multiplier les antennes pour assurer une bonne couverture contredit le discours des opérateurs et du gouvernement. Surtout, « l’effet rebond » encouragé par l’arrivée de la 5G a toutes les chances de gonfler encore la consommation énergétique exponentielle du numérique. Les voitures autonomes, le e-sport, la télémédecine, la croissance des usages vidéos, la multiplication des objets connectés ou encore l’intelligence artificielle sont en effet autant de nouveaux usages amenés à se développer considérablement avec l’arrivée de la 5G, puis de la 6G. D’après Waymo, la filiale de Google dédiée au développement de véhicules autonomes, la quantité de données produite par un voiture en un jour varie entre 11 et 152 terabytes ! Le stockage et le traitement de telles quantités de données supposent donc une construction massive de datacenters énergivores. Ainsi, selon une étude de l’industrie des semi-conducteurs publiée en 2015, nos usages numériques nécessiteront en 2040 la totalité de l’énergie mondiale produite en 2010 si le rythme de croissance actuel se maintient. Selon cette étude, des gains de performance énergétique d’un facteur 1 000 ne feraient reculer cette échéance que de dix ans.

« L’effet rebond » encouragé par l’arrivée de la 5G a toutes les chances de gonfler encore la consommation énergétique exponentielle du numérique.

Au-delà de la seule consommation d’électricité, l’impératif de renouvellement des terminaux mobiles et la multiplication d’objets connectés s’annonce désastreuse pour l’environnement. Les ventes mondiales de smartphones stagnent autour d’un milliard et demi par an depuis 2016. La 5G apparaît donc comme un argument de poids des fabricants pour relancer les ventes. Or, les progrès technologiques des nouveaux modèles sont devenus de plus en plus superficiels ces dernières années. Il semble qu’il soit temps de concevoir enfin des produits plus durables et plus réparables. Au contraire, ces nouveaux appareils vont copieusement accroître nos besoins en terres rares (souvent extraites dans des conditions désastreuses pour l’environnement et les travailleurs) et les conflits géopolitiques qui y sont liés. Par ailleurs, la quantité de déchets informatiques ainsi créés a toutes les chances d’aggraver les problèmes de pollution dans les pays pauvres où ils sont exportés. Le recyclage des « e-waste » demeure en effet embryonnaire.

Derrière la technologie, des choix de société

Si les enjeux environnementaux liés à la 5G sont de plus en plus pointés, notamment par la Convention Citoyenne pour le Climat, les promesses d’un monde toujours plus connecté sont moins discutées. À l’heure où de plus en plus de jeunes découvrent la réalité déshumanisante de la « continuité pédagogique » à travers les cours en ligne, un grand débat sur la numérisation de la société s’avère nécessaire. D’abord les avancées de la digitalisation amplifient sans cesse les fractures sociales, en particulier lorsqu’elles sont corrélée à la disparition des services publics de proximité. L’ampleur de « l’illectronisme » devrait pourtant nous interroger. Selon l’INSEE, 15% de la population française âgée de 15 ans ou plus n’a pas utilisé Internet au cours de l’année 2019. 38% manque d’au moins une compétence informatique de base.

Un graffiti contre la surveillance de masse à Londres. © KylaBorg

Quant aux innovations permises par la 5G, elles vont bien au-delà des gadgets contemporains que sont les fourchettes ou frigos connectés. La voiture autonome dont rêve Uber afin de pouvoir se passer de main-d’œuvre humaine risque d’encourager des usages irraisonnés. Une étude de 2018 dans la baie de San Francisco dont les participants disposaient d’une voiture à leur disposition sans avoir à la conduire indique un grand nombre de trajets supplémentaires et l’augmentation des distances parcourues, en particulier le soir. Pire, de nombreux trajets se faisaient à vide. Le manque de stationnements dans les grandes villes pourrait encourager les voitures autonomes à errer en attendant leurs passagers. De plus, la prouesse technologique que représente la télémédecine nous fait oublier que nos problèmes de santé viennent surtout d’un environnement pollué et stressant. De même, le renoncement aux soins (pour motifs financiers, géographiques, temporels…) s’aggrave dans notre pays. Développer la télémédecine semble intéressant, mais à quoi bon avec un corps médical déjà surchargé ?

Enfin, la 5G devrait donner un grand coup d’accélérateur à la surveillance de masse. Le cabinet de conseil Gartner estime ainsi que le plus gros marché pour les objets connectés dans les 3 prochaines années sera celui des caméras de surveillance. Grâce à la 5G, ces caméras pourront d’ailleurs se connecter à d’autres appareils de surveillance, comme les détecteurs de mouvement ou les drones. Avec l’amélioration de la qualité des images transmises, la reconnaissance faciale pourrait aisément se généraliser. Ce processus a déjà débuté : la Chine a largement déployé ces outils et les exporte désormais, notamment en Afrique. Pourtant, l’efficacité de ces technologies de la « safe city » n’est jamais débattue. Le sociologue Laurent Mucchielli a publié un livre sur la vidéosurveillance. Il y démontre qu’elle n’a pratiquement aucun impact sur la criminalité et n’aide que rarement à résoudre des affaires. Quant aux invasions de la vie privée et aux usages répressifs de ces technologies, ils ne sont plus à prouver.

Les amish, un modèle ?

Pour toutes ces raisons, le déploiement de la 5G n’a rien d’anodin. Plus que de potentiels risques sur la santé, ce nouveau réseau présente surtout des risques certains pour l’environnement et notre vie privée. Pourtant, tout débat sur ces questions semble interdit au nom du « progrès » que représenterait un meilleur débit. Or, ce progrès à marche forcée semble surtout faire les affaires des grandes entreprises du numérique dont le business model est fondé sur l’exploitation des données. Avec ces montagnes de données, les GAFAM et quelques autres sont en passe d’obtenir un contrôle incroyable sur nos vies. Dans La nouvelle servitude volontaire, Philippe Vion-Dury explique combien les algorithmes des géants du web sont de plus en plus capables « d’anticiper nos désirs, nos comportements et nos vices et de percer l’intimité de nos opinions ou le secret de nos préférences », et, sous couvert de liberté et de plaisir, nous conditionnent à consommer toujours plus. Derrière l’apparente neutralité d’une technologie, il y a souvent un projet politique, ici celui de la Silicon Valley.

Derrière l’apparente neutralité d’une technologie, il y a en effet souvent un projet politique, en l’occurrence celui de la Silicon Valley.

L’opposition historique du mouvement écologiste à certaines technologies, comme le nucléaire (civil ou militaire) et les OGM, nous rappelle d’ailleurs qu’il n’existe guère de neutralité de la technique. Jacques Ellul et Bernard Charbonneau sont deux intellectuels célèbres par leur regard critique sur le progrès technique. Ce dernier sacralise en effet l’efficacité et nous enferme toujours plus étroitement dans le productivisme et le consumérisme. Par ailleurs, questionner le « progrès » n’implique pas nécessairement de le rejeter en bloc comme le font les néo-luddites. Il est possible de reconnaître les bienfaits qu’apporte une technologie tout en étant conscient de ses impacts négatifs, et donc de se battre pour en retrouver le contrôle. Le courant émergent autour des low tech, qui défend des technologies simples, réparables, utiles et abordables, témoigne ainsi d’une volonté de reprendre le contrôle sur les outils techniques qui nous entourent.

Au vu des impacts environnementaux et sociétaux considérables de la 5G, il est donc regrettable de voir que le débat politique sur cette question demeure finalement, et paradoxalement, technocratique. Le principal grief des adversaires de la 5G reste en effet la question du risque sanitaire, qui mérite certes d’être posée, mais est secondaire. Il ne faut pas se contenter d’attendre la sortie du rapport de l’ANSES sur le sujet et de laisser ce débat à des « experts » jamais véritablement indépendants. Un vrai débat démocratique global sur la 5G est nécessaire, comme le réclament les 70 élus de gauche dans leur tribune. Pour Macron et les apôtres du progrès technique, une telle demande est synonyme de retour à la bougie. Cela explique sa petite pique sur les Amish. Mais qui souhaite vraiment imiter cette société fermée et très conservatrice ? Le Danemark nous fournit un exemple plus facilement imitable. Depuis les années 1980, des « conférences de consensus » réunissant des citoyens tirés au sort ou choisis par appel à candidature permettent de questionner les répercussions culturelles, psychologiques et sociales des nouvelles technologies. En France, la réussite de la Convention Citoyenne pour le Climat, bien qu’elle n’ait disposé que d’un temps limité pour traiter de sujets particulièrement complexes, a montré qu’il était possible de rompre avec le monopole des experts et des représentants politiques sur des questions qui nous concernent tous. Les propositions radicales qui en ont émergé (dont un moratoire sur la 5G que le Président de la République s’était engagé à prendre en compte), plébiscitées par près des trois quarts des Français, devraient nous inspirer. À quand un vrai débat de société, suivi d’un référendum, sur la 5G ?

Les recettes des GAFA pour « résoudre » la pandémie

© Marielisa Ramirez

Apple, Facebook et Google se présentent depuis quelques temps comme les « sauveurs dans la tempête », qui profitent de leur quasi-monopole sur les données informatiques pour oeuvrer à la résolution de la pandémie. Les GAFAM s’assurent ainsi un formidable accroissement de leur pouvoir en développant une forme de « biopolitique » de plus en plus liée à la datafication. Par Anna-Verena Nosthoff et Felix Maschewski, enseignants à la Freie Universität de Berlin et auteurs de Die Gesellschaft der Wearables – Digitale Verführung und soziale Kontrolle (« La société des wearables – Tentation digitale et contrôle social »). Traduit par Judith Kleman et Simon Darjesson.


Le 10 avril, Apple et Google déclaraient simultanément sur leurs sites Internet qu’il n’y avait « jamais eu meilleure opportunité » pour « travailler à la résolution de l’un des problèmes les plus urgents du monde ».

Les deux géants monopolistiques ont annoncé développer conjointement une plateforme pour le contact tracing – une technologie de suivi par smartphone des contaminations au Covid-19. L’objectif, promettent-ils, est « d’utiliser le pouvoir de la technologie (…) pour aider des pays dans le monde entier ». Autrement dit, les ingénieurs californiens s’arrogent un nouveau rôle : sauver l’humanité, la libérer du mal. Un rôle qui s’inscrit dans la devise de Google : Don’t be evil (« Ne soyez pas malveillants »).

À peine quelques semaines plus tôt, le président des États-Unis faisait faisait part de sa pleine confiance sur le sujet. « Je tiens à remercier Google », déclarait Donald Trump lors d’une conférence de presse. Sa gratitude s’adressait en particulier aux « 1700 ingénieurs » qui développaient un site destiné à réaliser un testing du Covid-19 à grande échelle. Le président se disait lui aussi convaincu que ce serait une aide précieuse pour toute la population et pour le monde entier : « We cover this country and large part of the world » (« Nous couvrons ce pays et une grande partie du monde »)

Dans le jargon de Google, cela se dit ainsi : « We’ve mapped the world. Now let’s map human health » (« Nous avons cartographié le monde. L’heure est venue de cartographier la santé humaine  »).

Peu importe le caractère excessif d’une telle promesse et le fait que le site Internet ne s’est révélé tout au plus être qu’une ébauche brouillonne ou que la large panel du testing ait relevé plus de la lubie qu’autre chose. C’est le message ici qui est important : en cas de crise pandémique aigüe, la Maison Blanche mise sur l’élite de la high tech au point qu’elle excède la vision de la faisabilité digitale de cette élite elle-même. L’important est la célébration unanimiste d’une idéologie qui fait de la technologie l’outil ultime de la résolution des problèmes – ce qu’on appelle le solutionnisme.

C’est une grande lacune de la souveraineté des États qui apparaît ici à la faveur de l’état d’urgence virologique – et les sociétés de la Silicon Valley mettent tout leur poids et toute leur autorité pour la combler. Elles montent au créneau, en effet, sans aucune naïveté : elles s’intéressent au secteur de la santé depuis des années déjà, elles y ont déjà accumulé une expertise dans le traçage de données par le moyen des smartphones et autres wearables, comme on appelle toute technologie portable, connectée et destinée à être portée sur soi, du type des montres smart. La crise du coronavirus semble aujourd’hui faire advenir le moment décisif pour que les géants du numérique puissent s’imposer comme les précurseurs d’une politique sanitaire intégralement informatisée – tout en se mettant en scène comme « bienfaiteurs » de l’humanité.

Le mot d’ordre des deux compagnies est donc : « Never let a serious crisis go to waste » (« Une crise grave est une chance à ne surtout pas laisser passer »).

Google : la souveraineté dans l’état d’urgence

Alphabet – ainsi se nomme aujourd’hui le conglomérat Google – a pris l’annonce par Trump de la création du site de testing du coronavirus comme une incitation pressante à improviser une réponse. D’où l’annonce, simultanément à celle du site Internet destiné à coordonner les tests, que d’autres tests seraient menés, totalement indépendants des premiers. Leur réalisation serait confiée à une filiale d’Alphabet, Verily. On mobilisa alors en un temps très court un personnel considérable et on développa, en Californie, à New York, dans le New Jersey, dans l’Ohio ou encore en Pennsylvanie, des drive-throughs (testings d’automobilistes à leur volant) permettant un dépistage du Covid-19 efficace et sûr.

Il va de soi que les participants doivent remplir une sorte de test d’aptitude, répondre à des questions sur leur état de santé du moment, sur leur lieu d’habitation ou encore leur histoire sanitaire personnelle et qu’ils transmettent ainsi toutes sortes d’informations sensibles au testeur – et ce d’autant plus qu’au départ, avoir un compte Google était obligatoire pour participer au test… Tout cela s’accorde avec une philosophie d’entreprise où la plupart des services rendus ne sont que présumés gratuits. La devise de Google qui veut que « Sharing is caring » (« Partager, c’est prendre soin des autres ») – est particulièrement vraie en ces temps de coronavirus…

Avec sa rapidité de réaction, le conglomérat a donc apporté la preuve de sa capacité d’action, car, s’il n’avait pas réalisé entièrement la proposition de Trump, du moins il avait su la saisir au bond et lui conférer un fort impact médiatique. Enfin, il avait assumé souverainement ses responsabilités. Alphabet n’a pas attendu le coronavirus, en effet, pour concevoir la santé avant tout comme une question technologique, et donc un domaine où il a un marché à conquérir. La création de Verily a en effet permis d’avoir un spécialiste qui coordonne depuis 2018, avec le « Projet Baseline », des études à grande échelle ne promettant rien moins que de « redessiner le futur de la santé ».

Tantôt sont lancées dans ce cadre des recueils de données, sur quatre ans, auprès de 10 000 personnes porteuses de montres connectées de conception Google, tantôt des études sur des diabètes de type 2, sur la prévention des maladies cardiovasculaires aussi bien que mentales. On veut en savoir toujours plus sur les interactions entre le corps, l’environnement et le psychisme, étudier sur la base de données informatiques ce que signifie être sain ou malade, mais surtout développer de nouveaux produits et services. Le projet est tellement gigantesque qu’il n’est pas rare que le conglomérat parle d’une « révolution », une révolution qui, au nom de la santé publique, s’engagerait à toujours plus de mesures, toujours plus de financements pour des collectes de données toujours plus nombreuses et un tableau monopolistique toujours plus vaste. Dans le jargon de Google, cela se dit ainsi : « We’ve mapped the world. Now let’s map human health » (« Nous avons cartographié le monde. L’heure est venue de cartographier la santé humaine  »).

Le testing du Covid-19 n’est d’ailleurs pas la seule réponse d’Alphabet à la crise du coronavirus. On recourt aussi aux voies conventionnelles de la cartographie et l’on génère via Google Maps, dans 131 pays, Suisse comprise, ce que l’on appelle des mobility reports. Sont utilisées ici, anonymisées et « agrégées », des données de localisation qui indiquent normalement la fréquentation d’un lieu donné, par exemple un restaurant à l’heure du déjeuner.

Ces données sont maintenant susceptibles d’être utilisées par les autorités pour pointer les « tendances dans les déplacements », localiser les zones à risque de l’épidémie et vérifier si la population se conforme ou non à l’impératif catégorique de « lisser la courbe » (flatten the curve), et reste confinée. Cette offre éminemment utile ne montre ainsi pas seulement avec netteté par exemple une augmentation de la fréquentation des parcs municipaux dans le canton de Berne, et le fait qu’il serait ou non « branché » de faire du télétravail à Genève ; le conglomérat apporte aussi le service d’un véritable outil administratif, ou les données recueillies fournissent des indications qui peuvent se transformer en réglementations nouvelles. En ce sens, est souverain celui qui a les meilleures cartes en mains.

Facebook : des données pour le Bien

Alphabet n’est pas le seul membre actif du « cabinet de crise technologique » à se soucier du bien-être des gens. Facebook lui aussi renoue dans l’état d’urgence avec sa propre fibre missionnaire, l’entreprise a conçu ces derniers temps non seulement un « Coronavirus Information Center » pour le fil d’actualité, mais a aussi combattu avec une détermination inédite les infox ou encore créé un nouveau émoticône, « coronavirus avec un cœur », pour promouvoir la solidarité automatisée. Le réseau social entend utiliser la « connectivité de la communauté » pour combattre le virus, et, avec la Carnegie Mellon University (CMU), cible des utilisateurs auprès desquels il promeut un questionnaire destiné à aider les chercheurs à établir des cartes géographiques hebdomadaires de symptômes cliniques qui ont été déclarés individuellement.

On espère ainsi toucher des millions d’utilisateurs. C’est seulement sur cette large base d’information – les données ne sont certes pas partagées avec Facebook, mais on peut se demander sur la base de quels critères Facebook choisit les participants potentiels – que l’on pense pouvoir renseigner sur l’état actuel des contaminations : « Ces informations peuvent aider les autorités sanitaires pour anticiper les besoins et planifier l’usage des moyens disponibles, et déterminer où et quand peut être entrepris le déconfinement de tel ou tel secteur de la population. »

Ces études sur des échantillons de masse peuvent être facilement perçues dans la situation présente comme étant uniquement un phénomène de crise. Mais qu’on ne s’y trompe pas : dans la Silicon Valley, elles sont depuis longtemps business as usual.

En sus du sondage quotidien, Facebook élargit encore son programme de « Disease Prevention Maps » (cartes pour la prévention des maladies). Le projet utilise données de géolocalisation et données de mouvements issus de l’utilisation des applications proposées par le groupe, et veut ainsi accroître « l’efficacité des campagnes sanitaires et la réaction aux épidémies » et a déjà été utilisé pour tracer le choléra au Mozambique ou pour contenir le virus Zika. Trois nouveaux outils, les co-location maps, les movement range trends et le social connectedness index, doivent à présent permettre d’évaluer dans quelle mesure les déplacements et les contacts sociaux de la population contribuent à la diffusion du virus, si les mesures de confinement prises ont un effet ou si de nouvelles mesures sont éventuellement nécessaires. Le slogan de l’encartage général est lui aussi très prometteur : Data for Good. Cela va de soi : on est ici engagé pour le Bien.

Mais il en va chez Facebook de beaucoup plus que de se positionner simplement en outil désintéressé des autorités sanitaires. Le cartographe de la sociabilité vise à étendre sa sphère d’influence et à se forger un véritable leadership. Si Mark Zuckerberg a fait don ces derniers temps de quelque 720 000 masques respiratoires à des institutions publiques et de 25 millions de dollars à la plateforme de recherche « Covid-19 Therapeutics Accelerator », ce n’est pas seulement pour se poser en philanthrope, caritatif autant que d’utilité publique. Son entreprise voit dans la crise une chance unique de développement, la chance de pouvoir passer d’un réseau social à une sorte de réseau de recherche scientifique, et se présente toujours plus comme l’infrastructure publique qu’elle a toujours voulu être : c’est-à-dire comme un élément essentiel du bon fonctionnement du système en l’état.

C’est pour cela qu’à côté de la CMU, on travaille au quotidien avec diverses institutions de santé, on cherche avec la New York University et le Mila Research Institute de Montréal comment utiliser des applications d’intelligence artificielle (IA) pour mieux préparer à la crise les hôpitaux et leur personnel. Par-delà cet investissement, on a aussi mis en place une ambitieuse « coalition internationale », le Covid-19 Mobility Data Network. Avec celle-ci, l’entreprise s’investit désormais dans une coopération qui à la fois confine au service de santé publique et est en même temps très calculée, avec la Harvard School of Public Health, la National Tsing Hua University à Taïwan, l’Université de Pavie en Italie ou la Bill & Melinda Gates Foundation. Le but avoué est, grâce aux « conclusions en temps réel obtenues à partir des Data for Good de Facebook », de déceler avec plus de précision le moment de la contamination et au bout du compte de produire des modélisations permettant de pronostiquer le déroulement de la crise. Bref : de transformer un futur indécis en un autre, probable.

Si des procédés analogues étaient surtout utilisés il y a encore quelques mois pour étudier les préférences des utilisateurs, prédire leur comportement de consommation et leurs déplacements afin de promouvoir une communication publicitaire basée sur le mouvement, la passion pour la collecte de données dans le cadre d’un capitalisme de la surveillance généralisée apparaît désormais sous un jour nouveau.

Car grâce à un management de crise requis dans des fonctions essentielles, que l’entreprise, dont l’image était sérieusement écornée, semble peu à peu se réhabiliter, savoir oublier toutes sortes de scandales dans le domaine de la protection des données et se produire à nouveau avec succès en sauveur presque magique de l’économie digitale. Comme l’écrit Mark Zuckerberg : « Le monde a été déjà confronté à des pandémies par le passé, mais cette fois nous avons une nouvelle superpuissance : la capacité à collecter et à échanger des données pour le Bien. »

Tout cela a aussi changé le regard porté sur le géant du numérique. Car bien qu’il ne soit nullement établi avec certitude que les cartes et les services sont d’une quelconque utilité dans la lutte contre le Covid-19, ils agissent comme une offre thérapeutique au puissant pouvoir de séduction. Une offre dont l’étendue consolide la position de monopole de l’entreprise et qui ravive ses ambitions. Et c’est ainsi que la crise fait l’effet pour Facebook d’une utile mise à jour du système, promettant de lui apporter une légitimité renouvelée.

Extension du domaine du tracking

Mais au-delà des analyses de données par l’entreprise, riches en perspectives, des expériences beaucoup plus concrètes sont actuellement menées en Californie. Elles visent à une autre proximité et relation au patient.

On travaille ainsi actuellement au Zuckerberg San Francisco General Hospital sur une façon de compenser le manque de testings à grande échelle en utilisant les technologies  wearable. La bague « Oura » – une bague qui mesure aussi bien le rythme cardiaque que la fréquence respiratoire – vise à diagnostiquer les contaminations au coronavirus avant même que les symptômes soient ressentis. Les personnels des hôpitaux, les plus menacés du fait de leurs contacts permanents avec les personnes contaminées, sont équipés de cet appareil portable intelligent, qui ne les quitte pas, et transmettent des données intéressantes à un « système d’alerte précoce » particulièrement réactif. Le but de ce suivi en temps réel est de réagir plus rapidement à l’avenir, de sorte que les soignants développant la maladie puisse être identifiés plus tôt, contrôlés et soignés plus efficacement : cette bague est là pour les guérir, pour tous les détecter.

Dans l’étude « Detect » du Scripps Research Institute, on pense en dimensions encore beaucoup plus grandes, on cherche à élargir le plus possible le nombre de personnes testées. Dès lors le testing n’est pas associé à un unique wearable intelligent, mais à quasiment toute la palette des bracelets d’activité connectés – depuis le sobre Fitbit de Google jusqu’au très sophistiqué Apple Watch. Chaque auto-testeur peut participer pour autant qu’il vit aux États-Unis, et transmettre aux chercheurs ses données corporelles, en véritable scientifique citoyen, via l’application « MyDataHelps » (« Mes données aident »). Comme avec la bague « Oura », il s’agit ici aussi de détecter précocement des symptômes et de « resocialiser » des données individuelles en sorte que les foyers de contamination puissent être, là encore, mis en cartes, mieux localisées, délimités avec le plus de précision possible.

« Detect » fonctionne comme le remake d’une étude antérieure, parue dès janvier, qui étudiait ce qu’elle nommait le « real-time flu tracking » (traçage de la grippe en temps réel) via wearable auprès de quelque 200 000 porteurs d’appareils Fitbit. Par l’entremise de ce bracelet d’activité, étaient saisies des données sur le rythme cardiaque et le sommeil grâce auxquelles, selon les conclusions de l’étude, il était possible d’améliorer de manière significative les pronostics par rapport aux moyens existants. Certes, le traçage n’était pas convaincant de bout en bout – par exemple, les données du sommeil manquaient de précision, et l’on ne pouvait pas vraiment distinguer entre l’accélération du pouls dû à une infection grippale et celui dû au stress quotidien. Les auteurs n’en soulignaient pas moins l’énorme potentiel de la technologie wearable, dont la diffusion accrue devait rendre rapidement possible une surveillance continue sur une plus vaste échelle, et plus précise dans le temps. Rien qu’en Suisse, un petit cinquième de la population est d’ores et déjà utilisateur de wearables, et la tendance ne fait que s’accentuer.

C’est justement ce potentiel que l’étude « Detect » cherche à présent à traduire dans la réalité, on élargit avec les variables biométriques – type activité quotidienne – la profondeur de champ de la surveillance et c’est ainsi que le site internet peut déclarer avec optimisme : « Vous êtes désormais en mesure de pouvoir de prendre le contrôle de votre santé, de même que les soignants du système public de santé peuvent stopper l’émergence d’une maladie de type grippal dans des communautés relativement grandes ».

Avec l’acceptabilité accrue, par le Covid-19, du partage solidaire des données, l’individu quantifié mute vers le collectif quantifié. La saisie, l’analyse et le contrôle ininterrompus de données sensibles sont présentés comme un champ d’études innovant, comme une prise de pouvoir de la collectivité. Ainsi, autocontrôle et contrôle social sont indéfectiblement liés.

Ce qui pouvait être encore perçu avant le coronavirus comme une surveillance abusive, se présente désormais comme l’établissement d’une cartographie de la santé sur un mode participatif et aux fins de la recherche. Une recherche qui lie de plus en plus ses avancées à des appareils intelligents, dont l’utilisation est – de plus en plus – à portée de mains.

Apple : au service de l’humanité

Ces études sur des échantillons de masse via wearable peuvent être facilement perçues dans la situation présente – la Stanford University elle aussi a encore récemment lancé une étude liée au Covid-19 – comme étant uniquement un phénomène de crise. Mais qu’on ne s’y trompe pas : dans la Silicon Valley, elles sont depuis longtemps business as usual.

S’opère aussi un déplacement de souveraineté : le quotidien devient le laboratoire expérimental des entreprises, la vie elle-même n’est plus qu’une expérience de mesure intelligente (« smart »). On assiste à la systématisation toujours plus insistante de ce que l’on peut appeler une biopolitique en cours de datafication

Si Google entend mesurer la santé, via wearables, Apple, lui, s’exerce tout particulièrement depuis ces derniers temps au mode du laboratoire expérimental transportable. En développant sa Smartwatch et son « Research App », Apple a exploré de nouveaux champs de recherche entrepreneuriaux. Chacun a pu, dès avant la pandémie, participer à des études sanitaires de grande ampleur grâce à la sensorique connectée et au Big Data – des études allant des capacités auditives jusqu’au suivi de la menstruation-, chacun a pu mettre ses données à la disposition de toutes sortes d’universités, hôpitaux ou institutions comme l’OMS. Toute une infrastructure, reliant l’individu via wearable à la grande marche du monde et promettant de nouvelles avancées scientifiques, des produits d’avenir, et peut-être surtout une importance individuelle : « The future of health research is you » (« Le futur de la recherche médicale, c’est vous »).

Il n’est guère étonnant que l’Apple Watch soit aujourd’hui considérée comme un élément essentiel de nombreuses études sur le Covid-19. Que son contrôle d’activité d’avant-garde soit particulièrement coté. Et que la pandémie, comme l’a expliqué récemment le directeur des opérations d’Apple, Jeff Williams, rende indispensable plus rapidement de nouvelles fonctionnalités d’Apple Watch comme l’instrument de cardiométrie intégré. Tout ceci donne à penser que la « solution » en propre d’une étude Apple sur le Covid-19 n’est elle aussi vraisemblablement qu’une question de temps.

Dès maintenant, on ne reste pas inactif. Le président (CEO) d’Apple Tim Cook conseille le président américain, réorganise des chaînes de livraison, conçoit des visières de protection pour le personnel soignant et, à l’instar de Google, produit grâce à son propre système de cartes des rapports de mobilité pour l’administration. Ainsi Apple, qui considère que ses missions dans le secteur de la santé « ne sont pas limitées au poignet »,  se met-il lui aussi intégralement au service de la cause, et veut utiliser les vents favorables pour lancer de nouveaux services et applications : ce que Cook proclamait dès janvier 2019 est plus que jamais valable : « Si l’on demandait un jour ce qui aura été le plus grande contribution d’Apple à l’humanité, il n’y aura qu’une réponse possible : la santé. »

Qui a suivi ces derniers mois les recherches d’Apple et de Google dans le secteur médical ne sera guère surpris par la nouvelle récente de leur collaboration en matière de traçage des contacts. En bonne logique, sans attendre que les acteurs publics s’acquittent de leurs obligations, les deux multinationales présentent leur propre « solution globale » – en bons promoteurs de la « technocratie directe » qu’elles sont. L’infrastructure, qui est prévue pour toutes sortes d’applications de traçage, mise sur une approche décentralisée, se présente de ce fait comme plus égalitaire et « progressiste » que les systèmes centralisés – que finalement elle exclut complètement du jeu ! Que les multinationales, avec l’impact considérable qui est le leur sur le marché, créent ainsi une norme désormais incontournable, qu’elles généralisent et standardisent leur « solution » (le Chaos Computer Club parle de « diktat ») n’est dès lors qu’une sorte d’élégant effet secondaire.

On a ainsi conscience dans la Silicon Valley, en ces temps qui semblent totalement débridés, que l’heure est venue, on parle à nouveau sur un ton pénétré et l’on use à plein de son pouvoir de décision – utilisateurs de smartphones de tous les pays, unissez-vous ! Bien sûr, il n’y a « jamais eu moment plus important » pour Apple et Google, pour aider à sauver le monde « avec la force de la technologie », pour le remettre sur pieds selon ses idées bien arrêtées. Mais il y a rarement eu plus de disponibilité, ou plus exactement plus de nécessité, à les croire. À être obligé de les croire.

Biopolitique en voie de datafication : la santé comme prestation de service

Les crises engendrent nécessairement des espaces de décisions, un afflux temporaire d’une série de potentialités différentes, où il en va du tout ou rien, du succès ou de l’échec. Que les entreprises géantes de la Silicon Valley aient la décision facile, que certaines d’entre elles soient fermement assurées par temps de crise, elles l’ont fréquemment démontré au cours de ces dernières années. Avec la pandémie, la forme si particulière de résilience qui a cours en Californie se montre une nouvelle fois au grand jour.

On aura rarement pu observer plus clairement avec quelle rapidité les différents acteurs arrivent à s’adapter, usent de leurs infrastructures, voire les réorientent entièrement, pour se présenter en sauveurs incontournables, en outils de la lutte contre la crise – en somme : pour se réinventer.

Il n’étonnera guère qu’à cette occasion, du don’t be evil de Google au bringing the world closer together de Facebook, de vieux récits soient – avec talent ! – remis au goût du jour, que le solutionnisme trouve de tous côtés une nouvelle légitimation et que la connectivité se déploie toujours plus. Reste que tout cela est lié à des risques et des effets secondaires non négligeables.

Car de toute évidence, n’entrent pas seulement dans les potentialités des multinationales l’idée, louable en soi, de la lutte contre la crise, ou du soutien massif à la santé, à travers toutes sortes de partenariats public-privé. En elles s’opère aussi, insidieusement, clandestinement, un déplacement de souveraineté : le quotidien devient le laboratoire expérimental des entreprises, la vie elle-même n’est plus qu’une expérience de mesurage intelligent (« smart »). On assiste à la systématisation toujours plus insistante de ce que l’on peut appeler une biopolitique en cours de datafication.

Les acteurs d’État comme les acteurs privés ont compris depuis longtemps que le vieil outil biopolitique – statistiques périodiques ou valeurs moyennes évaluées par cycles – était aujourd’hui tout à fait suranné. Que, si l’on voulait maintenir en état de fonctionner le corps des individus, et plus encore le corps social, on avait besoin de mécanismes plus individualisés, de cartes plus parlantes et d’appareils plus « friendly ». Les sauveurs chamaniques de la Silicon Valley prennent ce qui ressort des fonctions régaliennes de l’État pour le ramener à leurs prestations de service, ils développent des instruments essentiels de politique sanitaire et, par le fait qu’ils se déclarent eux-mêmes « institutions de recherche », engrangent un fabuleux surcroît de compétence. Ainsi l’individu évolue-t-il toujours davantage, sous le signe de la santé, dans des espaces mesurés, ainsi ses données de mobilité et de contact sont-elles traquées et sondées en temps réel : son état de santé, son pouls ou son rythme de sommeil sont soumis à une surveillance de tous les instants. Que disait déjà le slogan du « Research App » d’Apple ? « Humanity says thank you » (« L’humanité vous dit merci »).

Ce qui semble pendant la crise tout à fait compréhensible, et même, dans quelques cas, raisonnable, crée rapidement un nouvel état de fait. Une réalité dans laquelle l’intrusion sur le mode monopolistique de la technologie numérique va si loin dans le monde de la vie et de l’expérience qu’elle finit par développer une force normative : le moment arrive où elle ne se content plus de seulement décrire ce qui est. Mais aussi ce qui devrait être.

Peut-être ne devrions-nous donc pas dire aussi inconsidérément « I want to thank Google », ni concevoir la crise comme un problème qui n’attend que l’intelligence artificielle pour être résolu. Nous devrions urgemment jeter aussi un coup d’œil à la notice jointe de la thérapeutique de surveillance capitaliste.

Les auteurs :

Anna-Verena Nosthoff est essayiste, philosophe et politologue. Elle enseigne à l’Université de Vienne, la Freie Universität de Berlin et était ces derniers temps « Research fellow » au Weizenbaum Institut pour la société connectée. Felix Maschewski est essayiste, économiste et enseigne à la Freie Universität de Berlin. Récemment est paru leur ouvrage commun « Die Gesellschaft der Wearables – Digitale Verführung und soziale Kontrolle » (« La société des wearables – Tentation digitale et contrôle social ») aux Éditions Nicolai-Verlag de Berlin.

Cet article est paru en allemand dans la revue Republik : https://www.republik.ch/2020/05/09/wie-big-tech-die-pandemie-loesen-will.

Fake news et manipulation de l’opinion : une loi à côté de la plaque ?

Impulsé par le président de la République, le projet de loi contre les fausses nouvelles vise à protéger l’opinion publique des tentatives de manipulation lors des périodes électorales, notamment provenant de l’étranger. Mais s’il est vrai que nos démocraties sont aujourd’hui mises à mal par de nouveaux vecteurs d’influence, le texte législatif –inutile, inefficace et potentiellement dangereux– passe complètement à côté des vrais enjeux récemment mis en lumière par l’affaire Facebook-Cambridge Analytica: la collecte massive de données personnelles et le profilage de la population utilisés à des fins politiques. En effet, lorsqu’il s’agit d’influencer les électeurs, les fake news ne sont que la partie émergée de l’iceberg, et l’examen du controversé projet de loi (qui doit reprendre prochainement à l’Assemblée nationale) devrait être l’occasion de recentrer les débats sur les questions de fond soulevées par les révélations du lanceur d’alerte Christopher Wylie.


Lors de la présentation de ses vœux à la presse, en janvier dernier, Emmanuel Macron a exprimé sa volonté de créer une “loi anti fake news” afin de réguler la circulation des fausses informations en période électorale. Il avait lui-même été directement visé pendant la campagne des présidentielles de 2017.

C’est à ce titre que des députés du groupe En Marche ont déposé le 21 mai dernier une proposition de loi relative à la lutte contre les fausses informations, rebaptisée le mois suivant proposition de loi pour lutter contre la manipulation de l’information. Néanmoins son objectif est resté le même : contrecarrer d’éventuelles opérations de déstabilisation des institutions et de manipulation de l’opinion publique.

La propagation de fausses informations devient ainsi un enjeu démocratique majeur à l’heure ou le débat publique se trouverait en position de vulnérabilité face –entre autre– à des médias liés à des États étrangers et dont les activités seraient de nature à altérer la sincérité du scrutin, perturbant gravement “la vie et les intérêts fondamentaux de la Nation“. La nouvelle loi permettrait donc de protéger la population de l’ensemble des stratégies qui pourraient être mises en place par certaines puissances : c’est clairement la Russie qui se trouve dans la mire du texte législatif et celle-ci est nommément pointée du doigt à plusieurs reprises dans les différents travaux parlementaires qui soulignent ses “tentatives d’infléchir la perception du public“.

Ainsi, des campagnes de fausses informations organisées par le gouvernement russe auraient influencé ou perturbé des scrutins tels que le référendum sur le Brexit au Royaume-Uni, les élections américaines de 2016 ou encore les dernières présidentielles et législatives françaises.

Extrait du rapport d’information déposé par la Commission des affaires européennes de l’Assemblée nationale portant observations sur les propositions de loi relative à la lutte contre les fausses informations.

LA RUSSIE : UN COUPABLE IDEAL

Or, s’il est indéniable que la Russie tente d’exercer son influence sur les scrutins étrangers dans le but de favoriser ses intérêts, comment lui en vouloir ? N’est-ce pas dans la nature même de toute puissance que de se livrer à de telles manœuvres ? Ne sommes-nous pas nous-mêmes, les pays occidentaux, passés maître dans ce genre d’intrigue ? Dénonçant l’hypocrisie de nombreuses figures politiques ainsi que de ses confrères scandalisés par l’ingérence des Russes lors des présidentielles américaines de 2016, le journaliste Stephen Kinzer rappelait dans un article publié dans les colonnes du Boston Globe [disponible en français ici]:

« Sur une période d’un peu plus d’un siècle, les leaders américains ont utilisé toute une variété d’outils pour influencer les électeurs dans des pays étrangers. Nous avons choisi des candidats, les avons conseillés, financé leurs partis, conçu leurs campagnes, corrompu les médias pour les soutenir et menacé ou calomnié leurs rivaux. (…) Condamner l’ingérence dans les élections étrangères est parfaitement raisonnable. Cependant, tous ceux qui hurlent contre les Russes à Washington ferment hypocritement les yeux sur certains chapitres de [notre] histoire. »

En tant que Français nous pourrions aussi nous demander quel regard portent sur notre pays les Africains et sur son rôle dans l’essor de la démocratie dans leur continent : nos médias tels que France 24 ou RFI ne sont-ils pas souvent perçus chez eux comme des instruments diplomatiques? D’ailleurs, n’attend-t-on pas du groupe France Médias Monde de former les opinions étrangères en notre faveur, le tout sous couvert de “contribuer au rayonnement de la France dans le monde” ? A l’heure du soft power, la “diplomatie publique” n’est-elle pas une alternative à l’appellation trop négativement connotée de “propagande” ?

L’ingérence est un comportement aussi ancien que l’histoire de la diplomatie, et de ce fait, la parabole de la paille et de la poutre convient très bien pour décrire les gouvernements qui s’avisent de critiquer les agissements de leurs rivaux en la matière.

Néanmoins, quelques mois après le déferlement politico-médiatique anti-russe qui suivirent le Brexit et l’élection de Donald Trump (« grâce au soutien de Poutine »), une journaliste britannique révélait de nouveaux éléments qui allaient considérablement minimiser l’influence des fake news propagées par la Russie et pointer du doigt d’autres responsables jusque-là insoupçonnés.

BIG DATA, PROFILS PSYCHOLOGIQUES ET CAMPAGNES ÉLECTORALES

C’est durant la primaire républicaine que le nom Cambridge Analytica apparaît pour la première fois dans la presse : en décembre 2015 le quotidien britannique The Guardian publie un article au sujet du candidat Ted Cruz –qui talonne Donald Trump dans les sondages– et de l’utilisation par son équipe de campagne des services de cette discrète petite société anglaise spécialisée dans le Big Data. Grâce à son expertise, les conseiller en communication du sénateur texan seraient en mesure d’atteindre plus efficacement l’électorat en s’appuyant sur les profils psychologiques individualisés déterminés à partir d’informations provenant des réseaux sociaux. Le “microciblage comportemental“, déjà systématisé dans le secteur du marketing en ligne, faisait ainsi son entrée dans les campagnes électorales.

Mais c’est finalement Donald Trump qui porte la candidature du Grand Old Party pour affronter Hillary Clinton, et à quelques jours du scrutin du 8 novembre 2016, un article du bureau londonien de la CNN relate comment les analystes de Cambridge Analytica –capables de « lire les pensées des électeurs » – s’efforcent à rassembler des données sur « chaque adulte américain » pour le compte de la campagne du magnat de l’immobilier. Une « arme secrète politique » facturée à plusieurs millions de dollars.

Un mois après l’inattendue victoire du tonitruant homme d’affaire new-yorkais, la revue suisse-allemande Das Magazin publie un article (traduit en anglais par Motherboard-Vice) qui nous en apprend un peu plus sur les méthodes de Cambridge Analytica, notamment en attirant l’attention sur une conférence donnée à New-York par son PDG Alexander Nix et passée quelque peu inaperçue jusque-là.

Dans cette conférence, Nix vante les mérites de sa compagnie qui aurait selon lui la possibilité d’adapter des messages politiques personnalisés pour les 220 millions d’américains, dont elle aurait déterminé les profils grâce au croisement de milliers de paramètres collectés sur des réseaux sociaux ou achetés auprès de data-brokers. « Je vais vous parler aujourd’hui du pouvoir du Big Data et de la ‘psychographie’ sur les processus électoraux. (…) Nous avons créé un algorithme capable de déterminer la personnalité de chaque adulte vivant aux Etats-Unis... » Certains de ses propos sont assez troublants, pourtant l’audience paraît conquise et le PDG de Cambridge Analytica se retire sous les applaudissements du public.

Extraits choisis (v.o. sous-titrée en français) :

L’enquête du Das Magazine décrit comment –grâce à la technologie développée par Cambridge Analytica– l’envoi de messages politiques personnalisés via Facebook a permis d’influencer le comportement de centaines de milliers d’américains en faveur de Trump. Ainsi, les électeurs au profil conservateur, favorables au port d’arme et plutôt paranoïaques ont reçu des messages relatant les pires faits divers impliquant des immigrés, dans le but d’exacerber leur peur. Pour pousser les potentiels soutiens d’Hillary à s’abstenir (un des principaux objectifs de l’équipe de campagne républicaine), rien de plus facile pour les algorithmes de Cambridge Analytica que de cibler par exemple très spécifiquement les démocrates afro-américains et de placer des vidéos (en contenus sponsorisés) sur leur timeline Facebook dans lesquelles la candidate fait des déclarations malencontreuses envers la communauté noire. Ou de bombarder les partisans de Bernie Sanders, plutôt attachés à l’éthique, d’articles exposant la supposée corruption du couple Clinton ou encore ses liens avec le monde de la finance.

« Nous pouvons cibler des villages, des appartements ou même des individus en particulier », fanfaronne Alexander Nix face aux reporters qui commencent à pointer du doigt les dérives clairement manipulatrices de l’entreprise “spécialisée dans le traitement de données”.

L’ENQUÊTE DU GUARDIAN: L’ÉLECTORAT MANIPU ?

Pour autant, c’est en mai 2017 qu’une investigation de Carole Cadwalladr, du Guardian, fait prendre une toute autre tournure au dossier et révèle le côté vraiment obscur de Cambridge Analytica. Il n’est tout d’un coup plus seulement question de stratégies novatrices de marketing électoral ou de manipulation politique mais de menace pour la démocratie et la souveraineté des Etats. En effet, alors que la journaliste enquête sur les causes profondes de la victoire du Brexit lors du référendum britannique du 23 juin 2016, elle découvre le rôle majeur joué par un milliardaire américain, politiquement très engagé et qui se distingue par sa volonté de remodeler le monde selon ses convictions personnelles. S’en suit un enchaînement de connexions assez stupéfiantes.

Robert Mercer est un richissime homme d’affaire américain très proche de l’Alt-right : il est notamment copropriétaire du site Breitbart News (le média roi des fake news aux Etats-Unis) et directement lié à Donald Trump dont il a considérablement financé la campagne. Ami de longue date de Nigel Farage, le député européen qui dirige la campagne en faveur de la sortie du Royaume-Uni de l’Union européenne, il met gratuitement à sa disposition (et sans en avertir les autorités électorales britanniques) les services d’une société dont il est le principal actionnaire: Cambridge Analytica. Le Guardian montre comment Mercer, figure clé dans l’ascension politique de Trump ainsi que dans le bouleversement du panorama médiatique traditionnel suite à l’irruption généralisée des fake news, semble se retrouver au cœur d’un vaste réseau de propagande qui aurait cherché à influencer le résultat du référendum britannique.

Un premier pas avait déjà été fait en 2014 lors du lancement du site Breitbart London par un de ses proches collaborateurs, Steve Bannon, proéminente figure de la droite alternative américaine et membre du conseil d’administration de Cambridge Analytica. Bannon, qui deviendra plus tard le directeur de campagne de Donald Trump, annonçait à l’époque sans ambages au New-York Times vouloir lancer la branche anglaise de son site en vue du prochain scrutin du Brexit, considérant cette élection comme « le nouveau front » de sa « guerre politique et culturelle ». Et l’utilisation d’un vocabulaire martial n’est pas le fruit du hasard…

Dans l’article « Le grand braquage du Brexit : comment notre démocratie a été piratée » [en français ici.], Carole Cadwalladr révèle en effet que Cambridge Analytica est une filière de Strategic Communication Laboratories, une entreprise britannique spécialisée dans les “opérations psychologiques militaires” [1] et “la gestion d’élections”. Intimement liée au complexe militaro-industriel britannique et américain, SCL aurait participé à plus de 200 élections dans le monde entier depuis 1990. On découvre sur son site qu’elle a prêté main forte au mouvement de la “Révolution orange” de 2004 en Ukraine, ou dans des publications officielles de l’OTAN qu’elle collabore à des programmes de formation de l’Alliance atlantique. Elle a compté parmi ses employés d’anciens hauts-gradés comme Steve Tatham qui fut chef des opérations psychologiques des forces britanniques en Afghanistan.

https://sclgroup.cc/home

La journaliste du Guardian révèle aussi le rôle joué par la société AggregateIQ, dont le brevet est détenu par Robert Mercer et qui a reçu plus de la moitié du budget dépensé par Vote Leave, la campagne officielle en faveur du Brexit. Travaillant en étroite collaboration avec Cambridge Analytica, AggregateIQ a participé au ciblage de l’électorat identifié comme “persuasible” qui a été bombardé avec plus d’un milliard de messages (parmi lesquels de nombreuses fake news) durant les derniers jours précédant le référendum. Etant basée au Canada, cette société se trouvait hors de portée de la juridiction britannique et donc de tout contrôle des autorités électorales.

Le panorama se trouble encore plus lorsque le nom de Palantir fait surface à plusieurs reprises dans l’investigation de Cadwalladr. Au final, la journaliste en vient à se poser des questions au sujet de la légitimité du résultat d’un référendum (qui s’est joué à moins de 2% des votes) au centre duquel se trouve la triade AggregateIQ – SCL – Cambridge Analytica, instruments d’un milliardaire américain et de son idéologue en chef bien décidés à faire bouger les lignes politiques européennes en conjuguant psychologie, propagande et technologie pour influencer l’opinion publique.

Mais malgré les multiples articles publiés dans le Guardian et les révélations au sujet de la manipulation de l’électorat lors du Brexit ainsi que pour l’élection présidentielle américaine, il faudra attendre près d’un an pour que le “scandale” éclate…

LE SCANDALE FACEBOOK-CAMBRIDGE ANALYTICA

En mars 2018, Christopher Wylie, ex-employé de Cambridge Analytica et de SCL, décide de sortir de l’ombre et de dévoiler publiquement les méthodes de ses anciens patrons, face caméra. « Choqué » par la tournure des évènements –l’élection de Trump, le fichage psychologique de plus de 200 millions d’américains, les projets de collaboration avec le Pentagone– l’ancien directeur de recherche de la firme se transforme en lanceur d’alerte et se confie à trois médias : le Guardian, le New-York Times et Channel 4 News diffusent son témoignage qui provoque un petit séisme.

En effet, la mise en cause de Facebook donne une ampleur inattendue à l’affaire qui devient le “scandale Facebook-Cambridge Analytica“, au point que Mark Zuckerberg doit s’expliquer face aux membres d’un Comité du Sénat américain. Car c’est effectivement la société de Palo Alto qui se retrouve en partie à la base de toute cette histoire. D’une part, elle a bâti son modèle économique sur la collecte des informations que les membres du réseau social (plus de 2 milliards) lui fournissent, participant ainsi à un fichage de la population. Un fichage certes à visée commerciales (98% de son chiffre d’affaires repose sur la vente de publicité ciblée) mais Facebook endosse toutefois la responsabilité d’avoir permis à des entreprises extérieures –comme Cambridge Analytica– de siphonner les données personnelles de millions d’usager sans leur consentement, et à des fins politiques. Enfin, c’est cette plateforme qui a été le plus largement utilisée pour propager les messages ciblés –dont bon nombre de fake news– qui avaient pour but d’influencer les électeurs.

Cependant, ce sont bien les aspects les plus sombres de l’enquête de Carole Cadwalladr que Christopher Wylie va confirmer : les liens avec SCL et l’industrie de l’armement, les méthodes de guerre psychologiques employées pour cibler les électeurs, la propagande, la désinformation, jusqu’à la manipulation au point de déformer la perception de la réalité des gens dans le but d’orienter leur vote.

Ci-après quelques extraits des confidences de Christopher Wylie, interviewé par Vice News et le Guardian (v.o. sous-titrée en français) :

https://streamable.com/v3vzm

Malgré la gravité des déclarations qui ne laissent aucun doute quant à la volonté de se servir de Cambridge Analytica pour manipuler les électeurs dans un but clairement politique (la fameuse “guerre culturelle” de Steve Bannon) le débat qui a suivi ces révélations s’est malheureusement presque uniquement focalisé sur la responsabilité de Facebook dans « la fuite » des données de ses utilisateurs. Toutes les questions liées aux activités troubles de Cambridge Analytica / SCL n’ont pas ou peu été abordées. Comme si le fait que le Brexit ou la victoire de Trump aient été favorisés par de vastes opérations de manipulation de l’opinion publique, ourdies par un milliardaire lié à l’Alt-right américaine, n’avait pas tellement d’importance. Ou que l’implication d’une société liée à l’industrie militaire, spécialisée dans les “opérations psychologiques” reposant principalement sur l’utilisation de la désinformation, de rumeurs et de fake news, ne soit qu’un détail anodin.

Ce sont pourtant des questions vitales pour notre système démocratique qui sont soulevées par toute cette affaire, et il est légitime de se demander si l’intime volonté du peuple a été vraiment respectée dans ces scrutins… et quelle tournure prendra notre société si elle n’est pas capable de se poser les bonnes questions face à ce genre de situation.

“CAMBRIDGE ANALYTICA N’EST QUE LE DEBUT”

Lors de son témoignage devant un Comité de la Chambre des députés du Canada, Christopher Wylie exprimait son inquiétude au sujet de l’avenir de nos démocraties qui peuvent-être si facilement mises en péril par des acteurs manipulant l’information et in fine l’opinion publique. « Internet et la numérisation croissante de la société ont accru la vulnérabilité de notre système électoral. (…) Cambridge Analytica n’est que le début… ».

Et s’il est vrai que l’entreprise londonienne s’est déclarée en faillite et a cessé (momentanément ?) ses activités, comment croire un seul instant que d’autres (acteurs privés, gouvernements, etc.) ne seront pas tentés par le formidable pouvoir qu’offrent aujourd’hui le Big Data et les algorithmes ? Prédire le comportement humain et potentiellement le contrôler : un danger pour certains, un objectif pour d’autres ?

« La collecte de nos données passe tellement inaperçue que les gens ne se rendent pas compte de ce qui est en train de se passer », signale la chercheuse Emma Briant. « Nous vivons assurément dans une nouvelle ère du point de vue de la propagande : nous ne pouvons pas la voir et elle agit sur nous au-delà de notre entendement ; face à cela nous ne pouvons que réagir émotionnellement ». [2]

A l’ère de la post-vérité, dans laquelle les faits objectifs ont moins d’influence pour modeler l’opinion publique que les appels à l’émotion et aux opinions personnelles, comment contrer la puissance des fake news? Sommes-nous prêts à affronter la prochaine étape des fake vidéos ? Qu’advient-il de notre vision du monde dès lors que les structures de l’information peuvent être manipulées afin de déformer notre perception de la réalité ? Quelles conséquences sur notre comportement ? Comment rester maîtres de notre libre arbitre ?

 

UNE « LOI FAKE NEWS » … POUR QUOI FAIRE ?

Une chose est certaine : face à ces problématiques le projet de loi du gouvernement français pour lutter contre la manipulation de l’information paraît complètement ridicule et surtout hors sujet. Nous ne nous attarderons pas d’avantage sur son inutilité (le droit français permet déjà de lutter contre les fausses informations), son inefficacité (difficilement applicable, il ne mettra de toute façon pas fin à la propagation des fausses nouvelles) ou sa dangerosité (possibles atteintes à la liberté d’expression et au travail journalistique). Le plus alarmant reste sans aucun doute le décalage flagrant existant entre le projet de loi et les véritables enjeux soulevés par l’affaire Cambridge Analytica, et parmi lesquels la question des fake news ne représente en réalité que la partie émergée de l’iceberg. Quid de la responsabilité et du pouvoir détenus par les GAFAM, de la protection des données personnelles, du profilage de la population qui peut être utilisé à des fins politiques ?

La volonté du gouvernement de lutter contre les fake news devrait être l’occasion de s’attaquer à la racine du problème des nouvelles formes de manipulation de l’information, notamment en se penchant sérieusement sur certaines questions de fond qui ont été évitées jusqu’à présent.  Il paraît clair que nous n’avons pas encore pris la mesure de la gravité des révélations de ces derniers mois alors qu’elles remettent en cause les fondements de notre système démocratique, pourtant déjà bien mal en point.

Sommes-nous en train de nous diriger vers le meilleur des mondes, dans lequel notre comportement sera imperceptiblement influencé, voir contrôlé, par un nouveau totalitarisme algorithmique ? S’il paraît peu probable qu’une société dystopique puisse surgir sans crier gare, du jour au lendemain, il se pourrait plutôt que nous soyons en train de la bâtir petit à petit, sous couvert d’une fascination pour la technologie bien évidemment pavée –comme toujours– de bonnes intentions.

Luis Reygada

@la_reygada

Post-scriptum:

L’affaire Facebook-Cambridge Analytica est en grande partie le fuit d’une enquête de plus d’un an de Carole Cadwalladr ; vous trouverez ici une compilation des principaux articles de la journaliste du Guardian à ce sujet.

NOTES :

[1] Les opérations psychologiques (“PSYOP” dans le jargon militaire) sont des opérations qui ont pour objectif de « bombarder » leur cible d’informations afin d’influencer leurs émotions et leur comportement dans un but stratégique ; elles entrent dans le cadre de la “guerre psychologique”.

[2] Professeur à l’Université de Sheffield, Emma Briant est une spécialiste de la propagande qui a étudié les activités de SCL Group. La citation est extraite de l’article Robert Mercer: the big data billionaire waging war on mainstream media (Carole Cadwalladr, The Guardian, 26/02/2017).