Yaël Benayoun et Irénée Régnauld : « Le progrès technique n’est pas nécessairement synonyme de progrès social »

Technologie partout démocratie nulle part

De la vidéosurveillance à l’automobile, des caisses automatiques à la 5G, chaque choix technologique est un choix de société. Alors que la décision nous échappe, nous en subissons les conséquences de plein fouet. De la smart city sécuritaire à l’ubérisation du travail, des conséquences environnementales à la surveillance diffuse, voilà un certain temps que la marche de l’innovation n’a pas de quoi faire l’unanimité. Comment s’emparer de la trajectoire du progrès, intervenir dans ces décisions technologiques et peser dans ces rapports de force qui décident de notre vie en commun ? Petit précis de techno-critique et de démocratie technique avec Yaël Benayoun et Irénée Régnauld, cofondateurs de l’association le Mouton Numérique et auteurs de Technologies partout, démocratie nulle part, publié chez FYP cet automne 2020. Propos recueillis lors de la présentation du livre à la librairie l’Attrape-Cœurs par Maud Barret Bertelloni.


LVSL – Vous commencez votre livre en vous attaquant à ce lieu commun qui voudrait que les technologies soient un donné à l’égard duquel nous ne pourrions que nous adapter. C’est un motif récurrent : le service public doit se mettre au pas des nouvelles technologies, les citoyens doivent suivre, la compétition mondiale presse… Qu’est-ce que cela a à voir avec notre conception de la technologie ?

Yaël Benayoun et Irénée Régnauld – Le mot technologie historiquement est né pour décrire une science de la technique, comme un regard posé sur les objets techniques et la façon dont on les construit. À certaines époques, la technologie a été enseignée comme une science politique. Il se trouve qu’on est aujourd’hui dans une période où la technologie a acquis la forme d’objet : quand on dit technologie, on pense à un iPhone, à une fusée spatiale… Alors que si l’on repart de l’étymologie : techno+logos, c’est le discours sur la technique. C’est essentiel dans la mesure où la plupart des gens qui font des technologies, qui sont souvent des ingénieurs, prennent ça comme des artefacts absolument neutres, qui ne revêtent aucune dimension politique. Or ce qu’ils font, à titre individuel comme collectif, est de l’ordre du politique.

Tout l’enjeu du début du livre, c’est de revenir sur le discours véhiculé sur la technique que l’on entend beaucoup dans les médias dominants : tous les « la technique est neutre », « ce n’est que l’usage qui compte », « on n’arrête pas le progrès »… Cette notion de progrès est sous l’emprise d’une vision très positiviste de la société, qui part du principe que le progrès technique est nécessairement synonyme de progrès social et que ce progrès est inéluctable et n’est donc pas questionnable. Comme si le développement technologique n’était pas le fait de choix et de stratégies et d’un jeu d’acteurs. Pour prendre un exemple : le réseau de tramways était bien installé aux États-Unis au début du XXe siècle. Les constructeurs d’automobiles ont alors développé des stratégies de rachat massif des compagnies de tramway pour démanteler les réseaux de transport concurrents. L’avenir de la mobilité et des transports aurait pu être différent que le tout automobile américain.

« Pour chaque choix technologique, il y a un rapport de forces et il faut peser sur ce rapport de forces pour l’orienter différemment. »

C’est ce qui passe aujourd’hui avec la « high tech ». Le terme de technologie de « pointe », de high tech est un terme qui introduit une hiérarchie entre ce qui n’est pas « high », à savoir occidental ou chinois, et le reste. Ces technologies occultent toute une série d’autres choix qui auraient pu être faits et qui ne l’ont pas été. C’est valable à la fois au niveau d’une réflexion globale sur la technique dans une civilisation, mais aussi pour n’importe quel objet technique. Pour chaque choix technologique, il y a un rapport de forces et il faut peser sur ce rapport de forces pour l’orienter différemment.

LVSL – Deux chapitres du livre illustrent ce en quoi les technologies constituent des choix de société. Il y a un premier chapitre consacré à la smart city comme politique de la ville sécuritaire ; un autre sur l’automatisation au travail et toutes ces technologies qui réduisent les travailleurs à de simples rouages dans un monde de machines. Mais en quoi les technologies elles-mêmes constituent des choix de société ?

YB et IR Les choix technologiques structurent la société et l’amènent dans une direction précise qui, sans la déterminer totalement, posent des infrastructures et des cadres dans lesquels on va évoluer. L’exemple typique est la 5G : c’est prendre la direction de l’explosion des équipements numériques et de leurs usages, ce qui porte à une augmentation des capteurs, qui mène vers une ultra-numérisation de la société…  Et il y a des acteurs dominants qui, par leurs investissements, par leurs moyens, par leurs efforts de lobbying, orientent massivement les choix de société. Les efforts de l’industrie de l’automobile ont conduit à la société de la voiture et donc à l’étalement urbain. Il en va de même avec l’introduction de certaines technologies qui brisent les collectifs de travail ou de l’introduction de la surveillance qui diminue la propension de chacun à aller manifester. C’est très concret.

LVSL – Revenons sur un exemple dont vous faites mention : s’il y a d’une part le logiciel et toute la technique d’organisation d’une plateforme de livraison comme Uber ou Deliveroo, qui soumettent les travailleurs à des conditions de travail dégradantes et d’exploitation, il y a aussi l’exemple d’une contre-ingénierie : le logiciel des livreurs de CoopCycle, dont les fonctionnalités sont en main aux travailleurs…

YB et IR – Pour remettre un peu de contexte, CoopCycle c’est une coopérative de livreurs créée en réponse au système de Uber, de Frichti, etc. pour fournir une alternative coopérative. Effectivement, ils utilisent aussi une plateforme logicielle pour organiser leur logistique. Mais précisément, ce n’est pas la même application : ils n’ont pas cherché à faire de la food tech, à livrer très rapidement le moins cher possible, mais de réorganiser la livraison sur un mode coopératif.

Dans le livre, nous ne partons pas du principe que toute technologie est mauvaise. Ce n’est juste pas le sujet. Ce qui est intéressant quand on regarde les deux applications de livraison, c’est que dans l’une vous avez les livreurs tracés, surveillés, notés, qui doivent rendre compte de leur temps et aller le plus vite possible, alors que dans l’autre le temps est discuté de manière coopérative. La technologie qui est développée n’a pas les mêmes caractéristiques, car elle incarne alors d’autres valeurs et d’autres objectifs. Notre problématique, au fond, concerne ces choix technologiques faits à différentes strates de la société (la ville, le travail, l’État, etc.) mais surtout les effets de ces choix sur la démocratie.

LVSL – Pour arbitrer entre ces technologies, leurs formes et leurs valeurs, on invoque souvent une approche « éthique » à la technologie : éthique de l’intelligence artificielle, éthique du design, etc. Quel est le problème avec ces approches ?

YB et IR – Il y a eu un retour de bâton à l’égard des technologies ces dix dernières années, notamment depuis l’affaire Snowden, et depuis les tentatives de manipulation électorale comme Cambridge Analytica. Et c’est précisément le moment où l’on voit apparaître un grand nombre de chartes éthiques des entreprises, qui arrivent pour réguler des projets technologiques. Malheureusement, cela n’advient qu’une fois qu’ils ont été créés, sans jamais – ou rarement – repenser la manière dont sont fabriqués les objets, touchant à la rigueur la façon de les déployer à la fin, un peu comme des cases à cocher. Alors, on regarde si l’objet fini est juste, s’il ne discrimine pas, etc. Mais, d’une part, on n’interroge jamais le bien-fondé de l’objet, pour savoir si celui-ci est utile. Et d’autre part, jamais vous ne trouverez mention des chaînes de production technologique dans ces chartes : rien sur les micro-travailleurs ou les travailleurs du clic qui entraînent les intelligences artificielles, rien sur les travailleurs à la chaîne, qui sont une fois de plus invisibilisés sous couvert d’éthique.

Et au même moment où apparaissent ces chartes éthiques, on constate un flétrissement des procédures démocratiques traditionnelles et un certain glissement du droit vers l’éthique. En termes de démocratie, c’est un problème. Un exemple très simple : dans l’État de Washington, aux États-Unis, Microsoft a fait du lobbying pendant des années via un salarié qui était simultanément congressman – pantouflage éhonté, conflit d’intérêts. Il a fait voter une loi qui encadre la reconnaissance faciale dans l’État de Washington, suivant un cadre « éthique », de telle sorte que les systèmes doivent reconnaître aussi bien les personnes noires que les personnes blanches. Pourtant, dans une ville comme Portland, les technologies de reconnaissance faciale ont bien été interdites, tant en ce qui concerne leur usage par les forces de police, que par les commerces. Plutôt que d’interdire, l’éthique a donc permis à Microsoft de plaquer des règles pour éviter les régulations. L’éthique, ce n’est pas contraignant, c’est une profession de foi.

« L’éthique, ce n’est pas contraignant, c’est une profession de foi. »

C’est pour cela qu’on a ironiquement intitulé une section : « Une 5G éthique est-elle possible ? » La 5G est en préparation depuis dix, quinze ans : il y a eu des brevets, des recherches, des investissements chez les opérateurs… Là ça arrive et on fait semblant d’avoir un débat sur quelque chose qui est déjà joué, sans jamais qu’on se soit posé collectivement la question des réseaux du futur. On pose une fois de plus la question à la fin… Et puis on va demander aux consommateurs d’être, eux, éthiques en faisant le bon choix. Mais quand il va en grande surface pour acheter une balance et il n’y a que des balances connectées, on ne peut pas responsabiliser le consommateur en lui demandant de se faire une balance tout seul.

LVSL – Outre cette perspective technocritique, votre livre porte un véritable projet lié à la démocratie technique. Celui-ci comporte plusieurs aspects : réinvestir le champ du progrès, introduire un contrôle démocratique, investir les instances nécessaires à ouvrir un débat de société sur les technologies… Comment les articuler ?

YB et IR – L’idée n’est pas de fournir un programme mais de montrer qu’il y a des initiatives et des projets qui sont déjà là. On n’est pas du tout aussi démunis qu’il n’y paraît. L’avenir technologique tel qu’on nous le vend n’est pas inéluctable. Toute une partie du livre recense justement tout un ensemble de luttes, des ingénieurs à la société civile, tous ces mouvements qui ont donné lieu à une première réponse : les entreprises font de « l’éthique » aujourd’hui parce qu’elles ont du mal à recruter ; le RGPD n’aurait pas eu lieu sans l’affaire Snowden.

La logique du projet est simple : pour chaque choix technologique, il y a des stratégies d’acteurs, la majorité de ces choix se font sur le long terme, à huis clos, avec des industriels et des politiques qui malgré toutes leurs bonnes intentions ont l’exclusivité sur ces décisions. Le rapport de force bascule clairement d’un côté. Il faut alors rééquilibrer ce rapport de forces pour avoir une vraie discussion sur la société qu’on veut. Et selon la société qu’on veut, on peut faire les technologies qui vont avec. Pour chacun de ces choix, il faut rajouter des acteurs dans la boucle de décision. A minima, c’est la société civile organisée, comme on le retrouve par exemple dans toutes les propositions de forums hybrides dans les projets de démocratie technique. Cela voudrait dire que vous ne mettez pas dans les groupes d’experts seulement des représentants du monde industriel et politique, mais aussi des représentants du monde associatif, avec le même poids que les autres, ce qui rééquilibre les décisions.

« Pour chaque choix technologique, il faut rajouter des acteurs dans la boucle de décision. »

Un exemple dont on a beaucoup parlé ces derniers temps est celui de la Convention citoyenne sur le climat. Cela consiste à mobiliser des personnes tirées aux sort, concernées par les projets et les technologies en question selon ses enjeux spécifiques (l’automatisation des caisses ou la 5G), qui vont interroger les experts, ce qui inclut les associations, les juristes, les journalistes spécialisés. Une fois que ces personnes sont informées et formées sur le sujet, elles formulent des recommandations. Nous proposons d’aller un cran plus loin que ce qui existe déjà actuellement et de faire en sorte que leurs recommandations ne soient pas seulement consultatives mais décisionnelles pour qu’elles aient un effet direct sur les politiques industrielles et l’orientation des investissements.

Cela fait vingt ans que de tels dispositifs participatifs existent, et les sociologues et les politistes qui étudient ce genre de procédés remarquent que ces dispositifs sont efficaces. Quand la méthodologie est bien respectée, les recommandations qui émergent sont de très grande qualité. Le problème relève plutôt du fait qu’il n’y a presque jamais d’effets par la suite, parce que ces instances de délibération sont déconnectées des instances de décision. Il y a des groupes qui travaillent pour produire ces recommandations, mais elles ne sont finalement pas écoutées. Le cas de la Convention citoyenne devait au départ être un peu exceptionnel, parce qu’elle était au reliée à une instance de décision : les recommandations devaient passer sans filtre soit par le parlement soit par référendum. Aujourd’hui on voit que tout est détricoté. La 5G est un bon exemple : les citoyens de la Convention ont demandé un moratoire et il n’y aura pas de moratoire. Or, si ces dispositifs peuvent fonctionner, il faut les systématiser et surtout leur donner un vrai rôle.

Il y a aussi des outils, comme le principe de précaution, qui permet de s’arrêter pour documenter, pour produire du savoir. Sans le principe de précaution, on n’aurait pas stabilisé le trou dans la couche d’ozone, on n’aurait pas documenté la maladie de la vache folle, on n’aurait pas avancé sur la construction du GIEC [Groupe intergouvernemental d’experts sur l’évolution du climat, NDLR]. Bruno Latour résume tout ça par une belle formule selon laquelle le principe de précaution sert à « moderniser la modernité ». Notre livre promeut un principe de précaution beaucoup plus vaste, qui ne concerne pas exclusivement le climat ou la santé, mais qui inclut aussi la manière avec laquelle les technologies nous affectent, notamment dans notre rapport à la démocratie.