Pourquoi les barons de la Silicon Valley se convertissent au trumpisme

Mark Zuckerberg, le couple Bezos, Sundar Pichai (PDG de Google) et Elon Musk lors de la cérémonie d’investiture de Donald Trump. © Free Malaysia Today

Entamée pendant la campagne présidentielle, la conversion de la Silicon Valley au trumpisme semble désormais achevée. Les principaux leaders de la tech figuraient au premier rang des invités à la cérémonie d’investiture de Donald Trump, qui a donné des gages à cette industrie au cours de son discours. Ce ralliement a surpris de nombreux observateurs, tant la Silicon Valley est généralement associée au progressisme et au Parti démocrate. Loin d’être une bifurcation idéologique en forme de réaction aux prétendus excès de la gauche américaine, cette conversion est motivée par des enjeux économiques et des questions de pouvoir bien identifiables. Reste à savoir si les contradictions qui opposent les géants de la tech à la base électorale de Donald Trump finiront par faire imploser cette alliance bancale.

À la fin du film Le Parrain, lorsque Michael Corleone vient d’éliminer ses rivaux, les lieutenants de la mafia américaine le retrouvent dans son bureau pour lui baiser la main et prêter allégeance. Le triomphe électoral de Donald Trump a provoqué une réaction similaire au sein de la Silicon Valley. Dès l’annonce des résultats, les grands patrons de la tech se sont précipités pour féliciter le « Don ». Même Tim Cook, PDG d’Apple, y est allé de sa courbette. Tous ont donné entre 1 et 2 millions de dollars au fonds d’organisation de sa cérémonie d’investiture. Amazon, Microsoft, Google, Meta, Tim Cook, Sam Altman (OpenAI), Elon Musk, Uber, Spotify… il ne manquait personne à l’appel. La plupart de ces entreprises et milliardaires n’avaient rien donné à Joe Biden quatre ans plus tôt. Mais les signes d’allégeance ne se sont pas limités à des versements vers un fonds opaque, non régulé et dont le surplus de trésorerie pourra être utilisé à la discrétion du Président.

Opération séduction

Le ralliement d’Elon Musk et de nombreux gros investisseurs de la Silicon Valley (Marc Andresseen, Peter Thiel, SoftBank, Chamath Palihapitiya, David Sacks, Larry Ellison…) est antérieur à sa victoire électorale. Il prenait la forme de déclarations de soutien, participation à la campagne et dons financiers conséquents. Mais d’autres grands noms de la tech et entreprises majeures avaient soutenu Kamala Harris ou pris soin de rester neutres. Cela a changé dès l’annonce des résultats.

Jeff Bezos a probablement été le premier à ouvrir la danse. Quelques jours avant l’élection, il a censuré la publication du traditionnel éditorial de son journal, le Washington Post, qui devait appeler à voter Kamala Harris. Une fois l’élection passée, Bezos a bloqué la publication d’un dessin de presse caricaturant les patrons de la tech s’agenouillant devant Trump. Puis Amazon Prime, le service de streaming de l’entreprise dont il est resté le principal actionnaire, a offert 40 millions de dollars à Melania Trump pour produire un documentaire sur la première dame. Documentaire dont la réalisation a été confiée à un réalisateur déchu et très proche de Trump. Si cela ne suffisait pas, Amazon vient de mettre fin à ses politiques d’inclusion et antidiscriminatoires (DEI).

Jeff Bezos a probablement été le premier à ouvrir la danse. Quelques jours avant l’élection, il a censuré la publication du traditionnel éditorial de son journal, le Washington Post, qui devait appeler à voter Kamala Harris.

Mark Zuckerberg a suivi les pas de Marc Andresseen en donnant un interview-fleuve à Joe Rogan, soutien de Donald Trump et premier podcasteur du pays. Le patron de Meta (Facebook, Instagram, WhatsApp) en a profité pour critiquer les démocrates et valider les obsessions de la droite trumpiste. Il avait déjà fait un appel du pied à Trump pendant la campagne en le qualifiant de « badass » suite à la tentative d’assassinat dont il avait été victime. Un compliment curieux lorsqu’on sait que Trump avait menacé Zuckerberg de prison pour avoir suspendu son compte Facebook pendant deux ans, suite à sa tentative de subvertir le résultat des élections de 2020.

Pour officialiser son ralliement, Zuckerberg ne s’est pas contenté du don financier mentionné en introduction. Il a calibré la décision portant sur la suppression de la modération du contenu sur ses réseaux sociaux avec les équipes de Trump et mis fin à de nombreuses politiques internes visant à protéger les minorités ou encourager la diversité. Une manière de rejoindre en grande pompe le camp réactionnaire dans sa guerre culturelle contre le « wokisme » et la « cancel culture ». Ce revirement revient probablement à mettre Facebook et Instagram au service de Trump. Il s’est accompagné d’un accord élaboré avec les avocats de Trump pour que Meta verse 25 millions de dollars de dommage et intérêt à ce dernier. Il poursuivait Facebook au civil en espérant obtenir des dédommagements suite à la suspension de son compte. Trump avait peu de chance de gagner son procès, cet accord à l’amiable tombe à pic.

Le PDG de Tik Tok, interdit aux Etats-Unis quelques jours auparavant, s’inscrit dans une démarche révérencieuse similaire, au point d’utiliser son réseau social pour chanter les louanges de Donald Trump, afin d’espérer un retour en grâce. Lui aussi était présent à l’inauguration. Tout cela a débouché sur une photo digne du Parain, où les pontes de la Silicon Valley trustaient le premier rang de la cérémonie d’investiture, devant les soutiens historiques et élus assurant des fonctions protocolaires.

En 2017, pour éviter de s’aliéner leurs employés, perdre leurs clients et nuire à leur image de marque, ces dirigeants avaient pris soin de garder leurs distances avec Donald Trump, au moins publiquement. Ce changement de comportement peut en partie s’expliquer par les récentes difficultés du secteur et plans de licenciement, qui ont inversé le rapport de force employé-employeur, dans un contexte où les consommateurs sont devenus captifs de ces grands monopoles et peu susceptibles de renoncer à leurs services.

Un ralliement plus opportuniste qu’idéologique

À en croire des personnalités comme Elon Musk, Mark Zuckerberg ou Marc Andresseen, la principale cause du ralliement de la Silicon Valley à Donald Trump serait à chercher du côté des démocrates. La gauche américaine et les libéraux sont accusés d’avoir cédé aux sirènes du « wokisme » tout en s’attaquant à la liberté d’expression. Les soi-disant persécutions judiciaires du DOJ (Departement of Justice, l’équivalent du ministère de la Justice) et du FBI contre Donald Trump sont parfois également citées. Tout comme la tentative d’assassinat à son encontre, qui serait le produit de la complaisance du FBI et de l’extrémisme de la gauche américaine, accusés d’avoir injustement repeint l’ancien Président en dangereux putschiste autocrate. C’est après l’inculpation de Donald Trump que l’influent David Sacks (ex-PayPal) avait appelé à voter pour lui. Et après la tentative d’assassinat que son vieil ami Elon Musk avait officialisé son soutien.

L’idée d’un ralliement idéologique contraint par la radicalisation du camp démocrate est défendue en France par des « experts » comme Fabrice Epelboin (dans Le Point, sur C Ce Soir…) et reprise par de nombreux commentateurs. Elle ignore superbement les faits.

La Silicon Valley n’en est pas à son premier revirement réactionnaire. À ses origines, l’Université de Stanford, située au cœur de la vallée, jouait un rôle central dans la diffusion des thèses eugénistes qui eurent une emprise durable sur la tech. En particulier dans l’entre-deux guerre. William Shockley, l’un des inventeurs du transistor, était un eugéniste et raciste bien connu. Si la contre-culture hippie des années 1960 a donné une coloration progressiste aux géants de la tech, les années 1990 ont été marquées par un retour de la pensée réactionnaire. Des politiciens comme Newt Gingrich, un temps numéro un du Parti républicain et élu de Californie, avaient pris appui sur des figures aussi influentes que Georges Gilder pour poser les jalons d’un internet néolibéral et conservateur. La Hoover Institution et de nombreux think tanks conservateurs ont par ailleurs exercé une influence importante sur cette période cruciale, avant que des individus comme Peter Thiel reprennent le flambeau.

Avant son rachat contraint de Twitter, Musk méprisait déjà la liberté d’expression, par ses attaques répétées contre les journalistes, critiques et lanceurs d’alertes. Suite à cette acquisition, il ne s’est pas contenté de diffuser les Twitter files qui ont montré que démocrates comme républicains contactaient régulièrement la plateforme pour demander la suppression de certains contenus. Il a surtout entrepris d’imposer sa propre censure avant d’interférer publiquement en faveur de Donald Trump au cours de la campagne 2024.

Elon Musk a multiplié les déclarations publiques polémiques bien avant son rachat de Twitter. Rappelons qu’il avait traité un secouriste de pédophile, minimisé l’épidémie de Covid, soutenu publiquement le coup d’État de l’extrême droite bolivienne en 2020 pour empêcher la nationalisation du lithium et qu’il profère des vues eugénistes depuis longtemps. Son usine Tesla californienne était surnommée « la plantation » à cause du racisme systémique qu’il y tolérait. En 2017, malgré le tollé provoqué par le « muslim ban » de Trump, Musk avait refusé de critiquer le président et défendu sa participation à son Conseil économique. L’idée que Musk serait un progressiste libéral soudainement converti à l’extrême droite est plutôt contestable. En 2014, il proclamait « Fuck la Terre. Sérieusement, on s’en fout de la Terre ». Et son obsession pour le « virus wokiste » qui « va détruire la civilisation » débute fin 2021, douze mois avant son rachat de Twitter.

De même, Zuckerberg partage depuis longtemps des opinions conservatrices. Il était déjà proche de l’administration Trump pendant son premier mandat. Son entreprise Meta est connue pour sa pratique d’une forme de censure et la promotion arbitraire de contenus favorables à l’extrême droite américaine et au gouvernement israélien.

Certains pontes de la Silicon Valley, comme Peter Thiel et Larry Ellison, ont toujours soutenu Trump. D’autres ont pris le train en marche au moment qui leur semblait le plus opportun. Chez Elon Musk, la rupture avec les démocrates est concomitante avec les premières tentatives de syndicalisation dans ses usines Tesla, en 2017. L’administration Biden a soutenu ces efforts, promu le syndicalisme (en particulier dans l’industrie automobile) et poursuivi ou entamé de nombreuses enquêtes ciblant les abus et multiples violations de la loi dont est accusé Tesla (droit du travail, normes environnementales, discriminations, sécurité routière…). La Californie est en passe d’interdire les ventes de Tesla sur son territoire du fait des abus constaté avec la fonction Autopilot, faussement présenté comme un système de conduite autonome.

Autrement dit, Musk a tombé le masque progressiste lorsque ses intérêts économiques l’exigeaient. Certains autres géants de la Silicon Valley basculent plus tardivement (Sam Altman) et prudemment (Tim Cook). Mais, quel que soit le degré de proximité idéologique de ces patrons, ce n’est pas par ce prisme qu’on peut comprendre une telle cascade de ralliements.

Ce que les barons de la Silicon Valley espèrent obtenir de Donald Trump

Interrogé par l’ancienne vedette de Fox News, Tucker Carlson, Musk avait déclaré « si Trump perd, je suis foutu ». Il faisait référence aux nombreuses enquêtes fédérales ciblant ses entreprises, dans le contexte d’une baisse des ventes et d’un effondrement des marges de Tesla, de plus en plus concurrencé par les constructeurs chinois comme BYD. Désormais à la tête du Ministère de l’efficacité publique (Department of Government Efficiency, nommé ainsi pour coller à l’acronyme DOGE, du nom de sa cryptomonnaie favorite, initialement conçue comme une parodie du Bitcoin), Musk va pouvoir purement et simplement supprimer les instances gouvernementales enquêtant sur ou chargées de réguler ses activités.

Pour les milliardaires de la tech, le ralliement à Donald Trump présente de nombreuses opportunités : baisses d’impôts anticipées (sur les multinationales et les individus), dérégulations ciblées et contrats publics gargantuesques. Musk et Bezos dépendent de la NASA et du Pentagone pour rentabiliser leurs entreprises spatiales (Blue Origin et SpaceX), dans lesquelles ils ont investi des sommes considérables. Mark Zuckerberg espère que Donald Trump va tuer son principal concurrent (Tik Tok) et protéger Facebook des amendes encourues à l’étranger. Sam Altman et Larry Ellison ont obtenu un coup de pouce inespéré de Trump pour leur projet « Stargate » à 500 milliards.

Amazon est menacé par le regain de syndicalisme que l’administration Biden soutenait et que Trump a déjà promis d’écraser. Google est ciblé par des procès antitrust conduits par la FTC de Biden. Peter Thiel compte sur la politique anti-immigration et militariste pour continuer d’obtenir des contrats juteux pour ses sociétés de surveillance, Palantir et Anduril. Google, Amazon, Oracle et Microsoft comptent parmi les principaux bénéficiaires de contrats de défense chiffrés en dizaine de milliards de dollars. Au minimum, ils ont intérêt à ne pas trop froisser la nouvelle administration pour éviter que le flot d’argent public ne se tarisse.

Pour les milliardaires de la tech, le ralliement à Donald Trump présente de nombreuses opportunités : baisses d’impôts, dérégulation et contrats publics gargantuesques.

Mais les géants de la tech comptent aussi sur Trump pour poursuivre l’impérialisme économique dont ils bénéficient depuis des années, que ce soit en faisant pression sur les autres pays pour empêcher le prélèvement d’impôts sur le chiffre d’affaires, défaire les régulations, obtenir des clauses particulières dans les accords commerciaux ou atténuer le montant des amendes et sanctions auxquelles ils s’exposent. Lors de sa rencontre avec Trump, Tim Cook a évoqué les difficultés d’Apple avec la justice européenne, par exemple.

Par le passé, l’État américain a aidé ses champions de la tech à s’imposer sur la scène internationale tout en empêchant autant que possible l’émergence de concurrents. Le constructeur chinois de smartphones Huawei a été largement banni des États-Unis et l’Union européenne a été contrainte de renoncer à ses services pour mettre en place son réseau 5G. Les diplomates américains sont également souvent intervenus auprès des gouvernements européens en faveur de nombreuses entreprises technologiques, comme l’ont révélé les Uber files.

Le tour d’horizon ne serait pas complet sans mentionner l’industrie des cryptomonnaies, qui a dépensé des sommes colossales et inédites pour faire élire Trump, dans l’espoir d’obtenir des dérégulations et législations favorables. Or, de nombreux gros investisseurs de la Silicon Valley cités plus haut détiennent des intérêts importants dans ce secteur. De manière générale, se rapprocher de Trump permet d’éviter ses foudres potentielles tout en se positionnant pour profiter de sa politique. Apple et Amazon l’ont bien compris, et augmentent de nouveau leurs achats d’espaces publicitaires sur le réseau social de Musk, l’autre homme fort de Washington.

Au-delà des intérêts particuliers, une nouvelle vision pour la Silicon Valley

En pleine campagne électorale, le plus gros fonds d’investissement en capital risque, Andresseen Horowitz, a détaillé une vision alternative à celle proposée de manière souvent incohérente par les démocrates. Intitulé « The little tech agenda », ce manifeste pro-startup dénonce une régulation et une taxation excessives. En résumé, il s’agit de libérer les énergies créatrices des startups en dérégulant le secteur et en mettant en place des baisses d’impôts et exonérations fiscales. Loin de défendre uniquement les « petits », il s’agit surtout de supprimer toute entrave au développement accéléré des dernières lubies de la Silicon Valley : l’Intelligence artificielle, les cryptomonnaies, la blockchain et le commerce des données.

Il s’agit de supprimer toute entrave au développement accéléré des dernières lubies de la Silicon Valley : l’Intelligence artificielle, les cryptomonnaies, la blockchain et le commerce des données.

Parmi les cibles principales, on retrouve deux des agences gouvernementales les plus populaires de l’administration Biden : la FTC (Federal Trade Commission) et le CFPB (Consumer Financial Protection Bureau). Sous la direction de Lina Khan, le premier a tenté de briser les monopoles des Big Tech via les lois antitrust, au nom de la compétitivité et de la protection des consommateurs. Le second, mis en place par Elizabeth Warren lors du premier mandat de Barack Obama à la suite de la crise des subprimes, lutte contre les fraudes financières et vise à protéger les consommateurs des abus des organismes de crédits prédateurs. Sous Biden, cet organisme a restitué plus de 6 milliards de dollars aux consommateurs américains victimes des abus, et infligé près de 4 milliards de dollars d’amendes. Ce n’est pas tout à fait par hasard que des patrons comme Zuckerberg, Musk et Marc Andresseen se sont succédés au micro de Joe Rogan pour dire tout le mal qu’ils pensaient du CFPB et de Lina Khan. Depuis, Trump a limogé les directeurs de ces deux agences.

Les questions de sécurité, de défense et de surveillance constituent un autre front commun assumé de plus en plus publiquement. En septembre dernier, Larry Ellison (Oracle) détaillait sa vision d’une société sous surveillance généralisée. Une idée qu’il défend depuis trois décennies, remise au gout du jour en vantant les nouvelles capacités permises par l’IA. Microsoft, Google et OpenAI ont été critiqués pour leur implication dans le génocide à Gaza. La société Anduril de Thiel vient de signer des partenariats avec OpenAI pour obtenir des contrats militaires. Sam Altman franchit ainsi une ancienne ligne rouge d’OpenAI, initialement conçue comme une entreprise à but non lucratif, fonctionnant sur le principe open source du logiciel libre en se tenant à l’écart du secteur militaire.

Toutes ces initiatives s’inscrivent dans un projet global et publiquement assumé. Marc Andresseen admet, comme les patrons des géants de l’IA, avoir pour but de remplacer un maximum d’emplois par de l’IA pour provoquer un affaissement généralisé des salaires. À cette vision dystopique s’ajoute la promotion de la surveillance de masse, de la monétisation à outrance de nos données personnelles et de la privatisation de l’espace. Un développement qui, à en croire tant l’ancien patron de Google que Bill Gates, doit s’accélérer malgré la crise climatique, qui ne sera résolue que par la technologie et le développement d’une IA supra-humaine…

Premières victoires, premières difficultés

Avec l’élection de Donald Trump, les patrons et financiers de la Silicon Valley ont obtenu ce qu’ils voulaient. L’appréciation des valeurs boursières sur lesquelles reposent leurs fortunes leur a assuré un retour sur investissement immédiat, tout comme la flambée du Bitcoin auquel nombre d’entre eux sont exposés. Au même moment, Trump offrait aux principaux barons de la tech un accès sans précédent aux cercles de pouvoir de Washington.

Marc Andresseen place de nombreux alliés à des postes clés. Peter Thiel dispose de son protégé au cœur du pouvoir, en la personne du vice-président JD Vance, dont il finance la carrière depuis des années. Mais c’est Elon Musk qui est parvenu à tirer des bénéfices sans précédent de son rapprochement avec Donald Trump. Non content d’être le seul individu extérieur à avoir été inclus sur la photo de famille post-électorale, il a obtenu un quasi-ministère sans avoir à se soumettre au processus de nomination sanctionné par le Congrès, avec les auditions sous serment qui l’accompagne. En effet, Trump a renommé par décret l’agence responsable du numérique créé par Obama, le « DOGE ». Ses prérogatives sont larges et définies de manière floue, mais permettent à Elon Musk d’obtenir un accès privilégié aux informations détenues par les administrations fédérales. Il a déjà commencé à utiliser cette agence pour réaliser une sorte de mini-putch inspiré de sa prise de contrôle désastreuse de Twitter et placer des alliés au cœur de l’administration, en plus de jeunes gens non diplômés et inexpérimentés. Sans provoquer de protestation au sein du Parti républicain.

La famille Trump et Elon Musk, photo Kai Trump via Twitter.

Fin décembre 2024, alors que Trump n’était pas encore investi président, le Congrès devait voter une loi de financement de l’État fédéral pour éviter un gel du fonctionnement de l’État. Le texte budgétaire résultait de plusieurs mois de négociations entre démocrates et républicain. Sous prétexte de vouloir « réduire le gaspillage de l’argent public », Musk a mené une intense campagne de lobbying pour faire échouer le vote, utilisant sa plateforme X pour demander à ses abonnés de téléphoner à leurs élus tout en menaçant ces derniers de trouver des adversaires bien financés face à eux lors des primaires aux élections de mi-mandats. Trump, qui espérait obtenir par ce chantage la levée du plafonnement de la dette et ainsi affaiblir la capacité de blocage des démocrates pour la suite de son mandat, s’est rangé derrière Musk.

Suite à la capitulation des élus républicains, le texte a été bloqué au Congrès. Pour éviter un « shutdown » du gouvernement la veille des fêtes de fin d’année, démocrates et républicains se sont rapidement mis d’accord pour voter un prolongement du budget incluant les priorités négociées auparavant. Mais de nombreux compromis qui avaient été inclus dans le texte initial ont été abandonnés. Dont l’amendement protectionniste vis-à-vis de la Chine qui menaçait directement les intérêts de Tesla, et donc d’Elon Musk. Ce dernier a obtenu ce qu’il voulait, contrairement à Donald Trump.

Le second point de tension a concerné le débat sur le sort des visas H1B, ces permis de travail soumis à un quota et réservés aux travailleurs diplômés sponsorisés par une entreprise désirant les embaucher. La Silicon Valley utilise ces visas pour importer de la matière grise à moindres frais, exerçant au passage une pression à la baisse sur les salaires des ingénieurs américains. Parce que l’essentiel des bénéficiaires de ce programme est issu de l’Inde et de l’Asie, les idéologues d’extrême droite proches de Trump veulent supprimer le programme. Inversement, Musk a pris position en faveur de ce dispositif, dont il a bénéficié lui-même par le passé. Sur X (ex-Twitter), il a argumenté que le secteur de la tech américain en dépend pour son succès, avant d’ajouter qu’il se battrait de toutes ses forces pour ce programme.

Le second point de tension concerne les visas H1B. La Silicon Valley utilise ces visas pour importer de la matière grise à moindres frais ; les idéologues d’extrême droite proches de Trump veulent supprimer le programme.

Cette sortie lui a attiré les foudres de la base militante pro-Trump et d’idéologues comme Stephen Miller (le monsieur immigration de Trump) et Steve Bannon. Musk s’est pris un retour de bâton inhabituel par l’intensité et la violence, bien que Trump soit intervenu dans le débat en faveur du programme H1B. Depuis, Musk a tenté de se réconcilier avec la base MAGA en soutenant des figures d’extrême droite au Royaume-Uni et en Allemagne, tout en commençant à censurer méthodiquement de nombreux comptes X qui l’avaient pris à parti.

La dernière friction interne est intervenue dès l’annonce en grande pompe d’un plan d’investissement de 500 milliards dans l’Intelligence artificielle, lors d’une conférence de presse organisée le lendemain de la passation de pouvoir. Flanqué des PDG d’OpenAI (le grand rival de Musk), Oracle et SoftBank, Trump a vanté le projet « Stargate ». Musk s’en est aussi pris au consortium via X. Si les conseillers de Trump étaient furieux de l’attitude du patron de Tesla, accusé de « saboter Trump », ce dernier a balayé ce conflit interne d’un haussement d’épaules en concédant simplement que « Musk déteste un des dirigeants qui fait partie du deal ».

Ces quelques exemples montrent à quel point l’alliance entre Trump et la Silicon Valley revêt un caractère inédit, tout en soulignant la fragilité de l’attelage. La coalition Trump est constituée de factions aux intérêts souvent contradictoires, lorsqu’ils ne sont pas des concurrents majeurs.

Tous conservent néanmoins un but commun : dépecer l’État social et démanteler les agences de régulation fédérales, tout en accaparant l’argent public via des contrats juteux et mobiliser la doctrine « America First » de Trump à leurs avantages. À ce titre, la récente directive produite par la direction du renseignement pour demander aux différentes agences (CIA, NSA, FBI…) de coopérer plus étroitement et en prenant davantage de risques avec les entreprises de la Silicon Valley confirme que l’on entre dans une nouvelle ère. Celle de la fusion entre l’extrême droite trumpiste et la Silicon Valley.

Pourquoi la bulle de l’intelligence artificielle est condamnée à exploser

Serveurs dans un datacenter. © Taylor Vick

Depuis le lancement de ChatGPT il y a bientôt deux ans, les grandes entreprises de la Silicon Valley ne jurent plus que par l’intelligence artificielle. Pendant un an et demi, leurs promesses d’une nouvelle révolution technologique grâce à l’IA ont séduit les investisseurs, qui ont parié énormément d’argent sur ces outils. Mais la bulle spéculative est condamnée à exploser, un premier avertissement ayant eu lieu sur les marchés financiers en août. Dès les prochaines années, les quantités de données et de ressources physiques nécessaires à l’IA risquent en effet de manquer. [1]

Début août, les sept plus grandes entreprises technologiques américaines ont perdu une valeur combinée de 800 milliards de dollars, les investisseurs ayant liquidé leurs actions dans un mouvement de panique soudain face à l’imminence d’une récession aux États-Unis et à la prise de conscience progressive que la « révolution de l’IA » tant attendue avait été spectaculairement surestimée. Ce marasme boursier est venu couronner 18 mois extraordinaires qui ont suivi le lancement, en décembre 2022, du modèle génératif de langage ChatGTP appartenant à la société Open AI, dont la capacité à produire des écrits et des conversations semblables à ceux d’un être humain a surpris le monde entier. Malgré un rebond partiel des valorisations en bourse depuis août, le sentiment de malaise qui s’installe, à savoir que l’IA ne sera pas à la hauteur de l’extraordinaire battage médiatique qu’elle a suscité, ne s’est pas dissipé pour autant. Goldman Sachs et la banque ING ont ainsi récemment publié des rapports mettant en garde contre les coûts excessifs et les avantages limités de l’IA.

Cet engouement de la financer pour l’IA avait fini par atteindre des sommets caricaturaux. De vaines spéculations sur une éventuelle « conscience » des machines et la perspective imminente d’un superordinateur tout-puissant – ce que l’on appelle l’intelligence artificielle générale – ont été incessamment alimentées par des prophètes de l’IA tels que Sam Altman, PDG d’OpenAI. Cela a bien sûr contribué à faire grimper les valorisations de sa propre entreprise et bien d’autres dans le domaine de la technologie à des niveaux extraordinaires. Le concepteur de puces Nvidia, dont les semi-conducteurs et cartes graphiques ont été réorientés des jeux vidéo vers les applications d’intelligence artificielle, est ainsi brièvement devenu, en juin dernier, l’entreprise la plus valorisée au monde, ses puces essentielles au processus d’« entraînement » des modèles d’intelligence artificielle à partir d’énormes quantités de données étant en pénurie face à la demande.

Aujourd’hui, 5,35 milliards de personnes sont en ligne, soit plus que les 4,18 milliards qui ont accès à des toilettes à domicile.

Pour comprendre pourquoi l’IA est une bulle, il est essentiel de comprendre qu’elle n’est qu’une extension de technologies déjà existantes et très familières. Depuis deux décennies, le modèle économique de base du secteur technologique repose sur la collecte et le traitement d’énormes quantités de données produites par les utilisateurs, ce qui permet d’obtenir des informations précieuses sur le comportement des consommateurs, qui sont vendues aux professionnels du secteur publicitaire. Avec l’arrivée des smartphones à la fin des années 2000, toute une infrastructure technologique s’est rapidement mise en place pour permettre la collecte impitoyable, minute par minute, des données des utilisateurs. Aujourd’hui, 5,35 milliards de personnes sont en ligne, soit plus que les 4,18 milliards qui ont accès à des toilettes à domicile.

Cette agrégation ahurissante de données humaines constitue une partie de la matière première de l’IA. Associée à des processeurs spécialisés, du type de ceux fournis par Nvidia, la quantité de données est aujourd’hui si importante que de nouvelles applications jusqu’alors irréalisables peuvent être développées – la plus frappante étant la création de logiciels informatiques apparemment capables de tenir une conversation. À nos yeux humains, les résultats peuvent paraître presque magiques : l’ordinateur intelligent pouvant converser avec un humain est un vieux rêve de science-fiction. Dans le même temps, d’incroyables créations artistiques sont à la portée de quelques clics. Il n’est donc pas surprenant que l’IA ait suscité un engouement aussi extraordinaire. Mais elle reste, fondamentalement, une extension de l’industrie de l’extraction de données dans laquelle nous nous sommes tous empêtrés au cours des deux dernières décennies.

Selon le Wall Street Journal, l’IA sera à court de données provenant de l’ensemble de l’internet et produites par l’ensemble de l’humanité dès 2026.

Le volume de données extraites est désormais tel que des résultats relevant de la science-fiction semblent aujourd’hui possibles. Mais parce qu’il s’agit d’une industrie extractive, et parce qu’elle doit fonctionner à une échelle aussi vaste, il y a des limites strictes à ce que les technologies actuelles de l’IA peuvent faire. C’est ainsi que la valorisation boursière des entreprises technologiques dépasse largement la réalité économique, créant les conditions d’une bulle spéculative classique. 

Le premier obstacle est l’épuisement de la matière première que constituent les données humaines. Selon un calcul publié dans le Wall Street Journal, l’IA sera à court de données provenant de l’ensemble de l’internet et produites par l’ensemble de l’humanité dès 2026. Les entreprises spécialisées dans l’IA ont donc pris l’habitude d’utiliser des données générées par l’IA pour essayer d’entraîner leurs machines ! Mais cela produit ce qu’un récent article universitaire a appelé « l’effondrement du modèle » : L’IA cesse de fonctionner lorsqu’elle doit se nourrir d’elle-même. Et plus l’internet sera inondé de « déchets d’IA », moins l’IA sera utile. Un scénario qui met en doute la survie même de l’IA selon le spécialiste Corey Doctorow.

À l’autre extrémité de la machine d’extraction de données se trouve l’infrastructure matérielle nécessaire pour faire fonctionner ses algorithmes. Cependant, plus les ordinateurs qui exécutent les logiciels sont alimentés en données, plus ils deviennent gourmands en ressources. Les centres de données se multiplient dans le monde entier pour répondre à la demande : Microsoft ouvre actuellement un nouveau datacenter quelque part sur la planète tous les trois jours. Or, ces datacenters exigent d’énormes ressources. Ainsi, un centre de données moyen de Google consomme autant d’électricité que 80.000 ménages. En Pennsylvanie, un complexe de serveurs d’Amazon dispose ainsi d’une centrale nucléaire dédiée à son alimentation en électricité. Pour maintenir au frais ces serveurs bourdonnants, il faut d’énormes volumes d’eau : un nouveau centre de données à grande échelle consomme en général la même quantité d’eau par jour que 40.000 personnes. Il n’est donc pas étonnant que, du Chili à l’Irlande, les protestations contre ces monstres commencent à se multiplier. En Grande-Bretagne, les plans d’expansion rapide de l’IA récemment annoncés par le gouvernement travailliste risquent de se heurter de plein fouet à des réserves d’eau déjà très sollicitées.

Il existe donc des limites strictes à ce que cette génération d’IA est susceptible d’apporter et cela signifie que la bulle éclatera de nouveau : la réalité ne peut pas être à la hauteur du battage médiatique. Avant qu’elle ne s’effondre, certaines applications réellement utiles dans le domaine médical, par exemple, seront supplantées par la production de « déchets » à but lucratif et, plus inquiétant encore, par l’extension rapide des technologies de l’IA à des fins militaires, comme le tristement célèbre système israélien « Lavender », utilisé pour générer des milliers de cibles pour les forces de défense israéliennes dans la bande de Gaza.

Alors que le changement climatique s’aggrave et que les contraintes en matière de ressources se font sentir partout dans le monde, il est plus que temps de nous poser de sérieuses questions plus difficiles sur l’engagement extraordinaire que nous prenons en faveur de technologies de plus en plus axées sur le profit et la guerre.

[1] Article de notre partenaire Novara Media, traduit par Alexandra Knez.

Comment Thierry Breton a tué Atos, fleuron du numérique français

ATOS LVSL Thierry Breton Edouard Philippe Le Vent Se Lève industrie
© LHB pour LVSL

Récemment encore qualifié de fleuron industriel français, le navire Atos semble partir à la dérive. Malgré le plan de sauvetage présenté le 9 avril par la direction, son démantèlement ne peut être exclu dans un avenir proche. Ruiné par des acquisitions hasardeuses sous la direction de Thierry Breton, désormais commissaire européen, le groupe a été négligé par l’État pendant des années, alors qu’il prenait l’eau de toute part. Plusieurs des activités d’Atos sont pourtant éminemment stratégiques pour la souveraineté numérique française, ou du moins ce qu’il en reste.

Cybersécurité, supercalculateurs, intelligence artificielle, systèmes de communication ultra-sécurisés, software pour de nombreux services publics (carte vitale, CAF, impôts, centrales nucléaires, armée, EDF…) ou encore hébergement de cloud... Quasi-inconnu du grand public, le groupe Atos est une des dernières gloires de l’informatique français. Sans doute plus pour très longtemps : ces trois dernières années, le groupe a accumulé les pertes financières et sa valorisation boursière a été divisée par dix. Dos au mur, la multinationale a urgemment besoin de cash pour éponger ses dettes colossales. Pour comprendre comment cette entreprise plutôt dynamique s’est effondrée, un petit retour en arrière s’impose.

La folie des grandeurs de Thierry Breton

Après un passage au ministère de l’économie entre 2005 et 2007, où il supervise notamment la privatisation des autoroutes et de France Télécom, Thierry Breton intègre les organes de direction du groupe Atos en 2008. Adoubé par les élites politiques et économiques pour sa reprise d’entreprises en difficulté tels que Bull (supercalculateurs), Thomson (électronique grand public) et France Télécom, son profil ravit les actionnaires. Dès l’annonce de sa nomination en tant que Président directeur général (PDG), le cours en bourse de l’action de l’entreprise grimpe de près de 8 %. Il faut dire que Breton dispose alors déjà d’un solide carnet d’adresses : invité sur le yacht de Bernard Arnault, ce « personnage d’exception » selon Jean-Pierre Raffarin est également proche de François Baroin, d’Alain Minc et de François Bayrou et peut compter sur les liens tissés en tant que senior adviser de la banque d’affaires Rothschild.

Son bilan réel à la tête des entreprises qu’il a dirigées est pourtant moins reluisant. C’est lui qui initie notamment le plan social brutal de France Télécom, amplifié par son successeur Didier Lombard, qui aboutira à une vague de suicides. Au sein de Thomson, qu’il dirige de 1997 à 2002, sa gestion correspond à une embellie de courte durée, mais aussi à des rachats massifs d’autres sociétés que le groupe ne parvient pas à intégrer. Un an après son départ, la société est au bord du gouffre. Un scénario qu’il va reproduire en tant que PDG d’Atos.

Après deux premières années de gestion des affaires courantes d’une entreprise plutôt performante, il initie à partir de 2011 une frénésie de rachats, pour l’essentiel dans le domaine des services informatiques aux entreprises. Le groupe Siemens IT est ainsi racheté en 2011 pour un montant de 850 millions d’euros, faisant entrer Atos dans une nouvelle dimension. Devenu un acteur de référence de la vente de services informatiques, Atos doit désormais assumer sa taille portée à 70.000 salariés. S’ensuivent les rachats de Bull, Xerox IT, Unify et Anthelio Healthcare Solutions pour des montants successifs de 620 millions, 1,05 milliards, 340 millions et 275 millions d’euros entre 2014 et 2016.

Afin de rassurer les marchés financiers, la direction distribue 2 milliards d’euros à ses actionnaires. Une opération qui fragilise Atos, mais qui ravit la presse financière, notamment la prestigieuse Harvard Business Review, qui classe Thierry Breton parmi les 100 patrons les plus performants du monde en 2017 et en 2018.

La folie des grandeurs de Thierry Breton se poursuit en 2017 : après avoir tenté en vain d’absorber Gemalto (leader mondial des cartes à puces) pour 4,3 milliards d’euros, Atos s’offre l’indien Syntel (services informatiques aux entreprises) pour 3,4 milliards. Cette opération très coûteuse commencera à susciter la circonspection du monde financier quant à la bonne gestion du groupe et l’accumulation d’une dette devenant préoccupante de jour en jour.

Afin de rassurer les marchés et d’amorcer son désendettement, la direction annonce la cession de sa filiale Worldline (paiement digital), qui donnera lieu à la distribution à ses actionnaires de 23 % de son capital ; un cadeau chiffré à 2 milliards d’euros. Une opération qui fragilise Atos, mais qui ravit la presse financière, notamment la prestigieuse Harvard Business Review, qui classe Thierry Breton parmi les 100 patrons les plus performants du monde en 2017 et en 2018.

Tactique financière contre stratégie industrielle 

Les premiers signes de faiblesse apparaissent en 2018, lorsque les rapports annuels de l’entreprise mentionnent un endettement net s’établissant à 4,4 milliards d’euros, plus du double de l’année précédente. Cette explosion de la dette, mise en perspective avec le nombre important d’acquisitions d’entreprises existantes suggère un usage immodéré du levier du crédit pour faire croître démesurément le chiffre d’affaires de l’entreprise. Mais cette croissance est trop rapide pour correctement intégrer les nouvelles entités au sein du groupe.

Par ailleurs, la trajectoire d’Atos est jugée hasardeuse : l’entreprise a opéré plusieurs rachats dans le secteur de l’infogérance (maintenance de parcs informatiques et des serveurs d’entreprise) alors que celui-ci connaissait un ralentissement avéré. En cause, la concurrence toujours plus forte des fournisseurs d’espaces de stockages décentralisés (« cloud ») tels que Microsoft, Amazon ou Google. Malgré la connaissance de la faible rentabilité de cette activité et la volonté énoncée de se recentrer vers des domaines plus rentables, Atos annonce en janvier 2021, à la surprise générale, sa volonté de racheter le spécialiste de l’infogérance DXC Technologies, lui aussi en perte de vitesse, pour un montant de 10 milliards de dollars. 

Face à l’accueil glacial de la nouvelle par les marchés financiers et au rejet de ses comptes moins de 3 mois plus tard compte tenu de la présence d’erreurs significatives de comptabilisation du chiffres d’affaires de plusieurs de ses filiales, le groupe fera finalement machine arrière. En outre, Atos est contraint de reconnaître à deux reprises (en 2022 et 2023) que la valeur réelle des entreprises rachetées au prix fort était en réalité bien plus faible que ce qui était inscrit à son bilan, conduisant au total à une dépréciation des actifs de… 4,4 milliards d’euros.

Entre-temps, Thierry Breton avait quitté le navire en 2019 pour rejoindre la Commission européenne, sans prévenir les salariés et vendant d’un seul coût ses actions pour un total de 40 millions d’euros brut, auxquels s’ajoute une retraite chapeau de 14 millions d’euros brut, versée sur plusieurs années.

Si Breton rejette toute responsabilité dans la descente aux enfers d’Atos, le fait que la chute du groupe débute peu de temps après son départ laisse planer le doute.

Si Breton rejette toute responsabilité dans la descente aux enfers d’Atos, le fait que la chute du groupe débute peu de temps après son départ laisse planer le doute. Très vite, le navire prend l’eau de toute part : six directeurs généraux se succèdent en à peine trois ans, tandis que les consultations auprès de cabinets de conseil (McKinsey, E&Y, BCG…) ou banques d’affaires (Rothschild) se multiplient. Chargés de proposer des restructurations permettant de remettre l’entreprise sur pied, ces consultants coûtent très cher à l’entreprise : entre 150 et 200 millions d’euros entre 2021 et 2023 selon la CGT Atos.

En 2022, le groupe annonçait devoir se délester dans les quatre années à venir de sa branche Tech Foundations, rassemblant les activités déficitaires, pour se concentrer sur celles en croissance telles que la cybersécurité, la construction de supercalculateurs et l’analyse de données massives (Big data). Si ce choix peut sembler pertinent sur le plan financier, il ne l’est pas sur le plan industriel. Ainsi, il est illogique de vendre un supercalculateur sans pouvoir fournir la prestation d’hébergement des données qui y seront traitées. Finalement, les discussions autour de cette vente n’ont pas abouti, le milliardaire Daniel Kretinsky ayant jeté l’éponge. Les différentes options de démantèlement successivement envisagées ont également recueilli l’opposition de la CGT Atos, qui a présenté un contre-projet chiffré visant à faire du groupe un « véritable socle technologique en matière de souveraineté numérique » française.

Administrateurs fantômes et État attentiste

Au vu du portefeuille de technologies vitales pour l’État détenues par Atos, ce projet semble bien plus pertinent que les manœuvres financières de manageurs court-termistes. Alors qu’EDF vient de faire appel à Amazon pour héberger une partie du système d’information consacré aux pièces de son parc nucléaire, ravivant les craintes d’un nouvel espionnage industriel issues de l’affaire Alstom, Atos dispose pourtant de nombreux services informatiques essentiels, des centrales nucléaires au compteur électrique intelligent Linky,  à travers sa filiale Worldgrid. La filiale BDS dispose quant à elle d’une activité de pointe en matière de cybersécurité, suscitant un premier temps l’intérêt d’Airbus qui s’est rapidement retiré. D’autres filiales fournissent les supports des téléphones sécurisés des armées françaises ou encore des systèmes informatiques régissant le fonctionnement des remboursements de l’assurance maladie, de la CAF, des douanes et du site internet permettant à l’État de prélever l’impôt.

Malgré l’importance stratégique de ces technologies et le fait que les péripéties boursières sont connues depuis 2018, l’État a maintenu un désintérêt constant pour la santé du groupe. Une inaction d’autant plus troublante étant donné la présence d’un allié de taille au sein du conseil d’administration entre novembre 2020 et novembre 2023 : l’ancien Premier ministre Edouard Philippe. Rémunéré plus de 70.000 euros par an pour suivre l’activité d’Atos, il semble s’être contenté d’assister passivement à la spectaculaire division par dix du prix de l’action du groupe.

Rémunéré plus de 70.000 euros par an pour suivre l’activité d’Atos, Edouard Philippe semble s’être contenté d’assister passivement à la spectaculaire division par dix du prix de l’action du groupe.

Fin 2023, plusieurs parlementaires de tous bords finissent néanmoins par saisir le taureau par les cornes. Un amendement du député socialiste de l’Eure Philippe Brun pour nationaliser les filiales Worldgrid et BDS est voté en commission des finances pour éviter de voir ces technologies critiques passer sous pavillon étranger. Préférant s’en remettre à la main invisible du marché, le gouvernement s’oppose farouchement à cette proposition et censure l’amendement lors du passage en force du budget 2024 via le recours à l’article 49-3 de la Constitution. Début avril 2024, une nouvelle offre de rachat est annoncée par la direction. Portée par l’actionnaire principal d’Atos David Layani et soutenue par le fonds de private equity Butler Capital Partnerscréé par un énarque passé chez Goldman Sachs – celle-ci est présentée par ses promoteurs comme la seule option « au service de la souveraineté européenne et de la défense de nos intérêts nationaux ». Une affirmation qui ne manque pas d’air venant d’un pur financier et d’un chef d’entreprise qui use des mêmes méthodes que Breton pour faire grossir son groupe

Finalement, sous la pression d’un scandale grandissant en pleine campagne européenne, et alors que Thierry Breton se verrait bien remplacer Ursula Von der Leyen à la tête de la Commission européenne, le gouvernement finit par réagir. Le 28 avril, Bruno Le Maire envoie une lettre d’intention annonçant l’intérêt de l’État pour racheter les activités jugées stratégiques, par l’intermédiaire de l’Agence des Participations de l’État. Les supercalculateurs utilisés pour simuler les essais nucléaires français, les serveurs liés à l’intelligence artificielle, l’informatique quantique et divers produits de cybersécurité seraient concernés, pour un coût total compris entre 700 millions et un milliard d’euros. Si le revirement total du gouvernement sur ce dossier est une bonne nouvelle, la nationalisation n’est pas encore faite. Par ailleurs, elle illustre une nouvelle fois le fameux adage « collectivisation des pertes, privatisation des profits ». Espérons néanmoins qu’elle serve de leçon pour éviter de reproduire encore les mêmes erreurs à l’avenir.

L’intelligence artificielle au cœur du massacre à Gaza

© LHB pour LVSL

Le média israélien +972mag a révélé l’usage déterminant de deux programmes d’intelligence artificielle (IA) lors de la campagne de bombardement contre la bande de Gaza. Le premier, Lavender, sert à sélectionner des cibles en attribuant à chaque Gazaoui une probabilité qu’il soit affilié à la branche armée du Hamas. Le second, Where’s Daddy ? (« où est Papa ? »), permet de déterminer lorsque ces cibles rejoignent leur domicile. C’est seulement à ce moment qu’une personne intervient dans la chaîne décisionnelle : vingt secondes pour valider une frappe aérienne sur la résidence, le plus souvent avec des bombes non-guidées rasant des immeubles entiers. Pour un simple homme de main, jusqu’à vingt victimes collatérales étaient autorisées. Pour un commandant, plusieurs centaines. Une rupture avec le droit de la guerre et le principe de proportionnalité, aggravée par le fait que l’IA commet de nombreuses erreurs à tous les niveaux de la chaine décisionnelle. Retour sur les implications d’une enquête précise et détaillée.

« L’accent, dans cette opération, a été mis sur l’ampleur des dégâts, pas sur la précision des frappes » déclarait le 10 octobre 2023 le porte-parole de l’armée israélienne. Pour défendre le nombre inédit de victimes civiles causé par l’offensive contre Gaza en réponse à l’attaque terroriste du 7 octobre, le gouvernement israélien et ses nombreux relais ont répété que de telles pertes résultaient de l’emploi de bouclier humain par le Hamas. Cet argument vient de voler en éclat.

Dans une longue enquête, le média indépendant israélien +972mag détaille comment l’armée a utilisé l’intelligence artificielle pour cibler délibérément et massivement des civils. Ces révélations reposent six sources militaires israéliennes. +972mag a déjà été à l’origine de révélations majeures sur le conflit et l’auteur Yuval Abraham, basé à Jérusalem, est un journaliste travaillant fréquemment pour des médias américains. Les autorités israéliennes n’ont apporté qu’un démenti partiel reposant sur des affirmations contredites par des déclarations antérieures.

En plus des sources militaires, dont certaines assument pleinement l’usage de ces outils et ont perdu des proches dans l’attaque terroriste du 7 octobre, l’enquête cite trois éléments susceptibles de corroborer ses affirmations. D’abord un livre publié en 2021 par le responsable de l’unité de renseignement d’élite « Unit 8200 » qui détaille le concept du programme d’Intelligence artificielle incriminé et justifie son usage, comme l’avait déjà rapporté le quotidien israélien Haaretz.

Deuxièmement, une conférence tenue en 2023 à l’université de Tel-Aviv par des officiers du renseignement, où ils avaient détaillé, à l’aide de PowerPoint, le fonctionnement du programme.  Enfin, l’enquête note que ses conclusions permettent d’expliquer le nombre important de familles entièrement tuées lors des premières semaines de bombardements et de confirmer les révélations de CNN qui affirmaient qu’une munition sur deux employée à Gaza était une dumb bomb (« bombe idiote » ou non-guidée). Ces différents éléments expliquent le crédit apporté à l’enquête par de nombreuses grandes rédactions occidentales – malgré son peu d’écho médiatique.

Lavender :  comment bombarder des cibles à leur domicile

L’enquête de Yuval Abraham est divisée en six parties qui décrivent chaque étape menant au bombardement volontaire d’un nombre disproportionné de civils, ce qui constituerait un cas flagrant de crime de guerre. Tout commence par l’identification des cibles potentielles. Elle est effectuée par Lavender, un programme informatique fonctionnant à l’aide du deep learning [« apprentissage profond » : une intelligence artificielle évolutive, modifiant ses algorithmes en fonction des données qu’elle capte NDLR].

Slide PowerPoint destiné à présenter le programme Lavender à l’Université de Tel-Aviv, obtenue par Yuval Abraham et reprise dans son enquête

En entrée, le programme reçoit deux types de données : des très larges quantités d’information collectées sur les habitants de Gaza par le système de surveillance de masse du renseignement israélien et les éléments de profils-types de combattants du Hamas connus des services d’espionnage (quel type d’usage font-ils de leurs téléphones portables ? où se déplacent-ils ? avec qui interagissent-ils ? Etc).

Le programme a ensuite été entraîné à reconnaître les comportements et indices propres aux membres du Hamas pour les comparer à ceux collectés sur le reste de la population. Le simple fait d’être dans un groupe Whatsapp avec une personne suspecte est un motif incriminant, comme recevoir un paiement du Hamas, avoir appartenu à ce groupe par le passé ou posséder l’ancien appareil électronique d’un suspect.

L’algorithme attribue à chaque habitant de Gaza un score de 1 à 100 représentant sa probabilité d’être affilié à la branche armée du Hamas. Les services de renseignements déterminent ensuite un score minimal à atteindre pour être placé sur la kill list et devenir une cible. La limite d’âge de 17 ans ayant été supprimée, des enfants ont été ciblés, explique l’une des sources de l’enquête.

Comme pour tout programme d’intelligence artificielle de cette nature, les erreurs sont courantes. Dans au moins 10 % des cas, Lavender fiche des « innocents ». Parmi les causes fréquentes, l’enquête cite le fait d’avoir le même nom ou surnom qu’un membre de la branche armée du Hamas, ou d’interagir avec le mauvais téléphone portable. Une fois validée, la cible est placée sur l’agenda de bombardement de l’armée. Une seule intervention humaine a lieu avant d’autoriser la frappe : une vérification visant à confirmer que la cible est bien un homme (la branche armée du Hamas n’employant pas de femmes). Selon l’enquête, cette vérification prend vingt secondes tout au plus.

« Si une cible donne son téléphone à son fils, son frère ou juste un inconnu, cette personne sera bombardée dans sa maison avec toute sa famille. Ça arrive souvent. C’est comme cela qu’ont été commises les principales erreurs », selon une des sources cites par l’enquête.

L’étape suivante consiste à localiser la cible. C’est là qu’intervient un second programme d’intelligence artificielle, au nom quelque peu obscène : Where’s Daddy ? (« où est Papa ? »). Le programme utilise les différentes sources d’informations et données disponibles pour déclencher une alerte lorsque « Papa » est rentré chez lui. C’est uniquement à ce moment qu’une frappe aérienne est ordonnée. Il peut s’écouler de nombreuses heures entre l’ordre et l’exécution de la frappe. La cible a parfois quitté son logement lorsque le bâtiment est détruit, tuant les voisins et la famille sans supprimer le suspect.

La principale raison citée pour frapper les cibles à leur domicile, où aucune activité militaire n’a lieu, est qu’il est plus facile de les localiser dans leurs logements qu’à l’extérieur du domicile familial. Cela découle du fait que chaque Gazaoui possédait une adresse physique associée à son profil. Bien entendu, si l’adresse n’a pas été mise à jour ou que l’individu a déménagé, des « innocents » et leurs voisins périssent pour rien, précise une source citée par l’enquête.

Where’s Daddy ? : bombes non-guidées et dommages collatéraux assumés

L’armée israélienne dispose de différents types de bombes et munitions. Les missiles tirés depuis les drones sont capables d’une très haute précision et causent des dégâts limités, ce qui explique pourquoi ils sont en priorité utilisés contre des véhicules ou des piétons. Les bombes conventionnelles guidées permettent de cibler un appartement précis, dans un immeuble ou un étage particulier d’une maison. Les bombes non-guidées et « anti-bunker » d’une tonne, quant à elles, disposent d’un pouvoir de destruction largement supérieur. Au minimum, elles permettent de raser un bâtiment entier. Les plus grosses peuvent sévèrement endommager un pâté de maisons.

L’essentiel des cibles identifiées par Lavender étaient des simples militants ou combattants du Hamas sans responsabilités. Pour éviter de « gaspiller » des munitions précieuses et coûteuses sur de la « piétaille », ces cibles ont été systématiquement visées avec des bombes non-guidées. Ce qui signifie que pour tuer un membre présumé du Hamas, une maison ou un appartement entier est détruit, ensevelissant sous les décombres la famille et les voisins de la cible.

L’enquête révèle que l’armée acceptait de tuer entre dix et vingt « innocents » par membre présumé du Hamas. Pour les commandants, responsables et officiers, ce chiffre pouvait monter à plusieurs centaines. Ainsi, pour tuer Ayman Nofal, le commandant du bataillon de Gaza centre, un quartier entier a été détruit par plusieurs frappes simultanées (entre seize et dix-huit maisons rasées). Pas moins de trois cents pertes civiles avaient été autorisées.

Pour tuer Oussama Ben Laden, Yuval Abraham note que les États-Unis avaient fixé la limite à trente pertes civiles. En Afghanistan et en Irak, les dommages collatéraux autorisés pour supprimer un membre de base des organisations terroristes étaient « simplement de zéro ».

L’autre problème lié à cette tolérance inédite pour les pertes civiles et qu’elles sont souvent mal estimées. Les femmes et enfants ne faisant pas l’objet de traçage aussi précis, le nombre de victimes potentielles retenu avant d’autoriser une frappe s’est fréquemment révélé inférieur à la réalité. L’armée israélienne a ainsi pu valider des frappes censées tuer un membre du Hamas et quinze femmes et enfants avant de raser un immeuble où se trouvaient deux fois plus de civils. Par exemple, en partant du principe qu’un bâtiment situé dans une zone où des consignes d’évacuations avaient été données était vide ou à moitié vide, sans se donner la peine de vérifier. Et pour ces troupes de base, l’armée ne procédait à aucune vérification post-frappes pour évaluer les dégâts et confirmer la mort de la cible.  

« Uniquement lorsque c’est un haut responsable du Hamas, on suit les procédures d’évaluation post-bombardement. Pour le reste on s’en fout. On reçoit un rapport de l’armée qui confirme si le bâtiment a été détruit, et c’est tout. Nous n’avons aucune idée du niveau des dégâts collatéraux, nous passons immédiatement à la cible suivante. L’objectif est de générer autant de cibles que possible aussi vite que possible. »

Source militaire israélienne citée par l’enquête de +972mag.

Après plusieurs semaines de bombardements intensifs, le tarissement des cibles potentielles a poussé les autorités israéliennes à abaisser le seuil à partir duquel le programme Lavender plaçait une personne sur la kill list. Cet algorithme a également été entraîné à partir des profils de simples fonctionnaires apparentés au Hamas mais ne faisant pas partie de la branche armée, ce qui a considérablement accru le risque pour tout civil gazaoui de se retrouver sur la liste, puisque les comportements suspects ne se limitaient plus à ceux des combattants et leurs soutiens directs.

Au paroxysme de la campagne de bombardement, qui aurait fait plus de 15 000 morts en quatre semaines, Lavender a placé plus de 37 000 personnes sur sa kill list.  

Des implications multiples et préoccupantes

La lecture de l’enquête et les citations des sources dépeignent une profonde perte de repère des autorités et membres de l’armée israélienne, tout en témoignant d’une déshumanisation totale des Palestiniens. Un comble pour une guerre présentée comme un combat existentiel entre la civilisation et la barbarie.

Si l’on résume : un programme ayant recours à l’intelligence artificielle est chargé de générer des cibles sur la base de critères extrêmement vagues, en croisant des données collectées par un gigantesque système de surveillance de masse à la légalité douteuse. Selon ses propres critères contestés en interne, Lavender se trompait au moins une fois sur dix. Cela n’a pas empêché de transmettre la liste de personnes à éliminer à un second programme, Where’s Daddy ?, reposant lui aussi sur des données incomplètes et pas toujours à jour, pour déterminer quand une cible regagnait son domicile. Quelques heures plus tard, une bombe non-guidée d’une tonne était larguée sur la maison où la cible pouvait ne plus se trouver, tuant les habitants du dit immeuble sans distinction. Ces frappes étaient autorisées après un contrôle prenant moins de vingt secondes. Aucune vérification visant à confirmer l’étendue des pertes civiles ou la mort de la cible n’était ensuite menée.

Le choix de viser les combattants présumés du Hamas chez eux, au milieu de leurs familles et de leurs voisins plutôt que lorsqu’ils sont à l’extérieur de leur domicile – et occupés à des activités militaires -, fait voler en éclat l’idée que les pertes civils records seraient dues à l’emploi de boucliers humains par le Hamas. Bien au contraire : c’est l’armée israélienne qui attendait que ses cibles soient au milieu de civils pour les frapper avec des bombes non-guidées et surdimensionnées.

L’autre point sur lequel insiste Yuval Abraham est la contradiction dans l’approche de l’armée israélienne. Pour justifier l’emploi d’armes non-guidées, la quasi-absence de vérification de l’identité de la cible avant la frappe et l’absence d’évaluation de celle-ci après le bombardement, les militaires citent le manque d’intérêt stratégique de la cible. Les bombes guidées et le temps des officiers étaient trop précieux pour être gaspillé sur ce type de cibles à faible valeur militaire. Mais dans ce cas, comment justifier autant de dommages collatéraux sans violer le principe de proportionnalité situé au coeur de droit de la guerre ?

Les révélations posent des problèmes plus larges. La quasi-suppression du facteur humain dans la décision de tuer est généralement considérée comme une ligne rouge, avec laquelle l’État hébreu semble flirter dangereusement. Un élément d’autant plus inquiétant que le gouvernement israélien a déployé des robots en forme de chiens à Gaza et fait un usage massif de drones de combat. En parallèle, le complexe militaro-industriel israélien met en avant l’utilisation de ces outils technologiques sur le champ de bataille comme autant d’arguments de vente à l’international.

Enfin, les révélations de +972mag mentionnent l’emploi de donnée Whatsapp pour cibler des Palestiniens, certains pouvant être simplement pris pour cible pour s’être retrouvé dans un groupe Whatsapp avec un membre du Hamas. Dans le contexte des bombardements indiscriminés et du siège total imposé à Gaza, les groupes de voisins se retrouvant sur des boucles Whatsapp pour coordonner l’entraide ont certainement éclos un peu partout, aggravant le risque de se trouver dans le mauvais groupe au mauvais moment. Ce qui rend l’usage de ces données pour cibler des suspects encore plus problématique. Plus largement, cette enquête pose la question de la collaboration de Meta (ex-Facebook) avec le gouvernement israélien, que soutiennent activement les principaux dirigeants de l’entreprise, et qui ne semble manifestement pas préoccupée par la sécurité de ses clients.

L’intelligence artificielle à l’heure du « risque de génocide »

Le système décrit dans l’enquête de Yuval Abraham n’est plus utilisé à Gaza. Une des principales raisons citées par ce dernier est le fait qu’il n’est plus possible de lier un suspect à sa résidence, l’écrasante majorité des maisons ayant été détruites et leurs habitants transformés en réfugiés. Mais alors que les États-Unis viennent d’approuver une offensive sur Rafah contre la promesse qu’Israël ne réplique pas trop sévèrement contre l’Iran, Yuval Abraham craint que le système soit de nouveau déployé contre la seule ville encore debout, où se sont réfugiés plus d’un million de Palestiniens. Trois mois après l’arrêt de la Cour internationale de justice (CIJ), qui pointe un « risque de génocide » à Gaza, se dirige-t-on vers un crime majeur assisté par ordinateur ?

IA génératives : mort de l’art ou renouveau de la culture ?

© Jason Allen. Peinture conçue avec l’aide de l’application Midjourney et primée lors du concours d’art de la Colorado State Fair.

L’émergence d’IA génératives capables de créer un texte, une image ou un son à partir d’une simple requête a bousculé le monde de la culture. Elle a suscité beaucoup de réactions, dont la majorité est empreinte de fantasmes, de colère ou de confusion, certains déclarant même imminente la mort de l’art. À rebours de ce récit alarmiste, il est possible de défendre l’idée que les IA génératives participeraient à un véritable renouveau de la culture populaire, à condition de lutter contre leur appropriation par les industries culturelles ou l’industrie de la tech.

L’inquiétude des artistes face à l’IA 

Vent de panique international dans le monde de la culture : de nombreux artistes et organisations prennent publiquement position contre les intelligences artificielles dites « génératives » (abrégé GenIA), des nouvelles technologies qui permettent de composer textes, images ou audio grâce à une simple requête formulée en langage naturel [1].

Certains craignent d’être mis de côté par les industries culturelles et de perdre leur emploi, remplacés par des machines. C’est notamment l’un des objets d’une grève exceptionnelle qui a bloqué pendant plusieurs mois l’industrie du cinéma américain. Deux importants syndicats, la SAG-AFTRA (guilde des acteurs) et la WGA (guilde des scénaristes) se sont battus pour obtenir des studios une plus grande sécurité de l’emploi face à la menace grandissante de l’IA qui pourrait, dans un futur très proche, écrire ou mettre en scène des acteurs fictifs pour un prix dérisoire. Les grévistes ont reçu le soutien de nombreuses superstars hollywoodiennes, dont Meryl Streep et Leonardo DiCaprio [2].

D’autres s’indignent de ce que l’activiste et écrivaine Naomi Klein qualifie du « vol le plus important de l’histoire de l’humanité » [3] : l’utilisation par les entreprises d’IA de milliards d’œuvres, sans rétribution ni consentement de leurs auteurs. Les bots de ces entreprises arpentent Internet pour amasser images et textes, les utilisent comme matière brute afin d’entraîner leurs applications de GenIA [4], qui requièrent d’immenses quantités d’exemples pour apprendre à créer à leur tour. Les artistes Kelly McKernan, Sarah Andersen et Kayla Ortiz ont par ailleurs lancé une action légale contre Stability IA, Midjourney et DeviantArt pour violation du droit d’auteur.

Enfin, pour les plus pessimistes, la fin de l’art est proche, provoquée par le « grand remplacement » des artistes par les robots [5], la confiscation de la création par les machines. « Art is dead, dude. It’s over. A.I. won. Humans lost. » [L’art est mort, mec. C’est fini. L’IA a gagné. Les humains ont perdu 6], déclarait en 2022 au New York Times l’artiste Jason Allen, l’un des premiers à avoir remporté un prix d’art avec une image générée par IA.

Il est clair que les GenIA sont de nouvelles forces productives et que leur émergence pourrait transformer radicalement la production d’œuvres d’art.

Il est clair que les GenIA sont de nouvelles forces productives et que leur émergence pourrait transformer radicalement la production d’œuvres d’art, conduisant ainsi à modifier durablement les industries culturelles, le rôle social de l’artiste et les rapports de force dans la chaîne de production artistique. Toutefois, le monde de la culture et ses industries ne sont pas étrangers aux bouleversements liés à l’introduction de nouvelles technologies. Un cas présentant des similitudes avec l’émergence des GenIA est l’introduction d’outils numériques dans la production musicale à partir des années 1980. Ce qu’il s’est alors joué entre les artistes, le public, l’industrie musicale et l’industrie de la tech nous offre un cas d’étude pour analyser les transformations du présent.

En effet, avant les années 1980, produire un disque était cher et nécessitait des investissements conséquents. L’introduction, entre les années 1980 et 2010, d’outils numériques de conception musicale, ont entraîné une baisse drastique du prix de réalisation des albums. Cette tendance connut son point d’orgue avec l’arrivée de logiciels appelés « Digital Audio Workstations »(DAW) qui incluent le studio d’enregistrement dans son entièreté, instruments de musique compris. Un grand nombre de musiciens, amateurs et professionnels, ont alors pu produire des enregistrements de qualité depuis chez eux. Cette démocratisation de l’accès aux outils de production a entraîné une véritable révolution Do it yourself (DIY) dans le monde de la musique [7]. Elle a déstabilisé l’industrie musicale pendant des décennies : les studios d’enregistrement ont perdu leur place privilégiée dans le processus de production des disques, entraînant une crise dans le secteur suivie d’une dégradation des conditions de travail pour les ingénieurs du son, moins payés et contraints de faire plus d’heures pour des studios fragilisés [8]. Si l’industrie s’est restructurée autour du marketing et de la publicité, la création musicale s’est en revanche durablement décentralisée.

Le fantasme de la fin de l’art

Pour en revenir aux GenIA, penser qu’elles provoqueraient la fin de l’art est un fantasme. L’art est une forme d’expression entre des êtres doués de conscience. Les systèmes de GenIA n’ont pas de libre arbitre, contrairement à ce que le mot « intelligence » dans leur nom suggère. Ils ne sont qu’une série de nouveaux outils, à disposition de l’artiste pour exprimer ses intentions.

Le photographe Boris Eldagsen, qui a fait scandale en remportant cette année le prestigieux prix Sony World Photography Awards avec une image générée par IA, décrit ainsi son travail : «[c’est] une interaction complexe […] qui puise dans la richesse de [mes] connaissances en photographie […] [Travailler avec l’IA] ça n’est pas juste appuyer sur un bouton – et c’est fini. Il s’agit d’explorer la complexité du processus, en commençant par affiner des prompts, puis en développant un workflow complexe, et mélangeant des plateformes et des techniques variées. Plus vous créez un tel workflow et définissez des paramètres, plus votre apport créatif devient déterminant » [9]. Un journaliste du magazine WIRED, quant à lui, explique qu’il n’est « pas rare pour une image marquante de nécessiter 50 étapes » [10].

La photographie primée de Boris Eldagsen, conçue avec l’aide d’une IA.

Pas la fin de l’art donc, mais peut-être une nouvelle révolution Do it yourself (DIY) qui affecterait cette fois-ci tous les champs de la création culturelle. Le fondateur de l’entreprise qui distribue le DAW FruityLoops explique le succès de ce logiciel par le fait qu’un utilisateur peut être « opérationnel en quelques secondes » et qu’il est « presque impossible de créer quelque chose qui ne sonne pas » [11]. Les GenIA sont également des outils d’une incroyable accessibilité. Elles permettent à n’importe qui de créer des œuvres d’art, sans avoir à posséder toute une infrastructure de production, sans avoir les compétences techniques pour l’opérer, sans même avoir de compétences artistiques. De plus, il suffit pour les utiliser de posséder un simple téléphone ou ordinateur [12].

C’est précisément dans les champs artistiques qui requièrent des infrastructures de production très lourdes et des budgets conséquents, comme le cinéma et le jeu vidéo, que le changement pourrait être le plus profond. Des startups imaginent déjà comment les GenIA pourraient radicalement démocratiser la production de films en automatisant certaines opérations très coûteuses, et en permettant de tester rapidement différents choix artistiques [13]. En réduisant drastiquement le coût d’entrée dans l’industrie du cinéma, les GenIA pourraient permettre l’émergence de nombreux studios indépendants. À terme, elles pourraient même permettre à des amateurs de produire des films entiers, avec acteurs, décors, mouvements de caméras et effets spéciaux, seuls et depuis leur chambre.

Le potentiel radical des GenIA

Les GenIA, tout comme les DAW, permettent en réalité la numérisation d’une partie des compétences du monde de la culture, sous la forme de machines immatérielles qui peuvent produire plus rapidement, en quantité infinie et pour un coût bien moindre [14]. C’est une nouvelle occurrence de l’automatisation de la production industrielle, un phénomène ancien et intrinsèque au capitalisme qui a déjà touché de nombreux autres secteurs de l’économie. Marx, dans son Fragment sur les machines, décrivait en 1857 comment la quête incessante de productivité menait logiquement à la conception de machines qui intègrent le savoir-faire des travailleurs afin de déplacer ces derniers en périphérie du processus de production, remplaçant ainsi le travail par le capital.

À l’aune de la révolution du numérique, cette théorie a connu un regain d’intérêt grâce à des intellectuels comme Mark Fisher, Jeremy Rifkin, ou encore Paul Mason. Ces derniers postulent généralement que le chômage systémique et la surabondance des biens pourraient créer les conditions d’une émancipation du capitalisme, à condition de découpler le salaire du travail et de transformer les rapports de propriété [15]. En appliquant cette théorie au domaine de la culture, on peut envisager que les GenIA soient en réalité porteuses d’un potentiel radical : celui d’extraire la production culturelle des relations d’échange capitalistes. La posture à adopter face à ces nouvelles technologies serait alors de prendre une part active dans leur développement, afin de s’assurer qu’elles deviennent un bien commun, et profitent ainsi à l’ensemble de la société et non aux seules industries.

On peut envisager que les GenIA soient en réalité porteuses d’un potentiel radical : celui d’extraire la production culturelle des relations d’échange capitalistes.

C’est d’ailleurs le projet de fondations telles qu’EleutherAI ou Mozilla.ai qui développent des GenIA libres, c’est-à-dire qui puissent être inspectées, utilisées, modifiées et redistribuées gratuitement et par n’importe qui. Mozilla, la fondation derrière Firefox, a ainsi annoncé sur son blog la création de Mozilla.ai en début 2023 en déclarant : « Nous croyons que [les gens qui désirent faire les choses autrement], s’ils travaillent collectivement, peuvent créer un écosystème d’IA indépendant,décentralisé et fiable – véritable contrepoids au statu quo [des géants de la tech] » [16].

Cependant, ce potentiel révolutionnaire doit être considéré avec prudence : toutes les GenIA disponibles, y compris certaines présentées comme « libres », restent sous le contrôle d’entreprises telles que Facebook, Microsoft ou Google [17]. Le danger d’un récit qui présente les GenIA comme « outils révolutionnaires capables de démocratiser la création » est qu’il renforce l’image de « disrupteurs bienveillants » dont se parent les géants de la tech. Ces derniers ont une longue histoire d’appropriation des utopies imaginées par les pionniers de la contre-culture du numérique. Paul Mason, cité plus haut, était par exemple invité aux bureaux de Google à Londres en 2015 pour une présentation publique de son livre PostCapitalism, ensuite diffusée sur la chaîne YouTube « Talks at Google ».

Les déclarations de mission de ces entreprises sont, en outre, révélatrices d’une stratégie de communication consistant à faire croire au grand public qu’elles sont une force émancipatrice pour l’humanité. Ainsi, Meta (maison mère de Facebook) déclare sur son site web que sa mission est de « donner à chacun et chacune la possibilité de construire une communauté et de rapprocher le monde ». De son côté, au cours des années 2000, Google clamait son slogan « Don’t be evil », tout en développant une gigantesque entreprise d’extraction de données privées. Une analyse poussée des GenIA ne peut faire l’économie d’une distinction entre ce qui relève d’un véritable projet révolutionnaire et d’une stratégie publicitaire.

Une lutte de pouvoir, qui s’empare des GenIA ?

S‘il est vrai que les technologies ont le pouvoir de transformer la société, la société imprime réciproquement ses relations de domination et ses valeurs sur les technologies. Le débat sur l’impact des GenIA fait souvent l’impasse sur cette réciproque, en n’étudiant ni les acteurs qui dominent le présent ni les rapports de force économiques, sociaux et politiques qui le traversent. Pour saisir dans leur entièreté les enjeux liés aux GenIA, il faut donc interroger les positions des industries culturelles, de l’industrie de la tech et des artistes vis-à-vis de ces nouvelles technologies.

Le business model des géants de la tech consiste à capter l’attention du public afin de la vendre sous forme d’emplacements publicitaires ultra-ciblés [18]. Dans ces conditions, même si les GenIA provoquaient une explosion de productions indépendantes, sous le régime des géants de la tech ces productions seraient oblitérées par celles d’industries culturelles qui bénéficient d’importants budgets leur permettant d’acheter l’attention du public. C’est ce que le précédent de l’industrie musicale semble indiquer.

S‘il est vrai que les technologies ont le pouvoir de transformer la société, la société imprime réciproquement ses relations de domination et ses valeurs sur les technologies.

En démocratisant la production d’œuvres, les GenIA nous feront probablement entrer dans une nouvelle ère de créativité. Si dans le même temps, la société pouvait se libérer des réseaux sociaux publicitaires et de leur logique de compétition pour la visibilité [19], un nouveau rôle pourrait émerger pour les artistes. Puisque le nombre d’œuvres de qualité équivalente créées grâce aux GenIA serait infini, aucun créateur ne pourrait se démarquer. Il ne s’agirait donc plus de créer, pour être célèbre, vu, lu ou entendu par le plus grand nombre. Il s’agirait avant tout de créer pour sa communauté ou pour son plaisir personnel. Ce pourrait être le début d’une réappropriation de la culture comme instrument de structuration du collectif au lieu d’être, comme elle l’est souvent aujourd’hui, le résultat d’une compétition féroce dans un marché mondial de l’attention qui vante le génie et le mérite individuel.

Comme le remarque David Holz, le créateur de l’application de génération d’images Midjourney, cette vision est déjà partiellement en train de se réaliser. D’après lui, « une immense portion de l’usage [de Midjourney] consiste essentiellement en de l’art-thérapie » [20]. De nombreux utilisateurs se servent de la plateforme à des fins de divertissement comme on peindrait en amateur pendant son temps libre. D’autres s’en servent pour créer des images à usage personnel permettant de matérialiser une pensée profonde, un rêve ou un questionnement, et fonctionnant ainsi comme une forme de soin. Un journaliste rapporte, par exemple, avoir vu des images générées pour représenter le « paradis des animaux », en réponse à la mort d’un animal domestique [21].

Les industries culturelles, quant à elles, s’accrochent à leurs parts de marché, souvent soutenus par les artistes eux-mêmes. L’arrivée des GenIA a ainsi démarré un nouveau mouvement pour la défense des « droits d’auteurs » [22], un outil légal dont le nom suggère qu’il a été inventé dans un esprit de protection des créateurs, attirant donc une sympathie immédiate pour ce qui apparaît comme un instrument au service de la culture. La réalité est en fait à nuancer, les droits d’auteur ont permis, dès le XVIIIe siècle, à de riches éditeurs de l’industrie du livre de criminaliser l’impression de copies moins chères par des maisons d’édition plus petites [23]. Ils sont aussi régulièrement utilisés pour attaquer des organisations qui œuvrent pour la préservation et la dissémination de la culture, comme aux États-Unis, où l’industrie du livre attaque des bibliothèques en justice pour tenter de les empêcher de prêter des copies de livres numériques [24] ; ou encore par l’industrie du disque, pour stopper l’effort de l’ONG The Internet Archive d’archiver des disques 78 tours du début du XXe siècle qui sont autrement voués à disparaître [25].

Produire de l’art est aujourd’hui encore un privilège. Les artistes professionnels sont en écrasante majorité issus des classes supérieures qui seules possèdent un capital culturel, social et économique suffisant pour soutenir la précarité choisie de la vie d’artiste [26]. Les GenIA ont la capacité de décentraliser les outils de production artistique, permettant à chacun de raconter son histoire et de construire une grammaire artistique originale, moins dépendante des usages et des cahiers des charges des industries. Elles portent en elles la possibilité de faire passer notre société d’un modèle de culture commodifiée et verticale, dans lequel artistes et industries culturelles produisent des récits que le public consomme passivement, à un modèle horizontal, plus égalitaire, et dans lequel la frontière entre artiste et public serait devenue plus poreuse.

Le penseur et activiste Noam Chomsky affirmait dans un entretien en 2003 : « un marteau peut être utilisé [pour torturer quelqu’un] mais le [même] marteau peut être aussi utilisé pour construire des maisons » [27]. À contre-courant des oracles catastrophistes sur l’émergence des GenIA – « explosion de fake news », « chômage des artistes », « piratage des œuvres »– il n’est pas inutile de défendre une position moins tranchée, à condition de mener de nouveaux combats et d’en réinvestir d’anciens, pour l’implémentation de GenIA libres et gérées comme des communs, pour la liberté de la culture et pour la liberté des moyens de communication qui permettent de la partager.

Références

[1] Exemples de ces outils : Midjourney ou ChatGPT.

[2] Gbadamassi, Falila. “Meryl Streep, George Clooney et Leonardo DiCaprio : Les superstars ne sont pas sur les piquets de grève à Holliwood” Franceinfo, 4 août 2023, www.francetvinfo.fr/culture/cinema/meryl-streep-george-clooney-et-leonardo-dicaprio-les-superstars-ne-sont-pas-sur-les-piquets-de-greve-a-hollywood-mais-mettent-la-main-a-la-poche_5982314.html.

Avec Agences, Franceinfo Culture. “Hollywood : manifestation de stars qui soutiennent la grève des acteurs sur Times Square à New York.” Franceinfo, 26 juillet 2023, www.francetvinfo.fr/culture/cinema/hollywood-manifestation-de-stars-qui-soutiennent-la-greve-des-acteurs-sur-times-square-a-new-york_5972342.html.

[3] Klein, Naomi. “AI Machines Aren’t ‘Hallucinating’. But Their Makers Are.” The Guardian, 21 Aug. 2023, www.theguardian.com/commentisfree/2023/may/08/ai-machines-hallucinating-naomi-klein.

[4] Ces applications sont constituées de plusieurs parties qui jouent des rôles différents : le code informatique, les données, les modèles … Tout au long de cet article nous utiliserons néanmoins le terme « GenIA » pour qualifier l‘ensemble de ces parties.

[5] Guerrin, Michel. “« Avec l’intelligence artificielle, la peur du grand remplacement agite la musique et les arts visuels ».” Le Monde, 21 avril 2023, www.lemonde.fr/idees/article/2023/04/21/avec-l-intelligence-artificielle-la-peur-du-grand-remplacement-agite-la-musique-et-les-arts-visuels_6170394_3232.html.

[6] Roose, Kevin. “AI-Generated Art Won a Prize. Artists Aren’t Happy.” The New York Times, 2 Sept. 2022, www.nytimes.com/2022/09/02/technology/ai-artificial-intelligence-artists.html.

[7] Prior, Nick. “New Amateurs Revisited.” Routledge Handbook of Cultural Sociology, 2018, https://doi.org/10.4324/9781315267784-37.

[8] Leyshon, Andrew. “The Software Slump?: Digital Music, the Democratisation of Technology, and the Decline of the Recording Studio Sector Within the Musical Economy.” Environment and Planning A, vol. 41, no. 6, SAGE Publishing, June 2009, pp. 1309–31. https://doi.org/10.1068/a40352.

[9] Boris, and Boris. “Sony World Photography Awards 2023 | Boris Eldagsen.” Boris Eldagsen, Apr. 2023, www.eldagsen.com/sony-world-photography-awards-2023.

[10] Kelly, Kevin. “What AI-Generated Art Really Means for Human Creativity.” WIRED, 17 Nov. 2022, www.wired.com/story/picture-limitless-creativity-ai-image-generators.

[11] Weiss, Dan. “The Unlikely Rise of FL Studio, the Internet’s Favorite Production Software.” VICE, 12 Oct. 2016, www.vice.com/en/article/3de5a9/fl-studio-soulja-boy-porter-robinson-madeon-feature.

[12] Pour l’instant, pour générer des œuvres entièrement localement (sans utiliser de serveur) il faut aussi un GPU.

[13] Beckett, Lois. “‘Those Who Hate AI Are Insecure’: Inside Hollywood’s Battle Over Artificial Intelligence.” The Guardian, 26 May 2023, www.theguardian.com/us-news/2023/may/26/hollywood-writers-strike-artificial-intelligence.

[14] D’après cette étude, il semblerait même que les émissions de CO2 d’une GenIA soient de 130 à 1500 fois plus faibles que celles d’un humain pour l’écriture d’un texte, et de 310 à 2900 fois plus faible pour la création d’une image. Tomlinson, Bill. “The Carbon Emissions of Writing and Illustrating Are Lower for AI than for Humans.” arXiv.org, March 8, 2023. https://arxiv.org/abs/2303.06219.

[15] Cette ligne de pensée avait d’ailleurs inspiré la campagne présidentielle de Benoît Hamon (PS) en 2017, qui avait proposé de répondre aux enjeux de l’automatisation avec des mesures comme la « taxe sur les robots ».

[16] Surman, Mark. “Introducing Mozilla.Ai: Investing in Trustworthy AI.” The Mozilla Blog, August 1, 2023. https://blog.mozilla.org/en/mozilla/introducing-mozilla-ai-investing-in-trustworthy-ai/.

[17] Widder, David Gray, Sarah Myers West, and Meredith Whittaker. “Open (For Business): Big Tech, Concentrated Power, and the Political Economy of Open AI.” Social Science Research Network, January 1, 2023. https://doi.org/10.2139/ssrn.4543807.

[18] En réalité, le business model des géants de la tech dépasse bien largement la seule publicité, comme expliqué par Shoshana Zuboff dans son incontournable livre sur le capitalisme de surveillance. Zuboff, Shoshana. “The Age of Surveillance Capitalism.” Routledge eBooks, 2023, pp. 203–13. https://doi.org/10.4324/9781003320609-27.

[19] Suite à de nombreux scandales, notamment des cas d’ingérence lors d’élections démocratiques (comme dans l’affaire Cambridge Analytica), les États commencent enfin à réguler à grande échelle ces acteurs [19]. En tant qu’utilisateurs, il est possible de recourir à des alternatives solides, qui existent déjà, pour déserter les réseaux sociaux publicitaires. On pourrait citer par exemple Mastodon (https://joinmastodon.org/fr), un réseau social non publicitaire, ouvert et décentralisé. Quant à tous ces outils gratuits de Google et Microsoft qui extraient nos données, il existe de nombreuses alternatives libres (https://degooglisons-internet.org/fr/).

[20] Kelly, Kevin. “What AI-Generated Art Really Means for Human Creativity.” WIRED, 17 Nov. 2022, www.wired.com/story/picture-limitless-creativity-ai-image-generators.

[21] Ibid.

[22] Frenkel, Sheera, and Stuart A. Thompson. “Data Revolts Break Out Against A.I.” The New York Times, 15 July 2023, www.nytimes.com/2023/07/15/technology/artificial-intelligence-models-chat-data.html.

Belanger, Ashley. “Sarah Silverman Sues OpenAI, Meta for Being ‘Industrial-strength Plagiarists.’” Ars Technica, 10 July 2023, arstechnica.com/information-technology/2023/07/book-authors-sue-openai-and-meta-over-text-used-to-train-ai

[23] Rose, Mark. “The Author as Proprietor: Donaldson V. Becket and the Genealogy of Modern Authorship.” Representations, vol. 23, University of California Press, Jan. 1988, pp. 51–85. https://doi.org/10.2307/2928566.

Waldron, Jeremy. “From authors to copiers: individual rights and social values in intellectual property.” Chi.-Kent L. Rev. 68 (1992): 841.

[24] Masnick, Mike. “Book Publishers Won’t Stop Until Libraries Are Dead.” Techdirt, 22 Mar. 2023, www.techdirt.com/2023/03/22/book-publishers-wont-stop-until-libraries-are-dead.

[25] Masnick, Mike. “RIAA Piles on in the Effort to Kill the World’s Greatest Library: Sues Internet Archive for Making It Possible to Hear Old 78s.” Techdirt, 14 Aug. 2023, www.techdirt.com/2023/08/14/riaa-piles-on-in-the-effort-to-kill-the-worlds-greatest-library-sues-internet-archive-for-making-it-possible-to-hear-old-78s.

[26] Piquemal, Sébastien. “L’art nous empêche de construire un monde meilleur.” Mediapart, 7 Dec. 2022, https://blogs.mediapart.fr/sebastien-piquemal/blog/051222/l-art-nous-empeche-de-construire-un-monde-meilleur.

[27] The Dominion and the Intellectuals, Noam Chomsky Interviewed by Antosofia. https://chomsky.info/2003____.

Antonio Casilli : « La menace d’un grand remplacement par les robots est une manière d’assurer la discipline »

© Malena Reali pour LVSL

Le récent engouement autour de ChatGPT a de nouveau ravivé l’éternel débat sur la fin à venir du travail humain, remplacé par des intelligences artificielles et des robots. Pour le sociologue Antonio Casilli, auteur de En attendant les robots : Enquête sur le travail du clic (Seuil, 2019), ces annonces relèvent surtout d’un discours téléologique vénérant excessivement le progrès et de slogans marketing. Ayant étudié finement le fonctionnement concret de ces outils digitaux, il montre combien ceux-ci s’appuient sur du travail humain, généralement gratuit ou très mal rémunéré et reconnu. Plus qu’une disparition du travail, nous devons selon lui craindre, une plus grande précarisation et atomisation de celui-ci.

LVSL : Les médias spéculent régulièrement sur une fin à venir, sans cesse repoussée, du travail humain. Par exemple, en relayant l’étude The future of employment: how susceptible are jobs to computerization qui voudrait que 47% des emplois soient susceptibles d’être automatisés. Comme le titre de votre ouvrage semble l’indiquer (En attendant les robots), vous ne partagez pas cette analyse. Pourquoi ?

A. Casilli : Pour commencer, le titre n’est pas de moi. Ce n’était censé être à la base qu’un des chapitres de cet ouvrage, en l’occurrence le dernier. Cette référence renvoie à deux ouvrages majeurs : d’une part la poésie de Kavafys « En attendant les barbares » et de l’autre la pièce de Beckett « En attendant Godot », deux œuvres majeures du XXe siècle dans lesquelles on évoque une menace qui n’arrive jamais. Il s’agit d’une présence transcendante expliquant l’ambiguïté qui demeure aujourd’hui sur ce type d’automatisation qu’on attend tantôt avec impatience, tantôt avec crainte, mais qui finit toujours par être repoussée.

Moi-même, dans ma jeunesse j’ai eu droit aux vagues de rhétorique sur la fin du travail, à travers notamment l’ouvrage « La fin du travail » de Jeremy Rifkin (1995), qui annonçait la même chose que l’étude de Frey et Osborne dans « The future of employment ». Le message revenait à dire que l’automatisation anticipée allait être telle qu’un nombre important d’emplois disparaitrait sous peu, selon une logique de substitution. Mais si l’on avait face à nous une personne qui aurait vécu par exemple depuis le début du XIXe siècle, elle aurait pu témoigner de rhétoriques et de prophéties comparables parce qu’il n’a pas fallu attendre les intelligences artificielles pour se retrouver face ce type d’annonces.

Ce type de communication s’adresse avant tout aux investisseurs, dotés de ressources matérielles et d’un imaginaire constamment sollicité. L’investisseur est une personne qui doit, comme disait Keynes, se soumettre aux esprits animaux, se démarquer et les suivre dans une espèce de quête chamanique. De l’autre côté, ce discours s’adresse aussi à une force de travail qui a besoin d’être disciplinée. Dans ce contexte-là, la menace d’un grand remplacement par les robots est une manière d’assurer la discipline en les ramenant à une condition purement machinique, à un travail sans qualité, sans talent, sans compétences. C’est donc une manière de déprécier ce travail et de démontrer son inutilité alors qu’il s’agit bien d’un travail nécessaire.

« La menace d’un grand remplacement par les robots est une manière d’assurer la discipline ».

C’est en me concentrant sur ce travail vivant nécessaire qui nourrit la nouvelle vague d’innovation qui émerge avec les intelligences artificielles au début du XXIe siècle, en montrant « l’essentialité » (c’est-à-dire le fait qu’ils requièrent du travail humain, ndlr) de ces métiers de la donnée, que je m’efforce de montrer que l’innovation n’est pas forcément destructrice de travail. Plutôt elle déstructure l’emploi – ou en tous cas la version formalisée et protégée du travail, qui cesse alors d’être un travail encadré selon des principes établis par de grandes institutions internationales comme l’OIT. Ces avancées technologiques rendent le travail de plus en plus informel, précaire, sujet à un ensemble de variabilité et de fluctuations qui répondent autant au marché classique qu’à un nouveau type de marché, celui des plateformes, qui ont leurs propres fluctuations, dues à des logiques moins économiques qu’algorithmiques.

LVSL : Dans ce que vous évoquez justement de déstructuration du travail, en parlant de « travail numérique » nous désignons souvent les travailleurs ubérisés soumis au capitalisme de plateforme, mais vous rappelez aussi dans votre livre qu’il existe d’autres types de « travailleurs du clic ». Lesquels ?

A. Casilli : Ce que je cherche à faire dans cet ouvrage, c’est prendre comme point de départ le travail de plateforme visible qui concerne les métiers de la logistique, des passeports, des mobilités en général. Cela concerne parfois les métiers des services personnels comme ceux du « care » qui soignent des personnes ou s’occupent de tâches domestiques, etc. Tout cela fait partie de la première famille de métiers qu’on qualifie parfois d’« ubérisés ». C’est un terme qu’un industrialiste français, Maurice Levy, a choisi et que l’on a imposé à tout, en « brandisant » c’est-à-dire en attribuant une marque à un phénomène social.

Mais je m’efforce de dire : « Regardons aussi ailleurs ». Le travail plateformisé visible, les nouveaux métiers du clic ou de l’algorithme ne sont que la partie émergée de l’iceberg. Tout le reste est composé de travailleurs qui sont sous la surface de l’automatisation. Il existe deux grandes familles sur lesquelles se concentre la partie centrale de cet ouvrage : d’une part le nombre vraiment important de personnes qui, partout dans le monde, préparent, vérifient et parfois imitent les intelligences artificielles – ce sont les annotateurs de données, les personnes qui génèrent des informations pour entraîner les algorithmes ou pour conduire l’intelligence artificielle.

Dans la continuité de cela, il y a un travail de moins en moins vu, connu, reconnu et payé, tellement informel qu’il devient presque un travail de bénévole voire d’utilisateurs-amateurs, comme chacun et chacune d’entre nous l’est à un moment ou à un autre de sa vie et de sa journée. Par exemple le fait de se servir d’un moteur de recherche en améliorant la qualité des résultats, comme cela arrive à chaque fois qu’on utilise Google, ou de s’insurger contre une intelligence artificielle comme ChatGPT en améliorant par la même occasion la qualité de ses réponses. Il y a donc une continuité entre les personnes qui ne sont pas payées pour réaliser du clic, pour réaliser de l’amélioration de contenu et de service algorithmique, et les travailleurs du clic des pays émergents ou à faible revenu, généralement payés 0,001 centime la tâche. Sur le papier, la différence est vraiment minuscule mais c’est important de la souligner.

« Afin de rendre les travailleurs interchangeables, il faut faire en sorte que l’activité humaine soit standardisée et réduite à son minimum, son unité minimale est alors le clic. »

© Marielisa Ramirez

LVSL : Pour reprendre les termes que vous utilisez dans le livre, vous distinguez trois formes de « travail digital ». Le travail des petites mains du numérique, c’est-à-dire le travail à la demande (prestation de petites interventions comme Uber, Deliveroo, etc.) ; le micro-travail qui fournit le soutien aux algorithmes par des tâches standardisées de mise en relation de données et le travail social en réseau qui est la participation des usagers à la production de valeur. Dans la droite lignée du taylorisme, ces nouvelles tâches témoignent-elles d’une nouvelle organisation du travail qui n’est pas aboli par le numérique mais simplement fractionné et décentralisé à un degré supérieur ?

A. Casilli : Oui, vous avez bien résumé les trois familles de travail, mais on peut encore faire un effort supplémentaire pour caractériser cette activité dont on parle. Pour qualifier ce « travail numérique », on peut aussi bien employer deux autres adjectifs. C’est un travail qui est « datafié » et « tâcheronisé ». « Datafié » signifie qu’il produit de la donnée et qu’il est lui-même produit par la donnée. « Tâcheronisé » c’est-à-dire atomisé, segmenté en petites tâches. Afin de rendre les travailleurs interchangeables, il faut faire en sorte que l’activité humaine soit standardisée et réduite à son minimum, son unité minimale est alors le clic.

Sommes-nous là face à une continuation du taylorisme ? La réponse est un peu compliquée dans la mesure où le taylorisme, tel qu’on le connaît historiquement, était synthétiquement dû à la gestion scientifique et non à la gestion algorithmique. Il y a une différence importante entre ces deux conceptions parce que la définition de Taylor était celle d’un travail sur plan, avec un cahier des charges pour des personnes intermédiaires puis des exécutants et des ouvriers. Il y avait une chaîne hiérarchique et une manière d’organiser ce travail par des échéances précises : chaque semaine, chaque jour, chaque mois, chaque année. Il s’agissait donc d’un travail de plan tandis que le travail de plateformes qui sert à produire ces intelligences artificielles est un travail à flux tendu. Cela signifie que les manières d’associer un exécutant et une tâche passe plutôt par un modèle mathématique qu’est l’algorithme qui apparie un être humain et un contenu (ex : quel chauffeur va s’occuper de quelle course). Dans la mesure où cette logique est différente, elle bouleverse également l’équilibre politique auquel le taylorisme avait conduit, que l’on résume parfois par l’économie du fordisme-taylorisme qui repose sur une production de masse, qui, à son tour, produit des marchés de consommation de masse.

Là, on est face à une organisation plus compliquée et à des micro-marchés, des marchés de niche qui sont réalisés ad hoc, créés par l’algorithme même. Pour terminer, le type de protection sociale qui allait de pair avec le fordisme-taylorisme a été complètement abandonné pour la raison qu’on ne se trouve pas dans une situation dans laquelle il faut assurer un salaire stable afin que ces employés puissent se permettre de consommer la production même de leur propre usine ou de leur entreprise. Aujourd’hui, ce n’est pas à Uber de s’occuper de donner suffisamment d’argent à une personne pour qu’elle puisse s’offrir des produits ou des services Uber. Il y a effectivement une séparation totale entre ces deux aspects, ce qui débouche sur un travail beaucoup moins protégé, qui offre beaucoup moins de certitudes quant à son existence même et à son activité, donc à sa rémunération. En outre, cela génère moins de protection sociale du point de vue de l’assurance, de la carrière, de la formation, de la retraite, et ainsi de suite. Tout ce qui faisait l’équilibre sociopolitique dans la deuxième moitié du XXe siècle – du moins dans les pays du Nord – est aujourd’hui laissé de côté et les plateformes qui produisent l’intelligence artificielle et qui se basent sur ce concept de « digital labour » sont finalement la réalisation et l’achèvement ultime de l’idéal néolibéral du chacun pour soi et du travail pour personne.

« Moi j’ai jamais rencontré les gens avec lesquels je travaille et encore moins les gens pour lesquels je travaille parce que, tout simplement, je me connecte sur un site et je coche des cases »

LVSL : Vous évoquez dans votre livre des tâches comme l’incorporation de données dans les IA, le tri des doublons, la mise en lien de recommandations, etc. Il s’agit d’un travail qui ne met pas directement en jeu les forces du travailleur mais plutôt des qualités cognitives comme la faculté de discernement, de jugement ou encore de discrimination. En outre, nous avons affaire à des personnes qui sont individualisées du simple fait qu’il s’agisse d’un travail qui s’effectue la plupart du temps seul, face à un écran. Par conséquent, face à la fois à ce changement de lieu de travail, à cette atomisation du travail et au fait que les facultés qui sont mobilisées sont d’ordre cognitives, est-ce pour vous le signe d’un nouveau prolétariat de type cognitif ou digital ?

A. Casilli : Je dirais qu’il y a clairement la formation d’une nouvelle subjectivité politique, qu’on peut appeler « nouveau prolétariat ». À la fin du livre, je fais d’ailleurs tout un effort pour étudier dans quelle mesure on peut parler de classe mais ma réponse est assez dubitative. Pour l’instant, j’insiste beaucoup sur le fait que la nouveauté présentée, par exemple par le microtravail plateformisé, c’est-à-dire des personnes qui se connectent sur des applications spécialisées où elles réalisent des micro-tâches rémunérées à la pièce, est un cas de freelancing extrême, parce qu’extrêmement fragmenté. Selon des estimations de nos collègues d’Oxford à peine en moyenne deux dollars par heure ; même si par ailleurs ils n’ont pas un contrat horaire mais sont payés à la pièce.

Vous ne travaillez plus par projet, même s’il demeure certaines caractéristiques du freelancing qui s’est imposé depuis l’arrivée du télétravail dans les années 90. Il s’agit alors d’un aboutissement, d’une version poussée à l’extrême de cette tendance. Il subsiste toutefois un autre élément important qui nous permet de complexifier ce qu’on peut dire aujourd’hui à propos de ce microtravail. Je le caractérise comme un travail en solitaire, où les personnes travaillent chacune depuis [leur] foyer, et nous avons par ailleurs réalisé avec France Télévisions un documentaire nommé Invisibles dans lequel nous avons interviewé des microtravailleuses. La première chose qu’une d’entre elles nous a dite est : « Moi j’ai jamais rencontré les gens avec lesquels je travaille et encore moins les gens pour lesquels je travaille parce que, tout simplement, je me connecte sur un site et je coche des cases ».

Quelle est l’autre caractéristique de ce freelancing extrême ? Et bien, c’est tout simplement que le travail se déplace vers les pays dans lesquels la main d’œuvre est moins chère. Comme les rémunérations sont à la baisse et que cela se transforme en une espèce de foire d’empoigne, les pays dans lesquels on rencontre un nombre plus important de microtravailleurs ne sont pas forcément les pays du Nord mais ceux de l’hémisphère Sud. On a beaucoup parlé de la Chine et de l’Inde mais ce sont des cas complexes dans lesquels vous avez autant de grandes startups qui font de la valeur ajoutée que des microtravailleurs. Il y a aussi des pays qui sont dans des situations d’extraction néocoloniale poussées à l’extrême.

Les pays sur lesquels nous avons travaillé avec mon équipe de recherche DiPLab sont des pays d’Afrique francophones et des pays d’Amérique latine. Dans les deux dernières années et dans la foulée de cet ouvrage, nous avons réalisé plusieurs milliers d’entretiens et de questionnaires avec des travailleurs dans des pays comme Madagascar, l’Égypte, le Venezuela, le Mexique, la Colombie et le Brésil. Dans ce dernier cas, on rencontre souvent de véritables fermes à clics responsables des faux followers sur Instagram ou des visionnages YouTube ou TikTok. C’est une manière de tricher avec les algorithmes bien qu’il s’agisse du bas de la pyramide, et ces personnes peuvent travailler depuis chez elles. Dans d’autres contextes par contre, à Madagascar ou en Égypte, de gros marchés de l’offshoring (externalisation ndlr) se sont créés. Là-bas, les microtravailleurs ne travaillent pas depuis chez eux, mais depuis des structures variées : certains travaillent depuis chez eux, certains depuis un cybercafé, d’autres vont taxer le wifi de l’université et certains ont de véritables bureaux avec des open spaces plus ou moins structurés. Il y a donc des situations très différentes, avec parfois des petits jeunes de banlieue d’Antananarivo qui organisaient une espèce d’usine à clics avec d’autres copains du quartier et d’autres personnes qui utilisaient une maison avec 120 personnes, vingt dans chaque pièce, réalisant des microtravaux. Cette atomisation semble donc concerner principalement les pays à plus hauts revenus. Dans les pays à plus faibles revenus, les formes de travail du clic sont très variées, du bureau classique à la plateforme.

LVSL : Cette diversité des travailleurs du clic semble assez symptomatique d’un milieu du numérique qui serait encore relativement une zone de non-droit du travail dans la mesure où il s’agit d’un domaine relativement récent et décentralisé. Le travail y est mal reconnu, souvent ingrat, organisé de manière nébuleuse, etc. Est-ce en raison de ce flou que le capitalisme y prospère ou est-ce que ce flou est lui-même un produit de la dérégulation capitaliste ?

A. Casilli : La question de la dérégulation a une longue histoire, c’est la doctrine du laisser-faire du XVIIe siècle dont la doctrine capitaliste hérite. Elle concerne principalement le fait d’enlever un nombre important de dépenses, de cotisations et d’impôts qui pèsent sur les entreprises et ensuite de laisser ces entreprises faire des profits et les redistribuer à leurs investisseurs. Ici, le problème se pose en termes très classiques selon la différence en économie politique entre profits et salaires. Grosso modo, cette dérégulation s’est soldée par un déplacement important de ressources qui faisaient partie des salaires, ce qu’on appelle le « wage share », la part des salaires vers les profits. Toute la rhétorique actuelle sur les superprofits porte aussi sur cela ; la montée en flèche lors des dernières décennies, des profits et des dividendes pour les investisseurs et les chefs d’entreprise. A contrario, on a vu une diminution drastique du salaire réel, du pouvoir d’achat et en général de la masse salariale. Pour réduire cette masse salariale, soit on vire des personnes – mais on ne peut pas virer tout le monde –, soit on remplace des personnes bien payées par des personnes moins bien payées. De cette manière-là, à parité des effectifs et de quantité de travail, on se retrouve à payer moins pour la masse salariale.

« On n’a pas vu une diminution drastique du travail en termes de temps de travail mais plutôt une diminution drastique du travail payé et une augmentation du travail non payé. Là est la base de cette économie des plateformes. »

Ce que je m’efforce de montrer, avec d’autres, c’est qu’on n’a pas vu une diminution drastique du travail en termes de temps de travail mais plutôt une diminution drastique du travail payé et une augmentation du travail non payé. Là est la base de cette économie des plateformes qui crée une concurrence entre les travailleurs pour revoir à la baisse leur rémunération, parce que l’algorithme va favoriser celui qui va réaliser la même tâche à un prix moindre, comme on le voit avec les livreurs express. C’est vrai notamment depuis le Covid, avec un nombre important de nouveaux inscrits sur ces plateformes et une baisse drastique des rémunérations en plus d’une réaction interne de conflictualité syndicale. La même chose se passe évidemment aussi sur les plateformes dites « de contenu », qui se disent « gratuites » mais ne le sont pas vraiment : parfois il faut payer pour y être et souvent elles payent les personnes qui sont actives d’une manière ou d’une autre. Le cas classique est celui de la monétisation des contenus qui est devenue un geste désormais banal pour pouvoir exister sur certaines plateformes comme Instagram, TikTok ou YouTube et y avoir une présence véritable. Cela signifie que l’on a une coexistence dans les mêmes espaces d’un travail non rémunéré, d’un travail faiblement rémunéré, d’un travail micro-rémunéré et tout ça crée une baisse progressive de la masse salariale pour une équivalence voire une augmentation de la production en termes de contenu, d’informations, de service, etc.

LVSL : Pour vous, la dérégulation est donc le produit de la structure et de son fonctionnement, elle n’est pas seulement le terreau dans lequel elle s’épanouit même si de fait elle crée un terrain qui est propice à sa propre perpétuation.

A. Casilli : Tout à fait. Si on regarde du côté des entreprises, on remarque qu’elles tendent à favoriser de plus en plus la redistribution de dividendes importants plutôt que le réinvestissement pour créer de nouvelles ressources, etc. Si l’on regarde ensuite comment les entreprises fonctionnent, on a des surprises qui sont parfois amères : durant nos recherches sur le travail de plateforme, on s’est rendu compte du chaos qui domine au niveau de la gestion de cette force de travail dans la mesure où les plateformes ne reconnaissent pas que ces microtravailleurs effectuent des tâches importantes pour la production de valeur de l’entreprise et donc ne les encadrent pas. Il n’y a donc pas de « ressources humaines ». Ce sont par exemple le responsable des achats ou les ingénieurs qui s’occupent d’organiser le pipeline pour la mise en place du machine learning.

Or, ce ne sont pas des personnes formées pour gérer des êtres humains donc ils engendrent des désastres parce qu’ils ne savent pas entendre les problématiques, ils ne comprennent pas que ces personnes-là sont habituées à une certaine protection de leur travail, en connaissance de leurs droits, ce qui est tout à fait normal. On a donc une forte conflictualité dans ces entreprises qui ne sont pas capables de gérer la transition vers la plateformisation totale.

Mobilisation des livreurs © Marion Beauvalet
Mobilisation de livreurs Deliveroo
© Marion Beauvalet

LVSL : Toutefois, il n’y a pas que les travailleurs du clic rémunérés : dans notre présence virtuelle, nous fournissons régulièrement des matériaux à des systèmes dits « collaboratifs » (cookies, avis, évaluations, etc.) qui mettent en place des systèmes de gratification affective (ce que vous appelez des « produsagers », contraction de « producteur » et « usager »). Le fonctionnement des plateformes numériques abolit-il la séparation entre travail et loisir ?

A. Casilli : C’est un peu plus complexe que cela car c’est comme si les plateformes cherchaient constamment à monter au maximum le volume tant du travail que du plaisir. L’exemple récent qui me vient à l’esprit, c’est ChatGPT. ChatGPT est une intelligence artificielle qui n’a rien d’extraordinaire sauf qu’elle fait bien semblant d’entendre et de répondre à des questions. C’est un système assez classique qu’on appelle « question answering » comme modèle de machine learning, mais entouré d’une espèce d’aura de grande innovation, voire de révolution. Cela oblige tout un tas de personnes à se connecter à ChatGPT, à interagir avec elle et par la même occasion à l’améliorer, puisque chaque réponse négative ou à côté de la plaque de ChatGPT est systématiquement dénoncée par la personne qui la reçoit, ce qui améliore l’IA.

« Tout ça n’est une opération de marketing de OpenIA, qui est arrivée à créer un engouement lui offrant une main d’œuvre non rémunérée massive pour tester ChatpGPT. »

Il y a là une espèce de joie perverse de jouer à ce jeu, de se faire mener un bateau par un système qui est seulement dominé par une logique de marketing. Tout ça, en effet, n’est qu’une opération de marketing de OpenIA, qui est arrivée à créer un engouement lui offrant une main d’œuvre non rémunérée massive pour tester ChatpGPT.

La dimension de travail se comprend bien si on voit la continuité entre les utilisateurs lambda et non rémunérés de ChatGPT et de l’autre côté les personnes qui sont dans le back office de ChatGPT : un mois et quelques après le lancement de cette intelligence artificielle, on a découvert que ça fait des années qu’OpenIA recrute systématiquement des microtravailleurs kenyans payés 1$ de l’heure pour sélectionner les réponses, taguer des contenus etc. À côté de cela, puisque ChatGPT est aussi un outil utilisé pour produire du code informatique, il y a eu un recrutement de personnes qui sont des tâcherons du code pendant l’année 2020. Ces tâcherons du code devaient produire des bouts de code, débuguer des codes alors qu’elles n’avaient parfois pas une compétence informatique très élevée. C’étaient parfois des petits étudiants en première année ou des personnes qui savaient à peine reconnaître que dans cette ligne de code il y avait une parenthèse qui ouvrait mais il n’y en avait pas qui fermait et c’était suffisant pour débuguer la ligne. Il y a un continuum entre ces tâcherons du clic et nous-mêmes, qui fait bien de ChatGPT avant tout une entreprise de travail humain vivant. J’aurais pu dire la même chose du moteur de recherche de Google mais il est là depuis un quart de siècle donc c’est un peu moins d’actualité.

LVSL : Avec cet entrelacs du producteur à l’usager qui s’est formé, l’outil numérique ne semble plus être une extension de la main de l’homme. Le travail humain tend au contraire à devenir une extension de l’outil. Identifiez-vous le travail digital comme une nouvelle forme d’aliénation double car le travailleur n’est plus seulement soumis à la machine (comme c’est déjà le cas depuis le taylorisme) mais disparaît derrière elle parce que l’aliénation ne concerne plus seulement le travailleur mais aussi le « produsager » qui n’est même pas reconnu comme travailleur ?

A. Casilli : Pour résumer, les deux types d’aliénation dont vous parlez sont une aliénation de la visibilité et une aliénation du statut pour faire court. La question de la visibilité est un problème important mais en même temps c’est aussi un problème qui nous permet d’identifier où est le nœud problématique. Ça fait longtemps qu’en sciences sociales, on s’occupe de reconnaître des formes de travail non visibles : on l’appelle shadow work, ghost work, virtual work, etc., chaque auteur a sa propre définition. Moi j’ai cherché à mon tour à parler de ce travail non ostensible, « unconspicuous labor », qui est une manière de jouer sur la notion de consommation ostentatoire. C’est une manière de dire que si notre consommation se fait visible, on s’affiche en train de consommer, on ne s’affiche pas en train de produire et on a presque honte de ce qu’on produit quand on le produit. C’est pour ça que nous-mêmes nous adhérons à la rhétorique du « C’est pas un travail, c’est un plaisir : je ne suis pas un journaliste précaire, je suis un blogueur », « Je ne suis pas une animatrice télé qui ne trouve pas d’emploi, je suis une influenceuse Twitch ».

C’est une [façon] de se raconter d’une manière ou d’une autre que la précarité est moins grave que ce qu’elle est. Il ne faut pas sous-estimer le côté aliénant de cela, surtout un terme de désencastrement des individus de leur réseau de solidarité et d’amitié qui est normalement assuré par les activités de travail formel. Je ne veux pas dire que la vie avec les collègues est un paradis, mais que le travail formel crée un cadre qui permet de situer un individu au sein d’un réseau de relations. Ce qui devient beaucoup moins simple à faire pour le travail du clic. Il y a un vaste débat dans ma discipline sur l’encastrement ou le désencastrement social des travailleurs des plateformes, qui porte sur cette confusion énorme qui existe entre le côté productif et le côté reproductif des plateformes. Le côté productif, on le voit à chaque fois qu’on nous demande de produire une donnée, mais parfois cette injonction est là pour stimuler notre plaisir, nos attitudes, nos désirs, nos envies de se mettre en valeur, de se mettre en visibilité, et ainsi de suite. Cela peut se transformer en loisir, dans une activité sociale, et qui est alors plutôt du côté de la reproduction. Là c’est effectivement une aliénation qui renforce cette confusion.

De cela découle directement la deuxième aliénation qui est l’aliénation de statut, c’est-à-dire la difficulté à obtenir un statut de travailleur de la reproduction sociale. Mais ce n’est pas impossible : regardons par exemple les combats féministes, qui ont fait en sorte que tout un tas d’activités auparavant considérées comme purement reproductives soit inscrites dans la sphère du travail socialement reconnu, avec des rémunérations et des protections sociales : le travail domestique, le travail de care, etc. Toutefois, cette rupture de l’aliénation n’arrive pas de manière spontanée, par simple progression du capitalisme vers des formes plus douces et sociales-démocrates, mais cela arrive au fil et au bout des luttes sociales.

LVSL : Puisque votre ouvrage critique une conception téléologique du progrès technologique où l’on avance vers la fin du travail, comment envisagez-vous l’avenir du travail numérique, surtout avec l’explosion récente des plateformes d’intelligence artificielle ?

A. Casilli : Pour ma part je pense qu’il faut se méfier des effets d’annonce médiatiques. Je suis assez bien placé pour savoir comment la fabrique médiatique de ces phénomènes sociotechnologiques est structurée à coups de communiqués de presse d’entreprises qui produisent un nouveau service, une nouvelle application, une nouvelle intelligence artificielle et de rédactions de journaux ou de presse qui, pour chercher à produire du contenu, cèdent au plaisir de se faire porte-voix de ce type d’allégations.

Je ne pense pas qu’il y ait une explosion de l’intelligence artificielle. Au contraire, je remarque que l’intelligence artificielle rame, qu’il y a des échecs de l’intelligence artificielle, il y a des domaines de l’intelligence artificielle qui se sont cassé la gueule, par exemple l’intelligence artificielle des machine learnings non supervisés dont on annonce toujours des trucs merveilleux qui n’arrivent jamais. Ou alors on a des effets de mode durant quelques temps, comme la blockchain récemment, qui est sujette à des échecs répétés tous les quelques mois. Je ne suis pas technophobe, mais plutôt dans une forme de scepticisme qui permet de voir l’innovation là où elle est vraiment. Or, l’innovation n’est pas dans l’intelligence artificielle, qui ne fait pas de progrès par pas de géants.

« Certains métiers du clic se sont aussi imposés comme des métiers essentiels, par exemple la livraison ou la modération de contenus. »

En revanche il y a eu des chocs exogènes, par exemple le Covid, la crise sanitaire, la crise économique et la crise géopolitique qui ont suivi. Ces enchaînements de catastrophes ont fait en sorte que le marché du travail de 2023 soit assez différent par rapport aux marchés du travail des années précédentes : en 2019, le nombre de personnes employées formellement était supérieur à toutes les époques précédentes de l’humanité, ce qui est évident parce qu’il y a aussi un nombre plus important d’êtres humains. Avec le Covid, on a eu d’abord un moment d’arrêt généralisé des échanges internationaux et parfois des croissances importantes de certains pays en termes de performances industrielles et d’autre part on a vu aussi ce prétendu « triomphe du télétravail », qui ne s’est pas soldé dans une espèce de dématérialisation de toutes les activités mais qui nous a aidés à identifier certaines activités qu’on appelle aujourd’hui « essentielles » (logistique, commerce, agroalimentaire, santé…).

Mais certains métiers du clic se sont aussi imposés comme des métiers essentiels, par exemple la livraison ou la modération de contenus, tous des travailleurs qui ont été classifiés comme « essentiels » par de grandes entreprises telles que Facebook et YouTube comme prioritaires pour revenir au travail en présentiel, alors que les autres ont été tranquillement mis au télétravail pendant deux ans et demi, avant d’être licenciés. C’est quelque chose d’important car on peut difficilement se passer du travail de modération, qui est d’ailleurs difficile à faire à distance, parce qu’il est difficile de modérer des vidéos de décapitation quand derrière vous il y a vos enfants qui jouent, ou de regarder des contenus vraiment problématiques, violents, déplacés alors qu’on passe à table. À moyen terme, je ne vois pas ce travail disparaître, je le vois devenir de plus en plus central, mais malheureusement je ne le vois pas non plus devenir plus digne et reconnu pour autant.

« Les microtravailleurs ne sortent pas dans la rue mais on les voit beaucoup dans les tribunaux, lors d’actions de recours collectif ou d’actions pour la reconnaissance de leur travail. »

C’est là le nœud conflictuel des prochaines années, celui de la reconnaissance de ces travailleurs. Plusieurs signes indiquent qu’on est face à de nouveaux conflits sociaux au niveau international, car on commence à avoir une structuration précise et cohérente des travailleurs et de nouvelles luttes sociales émergent. On voit notamment apparaître beaucoup de revendications qui passent par les cours de justice. Les microtravailleurs ne sortent pas dans la rue mais on les voit beaucoup dans les tribunaux, lors d’actions de recours collectif ou d’actions pour la reconnaissance de leur travail. Au Brésil, on a eu une victoire importante contre une plateforme de microtravail qui a été obligée de requalifier comme « salariés » quelques milliers de travailleurs.

LVSL : Au fondement de toutes ces activités, les algorithmes reposent essentiellement sur une approche positiviste du monde où tout est classable, identifiable et mesurable. En mettant en lumière le travail des tâcherons du numérique qui trient et jugent en support des algorithmes, ne révélez-vous pas l’insuffisance de cette vision positiviste ?

A. Casilli : J’ai, si l’on veut, une approche un peu plus « irrationnaliste » du tissu social. Je pense que la mise en données est une entreprise qui a une longue histoire : elle puise ses racines dans le positivisme historique à la fin du XVIIIe siècle, début XIXe, au niveau de la création d’une attitude positiviste et en même temps des ancêtres de ce qu’on appelle aujourd’hui les intelligences artificielles. Dans le nouveau livre sur lequel je travaille, je m’intéresse aux origines du travail du clic, par exemple le fait qu’en France et dans d’autres pays d’Europe, on avait créé à cette époque des ateliers de calcul dans lesquels des centaines de personnes, souvent pas des mathématiciens du tout, des personnes qui avaient d’autres formations (des ouvriers, des instituteurs ou institutrices souvent), qui calculaient un peu tout : des tables trigonométriques pour le cadastre de Paris, les positions du Soleil pour l’observatoire de Greenwich, etc. On pourrait l’interpréter comme une mise en chiffres du réel, mais celle-ci est d’un type particulier car il ne s’agit pas seulement d’une quantification faite par le biais des grandes institutions statistiques étatiques : recensements, mesures, etc. Ce ne sont pas des géomètres ou des statisticiens qui ont opéré cette mise en donnée du monde, ce sont souvent des personnes dont on n’a pas conservé le nom ou les coordonnées, qui ont calculé pendant des années et des années des entités mathématiques qui ont été nécessaires pour créer un type particulier de machines, par exemple les machines à calculer ou pour observer certains phénomènes astronomiques, des machines balistiques pour l’armement, etc. Ce fut un grand élan de mise en données qui ne fut pas seulement de la quantification, mais une manière de créer de la connaissance précalculée qui est ensuite utilisée pour produire des machines qui calculent.

C’est le même principe que celui des intelligences artificielles d’aujourd’hui. ChatGPT s’appelle « GPT » parce que le « P » signifie « pretrained », tout ce que la machine sait faire a été précalculé par des êtres humains. On voit là réapparaître ce type de positivisme un peu particulier parce que ce n’est pas un positivisme de grands idéaux, de grands systèmes, mais un positivisme de la microdonnée, de la microtâche, du microtravail, quelque chose de beaucoup plus terre à terre et de beaucoup plus intéressé à un résultat économique assez immédiat. Si l’on veut, malgré les grands discours de colonisation de l’espace et de réforme de l’esprit humain par certains milliardaires de la Silicon Valley, on est en face de personnes qui cherchent à gratter un peu d’argent pour arriver à la fin du mois, même du côté des milliardaires.

ChatGPT : derrière le mythe de l’intelligence artificielle, les dangers des automates computationnels

intelligence artificielle
crédits Jr-korpa

Le 14 mars 2023, OpenAI, entreprise américaine fondée entre autres par Elon Musk, Sam Altman et Peter Thiel, annonçait le lancement de son nouveau modèle de langage artificiel, GPT-4, faisant passer une étape supplémentaire aux technologies de génération automatique de textes. Cette nouvelle innovation poursuit la stratégie industrielle de l’entreprise américaine, qui ne cesse de faire parler d’elle depuis quatre mois. Derrière la fascination, il convient de mettre au jour les fantasmes et les dangers : ces technologies ne risquent-elles pas de réduire l’avenir du web à l’extractivisme de la donnée, et les capacités expressives humaines à des calculs automatisés ? Par Anne Alombert, maître de conférences en philosophie française contemporaine à l’université Paris 8, Vincennes – Saint-Denis, autrice de Schizophrénie numérique à paraître en avril 2023 aux éditions Allia.

Le 30 novembre 2022, OpenAI réalisait l’un des plus grands « coup médiatique » de l’histoire de l’intelligence artificielle, en rendant accessible au grand public un nouvel outil, dénommé ChatGPT. Ce dispositif, souvent décrit sous les noms d’ « intelligence artificielle » ou d’ « agent conversationnel », repose en fait sur l’association entre deux types de technologies : un modèle de langage (il s’agissait alors de GPT-3, et désormais, possiblement, de GPT-4), qui permet de générer toutes sortes de textes grâce à des calculs probabilistes appliqués à des quantités massives de données, et une messagerie instantanée, qui permet aux utilisateurs de poser des « questions » ou de donner des « consignes » à la machine, afin d’obtenir des productions textuelles variées (de la recette de cuisine aux poèmes, en passant par les articles scientifiques ou le code informatique).

ChatGPT, entre fantasmes et réalités

Comme souvent, le fait de rendre accessible ce type de dispositifs, au fonctionnement opaque mais à l’usage très intuitif, engendre un effet de fascination généralisée : la machine, semblant répondre par magie aux questionnements les plus insolites, devient l’objet de toutes sortes de projections anthropomorphiques nourries par les discours transhumanistes. La machine serait-elle capable d’écrire ou de parler ? Serait-elle capable de penser ? Serait-elle consciente d’elle-même ? Pourrait-elle se substituer aux activités humaines qu’elle semble si bien simuler ?

Le lancement de ChatGPT (d’abord gratuit mais dont une version payante a déjà émergé) a ainsi constitué une énorme opération de communication pour OpenAI, qui en a aussi profité pour exploiter le travail gratuit de ses millions d’utilisateurs (cent millions de comptes enregistrés en janvier 2023), convaincus d’expérimenter un nouveau gadget, alors que c’est le système qui se nourrissait de leurs requêtes pour améliorer les performances de ses algorithmes. Si bien qu’au moment où tout un chacun commençait à se demander comment faire un bon usage de ChatGPT, le dispositif technologique avait déjà largement utilisé ses soi-disant usagers pour se perfectionner, conformément au célèbre adage selon lequel « si c’est gratuit, c’est vous le produit ! ».

« Au moment où tout un chacun commençait à se demander comment faire un bon usage de ChatGPT, le dispositif technologique avait déjà largement utilisé ses soi-disant usagers pour se perfectionner, conformément au célèbre adage selon lequel “si c’est gratuit, c’est vous le produit !” ».

Grâce à ChatGPT, OpenAI, qui avait bénéficié d’un investissement initial d’un milliard de dollars de la part de Microsoft, a ainsi vu sa valeur boursière augmenter de manière exponentielle : désormais valorisée à 29 milliards de dollars, elle devrait faire l’objet d’un investissement pluriannuel de plusieurs milliards de dollars de la part de Microsoft, qui entend intégrer ChatGPT à ses services (notamment à son moteur de recherche Bing, dans le but de concurrencer Google en ce domaine, et à la suite bureautique Microsoft Office). Le 23 janvier 2023, Microsoft annonçait ainsi le renforcement de son partenariat avec OpenAI « pour accélérer les percées de l’IA afin de garantir que ces avantages soient largement partagés avec le monde ».

Trois jours plus tôt, le 19 janvier, Microsoft avait annoncé le licenciement de dix mille salariés (près de 5 % de ses effectifs). La veille, le 18 janvier, le journal Time avait révélé le partenariat entre OpenAI et la société Sama, qui a permis à l’entreprise d’employer des travailleurs kenyans rémunérés à moins de deux dollars de l’heure pour indexer d’immenses quantités de contenus toxiques circulant sur Internet, afin de « nettoyer » les données d’entraînement de ChatGPT. Les calculs des algorithmes, indifférents à toute signification, sont en effet incapables de reconnaître un texte à caractère haineux, violent, raciste ou pornographique : pour éviter que la machine ne génère automatiquement et massivement des contenus de ce type, ce sont donc des humains qui doivent les visionner et les indexer, au prix de nombreux traumatismes. Contrairement aux IA qui effectuent des calculs sur de l’information numérique, les humains se laissent affecter par le sens des textes qu’ils lisent : l’exposition constante à des contenus nuisibles engendre donc des troubles psychiques.

Plutôt que les machines conscientes ou les avantages de l’IA « largement partagés avec le monde », ce sont donc les craintes associées à l’industrie numérique et à l’économie des données qui semblent s’affirmer derrière les prouesses de ChatGPT : disparition des emplois et exploitation des « travailleurs du clic », sans compter la concentration des capitaux et la consommation énergétique nécessaires à l’entraînement de ce type de modèles, qui rend le coût de ces technologies prohibitif.

« Il faut en effet distinguer un dispositif comme Wikipédia et un dispositif comme ChatGPT : les deux outils symbolisent en fait deux visions antithétiques du Web, la première fondée sur l’ouverture et l’intelligence collective, et la seconde sur l’extractivisme et le calcul automatisé ».

Des agents conversationnels aux automates computationnels

Comme souvent, les enjeux écologiques, politiques et sociaux des innovations technologiques sont subrepticement refoulés par des discours au sujet des « intelligences artificielles » ou des « agents conversationnels ». Or, comme cela a été souligné par divers spécialistes, un dispositif comme ChatGPT n’a rien d’intelligent : il s’agit d’un ensemble complexe d’algorithmes (très performants) effectuant des calculs statistiques sur des quantités massives de données afin de déterminer des suites de mots probables par rapport aux données d’entrée (sur le modèle des logiciels d’autocomplétion, qui permettent de générer automatiquement la suite la plus probable d’un sms ou d’un e-mail).

Ce n’est évidemment pas ainsi que procèdent les « agents » lors de « conversations » : converser avec autrui ne suppose pas de faire des calculs probabilistes sur des quantités massives de données afin de générer une suite probable de mots (sans quoi aucun humain ne serait capable de converser). En conversant, un « agent » s’expose à l’autre en révélant sa singularité : tant qu’il ne se contente pas de répéter des idées reçues ou des clichés, il s’exprime à partir de sa mémoire, de son expérience et de ses désirs toujours singuliers, en interprétant une situation ou un contexte donné. Les conversations les plus intéressantes sont souvent les plus inattendues et les plus improbables, celles durant lesquelles l’agent se surprend lui-même à travers les questions qu’il pose ou à travers les réponses qu’il propose – la conversation se fait ainsi conversion. Le dialogue ne se réduit pas à un système entrée-sorties ou à un traitement d’informations, mais suppose une transformation mutuelle des participants.

« Plutôt que de se demander si nous devons accompagner ou interdire ChatGPT, il s’agirait alors de s’interroger sur les dispositifs numériques au service de l’intelligence collective et porteurs d’avenir pour les sociétés ».

C’est seulement à cette condition que de « l’intelligence » peut émerger : l’intelligence, comme capacité à se confronter à l’autre, à se mettre en question et à produire de la nouveauté, n’est pas plus attribuable à un agent isolé qu’à une machine déterminée, à moins de la confondre avec le quotient intellectuel ou avec le calcul automatisé. Loin de désigner une capacité individuelle (propriété cognitive attribuée à l’humain ou propriété algorithmique attribuée à la machine), l’intelligence désigne avant tout une forme de socialité — « être en bonne intelligence » signifie partager une sorte d’entente, de complicité ou de connivence (sur la base de laquelle des désaccords et des discussions peuvent bien sûr émerger). Plutôt que d’intelligences artificielles ou d’agents conversationnels, il faudrait donc parler d’automates computationnels pour désigner les modèles de langage du type de GPT.

D’apparence anodine, ce changement de vocabulaire permettrait peut-être d’éviter les fantasmes transhumanistes de Singularité Technologique, selon lesquels la croissance technologique conduirait à une superintelligence artificielle qui viendrait se substituer aux intelligences humaines. Jamais les calculs statistiques des algorithmes ne pourront remplacer les activités interprétatives de l’esprit, incarnées dans des corps vivants et désirants. En revanche, ce sont bien les singularités expressives qui sont menacées par ces industries linguistiques, dont le fonctionnement renforce les moyennes et les banalités, exploite les productions textuelles existantes sans les renouveler, tout en risquant de court-circuiter les capacités de mémorisation, de synthèse et de pensée.

De Wikipédia à ChatGPT : de l’intelligence collective au calcul automatisé

Rien d’étonnant, dès lors, à ce que les textes générés par ChatGPT ne soient pas dignes de confiance ou de fiabilité : contrairement aux articles collectivement produits sur une plateforme comme Wikipédia, ils n’ont été ni évalués ni certifiés par les pairs, et ils n’ont pas fait l’objet de débats argumentés. Il faut en effet distinguer un dispositif comme Wikipédia et un dispositif comme ChatGPT : les deux outils symbolisent deux visions antithétiques du Web, la première fondée sur l’ouverture et l’intelligence collective, et la seconde sur l’extractivisme et le calcul automatisé.

Wikipédia fonctionne sur la base de contributions humaines, à travers lesquelles les individus partagent leurs savoirs, exercent leur jugement et délibèrent collectivement, sur la base de règles transparentes et accessibles à la communauté, qui constituent ainsi des groupes de pairs ouverts, produisant un commun numérique au service de l’humanité. ChatGPT, au contraire, appartient à une entreprise privée et ne donne pas accès à ses normes de fonctionnement interne à ses usagers : ceux-ci sont d’ailleurs réduits au statut de consommateurs passifs, pouvant saisir des entrées et recevoir des sorties, mais sans possibilité de compréhension ni pouvoir d’action sur les mécanismes régissant le dispositif.

Dès lors, contrairement aux articles contributivement élaborés sur Wikipédia, les textes automatiquement générés par ChatGPT ne constituent pas des savoirs collectifs, mais des informations statistiquement glanées sur Internet dans une logique extractiviste. Sans compter la répétition virale des fausses informations dominantes ou la génération automatique de références scientifiques inexistantes, ces technologies présentent aussi le risque de dissimuler des erreurs aberrantes au milieu d’un texte vraisemblable et correct, erreurs que seuls les spécialistes du domaine pourront repérer, mais que les autres utilisateurs ne pourront pas distinguer.

Que se passera-t-il quand ces textes automatiques (qui peuvent être générés en quantité massive et à une vitesse inouïe) seront devenus dominants sur les réseaux numériques ? Sera-t-il encore possible de faire crédit à nos lectures en ligne ? Que se passera-t-il si les moteurs de recherches nous fournissent des réponses générées de manière automatique ? Sera-t-il encore possible d’accéder à la diversité des sources disponibles ? Le Web pourra-t-il devenir l’espace de partage des savoirs qu’il avait vocation à constituer si la diversité des points de vue n’est plus représentée et si les publications font l’objet d’un discrédit généralisé ?

Dès lors, ne serait-il pas nécessaire de s’interroger sur des dispositifs numériques alternatifs, mettant les algorithmes au service des activités d’interprétations, de jugements et de réflexion ? Qu’il s’agisse d’encyclopédies contributives, de logiciels d’annotations ou de plateformes collaboratives pour l’évaluation et la recommandation de contenu, de tels dispositifs existent, mais font rarement l’objet d’une promotion médiatique ou d’un soutien économique. Ils mériteraient pourtant d’être mis au cœur du débat public, si l’on ne souhaite pas constater dans quelques années les dégâts engendrés par la généralisation des technologies du type de ChatGPT, comme on constate aujourd’hui la nocivité des réseaux (anti-)sociaux, dont certains des créateurs se sont d’ailleurs repentis. Plutôt que de se demander si nous devons accompagner ou interdire ChatGPT, il s’agirait alors de s’interroger sur les dispositifs numériques au service de l’intelligence collective et porteurs d’avenir pour les sociétés.

Derrière leur aspect ludique et magique, les innovations disruptives promues par les entreprises de la Silicon Valley apportent aussi leur lot de dangers : déployée à une échelle massive et à une vitesse extrême, sans concertation avec les citoyens, les chercheurs ou les représentants politiques, ces dispositifs ne peuvent faire l’objet d’une appropriation collective, cultivée et critique. Pour qu’une telle appropriation devienne possible, ces nouveaux objets industriels, actuellement fermés et privatisés, devraient devenir des communs numériques ouverts et partagés. Ils devraient aussi constituer des objets de recherche transdisciplinaire et de débats publics, et non des sources de fantasmes idéologiques au service du marketing stratégique des géants du numérique.

La « révolution » numérique est profondément conservatrice

Photo @Sigmund

À chaque nouveau tour de vis numérique, ce sont les structures (sociales, économiques) du présent que l’on verrouille un peu plus. Ne sommes-nous pas en train d’assister à une révolution numérique conservatrice, impactant nos modes de vie, de pensée, voire nos modes de régulation sociale, au profit d’une gouvernance algorithmique dangereuse pour les libertés publiques et la démocratie ? L’urgence de développer des points de vue critiques sur ces transformations s’impose tous les jours un peu plus. Par Matthieu Belbèze.

Comment une photo de femme en bikini s’est-elle retrouvée classée dans la catégorie « souillon » par un algorithme de reconnaissance visuelle ? Comment le portrait d’un enfant portant des lunettes de soleil lui a-t-il valu de se voir affublé du qualificatif de « loser » ? Ce sont les résultats obtenus il y a quatre ans par Kate Crawford, chercheuse et professeure dans le domaine de l’intelligence artificielle, et Trevor Paglen, artiste, géographe et photographe. Ensemble, ils se sont intéressés à l’histoire de la reconnaissance d’images par des systèmes automatiques et des algorithmes.

Leur but : comprendre comment ces systèmes, à qui l’on accorde une confiance de plus en plus aveugle, sont entraînés à « voir » et « catégoriser » le monde. Le projet « Training Humans » a depuis été largement documenté. Sa conclusion : « il n’existe à ce jour aucune méthode « neutre », « naturelle » ou « apolitique » d’entraîner une intelligence artificielle ». La tendance systématique à collecter, catégoriser, qualifier des données soulève des questions cruciales. Qui décide de ce que ces images signifient ? Qui définit les catégories ? Quelles représentations sociales se retrouvent inévitablement embarquées dans un tel travail ?

Pour Kate Crawford et Trevor Paglen, vouloir s’affranchir des biais embarqués dans la création d’un modèle mathématique est une entreprise impossible. Les tentatives d’IBM pour « mathématiser la représentativité » leur semblent vaines et particulièrement alambiquées. En effet, utiliser un algorithme qui pondère les choix faits par des opérateurs humains pour entraîner un autre algorithme de reconnaissance visuelle par une méthode à mi-chemin entre poupée russe et Turc mécanique produit très souvent des résultats fragiles et dangereux d’un point de vue normatif. Cette pratique est symptomatique d’une course en avant qui semble à chaque étape amplifier un peu plus les erreurs du passé.

Les algorithmes, arme de reproduction massive

Après tout, comme l’écrit Marianne Bellotti, développeuse autodidacte et anthropologue passée notamment par le Département américain du numérique : « les gens ne prennent pas de meilleures décisions avec plus de données, alors pourquoi penser qu’il en serait différemment pour une intelligence artificielle ? ».

Comme Sisyphe, condamné par les dieux à remonter chaque matin un énorme rocher le long d’une pente raide avant qu’il ne la dégringole à nouveau chaque soir, les spécialistes passent 80% de leur temps à nettoyer les jeux de données dont ils disposent. Dans l’espoir que de « meilleures informations » permettent – enfin – d’obtenir de meilleurs résultats.

Sisyphe peint par Titian, exposé au Musée du Prado à Madrid
Le data scientist moderne, une allégorie – Sisyphe peint par Titian, exposé au Musée
du Prado à Madrid

Or la rationalité dont nous entendons charger les systèmes informatiques que nous créons n’existe pas. En contexte réel, les décisions publiques, politiques, économiques, sont prises non pas dans un souci de précision et d’exactitude – mais de façon à minimiser l’effort requis. Marianne Bellotti encore : « la compréhension totale d’une situation est moins désirable que des outils permettant de prendre une décision plus rapide ». Une décision sera donc toujours le résultat d’une négociation entre les différents acteurs impliqués, compte tenu de leurs enjeux et de leur environnement. Un processus qu’aucun échantillonnage parfait de données (si tant est qu’il existe) ne pourra jamais contraindre.

Les développements technologiques de l’intelligence artificielle (IA) seront toujours soumis aux biais et aux impératifs (personnels, financiers, mentaux) de celles et ceux qui les contrôlent. Une direction très largement héritée du passé – et qui explique sans doute que les systèmes de reconnaissance faciale vendus par Microsoft, IBM ou par le géant chinois Megvii se montrent particulièrement défectueux face à des femmes noires, alors qu’ils présentent de meilleurs résultats face à des hommes blancs… Mireille Hildebrandt, juriste et philosophe néerlandaise spécialiste des sciences informatiques, met derrière l’acronyme d’IA (Intelligence Artificielle) le concept particulièrement juste d’« Inférence Automatisée ». Ce qu’on nous présente comme une révolution n’est qu’une prolongation de systèmes de pensée déjà en place.

Gender Shades Project
Données du Gender Shades project qui souligne les biais des algorithmes développés par les plus grandes entreprises – ici leur incapacité à être efficaces sur des visages de femmes noires

La numérisation du travail : nouveaux ingrédients, vieilles recettes

Une consolidation des structures existantes qui se retrouve largement dans le monde du travail. À commencer par la façon même dont les outils numériques de « productivité » sont codés. Le logiciel de visioconférence Zoom, qui a su tirer son épingle du jeu durant la pandémie en passant de 10 millions d’utilisateurs quotidiens à plus de 300 millions en quelques mois en est l’illustration parfaite. Hubert Guillaud, journaliste et infatigable arpenteur d’internet interviewé par Xavier de La Porte explique comment certaines fonctionnalités du logiciels ne sont accessibles qu’à l’organisateur de la réunion en ligne. L’« host » peut ainsi couper le micro d’un participant, autoriser ou interdire le partage d’écran, voire éjecter purement et simplement un utilisateur d’une réunion.

Revoilà le pouvoir hiérarchique du passé codé « en dur » dans les fonctionnalités de l’outil du futur. La collaboration horizontale née du confinement, qui devait mettre tout le monde sur un pied d’égalité, a fait long feu. Dans un fameux article paru en 2000 (Le code fait loi – De la liberté dans le cyberespace), le professeur de droit à Harvard et activiste Lawrence Lessig attirait déjà l’attention sur ce nouveau pouvoir qui émergeait, loin des yeux du grand public ou des instances représentatives. Car l’entreprise privée qui code un outil utilisé par des centaines de millions de personne contrôle pleinement ce qu’ils ou elles y feront – ou ne pourront pas y faire. « Code is law ».

« Le conservatisme, c’est estimer qu’il y a un groupe de personnes qui doit être protégé mais pas contraint, et qu’un autre doit être contraint mais pas protégé ». Les mots sont d’un commentateur de forum dont on ne connaît que le nom, Frank Wilhoit, mais ils sonnent terriblement juste : il faut donc qu’en renforçant les gagnants habituels, la technologie affaiblisse aussi les perdants usuels. Dans le monde du travail, l’irruption (la « disruption » ?) de la robotique, censée remplacer les emplois les moins qualifiés, n’a pas eu lieu (SoftBank, le géant japonais, vient de renoncer à la production de ses robots Pepper, destiné à prendre soin des populations vieillissantes). Mais elle a servi d’épouvantail à beaucoup d’entreprises, Amazon en tête, pour faire accepter son ersatz : le contrôle informatisé et constant des employés.

The Constant Boss, Labor Under Digital Surveillance - un rapport d’‌Aiha Nguyen, Institut Data & Society ; illustration Yichi Liu
The Constant Boss, Labor Under Digital Surveillance – un rapport d’‌Aiha Nguyen, Institut Data & Society ; illustration Yichi Liu

C’est ce que Callum Cant, journaliste, écrivain, auteur notamment de « Riding for Deliveroo » appelle le « management algorithmique ». Amazon, Uber, ont transformé le travail en une succession de micro-instructions mesurées, limitées dans le temps, qui retirent à l’employé toute autonomie et toute compréhension de ce qui est à l’œuvre. Il compare cette situation à celle du Détroit des années 50 et 60, où les ouvriers des lignes d’assemblage automobiles avaient la liberté pendant leur pause d’aller se promener dans les usines pour voir se dérouler sous leurs yeux l’ensemble de la chaîne de production. Une clarté qui paraît totalement inaccessible aujourd’hui.

Cette stratégie de contrôle vient de loin, et est tout sauf innovante. L’« organisation scientifique du travail » prônée par l’ingénieur américain Frederick Winslow Taylor au début du XXe siècle a donné le taylorisme, puis le fordisme. L’employé étant embauché pour sa force de travail potentielle, comment faire pour que ce potentiel soit utilisé à plein, tout le temps ? Autrement dit, pour en prendre le contrôle ? Pendant longtemps, l’ouvrier était celui qui connaissait le mieux son travail, une connaissance qui échappait à son employeur et qui lui permettait donc de garder la main sur son « potentiel » et sur son effort. Taylor entreprit d’étudier le travail, d’inverser la connaissance pour la mettre entre les mains de ceux qui l’organisent. De découper et de chronométrer les tâches pour en éliminer toute marge, latence, autonomie.

Du taylorisme à l’« amazonification » du travail, l’hérédité est flagrante. Dans les entrepôts de Jeff Bezos, votre « temps hors tâche » (« Time Off Task » ou « TOT ») est précisément mesuré, et un jeu vidéo maison appelé « Mission Racer » invite les employés à rentrer en compétition les uns avec les autres pour aller plus vite …

Les rentiers numériques

Au sommet de la pyramide conservatrice trônent celles et ceux « qui doivent être protégés mais pas contraints ». On a écrit ailleurs comment l’innovation, censée, dans la théorie économique du marché, bousculer les acteurs en place, avait dans les faits perdu son pouvoir de « briseuse de rente » pour la raison que les grandes entreprises innovent trop vite et ralentissent volontairement la diffusion technologique, disposent de données et de capitaux massifs qui les rendent impossibles à rattraper. En outre, Amazon, Apple, Facebook et Google consolident ainsi leur métier initial tout en avalant à un rythme effréné les acteurs des secteurs qu’ils convoitent. Le résultat ? Des monstres hybrides, qui ont fini par attirer l’attention de certains parlementaires américains, inquiets de leurs « conflits d’intérêts » et de l’« auto-promotion de leurs services. »

How Big Tech got so big, infographie du Washington Post qui liste toutes les acquisitions d’Amazon, Apple, Facebook et Google
How Big Tech got so big, extrait d’une infographie du Washington Post qui liste toutes les acquisitions d’Amazon, Apple, Facebook et Google

Kean Birch et D.T. Cochrane, professeur et chercheur au sein de l’université de York au Canada, parlent de la formation d’« écosystèmes » entiers dont la survie et la croissance reposent non plus sur la capacité à innover, mais sur la construction expertes de rentes qu’ils classent en quatre catégories :

Rentes d’enclaves
La majeure partie de ces écosystèmes est fermée, alors qu’ils sont devenus des passages obligés. Il est alors nécessaire pour cela de payer Apple pour diffuser des application aux détenteurs d’iPhones, ou accepter de partager les données d’utilisateurs pour proposer un service sur le casque de réalité virtuelle Oculus de Facebook.

Rentes liées aux anticipations positives des marchés
Grosses et particulièrement rentables, ces entreprises peuvent emprunter à bas prix sur les marchés financiers, ce qui leur permet de financer leur croissance et leurs achats externes tout en renforçant les anticipations positives… et ainsi de suite.

Rente d’engagement
Par l’ancienneté et la multiplicité de leurs points de contact (appareils connectés, logiciels professionnels, de santé, de musique…) les grands acteurs technologiques ont construit et continuent à élaborer en temps réel une connaissance sans égale des populations. Ce qui leur permet de vendre l’accès à des segments très fins, ou au contraire de développer eux-mêmes de nouveaux services sur des besoins qu’ils sont les seuls à anticiper.

Rente de réflexivité
Les auteurs désignent ainsi ce que nous évoquions plus haut (« code is law »), à savoir que ces entreprises, opérant hors de tout contrôle externe, peuvent établir voire tordre les règles du jeu à l’intérieur de leur propre écosystème. Facebook a ainsi longtemps menti sur la portée réelle de ses publicités auprès de ses clients, et Amazon a modifié les algorithmes de recherche sur sa plate-forme pour avantager ses propres produits.

Renverser le rapport de force

Algorithmes qui perpétuent les biais sociétaux à grande échelle, monde du travail plus hiérarchisé que jamais grâce au taylorisme numérique, géants technologiques qui construisent à grande vitesse des rentes indéboulonnables…

Le changement technologique est une bonne excuse pour ne rien changer du tout.

Nous voilà de plus en plus proches des visions techno-futuristes cauchemardesques de William Gibson, auteur notamment de Neuromancien et père du Cyberpunk. Un genre littéraire, cinématographique, visuel, qui dépeint une humanité qui s’est largement abandonnée à la technologie dans les moindres recoins de sa vie et même de ses corps (via des prothèses, ou des « augmentations » diverses et variées). Des mondes aussi très stratifiés, où l’écart entre « ceux d’en haut » (rappelez-vous, qu’il faut protéger sans contraindre) et ceux d’en bas est définitivement impossible à combler et assumé comme tel. Des mondes enfin où les grandes entreprises privées sont les nouvelles puissances politiques et régulatrices de nos vies. Or William Gibson le dit lui-même : « le changement technologique est une bonne excuse pour ne rien changer du tout ».

Logo d’Evil Corp dans la série télévisée Mr. Robot, décrite par son créateur Sam Esmail comme une tentative « d’amener le cyberpunk à la télévision
Logo d’Evil Corp dans la série télévisée Mr. Robot décrite par son créateur Sam Esmail comme une tentative « d’amener le cyberpunk à la télévision – un logo très proche de celui d’Enron, entreprise un temps la plus prisée de Wall Street avant de s’effondrer en 2001

En temps de crise, il est tentant et (trop) humain de se raccrocher au passé, pour le faire vivre dans tout ce qu’il a de rassurant. Mais, écrit Eva Illouz, sociologue franco-israélienne, « vouloir illuminer le présent par le passé revient à chercher un objet perdu sous un lampadaire parce que c’est le seul endroit où il y a de la lumière ». L’usage actuel de la technologie s’assure de l’ordre (préserver celui en place) plutôt que de la justice (rééquilibrer les rapports), pour paraphraser une interview récente de l’acteur et réalisateur Jean-Pierre Darroussin.

Sous couvert de marche en avant progressiste, le néo-libéralisme technologique nous conduit tout droit à une mise en stase qui figerait la société actuelle. On peut alors, avec la philosophe Barbara Stiegler, faire appel à la grande figure du pragmatisme américain John Dewey. Rejetant « une adaptation passive des masses à l’environnement dégradé créé par la révolution industrielle, Dewey n’a cessé de lui opposer ce qu’il pensait être le véritable sens de la révolution darwinienne : le fait que les êtres vivants s’étaient toujours adaptés en modifiant activement leurs environnements ».

Plutôt que de figer les structures du passé, il faudrait par le travail expérimental de l’intelligence collective, multiplier les initiatives démocratiques, inventer « par le bas » un autre avenir commun. Un mouvement qui germe ça et là dans le développement technologique : défense du « design participatif », de la transparence, ou encore réappropriation des savoirs et des données face à la confiscation et l’asymétrie de l’information auxquelles nous soumettent les grands acteurs technologiques.