Depuis le lancement de ChatGPT il y a bientôt deux ans, les grandes entreprises de la Silicon Valley ne jurent plus que par l’intelligence artificielle. Pendant un an et demi, leurs promesses d’une nouvelle révolution technologique grâce à l’IA ont séduit les investisseurs, qui ont parié énormément d’argent sur ces outils. Mais la bulle spéculative est condamnée à exploser, un premier avertissement ayant eu lieu sur les marchés financiers en août. Dès les prochaines années, les quantités de données et de ressources physiques nécessaires à l’IA risquent en effet de manquer. [1]
Début août, les sept plus grandes entreprises technologiques américaines ont perdu une valeur combinée de 800 milliards de dollars, les investisseurs ayant liquidé leurs actions dans un mouvement de panique soudain face à l’imminence d’une récession aux États-Unis et à la prise de conscience progressive que la « révolution de l’IA » tant attendue avait été spectaculairement surestimée. Ce marasme boursier est venu couronner 18 mois extraordinaires qui ont suivi le lancement, en décembre 2022, du modèle génératif de langage ChatGTP appartenant à la société Open AI, dont la capacité à produire des écrits et des conversations semblables à ceux d’un être humain a surpris le monde entier. Malgré un rebond partiel des valorisations en bourse depuis août, le sentiment de malaise qui s’installe, à savoir que l’IA ne sera pas à la hauteur de l’extraordinaire battage médiatique qu’elle a suscité, ne s’est pas dissipé pour autant. Goldman Sachs et la banque ING ont ainsi récemment publié des rapports mettant en garde contre les coûts excessifs et les avantages limités de l’IA.
Cet engouement de la financer pour l’IA avait fini par atteindre des sommets caricaturaux. De vaines spéculations sur une éventuelle « conscience » des machines et la perspective imminente d’un superordinateur tout-puissant – ce que l’on appelle l’intelligence artificielle générale – ont été incessamment alimentées par des prophètes de l’IA tels que Sam Altman, PDG d’OpenAI. Cela a bien sûr contribué à faire grimper les valorisations de sa propre entreprise et bien d’autres dans le domaine de la technologie à des niveaux extraordinaires. Le concepteur de puces Nvidia, dont les semi-conducteurs et cartes graphiques ont été réorientés des jeux vidéo vers les applications d’intelligence artificielle, est ainsi brièvement devenu, en juin dernier, l’entreprise la plus valorisée au monde, ses puces essentielles au processus d’« entraînement » des modèles d’intelligence artificielle à partir d’énormes quantités de données étant en pénurie face à la demande.
Aujourd’hui, 5,35 milliards de personnes sont en ligne, soit plus que les 4,18 milliards qui ont accès à des toilettes à domicile.
Pour comprendre pourquoi l’IA est une bulle, il est essentiel de comprendre qu’elle n’est qu’une extension de technologies déjà existantes et très familières. Depuis deux décennies, le modèle économique de base du secteur technologique repose sur la collecte et le traitement d’énormes quantités de données produites par les utilisateurs, ce qui permet d’obtenir des informations précieuses sur le comportement des consommateurs, qui sont vendues aux professionnels du secteur publicitaire. Avec l’arrivée des smartphones à la fin des années 2000, toute une infrastructure technologique s’est rapidement mise en place pour permettre la collecte impitoyable, minute par minute, des données des utilisateurs. Aujourd’hui, 5,35 milliards de personnes sont en ligne, soit plus que les 4,18 milliards qui ont accès à des toilettes à domicile.
Cette agrégation ahurissante de données humaines constitue une partie de la matière première de l’IA. Associée à des processeurs spécialisés, du type de ceux fournis par Nvidia, la quantité de données est aujourd’hui si importante que de nouvelles applications jusqu’alors irréalisables peuvent être développées – la plus frappante étant la création de logiciels informatiques apparemment capables de tenir une conversation. À nos yeux humains, les résultats peuvent paraître presque magiques : l’ordinateur intelligent pouvant converser avec un humain est un vieux rêve de science-fiction. Dans le même temps, d’incroyables créations artistiques sont à la portée de quelques clics. Il n’est donc pas surprenant que l’IA ait suscité un engouement aussi extraordinaire. Mais elle reste, fondamentalement, une extension de l’industrie de l’extraction de données dans laquelle nous nous sommes tous empêtrés au cours des deux dernières décennies.
Selon le Wall Street Journal, l’IA sera à court de données provenant de l’ensemble de l’internet et produites par l’ensemble de l’humanité dès 2026.
Le volume de données extraites est désormais tel que des résultats relevant de la science-fiction semblent aujourd’hui possibles. Mais parce qu’il s’agit d’une industrie extractive, et parce qu’elle doit fonctionner à une échelle aussi vaste, il y a des limites strictes à ce que les technologies actuelles de l’IA peuvent faire. C’est ainsi que la valorisation boursière des entreprises technologiques dépasse largement la réalité économique, créant les conditions d’une bulle spéculative classique.
Le premier obstacle est l’épuisement de la matière première que constituent les données humaines. Selon un calcul publié dans le Wall Street Journal, l’IA sera à court de données provenant de l’ensemble de l’internet et produites par l’ensemble de l’humanité dès 2026. Les entreprises spécialisées dans l’IA ont donc pris l’habitude d’utiliser des données générées par l’IA pour essayer d’entraîner leurs machines ! Mais cela produit ce qu’un récent article universitaire a appelé « l’effondrement du modèle » : L’IA cesse de fonctionner lorsqu’elle doit se nourrir d’elle-même. Et plus l’internet sera inondé de « déchets d’IA », moins l’IA sera utile. Un scénario qui met en doute la survie même de l’IA selon le spécialiste Corey Doctorow.
À l’autre extrémité de la machine d’extraction de données se trouve l’infrastructure matérielle nécessaire pour faire fonctionner ses algorithmes. Cependant, plus les ordinateurs qui exécutent les logiciels sont alimentés en données, plus ils deviennent gourmands en ressources. Les centres de données se multiplient dans le monde entier pour répondre à la demande : Microsoft ouvre actuellement un nouveau datacenter quelque part sur la planète tous les trois jours. Or, ces datacenters exigent d’énormes ressources. Ainsi, un centre de données moyen de Google consomme autant d’électricité que 80.000 ménages. En Pennsylvanie, un complexe de serveurs d’Amazon dispose ainsi d’une centrale nucléaire dédiée à son alimentation en électricité. Pour maintenir au frais ces serveurs bourdonnants, il faut d’énormes volumes d’eau : un nouveau centre de données à grande échelle consomme en général la même quantité d’eau par jour que 40.000 personnes. Il n’est donc pas étonnant que, du Chili à l’Irlande, les protestations contre ces monstres commencent à se multiplier. En Grande-Bretagne, les plans d’expansion rapide de l’IA récemment annoncés par le gouvernement travailliste risquent de se heurter de plein fouet à des réserves d’eau déjà très sollicitées.
Il existe donc des limites strictes à ce que cette génération d’IA est susceptible d’apporter et cela signifie que la bulle éclatera de nouveau : la réalité ne peut pas être à la hauteur du battage médiatique. Avant qu’elle ne s’effondre, certaines applications réellement utiles dans le domaine médical, par exemple, seront supplantées par la production de « déchets » à but lucratif et, plus inquiétant encore, par l’extension rapide des technologies de l’IA à des fins militaires, comme le tristement célèbre système israélien « Lavender », utilisé pour générer des milliers de cibles pour les forces de défense israéliennes dans la bande de Gaza.
Alors que le changement climatique s’aggrave et que les contraintes en matière de ressources se font sentir partout dans le monde, il est plus que temps de nous poser de sérieuses questions plus difficiles sur l’engagement extraordinaire que nous prenons en faveur de technologies de plus en plus axées sur le profit et la guerre.
L’émergence d’IA génératives capables de créer un texte, une image ou un son à partird’une simple requête a bousculé le monde de la culture. Elle a suscité beaucoup deréactions, dont la majorité est empreinte de fantasmes, de colère ou de confusion, certains déclarant même imminente la mort de l’art. À rebours de ce récit alarmiste, il est possible de défendre l’idée que les IA génératives participeraient à un véritable renouveau de la culture populaire, à condition de lutter contre leur appropriation par les industries culturelles ou l’industrie de la tech.
L’inquiétude des artistes face à l’IA
Vent de panique international dans le monde de la culture : de nombreux artistes et organisations prennent publiquement position contre les intelligences artificielles dites « génératives » (abrégé GenIA), des nouvelles technologies qui permettent de composer textes, images ou audio grâce à une simple requête formulée en langage naturel [1].
Certains craignent d’être mis de côté par les industries culturelles et de perdre leur emploi, remplacés par des machines. C’est notamment l’un des objets d’une grève exceptionnelle qui a bloqué pendant plusieurs mois l’industrie du cinéma américain. Deux importants syndicats, la SAG-AFTRA (guilde des acteurs) et la WGA (guilde des scénaristes) se sont battus pour obtenir des studios une plus grande sécurité de l’emploi face à la menace grandissante de l’IA qui pourrait, dans un futur très proche, écrire ou mettre en scène des acteurs fictifs pour un prix dérisoire. Les grévistes ont reçu le soutien de nombreuses superstars hollywoodiennes, dont Meryl Streep et Leonardo DiCaprio [2].
D’autres s’indignent de ce que l’activiste et écrivaine Naomi Klein qualifie du « vol le plus important de l’histoire de l’humanité » [3] : l’utilisation par les entreprises d’IA de milliards d’œuvres, sans rétribution ni consentement de leurs auteurs. Les bots de ces entreprises arpentent Internet pour amasser images et textes, les utilisent comme matière brute afin d’entraîner leurs applications de GenIA [4], qui requièrent d’immenses quantités d’exemples pour apprendre à créer à leur tour. Les artistes Kelly McKernan, Sarah Andersen et Kayla Ortiz ont par ailleurs lancé une action légale contre Stability IA, Midjourney et DeviantArt pour violation du droit d’auteur.
Enfin, pour les plus pessimistes, la fin de l’art est proche, provoquée par le «grand remplacement » des artistes par les robots [5], la confiscation de la création par les machines. « Art is dead, dude. It’s over. A.I. won. Humans lost. » [L’art est mort, mec. C’est fini. L’IA a gagné. Les humains ont perdu 6], déclarait en 2022 au New York Times l’artiste Jason Allen, l’un des premiers à avoir remporté un prix d’art avec une image générée par IA.
Il est clair que les GenIA sont de nouvelles forces productives et que leur émergence pourrait transformer radicalement la production d’œuvres d’art.
Il est clair que les GenIA sont de nouvelles forces productives et que leur émergence pourrait transformer radicalement la production d’œuvres d’art, conduisant ainsi à modifier durablement les industries culturelles, le rôle social de l’artiste et les rapports de force dans la chaîne de production artistique. Toutefois, le monde de la culture et ses industries ne sont pas étrangers aux bouleversements liés à l’introduction de nouvelles technologies. Un cas présentant des similitudes avec l’émergence des GenIA est l’introduction d’outils numériques dans la production musicale à partir des années 1980. Ce qu’il s’est alors joué entre les artistes, le public, l’industrie musicale et l’industrie de la tech nous offre un cas d’étude pour analyser les transformations du présent.
En effet, avant les années 1980, produire un disque était cher et nécessitait des investissements conséquents. L’introduction, entre les années 1980 et 2010, d’outils numériques de conception musicale, ont entraîné une baisse drastique du prix de réalisation des albums. Cette tendance connut son point d’orgue avec l’arrivée de logiciels appelés « Digital Audio Workstations »(DAW) qui incluent le studio d’enregistrement dans son entièreté, instruments de musique compris. Un grand nombre de musiciens, amateurs et professionnels, ont alors pu produire des enregistrements de qualité depuis chez eux. Cette démocratisation de l’accès aux outils de production a entraîné une véritable révolution Do it yourself (DIY) dans le monde de la musique [7]. Elle a déstabilisé l’industrie musicale pendant des décennies : les studios d’enregistrement ont perdu leur place privilégiée dans le processus de production des disques, entraînant une crise dans le secteur suivie d’une dégradation des conditions de travail pour les ingénieurs du son, moins payés et contraints de faire plus d’heures pour des studios fragilisés [8]. Si l’industrie s’est restructurée autour du marketing et de la publicité, la création musicale s’est en revanche durablement décentralisée.
Le fantasme de la fin de l’art
Pour en revenir aux GenIA, penser qu’elles provoqueraient la fin de l’art est un fantasme. L’art est une forme d’expression entre des êtres doués de conscience. Les systèmes de GenIA n’ont pas de libre arbitre, contrairement à ce que le mot « intelligence » dans leur nom suggère. Ils ne sont qu’une série de nouveaux outils, à disposition de l’artiste pour exprimer ses intentions.
Le photographe Boris Eldagsen, qui a fait scandale en remportant cette année le prestigieux prix Sony World Photography Awards avec une image générée par IA, décrit ainsi son travail : «[c’est] une interaction complexe […] qui puise dans la richesse de [mes] connaissances en photographie […] [Travailler avec l’IA] ça n’est pas juste appuyer sur un bouton – et c’est fini. Il s’agit d’explorer la complexité du processus, en commençant par affiner des prompts, puis en développant un workflow complexe, et mélangeant des plateformes et des techniques variées. Plus vous créez un tel workflow et définissez des paramètres, plus votre apport créatif devient déterminant » [9]. Un journaliste du magazine WIRED, quant à lui, explique qu’il n’est « pas rare pour une image marquante de nécessiter 50 étapes » [10].
La photographie primée de Boris Eldagsen, conçue avec l’aide d’une IA.
Pas la fin de l’art donc, mais peut-être une nouvelle révolution Do it yourself (DIY) qui affecterait cette fois-ci tous les champs de la création culturelle. Le fondateur de l’entreprise qui distribue le DAW FruityLoops explique le succès de ce logiciel par le fait qu’un utilisateur peut être « opérationnel en quelques secondes » et qu’il est « presque impossible de créer quelque chose qui ne sonne pas » [11]. Les GenIA sont également des outils d’une incroyable accessibilité. Elles permettent à n’importe qui de créer des œuvres d’art, sans avoir à posséder toute une infrastructure de production, sans avoir les compétences techniques pour l’opérer, sans même avoir de compétences artistiques. De plus, il suffit pour les utiliser de posséder un simple téléphone ou ordinateur [12].
C’est précisément dans les champs artistiques qui requièrent des infrastructures de production très lourdes et des budgets conséquents, comme le cinéma et le jeu vidéo, que le changement pourrait être le plus profond. Des startups imaginent déjà comment les GenIA pourraient radicalement démocratiser la production de films en automatisant certaines opérations très coûteuses, et en permettant de tester rapidement différents choix artistiques [13]. En réduisant drastiquement le coût d’entrée dans l’industrie du cinéma, les GenIA pourraient permettre l’émergence de nombreux studios indépendants. À terme, elles pourraient même permettre à des amateurs de produire des films entiers, avec acteurs, décors, mouvements de caméras et effets spéciaux, seuls et depuis leur chambre.
Le potentiel radical des GenIA
Les GenIA, tout comme les DAW, permettent en réalité la numérisation d’une partie des compétences du monde de la culture, sous la forme de machines immatérielles qui peuvent produire plus rapidement, en quantité infinie et pour un coût bien moindre [14]. C’est une nouvelle occurrence de l’automatisation de la production industrielle, un phénomène ancien et intrinsèque au capitalisme qui a déjà touché de nombreux autres secteurs de l’économie. Marx, dans son Fragment sur les machines, décrivait en 1857 comment la quête incessante de productivité menait logiquement à la conception de machines qui intègrent le savoir-faire des travailleurs afin de déplacer ces derniers en périphérie du processus de production, remplaçant ainsi le travail par le capital.
À l’aune de la révolution du numérique, cette théorie a connu un regain d’intérêt grâce à des intellectuels comme Mark Fisher, Jeremy Rifkin, ou encore Paul Mason. Ces derniers postulent généralement que le chômage systémique et la surabondance des biens pourraient créer les conditions d’une émancipation du capitalisme, à condition de découpler le salaire du travail et de transformer les rapports de propriété [15]. En appliquant cette théorie au domaine de la culture, on peut envisager que les GenIA soient en réalité porteuses d’un potentiel radical : celui d’extraire la production culturelle des relations d’échange capitalistes. La posture à adopter face à ces nouvelles technologies serait alors de prendre une part active dans leur développement, afin de s’assurer qu’elles deviennent un bien commun, et profitent ainsi à l’ensemble de la société et non aux seules industries.
On peut envisager que les GenIA soient en réalité porteuses d’un potentiel radical : celui d’extraire la production culturelle des relations d’échange capitalistes.
C’est d’ailleurs le projet de fondations telles qu’EleutherAI ou Mozilla.ai qui développent des GenIA libres, c’est-à-dire qui puissent être inspectées, utilisées, modifiées et redistribuées gratuitement et par n’importe qui. Mozilla, la fondation derrière Firefox, a ainsi annoncé sur son blog la création de Mozilla.ai en début 2023 en déclarant : « Nous croyons que [les gens qui désirent faire les choses autrement], s’ils travaillent collectivement, peuvent créer un écosystème d’IA indépendant,décentralisé et fiable – véritable contrepoids au statu quo [des géants de la tech] » [16].
Cependant, ce potentiel révolutionnaire doit être considéré avec prudence : toutes les GenIA disponibles, y compris certaines présentées comme « libres », restent sous le contrôle d’entreprises telles que Facebook, Microsoft ou Google [17]. Le danger d’un récit qui présente les GenIA comme « outils révolutionnaires capables de démocratiser la création » est qu’il renforce l’image de « disrupteurs bienveillants » dont se parent les géants de la tech. Ces derniers ont une longue histoire d’appropriation des utopies imaginées par les pionniers de la contre-culture du numérique. Paul Mason, cité plus haut, était par exemple invité aux bureaux de Google à Londres en 2015 pour une présentation publique de son livre PostCapitalism, ensuite diffusée sur la chaîne YouTube « Talks at Google ».
Les déclarations de mission de ces entreprises sont, en outre, révélatrices d’une stratégie de communication consistant à faire croire au grand public qu’elles sont une force émancipatrice pour l’humanité. Ainsi, Meta (maison mère de Facebook) déclare sur son site web que sa mission est de « donner à chacun et chacune la possibilité de construire une communauté et de rapprocher le monde ». De son côté, au cours des années 2000, Google clamait son slogan « Don’t be evil », tout en développant une gigantesque entreprise d’extraction de données privées. Une analyse poussée des GenIA ne peut faire l’économie d’une distinction entre ce qui relève d’un véritable projet révolutionnaire et d’une stratégie publicitaire.
Une lutte de pouvoir, qui s’empare des GenIA ?
S‘il est vrai que les technologies ont le pouvoir de transformer la société, la société imprime réciproquement ses relations de domination et ses valeurs sur les technologies. Le débat sur l’impact des GenIA fait souvent l’impasse sur cette réciproque, en n’étudiant ni les acteurs qui dominent le présent ni les rapports de force économiques, sociaux et politiques qui le traversent. Pour saisir dans leur entièreté les enjeux liés aux GenIA, il faut donc interroger les positions des industries culturelles, de l’industrie de la tech et des artistes vis-à-vis de ces nouvelles technologies.
Le business model des géants de la tech consiste à capter l’attention du public afin de la vendre sous forme d’emplacements publicitaires ultra-ciblés [18]. Dans ces conditions, même si les GenIA provoquaient une explosion de productions indépendantes, sous le régime des géants de la tech ces productions seraient oblitérées par celles d’industries culturelles qui bénéficient d’importants budgets leur permettant d’acheter l’attention du public. C’est ce que le précédent de l’industrie musicale semble indiquer.
S‘il est vrai que les technologies ont le pouvoir de transformer la société, la société imprime réciproquement ses relations de domination et ses valeurs sur les technologies.
En démocratisant la production d’œuvres, les GenIA nous feront probablement entrer dans une nouvelle ère de créativité. Si dans le même temps, la société pouvait se libérer des réseaux sociaux publicitaires et de leur logique de compétition pour la visibilité [19], un nouveau rôle pourrait émerger pour les artistes. Puisque le nombre d’œuvres de qualité équivalente créées grâce aux GenIA serait infini, aucun créateur ne pourrait se démarquer. Il ne s’agirait donc plus de créer, pour être célèbre, vu, lu ou entendu par le plus grand nombre. Il s’agirait avant tout de créer pour sa communauté ou pour son plaisir personnel. Ce pourrait être le début d’une réappropriation de la culture comme instrument de structuration du collectif au lieu d’être, comme elle l’est souvent aujourd’hui, le résultat d’une compétition féroce dans un marché mondial de l’attention qui vante le génie et le mérite individuel.
Comme le remarque David Holz, le créateur de l’application de génération d’images Midjourney, cette vision est déjà partiellement en train de se réaliser. D’après lui, « une immense portion de l’usage [de Midjourney] consiste essentiellement en de l’art-thérapie » [20]. De nombreux utilisateurs se servent de la plateforme à des fins de divertissement comme on peindrait en amateur pendant son temps libre. D’autres s’en servent pour créer des images à usage personnel permettant de matérialiser une pensée profonde, un rêve ou un questionnement, et fonctionnant ainsi comme une forme de soin. Un journaliste rapporte, par exemple, avoir vu des images générées pour représenter le « paradis des animaux », en réponse à la mort d’un animal domestique [21].
Les industries culturelles, quant à elles, s’accrochent à leurs parts de marché, souvent soutenus par les artistes eux-mêmes. L’arrivée des GenIA a ainsi démarré un nouveau mouvement pour la défense des « droits d’auteurs » [22], un outil légal dont le nom suggère qu’il a été inventé dans un esprit de protection des créateurs, attirant donc une sympathie immédiate pour ce qui apparaît comme un instrument au service de la culture. La réalité est en fait à nuancer, les droits d’auteur ont permis, dès le XVIIIe siècle, à de riches éditeurs de l’industrie du livre de criminaliser l’impression de copies moins chères par des maisons d’édition plus petites [23]. Ils sont aussi régulièrement utilisés pour attaquer des organisations qui œuvrent pour la préservation et la dissémination de la culture, comme aux États-Unis, où l’industrie du livre attaque des bibliothèques en justice pour tenter de les empêcher de prêter des copies de livres numériques [24] ; ou encore par l’industrie du disque, pour stopper l’effort de l’ONG The Internet Archive d’archiver des disques 78 tours du début du XXe siècle qui sont autrement voués à disparaître [25].
Produire de l’art est aujourd’hui encore un privilège. Les artistes professionnels sont en écrasante majorité issus des classes supérieures qui seules possèdent un capital culturel, social et économique suffisant pour soutenir la précarité choisie de la vie d’artiste [26]. Les GenIA ont la capacité de décentraliser les outils de production artistique, permettant à chacun de raconter son histoire et de construire une grammaire artistique originale, moins dépendante des usages et des cahiers des charges des industries. Elles portent en elles la possibilité de faire passer notre société d’un modèle de culture commodifiée et verticale, dans lequel artistes et industries culturelles produisent des récits que le public consomme passivement, à un modèle horizontal, plus égalitaire, et dans lequel la frontière entre artiste et public serait devenue plus poreuse.
Le penseur et activiste Noam Chomsky affirmait dans un entretien en 2003 : « un marteau peut être utilisé [pour torturer quelqu’un] mais le [même] marteau peut être aussi utilisé pour construire des maisons » [27]. À contre-courant des oracles catastrophistes sur l’émergence des GenIA – « explosion de fake news », « chômage des artistes », « piratage des œuvres »– il n’est pas inutile de défendre une position moins tranchée, à condition de mener de nouveaux combats et d’en réinvestir d’anciens, pour l’implémentation de GenIA libres et gérées comme des communs, pour la liberté de la culture et pour la liberté des moyens de communication qui permettent de la partager.
Références
[1] Exemples de ces outils : Midjourney ou ChatGPT.
[2] Gbadamassi, Falila. “Meryl Streep, George Clooney et Leonardo DiCaprio : Les superstars ne sont pas sur les piquets de grève à Holliwood” Franceinfo, 4 août 2023, www.francetvinfo.fr/culture/cinema/meryl-streep-george-clooney-et-leonardo-dicaprio-les-superstars-ne-sont-pas-sur-les-piquets-de-greve-a-hollywood-mais-mettent-la-main-a-la-poche_5982314.html.
[4] Ces applications sont constituées de plusieurs parties qui jouent des rôles différents : le code informatique, les données, les modèles … Tout au long de cet article nous utiliserons néanmoins le terme « GenIA » pour qualifier l‘ensemble de ces parties.
[8] Leyshon, Andrew. “The Software Slump?: Digital Music, the Democratisation of Technology, and the Decline of the Recording Studio Sector Within the Musical Economy.” Environment and Planning A, vol. 41, no. 6, SAGE Publishing, June 2009, pp. 1309–31. https://doi.org/10.1068/a40352.
[14] D’après cette étude, il semblerait même que les émissions de CO2 d’une GenIA soient de 130 à 1500 fois plus faibles que celles d’un humain pour l’écriture d’un texte, et de 310 à 2900 fois plus faible pour la création d’une image. Tomlinson, Bill. “The Carbon Emissions of Writing and Illustrating Are Lower for AI than for Humans.” arXiv.org, March 8, 2023. https://arxiv.org/abs/2303.06219.
[15] Cette ligne de pensée avait d’ailleurs inspiré la campagne présidentielle de Benoît Hamon (PS) en 2017, qui avait proposé de répondre aux enjeux de l’automatisation avec des mesures comme la « taxe sur les robots ».
[17] Widder, David Gray, Sarah Myers West, and Meredith Whittaker. “Open (For Business): Big Tech, Concentrated Power, and the Political Economy of Open AI.” Social Science Research Network, January 1, 2023. https://doi.org/10.2139/ssrn.4543807.
[18] En réalité, le business model des géants de la tech dépasse bien largement la seule publicité, comme expliqué par Shoshana Zuboff dans son incontournable livre sur le capitalisme de surveillance. Zuboff, Shoshana. “The Age of Surveillance Capitalism.” Routledge eBooks, 2023, pp. 203–13. https://doi.org/10.4324/9781003320609-27.
[19] Suite à de nombreux scandales, notamment des cas d’ingérence lors d’élections démocratiques (comme dans l’affaire Cambridge Analytica), les États commencent enfin à réguler à grande échelle ces acteurs [19]. En tant qu’utilisateurs, il est possible de recourir à des alternatives solides, qui existent déjà, pour déserter les réseaux sociaux publicitaires. On pourrait citer par exemple Mastodon (https://joinmastodon.org/fr), un réseau social non publicitaire, ouvert et décentralisé. Quant à tous ces outils gratuits de Google et Microsoft qui extraient nos données, il existe de nombreuses alternatives libres (https://degooglisons-internet.org/fr/).
[23] Rose, Mark. “The Author as Proprietor: Donaldson V. Becket and the Genealogy of Modern Authorship.” Representations, vol. 23, University of California Press, Jan. 1988, pp. 51–85. https://doi.org/10.2307/2928566.
Waldron, Jeremy. “From authors to copiers: individual rights and social values in intellectual property.” Chi.-Kent L. Rev. 68 (1992): 841.
Le récent engouement autour de ChatGPT a de nouveau ravivé l’éternel débat sur la fin à venir du travail humain, remplacé par des intelligences artificielles et des robots. Pour le sociologue Antonio Casilli, auteur de En attendant les robots : Enquête sur le travail du clic (Seuil, 2019), ces annonces relèvent surtout d’un discours téléologique vénérant excessivement le progrès et de slogans marketing. Ayant étudié finement le fonctionnement concret de ces outils digitaux, il montre combien ceux-ci s’appuient sur du travail humain, généralement gratuit ou très mal rémunéré et reconnu. Plus qu’une disparition du travail, nous devons selon lui craindre, une plus grande précarisation et atomisation de celui-ci.
LVSL : Les médias spéculent régulièrement sur une fin à venir, sans cesse repoussée, du travail humain. Par exemple, en relayant l’étude The future of employment: how susceptible are jobs to computerization qui voudrait que 47% des emplois soient susceptibles d’être automatisés. Comme le titre de votre ouvrage semble l’indiquer (En attendant les robots), vous ne partagez pas cette analyse. Pourquoi ?
A. Casilli : Pour commencer, le titre n’est pas de moi. Ce n’était censé être à la base qu’un des chapitres de cet ouvrage, en l’occurrence le dernier. Cette référence renvoie à deux ouvrages majeurs : d’une part la poésie de Kavafys « En attendant les barbares » et de l’autre la pièce de Beckett « En attendant Godot », deux œuvres majeures du XXe siècle dans lesquelles on évoque une menace qui n’arrive jamais. Il s’agit d’une présence transcendante expliquant l’ambiguïté qui demeure aujourd’hui sur ce type d’automatisation qu’on attend tantôt avec impatience, tantôt avec crainte, mais qui finit toujours par être repoussée.
Moi-même, dans ma jeunesse j’ai eu droit aux vagues de rhétorique sur la fin du travail, à travers notamment l’ouvrage «La fin du travail » de Jeremy Rifkin (1995), qui annonçait la même chose que l’étude de Frey et Osborne dans «The future of employment ». Le message revenait à dire que l’automatisation anticipée allait être telle qu’un nombre important d’emplois disparaitrait sous peu, selon une logique de substitution. Mais si l’on avait face à nous une personne qui aurait vécu par exemple depuis le début du XIXe siècle, elle aurait pu témoigner de rhétoriques et de prophéties comparables parce qu’il n’a pas fallu attendre les intelligences artificielles pour se retrouver face ce type d’annonces.
Ce type de communication s’adresse avant tout aux investisseurs, dotés de ressources matérielles et d’un imaginaire constamment sollicité. L’investisseur est une personne qui doit, comme disait Keynes, se soumettre aux esprits animaux, se démarquer et les suivre dans une espèce de quête chamanique. De l’autre côté, ce discours s’adresse aussi à une force de travail qui a besoin d’être disciplinée. Dans ce contexte-là, la menace d’un grand remplacement par les robots est une manière d’assurer la discipline en les ramenant à une condition purement machinique, à un travail sans qualité, sans talent, sans compétences. C’est donc une manière de déprécier ce travail et de démontrer son inutilité alors qu’il s’agit bien d’un travail nécessaire.
« La menace d’un grand remplacement par les robots est une manière d’assurer la discipline ».
C’est en me concentrant sur ce travail vivant nécessaire qui nourrit la nouvelle vague d’innovation qui émerge avec les intelligences artificielles au début du XXIe siècle, en montrant « l’essentialité » (c’est-à-dire le fait qu’ils requièrent du travail humain, ndlr) de ces métiers de la donnée, que je m’efforce de montrer que l’innovation n’est pas forcément destructrice de travail. Plutôt elle déstructure l’emploi – ou en tous cas la version formalisée et protégée du travail, qui cesse alors d’être un travail encadré selon des principes établis par de grandes institutions internationales comme l’OIT. Ces avancées technologiques rendent le travail de plus en plus informel, précaire, sujet à un ensemble de variabilité et de fluctuations qui répondent autant au marché classique qu’à un nouveau type de marché, celui des plateformes, qui ont leurs propres fluctuations, dues à des logiques moins économiques qu’algorithmiques.
LVSL : Dans ce que vous évoquez justement de déstructuration du travail, en parlant de « travail numérique » nous désignons souvent les travailleurs ubérisés soumis au capitalisme de plateforme, mais vous rappelez aussi dans votre livre qu’il existe d’autres types de « travailleurs du clic ». Lesquels ?
A. Casilli : Ce que je cherche à faire dans cet ouvrage, c’est prendre comme point de départ le travail de plateforme visible qui concerne les métiers de la logistique, des passeports, des mobilités en général. Cela concerne parfois les métiers des services personnels comme ceux du « care » qui soignent des personnes ou s’occupent de tâches domestiques, etc. Tout cela fait partie de la première famille de métiers qu’on qualifie parfois d’« ubérisés ». C’est un terme qu’un industrialiste français, Maurice Levy, a choisi et que l’on a imposé à tout, en « brandisant » c’est-à-dire en attribuant une marque à un phénomène social.
Mais je m’efforce de dire : « Regardons aussi ailleurs ». Le travail plateformisé visible, les nouveaux métiers du clic ou de l’algorithme ne sont que la partie émergée de l’iceberg. Tout le reste est composé de travailleurs qui sont sous la surface de l’automatisation. Il existe deux grandes familles sur lesquelles se concentre la partie centrale de cet ouvrage : d’une part le nombre vraiment important de personnes qui, partout dans le monde, préparent, vérifient et parfois imitent les intelligences artificielles – ce sont les annotateurs de données, les personnes qui génèrent des informations pour entraîner les algorithmes ou pour conduire l’intelligence artificielle.
Dans la continuité de cela, il y a un travail de moins en moins vu, connu, reconnu et payé, tellement informel qu’il devient presque un travail de bénévole voire d’utilisateurs-amateurs, comme chacun et chacune d’entre nous l’est à un moment ou à un autre de sa vie et de sa journée. Par exemple le fait de se servir d’un moteur de recherche en améliorant la qualité des résultats, comme cela arrive à chaque fois qu’on utilise Google, ou de s’insurger contre une intelligence artificielle comme ChatGPT en améliorant par la même occasion la qualité de ses réponses. Il y a donc une continuité entre les personnes qui ne sont pas payées pour réaliser du clic, pour réaliser de l’amélioration de contenu et de service algorithmique, et les travailleurs du clic des pays émergents ou à faible revenu, généralement payés 0,001 centime la tâche. Sur le papier, la différence est vraiment minuscule mais c’est important de la souligner.
« Afin de rendre les travailleurs interchangeables, il faut faire en sorte que l’activité humaine soit standardisée et réduite à son minimum, son unité minimale est alors le clic. »
LVSL : Pour reprendre les termes que vous utilisez dans le livre, vous distinguez trois formes de « travail digital ». Le travail des petites mains du numérique, c’est-à-dire le travail à la demande (prestation de petites interventions comme Uber, Deliveroo, etc.) ; le micro-travail qui fournit le soutien aux algorithmes par des tâches standardisées de mise en relation de données et le travail social en réseau qui est la participation des usagers à la production de valeur. Dans la droite lignée du taylorisme, ces nouvelles tâches témoignent-elles d’une nouvelle organisation du travail qui n’est pas aboli par le numérique mais simplement fractionné et décentralisé à un degré supérieur ?
A. Casilli : Oui, vous avez bien résumé les trois familles de travail, mais on peut encore faire un effort supplémentaire pour caractériser cette activité dont on parle. Pour qualifier ce « travail numérique », on peut aussi bien employer deux autres adjectifs. C’est un travail qui est « datafié » et « tâcheronisé ». « Datafié » signifie qu’il produit de la donnée et qu’il est lui-même produit par la donnée. « Tâcheronisé » c’est-à-dire atomisé, segmenté en petites tâches. Afin de rendre les travailleurs interchangeables, il faut faire en sorte que l’activité humaine soit standardisée et réduite à son minimum, son unité minimale est alors le clic.
Sommes-nous là face à une continuation du taylorisme ? La réponse est un peu compliquée dans la mesure où le taylorisme, tel qu’on le connaît historiquement, était synthétiquement dû à la gestion scientifique et non à la gestion algorithmique. Il y a une différence importante entre ces deux conceptions parce que la définition de Taylor était celle d’un travail sur plan, avec un cahier des charges pour des personnes intermédiaires puis des exécutants et des ouvriers. Il y avait une chaîne hiérarchique et une manière d’organiser ce travail par des échéances précises : chaque semaine, chaque jour, chaque mois, chaque année. Il s’agissait donc d’un travail de plan tandis que le travail de plateformes qui sert à produire ces intelligences artificielles est un travail à flux tendu. Cela signifie que les manières d’associer un exécutant et une tâche passe plutôt par un modèle mathématique qu’est l’algorithme qui apparie un être humain et un contenu (ex : quel chauffeur va s’occuper de quelle course). Dans la mesure où cette logique est différente, elle bouleverse également l’équilibre politique auquel le taylorisme avait conduit, que l’on résume parfois par l’économie du fordisme-taylorisme qui repose sur une production de masse, qui, à son tour, produit des marchés de consommation de masse.
Là, on est face à une organisation plus compliquée et à des micro-marchés, des marchés de niche qui sont réalisés ad hoc, créés par l’algorithme même. Pour terminer, le type de protection sociale qui allait de pair avec le fordisme-taylorisme a été complètement abandonné pour la raison qu’on ne se trouve pas dans une situation dans laquelle il faut assurer un salaire stable afin que ces employés puissent se permettre de consommer la production même de leur propre usine ou de leur entreprise. Aujourd’hui, ce n’est pas à Uber de s’occuper de donner suffisamment d’argent à une personne pour qu’elle puisse s’offrir des produits ou des services Uber. Il y a effectivement une séparation totale entre ces deux aspects, ce qui débouche sur un travail beaucoup moins protégé, qui offre beaucoup moins de certitudes quant à son existence même et à son activité, donc à sa rémunération. En outre, cela génère moins de protection sociale du point de vue de l’assurance, de la carrière, de la formation, de la retraite, et ainsi de suite. Tout ce qui faisait l’équilibre sociopolitique dans la deuxième moitié du XXe siècle – du moins dans les pays du Nord – est aujourd’hui laissé de côté et les plateformes qui produisent l’intelligence artificielle et qui se basent sur ce concept de « digital labour » sont finalement la réalisation et l’achèvement ultime de l’idéal néolibéral du chacun pour soi et du travail pour personne.
« Moi j’ai jamais rencontré les gens avec lesquels je travaille et encore moins les gens pour lesquels je travaille parce que, tout simplement, je me connecte sur un site et je coche des cases »
LVSL : Vous évoquez dans votre livre des tâches comme l’incorporation de données dans les IA, le tri des doublons, la mise en lien de recommandations, etc. Il s’agit d’un travail qui ne met pas directement en jeu les forces du travailleur mais plutôt des qualités cognitives comme la faculté de discernement, de jugement ou encore de discrimination. En outre, nous avons affaire à des personnes qui sont individualisées du simple fait qu’il s’agisse d’un travail qui s’effectue la plupart du temps seul, face à un écran. Par conséquent, face à la fois à ce changement de lieu de travail, à cette atomisation du travail et au fait que les facultés qui sont mobilisées sont d’ordre cognitives, est-ce pour vous le signe d’un nouveau prolétariat de type cognitif ou digital ?
A. Casilli : Je dirais qu’il y a clairement la formation d’une nouvelle subjectivité politique, qu’on peut appeler « nouveau prolétariat ». À la fin du livre, je fais d’ailleurs tout un effort pour étudier dans quelle mesure on peut parler de classe mais ma réponse est assez dubitative. Pour l’instant, j’insiste beaucoup sur le fait que la nouveauté présentée, par exemple par le microtravail plateformisé, c’est-à-dire des personnes qui se connectent sur des applications spécialisées où elles réalisent des micro-tâches rémunérées à la pièce, est un cas de freelancing extrême, parce qu’extrêmement fragmenté. Selon des estimations de nos collègues d’Oxford à peine en moyenne deux dollars par heure ; même si par ailleurs ils n’ont pas un contrat horaire mais sont payés à la pièce.
Vous ne travaillez plus par projet, même s’il demeure certaines caractéristiques du freelancing qui s’est imposé depuis l’arrivée du télétravail dans les années 90. Il s’agit alors d’un aboutissement, d’une version poussée à l’extrême de cette tendance. Il subsiste toutefois un autre élément important qui nous permet de complexifier ce qu’on peut dire aujourd’hui à propos de ce microtravail. Je le caractérise comme un travail en solitaire, où les personnes travaillent chacune depuis [leur] foyer, et nous avons par ailleurs réalisé avec France Télévisions un documentaire nommé Invisibles dans lequel nous avons interviewé des microtravailleuses. La première chose qu’une d’entre elles nous a dite est : « Moi j’ai jamais rencontré les gens avec lesquels je travaille et encore moins les gens pour lesquels je travaille parce que, tout simplement, je me connecte sur un site et je coche des cases ».
Quelle est l’autre caractéristique de ce freelancing extrême ? Et bien, c’est tout simplement que le travail se déplace vers les pays dans lesquels la main d’œuvre est moins chère. Comme les rémunérations sont à la baisse et que cela se transforme en une espèce de foire d’empoigne, les pays dans lesquels on rencontre un nombre plus important de microtravailleurs ne sont pas forcément les pays du Nord mais ceux de l’hémisphère Sud. On a beaucoup parlé de la Chine et de l’Inde mais ce sont des cas complexes dans lesquels vous avez autant de grandes startups qui font de la valeur ajoutée que des microtravailleurs. Il y a aussi des pays qui sont dans des situations d’extraction néocoloniale poussées à l’extrême.
Les pays sur lesquels nous avons travaillé avec mon équipe de recherche DiPLab sont des pays d’Afrique francophones et des pays d’Amérique latine. Dans les deux dernières années et dans la foulée de cet ouvrage, nous avons réalisé plusieurs milliers d’entretiens et de questionnaires avec des travailleurs dans des pays comme Madagascar, l’Égypte, le Venezuela, le Mexique, la Colombie et le Brésil. Dans ce dernier cas, on rencontre souvent de véritables fermes à clics responsables des faux followers sur Instagram ou des visionnages YouTube ou TikTok. C’est une manière de tricher avec les algorithmes bien qu’il s’agisse du bas de la pyramide, et ces personnes peuvent travailler depuis chez elles. Dans d’autres contextes par contre, à Madagascar ou en Égypte, de gros marchés de l’offshoring (externalisation ndlr) se sont créés. Là-bas, les microtravailleurs ne travaillent pas depuis chez eux, mais depuis des structures variées : certains travaillent depuis chez eux, certains depuis un cybercafé, d’autres vont taxer le wifi de l’université et certains ont de véritables bureaux avec des open spaces plus ou moins structurés. Il y a donc des situations très différentes, avec parfois des petits jeunes de banlieue d’Antananarivo qui organisaient une espèce d’usine à clics avec d’autres copains du quartier et d’autres personnes qui utilisaient une maison avec 120 personnes, vingt dans chaque pièce, réalisant des microtravaux. Cette atomisation semble donc concerner principalement les pays à plus hauts revenus. Dans les pays à plus faibles revenus, les formes de travail du clic sont très variées, du bureau classique à la plateforme.
LVSL : Cette diversité des travailleurs du clic semble assez symptomatique d’un milieu du numérique qui serait encore relativement une zone de non-droit du travail dans la mesure où il s’agit d’un domaine relativement récent et décentralisé. Le travail y est mal reconnu, souvent ingrat, organisé de manière nébuleuse, etc. Est-ce en raison de ce flou que le capitalisme y prospère ou est-ce que ce flou est lui-même un produit de la dérégulation capitaliste ?
A. Casilli : La question de la dérégulation a une longue histoire, c’est la doctrine du laisser-faire du XVIIe siècle dont la doctrine capitaliste hérite. Elle concerne principalement le fait d’enlever un nombre important de dépenses, de cotisations et d’impôts qui pèsent sur les entreprises et ensuite de laisser ces entreprises faire des profits et les redistribuer à leurs investisseurs. Ici, le problème se pose en termes très classiques selon la différence en économie politique entre profits et salaires. Grosso modo, cette dérégulation s’est soldée par un déplacement important de ressources qui faisaient partie des salaires, ce qu’on appelle le « wage share », la part des salaires vers les profits. Toute la rhétorique actuelle sur les superprofits porte aussi sur cela ; la montée en flèche lors des dernières décennies, des profits et des dividendes pour les investisseurs et les chefs d’entreprise. A contrario, on a vu une diminution drastique du salaire réel, du pouvoir d’achat et en général de la masse salariale. Pour réduire cette masse salariale, soit on vire des personnes – mais on ne peut pas virer tout le monde –, soit on remplace des personnes bien payées par des personnes moins bien payées. De cette manière-là, à parité des effectifs et de quantité de travail, on se retrouve à payer moins pour la masse salariale.
« On n’a pas vu une diminution drastique du travail en termes de temps de travail mais plutôt une diminution drastique du travail payé et une augmentation du travail non payé. Là est la base de cette économie des plateformes. »
Ce que je m’efforce de montrer, avec d’autres, c’est qu’on n’a pas vu une diminution drastique du travail en termes de temps de travail mais plutôt une diminution drastique du travail payé et une augmentation du travail non payé. Là est la base de cette économie des plateformes qui crée une concurrence entre les travailleurs pour revoir à la baisse leur rémunération, parce que l’algorithme va favoriser celui qui va réaliser la même tâche à un prix moindre, comme on le voit avec les livreurs express. C’est vrai notamment depuis le Covid, avec un nombre important de nouveaux inscrits sur ces plateformes et une baisse drastique des rémunérations en plus d’une réaction interne de conflictualité syndicale. La même chose se passe évidemment aussi sur les plateformes dites « de contenu », qui se disent « gratuites » mais ne le sont pas vraiment : parfois il faut payer pour y être et souvent elles payent les personnes qui sont actives d’une manière ou d’une autre. Le cas classique est celui de la monétisation des contenus qui est devenue un geste désormais banal pour pouvoir exister sur certaines plateformes comme Instagram, TikTok ou YouTube et y avoir une présence véritable. Cela signifie que l’on a une coexistence dans les mêmes espaces d’un travail non rémunéré, d’un travail faiblement rémunéré, d’un travail micro-rémunéré et tout ça crée une baisse progressive de la masse salariale pour une équivalence voire une augmentation de la production en termes de contenu, d’informations, de service, etc.
LVSL : Pour vous, la dérégulation est donc le produit de la structure et de son fonctionnement, elle n’est pas seulement le terreau dans lequel elle s’épanouit même si de fait elle crée un terrain qui est propice à sa propre perpétuation.
A. Casilli : Tout à fait. Si on regarde du côté des entreprises, on remarque qu’elles tendent à favoriser de plus en plus la redistribution de dividendes importants plutôt que le réinvestissement pour créer de nouvelles ressources, etc. Si l’on regarde ensuite comment les entreprises fonctionnent, on a des surprises qui sont parfois amères : durant nos recherches sur le travail de plateforme, on s’est rendu compte du chaos qui domine au niveau de la gestion de cette force de travail dans la mesure où les plateformes ne reconnaissent pas que ces microtravailleurs effectuent des tâches importantes pour la production de valeur de l’entreprise et donc ne les encadrent pas. Il n’y a donc pas de « ressources humaines ». Ce sont par exemple le responsable des achats ou les ingénieurs qui s’occupent d’organiser le pipeline pour la mise en place du machinelearning.
Or, ce ne sont pas des personnes formées pour gérer des êtres humains donc ils engendrent des désastres parce qu’ils ne savent pas entendre les problématiques, ils ne comprennent pas que ces personnes-là sont habituées à une certaine protection de leur travail, en connaissance de leurs droits, ce qui est tout à fait normal. On a donc une forte conflictualité dans ces entreprises qui ne sont pas capables de gérer la transition vers la plateformisation totale.
LVSL : Toutefois, il n’y a pas que les travailleurs du clic rémunérés : dans notre présence virtuelle, nous fournissons régulièrement des matériaux à des systèmes dits « collaboratifs » (cookies, avis, évaluations, etc.) qui mettent en place des systèmes de gratification affective (ce que vous appelez des « produsagers », contraction de « producteur » et « usager »). Le fonctionnement des plateformes numériques abolit-il la séparation entre travail et loisir ?
A. Casilli : C’est un peu plus complexe que cela car c’est comme si les plateformes cherchaient constamment à monter au maximum le volume tant du travail que du plaisir. L’exemple récent qui me vient à l’esprit, c’est ChatGPT. ChatGPT est une intelligence artificielle qui n’a rien d’extraordinaire sauf qu’elle fait bien semblant d’entendre et de répondre à des questions. C’est un système assez classique qu’on appelle « question answering » comme modèle de machine learning, mais entouré d’une espèce d’aura de grande innovation, voire de révolution. Cela oblige tout un tas de personnes à se connecter à ChatGPT, à interagir avec elle et par la même occasion à l’améliorer, puisque chaque réponse négative ou à côté de la plaque de ChatGPT est systématiquement dénoncée par la personne qui la reçoit, ce qui améliore l’IA.
« Tout ça n’est une opération de marketing de OpenIA, qui est arrivée à créer un engouement lui offrant une main d’œuvre non rémunérée massive pour tester ChatpGPT. »
Il y a là une espèce de joie perverse de jouer à ce jeu, de se faire mener un bateau par un système qui est seulement dominé par une logique de marketing. Tout ça, en effet, n’est qu’une opération de marketing de OpenIA, qui est arrivée à créer un engouement lui offrant une main d’œuvre non rémunérée massive pour tester ChatpGPT.
La dimension de travail se comprend bien si on voit la continuité entre les utilisateurs lambda et non rémunérés de ChatGPT et de l’autre côté les personnes qui sont dans le back office de ChatGPT : un mois et quelques après le lancement de cette intelligence artificielle, on a découvert que ça fait des années qu’OpenIA recrute systématiquement des microtravailleurs kenyans payés 1$ de l’heure pour sélectionner les réponses, taguer des contenus etc. À côté de cela, puisque ChatGPT est aussi un outil utilisé pour produire du code informatique, il y a eu un recrutement de personnes qui sont des tâcherons du code pendant l’année 2020. Ces tâcherons du code devaient produire des bouts de code, débuguer des codes alors qu’elles n’avaient parfois pas une compétence informatique très élevée. C’étaient parfois des petits étudiants en première année ou des personnes qui savaient à peine reconnaître que dans cette ligne de code il y avait une parenthèse qui ouvrait mais il n’y en avait pas qui fermait et c’était suffisant pour débuguer la ligne. Il y a un continuum entre ces tâcherons du clic et nous-mêmes, qui fait bien de ChatGPT avant tout une entreprise de travail humain vivant. J’aurais pu dire la même chose du moteur de recherche de Google mais il est là depuis un quart de siècle donc c’est un peu moins d’actualité.
LVSL : Avec cet entrelacs du producteur à l’usager qui s’est formé, l’outil numérique ne semble plus être une extension de la main de l’homme. Le travail humain tend au contraire à devenir une extension de l’outil. Identifiez-vous le travail digital comme une nouvelle forme d’aliénation double car le travailleur n’est plus seulement soumis à la machine (comme c’est déjà le cas depuis le taylorisme) mais disparaît derrière elle parce que l’aliénation ne concerne plus seulement le travailleur mais aussi le « produsager » qui n’est même pas reconnu comme travailleur ?
A. Casilli : Pour résumer, les deux types d’aliénation dont vous parlez sont une aliénation de la visibilité et une aliénation du statut pour faire court. La question de la visibilité est un problème important mais en même temps c’est aussi un problème qui nous permet d’identifier où est le nœud problématique. Ça fait longtemps qu’en sciences sociales, on s’occupe de reconnaître des formes de travail non visibles : on l’appelle shadow work, ghost work, virtual work, etc., chaque auteur a sa propre définition. Moi j’ai cherché à mon tour à parler de ce travail non ostensible, « unconspicuous labor », qui est une manière de jouer sur la notion de consommation ostentatoire. C’est une manière de dire que si notre consommation se fait visible, on s’affiche en train de consommer, on ne s’affiche pas en train de produire et on a presque honte de ce qu’on produit quand on le produit. C’est pour ça que nous-mêmes nous adhérons à la rhétorique du « C’est pas un travail, c’est un plaisir : je ne suis pas un journaliste précaire, je suis un blogueur », « Je ne suis pas une animatrice télé qui ne trouve pas d’emploi, je suis une influenceuse Twitch ».
C’est une [façon] de se raconter d’une manière ou d’une autre que la précarité est moins grave que ce qu’elle est. Il ne faut pas sous-estimer le côté aliénant de cela, surtout un terme de désencastrement des individus de leur réseau de solidarité et d’amitié qui est normalement assuré par les activités de travail formel. Je ne veux pas dire que la vie avec les collègues est un paradis, mais que le travail formel crée un cadre qui permet de situer un individu au sein d’un réseau de relations. Ce qui devient beaucoup moins simple à faire pour le travail du clic. Il y a un vaste débat dans ma discipline sur l’encastrement ou le désencastrement social des travailleurs des plateformes, qui porte sur cette confusion énorme qui existe entre le côté productif et le côté reproductif des plateformes. Le côté productif, on le voit à chaque fois qu’on nous demande de produire une donnée, mais parfois cette injonction est là pour stimuler notre plaisir, nos attitudes, nos désirs, nos envies de se mettre en valeur, de se mettre en visibilité, et ainsi de suite. Cela peut se transformer en loisir, dans une activité sociale, et qui est alors plutôt du côté de la reproduction. Là c’est effectivement une aliénation qui renforce cette confusion.
De cela découle directement la deuxième aliénation qui est l’aliénation de statut, c’est-à-dire la difficulté à obtenir un statut de travailleur de la reproduction sociale. Mais ce n’est pas impossible : regardons par exemple les combats féministes, qui ont fait en sorte que tout un tas d’activités auparavant considérées comme purement reproductives soit inscrites dans la sphère du travail socialement reconnu, avec des rémunérations et des protections sociales : le travail domestique, le travail de care, etc. Toutefois, cette rupture de l’aliénation n’arrive pas de manière spontanée, par simple progression du capitalisme vers des formes plus douces et sociales-démocrates, mais cela arrive au fil et au bout des luttes sociales.
LVSL : Puisque votre ouvrage critique une conception téléologique du progrès technologique où l’on avance vers la fin du travail, comment envisagez-vous l’avenir du travail numérique, surtout avec l’explosion récente des plateformes d’intelligence artificielle ?
A. Casilli : Pour ma part je pense qu’il faut se méfier des effets d’annonce médiatiques. Je suis assez bien placé pour savoir comment la fabrique médiatique de ces phénomènes sociotechnologiques est structurée à coups de communiqués de presse d’entreprises qui produisent un nouveau service, une nouvelle application, une nouvelle intelligence artificielle et de rédactions de journaux ou de presse qui, pour chercher à produire du contenu, cèdent au plaisir de se faire porte-voix de ce type d’allégations.
Je ne pense pas qu’il y ait une explosion de l’intelligence artificielle. Au contraire, je remarque que l’intelligence artificielle rame, qu’il y a des échecs de l’intelligence artificielle, il y a des domaines de l’intelligence artificielle qui se sont cassé la gueule, par exemple l’intelligence artificielle des machine learnings non supervisés dont on annonce toujours des trucs merveilleux qui n’arrivent jamais. Ou alors on a des effets de mode durant quelques temps, comme la blockchain récemment, qui est sujette à des échecs répétés tous les quelques mois. Je ne suis pas technophobe, mais plutôt dans une forme de scepticisme qui permet de voir l’innovation là où elle est vraiment. Or, l’innovation n’est pas dans l’intelligence artificielle, qui ne fait pas de progrès par pas de géants.
« Certains métiers du clic se sont aussi imposés comme des métiers essentiels, par exemple la livraison ou la modération de contenus. »
En revanche il y a eu des chocs exogènes, par exemple le Covid, la crise sanitaire, la crise économique et la crise géopolitique qui ont suivi. Ces enchaînements de catastrophes ont fait en sorte que le marché du travail de 2023 soit assez différent par rapport aux marchés du travail des années précédentes : en 2019, le nombre de personnes employées formellement était supérieur à toutes les époques précédentes de l’humanité, ce qui est évident parce qu’il y a aussi un nombre plus important d’êtres humains. Avec le Covid, on a eu d’abord un moment d’arrêt généralisé des échanges internationaux et parfois des croissances importantes de certains pays en termes de performances industrielles et d’autre part on a vu aussi ce prétendu « triomphe du télétravail », qui ne s’est pas soldé dans une espèce de dématérialisation de toutes les activités mais qui nous a aidés à identifier certaines activités qu’on appelle aujourd’hui « essentielles » (logistique, commerce, agroalimentaire, santé…).
Mais certains métiers du clic se sont aussi imposés comme des métiers essentiels, par exemple la livraison ou la modération de contenus, tous des travailleurs qui ont été classifiés comme « essentiels » par de grandes entreprises telles que Facebook et YouTube comme prioritaires pour revenir au travail en présentiel, alors que les autres ont été tranquillement mis au télétravail pendant deux ans et demi, avant d’être licenciés. C’est quelque chose d’important car on peut difficilement se passer du travail de modération, qui est d’ailleurs difficile à faire à distance, parce qu’il est difficile de modérer des vidéos de décapitation quand derrière vous il y a vos enfants qui jouent, ou de regarder des contenus vraiment problématiques, violents, déplacés alors qu’on passe à table. À moyen terme, je ne vois pas ce travail disparaître, je le vois devenir de plus en plus central, mais malheureusement je ne le vois pas non plus devenir plus digne et reconnu pour autant.
« Les microtravailleurs ne sortent pas dans la rue mais on les voit beaucoup dans les tribunaux, lors d’actions de recours collectif ou d’actions pour la reconnaissance de leur travail. »
C’est là le nœud conflictuel des prochaines années, celui de la reconnaissance de ces travailleurs. Plusieurs signes indiquent qu’on est face à de nouveaux conflits sociaux au niveau international, car on commence à avoir une structuration précise et cohérente des travailleurs et de nouvelles luttes sociales émergent. On voit notamment apparaître beaucoup de revendications qui passent par les cours de justice. Les microtravailleurs ne sortent pas dans la rue mais on les voit beaucoup dans les tribunaux, lors d’actions de recours collectif ou d’actions pour la reconnaissance de leur travail. Au Brésil, on a eu une victoire importante contre une plateforme de microtravail qui a été obligée de requalifier comme « salariés » quelques milliers de travailleurs.
LVSL : Au fondement de toutes ces activités, les algorithmes reposent essentiellement sur une approche positiviste du monde où tout est classable, identifiable et mesurable. En mettant en lumière le travail des tâcherons du numérique qui trient et jugent en support des algorithmes, ne révélez-vous pas l’insuffisance de cette vision positiviste ?
A. Casilli : J’ai, si l’on veut, une approche un peu plus « irrationnaliste » du tissu social. Je pense que la mise en données est une entreprise qui a une longue histoire : elle puise ses racines dans le positivisme historique à la fin du XVIIIe siècle, début XIXe, au niveau de la création d’une attitude positiviste et en même temps des ancêtres de ce qu’on appelle aujourd’hui les intelligences artificielles. Dans le nouveau livre sur lequel je travaille, je m’intéresse aux origines du travail du clic, par exemple le fait qu’en France et dans d’autres pays d’Europe, on avait créé à cette époque des ateliers de calcul dans lesquels des centaines de personnes, souvent pas des mathématiciens du tout, des personnes qui avaient d’autres formations (des ouvriers, des instituteurs ou institutrices souvent), qui calculaient un peu tout : des tables trigonométriques pour le cadastre de Paris, les positions du Soleil pour l’observatoire de Greenwich, etc. On pourrait l’interpréter comme une mise en chiffres du réel, mais celle-ci est d’un type particulier car il ne s’agit pas seulement d’une quantification faite par le biais des grandes institutions statistiques étatiques : recensements, mesures, etc. Ce ne sont pas des géomètres ou des statisticiens qui ont opéré cette mise en donnée du monde, ce sont souvent des personnes dont on n’a pas conservé le nom ou les coordonnées, qui ont calculé pendant des années et des années des entités mathématiques qui ont été nécessaires pour créer un type particulier de machines, par exemple les machines à calculer ou pour observer certains phénomènes astronomiques, des machines balistiques pour l’armement, etc. Ce fut un grand élan de mise en données qui ne fut pas seulement de la quantification, mais une manière de créer de la connaissance précalculée qui est ensuite utilisée pour produire des machines qui calculent.
C’est le même principe que celui des intelligences artificielles d’aujourd’hui. ChatGPT s’appelle « GPT » parce que le « P » signifie « pretrained », tout ce que la machine sait faire a été précalculé par des êtres humains. On voit là réapparaître ce type de positivisme un peu particulier parce que ce n’est pas un positivisme de grands idéaux, de grands systèmes, mais un positivisme de la microdonnée, de la microtâche, du microtravail, quelque chose de beaucoup plus terre à terre et de beaucoup plus intéressé à un résultat économique assez immédiat. Si l’on veut, malgré les grands discours de colonisation de l’espace et de réforme de l’esprit humain par certains milliardaires de la Silicon Valley, on est en face de personnes qui cherchent à gratter un peu d’argent pour arriver à la fin du mois, même du côté des milliardaires.
Le 14 mars 2023, OpenAI, entreprise américaine fondée entre autres par Elon Musk, Sam Altman et Peter Thiel, annonçait le lancement de son nouveau modèle de langage artificiel, GPT-4, faisant passer une étape supplémentaire aux technologies de génération automatique de textes. Cette nouvelle innovation poursuit la stratégie industrielle de l’entreprise américaine, qui ne cesse de faire parler d’elle depuis quatre mois. Derrière la fascination, il convient de mettre au jour les fantasmes et les dangers : ces technologies ne risquent-elles pas de réduire l’avenir du web à l’extractivisme de la donnée, et les capacités expressives humaines à des calculs automatisés ?Par Anne Alombert, maître de conférences en philosophie française contemporaine à l’université Paris 8, Vincennes – Saint-Denis, autrice de Schizophrénie numérique à paraître en avril 2023 aux éditions Allia.
Le 30 novembre 2022, OpenAI réalisait l’un des plus grands « coup médiatique » de l’histoire de l’intelligence artificielle, en rendant accessible au grand public un nouvel outil, dénommé ChatGPT. Ce dispositif, souvent décrit sous les noms d’ « intelligence artificielle » ou d’ « agent conversationnel », repose en fait sur l’association entre deux types de technologies : un modèle de langage (il s’agissait alors de GPT-3, et désormais, possiblement, de GPT-4), qui permet de générer toutes sortes de textes grâce à des calculs probabilistes appliqués à des quantités massives de données, et une messagerie instantanée, qui permet aux utilisateurs de poser des « questions » ou de donner des « consignes » à la machine, afin d’obtenir des productions textuelles variées (de la recette de cuisine aux poèmes, en passant par les articles scientifiques ou le code informatique).
ChatGPT, entre fantasmes et réalités
Comme souvent, le fait de rendre accessible ce type de dispositifs, au fonctionnement opaque mais à l’usage très intuitif, engendre un effet de fascination généralisée : la machine, semblant répondre par magie aux questionnements les plus insolites, devient l’objet de toutes sortes de projections anthropomorphiques nourries par les discours transhumanistes. La machine serait-elle capable d’écrire ou de parler ? Serait-elle capable de penser ? Serait-elle consciente d’elle-même ? Pourrait-elle se substituer aux activités humaines qu’elle semble si bien simuler ?
Le lancement de ChatGPT (d’abord gratuit mais dont une version payante a déjà émergé) a ainsi constitué une énorme opération de communication pour OpenAI, qui en a aussi profité pour exploiter le travail gratuit de ses millions d’utilisateurs (cent millions de comptes enregistrés en janvier 2023), convaincus d’expérimenter un nouveau gadget, alors que c’est le système qui se nourrissait de leurs requêtes pour améliorer les performances de ses algorithmes. Si bien qu’au moment où tout un chacun commençait à se demander comment faire un bon usage de ChatGPT, le dispositif technologique avait déjà largement utilisé ses soi-disant usagers pour se perfectionner, conformément au célèbre adage selon lequel « si c’est gratuit, c’est vous le produit ! ».
Grâce à ChatGPT, OpenAI, qui avait bénéficié d’un investissement initial d’un milliard de dollars de la part de Microsoft, a ainsi vu sa valeur boursière augmenter de manière exponentielle : désormais valorisée à 29 milliards de dollars, elle devrait faire l’objet d’un investissement pluriannuel de plusieurs milliards de dollars de la part de Microsoft, qui entend intégrer ChatGPT à ses services (notamment à son moteur de recherche Bing, dans le but de concurrencer Google en ce domaine, et à la suite bureautique Microsoft Office). Le 23 janvier 2023, Microsoft annonçait ainsi le renforcement de son partenariat avec OpenAI « pour accélérer les percées de l’IA afin de garantir que ces avantages soient largement partagés avec le monde ».
Trois jours plus tôt, le 19 janvier, Microsoft avait annoncé le licenciement de dix mille salariés (près de 5 % de ses effectifs). La veille, le 18 janvier, le journal Time avait révélé le partenariat entre OpenAI et la société Sama, qui a permis à l’entreprise d’employer des travailleurs kenyans rémunérés à moins de deux dollars de l’heure pour indexer d’immenses quantités de contenus toxiques circulant sur Internet, afin de « nettoyer » les données d’entraînement de ChatGPT. Les calculs des algorithmes, indifférents à toute signification, sont en effet incapables de reconnaître un texte à caractère haineux, violent, raciste ou pornographique : pour éviter que la machine ne génère automatiquement et massivement des contenus de ce type, ce sont donc des humains qui doivent les visionner et les indexer, au prix de nombreux traumatismes. Contrairement aux IA qui effectuent des calculs sur de l’information numérique, les humains se laissent affecter par le sens des textes qu’ils lisent : l’exposition constante à des contenus nuisibles engendre donc des troubles psychiques.
Plutôt que les machines conscientes ou les avantages de l’IA « largement partagés avec le monde », ce sont donc les craintes associées à l’industrie numérique et à l’économie des données qui semblent s’affirmer derrière les prouesses de ChatGPT : disparition des emplois et exploitation des « travailleurs du clic », sans compter la concentration des capitaux et la consommation énergétique nécessaires à l’entraînement de ce type de modèles, qui rend le coût de ces technologies prohibitif.
« Il faut en effet distinguer un dispositif comme Wikipédia et un dispositif comme ChatGPT : les deux outils symbolisent en fait deux visions antithétiques du Web, la première fondée sur l’ouverture et l’intelligence collective, et la seconde sur l’extractivisme et le calcul automatisé ».
Des agents conversationnels aux automates computationnels
Comme souvent, les enjeux écologiques, politiques et sociaux des innovations technologiques sont subrepticement refoulés par des discours au sujet des « intelligences artificielles » ou des « agents conversationnels ». Or, comme cela a été souligné par divers spécialistes, un dispositif comme ChatGPT n’a rien d’intelligent : il s’agit d’un ensemble complexe d’algorithmes (très performants) effectuant des calculs statistiques sur des quantités massives de données afin de déterminer des suites de mots probables par rapport aux données d’entrée (sur le modèle des logiciels d’autocomplétion, qui permettent de générer automatiquement la suite la plus probable d’un sms ou d’un e-mail).
Ce n’est évidemment pas ainsi que procèdent les « agents » lors de « conversations » : converser avec autrui ne suppose pas de faire des calculs probabilistes sur des quantités massives de données afin de générer une suite probable de mots (sans quoi aucun humain ne serait capable de converser). En conversant, un « agent » s’expose à l’autre en révélant sa singularité : tant qu’il ne se contente pas de répéter des idées reçues ou des clichés, il s’exprime à partir de sa mémoire, de son expérience et de ses désirs toujours singuliers, en interprétant une situation ou un contexte donné. Les conversations les plus intéressantes sont souvent les plus inattendues et les plus improbables, celles durant lesquelles l’agent se surprend lui-même à travers les questions qu’il pose ou à travers les réponses qu’il propose – la conversation se fait ainsi conversion. Le dialogue ne se réduit pas à un système entrée-sorties ou à un traitement d’informations, mais suppose une transformation mutuelle des participants.
C’est seulement à cette condition que de « l’intelligence » peut émerger : l’intelligence, comme capacité à se confronter à l’autre, à se mettre en question et à produire de la nouveauté, n’est pas plus attribuable à un agent isolé qu’à une machine déterminée, à moins de la confondre avec le quotient intellectuel ou avec le calcul automatisé. Loin de désigner une capacité individuelle (propriété cognitive attribuée à l’humain ou propriété algorithmique attribuée à la machine), l’intelligence désigne avant tout une forme de socialité — « être en bonne intelligence » signifie partager une sorte d’entente, de complicité ou de connivence (sur la base de laquelle des désaccords et des discussions peuvent bien sûr émerger). Plutôt que d’intelligences artificielles ou d’agents conversationnels, il faudrait donc parler d’automates computationnels pour désigner les modèles de langage du type de GPT.
D’apparence anodine, ce changement de vocabulaire permettrait peut-être d’éviter les fantasmes transhumanistes de Singularité Technologique, selon lesquels la croissance technologique conduirait à une superintelligence artificielle qui viendrait se substituer aux intelligences humaines. Jamais les calculs statistiques des algorithmes ne pourront remplacer les activités interprétatives de l’esprit, incarnées dans des corps vivants et désirants. En revanche, ce sont bien les singularités expressives qui sont menacées par ces industries linguistiques, dont le fonctionnement renforce les moyennes et les banalités, exploite les productions textuelles existantes sans les renouveler, tout en risquant de court-circuiter les capacités de mémorisation, de synthèse et de pensée.
De Wikipédia à ChatGPT : de l’intelligence collective au calcul automatisé
Rien d’étonnant, dès lors, à ce que les textes générés par ChatGPT ne soient pas dignes de confiance ou de fiabilité : contrairement aux articles collectivement produits sur une plateforme comme Wikipédia, ils n’ont été ni évalués ni certifiés par les pairs, et ils n’ont pas fait l’objet de débats argumentés. Il faut en effet distinguer un dispositif comme Wikipédia et un dispositif comme ChatGPT : les deux outils symbolisent deux visions antithétiques du Web, la première fondée sur l’ouverture et l’intelligence collective, et la seconde sur l’extractivisme et le calcul automatisé.
Wikipédia fonctionne sur la base de contributions humaines, à travers lesquelles les individus partagent leurs savoirs, exercent leur jugement et délibèrent collectivement, sur la base de règles transparentes et accessibles à la communauté, qui constituent ainsi des groupes de pairs ouverts, produisant un commun numérique au service de l’humanité. ChatGPT, au contraire, appartient à une entreprise privée et ne donne pas accès à ses normes de fonctionnement interne à ses usagers : ceux-ci sont d’ailleurs réduits au statut de consommateurs passifs, pouvant saisir des entrées et recevoir des sorties, mais sans possibilité de compréhension ni pouvoir d’action sur les mécanismes régissant le dispositif.
Que se passera-t-il quand ces textes automatiques (qui peuvent être générés en quantité massive et à une vitesse inouïe) seront devenus dominants sur les réseaux numériques ? Sera-t-il encore possible de faire crédit à nos lectures en ligne ? Que se passera-t-il si les moteurs de recherches nous fournissent des réponses générées de manière automatique ? Sera-t-il encore possible d’accéder à la diversité des sources disponibles ? Le Web pourra-t-il devenir l’espace de partage des savoirs qu’il avait vocation à constituer si la diversité des points de vue n’est plus représentée et si les publications font l’objet d’un discrédit généralisé ?
Derrière leur aspect ludique et magique, les innovations disruptives promues par les entreprises de la Silicon Valley apportent aussi leur lot de dangers : déployée à une échelle massive et à une vitesse extrême, sans concertation avec les citoyens, les chercheurs ou les représentants politiques, ces dispositifs ne peuvent faire l’objet d’une appropriation collective, cultivée et critique. Pour qu’une telle appropriation devienne possible, ces nouveaux objets industriels, actuellement fermés et privatisés, devraient devenir des communs numériques ouverts et partagés. Ils devraient aussi constituer des objets de recherche transdisciplinaire et de débats publics, et non des sources de fantasmes idéologiques au service du marketing stratégique des géants du numérique.