Consigne sur les bouteilles : un débat technique hautement politique

© Ameer Basheer

Alors que s’est ouverte une concertation autour de l’instauration d’une consigne sur les bouteilles afin d’augmenter leur taux de collecte, les débats font de nouveau rage sur la pertinence de cet outil. En effet, la consigne pour recyclage promue par le gouvernement depuis près de quatre ans ne parvient à convaincre ni les collectivités locales, ni les associations environnementales. Ces dernières prônent une consigne pour réemploi, à laquelle les industriels sont réticents. Derrière un débat en apparence technique, différents intérêts et différentes visions de la politique écologique s’y expriment. Le sociologue Vincent Jourdain, auteur d’une thèse sur le sujet, revient sur cet affrontement entre industriels, Etat, collectivités et associations.

Le 30 janvier dernier, la Secrétaire d’Etat auprès du ministre de la Transition écologique et de la Cohésion des territoires chargée de l’Ecologie, Bérangère Couillard, annonçait la mise en place d’une concertation autour de la consigne, rassemblant producteurs, distributeurs, collectivités locales et associations environnementales. L’objectif de cette concertation ? Obtenir l’adhésion des parties prenantes au projet gouvernemental de rendre obligatoire la consigne pour les emballages de boisson, ouvert en 2019 mais qui n’a guère avancé depuis. Mais le 23 février dernier, des associations d’élus ont annoncé la constitution d’un groupe de travail parallèle, portant un coup à la légitimité de la concertation. Le 18 avril dernier, elles ont insisté sur leur opposition, en dévoilant 14 propositions alternatives à la consigne lors d’une conférence de presse. En parallèle, la commission du développement durable du Sénat s’est exprimée contre la concertation et le projet de consigne.

La consigne est réputée populaire : en 2019, une enquête de l’IFOP rapportait que 88% des français seraient favorables à la mise en œuvre d’une consigne obligatoire pour le réemploi des emballages de boisson. Pourtant, selon les collectivités locales et associations environnementales, le projet du gouvernement porterait un intérêt environnemental limité, puisqu’il est en réalité un projet de consigne pour le recyclage des bouteilles en plastique, et non pour leur réutilisation. Le recyclage consistant à broyer la matière pour en recréer une nouvelle, cette technique est en effet moins vertueuse pour l’environnement que la réutilisation, qui consiste à réutiliser les produits en fin de vie.

Selon les collectivités locales et associations environnementales, le projet du gouvernement porterait un intérêt environnemental limité, puisqu’il est en réalité un projet de consigne pour le recyclage des bouteilles en plastique, et non pour leur réutilisation.

De plus, les collectivités luttent contre une mesure qui réduirait leurs financements pour la collecte des déchets d’emballage et mettraient en péril leurs investissements passés dans des capacités de collecte et de tri des déchets. En outre, le plébiscite populaire concernant une consigne pour recyclage des bouteilles plastique n’a, lui, pas été démontré par sondage. Aussi, le droit européen indique depuis 2008 explicitement une préférence pour la réutilisation ou le réemploi devant le recyclage [1].

Dans le même temps, le gouvernement argue que la hausse des objectifs de collecte des déchets de bouteilles plastiques rend nécessaire l’adoption de nouveaux modes de collecte. La loi relative à la lutte contre le gaspillage et à l’économie circulaire (AGEC), promulguée le 10 février 2020, fixe en effet un objectif de taux de collecte des bouteilles plastiques de boissons de 77 % en 2025 et de 90 % en 2029, s’alignant ainsi sur la directive européenne « plastique à usage unique » (SUP) publiée en 2019. Or, ce taux n’atteignait que 61% en 2021, selon l’ADEME.

En 2019, un premier échec

Pour parvenir à augmenter ce taux de collecte, Brune Poirson, alors secrétaire d’Etat à l’économie circulaire, défend dès 2019 l’idée de l’instauration obligatoire d’une consigne pour les emballages de boissons en plastique. Initialement, cette mesure devait être introduite dans la loi AGEC pour une entrée en vigueur dès l’année suivante. Mais ce projet suscite nombre de mécontentements.
Les premiers acteurs à réagir officiellement au projet de loi, qui avait alors fuité dans la presse, sont les recycleurs qui, à travers un communiqué de presse publié le 24 juin 2019, proposent un « plan Marshall » d’investissement dans les capacités de collecte et de tri des plastiques plutôt qu’une consigne pour venir à bout des objectifs posés par la directive SUP. Dans les semaines qui suivent, les collectivités locales, à travers le réseau AMORCE et l’association des maires de France (AMF), publient elles aussi des communiqués à charge contre ce projet.

Lorsque le projet de loi arrive en première lecture devant le Sénat à l’été 2019, la consigne est bien présente. Toutefois, elle est présentée comme un outil indifférencié, pouvant aussi bien contribuer au recyclage qu’au réemploi des bouteilles plastiques. Une forte mobilisation des élus locaux auprès des sénateurs conduit toutefois au resserrement de la mesure : le texte transmis à l’Assemblée nationale, mentionne que la consigne ne peut être mise en œuvre que pour le réemploi ou la réutilisation, et non pour le recyclage.

Face à cette levée de boucliers, Emmanuel Macron tente alors de corriger le tir. Lors du congrès annuel de l’AMF en novembre 2019, il affirme que « rien ne sera fait sans l’accord des maires ». Son Premier ministre Edouard Philippe enfonce le clou deux jours plus tard, pour assurer aux maires qu’ils étaient, sur ce sujet, un contre-pouvoir réel. En fin de compte, le statu quo est privilégié : le gouvernement dépose et fait adopter à l’Assemblée nationale un amendement au projet de loi AGEC repoussant à 2023 la prise de décision concernant la consigne. Le lendemain, un communiqué de presse des représentants des collectivités s’aligne sur cette proposition.

« Rien ne sera fait sans l’accord des maires. »

Emmanuel Macron, congrès de l’AMF, 2019

Ce « moratoire » sur la consigne s’accompagne d’une demande d’expertise à l’ADEME (Agence de l’environnement et de la maîtrise de l’énergie), pour évaluer les avantages relatifs de la consigne sur les autres solutions de collecte. Cette expertise prend deux formes : un suivi régulier des performances du système actuel, paru annuellement, et la production d’une étude de comparaison avec un système de consigne, parue en février 2021. Mais comme bien souvent lorsque le pouvoir demande un rapport aux institutions spécialisées, une question en apparence technique masque de vrais enjeux politiques.

La consigne, menace du modèle existant

Si la consigne suscite tant d’opposition auprès des collectivités locales, c’est qu’elle remet en question un système de financement et de gestion des déchets d’emballages déjà trentenaire. Il s’agit du principe de la « responsabilité élargie des producteurs » (REP), qui demande aux metteurs sur le marché d’emballages de contribuer à la gestion des déchets issus de leurs produits. Ce système a d’abord été mis en œuvre dans les années 1990 par l’Allemagne, dans un contexte de menace de retour de la consigne obligatoire, instaurée au Danemark voisin dans les années 1980.

Si la consigne suscite tant d’opposition auprès des collectivités locales, c’est qu’elle remet en question un système de financement et de gestion des déchets d’emballages déjà trentenaire.

En 1992, la France, emboîte le pas à l’Allemagne, sous l’impulsion de Brice Lalonde, qui construit avec les industriels (Jean Louis Beffa, de Saint-Gobain et Antoine Riboud, de Danone) et les collectivités (représentées par Jacques Pélissard, de l’AMF) un système autour d’Eco-emballages. Cette entité privée, appelée « éco-organisme », est chargée de collecter auprès des industriels une somme pour chaque emballage mis sur le marché, et de reverser le produit de ces sommes aux collectivités locales, afin de financer leur valorisation [2]. Le pouvoir de collecter cette somme, appelée « éco-contribution » est accordé à l’éco-organisme par un agrément des pouvoirs publics.

Si la France a construit ce modèle, coincé entre interventionnisme et laissez-faire [3], c’est qu’elle cherchait avant tout à éviter de reproduire le modèle allemand qui donnait plus de libertés aux industriels, mais aussi des objectifs de collecte et de valorisation plus élevés [4]. En somme, la REP s’est donc constituée indirectement contre la consigne. Elle est présentée comme une alternative crédible et efficace, qui favorise la valorisation des déchets d’emballages (notamment de boisson) et légitime ainsi leur consommation.

Comparaison des différents modèles en Europe, tirée du rapport de Jacques Vernier sur la consigne, 2019, p. 19.

Dans les faits, la REP française a effectivement permis d’accroître la collecte, la valorisation et même l’importance du recyclage dans le « mix » de la gestion des déchets. Elle n’a en revanche jamais atteint les objectifs qui lui étaient fixés dès 2002 par l’Etat français, à savoir de recycler 75% des emballages ménagers, soit 14 points de plus que le taux effectivement observé sur les bouteilles plastiques en 2021. L’imposition de nouveaux objectifs de collecte au niveau européen en 2019 oblige donc le gouvernement à imaginer un nouveau système. La remise en cause de la REP n’est d’ailleurs pas spécifique à la France : l’Espagne, la Belgique, qui ont des systèmes similaires, connaissent les mêmes critiques.

Pour le gouvernement et sa majorité, seule la consigne permettait d’atteindre ces nouveaux objectifs. Ainsi, Stéphanie Kerbarh, rapporteure du texte, affirme le 25 novembre 2019 que : « la consigne est actuellement la seule méthode permettant d’atteindre des taux de collecte supérieurs à 90 % pour les emballages, qu’ils soient en verre, en plastique ou en aluminium. Dix et bientôt quinze pays européens ont adopté des mécanismes de consigne et cinq ont déjà dépassé les 90 % de bouteilles en plastique collectées et recyclées. Aucun système sans consigne ne fait aussi bien. »

En réaction, les collectivités locales et les opposants à la consigne, ont insisté sur l’existence de « trajectoires » d’augmentation de la collecte des emballages de boisson, via l’activation de « leviers d’amélioration » en lien avec la REP [5]. Qu’en est-il vraiment ?

La bataille des chiffres

Dans les deux cas – la mise en œuvre d’une consigne ou l’intensification de la REP – les discussions techniques portent sur des projets de collecte pour recyclage des emballages de boisson. Il s’agit d’évaluer le rapport coûts-bénéfices de chaque solution, tant d’un point de vue économique qu’environnemental.

L’aspect économique est le premier abordé, à travers un rapport confidentiel remis par les industriels de la boisson au gouvernement dès 2019. Il chiffre à 182 millions d’euros les pertes de revenus pour les collectivités du fait de la « sortie » des bouteilles plastiques du système de collecte des déchets d’emballages. Ces pertes sont des éco-contributions qui ne seraient plus versées par l’éco-organisme. Les collectivités, elles, évaluent ce coût à 250 millions d’euros, puisque les gains mis en avant par les industriels (moins de collecte) seraient en fait quasiment nuls, du fait de la forte proportion de coûts fixes dans la collecte des déchets d’emballages. Depuis, les études de l’ADEME concluent toutes à l’existence d’un coût élevé.

Sur les aspects environnementaux, il faut relever que la REP comme la consigne pour recyclage sont construits comme des outils d’« internalisation des externalités environnementales ». Autrement dit, ils sont agnostiques en ce qui concerne l’extraction de ressources, ou la consommation d’énergie nécessaire à leur production [6]. Dans les deux cas, les emballages récupérés ne sont en effet pas réutilisés mais détruits par recyclage ou par incinération. Faire du réemploi, à travers la REP ou la consigne, permettrait de dépasser ces insuffisances. Ainsi, la critique environnementale de la consigne vise non pas le procédé de collecte en lui-même, mais l’usage des emballages récupérés.

Pour les associations environnementales, il a été délicat de se positionner contre la consigne pour recyclage tout en maintenant un plaidoyer pour la consigne pour réemploi, les deux options étant aisément confondues dans le débat.

Si les associations environnementales se sont opposées en 2019 à l’introduction de la consigne pour recyclage dans la loi AGEC, leur positionnement était malaisé. De leurs propres dires, il a été délicat de se positionner contre la consigne pour recyclage tout en maintenant un plaidoyer pour la consigne pour réemploi, les deux options étant aisément confondues dans le débat. Au niveau européen, le réseau Zero Waste Europe a opté pour une autre stratégie et a au contraire soutenu la consigne indistinctement, en faisant paraître un communiqué commun avec des industriels de la boisson appelant à la mise en place d’une cadre européen pour la consigne des emballages de boisson.

Dans le même temps, les industriels de la boisson s’opposent fermement à l’hypothèse de la généralisation d’une consigne pour réemploi sur les emballages en verre. Ils disent douter de son intérêt environnemental et de sa faisabilité. En particulier, ils rejettent en bloc l’idée d’une standardisation des contenants, nécessaire pour mettre en œuvre une consigne pour réemploi à grande échelle. Cette standardisation des bouteilles nuirait en effet à la possibilité de distinguer leurs produits de ceux de leurs concurrents à travers le design des bouteilles.

L’analyse coûts-bénéfices, tant sur le plan économique qu’environnemental, reste donc incertaine. Elle repose à la fois sur les connaissances existantes et sur leur mobilisation par les acteurs. Or, l’analyse dépend des effets de « cadrage » de la question de la consigne, c’est-à-dire de « comment pose-t-on la question ? ». Ces effets de cadrage sont par exemple l’idée qu’il faut atteindre les objectifs européens dans les délais impartis ou que la standardisation des contenants est difficilement envisageable dans une économie libérale.

Les écueils de la rationalité instrumentale

La consigne ne serait qu’un « mode de collecte » ? C’est en tous cas la façon dont elle est appréhendée dans le débat technique. Le « deposit-refund system » (ou DRS) et ainsi pensé comme un simple outil, neutre, que les dirigeants politiques auraient à choisir et à paramétrer en fonction des objectifs poursuivis [7]. Selon ce mode de pensée technique, emprunté à la discipline économique, les « outils économiques », à l’instar de la taxe carbone, auraient l’avantage d’être plus efficaces que d’autres modes d’intervention de l’Etat [8].

C’est dans ce cadre intellectuel qu’une grande partie de la controverse s’est déroulée. Qu’ils s’agissent des rapports qui précèdent la loi, comme celui du collectif boisson ou de Jacques Vernier, ancien président de l’ADEME et expert reconnu sur ces questions, ou ceux de l’ADEME qui lui succèdent, les auteurs s’efforcent de rationaliser la décision politique. Il s’agit alors de mettre en équation les différentes projections et les différents moyens mobilisés, afin d’évaluer leur capacité à atteindre les objectifs fixés.

Pourtant, derrière les débats économiques, certaines formes de moralisation de l’économie reviennent fréquemment dans la controverse. Il faut d’abord noter les appels à la prise en compte des effets sociaux de la consigne : elle serait susceptible de générer des comportements « déviants », comme le fait de favoriser les dépôts sauvages déculpabilisés. Concrètement, les consommateurs ne se souciant pas de récupérer la consigne sur leurs bouteilles les abandonneraient ainsi en pleine rue, afin que des personnes à faible revenu les récupèrent pour arrondir leurs fins de mois. Certains parlementaires disent craindre l’émergence de ces « marchés parallèles » de récupération d’emballages consignés [9]. Les collectivités locales dénoncent elles la « monétisation » d’un geste citoyen, le tri étant jusqu’à présent effectué gratuitement [10].

Aussi, et surtout, les débats autour de la consigne débordent les cadrages techniques comme « mode de collecte ». Pour un certain nombre de commentateurs, une consigne pour recyclage ne serait pas une « vraie » consigne. Ainsi, Loïc Prud’Homme, député La France Insoumise, affirme que :

« Le mot « consigne » a un sens qu’il s’agirait de ne pas détourner : cela consiste à rapporter des objets, notamment des bouteilles en verre, non pour les refondre et dépenser de l’énergie pour en fabriquer de nouvelles, mais pour les renvoyer à leurs producteurs, les laver et les réutiliser. La « consigne », comme vous en faites la publicité, n’est que du recyclage déguisé. »

Loic Prud’Homme, lors des discussions sur le projet de loi AGEC à l’Assemblée Nationale.

A l’inverse de la disjonction opérée par les experts, cette définition de la consigne lie l’outil à son objectif. Cette interprétation « liée » d’un instrument (penser en même temps ses moyens et ses fins) constitue la règle plutôt que l’exception. Une comparaison avec le cas du consentement à l’impôt [11] peut ici s’avérer pertinente. En effet, un impôt répond bien souvent autant à des exigences morales et politiques qu’à des critères d’efficacité [12].

Bien que la consigne ne soit pas, juridiquement, un impôt, elle consiste en réalité en un prélèvement de ressources auprès des individus – bien que ceux-ci soient des consommateurs – créé pour poursuivre des objectifs politiques, en l’occurrence environnementaux. Il faut également noter que la consigne n’est pas tout à fait conçue comme un outil neutre : dans l’ensemble des discussions qui entourent sa mise en œuvre, il est estimé que les consignes non récupérées par les usagers (en cas de mauvais « tri ») seront affectées au financement de la logistique du système. Autrement dit, une part résiduelle de l’outil est un instrument budgétaire : on prélève des ressources auprès des consommateurs pour financer la collecte et la gestion des déchets.

Enfin, la réflexion sur la consigne est constamment prise dans un débat portant sur d’autres outils fiscaux alloués à la collecte et à la gestion des déchets. Parmi les « leviers » considérés pour accélérer la collecte des emballages de boisson, on trouve l’accélération du déploiement de la « tarification incitative », soit le fait de payer la taxe d’enlèvement des ordures ménagères en fonction du poids des ordures ménagères jetées dans la poubelle grise, tout en laissant la collecte sélective « gratuite » pour en augmenter l’intérêt. Cette mesure, plébiscitée par les experts [13], est toutefois sujette à une forte politisation chez les élus locaux [14].

Les conséquences des choix hérités du passé, notamment en termes de pertes financières pour les collectivités en cas de mise en place d’une consigne, et l’opposition des industriels à l’instauration d’une consigne pour réemploi sur le verre (ou le plastique), risquent de peser lourd face à la proposition d’instauration d’une « vraie » consigne pour réemploi, comme le réclament notamment les associations environnementales.

Parler de la consigne, c’est donc directement et indirectement parler d’imposition, ou en tous cas d’allocation collective des ressources économiques. Ainsi, derrière l’apparence d’un débat technique et neutre reposant uniquement sur des expertises, l’opposition entre REP et consigne renvoie à des antagonismes entre les intérêts de différents acteurs, mais aussi à des visions « morales » de la politique environnementale, relatives au choix des modes de traitement. Les conséquences des choix hérités du passé, notamment en termes de pertes financières pour les collectivités en cas de mise en place d’une consigne, et l’opposition des industriels à l’instauration d’une consigne pour réemploi sur le verre (ou le plastique), risquent de peser lourd face à la proposition d’instauration d’une « vraie » consigne pour réemploi, comme le réclament notamment les associations environnementales.

Si ces dernières ont déjà gagné la bataille de l’opinion sur ce sujet, l’enjeu pour elles est de parvenir à rendre leur message compréhensible et de différencier le mode de collecte et le devenir des emballages collectés. A rebours de l’image consensuelle du processus de concertation lancé par le gouvernement, ces différents intérêts et visions de l’écologie vont donc de nouveau s’affronter.

Notes :

[1] Aussi appelé « hiérarchie des modes de traitement », ce principe est présent dans la directive 2008/98/CE du Parlement européen et du Conseil du 19 novembre 2008 relative aux déchets.

[2] La valorisation a été plébiscitée lors de la création du dispositif, pour intégrer à la fois le recyclage et l’incinération, qui sont ainsi mis sur un pied d’égalité.

[3] En réalité, la REP française correspond à un accord privé-public de type nouveau, que les économistes ont pu appeler « engagements volontaires » et les gestionnaires désigner comme une « régulation hybride ». Voir à ce titre : BORKEY, P., GLACHANT, M., « Les engagements volontaires de l’industrie : un mode original de réglementation environnementale ». Revue d’économie industrielle 83, 1998, ou encore MICHEAUX, H., AGGERI, F., « The emergence of hybrid co-regulation: empirical evidence and rationale in the field of e-waste management », Présenté au colloque EGOS en 2016.

[4] En effet, si le taux de « réutilisation » (c’est-à-dire de recyclage ou de réemploi) des emballages tombait en-dessous de 72%, il était ainsi prévu que l’Etat fédéral Allemand oblige tous les producteurs à mettre en place une consigne
[5] Ces leviers sont multiples (collecte des déchets consommés hors-foyer, augmentation des points d’apport volontaires, amélioration de la communication) et impliquent généralement une hausse des moyens alloués par Citeo. Voir VERNIER, J., Rapport sur la consigne des emballages de boissons, 2019.

[6] S’il est anticipé que le recyclage des déchets peut, indirectement, contribuer à diminuer le taux d’extraction des ressources vierges, cette relation causale n’a jamais été observée empiriquement. Surtout, elle prend mal en compte le fait que le recyclage comporte nécessairement des pertes énergétiques ou matérielles, qui l’empêchent ainsi d’être tout à fait neutre d’un point de vue environnemental.

[7] WALLS, M, « Deposit-refund systems in practice and theory ». Resources for the future discussion paper n°11-47, 2011.

[8] « Les incitations économiques ou autres visant à favoriser les choix durables du consommateur et à promouvoir des habitudes de consommation responsables peuvent être un outil efficace pour atteindre les objectifs de la présente directive » (considérant n°22 de la directive SUP).

[9] Voir l’intervention de Valérie Beauvais dans le rapport des sénatrices : RIOTTON, V., KERBARH, S., Rapport fait au nom de la commission du développement durable et de l’aménagement du territoire sur le projet de loi, adopté par le Sénat après engagement de la procédure accélérée, relatif à la lutte contre le gaspillage et à l’économie circulaire (n° 2274), Tome II, Assemblée nationale, 2019.

[10] Qui repose d’ailleurs sur une « mise au travail » des usagers. Voir à ce titre : BARBIER, R., « La fabrique de l’usager. Le cas de la collecte sélective des déchets », Flux 48/49, 2002. CAILLAUD, K., « Les conditions de mise au travail des usagers. Le cas de la gestion des déchets » Gouvernement et action publique 7, 2018.

[11] DELALANDE, N., SPIRE, Alexis., Histoire sociale de l’impôt. La Découverte, 2010, ainsi que BLAVIER, P., « Que nous apprennent les sciences sociales sur les Gilets jaunes, et ceux-ci sur la société française ? Une entrée par les enjeux socio-économiques », Revue Française de Socio-Économie 24, 2020.

[12] Si l’on peut rétorquer que les critères d’efficacité qu’on y intègre peuvent être suffisamment bien choisis et paramétrés pour parfaitement prendre en compte les exigences morales, cette optimisation semble encore difficile à atteindre et surtout requiert l’acquisition, par toutes les parties concernées par l’impôt en question, d’une connaissance suffisante de ses mécanismes.

[13] Voir la thèse de Renaud Nougarol, sur la mise à l’agenda et la traduction politique de la tarification incitative comme outil économique : NOUGAROL, R., La tarification incitative des déchets ménagers comme processus d’économisation ? : sociologie des cadrages et des débordements d’une politique publique, Université Toulouse le Mirail, 2017.

[14] CAILLAUD, K., NOUGAROL, R., « La triple politisation de la tarification incitative. Rapports de force, réagencements et effets d’un instrument politique », Géocarrefour 95, 2021.

Misère de l’Anthropocène

© Rick Jo

L’humanité était-elle vouée à détruire la nature et saccager l’environnement, avant qu’un groupe providentiel de scientifiques ne l’avertisse de l’impact de ses actions la planète ? C’est ce que suggère le concept « d’Anthropocène », en vogue depuis une décennie. Contre ce récit, les historiens Christophe Bonneuil et Jean-Baptiste Fressoz estiment que cette approche est naturalisante, dépolitisante et inopérante pour répondre à l’urgence écologique. Ils proposent plusieurs concepts alternatifs (Thermocène, Thanatocène, Phagocène, Phronocène, Capitalocène, Polémocène) qui permettent de rendre compte des causes du désastre environnemental – et de penser les moyens de lutter contre elles. Retour sur leur ouvrage L’événement Anthropocène (Editions du Seuil).

De quoi l’Anthropocène est-il le nom ? Cette dénomination définit la nouvelle ère géologique dans laquelle l’humanité aurait fait entrer depuis 150 ans notre planète, en devenant la principale force du changement climatique global qui l’affecte. Ce concept, fortement popularisé depuis quelques décennies, est abondamment repris dans l’ensemble des travaux réalisés sur la crise écologique que nous traversons. Le récit mainstream qu’on en fait est-il satisfaisant ? Est-il opérant pour comprendre les enjeux de cette crise climatique et aboutir à des solutions adaptées ? Il semblerait que ce ne soit pas totalement le cas, comme l’affirmaient dès 2013 les historiens Christophe Bonneuil et Jean-Baptiste Fressoz dans un essai [1] dont l’actualité est toujours forte. Leur réflexion critique aboutit à 7 récits alternatifs, complémentaires les uns aux autres, qui nous invitent à réécrire l’histoire de cette nouvelle ère géologique.

L’Anthropocène met fin à la séparation entre nature et culture

L’Anthropocène est le nom donné en 1995 par le Prix Nobel de chimie Paul Crutzen à cette nouvelle ère géologique, qui est aussi non seulement climatique, mais également hydrologique, biologique, et même plus, dans laquelle l’homme serait entré. Ce terme devait nous aider à prendre conscience du fait que l’homme serait le seul responsable de cette révolution, et ce à plusieurs titres : modification profonde de la composition de l’atmosphère, dépassement de nombreux seuils de stabilité des écosystèmes, « dégradation généralisée du tissu de la vie ».

L’activité humaine a radicalement transformé les équilibres biologiques et écosystémiques de la Terre : l’homme et le bétail représenteraient 97% de la biomasse des vertébrés, les trois quarts des zones de pêche sont surexploitées ou à capacité maximale, 15% du flux des rivières est retenu par des barrages, engendrant une modification profonde des cycles de l’eau. Entre 1800 et 2000, la consommation d’énergie a été multipliée par un facteur 40. L’homme dépasse la plupart des seuils critiques de stabilité du vivant, faisant peser le risque d’un effondrement global : pollution, érosion de la biodiversité, perturbation du cycle de l’eau, de l’azote, du phosphore. Une à une, celles que l’on qualifie de « limites planétaires » sont outrepassées (Voir Libération, «On joue avec le feu»: avec la pollution chimique, la Terre s’apprête à franchir une «limite planétaire», Interview, 23 janvier 2022)

La date est sujette à discussion mais, selon les deux auteurs, cette nouvelle ère géologique aurait débuté au 19ème siècle, époque où se mettent en place les structures et les logiques, que celles-ci soient politiques, économiques ou technologiques, conduisant au dépassement de ces seuils. C’est là que l’ensemble des courbes d’impact humain prennent une pente exponentielle.

Figure 1 – Projections des émissions liées aux énergies fossiles suivant quatre profils d’évolution de GES

Les auteurs notent que l’idée d’Anthropocène, la conscience de la capacité de l’humanité à entraîner une transformation globale de la sphère terrestre « annule la coupure entre nature et culture, entre histoire humaine et histoire de la vie et de la Terre ». Contrairement à l’analyse historique, notamment celle défendue par Braudel, qui distingue le temps infiniment long des cycles naturels et les temps courts de variation des structures humaines et des événements historiques, l’Anthropocène est défini par la coïncidence entre histoire géologique et histoire politique. Cette conscience met fin à la possibilité que l’humanité puisse échapper aux contraintes naturelles, projet civilisationnel annoncé par exemple par Michelet qui parlait « d’arrachement aux déterminismes naturels ». L’Anthropocène caractérise le retour du social dans la nature, la conscience que les « natures sont traversées de social » et que les « sociétés sont traversées de nature ».

Anthropocène, un récit officiel à démythifier

Les auteurs avancent que la pensée de l’Anthropocène et son appropriation dans le discours public seraient parcourues par plusieurs erreurs d’analyse qu’il conviendrait de pointer. Tout d’abord, l’Anthropocène renvoie souvent à une vision déterministe de l’histoire de l’humanité. Il renvoie à l’idée qu’aucune autre alternative n’était possible et que c’est uniquement grâce à la science moderne et aux alertes et travaux réalisés à partir des années 70 (rapport du Club de Rome sur les limites à la croissance, GIEC, COP) que les sociétés ont compris que leur activité pouvait changer la Terre dans sa totalité. L’Anthropocène véhicule ainsi l’idée d’une destruction environnementale faite par inadvertance car, pour reprendre l’allusion biblique, « ils ne savaient pas ce qu’ils faisaient ». À partir de cette « nouvelle connaissance », l’humanité pourrait enfin agir, dans ce qui constitue un discours prophétique après la « révélation ».

Le deuxième constat infondé de l’Anthropocène, selon les auteurs, serait ce qu’ils nomment la « thèse de la dissonance cognitive ». Si nous détruisons la planète, c’est parce que nous n’aurions pas conscience de l’impact de nos actes sur la Terre et donc qu’il suffirait, en conséquence pour tout résoudre, que chacun devienne conscient et « pénétré par le message de la science ». En conclusion, c’est l’humanité dans sa globalité qui doit maintenant gérer le « système Terre », en s’appuyant sur les scientifiques. Ce grand récit place les scientifiques au centre du jeu comme seuls détenteurs des clés de la réussite. 

« L’agir géologique de l’espèce humaine est le produit de processus culturels, sociaux et historiques » et des « mécanismes de domination par lesquels certains collectifs en détruisent, exploitent ou soumettent d’autres dans des rapports sociaux asymétriques »

Troisièmement, l’Anthropocène repose sur une vision du dérèglement planétaire comme étant le fait de l’humanité tout entière. Selon cette idée, c’est « l’activité humaine » qui génère une « empreinte humaine ». Cet acte manqué de l’humanité serait aussi de la responsabilité de la « modernité » et du « progrès technique » qui aurait établi une séparation binaire trop nette entre nature et culture.

A contrario, les auteurs rappellent que cette vision semble balayer d’un coup les acquis des sciences humaines. Pour eux, « l’agir géologique de l’espèce humaine est le produit de processus culturels, sociaux et historiques » et des « mécanismes de domination par lesquels certains collectifs en détruisent, exploitent ou soumettent d’autres dans des rapports sociaux asymétriques ». La question écologique est en réalité parcourue par des fractures inégalitaires nombreuses et par la main de la domination. Parler d’une seule humanité, qui aurait une responsabilité globale partagée et devrait gérer d’un seul tenant le système Terre, est erroné.

En somme, ce concept communément partagé autour de l’Anthropocène est problématique à plusieurs titres. D’autres récits explicatifs du « changement de régime d’existence » de la Terre sont possibles. Quels sont donc les sept fils historiques alternatifs et complémentaires que Bonneuil et Fressoz nous invitent à tirer pour mieux appréhender et dénaturaliser « l’événement Anthropocène » ?  À chacun d’entre eux, un titre explicite est attribué.

Thermocène

Le premier récit proposé est celui de l’existence d’un « Thermocène ». Ce concept permet d’analyser la manière dont les choix énergétiques s’opèrent et avec laquelle les transitions énergétiques se déroulent. Les auteurs avancent que les transitions énergétiques ne sont pas écrites à l’avance. Elles n’obéissent pas à des logiques internes, déterministes et de progrès techniques, ni à une logique de pénurie ou de substitution. « L’histoire de l’énergie est celle de choix politiques, militaires et idéologiques (…) qu’il faut analyser en les rapportant aux intérêts et aux objectifs stratégiques de certains groupes sociaux ». De manière exemplaire, cette hypothèse est illustrée par la dynamique d’exploitation des pétroles non-conventionnels(pétrole et gaz de schiste) aux États-Unis. Loin d’obéir à des règles techniques ou scientifiques, leur niveau d’exploitation est fonction des choix politiques stratégiques du pays, de la volonté d’indépendance ainsi que de la stabilité et du niveau des prix du pétrole conventionnel à travers le monde. Un gouvernement peut tout à fait décider d’exploiter à perte une source énergétique pour des raisons diverses : volonté de souveraineté pour les États-Unis, maintien d’emploi dans le cadre de la relance de l’exploitation du charbon en France sous François Mitterrand, etc.

Les auteurs notent aussi que c’est la demande qui souvent créera la filière énergétique correspondante, et non l’inverse. À partir de nombreux exemples, ils montrent comment l’industrie automobile a créé l’industrie pétrolière, comment le besoin d’éclairage pour les lampes à filament a entraîné la construction des premières centrales électriques, etc.  Par ailleurs, les auteurs invitent à relativiser le rôle des énergies fossiles dans l’industrialisation : pour eux, les grandes innovations dans le textile précèdent la machine à vapeur au même titre que la mondialisation s’est majoritairement faite pendant tout le 19ème à la voile. Ainsi, les trajectoires technologiques sont guidées par les « conditions initiales » mais aussi par des décisions politiques encourageant une source d’énergie plutôt qu’une autre, une industrie plutôt qu’une autre.

Un exemple particulièrement célèbre est celui du choix du tout-voiture aux États-Unis et de l’étalement urbain. Au début du 20ème siècle, les villes américaines sont majoritairement desservies par de nombreuses lignes de tramway électriques. En 1902, les tramways transportent chaque année 5 milliards de passagers grâce aux 35 000 kms de lignes disponibles. Pourtant, en quelques décennies, l’ultra-majorité des lignes sont démantelées, le transport collectif laissant place nette à la voiture individuelle. De nombreux historiens ont mis en avant que cet effondrement ne répondait à aucune logique technique ou économique. À cette époque, les routes en mauvais état et la forte densité de transports collectifs financièrement accessibles rendent la voiture individuelle peu attractive.

En réalité, l’affrontement idéologique entre les compagnies de tramway d’une part et les autorités publiques et capitalistes d’autre part en était le facteur essentiel. Les compagnies sont fortement critiquées et, étant dans une situation de monopole de fait, sont considérées comme une entrave à la liberté d’entreprendre. Une première loi oblige les grands électriciens, possesseurs des compagnies, à vendre leurs réseaux, créant une myriade de petites compagnies qui sont ensuite intégralement rachetées par un conglomérat d’industriels du pétrole et de l’automobile (General Motors, Standard Oil et Firestone). Les lignes, une fois rachetées, sont démantelées pour être remplacées par des bus à essence et des voitures individuelles pour créer ex nihilo des débouchés aux industries du pétrole et de l’automobile.

Figure 2 – « Trams rouges » de Los Angeles de la Pacific Electric Railway, empilés en attente de leur démolition en 1956.

« Ainsi, la direction des transitions énergétiques et du progrès technique n’est pas neutre, ni déterminée à l’avance. Elle est le fruit de rapports sociaux, de compromis et de choix de société qui ne sont pas neutres. »

Thanatocène

L’histoire de l’Anthropocène est étroitement liée aussi au développement des techniques militaires et aux capacités de destruction mises entre les mains des hommes. S’agissant des mécanismes de la mort provoquée de l’ère dite du  « Thanatocène », les auteurs analysent avec finesse et à l’aide d’illustrations parlantes le rôle joué par les guerres et l’appareil militaire dans le changement climatique. La guerre moderne a régulièrement perçu la destruction environnementale comme un enjeu militaire. Lors du conflit coréen, les barrages et réserves hydrauliques sont visées. La guerre du Vietnam, quant à elle, donne lieu à l’invention du mot « écocide » et aux premières tentatives d’ingénierie climatique. Le soldat de la Seconde Guerre mondiale consommait 228 fois plus d’énergie que le « poilu » de 14-18. Volant sur Berlin, un bombardier américain pouvait consommer jusqu’à 27 000 litres de carburant par heure.

S’appuyant sur un fourmillement d’exemples, les auteurs proposent une « histoire naturelle de la destruction » décrivant notamment comment les impérialismes anglais et américain permettent aussi « l’élargissement géographique de la base matérielle de notre économie ».

Le rôle de la Seconde Guerre mondiale est quant à lui particulièrement éloquent. La mise en place d’une économie de guerre et d’une multiplication par 3 ou 4, en quelques années, des capacités productives des États-Unis a préparé « le cadre technique et juridique de la société de consommation de masse ». Les capacités productives militaires ont ainsi été réorientées vers la satisfaction de nouveaux besoins post-guerre, basés sur l’organisation industrielle permise par la guerre.

Phagocène

Le récit de l’Anthropocène est souvent aussi celui d’une naturalisation des désirs de consommation, qui rejette sur la nature humaine les besoins du ‘toujours plus’ et de la recherche permanente de la nouveauté. Pourtant, les auteurs arguent que ce sont bel et bien des dispositifs matériels et institutionnels qui ont contribué à l’émergence de la société de consommation de masse. Souhaitant mettre à bas une certaine « culture du suffisant » prédominante antérieurement à la société de consommation, le monde des publicitaires s’est employé à créer auprès de la population des insatisfactions, et à mettre en avant des concepts de « mauvaise haleine ou de « pores du nez », visant à convaincre leurs cibles d’une supposée laideur à soigner.  Ainsi, nous nous transformons en cellules mangeuses, en phagocytes, autodétruisant les défenses immunitaires de la planète. Tel est le drame en cours lors du « Phagocène ».

Selon les auteurs, la consommation de masse est une « adaptation stratégique du capitalisme américain » aux rapports de force émergeant de la Seconde Guerre mondiale. Ainsi, le capitalisme américain met en place de nouveaux crédits à la consommation, procède au versement de salaires ouvriers corrects, chez Ford par exemple, ou encore facilite la garantie des prix immobiliers.

Ce récit de la construction de la société de consommation de masse marque aussi le passage des logiques de recyclage et d’économie circulaire du 19ème siècle à celles de l’obsolescence programmée. Là encore, les publicitaires et psychologues jouent un rôle clé, notamment via la mise en place d’une « obsolescence psychologique » se fondant sur les changements annuels de modèles (par exemple, le nouveau modèle annuel des Ford T). Le « American way of life », fondé sur la maison individuelle, la voiture et les équipements électriques, est une construction avant tout publicitaire, soutenue par l’Etat, puis diffusée à travers le monde par le soft-power américain. Dans ce contexte, le choix de la périurbanisation est aussi un choix politique, visant selon les auteurs à défaire les logiques de solidarité ethnique et sociale dans les centres urbains.  Chez les économistes, la distinction traditionnelle entre besoins naturels et artificiels est remplacée par la théorie subjective de l’utilité, qui finit par comparer des choux et des carottes.

Phronocène

L’essai de Bonneuil et Fressoz s’attaque ensuite au mythe d’une destruction environnementale faite « par inadvertance ». Bien au contraire, leur analyse s’évertue à montrer qu’elle s’est faite « en dépit de la prudence environnementale » (phronêsis) des « modernes », et malgré leurs très nombreuses alertes lancées tout au long de l’Anthropocène sur le rôle de l’impact de nos sociétés sur l’environnement. Le 19ème siècle est ainsi parcouru par l’expression de nombreuses inquiétudes sur la possible « rupture métabolique » entre société humaine et nature, inquiétudes émises par des intellectuels dont le projet fondamental est de boucler les cycles de matière et d’équilibrer l’impact des sociétés. Marx, s’appuyant sur les travaux de Liebig sur le métabolisme agricole et la rupture du cycle de l’azote et des nutriments, note qu’il n’y a pas « d’arrachement possible vis-à-vis de la nature », concluant à l’insoutenabilité du métabolisme capitaliste. [1]

Contre le projet capitaliste, le 20ème siècle verra naître de nombreux projets de coopératives autosuffisantes fondées sur le recyclage des cycles de matière, puisque « le recyclage est le levier essentiel pour sortir des grands réseaux techniques du capitalisme et pour établir l’autogestion ».  Mais déjà, il existe chez les modernes du 19ème siècle une perception du pillage de la nature, des limites à la production et de l’impact environnemental du système capitaliste.

Figure 3 – La Bellevilloise, coopérative ouvrière de consommation

L’analyse de l’Anthropocène est enrichie de même par les apports de l’agnotologie, un champ de recherche qui étudie la fabrique des zones d’ignorance. Ainsi, l’âge de l’Anthropocène est parcouru de tentatives d’invisibilisation des dégâts « du progrès » à travers des « dispositifs culturels et matériels qui agissent toujours ». L’histoire récente nous en donne des exemples frappants, en dévoilant notamment la connaissance d’entreprises comme Total depuis plus de 50 ans des effets de son activité sur le changement climatique et le financement de contre-expertises scientifiques climatosceptiques.

Capitalocène

L’histoire de l’Anthropocène est intimement liée à celle du développement du capital, conduisant de nombreux intellectuels et militants à parler de l’ère du « Capitalocène ». La période moderne est marquée par une multiplication extraordinaire du capital d’un facteur 134 entre 1700 et 2008. Bonneuil et Fressoz analysent ainsi comment le déploiement d’une technostructure orientée vers le profit marque le basculement et le passage vers l’Anthropocène. Une formule frappante résume leur thèse : « l’Anthropocène n’est pas sorti tout armé du cerveau de James Watt, de la machine à vapeur et du charbon, mais d’un long processus historique de mise en relation du monde, d’exploitation des hommes et du globe, remontant au 16ème siècle et qui a produit l’industrialisation. »

L’Anthropocène devient alors une « rupture métabolique propre à la logique intrinsèque du capital », caractéristique de l’incapacité du capital à reproduire ses propres conditions d’existence. La logique du capital détruit et épuise le socle matériel pourtant indispensable à sa production, générant par là-même ce qui est communément appelé la seconde contradiction, mise en évidence par James O’Connor [2], et reprise par Foster et Clark (voir notre recension). Empruntant à la méthode d’analyse historique d’économie-monde, chère à Braudel et Wallerstein, les auteurs avancent que l’accumulation dans les pays riches ne s’est faite que grâce à l’exploitation du reste du monde dans une forme d’échange écologique inégal (voir notre article sur le sujet). Pour décrire ce système-monde, citant le grand géographe marxiste David Harvey, les auteurs notent que « le capitalisme, pour soutenir un régime d’exploitation salariale dans les pays du centre a besoin de s’approprier de façon récurrente du travail humain et des productions naturelles initialement vierges de rapports marchands ». 

Ainsi, la « révolution industrielle prend place dans un monde déjà capitaliste et globalisé ». L’utilisation de la notion de capitalocène met en évidence les facteurs explicatifs comme l’échange écologique inégal et la construction d’une dette écologique, qui permettent d’expliquer simultanément la dynamique globale du capitalisme producteur d’inégalités et l’entrée dans l’Anthropocène.

Polémocène 

Le concept résumé sous le terme « Polémocène » est le dernier fil historique tiré par les auteurs, reposant sur l’argument que l’Anthropocène, loin d’être le fait d’une humanité globalisée imprudente, est marqué par une centralité du conflit dans son histoire. Pour défendre cette thèse, les auteurs s’appuient sur de nombreux exemple de ce qui est qualifié « d’environnementalisme des pauvres », marqué par des conflits et des combats pour la préservation de la nature et des ressources naturelles, s’appuyant sur une « économie morale articulant justice sociale et décence environnementale ».

« Pour les auteurs, à l’intérieur d’un cadre industriel, différentes voies techniques et organisationnelles ont toujours été possibles et le choix de l’une n’est jamais neutre, mais est le produit de conflits et de rapports sociaux de classe. »

À de nombreuses reprises, des mouvements sociaux ont visé à freiner la dynamique enclenchée. L’analyse des conflits autour des usages de la forêt et du bois en offre une série d’exemples. Le plus connu est celui né pour protester contre le nouveau code forestier de 1827 limitant l’accès aux ressources forestières et le droit de ramassage, pacage et marronage. Dans plusieurs de ses écrits, Marx analyse les pratiques relatives au droit coutumier de vol du bois. De même, la destruction des machines à filer par les tisserands britanniques en 1811 ou la révolte des Canuts à Lyon en 1831 sont illustratives de ces conflits autour de la direction du progrès technique.  Pour les auteurs, à l’intérieur d’un cadre industriel, différentes voies techniques et organisationnelles ont toujours été possibles et le choix de l’une n’est jamais neutre, mais est le produit de conflits et de rapports sociaux de classe. Loin de relever d’une opposition de principe de pauvres réticents au progrès, ces résistances se font non contre la technique en général mais contre une technique en particulier.

Les auteurs terminent leur analyse par une hypothèse forte, selon laquelle l’entrée dans l’Anthropocène serait la conséquence d’une défaite politique face aux forces du libéralisme et du capitalisme.

Quels enseignements pour aujourd’hui ?

La compréhension des causes de la crise écologique ne peut faire l’économie d’une analyse des dispositifs techniques et institutionnels ainsi que des rapports sociaux structurant l’histoire de nos sociétés depuis le 16ème siècle. La crise climatique, loin d’être liée à la « nature humaine », à « l’inadvertance d’une société dans son ensemble » et à un progrès technique déterminé, est en réalité le fruit d’une certaine organisation sociale, géographiquement et historiquement située, conséquence de rapports sociaux asymétriques de domination, le capitalisme. Si nous en sommes arrivés là, c’est parce que certains groupes sociaux y ont eu intérêt et ont gagné des rapports de force. C’est en connaissance de cause que (certains de) nos ancêtres ont entrainé l’humanité dans la grande accélération du dérèglement planétaire. Les structures étatiques ont joué elles aussi un rôle clé dans l’entrée dans l’Anthropocène, en devenant à plusieurs reprises le bras armé des intérêts capitalistes. Faire face au changement climatique, c’est aussi repenser en profondeur le fonctionnement de l’état : planification démocratique, séparation de l’état avec l’argent, hiérarchisation des besoins et débats sur les choix des technologies à privilégier.

Ces sept récits alternatifs de l’Anthropocène semblent porter un coup quasi-fatal au récit salvateur qu’on nous propose et aux supposées solutions actuelles. Les grands sommets internationaux comme les Cop deviennent profondément vains et inutiles, jusqu’à dire qu’ils contribuent même à construire une illusion d’une prise de conscience tandis que tout continue comme avant, business as usual. La transmission de la compréhension du changement climatique et la sensibilisation ne suffisent pas, car ce n’est pas l’absence de savoirs qui mène à l’Anthropocène mais bien des intérêts (de classe) divergents. Ainsi, la bifurcation écologique ne pourra faire l’économie d’une politisation majeure des enjeux écologiques et d’une inclusion dans un discours remettant profondément en cause l’organisation des structures de production, de consommation et d’échange. Pour sortir de la crise écologique, il faut mettre fin aux mécanismes qui en sont responsables : pulsion d’accumulation capitaliste, alignement entre intérêt général et profits privés, prédominance donnée à la production, quelle que soit sa forme.

Bibliographie

[1] Christophe Bonneuil, Jean-Baptiste Fressoz, L’événement Anthropocène, Editions du Seuil, 2013

[2] K. Marx, Capital, Vol. 3.

[3] O’Connor, James. « La seconde contradiction du capitalisme : causes et conséquences », Actuel Marx, vol. 12, no. 2, 1992, pp. 30-40.

Flore Vasseur : « Nous subissons aujourd’hui cette vanité de l’Homme »

Bigger than us, premier film de Flore Vasseur. © Elzévir Films

Le parcours de Flore Vasseur est atypique : à l’issue de brillantes études, âgée de 25 ans, elle créée une agence de marketing à New York et vit une véritable success story. Mais après quelques années au sein de milieux d’affaires dont elle dit aujourd’hui avoir été « programmée » pour y travailler, elle vit d’une intense proximité l’éclatement de la bulle Internet et les attentats du 11 septembre 2001. Suite à ces chocs, elle décide de changer la trajectoire de sa vie. « J’ai remercié mes employés et mes clients, j’ai fermé ma boîte et je me suis mis en tête de comprendre d’où venaient les bombes » explique-t-elle. Elle se met alors à écrire et à enquêter autour d’une question qui ne cessera de la tourmenter : « Qui nous gouverne ? ». Elle publie plusieurs ouvrages (Une fille dans la ville – 2006, Comment j’ai liquidé le siècle – 2011, En bande organisée – 2013, Ce qu’il reste de nos rêves – 2019), fonde Big Mother Productions, son studio de production aux contenus à impact, et produit son premier film Bigger Than Us, qui relate de la vie de jeunes activistes. Entretien édité et réalisé par Julien Chevalier.

LVSL – En 2001, vous décidez d’abandonner votre statut de business woman pour devenir journaliste puis écrivaine et enfin réalisatrice de documentaires et films engagés. En quoi votre précédente situation au sein de milieux d’affaires vous a-t-elle aidé à comprendre le monde ? Comment l’exprimez-vous à travers vos œuvres ?

Flore Vasseur – Je crois que j’ai eu la chance d’apercevoir le cœur du réacteur, c’est-à-dire le monde des affaires. Pour comprendre ce qu’il se passe, il faut l’approcher. On se gargarise de choses compliquées mais c’est pourtant simple à comprendre : tout ce qui nous arrive est dû à un système économique qui ne tient que parce qu’il crée des dysfonctionnements et des injustices. Un seul exemple : de nos jours, environ 30% de notre PIB est lié à du déchet et du gaspillage. 30% de ce que l’on appelle création de richesse ou progrès ! Ce n’est que de l’illusion. Tant que vous n’avez pas vu ça, tant que vous n’avez pas compris que le système profite des dysfonctionnements qu’il engendre, vous ne voyez pas le nœud du problème. Vous ne faites que le subir.

Flore Vasseur © Hannah Assouline

À titre personnel, j’ai eu la chance de voir cette clé d’explication très tôt. Ensuite, je me suis demandé pourquoi tout le monde faisait comme si l’ordre établi ne pouvait être changé. Le système était-il fou ? Ou alors est-ce moi ? Et je me suis intéressé à quelque chose d’autre qui est lié, que les Américains appellent le too big to fail (trop gros pour faire faillite). C’est cette idée d’aléa moral très présente parmi les élites, les « gagnants du système », la conviction de s’en sortir mieux que les autres et de penser pouvoir échapper à la tragédie. En somme, on a beau tout abîmer, on ne tombera jamais, on ne sera jamais puni… Ce too big to fail est intervenu au moment de la crise des subprimes de 2007-2008, lorsque l’on s’est rendu compte que les banques allaient être sauvées par l’État, quel que soient les erreurs produites, parce qu’il fallait sauver le système.

« Au nom de cette supériorité, de son propre confort, on lâche l’intérêt général par de petits accommodements, des légers glissements. »

On le voit à l’œuvre avec le dérèglement du climat, dans le milieu politique ou des affaires notamment. C’est comme une idée de supériorité, l’idée que l’on s’en sortira mieux que les autres, qu’on est intouchable. Au nom de cette supériorité, de son propre confort, on lâche l’intérêt général par de petits accommodements, des légers glissements où l’on s’arrange avec la réalité et à la fin, c’est une catastrophe. Selon moi, l’opposition entre confort et humanité est centrale. Notre confort matériel n’est possible qu’au détriment de la destruction du vivant, ou de l’humanité. Il l’a toujours été. C’est juste extrêmement visible aujourd’hui. 

LVSL Dans une interview précédente, vous déclariez : « Aujourd’hui ce qui est plus grand que nous, c’est que la plupart des gens considèrent que le confort est plus important que l’humanité. » Selon vous, comment le plus grand nombre peut-il sortir de son individualisme ?

FV – C’est une question de déprogrammation. Tout est fait aujourd’hui pour que nous soyons convaincus que l’individualisme est la seule façon de s’en sortir. La société est organisée autour de cette doctrine : vous êtes à l’école, vous avez des notes, il faut être meilleur que les autres ; vous êtes dans une entreprise, il faut être meilleur que ses « collaborateurs », etc. Cet instinct de compétition, de comparaison permanente, de distanciation à l’autre, est profondément ancré dans notre société. À ce jeu-là, certains pensent avoir tous les droits.

Peut-être cette idée s’ancre-t-elle au XVIIème à partir du moment où Descartes formula que l’Homme est supérieur et séparé de la nature. Lorsque l’Homme a commencé à mettre de la distance avec la nature, il a commencé à faire tout ce qu’il voulait, notamment à s’accaparer les ressources.

Le système capitaliste n’est pas nécessairement le problème des maux de ce monde. Il s’agit plutôt de la valeur qu’il sous-tend : cette histoire de séparation. Alors que c’est exactement l’inverse : nous sommes profondément interdépendants. Tout ce qui nous arrive est éminemment lié, tout ce qui vous arrive m’impacte. Et cette interdépendance s’est particulièrement manifestée lors de la crise sanitaire : de personne en personne, le virus se transmettait. Aucun de nous ne pouvait y échapper. 

Dès lors, quand allons-nous arrêter de croire en cette croyance d’impunité, à cette idée que nous allons mieux nous en sortir que les autres ? C’est évidemment impossible car nous sommes tous liés : si la nature va mal, nous allons mal. On a beau se protéger avec diverses illusions, dont la consommation et le statut social, mais ce sont simplement des constructions intellectuelles. Pas la réalité. À nouveau, la crise sanitaire nous a éclairé sur ce point. Tant que nous n’aurons pas « acté » cette interdépendance de tout et en tout, la leçon reviendra.

LVSL – À partir de l’idée de rationalité, le cartésianisme représente peut-être aussi le début de la gouvernance par les nombres – que nous subissons particulièrement aujourd’hui -, où les statistiques cherchent à tout démontrer, où les sondages et les indicateurs orientent nos opinions, où l’on tente de tout quantifier y compris ce qui n’est pas quantifiable… À travers cette période, ne faut-il donc pas percevoir aussi le début de la séparation entre l’Homme et la spiritualité ?

FV – Absolument. Il y a cette idée de maîtrise et d’ultra-rationalité qui s’impose au nom de cette logique de domination. L’idée que nous allons maîtriser la nature, maîtriser les peuples, maîtriser les femmes, maîtriser le temps. La technologie et les logiciels d’analyse prédictive fonctionnent autour de cette folie. Nous n’avons jamais eu autant d’ingénieurs, jamais autant de diplômés, autant d’intelligence, et pourtant nous n’avons jamais été aussi « plantés ». 

« Nous ne sommes pas sur Terre pour être des chiffres, des capacités de transaction. Il y a plus « grand ». Mais quoi ? À quoi servons-nous ? C’est LA grande question. »

Pourquoi ? Car il y a effectivement cette prétention de domination, où l’Homme pense pouvoir mettre la main sur la nature. Nous subissons aujourd’hui cette ultra-prétention, cette vanité de l’Homme. Pourtant, tout nous appelle à l’humilité et à une forme d’élévation. Nous ne sommes pas sur Terre pour être des chiffres, des capacités de transaction. Il y a plus « grand ». Mais quoi ? À quoi servons-nous ? C’est LA grande question. Et ce n’est pas nécessairement un repli mais un ré-ancrage, un réalignement.

LVSL – « Ne pas faire l’histoire mais la permettre » est le titre de votre présentation sur le média TedTalks. Étant donné que vous situez l’élément déclencheur du début de votre « grande introspection » au 11 septembre 2001, date des attentats terroristes de New-York, pensez-vous – à travers votre parcours – que le changement de l’ordre établi nécessite une « rupture » ?

FV – Oui, je le pense. Mais elle ne doit pas forcément être aussi dramatique que celle-ci… Pour perdurer, le système a besoin de nous séparer les uns des autres. Cela est sous-tendu par un système de valeurs, de « programmation », dont l’individualisme, les chiffres et la performance. Tant qu’il n’y a pas d’accident, de rupture, rien ne nous fera sortir de cette trajectoire. Car toute la société est organisée autour de cela.

Flore Vasseur

Dans mon cas, c’était un événement exogène – le vécu des attentats du 11 septembre – mais la vie est maillée de drames. Et c’est comme si elle venait nous présenter continuellement des occasions de sortir de cette trajectoire posée par d’autres. C’est comme si ces drames étaient aussi des occasions pour nous demander si nous sommes au bon endroit, si la vie que nous menons est celle que nous avons envie de mener, si nous savons réellement qui nous sommes. À chaque drame, la vie demande : qui as-tu envie d’être ?

Aujourd’hui, nous vivons un immense drame, abyssal. Nous disposons de tous les chiffres, de toutes les datas, de toutes les images… mais la plupart du temps, nous luttons pour faire comme si de rien n’était. Car cela impliquerait de reconnaître que nous nous sommes trompés, puis de sortir de l’illusion, de la programmation. S’effondrer et accepter qu’il n’y a pas de feuille de route. Mais depuis des siècles on nous rabâche que nous sommes « au-dessus » de toutes les espèces et des lois. Comme si collectivement, nous n’étions pas prêts à cette humilité. Cette sublime occasion de se demander enfin : qui avons-nous envie d’être comme personne, comme espèce ?

La rupture dont vous parlez n’est pas forcément le chaos social ou politique. Cela peut être une maladie, un deuil, une rupture amoureuse… Ces drames sont là pour nous rappeler est-ce que nous avons été justes, sincères ? Où est-ce que nous avons triché ? Je pense qu’en ce moment on nous demande d’être sincèrement nous. Mais cela est ô combien compliqué car dans nos familles, dans nos cercles, en entreprise, nous jouons continuellement des rôles, nous sommes dans des pièces de théâtre. 

Mais que se passe-t-il quand nous n’avons pas envie de jouer ? Quand nous avons envie de parler de notre colère, de notre tristesse, de nos émotions, de qui nous sommes réellement ? Malheureusement, ce sont des choses que l’on ne s’autorise que très rarement car c’est très compliqué pour – ce que l’on estime être – notre « sécurité. »

LVSL – Selon vous, où se situe la place du politique de nos jours ? Si l’on entend ce terme comme action collective visant le bien commun.

FV – Elle se situe très loin de toute logique électoraliste. Selon moi, les grands hommes et femmes politiques de notre temps, ce sont les protagonistes comme ceux présents dans Bigger Than Us. Ce sont des hommes et femmes qui, sans aucune attente de récompense, s’engagent. Ils font quelque chose pour sauver la vie, un peu de dignité. Ça, c’est de la très grande action politique.

La politique concerne les affaires de la cité : quelle est ta cité ? Quelles sont les affaires ? Qui va mal ? Qu’est-ce que tu fais pour les autres ? Je crois qu’il y a vraiment cette idée d’action plus forte que soi. Au-delà de soi.

Aujourd’hui plus que jamais, j’ai l’impression que la politique politicienne est condamnée par les questions d’égos, de statut, d’intérêt électoraliste. Ce ne sont que des programmations auxquelles ont fait mine de croire ! Tout est fait pour que chaque politicien – y compris celui qui a la perspective de l’intérêt général en tête – doive y renoncer et mordre sur ses idéaux pour arriver à ses fins. Je reviens ici à mon propos initial : les accommodements dont je parlais. Je pense que personne n’entre en politique pour faire du clientélisme, mais je pense que la pratique même corrompt. Ce que j’ai essayé de montrer dans Bigger Than Us, c’est comment, chacun, à notre petit niveau, nous faisons de la politique, au sens nous essayons d’aider à s’éduquer, à s’élever, changer les valeurs, montrer d’autres idéaux, d’autres possible.

LVSL – Où vous situez vous vis-à-vis de l’offre politique actuelle ? 

FV – Absolument nul part. Si les gens ont besoin de moi, je parle à tout le monde, je n’ai pas de chapelle, pas de candidat. Je regarde ça avec beaucoup d’empathie pour ceux qui essayent d’y aller, mais cela ne m’intéresse pas. Je fais même dos à cela.

À titre personnel, j’essaye de me rendre constamment utile à travers mon action auprès de la jeunesse. J’essaye de lui faire comprendre comment elle peut jouer un rôle, comment elle peut y croire, puis je tente de la convaincre, et de lui montrer des pistes pour qu’elle y aille. C’est-à-dire qu’elle ait envie d’embrasser la vie.

LVSL – À travers votre parcours, comment réussir à transmettre votre prise de conscience aux jeunes générations ?

FV – J’essaye de produire des œuvres qui me survivent. Mes livres, mes films, mes articles, sont des petites pierres, des bouteilles à la mer. Je ne suis pas responsable de la réaction des gens. Je suis responsable de ce que j’écris, de ce que je produis, de ce que je donne. J’essaye de le faire le plus dignement et de la façon la plus intègre possible. Est-ce que j’ai toujours raison ? Je n’en sais rien. Pour l’instant, j’essaie d’ouvrir des possibles. 

Bigger Than Us permet de présenter des rôles modèles qui soient aspirationnels. Car la question est : quel adulte avez-vous envie d’être ? Est-ce que vous avez envie de suivre les modèles avec lesquels nous avons grandi, à savoir disposer d’un certain statut, d’un patrimoine, d’un « bon job » ? Est-ce que c’est ça que vous allez suivre ? Ou bien, vous allez-vous dire : non moi ça ne me parle pas j’ai envie d’être quelqu’un qui compte pour les autres car j’ai envie d’aider, d’être utile, de jouer un rôle ? J’essaye ainsi d’agir sur vos aspirations profondes, sur votre rapport à la vie, à ce monde ci. 

Dans cette période, étonnamment, je suis plus heureuse que je ne l’ai jamais été car j’ai l’impression – ne serait-ce qu’un tout petit peu – d’être utile. C’est ce que je tente de communiquer, de transmettre : ce rapport à la vie, à son temps, est extrêmement riche. Certes; il y a de la précarité – mais de toute façon elle est partout -, mais il y a aussi beaucoup de travail, mais surtout des cadeaux, beaucoup de joie, des liens invisibles, des révélations, le plaisir de créer, d’ouvrir des brèches, d’explorer. Je pense qu’aujourd’hui on nous demande profondément d’être vivants. Sinon, vous pouvez complètement débrancher, et rester « au chaud » dans l’univers de la consommation, de la pièce de théâtre et des morts vivants.

Comment désindustrialiser notre production alimentaire ?

Usine agroalimentaire aux Etats-Unis. © Oregon Department of Agriculture

Alors que la réindustrialisation est devenue une priorité des gouvernements, le secteur agro-alimentaire paraît au contraire sur-industrialisé. Contrairement à d’autres domaines où elle a bradé ses fleurons, la France compte d’ailleurs plusieurs géants mondiaux dans ce domaine, avec Danone, Bonduelle ou Lactalis. Or, cet état de fait pose désormais de nombreuses difficultés, que ce soit en matière de qualité, de santé, d’impact écologique ou de bien-être animal. Alors que de nombreuses voix prônent la relocalisation plutôt que le libre-échange, il apparaît de plus en plus que la reconquête d’une souveraineté alimentaire doit s’appuyer sur un vaste mouvement de désindustrialisation. Un timide mouvement en ce sens a déjà débuté sur quelques produits, mais le processus promet d’être long.

L’industrie agro-alimentaire traverse t-elle une mauvaise passe ? Cette année Buitoni, Kinder ou encore le géant de la glace Häagen-Dazs ont été au cœur de scandales sanitaires. Des affaires à répétition qui jettent le soupçon sur la qualité de la production des grands groupes. Plus encore, leur gestion a démontré le pouvoir acquis par cette industrie, qui semble les mettre au-dessus de tout contrôle. Avec un mouvement de reprise du contrôle de notre alimentation, ceci pose la question de la désindustrialisation de ce secteur ultra-industrialisé.

La France est un pays de tradition agricole, et l’agro-industrie y constitue le premier secteur industriel en termes d’emplois et de chiffre d’affaires. Au point que notre pays se trouve mieux placé dans les exportations de produits transformés que de produits bruts. Il en exporte deux fois plus, contribuant à une amélioration de la balance commerciale. La France comprend notamment de grands groupes de transformation, qui représentent, de fait, une part de notre compétitivité à l’échelle internationale.

Rang de la France dans les exportations mondiales par type de produit en 2020. Source : “LES PERFORMANCES À L’EXPORT DES FILIÈRES AGRICOLES ET AGROALIMENTAIRES – Situation en 2020”, France Agri Mer

Longtemps, ce modèle représentait l’avenir. Porté par les économies d’échelle et la standardisation des produits, le secteur alimentaire pouvait proposer des aliments toujours moins chers. Son développement s’accompagnait d’un vaste mouvement d’urbanisation (et donc d’éloignement vis-à-vis de la production agricole) et de diminution du temps et du budget consacré à la cuisine.

Autant de tendances aujourd’hui bousculées par une attention portée sur la santé, et en son cœur à la qualité de l’alimentation, et à un mode de vie plus maîtrisable. Par ailleurs, la montée des préoccupations environnementales, de la thématique du bien-être animal ou encore la quête d’authenticité dans un monde de plus plus uniforme contribuent elles aussi à remettre en cause le modèle, certes toujours dominant, de l’agro-industrie. Enfin, les préoccupations autour de la souveraineté alimentaire devraient continuer de croître dans les prochaines années, étant donné le contexte de crise alimentaire mondiale, l’alimentation représentant un levier géopolitique.

Pour clarifier un débat qui souffre des caricatures, il ne s’agit pas de remplacer un modèle par un autre, mais plutôt de revenir à un certain équilibre. Longtemps, la priorité a été donnée à une production au service de l’industrie de transformation. Ainsi, même dans le monde bio, le plus avancé sur le sujet, la transformation touche 50 % des producteurs. Cela a produit un grand déséquilibre entre les producteurs et l’industrie que les lois Egalim (2018 et 2022) ne sont toujours pas parvenues à rééquilibrer. Au point de faire naître des projets d’Egalim 3.

La marche vers la désindustrialisation de l’alimentation doit s’entendre en réponse à plusieurs problématiques posées par l’intensification du modèle actuel. Tout d’abord, elle permet par la qualité de la production ou la différenciation des produits de contrer la baisse tendancielle du budget des ménages consacrés à l’alimentation, premier facteur de la détresse financière des agriculteurs. Cela ne signifie pas pour autant que toute transformation est à bannir, la transformation à la ferme étant apparue pour de nombreux producteurs comme un moyen de compléter leur revenus.

Part des agriculteurs classés en agriculture biologique qui pratiquent la vente directe en 2016. Cité dans : Mathieu Béraud. Motivations et déterminants des producteurs en circuits courts alimentaires de proximité : Quels effets sur les pratiques de production ? : Rapport réalisé dans le cadre du Projet Alimentaire Territorial ”Imaginons ensemble un projet alimentaire territorial pour le sud de la Meurthe et Moselle”. [Rapport de recherche]

Aller vers un modèle plus artisanal

Le premier problème de l’industrialisation de la production alimentaire est celui de la standardisation des produits. La simplification et l’efficacité des processus industriels exigent en effet de réduire la gamme des produits et d’en simplifier la fabrication. L’existence de méga-usines à échelle européenne garantit que plusieurs marchés alimentaires soient couverts par un produit quasi-unique. Or, revenir à des productions de plus petite échelle permet notamment d’envisager un retour au goût différencié et à des recettes différentes. Ainsi, ces productions ont souvent été en avance sur certaines demandes. Les produits sans gluten par exemple, qui n’intéressaient pas au départ les industriels faute d’un marché suffisant. Ou plus généralement concernant la présence d’allergènes dans les produits. Il s’agit désormais, à travers des goûts originaux, d’un véritable marqueur de différenciation vis à vis de l’industrie, privilégiant l’expérience à la consommation.

La désindustrialisation répond aux excès du modèle actuel, déjà bien identifiés.

Cette exigence s’inscrit dans un mouvement général de scepticisme à l’égard de la mondialisation. En parallèle de la concentration de la production, les industriels n’ont pas manqué de découper la chaîne de valeur. Diviser la production à travers le monde permet de bénéficier des avantages de chaque pays. Ceci conduit à une spécialisation des modèles agricoles, qui créent une pression forte sur la culture vivrière. Cette préoccupation s’est trouvée renforcée par le contexte de guerre et les alertes sur le risque de pénurie. La France, grande puissance agricole, a redécouvert sa vulnérabilité sur certains produits élémentaires comme la moutarde ou l’huile.

La contrainte écologique vient également heurter la logique d’un système où un produit peut faire plusieurs milliers de kilomètres avant de se trouver dans les rayons. Ainsi une étude menée pour le Projet CECAM, conduite par le CNRS, conclut que les importations d’aliments représentent 77 % du trafic lié à la production agricole. Sans compter que les produits importés ne répondent pas aux mêmes exigences écologiques. Aussi, les échanges alimentaires sont un vrai point de fragilité des traités de libre-échange. Même au niveau européen, où l’on continue pourtant de signer des accords de libre-échange, on reconnaît que ces traités tendant à fragiliser les producteurs européensi.

Empreinte énergétique et empreinte carbone des principaux produits transformés en France. Source : L’empreinte énergétique
et carbone de l’alimentation en France de la production à la consommation

Le principe de la désindustrialisation obéit également à un intérêt sanitaire. Dans les faits, il n’est pas possible de conclure que l’industrialisation ait conduit à de plus grands risques sanitaires. Le développement des conserves et des surgelés par exemple, a permis de grandes avancées en matière de préservation des aliments qui réduisent les risques de consommer des produits avariés. En revanche, les scandales récents viennent rappeler plusieurs faits élémentaires. Tout d’abord, avec des productions à grande échelle, l’impact d’un défaut a des conséquence plus grandes. Les fréquents rappels de produitsii viennent nous le rappeler. Ensuite, la question des scandales alimentaires vient rappeler le déséquilibre croissant entre les multinationales et les pouvoirs publics. Ceci explique les accommodements accordés aux grandes marques pour communiquer sur les défauts sanitaires. Enfin, la concentration de la production ne favorise pas visiblement la conduite des contrôles. Au contraire d’une production industrielle et anonyme, de petites unités de production permettent elles un contrôle social plus affirmé par leur environnement proche

Le cas le plus probant de ce dernier principe est celui des abattoirs. Cette étape charnière de la production de viande incarne les risques de la sur-industrialisation pour le bien-être animal. Avec 125 établissements fermés en moins de 10 ans, et 20 établissements qui représentent 50 % de la production, le secteur est toujours plus concentré. Or celui-ci est régulièrement frappé par les scandales de maltraitance et d’hygiène, sans parler des conditions de travail désastreuses pour les employés.

Ces problèmes sont en partie dus à des processus industrialisés, anonymisés et fondés sur le rendement, qui imposent une séparation entre le producteur et l’abattoir. En outre, pour de nombreux éleveurs, la perte de contact avec l’étape de l’abattoir constitue un déchirement, ceux-ci étant particulièrement attachés à leur bêtes. Les abattoirs mobiles constituent sans doute une réponse intéressante. Ils permettent tout à la fois de traiter de petites unités dans le respect du bien-être animal, même si leur développement reste encore timide.

Plus profondément, l’essentiel des producteurs s’étant tourné vers une transformation locale se réjouissent du contact retrouvé avec les consommateurs, qui sont également des voisins. Ce rapprochement permet également une meilleure compréhension du processus de production et de ses contraintes. Un lien qui endigue les débats stériles souvent fondés sur une méconnaissance du secteur. En se réappropriant le cycle de production, le consommateur perçoit en effet mieux les contraintes qui lui sont inhérentes.

Dans le contexte de crise énergétique et de risque de pénurie, des productions à plus petite échelle apparaissent aussi comme une solution.

Enfin, dans le contexte de crise énergétique, la production de masse, très gourmande en énergie, se trouve directement menacée. Les professionnels du secteurs, confrontés aux réglementations européennes, ont d’ores et déjà tiré la sonnette d’alarme. Se profilent alors le risque de défaillances et de pénurie, au moins sur certains produits. En effet, le secteur agro-alimentaire représentait 14 % de la consommation du secteur industriel, avec une dépendance croissante au gaz.

La désindustrialisation présente à ce titre plusieurs avantages. Tout d’abord, une production moins concentrée et reposant sur des modes de production plus variés permet plus de flexibilité, en l’absence d’investissements massifs à rentabiliser. Toutefois, les petits producteurs ne sont pas complètement à l’abri de la menace. Les plus exposés sont ceux qui n’ont pas encore atteint leur point d’équilibre, et qui risquent en outre de se trouver écartés des mécanismes de soutien public.

La désindustrialisation, une voie déjà suivie

Depuis les années 2000, les voies de la désindustrialisation sont donc empruntées par plusieurs catégories de producteurs. Parce que diffus et progressif, ce mouvement est pourtant mal identifié. Ainsi, certains produits, devenus familiers, sont sortis du moule industriel. Explorer le développement de ces filières permet de mieux saisir les leviers pour effectuer une désindustrialisation de ce secteur.

L’exemple le plus flagrant de produit ayant réussi ce tournant, par le nombre de producteurs qu’elle a fait apparaître, est sans conteste la bière. À ce jour, on compte 2 394 producteurs de bière artisanale en France. Ces brasseurs proposent plus de 10.000 références, couvrant 70 % de la consommation nationale. Ce tournant a mis fin à l’hégémonie de deux grandes marques industrielles sur ce produit, les fameux « packs » de supermarchés. La boisson était notamment pénalisée par son image véhiculée par les chansons de Renaud ou la caricature de Chirac. Ainsi, le marché de la bière, en déclin constant depuis 30 ans, a retrouvé la croissance depuis 2014.

Le renouveau de la bière artisanale doit être appréciée sous plusieurs angles. Tout d’abord, la désindustrialisation a fait renaître la subtilité du goût de ce produit, les producteurs ayant joué sur la variété des gammes. Ceci a permis de faire passer la bière d’un produit standard de grande distribution à un produit de dégustation, considéré comme plus savoureux.

L’exemple des bières artisanales montrent le foisonnement possible d’une production qui a redressé un marché en déclin.

Ce changement s’est accompagné d’un fort ancrage territorial, notamment dans les zones rurales. Il n’est désormais plus une région qui propose son propre houblon. Aussi, malgré une forte concurrence, le marché préserve une forte dimension artisanale : 30 % des producteurs sont des micro-brasseries, sortant en moyenne 150hl des cuves. Enfin, le regain de la dégustation est adossée à une consommation collective, et festive, notamment lors des concerts et festivals. Le regain de la consommation du produit s’est allié à un renouveau de la façon de consommer, privilégiant la bière en pression à la bouteille. Ce foisonnement de production bénéficie encore de solides perspectives. En effet, les importations de bière restent encore supérieures à nos exportations, le déficit commercial atteignant 300 M€ pour l’année 2019.

Carte de France des brasseries artisanales – consultation au 9 juillet 2022. Source : DMB Brasserie

De même, la production de miel a connu un fort essor ces dernières années. Ainsi, le nombre de producteurs déclarés a augmenté de 74 % entre 2015 et 2020, porté principalement par les petits apiculteurs qui alignent moins de 50 ruches. Cette montée en puissance est facilitée par l’absence de transformation et la facilité de travail de ce produit naturel, qui repose sur des normes sanitaires encore souples facilitant l’émergence de petites productions. Ainsi, plus de 85 % des producteurs qui ont moins de 150 ruches conditionnent eux-mêmes leur miel. Commercialement, 45 % de la production s’écoule en vente directe. En complément, 7 % sont dédiés à l’auto-consommation ainsi qu’aux dons. Cet essor des essaims a permis, en parallèle d’une offre standardisée, de proposer une variété de produits, reflétant les plantes pollinisées, en fonction des essences locales.

Le développement du miel local a bénéficié de la facilité de son conditionnement, mais aussi de la mauvaise image des produits importés.

L’intérêt pour cette production, amorcée avant le confinement, provient également de la mauvaise image associée aux produits importés de Chine. En particulier, l’ajout de sirop au produit, désormais largement connu, a contribué à faire reculer fortement les importations. La Chine représentait ainsi 22 % des importations en 2015, et plus que 7 % quatre ans plus tard. Enfin, il faut souligner que les produits liés au miel (cire, gelée…) représentent encore une part marginale des revenus des producteurs (entre 3,5 % et 7,8 % du chiffres d’affaires selon la taille de l’exploitation), ce qui constitue un futur axe de développement.

Le dernier marché qu’il est utile d’analyser est celui de la pâte à tartiner. Les français sont les champions de la consommation de ce produit, 300.000 pots étant consommés chaque jour. Ceci explique l’implantation de l’une des plus grandes usines du monde en Seine et Marne. Longtemps dominant, le géant italien Ferrero (fabricant du Nutella) a été victime d’une mauvaise publicité, liée à l’emploi de l’huile de palme, et à l’appétit de puissants concurrents : ses parts de marché sont passées de 85 % en 2013 à 65 % en 2019, dans un contexte de hausse globale des ventes. En effet, la moitié des consommateurs ont réduit, si ce n’est abandonné, la consommation de ce produit en raison du scandale associé.

Le marché de la pâte à tartiner, pour le moment très concentré, suscite la gourmandise de concurrents de tout niveau.

Or, cette ouverture à la concurrence a permis à de petites productions locales de se faire une place aux côtés des grandes marques qui cherchent également à investir ce marché. Elles ont su capitaliser sur un créneau bio, sans huile de palme, en développant également de nouvelles recettes et en utilisant des circuits alternatifs de distribution. Ce dernier cas est significatif, car les différents concurrents, tout en mettant en avant leur spécificité, ne peuvent totalement s’éloigner du goût ou de l’aspect standardisé du produit original. Le défi de ces producteurs est désormais de ne pas atteindre une échelle industrielle dans la compétition avec des mastodontes de l’agro-alimentaire qui se sont invités dans ce rayon.

Remonter les chaînes de valeur

Ces différents cas, qui visent à illustrer une dynamique, font ressortir des caractéristiques communes qui facilitent la désindustrialisation des productions. Tout d’abord, elles se basent sur un conditionnement simple qui facilite le transport et la conservation. La gestion d’une production de taille réduite impose en effet la possibilité d’un stockage des produits pour répondre à la demande. Le cas le plus emblématique étant celui du miel, qui n’est pas périssable. Par ailleurs, le conditionnement en petits formats permet d’envisager un prix unitaire acceptable pour le consommateur malgré un prix de revient au kilo plus élevé que celui des produits industriels. Enfin, il est indéniable que chacun des trois produits a pu bénéficier d’une image négative du produit industrialisé.

En complément, ces produits répondent pour l’essentiel a un « achat plaisir » : il s’agit d’achats plus ou moins exceptionnels, mais associés à un plaisir de la dégustation. Ceci justifie d’accepter un prix d’achat plus élevé que la moyenne, ou bien de prendre le temps de chercher un producteur à proximité. La réussite de la coopérative « C’est qui le patron ?», qui s’est inscrite dans les circuits de la grande distribution, offre néanmoins un contre-exemple sur les produits du quotidien. Grâce à la promesse d’une juste rémunération du producteur, la marque est devenue leader sur la vente du litre de lait en dépit d’un prix légèrement supérieur à la concurrence.

Il ne faut pas négliger les sérieux obstacles qui handicapent les petites unités de production.

Toutefois, cette stratégie de reconquête de la souveraineté alimentaire voit son développement bridé par de sérieux obstacles. Tout d’abord, les économies d’échelle offertes par un prix de revient moins élevé permettent une compétitivité-prix immédiate. Cet avantage apparaît d’autant plus précieux dans un contexte d’inflation. En effet, les dépenses d’alimentation constituent la première variable d’ajustement face aux dépenses contraintes. Bien que la crise énergétique pourrait rendre relativement plus compétitive la production artisanale, elle risque de souffrir de son image de produits haut de gamme, voire hors de prix.

En outre, la production en unités réduites présente une difficulté d’appariement entre l’offre et la demande. En effet, la production se trouve limitée par des capacités réduites et peut faire face à une demande très variable. Ceci réduit également la visibilité du producteur sur ses ventes, une difficulté que cherche à corriger le système d’AMAP. Enfin, cette activité exige d’un producteur à s’engager dans une activité de commercialisation. Or ce basculement exige du temps et des compétences spécifiques. Le producteur/commerçant se retrouve ainsi face à des arbitrages constants, de temps comme de moyens consacrés à chacune de ces activités.

Pour remédier à ces obstacles, des leviers peuvent être activés au niveau local, afin de favoriser la souveraineté alimentaire. Tout d’abord, le constat doit être fait que, hormis au travers d’associations, la production/transformation reste isolée. Le producteur se retrouve avec la charge de la commercialisation pour sa propre production. Or, regrouper des producteurs d’un même produit, sans effacer les spécificités, permet de proposer une offre plus pérenne permettant de répondre des demandes régulières, ou de grands volumes. D’autre part, la commercialisation croisée entre producteurs d’un même territoire pourrait faciliter l’accès des consommateurs aux produits et peut être source d’économies, notamment en matière de transports. Deux leviers importants pour démocratiser les productions locales et artisanales.

Préserver la souveraineté, un enjeu pour les pouvoirs publics

Par ailleurs, les collectivités locales ont la possibilité d’offrir un débouché aux productions locales, grâce à la restauration collective. Au delà de l’enjeu de santé publique, la démarche présente l’intérêt d’offrir une demande significative et régulière aux producteurs. La place des produits locaux reste cependant bien plus importante dans les programmes électoraux que dans les cantines. Fin 2021, ils ne représentaient que 10 % des produits consommés. L’objectif légal – 50 % de produits locaux et issus de l’agriculture biologique en 2022 – apparaît hors d’atteinte. Ceci vient rappeler que les lois fixant des objectifs ne peuvent faire l’économie de contraintes ou de crédits pour se concrétiser. En l’espèce, les élus sont peu suspects de mauvaises volontés. En revanche, ils sont confrontés à des difficultés logistiques, pour respecter les contraintes sanitaires et de la commande publique, qui impose la mise en concurrence pour les achats publics.

Dès lors, le rôle de l’État apparaît incontournable. Tout d’abord pour mettre en relation et permettre la structuration de filières. À ce stade, les fonds alloués aux produits locaux se bornent à subventionner la formation des employés de la restauration collective publique ou à la création d’un futur label « cantine de qualité ». Une fois de plus, l’État préfère accompagner des initiatives individuelles, au lieu d’impulser un mouvement. Par exemple au travers des directions agricoles des préfectures.

La place des produits locaux reste cependant bien plus importante dans les programmes électoraux que dans les cantines.

Rassembler les acteurs et poursuivre une vraie stratégie de souveraineté conduirait à identifier les blocages pour y apporter une réponse commune. Tandis qu’au niveau national, l’État s’engagerait à réviser les règles d’achats publics pour introduire une exception alimentaire. Pour l’heure, cette mission incombe aux collectivités locales, au travers des « Projets alimentaires territoriaux », dont le bilan serait prématuré. Toutefois, en reposant sur les ressources locales, cette démarche risque de favoriser les territoires les mieux dotés, au détriment de ceux qui en auraient sans doute le plus besoin.

Enfin, il est possible d’effectuer un vrai travail concernant les filières pour lesquelles la couverture des besoins nationaux est la plus fragile. Les données des douanes permettent d’avoir une vue d’ensemble sur la balance commerciale alimentaire de la France. Hormis certains produits très spécifiques, difficilement substituables, le cacao ou bien le whisky écossais, certains peuvent être ciblés. Il ressort des principaux postes de déséquilibre un déficit important sur les produits nécessaires à l’industrie agroalimentaire (matières grasses, amandes douces, soja…). En complément, certains produits, bien identifiés, souffrent d’une concurrence européenne forte (tomates, avocats). Ces éléments, permettent de prioriser les productions pour lesquelles il existe une solide demande interne et des marges de souveraineté.

Quel modèle d’alimentation pour demain?

Dans un récent rapport, le sénateur LR Laurent Duplomb s’inquiète de la possible perte d’influence de l’agriculture française. Il note en particulier l’échec d’une stratégie de montée en gamme de la production, associée à une ouverture des frontières. Un tel calcul favorise uniquement les produits de masse issus d’une agriculture aux standards écologiques et sanitaires dégradés. Facteur aggravant, entre 10 % et un quart des produits importés ne répondent pas à nos normes et sont possiblement dangereux. Le budget alloué au contrôle sanitaire, limité à 10 M€, est trop faible pour contenir ces risques.

La stratégie alimentaire de la compétitivité ne fonctionne pas. Il faut désormais changer de modèle.

Ce constat oblige à recentrer la stratégie qualitative poursuivie par l’agriculture française. Il convient désormais de privilégier le bien-être de la population à une stratégie commerciale, tournée vers la rentabilité. Sans quoi, le secteur devra se calquer sur les modèles hyper-industrialisés et concentrés, comme aux États-Unis ou au Brésil. Bien qu’aucun responsable politique ne prône officiellement ce modèle, la logique de la compétitivité y mène droit. Pour conjurer ce modèle, des options fortes doivent être assumées. Tout d’abord, prendre un virage protectionniste, en se fixant un objectif minimum de souveraineté sur les produits de l’alimentation. C’est-à-dire en acceptant une approche souple du libre-échange, avec des limitations ou des tarifications ciblées, déjà existantes dans certains domaines. En complément, pour être à la fois juste et viable, cette politique implique un volet social fort. Des chèques alimentaires ponctuels ne peuvent en effet suffire à démocratiser l’accès aux produits bio et locaux.

Or, l’alimentation reste encore un miroir des inégalités sociales. Paradoxalement, si les consommations se sont relativement uniformisées, sous l’effet de la grande distribution, les écarts se font plus subtils. Les catégories populaires sont tenues par les prix des produits. Ainsi, pour un même produit, les plus pauvres vont recourir d’avantage à des produits plus transformés ou de moins bonne qualité. Ceci contribue à expliquer leur plus forte exposition au risque d’obésité notamment, même si ce phénomène est multifactoriel.

Pour éviter une alimentation à deux vitesses, il faut des engagements forts sur le protectionnisme et l’accès à tous à une alimentation de qualité.

Le risque est alors grand, sans une vision publique forte, de voir le secteur se polariser. D’une part, des produits raffinés, artisanaux, réservés aux privilégiés. D’autre part, une dépendance de l’essentiel de la population à des produits toujours plus industrialisés. Cette tendance constitue un prolongement, dans l’assiette, des inégalités de revenus dans la société. Il s’agit là d’un combat culturel, la cuisine constituant véritablement un commun de la Nation, ainsi qu’une spécificité française. Lutter contre cette tendance implique également une vraie formation au goût dans les écoles. Alors que de plus en plus de jeunes ont du mal à reconnaître des fruits ou des légumes, il faut que celle-ci dépasse les dégustations lors de la semaine dédiée, comme le réclame des chefs cuisiniers comme Thierry Marx. Pour l’heure, le bien nommé Ministère de l’agriculture et de la souveraineté alimentaire ne s’est pas engagé aussi loin.

La crainte de pénurie, de retour depuis le confinement et la guerre en Ukraine, avait commencé à rendre les produits artisanaux relativement plus compétitifs, leur approvisionnement étant garanti. Toutefois, la hausse brusque des prix menace désormais les petits producteurs. Même à échelle artisanale, la transformation implique des processus très gourmands en énergie, pour des modèle encore difficilement à l’équilibre. Or l’alimentation est l’un des domaines qui concentre les hausses les plus fortes de prix, ce qui conduit à des arbitrages des consommateurs. Ceci est déjà flagrant pour la filière bio, qui a subi un violent coup d’arrêt après des années de forte croissance. Un contexte qui plaide pour une véritable Sécurité sociale alimentaire, permettant de concilier les enjeux économiques, sanitaires, sociaux et de souveraineté.

i « L’UE vise avant tout à protéger les agriculteurs et les consommateurs européens. Ainsi, l’accord conclu avec la Nouvelle-Zélande tient compte des intérêts des producteurs de produits agricoles sensibles de l’UE: plusieurs produits laitiers, viande bovine et ovine, éthanol et maïs doux. Pour ces secteurs, l’accord n’autorisera les importations à des taux de droit zéro ou réduits en provenance de Nouvelle-Zélande que pour des quantités limitées (au moyen de contingents tarifaires). »

ii4945 sur l’alimentation à date de consultation [20 juillet 2022] depuis mars 2021

Le « pillage de la nature », ossature essentielle du capitalisme ?

Mine à ciel ouvert, Cerro de Pasco, Pérou © Vincent Ortiz pour LVSL

Dérèglement climatique, perturbation du cycle de l’eau, sixième extinction de masse, pollution de l’air, des sols et des rivières. Récemment, le dernier rapport du GIEC nous donnait trois ans pour inverser notre courbe d’émissions de dioxyde de carbone pour limiter le réchauffement climatique à un niveau acceptable d’ici la fin du siècle. De même, les niveaux de pollutions atteints dans l’ensemble des écosystèmes ainsi que la baisse rapide de la biodiversité obligent à agir rapidement. Pourtant, la régulation des rapports économiques avec l’environnement nécessite de dresser un constat clair des causes de sa dégradation généralisée. Où faut-il les chercher ? C’est à une analyse sans concession du système à l’origine de cette rupture avec la nature – le capitalisme – qu’il faut se livrer, répondent les chercheurs éco-marxistes John Bellamy Foster et Brett Clark dans leur dernier livre, Le pillage de la nature, dont la traduction française vient de sortir en avril aux Editions critiques.

Dans cet essai, ils se livrent à une analyse fine du lien entre le mode de production et de valorisation capitaliste et la destruction généralisée de la nature. Ils proposent une minutieuse enquête à partir des œuvres de Marx et Engels pour construire une matrice globale d’analyse de la crise écologique et sociale. L’objectif affiché est de proposer une synthèse plus générale de la pensée de Marx en intégrant les prémisses de la pensée écologique présentes dans son œuvre. L’utilisation des outils d’analyse issus du marxisme est intéressante à plusieurs titres. La matrice idéologique marxiste, et sa doctrine matérialiste, permet de penser l’interaction entre un mode de production, et donc notre rapport à notre environnement, et des rapports sociaux qui émergent de ce mode de production. Ce mode de production repose et est adossé à des conditions de reproduction d’ordre écologique et social, qui permettent de perpétuer le processus d’accumulation.

Exploitation du travail humain et expropriation de ses conditions de reproduction

Pour commencer, plonger avec Marx dans sa description de l’accumulation du capital s’impose. Chez Marx, le capitaliste investit son capital dans l’espoir d’en obtenir plus. La création de valeur supplémentaire, la survaleur (ou encore plus-value), se fait grâce aux travailleurs – seuls capables, par leur force de travail, de créer de la valeur et de transformer le capital (moyens de production et ressources apportées par le capitaliste). De là la célèbre formule marxienne d’accumulation du capital : A-M-A’ (Argent → Marchandise → Argent + plus-value), où la marchandise représente l’ensemble des moyens de production capitalistes – capitaux et travail humain. Chez Marx, le capital est avant tout un rapport social, caractérisé par la séparation des travailleurs d’avec les moyens de production (la propriété) et d’avec les produits de la production, le tout dans une visée lucrative de la propriété. C’est donc un rapport de subordination. Le capital, ce « processus circulatoire de valorisation », n’existe qu’en « suçant constamment, tel un vampire, le travail vivant pour s’en faire une âme ».

« Marx a toutefois une conscience aigüe que le mode de production capitaliste repose sur des conditions écologiques et sociales extérieures à sa sphère de valorisation. »

Pour Foster et Clark, Marx a toutefois une conscience aigüe que le mode de production capitaliste repose sur des conditions écologiques et sociales extérieures à sa sphère de valorisation. Pour que le cycle d’accumulation se perpétue indéfiniment, le système s’appuie sur des forces gratuites comme la nature ou le travail domestique, qui ne sont pas valorisées mais sont pourtant indispensables pour alimenter la machine A-M-A’. Tandis que dans son cycle de valorisation, le système du capital exploite le travailleur et la travailleuse, ce cycle nécessite aussi l’expropriation, le « pillage », de la nature. Les auteurs postulent l’existence d’une contradiction fondamentale entre la logique d’accumulation du capital et la préservation de ses conditions de reproduction écologiques et sociales. Foster et Clark distinguent dans le système capitaliste deux dynamiques complémentaires : une dynamique interne (à son circuit de valeur) qui le propulse reposant sur un rapport d’exploitation, et une dynamique externe reposant sur des conditions objectives qui « lui échappent et lui fixent ses limites », gouvernée par un rapport d’expropriation sans échange supposé équivalent. Cette expropriation se déroule en dehors du processus de production et de valorisation du capital. L’expropriation de la nature correspond à la « séparation entre les conditions inorganiques de l’existence humaine et son existence active » (le système économique, la sphère du travail), séparation qui est le fruit du développement du travail salarié et du capital.

Ainsi Marx distingue d’une part « l’exploitation de la force de travail dans l’industrie capitaliste moderne », différente de « l’expropriation au sens historique plus général de pillage ou vol en dehors du processus de production et de valorisation ».

Les auteurs avancent alors que le capitalisme sape ses propres fondations. Cette hypothèse s’appuie notamment sur les travaux précurseurs portant sur la « seconde contradiction du capitalisme » du penseur éco-marxiste James O’Connor (1992). Celui-ci détaillait déjà en 1992 comment « la logique du profit conduit le capital à refuser d’assumer les coûts de reproduction des ” conditions de production ” : force de travail, infrastructures, aménagement et planification, environnement. » Pour revenir à Marx, « le capital épuise les deux seules sources de toute richesse : la Terre et le travailleur ».

En cela, les auteurs rejoignent aussi l’analyse formulée par Andreas Malm dans L’anthropocène contre l’histoire. Malm explique que si le travail est « l’âme du capitalisme », la nature et les ressources qu’elle fournit en sont son corps. Sans la nature, les énergies et les ressources nécessaires à la mise en valeur du capital, le processus d’accumulation fondamental du capitalisme ne serait pas possible. Les énergies fossiles, qui permettent de démultiplier dans des proportions considérables la production d’un travailleur, sont l’adjuvant parfait et le corollaire nécessaire au processus de mise en valeur du capital par le travail humain. Le charbon et l’huile, plus tard le pétrole et le gaz, sont les auxiliaires de la production capitaliste. Ils sont, dit Malm, le « levier général de production de survaleur ». Ils sont les matériaux indispensables à la création de valeur capitaliste. En reprenant la terminologie de Foster et Clark, leur expropriation est une des conditions de reproduction indispensable du mode de production capitaliste.

Mais quelle est donc le mécanisme fondamental conduisant à une exploitation intensive systématisée des ressources naturelles ? Les chercheurs avancent que « les contradictions à la fois économiques et écologiques du capitalisme trouvent leur source dans les contradictions entre le processus de valorisation et les bases matérielles de l’existence indispensables à la production marchande capitaliste. ». Cette affirmation repose sur une analyse renouvelée de la théorie de la valeur marxiste. Il existe en réalité deux contradictions inhérentes à la machine capitaliste. La première, abordée ensuite, qui opère dans la sphère de la marchandise, intrinsèquement liée au processus de valorisation capitaliste, et la seconde, qui opère dans la sphère de la production, où les ressources naturelles sont surexploitées pour maximiser la productivité des agents.

Ainsi, la dissymétrie entre la logique du capital et l’environnement est issue du processus-même de valorisation du capital. Du point de vue théorique, le constat semble alors limpide. Alors que les conditions écologiques sont indispensables au déroulement de l’accumulation capitalistique, celles-ci ne sont pas prises en compte dans la sphère de valorisation du capital, au même titre que les autres conditions de reproduction à l’image du travail domestique principalement féminin.

Le paradoxe de Lauderdale

Au début du XIXème siècle, le comte de Lauderdale énonçait le paradoxe qui porte son nom qui stipule qu’il existe une corrélation négative entre la richesse publique et les fortunes privées. D’une part la richesse publique repose sur des valeurs d’utilité liées par exemple à l’abondance de l’air, de l’eau ou de jolies forêts, tandis que d’autre part, tout au contraire, les fortunes privées sont constituées à partir de valeurs d’échange, valeurs reposant sur le principe de la rareté. Lauderdale soulignait déjà ici la dialectique centrale de la théorie marxiste entre valeur d’usage et valeur d’échange. La logique du capital conduit alors à confondre valeur et richesse, dans un système fondé sur l’accumulation de valeurs d’échange, aux dépens de la richesse réelle. Le capitalisme se nourrit de la rareté et poursuit ensuite une logique de « marchandisation sélective » d’éléments de la nature. Les auteurs résument cela ainsi : « C’est l’opposition entre la forme valeur et la forme naturelle, inhérente à la production capitaliste, qui génère les contradictions économiques et écologiques associées au développement capitaliste. ». Ils rappellent ensuite que la valeur d’échange « est un rapport social spécifique à la société capitaliste, enraciné dans la classe et la division du travail ».

Certains travaux récents proposent donc de repenser le système de comptabilité actuel en prenant en compte le prix de la nature, le coût des externalités ou en introduisant des notions comme celle de « capital naturel ». Ce sont des travaux de ce type qui sont par exemple entrepris à la chaire de comptabilité écologique à l’Université Paris-Dauphine. Foster et Clark nous mettent toutefois en garde contre cette approche. Même s’ils permettent de mettre en évidence le caractère absurde du système actuel, ils rappellent que celui-ci reflète précisément les réalités capitalistes de la sous-valorisation des agents naturels. La notion de « capital naturel », quant-à-elle, constitue une « internalisation de la nature au sein de l’économie marchande ».

De là naît un double-enjeu pour un potentiel modèle socialiste de remplacement de la logique capitaliste. Comment créer un système qui est d’une part conscient de ces éléments indispensables au fonctionnement de notre système économique que sont le travail domestique ou bien les services rendus par la nature, mais d’autre part qui protège ces sphères de la logique de marchandisation et de valorisation ?

La rupture métabolique et l’exemple de l’Irlande au XIXème siècle

Les contradictions entre mode de production capitaliste et environnement s’expriment de manière concrète par ce que Marx appelle la rupture métabolique et qui constitue le concept central de l’œuvre de Marx écologiste.

La rupture métabolique repose sur le constat qu’il existe une « séparation entre les conditions inorganiques de l’existence humaine (i.e. les services de la nature) et l’activité humaine, séparation qui n’a été posée comme séparation totale que dans le rapport du travail salarié et du capital » (Marx, Manuscrits dits Grundrisse). Plus précisément, Marx observe qu’il existe dans les rapports entre capitalisme et nature un décalage entre les rythmes de régénération des conditions naturelles de reproduction du capitalisme et la vitesse à laquelle celui-ci dégrade ces conditions naturelles pour satisfaire ses pulsions d’accumulation. Le capitalisme perturbe le métabolisme entre l’Homme et la Terre et engendre une disjonction entre systèmes sociaux et cycles de la nature.

« Marx observe qu’il existe dans les rapports entre capitalisme et nature un décalage entre les rythmes de régénération des conditions naturelles de reproduction du capitalisme et la vitesse à laquelle celui dégrade ces conditions naturelles pour satisfaire ses pulsions d’accumulation.»

Cette analyse découle des travaux du chimiste allemand Justus von Liebig (1803-1873), dont Marx a attentivement lu les travaux. Von Liebig s’est employé à analyser l’impact de l’agriculture capitaliste sur les sols et met en évidence une rupture des cycles des nutriments au sein des terres. Plus précisément, la séparation entre les lieux de production agricoles (les campagnes) et les lieux de consommation (les villes) entraîne un déplacement des nutriments des champs vers les flux de déchets issus de la ville (effluents, ordures) qui ne retournent plus aux champs. Marx et Engels ont alors proposé une description fine des conditions et des rapports sociaux à l’origine de cette rupture métabolique dans le cas de l’Irlande du XIXème siècle (chapitre II).

Marx distingue dans l’organisation de la société agraire irlandaise deux phases, celle dite des « baux usuraires » (1801-1846) et celle « d’extermination » (1846-1866). Au XIXème siècle, l’Irlande est colonisée par les Anglais depuis au moins 1541, et c’est une classe propriétaire terrienne anglo-irlandaise qui possède la terre. Les propriétaires ne sont pas présents sur place et louent à de petits paysans et métayers irlandais des lopins de terre dans un système dit des « baux usuraires ». Les loyers à payer aux propriétaires sont particulièrement hauts et augmentent régulièrement. Toute amélioration technique (irrigation ou drainage) fait l’objet d’un loyer supplémentaire. La production agricole est orientée selon une rotation triple sur une même année : tout d’abord du blé puis de l’avoine, voués à l’exportation vers l’Angleterre, qui suffisent à peine à payer les loyers et dont l’argent des revenus n’est pas réinvesti mais envoyé vers l’Angleterre par les propriétaires terriens. Puis une rotation de pommes de terre pour assurer la survie des familles. La pression financière entraîne l’impossibilité d’organiser des jachères ou de planter du trèfle notamment pour laisser reposer et réenrichir le sol en nutriments (fixation d’azote, etc.). Ces cultures, très intensives en nutriments, obligent les paysans pauvres à déployer une grande ingéniosité pour assurer le renouvellement des nutriments : recours aux algues, aux excréments d’animaux, au sable, avec des techniques agricoles d’enfumage et d’épandage demandant un investissement humain considérable. Cette action permet de limiter la fuite des nutriments et la rupture métabolique qui va avec.

Figure 1 – Champs en Irlande

En 1845 survient en Irlande une maladie, le mildiou de la pomme de terre, qui va gravement pénaliser les rendements de pomme de terre. Aux famines s’ensuivent les exils massifs vers l’Amérique de 1846 à 1866. Au total, ce sont 1 millions d’habitants que perd le sol irlandais, et la disparition de près de 120 000 fermes. La main d’œuvre manquant fortement, l’enfumage des terres et l’entretien du cycle de nutriments ne peuvent plus être pratiqués, entraînant une baisse rapide des productions céréalières de l’Irlande. La loi du remplacement des nutriments de Liebig est violée. De 1855 à 1866, Marx indique que « 1 032 694 Irlandais ont été remplacés par 996 877 têtes de bétails ». L’organisation agraire capitaliste a contribué à stériliser l’Irlande en un demi-siècle pour la transformer en terre à vache peu productive.

Cette rupture dans le cycle des nutriments prend une dimension mondiale au cours du XIXème siècle pour les Anglais. Afin d’enrichir les sols anglais appauvris par l’agriculture capitaliste et pour augmenter les rendements, les Anglais vont littéralement piller des engrais naturels aux quatre coins du globe. Des quantités considérables de guano et de nitrates sont importées, notamment du Chili, jusqu’à épuiser les réserves des pays pillés. Celles-ci servent à soutenir la production agricole de l’hémisphère Nord. Plus extrême encore, les champs de bataille et les catacombes de l’Europe entière sont vandalisés pour en broyer les os et les répandre sur les champs britanniques, afin de répondre à la rupture du cycle des nutriments, dans une forme d’échange écologique inégal.

Cette analyse est une illustration des liens que peuvent entretenir rapports sociaux de production et maintien de la fertilité du sol dans le cadre du secteur agricole. Marx explique notamment que « la fertilité n’est pas une qualité aussi naturelle qu’on pourrait le croire : elle se rattache intimement aux rapports sociaux actuels ». Cette analyse peut sembler convaincante dans le cas de la destruction de la terre par le capitalisme. Elle peut par exemple faire penser à la stagnation connue par les rendements agricoles du sol français depuis 1990, alors même que l’utilisation d’engrais et de produits phytosanitaires ne cesse d’augmenter. Cette logique de « rupture métabolique » s’observe-t-elle dans nos interactions avec d’autres écosystèmes naturels ? Une telle enquête pourrait être d’une grande pertinence, pour s’intéresser par exemple à l’impact des rapports sociaux de production issus du capitalisme sur l’exploitation des forêts, sur la pêche ou encore en matière énergétique.

Une exploitation du travail domestique qui suit une même logique

A partir du même prisme analytique, Foster et Clark tentent dans cet ouvrage de réhabiliter la capacité de la pensée de Marx à théoriser d’autres types de domination s’exerçant sur les femmes, les colonisés [1], les « races inférieures » ou encore les animaux. Ils montrent en particulier l’intersection et la similarité des mécanismes qui existent de manière régulière entre l’expropriation et l’exploitation de la nature d’une part et l’exploitation du travail domestique. Ainsi, au chapitre 3 intitulé « les femmes, la nature et le capital », les auteurs montrent comment la domination de la femme et la non-reconnaissance du travail de reproduction domestique (entendons l’entretien du foyer et le soin des enfants notamment) relèvent d’une logique similaire à l’expropriation de la nature. Marx explique que « la logique interne du capital (…) fait peu de cas de tous les autres rapports naturels et sociaux et des conditions de production héritées, qui restent extérieures à son propre mode de production ». Le travail domestique, principalement accompli par les femmes, est, comme pour la nature, le symbole d’une « externalisation de ses coûts (du capitalisme) sur des domaines situés en dehors de son circuit de valeur interne ». Alors que le travail domestique est une des conditions de reproduction indispensable au mode de production capitaliste (au même titre que les conditions naturelles), celui-ci est exproprié et considéré là encore comme une « force gratuite de la nature ». La logique du capital exproprie le travail de reproduction sociale dans le foyer. En cela, les auteurs se rapprochent beaucoup des analyses faites par les tenants du courant féministe marxistes de la théorie de la reproduction sociale et en premier lieu de Tithi Bhattacharya.

Pour ce qui concerne l’expropriation du travail de reproduction domestique, les auteurs distinguent deux phases. Une première phase, analysée par Marx et Engels, est celle du 19ème siècle, au cours de laquelle, dans les villes industrielles anglaises, le travail capitaliste détruit profondément ce travail de reproduction pourtant indispensable. Les femmes ouvrières, enchaînées plus de 12h par jour, n’ont, dans l’Angleterre du 19ème, même plus le temps de s’occuper de leurs enfants. Ceux-ci sont confiés à des nourrices, allaités avec des mixtures très peu adaptées. Les taux de mortalité infantile atteignent des niveaux considérables. En somme, un tableau digne des romans de Charles Dickens. La malnutrition et la famine fait tomber à des taux extrêmement bas le nombre de survivants à l’âge adulte. En détruisant et en réduisant plus qu’au strict minimum le travail au foyer, le système capitaliste détruit la santé des travailleurs (et même leur fitness pour reprendre la terminologie spencérienne ou darwiniste sociale) et leur capacité à se reproduire, générant un réel enjeu anthropologique. Les auteurs montrent alors, en s’appuyant sur les travaux de la philosophe Nancy Fraser ou de Maria Mies, comment la société anglaise a paré à ce défi en développant la « femme-au-foyerisation » en faisant reposer ensuite le rôle de soutien de famille uniquement sur les hommes. Un nouveau rôle serait alors dévolu aux femmes, hors de la sphère de valorisation capitaliste, consistant à assurer le travail de reproduction au domicile, avec une nouvelle forme d’expropriation des services rendus par cette sphère.

Figure 2 – La Spinning Jenny, la machine à filer qui va révolutionner l’industrie du textile britannique et contribuer à exploiter un prolétariat majoritairement féminin et (très) jeune

Cette analyse du travail domestique reste toutefois à prendre avec des pincettes, dans la mesure où cette dimension est très longtemps restée un impensé de l’analyse de Marx pour la majorité des spécialistes. De surcroît, les progrès scientifiques et médicaux ont profondément transformé le travail de reproduction au foyer au cours des 150 dernières années. En effet, la baisse forte des taux de mortalité infantile ainsi que les évolutions dans l’organisation de la société (déploiement des crèches, médecine infantile) ont permis de nouveau un retour des femmes dans la sphère productive, en retournant au travail. En cela, cette nouvelle dynamique réenclenche un développement des forces productives accru en lien avec la logique d’accumulation du capital.

Cet essai décrit aussi avec précision l’interaction entre exploitation de la nature et des formes d’oppression raciales. Ils décrivent notamment l’exemple de l’exploitation du guano au Pérou. Cet amas d’excréments d’oiseaux marins, indispensable à la fertilisation des champs britanniques, est exploitée localement par des « coolies », des travailleurs chinois émigrés, traités comme des esclaves et obligés de ramasser le guano dans des conditions épouvantables. Plusieurs autres exemples et analyse viennent émailler les différents chapitres d’illustration du lien entre domination coloniale et dégradation de la nature.

Capitalisme : un rapport aux frontières dévastateur

Enfin, l’analyse des auteurs est assez éclairante en ce qui concerne le rapport du système du capital aux limites et aux frontières qu’il rencontre. Selon eux, le capital se distingue par sa « tentative nécessaire et persistante de transcender ou de réajuster ses limites eu égard à ses conditions externes de production, afin de renforcer le processus d’accumulation ». Ainsi, lorsque le capitalisme se heurte à des frontières, à des limites à son expansion, il met en œuvre toute une série de mécanismes et de déplacements pour continuer cette expansion : utilisation de nouvelles ressources, de nouvelles réserves minérales, en changeant le lieu de production ou en développant de nouvelles technologies. Ces déplacements permanents créent de nouvelles frontières d’exploitation et de nouveaux lieux ou mécanismes de domination, de destruction, afin de perpétuer le processus d’accumulation.

Le capital est guidé par une volonté d’amasser de plus en plus de richesses, « exigeant un débit de plus en plus fort d’énergies et de ressources, (…), générant plus de déchets, (et qui) constitue la loi générale absolue de la dégradation sous le capitalisme ».

Pillage de la nature : un système socialement et historiquement situé et donc dépassable ?

Que retenir de cet essai ? Foster et Clark proposent une analyse globalement très convaincante de l’interaction entre logique capitaliste et destruction de la nature. Ils montrent avec précision comment le mode de production capitaliste repose sur des conditions de reproduction sociale et écologique extérieures à sa sphère de valorisation. Le capitalisme reposerait alors sur une externalisation de ses coûts hors de sa sphère productive, coûts qu’il n’assumeraient pas. De là naîtrait alors une contradiction inévitable de la logique du capital, incapable de valoriser ce qui est indispensable à sa reproduction. Cette contradiction est aussi le fruit du conflit entre valeur d’usage et valeur d’échange.

Le message que tentent de faire passer les auteurs est clair : nous ne pourrons traiter la crise écologique et climatique sans étudier puis transformer les rapports sociaux de production responsables de cette destruction. Pour cela, les auteurs proposent une voie socialiste ayant pour objectif de « sortir de la forme valeur du capitalisme pour permettre le développement d’un monde riche en besoins, tout en régulant le métabolisme entre humanité et nature ». Une sorte de « gouvernance par les besoins » capable de remettre en cause la pratique capitaliste de la valeur d’échange. Crise sociale et crise écologique sont les reflets d’une même image, d’un même système : « la source commune de ces deux crises se trouve dans le processus d’accumulation du capital ». Fin du monde, fin du mois, même combat, apparaît ainsi comme bien davantage que le simple slogan qu’affectionnent les militants écologistes…

L’essai livre pourtant une leçon qui permet de nourrir un certain optimisme. La dévastation écologique est le fruit d’un système d’organisation socialement et historiquement situé, celui de la forme capitaliste de l’organisation des modes de production. Loin d’être la conséquence d’une certaine « nature humaine originelle », le rapport dévastateur à l’environnement serait lié au système capitaliste. Pour sortir par le haut de la crise écologique, un dépassement du système d’accumulation du capital s’impose…

Note :

[1] Il existe chez les marxistes une controverse quant à la spécificité ou non des rapports entretenus par le capitalisme dans les pays colonisés entre notamment les tenants de « l’accumulation par dépossession » (Harvey) et ceux qui estiment que cette distinction est peu opérante et que le développement rapide du salariat dans les pays colonisés a conduit aux mêmes caractéristiques d’exploitation au Nord qu’au Sud (Wallerstein).

Les monnaies locales : levier pour la transition écologique et sociale ?

LES MONNAIES LOCALES : LEVIERS POUR LA TRANSITION ÉCOLOGIQUE ET SOCIALE ? | CINÉ-DÉBAT

Créer de la monnaie n’est pas un privilège réservé aux seules banques d’État. Depuis 2010, aux quatre coins de la France sont émises des monnaies locales complémentaires dites aussi « monnaies citoyennes », outils pour dynamiser la vie économique et sociale localement. En redirigeant le parcours de production et de consommation vers une échelle de proximité, les monnaies locales ont vocation à alimenter l’économie locale et à remettre la monnaie au service de l’économie réelle. Elles interrogent ainsi de nombreux enjeux actuels comme l’écologie, l’économie sociale et solidaire, la citoyenneté, le lien social entre les individus ou encore l’importance de redonner du sens à certaines institutions, ici celle de la monnaie. Elles ont, en somme, prétention à incarner les valeurs que les monnaies conventionnelles n’incarnent plus aujourd’hui, celles-ci dépendant d’une économie de plus en plus financiarisée et volatile car tributaire des variations causées par une spéculation déréglementée.

Le mercredi 26 octobre 2022, Le Vent Se Lève et ENsvertS organisait à l’ENS de Lyon un ciné-débat avec la projection du documentaire de Jérôme Florenville « Devises citoyennes » qui nous fait découvrir le phénomène des monnaies locales, en pleine expansion et présente les grandes lignes de la nature et des enjeux de la mise en circulation de ces monnaies. Découvrez la captation de la table-ronde qui a suivi la projection, pour approfondir les questions à la fois économiques, sociales et politiques que posent ces projets monétaires, ainsi que les potentielles critiques et réticences. Nous recevions pour en parler Audrey Henocque, première adjointe à la ville de Lyon, Jean-François Ponsot, économiste spécialiste des questions d’économie politique de la monnaie et Marie Fare, économiste, spécialiste des monnaies sociales et complémentaires.

L’équation impossible du marché carbone

© Chris LeBoutillier

Notre modèle économique menace gravement l’environnement. Tout problème ayant une solution, les marchés carbone ont aujourd’hui le vent en poupe : 21,5% des émissions carbonées du globe sont couvertes par un tel instrument. En revanche, l’inverse de cet adage est également vrai : toute solution apporte son lot de problèmes. Si les marchés carbone apportent théoriquement une garantie de performance, rares sont ceux qui ont déjà prouvé leur efficacité.

La conquête de l’hégémonie 

S’ils sont actuellement sur les lèvres de tous les commentateurs politiques, les marchés carbone n’en restent pas moins ésotériques pour le commun des mortels. Réputés être d’une complexité barbare, les systèmes de plafonnement et d’échange – cap and trade (C & T) en anglais – ont une architecture assez simple et sont d’une redoutable efficacité théorique. L’État, ou une institution missionnée pour ce faire, doit premièrement fixer une limite maximale aux émissions annuelles (plafonnement ou cap), divisée en de multiples permis. Libre à lui d’ensuite distribuer comme bon lui semble ces précieux quotas à chaque entreprise qui pourront se les échanger entre elles (échange ou trade). A la fin de l’année, les sociétés doivent restituer à l’autorité publique le nombre de quotas correspondant aux émissions dont elles sont (légalement) responsables.

« Cela a toujours été l’avantage d’un système de plafonnement et d’échange par rapport à une taxe sur le carbone : le plafond est une garantie d’un niveau spécifique de réduction des émissions. »

Knut Einar Rosendahl

Contrairement à ce que beaucoup affirment aujourd’hui, le marché carbone ne permet pas à l’État de fixer un prix sur la nature, comme c’est le cas avec une taxe carbone. Bien au contraire, le prix de la tonne de carbone est fluctuant et déterminé par la loi du marché. La merveilleuse danse – toujours théorique – de l’offre et de la demande garantit une atteinte des objectifs climatiques à moindre coût. Le prix de la tonne de carbone est standardisé et une entreprise a alors le choix, en fonction d’un calcul économique rationnel, d’acheter des quotas ou d’effectuer une transition énergétique en achetant de nouveaux équipements. Le dispositif focalise in fine les efforts de réduction sur les opportunités les moins onéreuses. Les marchés carbone C & T sont alors non seulement loués pour leur garantie d’efficacité écologique – il existe une limite maximale aux émissions qu’il n’est pas possible de dépasser – mais économiques – les objectifs sont atteints de la manière la moins onéreuse possible.

Le succès des marchés carbone n’est pas étranger à la vague néolibérale opérée dès les années 1960 aux États-Unis. Auparavant, beaucoup considéraient qu’il existait deux solutions crédibles face au changement climatique. Les politiques environnementales avaient recours à un mélange subtile de régulations étatiques et de taxes pigouviennes, plus connue sous le nom de taxe carbone. Un tel dispositif doit son nom à l’économiste britannique orthodoxe Arthur Cecil Pigou (1877-1959) qui fut l’un des premiers à avoir défendu une taxation correctrice des externalités négatives dans les années 1920. Dès les années 1960, un économiste va bousculer cette approche sans pour autant remettre en cause l’hypothétique nécessité de conférer à la nature un prix.

Dans The problem of social cost (1960), Ronald Coase propose une révolution théorique. Selon ce dernier, l’État ne doit pas décider du prix du carbone mais mettre en place des droits de propriétés privés solides pour favoriser l’émergence d’un marché. L’approche de Coase donnera lieu à une littérature abondante d’économistes néoclassiques, à l’image du Canadien John Dales, considérant que les droits de propriétés doivent être exclusifs et transférables pour permettre un échange marchand optimal. En clair : ce n’est plus à l’État de décider du prix de la nature mais bien au marché.

« L’inexistence d’un marché découle de la mauvaise allocation des droits de propriété. »

Coase, The problem of social cost (1960)

« L’introduction des marchés carbone prends ses origines dans le débat américain, au moment de la création et de la montée en puissance de l’agence environnementale américaine » explique Stefan Aykut, professeur à l’université de Hambourg et auteur de Gouverner le climat ? « Il y a alors une critique qui émerge qui taxe la méthode de régulation d’inefficace car l’État ne connaitrait pas bien le processus industriel. Il faudrait, pour les tenants d’une telle critique, introduire des instruments liés aux marchés » explique le spécialiste de la gouvernance climatique.

Aux États-Unis, l’introduction des bubble concepts par l’agence de l’environnement en 1975 permet à une entreprise de compenser les retards environnementaux de certaines unités de production en effectuant des efforts dans d’autres installations. Comme le note justement un article sur le sujet, « un bubble concept traite une installation polluante comme si elle était entourée d’une bulle en plastique avec une seule sortie pour les émissions totales [d’un groupe industriel] plutôt que de limiter les émissions à chaque sortie ». Les bubble concepts pavent alors la voie à de nombreuses initiatives. Le projet 88, porté par l’économiste américain Robert Stavins et deux sénateurs, conclut que les incitations basées sur le marché sont les plus à mêmes de produire une réponse peu onéreuse et moins intrusive au changement climatique. Présenté à la convention des Républicains en 1988, il aboutit à la mise en place du Clean Air Act de 1990 qui pose les jalons d’un marché de permis américain. Ce programme met en place un système de permis pour contrôler les émissions de sulfure de dioxyde responsables de pluies acides.

Cette révolution néolibérale ne tarde pas à produire ses effets au Royaume-Uni, où les travaux de l’économiste libéral David Pearce ont reçu une grande attention. Chris Patten, ancien ministre de l’environnement, ainsi que Margaret Thatcher, ont largement repris ses idées. Pearce aura par ailleurs une influence considérable sur les débats politiques à l’international.

Il n’y a alors rien d’étonnant à ce que certains pays emboitent le pas au pays de l’oncle Sam en mettant en place des programmes basés sur le marché, à l’image de l’Australie ou du Canada. En 2005, c’est au tour des institutions européennes de se plier à cette nouvelle hégémonie : un marché carbone est mis en place et restera longtemps le plus important du monde. Il convient de préciser que les règles des institutions européennes ne sont pas étrangères à cette décision : la mise en place d’une écotaxe commune nécessitait l’accord unanime des membres de l’Union contrairement à l’instauration d’un marché. 

Les néolibéraux au secours du marché

Les marchés carbone n’ont rencontré que très peu de fervents adversaires lors de leur mise en place. S’il pourrait sembler logique et légitime que le secteur des affaires voue aux gémonies une telle initiative, accusée de provoquer des hausses de coûts, la réalité est bien différente.

Le marché québécois a ainsi obtenu « un appui considérable » de la part du secteur privé selon le Gouvernement du Québec. Ce dernier présentait le mécanisme comme « la meilleure garantie » de réduction des émissions, tout en étant « flexible » et permettant « la croissance, l’efficacité, la modernisation et la compétitivité ».

On comprend mieux cet engouement lorsque l’on sait que le développement des marchés carbone s’accompagne souvent d’une injonction à diminuer les réglementations environnementales des entreprises.

On retrouve ce même soutien pour le SEQE-UE de l’ association patronale européenne, Business Europe. La commission européenne a ainsi souvent vanté les qualités des marchés, mécanisme « innovant », « efficient », qui privilégie un « système ouvert d’incitations » et qui favorise « l’implication de tous les secteurs de la société et un partage entier des responsabilités ». On comprends mieux cet engouement lorsque l’on sait que le développement des marchés carbone s’accompagne souvent d’une injonction à diminuer les réglementations environnementales des entreprises. Lors d’une conférence internationale il y a un an, le directeur exécutif de Shell, David Hone, a ainsi estimé que « l’idéal pour un système de plafonnement et d’échange est de ne pas avoir de politique réglementaire qui le chevauche ».

Pour autant, ce phénomène n’est pas l’apanage des marchés carbone puisqu’il concerne également les taxes pigouviennes. Exxon Mobil, BP et Shell ont ainsi souhaité, sans y parvenir, mettre en place une taxe carbone à 40 dollars la tonne pour supprimer toutes les autres lois fédérales sur le climat. Ce Zeitgeist « libéral environnemental », comme aime l’appeler Steven Berstein, s’oppose ainsi radicalement aux méthodes de command and control (normes, interdictions, etc.).

Les entreprises empochent, les consommateurs trinquent 

Si les marchés carbone permettent bien de fixer une limite maximale aux émissions, encore faut-il que cet objectif soit ambitieux… En Australie, le marché carbone a été supprimé en 2014 et n’a jamais fait ses preuves : le cap était basé sur un modèle douteux du Trésor fédéral australien. Les émissions autorisées augmentaient jusqu’en 2028 et se réduisaient petit à petit jusqu’en 2050. 

Si le bilan du Système d’échange de quotas d’émission de l’UE (SEQE-UE) est plus défendable, il est loin d’être la panacée. Certes, les émissions de gaz à effet de serre de l’UE ont diminué de 33% par rapport à 2005. Là aussi, difficile d’attribuer ces résultats positifs au marché carbone qui ne couvre que 45% des émissions de l’UE. Un récent rapport parlementaire conclut que le système n’a « à ce jour contribué qu’à la marge à l’atteinte des objectifs climatiques européens ». Pourquoi un constat si cruel ? 

Il est premièrement difficile d’imputer la diminution des émissions communautaires au seul marché carbone. D’autres paramètres sont à prendre en compte comme… les crises économiques. Ces dernières font en effet mécaniquement baisser les émissions carbonées puisque la production est alors moindre. Pour autant, cela ne nous explique pas pourquoi le prix de la tonne de CO² a rarement dépassé les 10€.

La méthode d’allocation de quotas, plutôt favorable aux entreprises, n’est pas étrangère à ce phénomène. Lors des deux premières phases du marché (2005-2012), les quotas distribués aux industriels étaient ainsi fondés principalement sur leurs émissions passées et non sur des objectifs à atteindre. Parfois même, certains groupes recevaient plus de quotas que ce dont ils avaient besoin. Dans une telle situation, le marché ne rémunère pas les bonnes pratiques mais l’absence d’action. Se voir attribuer plus de quotas que ses émissions est un problème majeur puisque le prix du carbone est mécaniquement tiré à la baisse, l’offre étant plus grande que la demande.

Plus inquiétant encore, les quotas distribués sur le marché primaire ont longtemps été attribués gratuitement aux entreprises. Le rapport parlementaire sur le SEQE-UE précédemment évoqué estime ainsi que « le cadre actuel est manifestement insuffisant pour atteindre le nouvel objectif européen de réduction de 55 % des émissions carbone d’ici 2030 par rapport à 1990 ». Les sénateurs analysent en effet que « le maintien de quotas gratuits […] constitue en particulier un obstacle évident à ce relèvement de l’ambition [climatique] du fait de cette distribution gratuite de quotas ». Un rapport au vitriol de la Cour des comptes européenne considère quant à lui qu’un meilleur ciblage des allocations gratuites « aurait apporté de multiples avantages aux fins de la décarbonation, aux finances publiques et au fonctionnement du marché unique ». Si les économistes s’accordent en effet pour considérer que l’allocation gratuite des permis est un manque à gagner pour les finances publiques, force est de constater qu’elles ont également permis à des entreprises d’engranger d’indécents bénéfices.

Beaucoup pensaient en effet que, si les entreprises recevaient des quotas gratuits, elles ne les considéreraient alors pas comme des actifs. Or, cette intuition s’est révélée complètement fausse. Comme le soulève une étude, « il est incorrect de supposer que si tous les quotas de CO² sont fournis gratuitement à l’opérateur, le prix au comptant du CO² n’influencera pas par la suite la tarification de l’électricité. En effet, le prix du CO² devient un coût d’opportunité pour le producteur, dont il doit tenir compte lorsqu’il décide de produire ». De fait, les entreprises ont majoritairement répercuté ces « coûts » imaginaires aux consommateurs et ont pu engranger des bénéfices de plus de 14 milliards d’euros entre 2005 et 2008. Lors de la deuxième phase (2013-2020), les producteurs d’électricité ont profité du marché pour augmenter les prix de l’électricité et engranger des bénéfices compris entre 23 et 71 milliards d’euros. 

Depuis 2013, la vente aux enchères est privilégiée, sauf pour les secteurs souffrent d’une large concurrence internationale. Mais la pratique est loin d’avoir pris fin : entre 2021 et 2030, ce seront 6 milliards de quotas qui seront distribués gratuitement aux secteurs qui souffrent de « fuite de carbone ». Comprendre : les industries les plus soumises à la concurrence internationale. Et la définition est assez large car on y retrouve le secteur de l’acier, de l’extraction de la houille en passant par la fabrication de vêtements en cuir. L’arrêt de la distribution gratuite de quotas ne prendra fin qu’en 2036 lorsque le mécanisme d’ajustement carbone aux frontières sera complètement mis en place. 

Cette surallocation des quotas se combine avec un deuxième problème majeur des systèmes cap and trade : la possibilité de stocker les quotas sur de longues durées. Dans le système californien, le stockage illimité permet de mettre en réserve ses permis indéfiniment. Les entreprises peuvent acheter plus de quotas qu’elles n’en ont besoin au cours d’une année, les conserver et les utiliser pour couvrir leurs futures obligations environnementales. Au total, pas moins de 200 millions de permis seraient stockés, soit presque l’équivalent de l’effort d’atténuation des émissions que la Californie attend du programme de plafonnement et d’échange… jusqu’en 2030. Le vieux continent ne fait pas exception à la règle puisque 970 millions de quotas issus du problème de surallocation ont pu être stockés par les entreprises jusqu’à la phase III (2013-2020).

En réalité, les plafonds d’émissions ne sont bien souvent pas aussi inflexibles qu’ils en ont l’air. Les entreprises peuvent, dans certaines conditions, acheter des crédits carbone sur les marchés internationaux. L’action des entreprises n’est alors plus confinée à l’Union Européenne, zone pourtant déjà très large, et s’étend sur tout le globe. Cette subtilité permet aux entreprises de tirer le prix du carbone à la baisse puisque le prix du carbone n’est alors plus unifié. Pendant la phase 2 (2008-2012) du marché carbone européen, plus d’un milliard de quotas internationaux ont été achetés puis, lorsqu’ils n’étaient pas utilisés, transférés à la phase 3 (2013-2020). On retrouve le même schéma derrière le système australien qui permettait aux entreprises d’acheter jusqu’à 50% de leurs quotas sur les marchés internationaux. 

Le marché nivelle les efforts climatiques par le bas

Pour qu’un marché carbone soit pleinement efficace, il faut qu’il oriente les investissements dans la bonne direction. Or, plusieurs observations peuvent nous faire douter du contraire. 

Premièrement, il ne faut pas oublier qu’un marché carbone standardise, bien qu’il soit fluctuant, le prix de la tonne de CO² sur toute une zone. Or, les financements nécessaires pour qu’une entreprise rentabilise ses investissements environnementaux diffèrent grandement en fonction des situations. Les besoins vont de 37 $ à 220 $ la tonne en fonction des études. En réalité, il paraît assez absurde de n’avoir qu’un seul prix carbone pour toute une région et pour tous les secteurs économiques. D’autant plus que le marché oriente structurellement les investissements vers les options les moins onéreuses (que l’on pourrait résumer par le calcul argent dépensé/tonne de CO² réduite). Les entreprises sont alors incitées à réaliser les investissements les plus faciles à réaliser, ce que l’on appelle parfois les low hanging fruits, les fruits faciles à récolter. Il y a pourtant fort à douter que le seul critère d’efficacité économique puisse garantir une efficacité écologique sur le long terme. 

Un dirigeant d’entreprise entamera-t-il une transition, souvent onéreuse, s’il ne peut savoir à quel prix il sera rémunéré ?

Face à la surallocation des quotas carbone, l’UE a mis en place une réserve de stabilité (MSR) capable de retirer des quotas du marché. Une telle initiative, dont les intentions sont louables, a provoqué une hausse drastique des prix sur le marché. Si les dirigeants européens sont confiants que le prix du carbone ne va faire que croître dans les prochaines années, certaines études semblent douter de ce phénomène. Certains chercheurs pensent que cette réforme a poussé les entreprises présentes sur le marché à spéculer sur le prix du carbone. En réalité, que ces fluctuations soient provoquées par de la spéculation ou par la seule rencontre de l’offre et de la demande n’a que peu d’intérêt. Le plus inquiétant est que n’importe quelle intervention étatique censée améliorer le système – la réforme MSR n’en est qu’un exemple – agitera forcément les marchés. Comme le note justement le rapport sénatorial : « le système d’échange de quotas peut […] être particulièrement sensible aux chocs exogènes ainsi qu’aux autres régulations environnementales et économiques, le rendant difficilement pilotable par la puissance publique ».

Or, il ne faut pas oublier que l’un des objectifs principaux d’un marché carbone est de récompenser les investissements vertueux. Pourtant, un dirigeant d’entreprise entamera-t-il une transition, souvent onéreuse, s’il ne peut savoir à quel prix il sera rémunéré ? C’est là tout le paradoxe d’un tel système. Longtemps considéré par les industriels comme indolore voire bénéfique, le marché carbone n’a pas permis de bien récompenser les pratiques vertueuses. L’intervention de l’État a donc été nécessaire pour assurer son bon fonctionnement. Il y a fort à parier que le prix de la tonne de CO² n’aurait jamais augmenté d’une telle ampleur sans la mise en place du MSR en 2019. Or, c’est cette même intervention étatique qui rend le marché totalement fluctuant et peu prévisible. Et l’on revient ici au dilemme cornélien qui agite depuis des dizaines années les experts environnementaux : assurer une efficacité écologique avec une incertitude sur les prix dommageables à long terme (marché C&T) ou bien conserver un contrôle sur ces prix au risque de ne pas atteindre les objectifs fixés (taxe carbone) ? On voit très bien ici comment cette logique peut nous conduire dans l’impasse. Dès lors, les réglementations environnementales ambitieuses et contraignantes semblent constituer une solution crédible. Stefan Aykut estime ainsi que l’on assiste actuellement à « un retour des approches par la régulation, sur les questions de renouvelable, d’isolation des bâtiments… Les questions de régulation ne sont plus taboues, elles reviennent sur le devant de la scène internationale. »

Politique monétaire : dépasser le fantasme de la neutralité

Dans leur dernier ouvrage, La dette, une solution face à la crise planétaire ? (Éditions de l’Aube – Fondation Jean-Jaurès), Michael Vincent et Dorian Simon reviennent sur certains grands mécanismes économiques (création monétaire, régulation bancaire, collatéralisation des dettes…) afin de comprendre les marges de manoeuvres dont disposent les États pour réorienter leurs politiques budgétaires. À l’inverse des ritournelles néolibérales, prêtes à refermer la parenthèse du « quoiqu’il en coûte » au nom de la rigueur, les auteurs démontrent combien les dettes publiques sont les rouages indispensables des marchés financiers, en quête d’actifs sûrs. De quoi relativiser les chiffres qui pleuvent par milliards dans les déclarations ministérielles et transformer les dépenses conjoncturelles en dépenses structurelles. C’est à ce prix que pourra se préparer un avenir écologique. Extraits.

Pourquoi prétendre à une politique monétaire neutre alors que les marchés ne le sont pas : ils consacrent la logique extractive, de domination, de compétition et de recherche du profit à court terme au détriment de la prospérité. Ce sont ces marchés qui soutiennent les hydrocarbures, faisant fi des limites du vivant et des ressources, faisant fi des inégalités, faisant fi des régimes politiques et des motivations, ou de l’usage de ces profits. La guerre lancée par Poutine début 2022 nous en offre une illustration macabre. 

(…) Puisque la monnaie est un moyen, pas une fin, puisque c’est un outil, de plus en plus utilisé pour tenter de sortir des crises avec plus ou moins de succès par ailleurs, pourquoi ne pas orienter la politique monétaire, voire la monnaie elle-même, vers l’une des plus grosses crises qui nous menacent : la crise climatique ? La stabilité financière, ou celle des prix, l’économie en général ne sont que peu de chose face au défi climatique et aux risques imbriqués, qui vont évidemment peser lourdement. Surtout, si la monnaie peut faire beaucoup pour financer la transition écologique afin d’anticiper ces crises, elle ne pourra pas grand-chose pour jouer les pompiers lorsque la trajectoire climatique aura atteint le point irréversible du non-retour. Et si la monnaie doit réellement être « neutre », nous proposons qu’elle s’attelle à atteindre avant tout la neutralité carbone.

« Et si la monnaie doit réellement être « neutre », nous proposons qu’elle s’attelle à atteindre avant tout la neutralité carbone. »

La démocratisation de la politique monétaire est aussi une piste pertinente. Que diraient les citoyens s’ils étaient consultés? C’est notamment l’objectif d’une initiative menée par les ONGs en 2021 sous le nom de la Banque citoyenne européenne, une sorte de convention citoyenne de la politique monétaire organisée en phases de dialogues et d’ateliers avec des experts de tous bords, dont des institutionnels, puis de consultations et d’élaboration de propositions pour la monnaie. Sans détailler ici toutes les propositions auxquelles nous renvoyons à la sagacité du lecteur curieux d’en savoir plus, il est intéressant d’observer que les propositions émises par les citoyens ont toutes en commun les deux fils rouges suivants : la non-neutralité de la monnaie, qui est un outil qu’il faut mettre au profit d’une fin démocratiquement décidée ; et l’urgence climatique, alimentée par le business as usual, qui nécessite de financer la transition, en orientant les flux financiers ou en ajoutant au mandat de la BCE un principe de non-nuisance, par exemple par l’instauration d’une interdiction de financer toute activité polluante ou écocide. 

Une nouvelle donne monétaire ? 

Est-ce que la nouvelle donne monétaire est transitoire ou bien permanente ? La question se pose puisque la FED a déjà commencé ce que l’on appelle le « tapering », c’est-à-dire la fermeture du robinet du rachat de dettes. La BCE également, qui, si elle respecte ses annonces à l’heure où nous rédigeons ce livre, devrait stopper les rachats à l’heure où vous le lirez. Des signes montrent que la fenêtre d’opportunités pourrait se refermer face à l’inflation. C’est vrai, les taux montent et la France emprunte à des taux un peu moins farfelus que les taux négatifs, mais des taux pas inintéressants pour autant. Et comme souvent en finance, il faut regarder les choses de manière relative : le taux réel, c’est-à-dire la différence entre les taux d’emprunt et l’inflation, est par la force des choses très compétitif, encore plus que lorsque l’inflation était basse ! Cette normalisation des taux n’est pas forcément négative : elle va aussi dégonfler un peu la bulle des marchés puisqu’il existe une dualité entre le prix des actifs et le marché du travail, et forcer le capital à s’investir plutôt qu’à se placer est indispensable pour améliorer les conditions des travailleurs. 

Cela ne doit pas empêcher de regarder le problème inflationniste pour ce qu’il est : il est avant tout dû aux pressions géopolitiques et énergétiques. La montée des prix est expliquée en majeure partie par le coût de l’énergie carbonée. Autant de raisons de penser économie circulaire et locale, et transition énergétique, pour la contenir comme il se doit. Pour se prémunir de la montée des prix, il faut enclencher une transition écologique et de justice sociale, avec en tête une politique énergétique ambitieuse et renouvelable ainsi qu’un investissement massif dans la recherche et l’innovation, et ce avant que ces coûts primaires ne s’étendent durablement cela a déjà démarré à l’alimentation, aux biens et aux services, tous tributaires de la montée des prix de l’énergie et des tensions géopolitiques. 

Si la remontée des taux se matérialise au point de ne plus être tenable, il faudra enfin regarder en face les effets des dépenses de rattrapage des dernières années, et du côté de celles et ceux qui en ont profité. Les chiffres de l’augmentation des patrimoines des plus riches, des records de dividendes, des salaires des grands patrons et des bénéfices du CAC 40 donnent de bons indices, et appellent à la mise en place d’une justice fiscale. Dans le cas contraire, le coût de cette dette reviendrait, une fois encore, à permettre aux plus riches et aux plus puissants de s’enrichir, tout en socialisant les pertes. À l’aune également du défi climatique et de la corrélation directe entre niveau de revenu et empreinte carbone, il n’est pas seulement question de justice fiscale et sociale, mais aussi de justice climatique. 

« Pour se prémunir de la montée des prix, il faut enclencher une transition écologique et de justice sociale, avec en tête une politique énergétique ambitieuse. »

Il reste encore aujourd’hui une opportunité importante aux États de la zone euro notamment, et pour la France en particulier, pour emprunter et anticiper l’avenir. Le besoin structurel de safe assets [ndlr : « actifs sûrs », parmi lesquels figurent les titres de dette publique]pour le marché reste bien réel. Cette opportunité a déjà été partiellement exploitée pour financer la politique du « quoi qu’il en coûte », mais elle ne doit pas nous empêcher de penser à la qualité des dépenses sous-jacentes. Si elle a permis de compenser les pertes liées à la conjoncture sanitaire, ou les hausses de prix du pétrole, elle n’a en rien aidé à préparer l’avenir face aux défis, notamment climatiques et sociaux, au risque de les amplifier plus tard puisqu’en se plaçant en porte-à-faux avec les limites planétaires et climatiques. Il faut dépasser la réaction et entrer dans l’anticipation, pour ne pas gâcher cette opportunité budgétaire unique. 

Définanciariser la monnaie

Il est enfin nécessaire de repenser la monnaie pour sortir de ce cercle risqué, sinon vicieux, de manière structurelle, et aussi pour pouvoir mieux réglementer le shadow banking et l’intermédiation pour définanciariser la monnaie. Il est évident que, si nous ne le faisons pas, la finance, comme la nature, ayant horreur du vide, l’industrie regardera d’elle-même les alternatives au safe asset pour l’intermédiation via la blockchain, risquant alors de priver les États des marges qu’ils ont aujourd’hui. Mais un tel démantèlement ne se fera pas en un jour, il n’y a d’ailleurs malheureusement que peu d’appétit apparent pour sortir de ce statu quo néolibéral ; mais s’il doit s’enclencher c’est bien dans cet ordre-là. Si nous ne sommes pas fondamentalement contre l’idée d’une annulation partielle de la dette, ou contre l’idée d’une monnaie libre de dette, nous alertons en revanche sur les risques de ces « options » tant que la monnaie reste autant financiarisée, et tant que la tuyauterie de la finance, de l’intermédiation, du shadow banking, de l’eurodollar, de la collatéralisation, fonctionnera ainsi. En effet, dans le système actuel, ces options vont conduire à chahuter la stabilité financière, et nous savons très bien qu’aux mêmes maux seront opposées les mêmes solutions : c’est-à-dire le « quoi qu’il en coûte » du pompier, qui va une fois encore nous enfermer dans la spirale que nous ne connaissons que trop bien depuis plusieurs décennies : des crises qui augmentent en fréquence et en intensité, et des dépenses de rattrapages plutôt que structurelles, qui font le lit de la prochaine. 

Nous encourageons donc plutôt les gouvernements à profiter au maximum des marges de manœuvre budgétaires offertes par la conjonction de la suspension des règles budgétaires et de la dette attractive, pour pouvoir ensuite enclencher cette définanciarisation, cette nécessaire relocalisation de nos économies, de la prise en compte des limites planétaires, y compris dans la monnaie. Reconnaître que la neutralité de la monnaie n’existe pas, puisque la politique monétaire a été utilisée à escient pour maintenir les marchés et le statu quo. À l’occasion de la pandémie, beaucoup, certains même avant, se sont demandés si leur métier avait du sens. Si leurs entreprises créent des solutions pour répondre à des problèmes, ou si elles créent des solutions parce qu’il y a des entreprises à faire tourner ? Pour la monnaie, c’est la même chose : il faut y remettre du sens. 

« Une refondation de notre système monétaire ne passera que par une refondation de notre modèle de société. »

La pénurie de safe assets n’est que le symptôme d’une défaillance globale des institutions. Notre crise est une crise de confiance. La confiance en la monnaie n’est que le côté pile de la confiance envers la politique. Une refondation de notre système monétaire ne passera que par une refondation de notre modèle de société. Mais après tout, peut-être que la solution est à l’intérieur du problème. La financiarisation de la monnaie est peut-être l’opportunité de démocratiser la création monétaire, autrefois monopole des États, puis des banques, maintenant accessible à des non-banks. La tâche qui nous incombe est de repenser notre architecture monétaire, afin de financer les activités non rentables, mais socialement utiles et responsables face aux limites de la Terre et du vivant. Sortir à terme du « tout finance » car il y a des investissements indispensables pour notre survie et une trajectoire climatique soutenable qui ne seront jamais « rentables » au sens de l’Ancien Monde. La plomberie financière actuelle nous en offre la possibilité, il ne nous reste qu’à en redéfinir les contours en fonction des contraintes de notre époque. 

Le vote par approbation : un scrutin plus démocratique ?

    En 1770, Nicolas de Condorcet érige un principe simple pour déterminer la légitimité démocratique d’une élection : « si un [candidat] est préféré à tout autre par une majorité, alors ce candidat doit être élu ». L’énoncé apparaît logique, pourtant notre mode de scrutin uninominal majoritaire à deux tours échoue le plus souvent à le respecter. Nous conservons pourtant ce scrutin alors que plusieurs générations de penseurs ont construit de nombreuses méthodes alternatives plus à même de refléter les préférences des électeurs. Si certaines d’entre elles ont connu un écho médiatique important, il s’agit ici d’attirer l’attention sur un scrutin peu connu du grand public, au contraire des chercheurs : le vote par approbation. En effet, en 2010 un collectif de 21 spécialistes en théorie du vote a élu le vote par approbation comme étant le meilleur mode de scrutin, et ce en usant… du vote par approbation1. Sur quels critères ce scrutin pourrait-il s’imposer comme l’alternative la plus crédible à notre mode de scrutin actuel ?

    Les défauts du scrutin uninominal majoritaire à deux tours

    Notre méthode de vote pour nos principales élections repose sur le scrutin uninominal majoritaire à deux tours. Uninominal car nous ne pouvons déposer qu’un nom dans l’urne. Majoritaire car c’est le candidat récoltant plus de 50% des suffrages exprimés qui est élu. Cela peut survenir dès le premier tour, mais le cas est rare, ce qui nécessite donc un deuxième tour au cours duquel les deux candidats ayant récolté le plus de voix au premier tour s’affrontent en duel pour obtenir la majorité de 50% des suffrages exprimés. Cette méthode de vote qui nous paraît désormais naturelle, comporte pourtant au moins deux effets pervers graves, qui compromettent la garantie d’une juste représentation de l’opinion des électeurs à travers leurs représentants élus.

    Il s’agit d’abord de ce que l’on nomme parfois le Spoiler effect, à savoir le fait que deux candidatures trop proches idéologiquement se gâchent mutuellement leur chance de passer le premier tour et donc à terme de remporter les élections. Un « gros candidat » peut ainsi voir ses probabilités de l’emporter considérablement amoindries voire anéanties par l’émergence d’une ou de plusieurs « petites candidatures » de son camp politique. Le cas d’école étant évidemment celui de la défaite de Jospin en 2002, donné gagnant par plusieurs sondages2 face à n’importe quel autre candidat au second tour mais manquant la marche du premier à cause de la dispersion des candidatures à gauche.

    Dès lors, l’un des enjeux décisifs d’une élection avec ce mode de scrutin consiste à éliminer les rivaux de son propre camp ou des camps voisins, en constituant une candidature unique. Le résultat des élections tient donc, pour beaucoup, non pas aux préférences des électeurs mais à la capacité des partis politiques d’un même camp à se rassembler. Cette dynamique est donc bien une conséquence perverse d’un mode de scrutin spécifique, et ne relève pas forcément du « bon sens » de rassembler un camp aux idées similaires. Dans ce contexte, l’union peut conduire à faire disparaître des candidats représentant réellement une sensibilité politique distincte, et donc à empêcher des électeurs d’exprimer finement leur opinion.

    Le deuxième effet néfaste est que, bien souvent, ce mode de scrutin oblige à un vote stratégique pour espérer faire passer au second tour la candidature que l’on déprécie le moins parmi celles qui ont à peu près une chance de l’emporter. Ce faisant, ce vote « utile » empêche d’exprimer toute forme de soutien, par le vote, à des candidatures qu’on lui préfère. Ce vote « utile » empêche donc le vote de conviction.

    Le principal problème qui en découle est d’ordre démocratique : les citoyens ne peuvent pas exprimer leurs préférences réelles, lors des rares occasions où leurs avis sont sollicités. Mais un autre problème est la conséquence que ce vote « utile » a sur la manière de mener campagne. Alors que l’on devrait s’attendre à voir s’affronter en priorité des candidats qui sont des adversaires idéologiques, on observe que, paradoxalement, la logique du vote utile incite des candidats-partenaires au sein d’un même camp politique à s’affronter tout aussi violemment, si ce n’est davantage, pour espérer enrayer chez eux cette dynamique du vote utile. Les affrontements entre le RN et Reconquête l’illustrent parfaitement.

    Enfin, ces deux phénomènes conjugués ne sont pas sans conséquences sur les résultats du scrutin. Pour déterminer s’ils sont légitimes démocratiquement, la plupart des chercheurs en théorie des votes s’accordent sur le fait que ceux-ci doivent respecter une norme : le principe de Condorcet, selon lequel « si une alternative [ici un candidat] est préférée par une majorité à toute autre alternative, alors celle-ci doit être élue ». Par extension, le candidat ainsi choisi est appelé le vainqueur de Condorcet. En clair, il s’agit d’appliquer le principe de préférence de la majorité.

    Le respect de ce principe nous paraît instinctif lorsqu’il s’agit de qualifier ce qu’est une élection légitime démocratiquement. Pourtant si l’on étudie le fonctionnement du mode de scrutin uninominal majoritaire à deux tours, celui-ci est bien souvent incapable de respecter ce principe démocratique. Ainsi, si l’on prend l’exemple de trois candidats A, B et C, pour lesquels on obtient les résultats suivants :
    · 4 électeurs : A > B > C (lire 4 électeurs, préfèrent A à B et B à C).
    · 3 électeurs : C > B > A
    · 2 électeurs : B > C > A

    Avec notre mode de scrutin actuel, B est éliminé dès le premier tour, et au second tour c’est C qui l’emporte, en bénéficiant du report de voix des électeurs de B au premier tour (3+2 = 5 pour C, contre 4 pour A). Or, si B devait affronter en duel A, les électeurs de C se reporteraient sur B, le faisant ainsi gagner avec 2+3 voix, donc 5 voix contre 4. De même, si B affronte C en duel, B bénéficie du report de voix de A, avec donc 2+4 voix soit 6 voix contre 3. On observe ainsi que B est bien le vainqueur de Condorcet : face à toutes les alternatives (A et C), B est préféré par une majorité d’électeurs. Le principe de Condorcet est respecté alors que le scrutin uninominal majoritaire à deux tours échoue à le garantir, en élisant C.

    Pour prendre un exemple réel, en 2007, la plupart des sondages donnaient François Bayrou vainqueur en duel face à n’importe quel candidat au 2ème tour3. Pourtant, incapable de passer le premier tour, il n’a pas été élu. Il ne s’agit pas de défendre, sur le fond des idées, la candidature de Bayrou, mais bien de nous en tenir au principe de Condorcet selon lequel, de tous les candidats, c’était bien François Bayrou qui était le candidat le plus légitime démocratiquement pour gagner ces élections.

    Le scrutin uninominal majoritaire à deux tours, sous les effets conjugués du spoiler effect et de la dynamique du vote utile est donc nuisible à la bonne représentation des préférences des électeurs en étant incapable de faire élire le vainqueur de Condorcet, tout en conduisant à des dynamiques politiques dommageables pour la tenue d’un débat démocratique constructif. Ces défauts sont suffisamment graves pour remettre en cause la légitimité de l’élection même. Pourtant, bien que ces effets soient connus, nous maintenons cette méthode de vote : quelles en sont les raisons ?

    Des modes de scrutin alternatifs jugés trop compliqués

    L’une des raisons principales relève d’une défiance structurelle à l’égard du changement, quand bien même l’état actuel des choses nous serait collectivement et individuellement défavorable. Ce « biais du statut quo » est un biais cognitif connu en psychologie sociale, qui explique probablement beaucoup des absurdités de notre système politique et économique. Il s’agit néanmoins de le prendre en compte si nous souhaitons réformer notre système de vote.

    Car en effet, la question de la réforme de notre mode de scrutin n’est pas nouvelle. Dès l’irruption des élections dans la vie politique française, des penseurs se sont penchés sur la question de la méthode de vote à choisir afin qu’elle rende compte au mieux des préférences des électeurs. Il existe donc pléthore de modes de scrutin plus vertueux que celui que nous utilisons : les duels électoraux de la méthode de Condorcet, le vote à point de la méthode Borda, le scrutin de Condorcet randomisé, etc.

    Mais plus récemment, c’est la méthode du jugement majoritaire qui a fait grand bruit. Probablement même un peu trop. Les élections présidentielles ont en effet été parcourues de plusieurs petits événements dont celui de la Primaire Populaire, d’initiative citoyenne, qui avait pour objectif de faire émerger une candidature unique à gauche, au moyen d’un mode de scrutin innovant, disposant, de l’avis de beaucoup de spécialistes, d’excellentes propriétés. Cette méthode électorale consiste à donner non pas une note mais une mention à chacune des candidatures : excellent, très bien, bien, assez bien, passable, insuffisant, à rejeter. Pour chaque candidature on obtient ensuite un pourcentage pour chacune des mentions. Il s’agit ensuite de déterminer la mention majoritaire à partir de la médiane.

    Cette méthode de vote, dans le cadre de cette Primaire Populaire, a été beaucoup critiquée et moquée. Outre le fait qu’avec cette méthode nos présidents et députés pourraient être élus sur la base d’une mention « Passable », ce qui comporte sa dose de ridicule4, ce système de vote a paru trop compliqué. Car dans notre contexte politique actuel, marqué par une abstention croissante, complexifier le mode de scrutin fait courir le risque de créer de nouvelles barrières entre les électeurs et les urnes.

    Le seul avantage de notre mode de scrutin est sa simplicité. Pour autant, ses défauts sont trop importants pour que cette seule raison soit suffisante pour le pérenniser. Il s’agit dès lors de trouver une méthode de vote à même de résoudre ces défauts, tout en étant suffisamment simple pour être facilement admise par les électeurs français. La tâche paraît ardue, et pourtant la solution pourrait bien se trouver dans le changement d’un seul des paramètres de notre mode de scrutin.

    Le vote par approbation : l’introduction de la plurinominalité

    Le biais cognitif de statut quo pousse à privilégier l’état actuel des choses, comme suggéré précédemment. Il s’agit donc de perturber le moins possible notre mode de scrutin actuel, tant dans son principe que dans sa mise en œuvre pratique. Le scrutin uninominal majoritaire à deux tours est simple, il repose, comme son nom l’indique, sur trois principes : l’uninominalité (on doit déposer un seul nom dans l’urne), la majorité (le candidat qui remporte une majorité de suffrage l’emporte) et la réalisation en deux tours, afin de garantir une majorité absolue (plus de 50% des suffrages). Pratiquement, le jour du vote nous nous rendons dans un bureau de vote, déclinons notre identité, récupérons plusieurs bulletins pour garantir le secret de notre vote, nous rendons dans l’isoloir, déposons un nom dans l’enveloppe, et déposons cette dernière dans l’urne après signature et validation de l’identité. A voté.

    Dès lors, sur quel principe faut-il agir pour améliorer notre méthode de vote ? Le principe de majorité est indispensable. Selon le principe de Condorcet, pour qu’une élection soit légitime démocratiquement, il faut que la préférence de la majorité l’emporte. Il semble même qu’avec notre méthode actuelle, ce principe est insuffisamment respecté, étant donné que le vainqueur de Condorcet est presque systématiquement défait. La réalisation de l’élection en deux tours est un principe cosmétique, mais dans le cas de ce mode de scrutin, il s’agit bien plus d’une mesure visant à davantage respecter le principe de majorité en corrigeant les effets néfastes d’un scrutin uninominal, en jouant sur les reports de voix lors du second tour. En effet, les scrutins uninominaux majoritaires à un tour sont considérés comme les pires méthodes de votes par les chercheurs, à commencer par le panel de 21 chercheurs que nous citions en introduction. Ces scrutins reflètent très mal les préférences de la majorité en étant encore plus sensibles au Spoiler effect et au vote utile tel que nous les avons décrits.

    La validité du dernier principe semble plus discutable. Pourquoi ne déposer qu’un nom dans l’urne ? Notre méthode de vote nous pousse à considérer que notre soutien pour un candidat vaut forcément désapprobation de tous les autres, alors que les enquêtes d’opinion démontrent au contraire la forte hésitation des électeurs entre plusieurs candidats5. De manière générale, dans tout autre contexte que les élections politiques, apporter notre soutien à une cause ne se fait pas en exclusion d’une autre. C’est pourtant de cette manière que nous votons pour les élections qui décident de l’avenir de la nation tout entière, en ne prenant aucunement en compte les préférences multiples des électeurs, parfois intensément indécis. C’est donc bien sur le principe de l’uninominalité qu’il faut agir.

    En somme, il faudrait (presque) que rien ne change pour que tout change : d’un vote uninominal majoritaire à deux tours, il s’agit simplement de passer à un scrutin plurinominal majoritaire à deux tours. Le déroulé du vote serait quasiment le même : se rendre dans notre bureau de vote, décliner notre identité, récupérer, plusieurs bulletins, se rendre dans l’isoloir et déposer plusieurs noms dans l’enveloppe, déposer cette dernière dans l’urne après signature et validation de l’identité. A voté.

    Communément, ce mode de scrutin est appelé « vote par approbation ». Comme pour notre système de vote actuel, on pourrait prendre le nombre de votes et le diviser par le nombre total de suffrages exprimés pour rendre compte du résultat en pourcentage. Ces pourcentages d’approbation additionnés dépasseraient probablement les 100 points de %, mais le principe de majorité reste le même : les deux candidats obtenant les % d’approbation le plus élevés peuvent passer au deuxième tour. Celui ou celle qui remporte au deuxième tour une majorité de suffrage l’emporte. Notons par ailleurs qu’un candidat pourrait être élu avec moins de 50% des suffrages, car le fait de ne déposer aucun nom dans l’urne peut être considéré comme une forme particulière de vote (« je n’approuve personne ») qui peut faire diminuer le pourcentage d’approbation des deux candidats (et donc du vainqueur également). Précisons enfin que, dans un scrutin plurinominal majoritaire, la réalisation en deux tours n’est pas vraiment nécessaire, et consisterait plutôt à rassurer les électeurs en ne bousculant pas trop leurs habitudes. En effet, le report de voix n’a plus de sens dans un mode de scrutin pour lequel il est déjà possible d’exprimer ses préférences pour plusieurs candidats.

    Le vote par approbation modifie très peu nos habitudes de vote, et à bien des égards, nous le pratiquons déjà : questionnaire à choix multiples, choix de dates, et Doodle en tous genres. Simple, instinctif même, mais pas seulement. Ce petit changement dans la manière de voter permet de résoudre les deux principaux problèmes de notre mode de scrutin actuel, à savoir le Spoiler effect et le vote utile qui empêche le vote de conviction.

    Petit changement, grandes vertus

    Le problème du Spoiler effect est tout entier contenu dans le fait qu’une candidature supplémentaire peut influencer la quantité de votes que peut en espérer une autre, d’autant plus si ces candidatures sont idéologiquement proches. Avec l’introduction de la plurinominalité, apporter son soutien à une candidature ne revient plus à le retirer d’une autre. D’une certaine manière les candidatures deviennent indépendantes les unes des autres.

    Il n’y a donc plus d’intérêt aussi décisif au fait de constituer une candidature unique, les possibilités de victoire ne dépendent plus d’un élément exogène à la préférence des électeurs mais bien d’un élément endogène, propre aux électeurs et non plus aux partis politiques. Par ailleurs, inutile désormais d’essayer de discréditer les candidatures des autres pour inciter les électeurs à voter spécifiquement pour la sienne, l’enjeu est de convaincre les électeurs de voter aussi pour la sienne, ce qui est une dynamique autrement plus saine.

    De manière plus claire encore, le problème du vote utile qui empêche le vote de conviction ne se pose plus. Chacun peut exprimer librement ses convictions en signifiant son approbation à ses candidats préférés, même si ceux-ci n’ont que très peu de chance de l’emporter, sans que cela ne change le résultat du vote.

    Ainsi, en jouant sur une seule dimension de notre mode de scrutin actuel, à savoir son caractère uninominal, nous en résolvons ses principaux problèmes. Certes, les informations que le vote par approbation permet de récolter sont parcellaires, contrairement à d’autres méthodes comme le vote majoritaire. Pour autant, il a le mérite de s’inscrire dans la continuité de notre système actuel, d’être simple, instinctif et donc acceptable. Mais au-delà de ses propriétés intrinsèques, le vote par approbation changerait le visage de la vie politique française, en en changeant les pratiques électorales et en permettant d’en clarifier l’analyse.

    Le vote par approbation : quelle transformation de la vie politique en attendre ?

    Pour nous inspirer, nous pouvons nous baser sur les résultats de nombreuses études, qui, en France, étudient depuis 20 ans les différents systèmes de vote et leurs conséquences sur notre démocratie. C’est notamment le cas de l’équipe du CNRS Voter Autrement qui, à chaque élection présidentielle, propose aux électeurs de plusieurs bureaux de vote de voter une deuxième fois selon d’autres modes de scrutin. Le vote par approbation a été testé et les résultats sont éclairants.
    Les expériences confirment que le vote par approbation est facile à prendre en main pour les électeurs. Par ailleurs, il est très bien compris (faible nombre de bulletins blancs) et les électeurs se saisissent des possibilités de ce mode de scrutin en « approuvant » en moyenne près de 3 candidats6.

    Il s’agit également de lutter contre les effets néfastes du scrutin uninominal, et faire en sorte d’élire le candidat le plus légitime démocratiquement, à savoir le vainqueur de Condorcet. Là aussi les expériences menées démontrent que c’est bien le cas. D’après les expériences menées en 2007, c’est bien François Bayrou qui aurait été élu avec ce mode de scrutin, avec un taux d’approbation de 50% contre 45% pour Nicolas Sarkozy (voir le tableau ci-dessous).

    Comment expliquer cette différence ? Le vote par approbation nous permet de déterminer le niveau de concentration électorale c’est-à-dire la capacité pour un candidat à attirer le vote des électeurs sans que ces derniers ne votent pour d’autres candidats. En 2007, la candidature de Nicolas Sarkozy témoigne de cette capacité, ces soutiens l’approuvent de manière presque inconditionnelle, sans songer à soutenir d’autres candidats. Pour autant, il n’attire que peu d’autres soutiens au-delà de ce socle de fidèles. Il en va de même pour Jean-Marie Le Pen. Une hypothèse peut-être formulée : cette « fidélité électorale » traduit une tradition du vote de droite, l’élection d’un chef, qui ne doit pas souffrir de concurrence. Cette tradition avantage ainsi largement les candidatures de droite dans notre système de vote actuel, qui dans le cadre de la Vème République, héritière des traditions gaulliste et bonapartiste, a précisément pour objet de faire émerger cette figure du chef. À l’inverse, le vote par approbation promeut une autre culture politique, qui laisse davantage la place au débat d’idées et au compromis.

    Ainsi, les expériences du vote par approbation modifient significativement le classement des candidatures. On le voit dans le tableau ci-dessus, pour les élections de 2007, Bayrou est premier, suivi de Sarkozy, Royal, Besancenot, Voynet et en 6ème position seulement : Jean-Marie Le Pen. En 2012, c’est François Hollande qui est premier suivi par François Bayrou, Jean-Luc Mélenchon, Nicolas Sarkozy, Eva Joly et en 6ème position, toujours une Le Pen7. Pour les élections de 2022, contrairement aux années précédentes, le podium reste inchangé mais l’adhésion à Jadot et Poutou est beaucoup plus élevée. On observe donc systématiquement que « les petits candidats » y sont mieux représentés, ce qui témoigne de l’intérêt des électeurs pour leurs thématiques. De fait, les enquêtes d’opinion nous indiquent bien que parmi les grandes crises que traverse la France, c’est bien la crise sociale qui est la plus importante (46%) et la crise environnementale (30%), largement devant la crise identitaire (24%)8. Là encore, le vote par approbation permet de mieux rendre compte des préoccupations des Français, tandis que le scrutin uninominal érige Eric Zemmour en 4ème homme des élections de 2022.

    Au-delà des changements que le vote par approbation entraînerait sur les résultats des élections, cette méthode permettrait surtout de mieux en comprendre la signification. D’abord, car le vote par approbation permet, naturellement, de prendre en compte un type de vote qu’à l’inverse le vote uninominal éclipse mécaniquement : le vote blanc. En effet, avec cette méthode le fait de déposer une enveloppe vide dans l’urne est bien pris en compte en contribuant à diminuer le taux d’approbation de chacun des candidats. Ce faisant, cela nous permet d’évaluer plus justement le niveau de légitimité du président élu, qui ne peut plus bénéficier au second tour d’une majorité absolue automatique, ou bénéficier au premier tour d’un vote utile pour contrer un concurrent clivant. Le scrutin uninominal a ainsi permis à Emmanuel Macron de récolter 58% de suffrages artificiels, sans que le taux d’abstention ou le vote blanc ne puisse entamer officiellement cette légitimité de façade. Encore aujourd’hui, il nous est impossible de déterminer objectivement les suffrages relevant du vote de conviction de ceux consécutifs au rejet de l’extrême droite, forçant ainsi les commentateurs de tous bords à spéculer sur le sens de ce vote pourtant crucial.

    En second lieu, l’analyse des approbations des électeurs permet d’évaluer comment ces derniers associent implicitement les candidats entre eux. En d’autres termes, le vote par approbation nous autorise à déterminer l’axe politique le plus pertinent pour comprendre le vote des électeurs. Avec cette méthode, il serait possible de répondre à l’une des questions permanentes de la politique française : le clivage gauche-droite est-il mort ? En 2012, la réponse était négative. La dernière étude en date, fondée sur le vote par approbation, fait émerger un banal axe gauche-droite (voir figure ci-dessous). L’analyse est à actualiser, et il est bien possible que cet axe ne soit plus pertinent, pour autant elle a l’avantage d’offrir une réponse scientifique à une question à laquelle on répond davantage à partir de critères idéologiques afin de légitimer un agenda politique.

    Le scrutin uninominal conduit donc à des résultats pour une large part inexploitables pour l’analyse, qui nous condamne à les interpréter subjectivement ou à compenser ses insuffisances intrinsèques par l’usage de sondages à la méthodologie parfois douteuse. À l’inverse le vote par approbation nous permettrait d’obtenir des informations claires sur l’état des forces politiques à un instant donné, et ainsi nous permettre de substituer aux bavardages des commentateurs, la rigueur d’une analyse scientifique.

    Changer notre mode de scrutin constitue dès lors une condition nécessaire pour accorder une légitimité démocratique à nos élections. Nécessaire, certes, mais pas suffisante. Un juste scrutin ne constitue que le dernier jalon d’un ensemble de conditions préalables : indépendance des médias pour une information de qualité, financement public massif des partis et des campagnes politiques, garantie de la représentativité des élus… En somme, assurer ainsi la représentation des intérêts des citoyens, et contribuer à les réconcilier avec une forme particulière de démocratie.

    [1] Larousserie, D. (2012, 6 avril). Le vote par approbation. Le Monde.frhttps://www.lemonde.fr/sciences/article/2012/04/06/le-vote-par-approbation_1681234_1650684.html

    [2] Le Monde. (2002, 27 février). Deux sondages donnent Lionel Jospin favori. Le Monde.fr. https://www.lemonde.fr/archives/article/2002/02/27/deux-sondages-donnent-lionel-jospin-favori_264485_1819218.html

    [3] Liberation.fr (2007, 19 février). Sondage : au second tour, Bayrou gagnerait face à Sarkozy ou Royal. Libérationhttps://www.liberation.fr/france/2007/02/19/sondage-au-second-tour-bayrou-gagnerait-face-a-sarkozy-ou-royal_12708/

    [4] Et n’a pas manqué d’être moqué : 

    Birken, M. (2022, 31 janvier). Les résultats de la primaire populaire valent le détour(nement). Le HuffPosthttps://www.huffingtonpost.fr/entry/resultats-primaire-populaire-valent-le-detournement_fr_61f790c7e4b04f9a12bf3bc4

    [5] Sciences Po CEVIPOF, Fondation Jean Jaurès, Le Monde, Ipsos, & Sopra Steria. (2022, avril). Enquête électorale française (ENEF) 2022https://www.sciencespo.fr/cevipof/sites/sciencespo.fr.cevipof/files/EnEF%202022-Vague%209.pdf. p.33

    [6] Baujard, A., Gavrel, F., Igersheim, H., Laslier, J. F., & Lebon, I. (2013). Vote par approbation, vote par note. Revue économique, Vol. 64(2), 345‑356. https://doi.org/10.3917/reco.642.0006

    [7] Baujard, A., Gavrel, F., Igersheim, H., Laslier, J. F., & Lebon, I. (2013). Vote par approbation, vote par note. Revue économique, Vol. 64(2), 345‑356. https://doi.org/10.3917/reco.642.0006

    [8] Sciences Po CEVIPOF, Fondation Jean Jaurès, Le Monde, Ipsos, & Sopra Steria. (2022, avril). Enquête électorale française (ENEF) 2022https://www.sciencespo.fr/cevipof/sites/sciencespo.fr.cevipof/files/EnEF%202022-Vague%209.pdf. p.9

    Le verdissement de la BCE entravé par les règles européennes

    Le siège de la Banque Centrale Européenne à Francfort (Allemagne). © Charlotte Venema

    Sécheresses historiques, canicules, inondations, déplacement des populations… 2022 est l’année de tous les records en ce qui concerne le changement climatique. Ces événements sont souvent dénoncés comme étant le fruit d’un manque d’engagement des gouvernements. Si ce constat est irréfutable, il ne doit pas éclipser l’impact des banques centrales, chargées de réguler la quantité de monnaie qui circule dans l’économie. Loin d’être anodine, cette mission exerce une influence majeure sur la capacité de production et de consommation – et de pollution -, mais aussi sur les niveaux de richesse.

    Consciente du risque que représente la menace climatique tant pour l’humanité que pour l’économie et le secteur bancaire, la Banque centrale européenne (BCE), tente de verdir sa politique monétaire depuis plusieurs années. Le 4 juillet dernier, elle a notamment décidé de mettre en place de nouvelles mesures pour y parvenir. Si ces différentes actions permettent de la hisser en tête des banques centrales les plus investies, la menace grandissante d’une crise financière alimentée par une politique monétaire continuellement accommodante pourrait néanmoins venir compromettre la faisabilité de ses ambitions climatiques. Pour réduire les risques, s’accorder avec ses engagements, soutenir l’objectif de réduction des émissions de carbone de l’Union Européenne, et même inciter les autres banques centrales à verdir leur politique monétaire, la BCE doit s’éloigner de son dogmatisme et exploiter de nouveaux leviers.

    Le réchauffement climatique, une menace pour le secteur financier ?

    L’attention des banques centrales accordée aux enjeux climatiques est récente. En 2017, plusieurs institutions monétaires de la zone euro fondent – au côté de la Banque d’Angleterre -, le NGFS (Network for Greening the Financial System), un réseau visant à élaborer des recommandations sur le rôle des banques centrales en matière de changement climatique. L’ensemble de l’Eurosystème y a ensuite adhéré, tout comme la Réserve fédérale américaine et la Banque populaire de Chine. 

    En janvier 2020, la BCE lance une « révision stratégique » où elle décide notamment d’examiner la manière dont elle pourrait inclure les enjeux climatiques à son mandat. Depuis sa création en juin 1998, l’institution de Francfort est guidée par différentes règles structurantes dont la plus importante est la stabilité des prix, à travers un objectif d’inflation de 2% par an. Du fait de ce mandat, la plupart des mesures prises ces dernières années ont consisté à estimer le risque que peut engendrer le réchauffement climatique sur l’économie et le secteur financier européen, plutôt que d’agir par le biais de la politique monétaire.

    Dans cette perspective, elle publie en septembre 2021 un test de résistance où elle évalue les conséquences d’un scénario d’inaction climatique sur de nombreuses entreprises et près de 1.600 banques européennes. Pour compléter ce travail, elle démarre en janvier 2022 un nouveau test de résistance prudentiel permettant de mesurer la capacité des banques à absorber les conséquences financières liées aux risques physiques, tels que la chaleur, les sécheresses et les inondations…

    Les résultats de ces différentes études sont sans appel : l’Eurosystème est peu préparé au réchauffement climatique. Sans de profonds changements, le PIB et la stabilité de la zone euro seront affectés, d’autant que le risque est inégalement réparti – certaines régions étant plus exposées que d’autres. D’un point de vue financier, le changement climatique constitue un enjeu majeur car la plupart des banques n’ont pas de dispositif adéquat de gestion des risques climatiques et ne prennent pas en compte ce facteur dans leurs activités de crédit.

    Sans de profonds changements, le PIB et la stabilité de la zone euro seront affectés, d’autant que le risque est inégalement réparti.

    Cette impréparation présente un risque bancaire. Comme le démontre une étude de l’Institut Rousseau, ou encore l’ancien gouverneur de la Banque d’Angleterre, Mark Carney, les actifs adossés à des énergies fossiles sont susceptibles de devenir des « actifs échoués » (stranded assets) à mesure que les décisions politiques suspendent l’utilisation de ce type d’énergie (pétrole, charbon, gaz). Étant donné que ces investissements représentent, en termes de stock, l’équivalent de 95% des fonds propres de chacune des onze principales banques européennes, et qu’ils figurent fréquemment dans les échanges de garanties servant à couvrir le risque de crédit lors d’opérations financières (collatéraux), la perte de valeur de ces actifs pourrait fortement et soudainement affecter le secteur bancaire. D’autant que la BCE a seulement l’intention de verdir ces collatéraux « d’ici 2024 », et après « différents tests. »

    En plus de cette menace persistante, la surexposition des institutions financières à l’égard des énergies fossiles les condamnent à subir des pertes face à tout type de dérèglement climatique. En juillet dernier, la BCE a notamment déclaré que 41 grandes banques de la zone euro pourraient perdre l’équivalent de 70 milliards d’euros en cas de sévère remontée des températures.

    Si ce chiffre semble faible au regard du bilan des banques (tout comme pourrait le paraître d’autres estimations), les pertes potentielles sont souvent sous-estimées. En effet, les données disponibles sont rares car la modélisation d’événements climatiques est une tâche herculéenne et imparfaite. Identifier l’exposition totale des institutions financières aux risques climatiques est ainsi extrêmement compliqué, si ce n’est impossible.

    Le mandat de la BCE remis en cause ?

    D’ores-et-déjà, la crise climatique exerce une influence sur le système monétaire et financier. Alors que l’inflation ne cesse de progresser et atteint désormais 9.1% en août dans la zone euro, la rareté grandissante des énergies fossiles et la multiplication des catastrophes climatiques (sécheresses, inondations, pénuries…) contribuent à la spirale inflationniste.

    Dans ce contexte, le mandat de la BCE devient alors, lui aussi, directement exposé à un scénario d’inaction ou d’anticipation jugée trop tardive. À ce titre, Isabel Schnabel et Frank Elderson – deux banquiers centraux de la BCE – ont récemment déclaré : « De par ses effets directs sur la stabilité des prix, le changement climatique est au cœur de la mission principale de la BCE. »

    En reconnaissant l’impact du changement climatique sur l’inflation – notamment du fait des pénuries ainsi créées – la BCE admet qu’il doit être pris en compte dans l’élaboration de ses politiques, car il remet en cause son objectif primordial. Une condition vraisemblablement indispensable pour passer outre les traités européens, bien que la menace existentielle du réchauffement climatique soit connue déjà depuis plusieurs décennies.

    Orienter les investissements privés

    La BCE a donc décidé de franchir un nouveau cap le 4 juillet dernier en déclarant que tous ses nouveaux achats d’actifs de multinationales seront, à compter d’octobre 2022, soumis à des critères environnementaux. Plus récemment, elle a fait savoir dans un communiqué que ces critères correspondent aux émissions de carbone de l’entreprise, ses ambitions climatiques et la transparence de son reporting.

    Si la portée de cette mesure est minime – les obligations d’entreprises représentent moins de 12% du bilan de la BCE, composé très majoritairement de titres de dettes publiques -, elle reste inédite car elle montre un signe de détachement face à l’obsession de neutralité de marché. (Ce principe cardinal implique que la politique monétaire ne peut cibler spécifiquement une entreprise ou un secteur afin de ne pas introduire de distorsions sur les marchés). En agissant ainsi, la banque centrale reconnaît donc le besoin de s’éloigner de certaines règles devenues contraignantes face à la nécessité d’agir en faveur du climat.

    Dans le cadre des traités actuels, il sera toutefois difficile pour la BCE d’aller plus loin. Mener une politique climatique véritablement ambitieuse impliquerait notamment de réformer ou d’abroger les articles 123 et 130 du TFUE (Traité sur le fonctionnement de l’Union européenne) à des fins d’investissements écologiques.

    Mais au-delà d’une intervention sur le marché secondaire, qui encourage la BCE à poursuivre sa politique de « fuite en avant », l’institution de Francfort pourrait agir sur son taux de refinancement. Une banque qui continue d’investir massivement dans des projets liés aux énergies fossiles serait ainsi pénalisée par un taux d’intérêt plus élevé, tandis qu’une institution qui œuvre en faveur du climat disposerait d’un taux plus accommodant. Un taux à intérêt négatif pourrait même être appliqué pour les entreprises les plus engagées, afin d’inciter l’investissement en faveur de la transition écologique.

    Dans le même temps, comme le propose notamment l’économiste Jézabel Couppey-Soubeyran, des « TLTRO verts » pourraient être créés, c’est-à-dire des opérations de refinancement à long terme permettant aux banques de prêter à des coûts avantageux aux entreprises et aux ménages européens. Une mesure qui aurait la double efficacité de s’inscrire dans le temps long, ce que requiert la cause climatique, et de distribuer des crédits productifs, ce qui n’est pas inflationniste. Néanmoins, ces facilités de prêts doivent être conditionnées à une politique d’engagement climatique extrêmement rigoureuse de la part du débiteur. La banque centrale devra s’assurer que ces crédits verts se dirigent vers des banques, entreprises et ménages dont les projets sont alignés sur les Accords de Paris. L’efficience de cette mesure réside dans cette intransigeance.

    Financer directement les États : le débat interdit

    Dans le cadre des traités actuels, il sera toutefois difficile pour la BCE d’aller plus loin. Mener une politique climatique véritablement ambitieuse impliquerait notamment de réformer ou d’abroger les articles 123 et 130 du TFUE (Traité sur le fonctionnement de l’Union européenne) à des fins d’investissements écologiques. Le premier article condamne les pays de la zone euro à emprunter sur les marchés financiers plutôt que de se financer auprès de leur banque centrale nationale, tandis que le second pose le principe de l’indépendance des banques centrales. Or, étant donné les besoins et l’importance de l’enjeu, pouvoir directement financer les États et laisser interagir ces derniers avec la politique climatique de la BCE s’avère être un impératif. Ainsi, revenir sur ces deux articles permettrait de créer un policy mix vert à fort impact, c’est-à-dire une combinaison optimale entre la politique budgétaire et la politique monétaire autour des enjeux climatiques. La question de savoir si une telle réforme des traités européens serait possible sans dissolution de l’Union européenne reste ouverte.

    Étant donné les besoins et l’importance de l’enjeu, pouvoir directement financer les États et laisser interagir ces derniers avec la politique climatique de la BCE s’avère être un impératif.

    D’autres solutions en matière monétaire existent, comme l’injection monétaire libre de dettes (en contrepartie d’investissements écologiques). Injecter de la monnaie libre de dettes permet d’éviter à ce que la création monétaire soit vectrice de cycles, source de crises économiques, sociales et écologiques. Concrètement, de la monnaie serait émise – en quantité limitée – par les différentes banques centrales et serait allouée aux gouvernements selon leurs besoins. Néanmoins, pour éviter toute perte et inégalité de répartition, les sommes versées devront faire l’objet d’un reporting climatique strict et continu. Cette mesure permettrait de soutenir la transition écologique. Ici encore, elle se heurte au mur du droit européen : le Pacte de stabilité exige notamment que la dette publique n’excède pas 60% du PIB (règle devenue désuète par sa transgression généralisée, mais que l’Allemagne entend bien ré-imposer au continent tout entier)…

    NDLR : Lire à ce sujet sur LVSL l’entretien de Pierre Gilbert avec Nicolas Dufrêne et Alain Grandjean « Faire de la monnaie une arme pour la reconstruction écologique ».

    Ce levier décisif qu’est l’injection monétaire libre de dettes peut être appliqué sur les banques publiques d’investissement et notamment la BEI – Banque Européenne d’Investissement – qui continue de se financer sur les marchés financiers à défaut de détenir le pouvoir de création monétaire. Proposée par Alain Grandjean et Nicolas Dufrêne dans le livre Une monnaie écologique, cette mesure permettrait de soutenir l’institution européenne dont l’objectif est de « prêter dans le but de soutenir la croissance durable et la création d’emplois. »

    Alors que la hausse de l’inflation, l’augmentation des taux d’intérêts, la guerre en Ukraine, et la crise énergétique affectent les pays européens à des degrés différents, abroger les articles 123 et 130 du TFUE (et récuser ce dernier si sa réforme s’avère impossible) s’avère un impératif de premier ordre, du fait de l’urgence climatique comme de l’imminence d’une nouvelle crise des dettes souveraines…