Neutralité carbone et libéralisation ferroviaire : aux origines de la schizophrénie

SNCF Union européenne écologie - Le Vent Se Lève

D’ici 2050, l’Union européenne vise la neutralité carbone. D’ici 2050, l’Union européenne vise également l’ouverture à la concurrence dans le domaine du ferroviaire. Depuis des décennies, elle exerce une pression croissante sur l’État français pour qu’il mette à bas le monopole de la SNCF. Dans La révolution ratée du transport ferroviaire au XXIe siècle (Le bord de l’eau, 2024), Chloé Petat, co-rédactrice en chef du média Le temps des ruptures, analyse ce processus et met en évidence son incompatibilité avec la transition écologique. Extrait.

Le fret, levier incontournable de la transition écologique

L’Union européenne et la France se sont fixés d’importants objectifs de réduction des gaz à effet de serre : pour la France, atteindre la neutralité carbone en 2050 avec une réduction de 37,5% de ses émissions d’ici 2030. L’Union européenne, quant à elle, avec le plan « Ajustement à l’objectif 55 » souhaite réduire de 55% ses émissions de gaz à effet de serre d’ici 2030 par rapport aux niveaux de 1990. Elle va même plus loin dans le Green Deal avec un objectif de fin des émissions nettes de gaz à effet de serre d’ici 2050. L’Union européenne souhaite devenir le « premier continent neutre pour le climat ».  

Pour ce faire, l’Union se fixe plusieurs objectifs de réduction dans un certain nombre de secteurs. Les transports, qui représentent aujourd’hui 30% des émissions de gaz à effet de serre au niveau mondial, sont forcément dans son viseur : « la décarbonation du secteur des transports est essentielle pour atteindre les objectifs climatiques de l’Union européenne ». Parmi les différents transports, toujours au niveau national, 72% des émissions sont attribuables au transport routier, alors que le transport ferroviaire n’est responsable que de 1% des émissions totales.

En effet, en comparaison, un TGV émet cinquante fois moins de CO² par kilomètre que la voiture, vingt-cinq fois moins qu’en covoiturage et huit fois moins qu’en bus. Un train de fret émet dix fois moins de CO² par kilomètre que le nombre de poids lourds nécessaire pour transporter le même total de marchandises. Toutefois, les trains roulant majoritairement à l’électricité, les émissions dépendent fortement du mix énergétique du pays et de sa décarbonation.

La Commission européenne a ouvert en janvier 2023 une procédure d’examen à l’encontre de Fret SNCF. L’entreprise est accusée d’avoir bénéficié d’aides financières de l’Etat, en violation de l’article 107 du TFUE

Du fait de son faible impact écologique, l’Union s’est fixé comme objectif d’augmenter, voire de doubler la part modale actuelle du transport ferroviaire. Cet objectif est nécessaire pour permettre les mobilités tout en réduisant leur impact écologique. Pour autant, l’Union et la France ne se donnent pas réellement les moyens de réduire les émissions dans le secteur des transports. 

Au-delà de ses impacts climatiques, le transport routier est source de nombreuses externalités négatives dont la collectivité paie le coût : bruits, pollution, accidents routiers, embouteillages etc. Selon l’Alliance 4F, groupement qui réunit les acteurs du fret ferroviaire, sur la période 2021-2040, ces externalités coûteront entre 16 et 30 milliards d’euros. En Europe, ce coût est estimé à 987 milliards par an, dont 19% est imputable au transport de marchandises. Il faut aussi mentionner la destruction des surfaces agricoles, pour pouvoir y réaliser des infrastructures routières : le réseau ferroviaire occupe 2% des surfaces de transport, quand la route en occupe 70% au niveau européen. 

Autre élément majeur à prendre en compte : la consommation d’énergie. Nous vivons dans une société où le coût de l’énergie ne cesse d’augmenter, comme en témoignent les augmentations successives auxquelles nous faisons face depuis plusieurs années. Nous devons également, dans une perspective écologique, réduire notre dépendance aux énergies fossiles. 

Le secteur des transports est très énergivore, surtout le transport routier : pour un kilogramme équivalent pétrole, un camion peut transporter une tonne de marchandises sur 50 kilomètres, alors que le ferroviaire peut en transporter 130. En effet, le train dispose d’une capacité de transport plus importante, et le réseau français est majoritairement électrifié. Un nouvel avantage du ferroviaire, vers lequel nous devons tendre : l’électrification des secteurs, grâce à un mix énergétique décarboné, permettrait une réduction importante de l’impact carbone, et de la dépendance aux énergies fossiles. Pour autant, il faudra paradoxalement produire davantage d’énergie : il faut donc pouvoir adopter le bon mix énergétique en réduisant la part des énergies fossiles, tout en capitalisant, augmentant à la fois la part de l’énergie nucléaire et des énergies renouvelables, en adéquation avec les besoins réels. 

Aux origines du démantèlement

Un autre scénario serait de réduire nos déplacements, réduisant ainsi les émissions de gaz à effet de serre liées aux transports. Cette option est utopique. Même si les déplacements des pays occidentaux se réduisaient, nous ne pourrions empêcher la mobilité croissante des autres pays du monde, notamment ceux en développement. Cela semble d’autant plus utopique au regard des prévisions démographiques : le Conseil général des Ponts et Chaussées indique qu’un Français parcourait 14 000 kilomètres par an en 2000, et 20 000 en 2050. Comment conjuguer l’augmentation de la demande de transports et nos objectifs de réduction de gaz à effet de serre ? Dans le secteur des transports, le ferroviaire est le meilleur candidat.

Depuis les années 1950, alors qu’elle était majoritaire, la part modale du fret ferroviaire dans le total des échanges de marchandises n’a fait que baisser en France et en Europe. L’ouverture à la concurrence, effective totalement depuis 2005/2006, n’a fait qu’accentuer ce déclin, contrairement aux tendres rêveries de nos dirigeants français et européens. 

Aujourd’hui, le bilan est sans appel : c’est un fiasco et la part modale du transport de marchandises par train est de 9% contre 89% pour la route. 

Pire, Fret SNCF est aujourd’hui accusé par la Commission européenne d’avoir bénéficié de subventions allant à l’encontre du principe de la concurrence libre et non faussée. Afin de la satisfaire, Clément Beaune a annoncé en mai 2023 la prochaine réforme de Fret SNCF1, qui va lui porter un coup de grâce et causer la banqueroute de notre entreprise nationale, synonyme également de plus de camions sur la route. 

L’Union souhaite que la part modale du fret atteigne 30% d’ici la fin de la décennie en cours : c’est effectivement ce qu’il faut viser, mais la stratégie de l’Union européenne pour y arriver est inadaptée. Il faut se rendre à l’évidence : aucune des réformes de ces vingt dernières années n’est allée dans ce sens. A commencer par l’ouverture à la concurrence du fret, bien que présentée comme une solution miracle par l’Union européenne. 

Le fret se rapproche du ravin

La Commission européenne a ouvert en janvier 2023 une procédure d’examen à l’encontre de Fret SNCF. L’entreprise est accusée d’avoir bénéficié d’aides financières de l’Etat français allant à l’encontre du principe de la libre-concurrence en ne respectant pas l’article 107 du TFUE : on parle de l’annulation de la dette de l’entreprises en 2019, d’un montant d’environ 5 milliards d’euros, ou encore de sommes versées en 2019 pour permettre la recapitalisation de l’entreprise. D’autres entreprises ferroviaires, comme la DB Cargo, filiale de la DB, sont aussi dans le viseur de la Commission. Le verdict n’a, en date de mai 2024, pas encore été rendu2

Comment l’Union européenne peut-elle se donner de tels objectifs de réduction de gaz à effet de serre dans le domaine des transports, tout en lançant des enquêtes, dont les sanctions aboutissent au démantèlement du fret et à un report modal énorme vers le routier ? 

Pour faire passer la pilule à la Commission, le gouvernement en la personne de l’ancien ministre délégué des Transports, Clément Beaune, a annoncé un grand plan de refonte de Fret SNCF. Un plan qui est censé, encore une fois, rendre ses titres de noblesse à l’entreprise. Quand on analyse son contenu, on se rend compte qu’il va plutôt contribuer à pousser Fret SNCF dans le ravin, qui n’en est d’ailleurs pas très loin. Ce plan n’est rien d’autre qu’un coup de massue. 

L’idée principale est de diviser Fret SNCF en deux entités, une en charge de la gestion du trafic, l’autre de la maintenance des matériels, rassemblées dans un groupe holding (Rail Logistics Europe) mais toujours rattachées à la maison-mère SNCF. Le capital de l’entreprise serait également ouvert à des acteurs privés, bien que la proportion n’ait pas été communiquée. Pour la gestion du trafic, encore faut-il que cette société puisse se coordonner avec SNCF Réseau, responsable de l’allocation des sillons. Le plan reste flou sur la répartition exacte des missions. 

Enfin, autre élément majeur du plan : il propose de déposséder Fret SNCF de ses activités les plus importantes et rentables financièrement. Au total, 23 des lignes les plus rentables que l’entreprise exploite aujourd’hui seraient ouvertes obligatoirement à la concurrence. La nouvelle entreprise « new fret » ne pourrait pas candidater aux appels d’offres pour ces lignes pendant 10 ans. Ces flux représentent plus de 100 millions d’euros et permettent à Fret SNCF de garder aujourd’hui la tête hors de l’eau. Les employés seraient les premiers à en subir les conséquences, du fait des réduction d’emplois et des réallocations des travailleurs vers les sociétés privées. 

Comment Fret SNCF peut-il survivre à une telle réforme ? C’est tout à fait impensable, l’entreprise n’étant déjà pas viable financièrement. 

Le rapport de la commission d’enquête du Sénat publié en 2023, précédemment cité, dénonce fortement ce plan, qui n’empêchera d’ailleurs pas la Commission de prendre des mesures pénalisantes, lorsqu’elle aura rendu les conclusions de son enquête. Le souhait du gouvernement de développer la part modale du transport ferroviaire d’ici 2030 semble encore davantage un horizon inatteignable. […]

D’autres solutions s’offrent à nous. Face au libéralisme à toute épreuve, nous devons faire preuve de pragmatisme et penser de nouvelles réformes ambitieuses, au risque de voir le secteur ferroviaire s’effondrer. Pour répondre aux grands enjeux de notre temps : la transition écologique, le désenclavement des territoires, la réduction du coût des transports pour les foyers, ou encore le respect du droit aux vacances et à l’accès aux mobilités. La France et l’Union européenne doivent changer de cap. Des solutions existent : coûteuses oui, mais ce sont des investissements à amortir sur le long terme et qui seront suivis d’effets considérables pour la collectivité en matière écologique. Ce livre propose de nombreuses solutions, qui sont à notre portée : il ne reste plus qu’à.

Notes :

1 Cette réforme va finalement entrer en vigueur en janvier 2025.

2 Cette réforme va entrer en vigueur en janvier 2025 et va séparer FRET SNCF en 2 entités, et ouvrir à la concurrence 23 de ses flux les plus rentables.

Géothermie : intérêt général et capitalistes s’affrontent pour contrôler le nouvel or bleu

Forage géothermique à Orly. © Alain Bachellier

Depuis une décennie, la hausse continue du prix du gaz et du pétrole fait connaître à la filière de la géothermie profonde un regain de dynamisme certain. En Île-de-France, ce sont en effet des dizaines de projets de forages qui voient le jour, dans une région particulièrement propice au développement de la géothermie profonde. Ce nouvel essor n’a rien d’un hasard, et aiguise l’appétit des grands groupes énergétiques privés et publics. Une bataille sans merci entre intérêt général et entreprises capitalistes pour s’accaparer cette ressource d’un nouveau genre est en train de s’ouvrir. Et ce conflit a lieu sous vos pieds. 

C’est un manège qui commence à devenir familier aux yeux de nombreux Franciliens. Du jour au lendemain, un terrain vague, d’un peu moins d’un hectare, devient en quelques jours le lieu d’une activité fourmillante. Le terrain est délimité, des barrières sont installées, une base-vie est établie. Des relevés topographiques sont réalisés, de nombreux camions s’installent et une large dalle en béton est coulée. Toute cette phase préparatoire permet alors d’accueillir un véritable mastodonte technologique : une machine de forage profond. C’est ce bijou technologique qui doit permettre d’accéder au nouvel or bleu de nos sous-sols, plus prisé que le pétrole : une eau à près de 80°C et située à plus de 1000 mètres sous nos pieds. 

Cette eau à haute température a vocation à alimenter en chaleur renouvelable des réseaux de chaleur, pour in fine chauffer des milliers de logements. L’exploitation de la ressource en eau chaude captée dans le sol n’est pas nouvelle. Dès l’Antiquité, de premiers usages de sources d’eau chaude pour chauffer des logements sont attestés, en Chine comme au sein de l’Empire romain. De même, en France, à Chaudes-Aigues, un réseau géothermique, partagé parmi les habitants, a été mis en place dès 1332, desservant une quarantaine de logements. Un système de canalisations partageait la chaleur suivant la taille de la maison. Ce chauffage était gratuit pour les habitants mais ils devaient cependant se charger de l’entretien (détartrage) des conduites. De premiers usages industriels sont attestés aux Etats-Unis au tournant du XIXème et du XXème siècle, notamment pour alimenter le premier hôtel chauffé en géothermie.

Dans les années 1970, le krach pétrolier conduit à une première vague de développement industriel des réseaux de chaleur, avec 60 réseaux de chaleur sur l’ensemble du territoire français. Plusieurs fermeront en raison notamment de la baisse du prix du gaz et du pétrole suite au contre-choc pétrolier. Depuis une décennie, la hausse continue du prix du gaz et du pétrole fait connaître à la filière un regain de dynamisme certain. En Île-de-France, ce sont en effet des dizaines de projets de forages qui voient le jour, dans une région particulièrement propice au développement de la géothermie profonde. Un potentiel qui aiguise l’appétit des grands groupes énergétiques privés et publics. 

La géothermie, un outil-clé de décarbonation de notre chauffage

Revenons rapidement sur le fonctionnement d’un réseau de chaleur. De nombreuses villes en France sont équipées d’un tel réseau qui amène de l’eau chaude pour le chauffage et l’eau chaude sanitaire par l’intermédiaire de vastes circuits de tuyaux jusqu’au pied des immeubles raccordés. Cette eau peut être chauffée par de nombreux moyens : par la combustion d’énergies fossiles (fioul, gaz, charbon) ou de résidus de biomasse (chaufferies-bois ou biomasse), en brûlant nos déchets ménagers, ce qui fournit par exemple 50% de l’énergie du réseau de chaleur parisien, ou en récupérant de la chaleur fatale (chaleur issue de processus industriels comme des blanchisseries, des data centers, qui serait perdue si non utilisée). 

Mais c’est encore mieux quand l’eau est déjà chaude ou qu’il suffit de la réchauffer légèrement ; c’est le principe de la géothermie profonde. Un réseau de chaleur à base de géothermie profonde exploite la chaleur naturelle du sous-sol à plusieurs kilomètres de profondeur. Des forages permettent de capter de l’eau chaude ou de la vapeur à haute température qui après avoir cédé sa chaleur est réinjectée dans le sous-sol. Ainsi, en Île-de-France, il est possible d’exploiter un aquifère particulier, le Dogger, situé entre 1200 et 1600 m de profondeur, où l’eau est disponible entre 60° et 80°. Si d’autres couches géologiques sont aussi à l’étude, comme le Trias à près de 2 km de profondeur ou le Lusitanien, aux alentours de 800m, c’est bien la couche du Dogger qui fait l’objet d’une exploitation accrue sur un périmètre allant de Cergy à Grigny, de Chelles à Versailles, voire au-delà. Ainsi, la chaleur géothermale permet de fournir une énergie décarbonée, renouvelable et disponible tout le temps, été comme hiver. En outre, son caractère local permet de décorréler son prix de l’évolution mondiale des prix de l’énergie et surtout du gaz.

La hausse continue du prix du gaz et de l’électricité rend les réseaux de chaleur compétitifs et économiquement intéressants pour des opérateurs industriels sur le long terme.

Cet attrait nouveau pour la géothermie s’explique principalement pour deux raisons. D’une part, la hausse continue du prix du gaz et de l’électricité rend les réseaux de chaleur compétitifs et économiquement intéressants pour des opérateurs industriels sur le long terme. Si l’énergie des profondeurs de la terre est en effet gratuite, la récupérer suppose des investissements considérables, rentables seulement au bout de plusieurs décennies. Un « doublet géothermique » connecté au Dogger, c’est-à-dire un puits d’injection et un second pour récupérer l’eau chaude, peut ainsi coûter une quinzaine de millions d’euros.

D’autre part, le recours à la géothermie est fortement encouragé par les pouvoirs publics. La loi relative à la transition énergétique pour la croissance verte (LTECV) prévoit, d’ici à 2030, la multiplication par cinq de la quantité de chaleur et de froid renouvelable et de récupération livrée par les réseaux. Ainsi, la programmation pluriannuelle de l’énergie (PPE) prévoyait de passer de 1,18 TWh de chaleur géothermale en 2017 à 5,2 TWh en 2028 (x4,5). C’est une des énergies vertes qui doit permettre à la France d’atteindre ses objectifs en matière de renouvelables – objectifs pour lesquels elle accuse un retard certain – et de remplacer les chaudières au gaz ou au fioul, principalement en milieu urbain. 

De nombreuses aides financières sont accordées aux porteurs de projets par l’intermédiaire du « Fonds Chaleur » de l’ADEME (820M€ de fonds chaque année, notamment pour le développement de la géothermie) et l’Etat contribue très fortement au « derisking » des projets de géothermie, visant à réduire l’incertitude et le risque portant sur ces investissements, pour inciter les acteurs privés à développer des réseaux… et à réaliser des profits.

Tensions autour du partage de la ressource

Son caractère local, renouvelable et bas-carbone fait en conséquence de la géothermie une énergie de demain, à laquelle on peut prédire un avenir radieux. Toutefois, ses modalités de développement incontrôlées soulèvent de nombreuses interrogations, et l’exemple des projets franciliens est riche d’enseignements. Tout d’abord, la création de réseaux de chaleur est une compétence confiée historiquement par la loi aux communes, qui peuvent ensuite transférer cette compétence à leur intercommunalité ou bien à un groupement de collectivités comme un syndicat d’énergie. Pourtant, les communes et les intercommunalités ne disposent que très rarement des capacités financières, techniques ou encore juridiques pour assurer seules le portage de ce type de projets. A titre indicatif, le développement d’un réseau de chaleur géothermique pour alimenter 5 à 10.000 logements nécessite un investissement initial de l’ordre de 40 à 80 millions d’euros.

Ainsi, dans la très grande majorité des cas, les collectivités sont démarchées par des industriels énergétiques aux capacités financières solides. En Île-de-France, quatre acteurs majeurs se partagent le marché : Engie, Dalkia (filiale d’EDF), Coriance (propriété de la Caisse des dépôts à 49%) et Idex. Ces groupes proposent aux collectivités de s’associer dans le cadre de structures partagées comme des sociétés d’économies mixtes (SEM) ou des sociétés par actions simplifiées dédiées aux EnR (SAS EnR). Quand ils le peuvent, les acteurs privés vont jusqu’à tenter de négocier de fructueuses délégations de service public (DSP). Lorsqu’elles s’associent avec les collectivités, les entreprises privées peuvent être amenées à mener pour le compte des communes de nombreuses études, ainsi qu’à réaliser les lourdes démarches juridiques nécessaires aux forages et à l’exploitation du réseau. 

43 installations de géothermie profonde sont actives en Île-de-France et des dizaines de projets sont à l’étude, entraînant le dépôt de nouvelles demandes de permis exclusif de recherche, susceptibles de multiplier les frictions.

Notons que le sous-sol est la propriété de l’Etat et que de telles opérations dépendent du code minier. Toute opération de recherche dans le sous-sol doit en conséquence faire l’objet d’une autorisation préfectorale ou ministérielle selon l’ampleur du projet. L’Etat, après analyse des dossiers, généralement déposés par des grands groupes pour le compte de collectivités, peut octroyer alors dans un premier temps une autorisation de recherche ou un permis exclusif de recherche pour une durée de 3 à 5 ans renouvelable, qui accorde au demandeur l’exclusivité pour réaliser des forages sur des zones recouvrant plusieurs dizaines de km2. Si la ressource est confirmée, il est alors possible d’adresser une demande d’autorisation d’ouverture de travaux miniers (DAOTM) puis une demande de permis d’exploitation du réseau de chaleur (PEX), ces phases étant généralement soumises à enquête environnementale et enquête publique. 

Jusqu’ici, le nombre restreint de projets engendrait des frictions limitées et chaque collectivité réussissait à consolider un accès propre à une ressource perçue comme abondante. En outre, chaque projet pouvait prétendre à une zone du sous-sol suffisamment large pour pouvoir déployer plusieurs doublets et pomper assez de calories dans les aquifères. Mais le boom du développement de la géothermie change radicalement la donne. L’évolution actuelle du marché du gaz a poussé de nombreuses collectivités à étudier l’opportunité de la géothermie et les grands groupes, flairant les bonnes affaires, entament un lobbying de tous les instants auprès des élus et des cadres territoriaux. Ainsi, à l’heure actuelle, 43 installations de géothermie profonde sont actives en Île-de-France et des dizaines de projets sont à l’étude, entraînant le dépôt de nouvelles demandes de permis exclusif de recherche, susceptibles de multiplier les frictions.

Certains grands groupes sont particulièrement actifs pour déposer ces demandes de recherche qui leur permettent de « sécuriser et de préempter » des zones entières du sous-sol de l’Etat. Ces permis sont demandés sur des zones étendues, recouvrant souvent le sous-sol d’autres collectivités que celles des collectivités dont elles sont mandataires. La phase supplémentaire de consultation des communes touchées ne dure qu’un mois, un délai peu pertinent. Elle est donc trop rarement utilisée par la collectivité territoriale concernée du fait d’un manque de compétences en son sein. Ce qui est observé s’apparente à une logique de prédation sur une ressource d’intérêt commun. La maîtrise du sous-sol d’une ville par le biais d’autorisations administratives peut ensuite contraindre les collectivités concernées à travailler avec l’entreprise ayant préempté – en toute légalité – le sous-sol.

Ce qui est observé s’apparente à une logique de prédation sur une ressource d’intérêt commun.

Pourtant, il est possible de lutter contre cette prédation. Ainsi, à Trappes (Yvelines), la ville a émis un avis défavorable concernant la demande de permis exclusif de recherche déposée par Engie pour le compte de la ville de Bois-d’Arcy, Cette démarche, toujours en cours d’instruction, visait à contraindre Engie, via l’Etat, à modifier substantiellement le périmètre de son projet. En effet, le périmètre de recherche demandé par Engie empiétait sur la moitié du sous-sol de la ville de Trappes, oblitérant fortement la capacité de celle-ci à porter son propre projet de géothermie. De même, plusieurs tensions fortes sont déjà apparues en petite couronne parisienne, obligeant les services de l’Etat à mettre en urgence les collectivités concurrentes autour de la table pour trouver des chemins de médiation. En outre, la ressource, jugée quasiment infinie, ne l’est pourtant pas, et la trop grande proximité de puits de production et de réinjection (où l’en renvoie l’eau froide) diminue la productivité des forages.

Dans ce contexte, l’Etat se caractérise avant tout par la faiblesse de ses moyens de contrôle et son absence de planification sur le partage de la ressource. En Île-de-France, les demandes de permis sont instruites par un service préfectoral (la DRIEAT, direction régionale de l’environnement, de l’aménagement, des transports d’Ile-de-France) composé d’une petite poignée de personnes, dont les moyens n’ont pas été augmentés malgré la hausse exponentielle des dossiers à instruire. En outre, le cadre réglementaire ne donne aux fonctionnaires que des moyens très limités pour assurer le respect de l’intérêt général. Une fois une demande de permis exclusif de recherche accordée, les collectivités souhaitant contester le projet ne disposent que d’un mois pour déposer un contre-dossier, délai tout à fait insuffisant pour bâtir un dossier étayé, sachant que la majorité des collectivités ne disposent pas des compétences d’ingénierie en interne.

Carte du tracé prévisionnel de la campagne géophysique en Île-de-France (BRGM, ADEME, Région Île-de-France)

Figure 3 – Cartographie des installations de géothermie en IDF et zone d’exploration de l’étude en cours par le BRGM. © BRGM

La situation actuelle, caractérisée par le chaos et la concurrence à celui qui déposera son dossier en premier, est donc la conséquence directe d’une absence de planification étatique et intercommunale. Pour l’instant, l’Etat se contente d’instruire les demandes de permis, avec très peu de refus, tout en encourageant les collectivités à étudier les possibilités de géothermie sur leur territoire par le biais des services préfectoraux ou de l’ADEME, invitant parfois explicitement les collectivités à se tourner vers les grands groupes. Les rares démarches stratégiques entreprises par l’Etat visent uniquement à faciliter le développement de projets par ces grands groupes en les « dérisquant ». Ainsi, le BRGM (Bureau de recherches géologiques et minières) et l’ADEME viennent de lancer une vaste étude pour un budget de trois millions d’euros, visant à acquérir une meilleure connaissance de la ressource géothermique dans le Sud-Ouest francilien, pour encourager les acteurs privés à se positionner. De même, la Caisse des dépôts (CDC) pilote un fonds de garantie, géré par la SAF-Environnement, qui permet d’assurer les investisseurs contre le risque d’échec dans les projets, dans une logique de socialisation du risque, alors même que les profits de chaque projet sont majoritairement distribués à des actionnaires privés.

Une grande diversité de modèles de gestion des réseaux de chaleur

Si l’absence de planification et de vision opérationnelle de l’Etat est particulièrement visible pour ce qui concerne la répartition de la ressource en eau chaude et de l’accès aux couches productrices, l’exploitation des réseaux de chaleur est aussi l’objet d’une bataille intense entre les intérêts privés et la puissance publique. Il existe un très grand nombre de modèles juridiques permettant de créer et d’exploiter un réseau de chaleur, allant de la régie à l’externalisation complète par des marchés publics ou des délégations de service public. On observe actuellement une réelle mise en concurrence des modèles, qui se différencient selon de nombreux critères : structure de l’actionnariat, niveau de rétribution des actionnaires, souplesse de gestion au quotidien, répartition du risque ou encore portage de l’investissement. 

En Île-de-France, de nombreux modèles sont mis en œuvre : société d’économie mixte comme la Compagnie Parisienne de Chauffage Urbain (2/3 ENGIE, 1/3 Ville de Paris), société par action simplifiée permise par la LTECV à Vélizy-Villacoublay (80% ENGIE, 20% ville), délégation de service public comme à Saint-Denis ou bien société publique locale comme à Grigny, Viry-Châtillon, Fleury-Mérogis et Sainte-Geneviève des Bois au capital 100% public. Si chaque modèle présente ses avantages et ses inconvénients, et permet sur le papier de faire respecter l’intérêt général, on observe en réalité une concurrence entre deux types de modèles, représentés d’un côté par la délégation de service public (DSP) et de l’autre côté par la société publique locale (SPL).

D’une part, le recours à la délégation ou concession de service public s’inscrit dans une longue dynamique d’externalisation de l’action publique, comme le détaillait un rapport de l’association Nos Services Publics (association dont Lucie Castets, candidate NFP pour Matignon, assurait la coordination). Cette logique consiste à confier à des acteurs privés des missions de service public, en l’occurrence l’exploitation d’un réseau de chaleur et la livraison de chaleur à divers bâtiments. Le rapport analysait notamment les nombreux « faux avantages » de la gestion privée. Ceux-ci sont particulièrement observables pour ce qui concerne la création et l’exploitation du chauffage urbain. Tout d’abord, il faut rémunérer les apporteurs de fonds privés, qui empruntent en moyenne à des taux plus élevés que les acteurs publics. Il faut ensuite rémunérer des actionnaires tout au long de l’exploitation du réseau, à des taux pouvant atteindre deux chiffres. Rappelons par exemple que ce taux est monté jusqu’à 24% en ce qui concerne les autoroutes déléguées au secteur privé.

De manière assez classique, on observe généralement une forte asymétrie d’information entre le délégant public et le délégataire privé, qui peut également mener à des surcoûts importants. Ainsi, des logiques de surfacturation de prestations d’entretien (renouvellement de tuyaux, interventions) peuvent venir se répercuter sur le prix de la chaleur pour les usagers. En outre, le faible nombre d’acteurs dans le secteur ne permet pas de faire jouer pleinement la concurrence, créant des situations de monopole de fait, ou tout du moins de cartellisation. Ainsi, la remise en concurrence du réseau de chaleur de la ville de Paris n’a vu que deux acteurs se positionner : Engie et EDF. Enfin, la délégation de service public assure un contrôle public plus réduit des choix stratégiques sur le réseau : pourcentage d’énergie d’origine renouvelable, mise en place de tarifs sociaux, raccordement prioritaire des logements sociaux et des bâtiments publics…

Un retour des puissances publiques locales depuis une décennie 

A contrario, les dernières années ont vu naître un contre-modèle intéressant à plusieurs égards, celui de la société publique locale (SPL), sous l’impulsion notamment du SIPPEREC, une structure intercommunale de la périphérie parisienne. Les SPL sont des structures à capitaux 100% publics qui présentent à ce titre plusieurs avantages : contrôle public des choix stratégiques, fixation des tarifs du réseau de chaleur, maîtrise du développement du réseau de chaleur, possibilité de fixer à des niveaux très bas la rémunération de l’actionnaire, accès à de meilleurs taux de financements… La SPL est en outre une structure de droit privé, engendrant une facilité de gestion plus importante au quotidien, notamment pour ce qui concerne la gestion des ressources humaines, même si cela peut aussi être perçu comme un détournement du statut du fonctionnaire.

L’exemple des villes de Grigny et Viry-Châtillon est à cet égard particulièrement enrichissant. En 2014, elles contractualisent avec le SIPPEREC pour créer la société publique locale SEER (Société d’exploitation des énergies renouvelables), au sein de laquelle le SIPPEREC récupère 51% des parts. En 2017 est mis en service leur premier réseau de chaleur, qui permet dès le départ d’alimenter 10.000 logements, dont notamment l’ensemble de logements sociaux de la Grande Borne. Un des éléments déclencheurs du projet était notamment le niveau exorbitant de charges liées au chauffage payé par les habitants du quartier. Sa direction revendique un tarif du chauffage permis par la SPL jusqu’à 30% inférieur par rapport à ce que proposait initialement Engie. 

Si les grands groupes et leurs sous-traitants peuvent évidemment candidater aux différents marchés publics lancés ensuite par la SPL (forage, renouvellement du réseau, entretien de la chaufferie) dans le cadre de la commande publique, chaque projet de réseau de chaleur porté par une structure publique représente des dizaines voire des centaines de millions d’euros de chiffre d’affaires potentiel qui leur échappent. Depuis, le SIPPEREC est entré au capital de plusieurs nouvelles SPL, que ce soit avec la ville de Malakoff (2021), Pantin, Les Lilas, Pré-Saint-Gervais (2022) ou encore Fontenay-aux-Roses, Bourg-la-Reine et Sceaux (2024), et de nouveaux projets sont à l’étude. 

Pourtant, là encore, l’État se démarque par son absence, traitant avec un même égard des projets 100% publics et des projets portés par des initiatives privées, avec des niveaux de soutien similaires. Les SPL doivent trouver des fonds sur le marché bancaire privé pour financer leurs projets et bénéficient des mêmes dispositifs de subventions que les autres structures. En outre, les projets doivent ensuite cotiser à un fonds de garantie, au sein duquel les acteurs privés disposent d’autant de voix que l’ADEME dans l’attribution ou non de la garantie. Jusqu’ici, le développement de projets 100% publics est principalement le fait de volontés politiques locales comme c’est le cas à Grigny, dirigé par le communiste Philippe Rio.

Penser la planification de la géothermie profonde

Le développement de la géothermie profonde doit réussir un tournant crucial. L’énergie géothermale a toutes les caractéristiques de l’énergie de demain : renouvelable et locale, elle constitue pour de nombreuses villes une solution de remplacement du gaz à un prix stable et maîtrisé. Mais elle possède aussi toutes les caractéristiques d’une ressource dont l’exploitation doit être planifiée par la puissance publique. La ressource géothermale reste limitée, géographiquement contrainte et source de concurrence entre collectivités, elle doit faire l’objet d’investissements en capitaux importants et repose sur des projets de long terme, très étroitement dépendants des autorisations publiques et de la volonté des élus locaux. En conséquence, il paraît nécessaire de réfléchir à ce que pourrait être une réelle planification publique du développement de cette ressource énergétique.

La méthode pourrait être similaire à celle mise en œuvre pour le développement de l’éolien en mer, où l’Etat intervient de manière assez forte. Dans toutes les régions propices à la géothermie, l’Etat piloterait et prendrait à sa charge de premières études générales, sous l’égide du BRGM, pour analyser le potentiel géothermique de chaque territoire. A ce titre, la grande étude GeoScan lancée sur l’Ouest francilien est pertinente mais aurait probablement gagné à être réalisée plus tôt. Une plateforme open source de partage de l’ensemble des études réalisées pourrait alors être mise à disposition. Une fois la ressource caractérisée, un processus démocratique, par exemple dans le cadre d’une COP régionale puis départementale, doit permettre la répartition de la ressource entre intercommunalités ou groupes de collectivités, avec notamment un pré-positionnement des puits de forages permettant d’éviter les conflits et donc de découper le sous-sol par zones. Une fois les zones identifiées, la main serait alors laissée aux collectivités pour porter les projets, pour assurer l’acceptabilité locale ainsi que le caractère localement adapté du projet porté (choix des bâtiments raccordés et des énergies d’appoint comme la biomasse).

L’Etat mettrait alors à disposition des collectivités une réelle capacité d’ingénierie à plein temps pour préfigurer chaque projet, avec des experts développeurs qui bénéficieraient des retours d’expérience des autres projets régionaux (à l’image de ce que propose le SIPPEREC), plutôt que d’obliger les collectivités à se reposer sur l’expertise privée. Enfin, l’Etat renforcerait ses services instructeurs et pourrait piloter lui-même les différentes études environnementales et enquêtes publiques nécessaires pour accélérer les projets et proposer des projets clés en main aux collectivités. 

L’Etat pourrait tout à fait encourager des structures 100% publiques, associant par exemple les collectivités locales et un opérateur énergétique public unique, par exemple EDF via sa filiale Dalkia.

Deux options seraient alors concevables. Pour la première, on laisserait aux collectivités le choix du mode de gestion, à l’image de ce qui se fait actuellement. Ce système permet notamment d’avoir plusieurs acteurs, qui se livrent notamment une bataille technologique pour développer de nouvelles techniques de forage et augmenter la productivité des puits. Dans cette perspective, l’Etat pourrait toutefois renforcer son taux de soutien pour les structures publiques en termes de subventions, d’accès aux prêts ou aux différents dispositifs de garantie. Dans le cadre de la seconde option, un niveau de planification et d’intégration plus complet pourrait être envisagé, en refusant la mise en concurrence des modèles juridiques et en réaffirmant la mainmise de la puissance publique sur le secteur.

L’Etat pourrait tout à fait encourager des structures 100% publiques, associant par exemple les collectivités locales et un opérateur énergétique public unique, par exemple EDF via sa filiale Dalkia. Ce schéma d’organisation permettrait notamment de favoriser une réintégration de la filière industrielle de la géothermie, par exemple avec un rachat des principales foreuses de puits (machines de l’entreprise Arverne) par l’entité publique, un contrôle des industries-clés fabriquant les tuyaux, les chaufferies, les pompes à chaleur. Une telle structuration permettrait aussi de confier à un acteur unique des objectifs de développement de la géothermie, tout en garantissant une maîtrise locale des projets par l’entrée au capital des collectivités. Revenons peut-être à la sagesse médiévale des habitants de Chaudes-Aigues qui avaient compris l’intérêt d’une gestion collective de leur réseau de chaleur, qui leur fournissait du chauffage… gratuit !

Réforme des prix de l’électricité : tout changer pour ne rien changer

Nucléaire LVSL Le Vent Se Lève
© Édition LHB pour LVSL

« Nous avons réussi à trouver un équilibre vital entre la compétitivité de notre industrie, la stabilité pour les ménages et le développement d’EDF ». A la mi-novembre 2023, après deux ans de crise sur le marché de l’électricité, Bruno Le Maire était fier d’annoncer un accord entre l’Etat et EDF. A l’entendre, tous les problèmes constatés ces dernières années ont été résolus. Le tout en restant pourtant dans le cadre de marché imposé par l’Union européenne. En somme, la France aurait réussi l’impossible : garantir des prix stables tout en permettant une concurrence… qui implique une fluctuation des prix. 

Alors que la crise énergétique n’est toujours pas vraiment derrière nous et que les investissements pour la maintenance et le renouvellement des centrales électriques dans les années à venir sont considérables, cet accord mérite une attention particulière. Devant la technicité du sujet, la plupart des médias ont pourtant renoncé à se plonger dans les détails de la réforme et se sont contentés de reprendre les déclarations officielles. Cet accord comporte pourtant de grandes zones d’ombre, qui invitent à relativiser les propos optimistes du ministre de l’Économie. Alors qu’en est-il vraiment ?

Une réforme qui n’a que trop tardé

D’abord, il faut rappeler à quel point une réforme des prix de l’électricité était urgente. Depuis l’ouverture à la concurrence du secteur imposée par l’Union Européenne (UE) à la fin des années 90, le système est devenu de plus en plus complexe, EDF s’est retrouvée de plus en plus fragilisée et les prix pour les consommateurs ont explosé, contrairement aux promesses des apôtres du marché. En transformant l’électricité d’un bien public au tarif garanti en un bien de marché échangé sur les places boursières, son prix a été largement corrélé à celui du gaz, correspondant au coût marginal de production, c’est-à-dire au coût pour produire un MWh supplémentaire. Une absurdité alors que nos électrons proviennent largement du nucléaire et des renouvelables, notamment l’hydroélectricité.

Complexification du système électrique français depuis la libéralisation européenne. © Elucid

Dès la fin 2021, l’envolée des prix du gaz entraîne de fortes hausses des prix de marché de l’électricité, qui se répercutent ensuite sur les consommateurs. Pour la plupart des entreprises et les collectivités, qui ne bénéficient pas du tarif réglementé, l’augmentation a été brutale : +21% en 2022 et +84% en 2023 en moyenne selon l’INSEE., soit un doublement des factures en à peine deux ans ! Et cette moyenne cache de fortes disparités : les exemples d’entreprises ou communes ayant vu leur facture tripler ou quadrupler, voire multipliée par 10, sont légion. Les conséquences de telles hausses sont catastrophiques : faillites, délocalisations, gel des investissements, dégradation des services publics, hausse de l’inflation… Pour les particuliers, la hausse a été moins brutale, mais tout de même historique : après +4% en 2022, le tarif réglementé a connu une hausse de 15% en février 2023 et une autre de 10% en août. Soit presque +30% en deux ans, avant une nouvelle hausse de 10% prévue pour cette année.

Face aux effets dévastateurs de cette envolée des prix, l’Etat a bricolé un « bouclier tarifaire»  pour les particuliers et divers amortisseurs et aides ciblées pour les collectivités et les entreprises. Un empilement de dispositifs considéré comme une « usine à gaz » par un rapport sénatorial et qui aura coûté 50 milliards d’euros entre 2021 et 2023 rien que pour l’électricité. L’Etat français a ainsi préféré payer une part des factures lui-même pour acheter la paix sociale plutôt que de taxer les superprofits des spéculateurs ou de reprendre le contrôle sur l’énergie. Privatisation des profits et socialisation des pertes.

Le bilan des deux dernières années est accablant : les factures des ménages et des entreprises ont flambé, l’Etat a dépensé sans compter pour les aider et l’endettement d’EDF a explosé. Les seuls bénéficiaires de cette période sont les spéculateurs du marché, qui ont engrangé des profits indécents.

De manière absurde, alors que les prix étaient au plus haut, EDF a enregistré des pertes historiques en 2022 (18 milliards d’euros). Une situation qui s’explique par des erreurs stratégiques et une faible disponibilité du parc nucléaire, qui l’a obligée à racheter à ses concurrents les volumes vendus dans le cadre de l’Accès Régulé à l’Énergie Nucléaire Historique (ARENH). Concession de la France aux fanatiques européens de la concurrence, ce système force EDF à vendre 120 TWh par an, soit environ un tiers de sa production nucléaire, à ses concurrents à un prix trop faible de 42€/MWh. Si la situation de l’énergéticien s’est depuis améliorée, le bilan des deux dernières années est accablant : les factures des ménages et des entreprises ont flambé, l’Etat a dépensé sans compter pour les aider et l’endettement d’EDF a explosé. Les seuls bénéficiaires de cette période sont les spéculateurs du marché, qui ont engrangé des profits indécents.

Un « tarif cible » encore très flou

Après un tel échec du marché et alors que le mécanisme de l’ARENH doit prendre fin au 1er janvier 2026, une réforme devenait indispensable. Suite à des mois de négociations, un accord a finalement été trouvé entre l’Etat et EDF pour la période 2026-2040 pour « garantir un niveau de prix autour de 70€ le MWh pour l’électricité nucléaire » selon Bruno Le Maire. Si certains ont jugé la hausse trop forte par rapport aux 42€/MWh de l’ARENH, il convient de relativiser. D’une part, l’ARENH ne concernait qu’une part de la production nucléaire, le reste étant vendu bien plus cher. D’autre part, le tarif de l’ARENH était devenu trop faible par rapport aux coûts de production du nucléaire, estimés autour de 60€/MWh dans les années à venir, et aux besoins d’investissement d’EDF. Une hausse conséquente était donc inéluctable.

Le nouveau tarif paraît donc élevé, mais pas délirant. Mais voilà : ces 70€/MWh ne sont en fait pas un tarif garanti mais un « tarif cible » que se fixe le gouvernement, « en moyenne sur 15 ans et sur l’ensemble des consommateurs ». Cette cible repose sur des prévisions d’évolution des prix de marché absolument impossibles à valider et sur un mécanisme de taxation progressive des prix de vente d’EDF aux fournisseurs, qui démarre à 78 €/MWh. A partir de ce seuil, les gains supplémentaires seront taxés à 50%, puis à 90% au-delà de 110€/MWh. Rien qui permette de garantir un prix de 70 €/MWh aux fournisseurs… et encore moins aux consommateurs puisque la marge des fournisseurs n’est pas encadrée. Si l’Etat promet que les recettes de ces taxes seront ensuite reversées aux consommateurs, le mécanisme envisagé n’est pas encore connu. S’agira-t-il d’un crédit d’impôt ? D’une remise sur les factures suivantes ? Sans doute les cabinets de conseil se penchent-ils déjà sur la question pour concevoir un nouveau système bureaucratique.

Ce système bricolé reste vulnérable aux injonctions européennes.

En attendant, une chose est sûre : les factures vont continuer à osciller fortement, pénalisant fortement les ménages, les entreprises et les communes, à l’image de la situation actuelle. On est donc loin de la « stabilité » vantée par le gouvernement. Enfin, ce système bricolé reste vulnérable aux injonctions européennes : si les tarifs français sont plus attractifs que ceux d’autres pays européens – par exemple, ceux d’une Allemagne désormais largement dépendante du gaz américain particulièrement cher – rien ne garantit que ceux-ci ne portent pas plainte auprès de l’UE pour distorsion de concurrence. Quelle nouvelle concession la France fera-t-elle alors aux gourous du marché ?

En revanche, le fait que les fournisseurs et producteurs privés continuent à engranger des superprofits sur le dos des usagers ne semble gêner personne. Imaginons par exemple une nouvelle période de flambée des prix durant laquelle TotalEnergies, Eni, Engie ou d’autres vendent de l’électricité à 100 ou 150€/MWh : si les consommateurs ne percevront pas la différence – le mécanisme de taxation prévoyant une redistribution indépendamment de leur fournisseur – les profits supplémentaires n’iront pas dans les mêmes poches suivant qui les réalisent. Chez EDF, d’éventuels dividendes iront directement dans les caisses de l’Etat, désormais actionnaire à 100%. Chez ses concurrents, ces profits sur un bien public enrichiront des investisseurs privés.

EDF, gagnant de la réforme ?

Pour l’opérateur historique, la réforme ouvre donc une nouvelle ère incertaine. Certes, en apparence, EDF semble plutôt sortir gagnante des négociations. Son PDG Luc Rémont n’a d’ailleurs pas hésité à menacer de démissionner s’il n’obtenait pas un tarif cible suffisant. Une fermeté qui doit moins à son attachement au service public qu’à sa volonté de gouverner EDF comme une multinationale privée, en vendant l’électricité à des prix plus hauts. Or, EDF doit faire face à des défis immenses dans les prochaines décennies : il faut non seulement assurer le prolongement du parc existant, notamment le « grand carénage » des centrales nucléaires vieillissantes, mais également investir pour répondre à une demande amenée à augmenter fortement avec l’électrification de nouveaux usages (procédés industriels et véhicules notamment). Le tout en essayant de rembourser une dette de 65 milliards d’euros, directement causée par les décisions désastreuses prises depuis 20 ans et en essayant de se développer à l’international.

A première vue, le tarif cible de 70€/MWh devrait permettre de remplir ces différents objectifs. D’après la Commission de Régulation de l’Énergie, le coût de production du nucléaire sur la période 2026-2030 devrait être de 60,7€/MWh. La dizaine d’euros supplémentaires ponctionnés sur chaque MWh devrait servir à financer la « politique d’investissement d’EDF, notamment dans le nouveau nucléaire français et à l’export », indique le gouvernement. Selon les calculs d’Alternatives Economiques, cette différence par rapport aux coûts de production permettrait de financer un réacteur EPR tous les deux ans. Que l’on soit pour ou contre la relance du programme nucléaire, cet apport financier supplémentaire pour EDF reste une bonne nouvelle, les énergies renouvelables nécessitant elles aussi de gros investissements.

Les factures d’électricité des Français serviront-elles à payer les réacteurs EPR britanniques ?

Cependant, l’usage exact de ces milliards par EDF reste entouré d’un grand flou. L’entreprise est en effet le bras armé de la France pour exporter son nucléaire dans le reste du monde. Or, les coûts des centrales atomiques construites à l’étranger ont eu tendance à exploser. C’est notamment le cas au Royaume-Uni, où EDF construit la centrale d’Hinkley Point C. Un projet dont le coût est passé de 18 milliards de livres au début de sa construction en 2016 à presque 33 milliards de livres aujourd’hui. Des surcoûts que le partenaire chinois d’EDF sur ce projet, China General Nuclear Power Group (CGN), refuse d’assumer. EDF risque donc de devoir assumer seule cette facture extrêmement salée, ainsi que celle de la future centrale de Sizewell C, également en « partenariat » avec CGN. Les factures d’électricité des Français serviront-elles à payer les réacteurs EPR britanniques ? Si rien n’est encore décidé, le risque existe bel et bien.

La France osera-t-elle s’opposer à l’Union Européenne ?

Enfin, EDF fait toujours figure d’ennemi à abattre pour la Commission Européenne. Étant donné la position ultra-dominante de l’opérateur national, les technocrates bruxellois cherchent depuis longtemps des moyens d’affaiblir ses parts de marché. Le nucléaire intéresse peu le secteur privé : il pose de trop grands enjeux de sécurité et est trop peu rentable. Les concurrents d’EDF espèrent donc surtout mettre la main sur le reste des activités du groupe, c’est-à-dire les énergies renouvelables et les barrages hydroélectriques, amortis depuis longtemps et qui garantissent une rente confortable. Si un pays européen venait à se plaindre de la concurrence « déloyale » d’EDF, la Commission européenne pourrait alors ressortir des cartons le « projet Hercule », qui prévoit le démembrement de l’entreprise et la vente de ses activités non-nucléaires. Bien qu’ils disent le contraire, les macronistes ne semblent pas avoir renoncé à ce scénario. En témoignent la réorganisation actuelle du groupe EDF, qui ressemble fortement aux plans prévus par Hercule, et leur opposition intense à la proposition de loi du député Philippe Brun (PS) qui vise, entre autres, à garantir l’incessibilité des actifs d’EDF.

EDF fait toujours figure d’ennemi à abattre pour la Commission Européenne.

Etant donné la docilité habituelle de Paris face aux injonctions européennes, le retour de ce « projet Hercule » est donc une possibilité réelle. La France pourrait pourtant faire d’autres choix et désobéir à Bruxelles pour pouvoir appliquer sa propre politique énergétique. L’exemple de l’Espagne et du Portugal montre que des alternatives existent : en dérogeant temporairement aux règles européennes pour plafonner le prix du gaz utilisé pour la production électrique, les deux pays ibériques ont divisé par deux les factures des consommateurs bénéficiant de tarifs réglementés. Quand le Parti Communiste Français et la France Insoumise, inspirés par le travail du syndicat Sud Energie, ont proposé que la France revienne à une gestion publique de l’électricité, les macronistes ont agité la peur d’un « Frexit énergétique », estimant que la sortie de la concurrence reviendrait à cesser tout échange énergétique avec les pays voisins. Un mensonge qui témoigne soit de leur mauvaise foi, soit de leur méconnaissance complète du sujet, les échanges d’électricité ne nécessitant ni la privatisation des centrales, ni la mise en concurrence d’EDF avec des fournisseurs nuisibles.

Si cette réforme s’apparente donc à un vaste bricolage pour faire perdurer l’hérésie du marché, l’insistance sur la « stabilité » des prix dans le discours de Bruno Le Maire s’apparente à une reconnaissance implicite du fait que le marché n’est pas la solution. Les consommateurs, qu’il s’agisse des particuliers, des entreprises ou des collectivités et organismes publics, souhaitent tous de la visibilité sur leurs factures pour ne pas tomber dans le rouge. De l’autre côté, les investissements menés sur le système électrique, tant pour la production que pour le réseau, ne sont amortis que sur le temps long. Ainsi, tout le monde a intérêt à des tarifs réglementés, fixés sur le long terme. Un objectif qui ne peut être atteint que par un retour à un monopole public et une forte planification. Exactement l’inverse du chaos et de la voracité des marchés.

Note : L’auteur remercie la syndicaliste Anne Debrégeas (Sud Energie) pour ses retours précis et ses analyses sur la réforme en cours.

La longue agonie du fret ferroviaire

© Ale3xanderD, Pixabay

Le 22 octobre dernier, le premier ministre inaugurait en grande pompe la reprise du train des primeurs : le Perpignan-Rungis. Après deux ans de suspension, ce retour fait écho aux mesures annoncées le 27 juillet pour relancer le fret ferroviaire. Cette initiative semble pourtant déjà s’inscrire dans une longue liste de plans de relance qui n’ont pas donné les effets escomptés. Alors, comment expliquer ce déclin du fret ferroviaire ?

En 1827, la première ligne de chemin de fer ne transportait pas des voyageurs mais des marchandises. Avec seulement 18 kilomètres de voies, la ligne de Saint-Étienne à Andrézieux, tractée par des chevaux, servait à transporter de la houille depuis le port fluvial. Le transport de marchandises par train s’est ensuite développé de manière exponentielle au travers de compagnies privées. En 1882, la France possède alors la plus forte densité de chemin de fer au monde avec 26 000 km de voies. Les marchandises sont échangées dans des halles adjacentes aux gares, avant que le trafic ne soit peu à peu séparé des voyageurs.

En 1950 les deux tiers des marchandises sont transportées par le rail.

En 1938, la création de la SNCF unifie le réseau. Il y a alors 6 500 embranchements jusqu’aux entreprises (les ITE) et plus de 42 500 km de voies. Cette situation continue dans l’après-guerre : en 1950 les deux tiers des marchandises sont transportées par le rail et c’est le transport de marchandises qui fait vivre la SNCF. Alors que les frontières entre cheminots du service voyageur et du service fret ne sont pas établies, on estime que 200 000 d’entre eux travaillent directement ou indirectement dans le transport de marchandises. Pourtant, la concurrence avec la route a déjà commencé. Les camions se multiplient et, en 1984, le ferroviaire ne représente déjà plus que 30% du transport de marchandises1. La baisse est brutale : ce chiffre passe à 20% en 1990, puis 17% en 2000 et 9% en 2010. Aujourd’hui, il reste moins de 5 000 cheminots au service de SNCF Fret et seulement 32 milliards de tonnes-kilomètres2 sont transportées sur les voies ferroviaires contre 317,3 milliards de tonnes-kilomètres sur les routes.

Le fonctionnement du fret ferroviaire

Pour expliquer cette baisse, il faut d’abord comprendre comment fonctionne le fret ferroviaire. En France, les trains de marchandises circulent le plus souvent sur le même réseau que les trains de voyageurs. Ils occupent donc des sillons horaires de la même manière que les autres trains. Ces sillons sont des laps de temps durant lesquels les trains utilisent une infrastructure donnée (aiguillage, gare, voie ferrée). Ils sont gérés par un gestionnaire de réseau qui les facture au travers de péages ferroviaires.

Pour le transport de marchandises, il existe deux types de trains. Le premier est le train massif qui transporte d’un point à un autre des marchandises sans réorganisation du convoi. Il peut s’agir par exemple d’un train au départ d’une usine agro-alimentaire qui va directement à une autre de transformation. Le second est le train de lotissement. Il est composé de wagons isolés qui doivent être réorganisés dans une gare de triage pour aller dans des directions différentes. Ce serait par exemple le cas d’une usine de voiture en Bretagne qui doit envoyer la moitié de ses wagons dans le Nord et l’autre moitié en Alsace. Le train s’arrête alors dans une gare de triage où les wagons sont remaniés avec d’autres wagons qui vont dans la même direction afin de former un train complet.

Réalisation personnelle

Pour les marchandises ne faisant qu’une partie de leur trajet en train, le reste étant effectué par voie maritime ou routière, il existe des terminaux de transport combiné. Il peut s’agir de conteneurs récupérés dans un port et qui sont ensuite déposés sur des wagons. Le transport combiné peut également avoir lieu entre le rail et la route avec la prise en charge de la remorque du camion ou du camion entier avec sa cabine (dans ce cas, il s’agit de ferroutage).

Réalisation personnelle

Enfin, si les trains sont chargés dans des terminaux gérés par la SNCF, certaines voies desservent directement des entreprises, usines ou entrepôts particuliers, on parle alors d’installation terminale embranchée (ITE) ou d’embranchement particulier. Il existe une autre spécificité : les Opérateurs Ferroviaires de Proximité (OFP). Ces entreprises gèrent une petite partie du réseau ferroviaire avec leurs propres matériels. Au port de La Rochelle par exemple, un OFP se charge des activités ferroviaires sur le port. Ces OFP peuvent soit gérer de manière étanche un réseau entre différents terminaux soit le gérer jusqu’au réseau SNCF où un autre opérateur ferroviaire prend le relais pour des plus longues distances.

Réalisation personnelle

Un déclin plus marqué que chez nos voisins

Le fret français transportait 57,7 milliards de tonnes-kilomètres en 1984, contre 32 milliards de tonnes-kilomètres en 2018. Cette diminution est également visible dans le mix modal du transport de marchandises : en 34 ans, la part du ferroviaire dans le transport de marchandises a diminué de 70%.

Évolution du mode de transport des marchandises depuis 1984 en France, INSEE. Réalisation personnelle

Si la situation est assez inquiétante dans toute l’Europe, le sort de la France est plus dramatique que celui de ses voisins. En Allemagne, le trafic de fret ferroviaire a connu une hausse de 50% entre 2003 et 20183. La dynamique est aussi positive en Autriche, en Suède et de manière plus nuancée en Italie. Si l’Espagne et le Royaume Uni ont, comme la France, subi une diminution de leurs volumes transportés par le fret ferroviaire (environ -10% pour les deux depuis 2003), seule la France connaît une chute aussi importante. Ainsi, alors que les trafics allemands et français étaient équivalents dans les années 1990, le trafic français est aujourd’hui quatre fois moindre que celui de l’autre côté du Rhin. Enfin, alors que la part moyenne du fret ferroviaire dans le transport de marchandise en Europe est de 18%, cette même valeur se situe en France dix points en deçà, à 9%.

Évolution du trafic du fret ferroviaire européen en tonne-kilomètre, base 100 = valeur en 2003, EUROSTAT. Réalisation personnelle

Qui a tué le fret ?

Témoignage de la diminution du fret, la gare de triage de Sotteville est devenue un cimetière ferroviaire. © Frédéric Bisson

On peut trouver trois explications au déclin du fret ferroviaire. 

Tout d’abord, il faut prendre en compte la situation industrielle et portuaire. La désindustrialisation a diminué de manière importante les marchandises à transporter sur de longues distances à l’intérieur du pays avec, par exemple, la fin des exploitations minières.

D’autre part, la France n’arrive pas à capter une part importante du trafic maritime international sur ses ports. Le tonnage de l’ensemble des ports français équivaut aujourd’hui au seul port de Rotterdam aux Pays-Bas. Anvers en Belgique est parfois même qualifiée de premier port français, une particularité surprenante vue la taille de la façade maritime de l’Hexagone, son positionnement stratégique et le nombre de ports prêts à accueillir des marchandises comme Marseille, Le Havre ou Saint-Nazaire. À cette situation s’ajoute une mauvaise liaison entre les ports français et les voies ferrées. Alors qu’à Hambourg près d’un tiers des marchandises transitent par le rail, seules 10% des marchandises dans les ports français font de même.

La concurrence de la route met aussi à mal le fret ferroviaire. Le transport routier présente pour les entreprises de nombreux avantages : fiable, peu coûteux, les transporteurs y bénéficient également d’un réseau très dense permettant de desservir directement tout le pays. De plus, l’arrivée d’entreprises de transports routiers d’autres États membres de l’UE permet aux transporteurs d’utiliser de la main-d’œuvre étrangère avec des prétentions et des droits salariaux moindre que ceux attendus normalement en France.

Pourtant ces différents facteurs n’expliquent pas l’ensemble du déclin du fret ferroviaire. La situation dans des pays comme l’Espagne, l’Italie ou le Royaume-Uni montre que malgré la désindustrialisation et l’émergence du transport routier, le fret ferroviaire peut persister et maintenir une part de marché plus importante que celle que nous connaissons en France. De plus, le fret ferroviaire demeure moins coûteux que le transport par camion sur les longues distances. Un kilomètre avec un camion de 40 tonnes coûtait ainsi 1,20 euro en 2007 contre 0,51 euro pour un train de 1 800 tonnes ramené au même poids4.

La violente libéralisation et mise en concurrence voulue par Bruxelles est également responsable de ce déclin. En 1991, l’Union européenne impose une première réforme ferroviaire exigeant la séparation entre l’exploitation des lignes (pour le transport voyageur et fret) et la gestion de celles-ci. Cette réforme donne lieu à la création, en 1997, de Réseau Ferré de France (RFF), le gestionnaire des infrastructures ferroviaires. Pour se financer, RFF dispose des revenus des péages ferroviaires, ce qui représente en parallèle un nouveau coût pour les exploitants (même s’ils en payaient déjà indirectement une partie). Au cours des années 2000, sous la pression des gouvernements et de l’UE, la séparation entre les activités fret et voyageurs à la SNCF est renforcée. L’objectif ? Que l’État et les collectivités territoriales évitent de financer le fret avec des subventions à destination des services voyageurs (comme les TER).

L’ouverture à la concurrence du « deuxième paquet ferroviaire » est une véritable saignée pour le fret SNCF.

Cette évolution entraîne un dédoublement des postes auparavant mutualisés, ce qui augmente les coûts d’exploitation. Dans la même période, l’Union européenne, qui ne jure que par le culte du « marché libre et non faussé », interdit aux États de financer leurs activités de fret, une situation d’autant plus compliquée en France que le service fret de la SNCF n’est plus équilibré budgétairement depuis 1998. En 2004, face à la dette du fret ferroviaire, l’État obtient la permission de l’Union européenne de le recapitaliser à hauteur de 800 millions d’euros (qui s’ajoutent aux 700 millions apportés par la SNCF), en contrepartie de quoi, la France ne doit plus refinancer le fret pendant 10 ans et doit ouvrir cette activité à la concurrence (2005 pour les lignes avec l’étranger puis 2006 sur les lignes intérieures). L’ouverture à la concurrence de ce « deuxième paquet ferroviaire » est une véritable saignée pour le fret SNCF. Si celle-ci garde la majorité des parts du marché ferroviaire, les opérateurs étrangers vont prendre en charge les trains massifs plus rentables et laisser les wagons isolés, plus coûteux, à la SNCF.

Face à un tel déséquilibre, la crise du fret s’accentue et, deux plans de relance se succèdent en 2004 et en 2007 (plans Véron et Marembaud), tentant de limiter les pertes en abandonnant les dessertes de wagons isolés les moins rentables, menant à une baisse directe du volume transporté et des effectifs cheminots. En 2008, alors qu’il reste moins de 10 000 cheminots dans le fret, la SNCF achète GEODIS, un transporteur routier, et instaure de facto la concurrence au sein même de l’entreprise. La même année, la crise économique frappe de plein fouet le fret ferroviaire. Les plans s’enchaînent sans enrayer la crise. Les liaisons avec des wagons isolés sont restreintes et les ITE fermées (4 535 en 2002, 1 400 en 2015). En 2012, alors qu’un tiers du fret est assuré par des opérateurs extérieurs, la SNCF assure encore 400 trains de wagons isolés par semaine. Malgré cette saignée, la Cour des comptes demande en 2017 une nouvelle réduction du nombre de wagons isolés et la cession d’une partie de la flotte de locomotives. Un an plus tard, le rapport Spinetta demande la recapitalisation et la filialisation du fret ferroviaire. Cette même année, Fret SNCF supprime 754 postes et se fixe comme objectif de restreindre à 4 724 les effectifs en 2021. Enfin en 2020, à la suite de la réforme du ferroviaire, FRET SNCF devient une Société par Action Simplifiée, prélude à une cession du capital, c’est-à-dire une privatisation.

Le plan Castex, une nouvelle tentative de sauvetage du fret

Le 27 juillet dernier, un énième plan en faveur du fret ferroviaire a été présenté par le Premier ministre, qui a annoncé vouloir s’appuyer sur le développement d’autoroutes ferroviaires, des transports combinés et a garanti la gratuité des péages ferroviaires pour 2020 et la division par deux de leurs prix pour le fret en 2021. A ces annonces s’ajoute une recapitalisation de 150 millions d’euros.

Cette subvention prouve que la libéralisation du fret ferroviaire est un échec. Elle va toutefois permettre à Fret SNCF de repasser dans le vert temporairement. Les syndicats de cheminots s’amusent à dire que cette même subvention, en 2000, aurait permis, au fret, qui transportait alors 17% du trafic de marchandise avec 10 000 cheminots, d’être excédentaire. Désormais, cet argent va uniquement permettre à Fret SNCF de maintenir son trafic actuel, et non d’investir dans les infrastructures.

Les autoroutes ne servent à rien sans routes départementales et communales !

Laurent Brun, secrétaire général de la CGT Cheminot

Une autre annonce concerne les autoroutes ferroviaires. Il nous faut ici expliquer ce terme. On le sait, le transport combiné est composé d’une partie du trajet en camion et une autre en train à partir d’un terminal de transport combiné. L’autoroute ferroviaire allie le transport combiné avec d’importants corridors qui traversent la France et s’inscrivent dans une logique européenne. Ce système, déjà mis en avant par les plans de relance Véron, Marambaud et Nadal, a pourtant de sérieuses limites. Comme son nom l’indique, il ne relie que peu de points de dessertes et montre donc assez peu de flexibilité. De plus, le transport combiné s’appuie sur un simple ferroutage : on met un camion sur un wagon. Une technique bien moins économique que le remplissage d’un wagon standardisé. L’annonce de Jean Castex, qui s’appuie déjà sur de précédents projets d’autoroutes, ne peut donc pas entraîner un report massif vers le fret ferroviaire. Et pour cause, en France, 63% du transport de marchandises concerne le trafic intérieur. Comme le dit Laurent Brun, secrétaire général de la CGT Cheminot, « Les autoroutes ne servent à rien sans routes départementales et communales ! »

Un intérêt écologique, mais des entreprises sceptiques

Si les plans de sauvetage ou de relance du fret ferroviaire ont pour l’instant tous échoué, la demande citoyenne d’une relance est très présente, notamment pour des raisons écologiques. Le transport routier, aujourd’hui largement majoritaire en France, est à l’origine d’une forte pollution atmosphérique. En 2018, il génère à lui seul 28,6% des gaz à effet de serre (en équivalent CO2), contre 21,3% en 1990. Au sein des transports routiers, les poids lourds représentent en 2018 un quart des émissions (41,3% si on y inclut les véhicules utilitaires). L’ensemble du transport ferroviaire ne représente quant à lui que 0,1% des gaz à effet de serre.

Selon le rapport Bain, le transport routier émet en France 82 grammes de CO2 par tonne-kilomètre (g/t-km) contre huit g/t-km pour le ferroviaire. Pour l’Agence européenne de l’environnement, ce chiffre serait plutôt de 20,97 g/t-km, à l’échelle européenne, contre 75,33 g/t-km pour le routier. Quoi qu’il en soit, le constat est sans appel : le fret ferroviaire émet quatre à dix fois moins de CO2 que la route. En outre, la forte électrification du réseau ferré français et notre important recours à l’énergie nucléaire garantissent une pollution très faible. En 2010, un rapport du Sénat, chiffrait ainsi le bilan écologique du transport de marchandises : 2 grammes/km de CO2 pour un train électrique et 55 grammes/km pour un train thermique contre 196 grammes/km pour un seul camion semi-remorque de 32 tonnes et 982 grammes/km pour un utilitaire léger. Par ailleurs, au-delà du bilan écologique, le fret ferroviaire participe à l’équilibre du territoire en reliant des régions parfois mal desservies par la route.

Toutefois, malgré ces divers avantages, les clients de Fret SNCF ne manifestent pas un grand attachement pour le ferroviaire. Plus de quatre clients sur dix s’en disent peu ou pas satisfaits et la moitié déçus du rapport qualité-prix. La ponctualité est également mise en cause : le rapport du Sénat de 2008 pointait ainsi une ponctualité dans la journée de seulement 70% pour les wagons isolés contre 80% dans l’heure pour les trains massifs. Les clients du fret ferroviaire réclament donc une fiabilité plus importante et un meilleur rapport qualité-prix, deux éléments qui les font pencher en faveur du transport routier.

Les solutions pour relancer l’activité

Pour aller au-delà des annonces, plusieurs projets existent. En 2008, le projet EuroCarex a ainsi essayé de créer un TGV fret de nuit. Après un essai en 2012 entre Lyon et Londres, le projet est aujourd’hui au point mort à cause de sa rentabilité à court terme. En 2014, le projet Marathon a mis sur pied le plus long train de fret d’Europe. Long de 1,5 km, il a transporté 70 wagons, contre 35 habituellement. En 2015, dans le prolongement de ce projet, le train le plus lourd du réseau ferroviaire, long de 947 mètres et avec une masse de 5 410 tonnes a relié Somain dans le Nord à Uckange en Moselle. Ces deux projets sont aujourd’hui au point mort. Depuis 2017, c’est le projet de train autonome qui est sur les rails. L’objectif est de développer divers niveaux d’autonomie pour un train (conduite assistée, conduite à distance, voire absence de conducteur) à horizon 2023. Si les conséquences sociales de ce projet ne sont pas encore connues, celui-ci devrait permettre d’améliorer la ponctualité des trains grâce au calcul informatique.

Le TGV Postal proposait entre 1984 et 2015 un service de transport de courrier à grande vitesse, il a été arrêté à la suite de la diminution du volume de courrier et l’envoi à J+2 à J+3 par La Poste. Aucun projet de train fret à grande vitesse n’a pour l’instant repris. © Florian Fèvre

Ces différentes innovations nous amènent à regarder de l’autre côté de l’Atlantique. Aux États-Unis, les trains de fret impressionnent par leurs dimensions, avec deux étages de conteneurs sur un seul wagon et une longueur pouvant atteindre plus de trois kilomètres. Des chiffres d’autant plus spectaculaires quand on les comparent aux 750 mètres des trains français. Comment expliquer ces différences qui pourraient largement augmenter la compétitivité du fret SNCF ? Le problème réside dans le réseau. Le réseau américain a été adapté au niveau des ponts et des tunnels pour que les trains puissent mesurer plus de 6 mètres de haut contre 4,28 mètres en France. Pour prétendre à ces dimensions en France, il faudrait adapter un nombre très important d’ouvrages. Pour la longueur, le problème vient également des infrastructures. Le réseau français a été construit historiquement pour des trains de 500 mètres de long puis de 750 mètres. Cela signifie que l’ensemble du réseau a été adapté sur ces distances avec des voies de garage et des triages à ces tailles. Aux États-Unis, le réseau est extrêmement long et permet de doubler des trains de plusieurs kilomètres de long. Pour obtenir les mêmes performances que le réseau américain, c’est tout le réseau ferroviaire, les wagons et les infrastructures qui devraient être adaptés en conséquence, ce qui demanderait d’importants investissements.

Le principal problème du fret ferroviaire ne vient pas d’un manque d’innovation mais bien de la concurrence avec le transport routier. Or, ce dernier n’est plus compétitif qu’en raison de la non-prise en compte des externalités négatives, notamment environnementales, qu’il génère.

Le principal problème du fret ferroviaire ne vient pas d’un manque d’innovation mais bien de la concurrence avec le transport routier. Or, ce dernier n’est davantage compétitif qu’en raison de la non-prise en compte des externalités négatives, notamment environnementales, qu’il génère. Outre la pollution, les ballets de camions ont aussi un impact fort sur l’usure des infrastructures routières, sur les nuisances sonores, les embouteillages et les accidents de la route. Autant de facteurs qui plaident pour l’augmentation des impôts et droits de péages sur le fret routier.

Depuis le début du déclin du fret ferroviaire, ce sont 1,8 million de camions qui ont été mis sur les routes. Un report modal massif du routier vers le ferroviaire aurait pourtant de nombreuses conséquences positives. Mais pour ce faire, trois éléments seront nécessaires : des investissement massifs dans le fret ferroviaire (cheminots, infrastructures, réseau), la remise en cause de la libéralisation du fret ferroviaire et une nouvelle façon de prendre en compte l’ensemble des conséquences négatives du transport routier.

Notes :

1 : Transport intérieur terrestre de marchandise par mode, Données annuelles de 1984 à 2018, INSEE
2 : Le tonne-kilomètre est une unité de mesure de quantité de transport correspondant au transport d’une tonne sur un kilomètre.
3 : Goods transported by type of transport (2003-2018), EUROSTAT
4 : Pertinence du fret ferroviaire, diagnostic, SNCF, avril-mai 2009

Comment la baisse tendancielle du taux de profit explique le capitalisme d’aujourd’hui

© Aitana Perez pour LVSL

Alors que l’eau devient une marchandise comme une autre au Chili, les employeurs européens ne fournissent plus de vélos aux livreurs des plateformes. Tandis que Jeff Bezos s’envole dans l’espace, la planète brûle de l’Australie à la Californie… Le point commun entre ces faits ? La quête du profit. Si cette obsession pour l’appât du gain est critiquée pour ses abus, beaucoup n’y voient que la marque d’une cupidité excessive de certains entrepreneurs. Or, cette quête du profit maximum est intrinsèque au mode de production capitaliste. C’est du moins le postulat fondamental de la notion marxiste de baisse tendancielle du taux de profit. Elle permet de penser des phénomènes en apparence aussi divers que la concurrence oligopolistique, la plateformisation de l’économie, la financiarisation, ou encore la prédation exercée sur l’environnement, comme l’émanation d’un même mécanisme fondamental.

Comment expliquer la valeur que prennent les biens dans la société ? Pour Karl Marx, la valeur d’un bien est constituée par sa valeur d’usage, c’est-à-dire la valeur procurée par son utilisation, et sa valeur d’échange, qui correspond à la quantité de travail moyen nécessaire à sa fabrication. Si toute la richesse est produite par les travailleurs, elle ne leur revient pas entièrement, loin s’en faut : les détenteurs des moyens de production s’accaparent une part de la valeur produite par les travailleurs via les revenus du capital. Le taux de profit est défini comme étant le rapport de la survaleur (l’excédent récupéré après les ventes de marchandises et le paiement des salaires) sur la somme du capital constant (les machines et matières premières) et du capital variable (la masse salariale ). Ainsi, en vue de maintenir ou d’augmenter son profit, les détenteurs de capital ont trois options :

1 – Augmenter la survaleur ;

2 – Diminuer la part de capital constant ;

3 – Diminuer la part de travail rémunéré.

Une des clés pour augmenter les taux de profit est l’innovation technique, qui permet de produire avec plus de machines – que Marx identifie comme étant une accumulation de travail vivant passé – et moins de force de travail vivante. En réduisant la part de la rémunération du travail vivant dans la production, les détenteurs de capital espèrent ainsi soit conquérir de nouvelles parts de marché en diminuant les prix de vente, soit, à prix de vente constants, augmenter leurs marges. Ce mode de production repose cependant sur une contradiction inhérente : c’est en cherchant à diminuer la part de ce qui permet pourtant leur plus-value (le travail vivant de leurs employés, seuls producteurs) que les employeurs entendent augmenter leur profit.

Face à la menace permanente d’une baisse du taux de profit, l’une des stratégies fondamentales des employeurs est de chercher à s’implanter sur de nouveaux marchés. À ce titre, l’État joue un rôle fondamental.

En effet, les entreprises rivales sur un même marché ne tardent jamais à s’imiter mutuellement et l’avantage compétitif obtenu grâce aux innovations techniques devient caduc. C’est bien cette dynamique que l’on identifie comme étant la baisse tendancielle du taux de profit : celle qui pousse les employeurs à recourir à moins de travail vivant pour bénéficier d’un avantage sur leurs concurrents… alors même que cet avantage n’est que temporaire puisqu’ils seront bien vite imités. Ce nivellement par le bas de l’usage de la force de travail est une contradiction interne du système capitaliste qui le rend instable, puisque c’est sur l’exploitation de cette force de travail que les employeurs fondent leur pouvoir économique.

Si le concept de baisse tendancielle du taux de profit fait l’objet de nombreuses controverses, il demeure pertinent pour comprendre certaines dynamiques actuelles du capitalisme. D’une part, cette grille de lecture permet de comprendre l’extension permanente des sphères lucratives, la déresponsabilisation des entrepreneurs vis-à-vis de l’appareil productif, et le suicide environnemental dans une même logique. D’autre part, elle permet de saisir la nécessité d’adopter un mode de production alternatif pour contrevenir à ce futur.

Comment les accumulateurs de capital s’y prennent-ils pour enrayer cette pente spontanée vers la diminution de leur taux de profit ? Bien des phénomènes qui caractérisent l’économie contemporaine – la concurrence entre groupes oligopolistiques pour la conquête de nouveaux marchés, le développement des plateformes, la financiarisation, la marchandisation des biens naturels, etc. – peuvent être lus à l’aune de cet objectif.

L’État au service de l’accumulation de capital

Face à la menace permanente d’une baisse du taux de profit, l’une des stratégies fondamentales des employeurs est de chercher à s’implanter sur de nouveaux marchés. À ce titre, l’État joue un rôle fondamental. L’idée selon laquelle les politiques néolibérales conduisent à moins d’État, souvent entendue chez une partie de la gauche, est partiellement incorrecte. Les grandes entreprises ont en réalité un besoin éperdu d’État afin de maintenir leur domination sur l’économie et, par ce biais, leur taux de profit. La création de nouveaux marchés par l’État s’effectue par le biais de sa puissance de coercition, ainsi que par l’instauration d’un cadre juridique qui leur est propice – comme le suggérait Marx et l’analysait de manière détaillée Karl Polanyi.

NDLR : Pour une analyse de l’État comme cadre instituant du libéralisme, lire sur LVSL l’article de Marin Lagny : « Polanyi, La grande transformation : de l’économie à la société (néo)libérale »

À mesure que l’autonomie de l’État décroît par rapport aux détenteurs de capital, celui-ci devient une machine à accroître leurs marges. Au sein des dépenses dédiées au service public, une part croissante tend à rémunérer les prestataires des délégations de services publics – ces derniers perdant alors leur caractère socialisé. Les partenariats public-privé, dans lesquels les entrepreneurs financent les infrastructures pour ensuite exiger des loyers exorbitants à l’État et aux collectivités s’inscrivent dans la même logique. La part croissante que l’État consacre aux aides aux entreprises, en particulier aux grands groupes, s’inscrit dans cette logique. Récemment, le travail d’information d’Allô Bercy détaillait la manière dont des milliards d’euros ont été versés aux multinationales sans contrepartie pendant la crise sanitaire, permettant le versement de dividendes indécents aux actionnaires. Cet épisode est loin de relever de l’exception. D’après la Cour des comptes, près de 140 milliards d’euros y sont dédiées chaque année, soit autant que les salaires versés aux fonctionnaires.

Le capitalisme de plateforme au secours de la classe dominante

De la même manière, la plateformisation de l’économie peut être lue à l’aune de cette volonté de lutter contre la baisse tendancielle du taux de profit.

NDLR : Pour une analyse marxiste du capitalisme de plateformes, lire sur LVSL l’article d’Evgeny Morozov : « « Extraction des données par les GAFAM : aller au-delà de l’indignation »

Il rejoint l’enjeu du travail effectué de façon invisible – et gratuite. La question du travail domestique, encore très largement effectué par les femmes, est un exemple bien connu. Quand une employée de maison exerce les tâches domestiques chez un particulier qui l’emploie, il ne fait aucun doute qu’il s’agit d’un travail dans tous les aspects qu’on lui donne. Dès que cette même femme effectue les mêmes tâches effectuées chez elle, celles-ci ne sont plus qualifiées de travail.

Une dynamique semblable peut être observée dans les domaines où l’économie est numérisée – par d’ingénieux artifices, les travaux salariés disparaissent et sont confiés à des travailleurs non payés. Il n’est que de considérer l’exemple de la bascule des démarches administratives vers la numérisation – à l’image de la déclaration des revenus en ligne – pour s’en convaincre. Par le passé, cet exercice était accompli par les agents des impôts et représentait un travail considérable de saisie informatique. Ce travail a subi une forme de privatisation à l’échelle individuelle : l’exécution de la tâche de saisie informatique est directement effectuée par le contribuable derrière son écran. Bien qu’il y ait des vertus à exempter les agents publics d’une telle tâche pénible et répétitive, son élimination a surtout été stimulée par la suppression de postes et l’accroissement de la charge de travail dans ces services. Comme l’analyse avec brio Frédéric Lordon, la délégation à l’individu du tri des déchets s’inscrit dans la même logique : déléguer un travail auparavant effectué par des salariés qualifiés à des citoyens-usagers, non qualifiés, qui le font gratuitement.

Analyser l’ubérisation au travers de la baisse tendancielle des taux de profit permet de comprendre pourquoi les plateformes représentent l’avenir rêvé par les investisseurs. En effet, si les employeurs sont amenés à gagner moins, à part égale de capital constant, ils ont trouvé dans l’ubérisation un moyen de contourner ce problème – n’ayant plus à supporter le « coût » de la production.

Si la classe dirigeante, attachée à la propriété lucrative source de ses profits, cherche donc à investir de nouvelles sphères d’activité pour étendre ses profits, elle semble en parallèle se lancer dans une large dynamique de désinvestissement de l’appareil productif. Il s’agit ici d’une évolution importante. Historiquement, les classes dominantes utilisaient en effet leur propriété de l’outil de travail des travailleurs comme légitimation de la ponction qu’elles réalisaient sur la valeur créée par le travail de ces derniers. Le capitalisme de plateforme rebat les cartes de cet état de fait et offre désormais la possibilité aux possédants de ne même plus avoir à investir dans l’appareil productif : ils peuvent s’en déresponsabiliser en laissant aux travailleurs eux-mêmes le soin d’acquérir leur propre outil de travail. Ainsi, le chauffeur Uber conduit sa propre voiture, le livreur Deliveroo achète lui-même son vélo, etc. Dans cette perspective, « l’apport » du propriétaire lucratif se retrouve réduit à peau de chagrin : il se contente de proposer une intermédiation entre offreurs et demandeurs, sans assumer aucune autre responsabilité, mais continue de ponctionner une part très importante de la valeur économique créée par les travailleurs de plateforme.

NDLR : Pour une analyse des implications sociales et juridiques de l’ubérisation, à lire sur LVSL : « auto-entrepreneuriat : les chaînes de l’indépendance »

Si l’on sait combien cette intermédiation par le capitalisme de plateforme est à la fois mauvaise pour les travailleurs et évitable, l’analyser au travers de la baisse tendancielle des taux de profit permet de comprendre pourquoi les plateformes représentent l’avenir rêvé par les investisseurs. En effet, si les employeurs sont amenés à gagner moins, à part égale de capital constant, ils ont trouvé dans l’ubérisation un moyen de contourner ce problème – n’ayant plus à supporter le « coût » de la production. En définitive, non seulement le capitalisme de plateforme contourne le droit du travail, endette les travailleurs et les rémunère mal, mais il est aussi un moyen pour les possédants de ne plus avoir à s’encombrer de l’appareil productif dans certains secteurs d’activité, tout en continuant à y exercer une ponction. Le fort développement du télétravail à la faveur de la crise sanitaire peut aussi être lu à l’aune de cette dynamique d’abandon, par la classe possédante, de certains coûts intrinsèquement liés à l’activité réelle. Concrètement, généraliser le télétravail est l’opportunité, pour l’employeur, non seulement de casser la cohésion entre salariés, mais aussi de se débarrasser de certains frais inhérents à l’entretien de l’outil de travail : bureaux, matériel informatique, etc.

La financiarisation comme compensation de la baisse des taux de profit

Un autre secteur d’activité permet de générer beaucoup des profits en supportant un faible coût de production : la finance. Si les détenteurs de capitaux jugent encore insuffisante la ponction qu’ils réalisent sur le travail vivant effectué dans l’économie réelle, ils peut choisir d’utiliser leur patrimoine financier comme un levier de profitabilité démultiplié ou, pour reprendre une expression courante (mais passablement erronée), « faire travailler son argent ». Historiquement, la finance passe principalement par les prêts bancaires, qui permettent de recevoir des intérêts pour avoir mis à disposition des fonds servant aux prêts. Dans le capitalisme contemporain, cette logique s’étend aujourd’hui à des entreprises au départ bien éloignées des métiers de la banque. Il est désormais très courant de pouvoir acheter un produit à crédit sans passer par sa banque.

Le concept de baisse tendancielle du taux de profit permet d’aborder avec moins de naïveté la critique du « productivisme » portée par l’écologisme mainstream et médiatique.

Ainsi, les activités bancaires elles-mêmes sont aujourd’hui dépassées en termes de taux de profit par les activités dites « de marchés », c’est-à-dire les paris en Bourse. Rien de plus simple, en effet, que de spéculer sur la hausse ou la baisse d’une valeur, qu’il s’agisse d’une part d’entreprise (action), d’une dette (obligation), du prix des matières premières, d’une monnaie, d’un indice boursier etc. Les plus-values à la clé peuvent être considérables, tandis que les coûts de production sont ridicules, les traders étant d’ailleurs de plus en plus remplacés par des algorithmes.

La finance, monstre froid déconnecté de l’économie réelle ? Les crises financières révèlent au contraire à quel point elle est imbriquée dans celle-ci. Lorsque les détenteurs de capitaux entrent au capital d’une entreprise, c’est parfois pour spéculer, mais aussi pour acquérir un pouvoir décisionnaire sur les orientations de la production et toucher des dividendes. Généralement indifférents à ce que produit l’entreprise et aux conditions environnementales et sociales dans lesquelles s’exercent cette production, les actionnaires sont en revanche particulièrement attentifs à la rente qu’ils vont pouvoir en obtenir. En exacerbant l’obsession du profit déjà présente dans une entreprise indépendante des marchés financiers, en l’indexant sur une logique de spéculation financière, la finance bouleverse donc le régime d’accumulation capitaliste traditionnel, et porte à un degré supérieur l’obsession de maximisation du taux de profit.

Un capitalisme prédateur

L’impact de la rapacité des détenteurs du capitaux sur les travailleurs, mais aussi sur l’environnement, est un leitmotiv majeur de la théorie marxiste. « Le capital épuise deux choses : le travailleur et la nature », écrivait Karl Marx. Dans la théorie marxiste, le capitalisme élimine toutes les restrictions à l’appropriation de la nature – appropriation, car ce processus conduit à tirer des bénéfices du « travail impayé » extra-humain (accumulation géologique, biodiversité…) en les sortant des bilans des entreprises [5]. Les lentes évolutions géologiques et physiques, étalées sur des millions d’années, ayant permis de constituer les réserves d’hydrocarbures, sont ainsi gratuitement accaparées – on peut en dire autant de la surpêche ou de l’utilisation abusive des sols par l’agriculture intensive, qui détruit la biodiversité sans payer un centime, alors que tout le système de production alimentaire repose sur cette ressource si fragile.

La théorie libérale a bien pris en compte le caractère problématique de cette course vers l’accaparement des ressources, pour le recoder dans la grammaire de la théorie coûts / bénéfices [6]. Il s’agit de mettre en balance l’avantage à polluer obtenu par une entreprise, avec les désavantages pour le reste de la société, traduites en langage libéral comme des « externalités négatives ». Bien évidemment, réussir à évaluer précisément les impacts d’un acte polluant, que cela soit par des études statistiques d’augmentation de risques de cancer ou des effets cumulatifs des multiples dégâts environnementaux, se révèle impossible. Sans compter que cette approche ne prend aucunement en compte la disparition progressive des ressources qui n’ont pas une valeur marchande immédiate – autrement dit, tant que le coût de la disparition d’une ressource naturelle n’a pas été comptabilisé et chiffré, il n’existe tout simplement pas.

Le concept de baisse tendancielle du taux de profit permet d’aborder avec moins de naïveté la critique du « productivisme » portée par l’écologisme mainstream et médiatique. Il profit permet en effet de comprendre pourquoi le productivisme est inhérent au mode de production capitaliste : puisque le taux de profit baisse sur chaque unité produite, il faut produire plus en quantité – ce qui est écologiquement préjudiciable. De même, elle permet de comprendre la cause de la frénésie à l’innovation technique de la part des détenteurs de capital : confrontés à une pression de tous les instants pour améliorer le rendement de leur capital fixe, ils se lancent dans une course sans le luxe de se soucier de son impact environnemental.

Lutte pour l’accaparement de nouveaux marchés, plateformisation, financiarisation, prédation sur les ressources naturelles : ces phénomènes peuvent être compris comme une manière de répondre à la baisse tendancielle du taux de profit. Se pose alors la question du dépassement du système économique dominant à l’ère néolibérale. Il est courant d’opposer, dans les cercles hétérodoxes, un capitalisme fordiste-keynésien à un capitalisme néolibéral et financiarisé – pour vanter les vertus du premier et critiquer les effets néfastes du second. Une analyse en termes marxistes conduirait pourtant à considérer que le second est le produit logique du premier : la transition de l’ère fordiste-keynésienne à l’ère néolibérale peut en effet être lue comme une manière parfaitement rationnelle d’enrayer la baisse tendancielle du taux de profit. Est-ce à dire que la critique du néolibéralisme demeure superficielle, tant qu’elle ne prend pas en compte le mécanisme fondamental qui a conduit à l’apparition du néolibéralisme ?

Notes :

[1] Concernant les niches fiscales, les comptes du budget de l’État en 2020 par la Cour des comptes, page 162. Consultable ici.

[2] Concernant les exonérations de cotisations sociales, Les Comptes de la Sécurité Sociale, Résultats 2019 et prévisions 2020, page 58. Consultable ici.

[3] Par-delà Nature et Culture, Philippe Descola.

[4] Manières d’être vivant, Baptiste Morizot.

[5] La Nature dans les limites du Capital, Jason Moore.

[6] La société ingouvernable, Grégoire Chamayou.

[7] En outre, produire en régime capitaliste implique des coûts mathématiquement plus élevés puisqu’il est nécessaire, en plus des dépenses publicitaires et de marketing, de dégager une marge pour le profit, alors même que la production en est exemptée.

Taxer les « profiteurs de crise », une fausse bonne idée ?

© Robert Anasch

La pandémie de Covid-19 et les mesures qui lui sont associées ont fait ressurgir le thème des « profiteurs de guerre », dénonçant les bénéfices illégitimes effectués par certains lors de la crise sanitaire. Si la possibilité d’une taxation exceptionnelle est à considérer, cette insistance sur le caractère exceptionnel de la situation risque de valoriser comme seul horizon un « retour à la normale », c’est-à-dire à la persistance des problèmes structurels préexistants.

En juin 2020, le député insoumis de la Somme François Ruffin proposait la création d’un « impôt Covid », se justifiant par le caractère exceptionnel de la situation. Celui-ci taxerait à 50% le surplus de chiffre d’affaires réalisé par le e-commerce pendant le confinement, et instaurerait une contribution exceptionnelle sur les sociétés d’assurances excédentaires ou ayant versé des dividendes ; le tout alimenterait un fonds de solidarité pour le petit commerce. L’idée : « que les « gagnants » reversent aux « perdants » », selon le titre de la proposition de loi. Réémerge ainsi en filigrane le thème des « profiteurs », qu’ils soient « de crise », comme les désigne Ruffin, ou de guerre – ceux ayant reçu des bénéfices indus dans une situation critique.

Si une bonne partie de la gauche a refusé l’assimilation de la crise sanitaire à une « guerre » par Emmanuel Macron, comme métaphore militariste malvenue, l’origine de la notion de profiteurs est à interroger. Son arrivée dans le débat public est survenue dans un contexte guerrier, via les pacifistes dénonçant les « marchands de canons » au lendemain de la Première Guerre Mondiale. Il semble alors étonnant de réactiver ce thème si l’on refuse toute perspective guerrière envers la crise sanitaire. Sur quelles analogies se fonde alors le réinvestissement de la dénonciation des profiteurs de crise ? La situation actuelle justifie-t-elle l’emploi de cette catégorie ? Et surtout est-ce une stratégie pertinente politiquement ?

Profiteurs de guerre du passé et du présent

Historiquement, la catégorie de profiteurs de guerre s’est déployée à plusieurs niveaux, que l’on peut chacun considérer au regard de la situation actuelle. Le premier est celui de la trahison avec l’ennemi, duquel participaient aussi les espions. Celui-ci visait surtout les industriels qui continuaient à faire tourner leurs usines comme d’habitude alors que le territoire était occupé par l’ennemi. Dans un contexte de guerre, ce business as usual signifiait qu’une partie de la production serait accaparée par l’ennemi pour son effort de guerre, ce qui était jugé inadmissible. Un paradoxe puisque cette poursuite de l’activité assurait aussi l’approvisionnement indispensable à la population nationale. Ainsi, en Belgique, le baron Evence Coppée, qui avait laissé tourner ses charbonnages durant la guerre, resta coupable aux yeux de l’opinion publique, malgré son blanchissement judiciaire.

Dans le contexte de la crise sanitaire, l’on voit mal qui pourrait être taxé d’ennemi, dans la mesure où le conflit n’est pas inter-étatique. Même si l’on admet que le Covid-19 est ledit ennemi, on se demande qui seraient les « traîtres à sa patrie » s’étant rangé sous les ordres du virus ennemi. Si l’on tenait absolument à maintenir cette catégorie de traître à la patrie, ce serait en réinvestissant le champ géopolitique classique. Il s’agirait par exemple de fustiger une entreprise française ayant refusé d’accorder au marché français un traitement préférentiel. Mais cela reviendrait à positionner le débat exclusivement vis-à-vis d’un autrui extra-national. Or, une pandémie étant par définition internationale, la lutte contre celle-ci l’est aussi. Si les tensions géopolitiques liées à l’accaparement des masques ou des vaccins ne sont pas à sous-estimer, la gestion de l’épidémie ne peut se limiter à la communauté nationale.

Cela nous amène au deuxième mode de compréhension de la notion de profiteur de guerre : seraient qualifiés ainsi ceux qui auraient sacrifié le bien commun à leur intérêt personnel. Cet élément est transposable de la guerre à la crise sanitaire, en vertu d’une tendance commune de l’économie dans ces périodes : la monopolisation. Les périodes de crise favorisent souvent la concentration des activités économiques au sein d’une poignée d’entreprises, plus à même de répondre aux besoins dans l’urgence. En 1914-1918, le nombre d’entreprises dans le secteur de la sidérurgie avait drastiquement diminué, laissant la production aux mains d’un petit cartel d’industriels. De même, la crise sanitaire a fait bondir le chiffre d’affaires de l’industrie pharmaceutique, secteur concentré s’il en est. Ce n’est pas un hasard : les mécanismes de monopolisation ou de concentration à l’œuvre dans les branches utiles pour répondre à la crise permettent la maximisation du surplus du producteur. En théorie économique néoclassique, du moins, le monopole a un pouvoir de fixation du prix au-delà du prix de marché, car il évite le jeu de la concurrence. Se superpose à cette concentration industrielle la propriété intellectuelle des vaccins rendue exclusive par les brevets, qui instaure une concurrence monopolistique. En bref, sans régulation, les mécanismes de concentration propres aux moments de crise enrichissent les propriétaires des entreprises au détriment du bien commun, en renchérissant le prix de leurs biens pourtant essentiels dans l’urgence.

En bref, sans régulation, les mécanismes de concentration propres aux moments de crise enrichissent les propriétaires des entreprises au détriment du bien commun, en renchérissant le prix de leurs biens pourtant essentiels dans l’urgence.

Mais avant tout, la dénonciation des profiteurs de guerre se fonde surtout sur une indignation morale. Ce n’est pas tant l’arbitrage entre intérêt personnel et commun qui semble compter, mais bien l’absence de sacrifice de son intérêt personnel, indépendamment de ses conséquences sur la communauté. Dans une crise affectant a priori l’intégralité de la population, il semble intolérable que quelqu’un ne participe pas de l’effort commun, ne souffre pas, ou tout simplement qu’il continue à vivre comme auparavant. Il y aurait une forme de scandale moral à ce que cette crise en épargne certains arbitrairement, au point même qu’ils pourraient en « profiter ». Cette remise en cause de « l’égalité des conditions devant les coûts et les sacrifices de la guerre » semble alors miner les fondements mêmes de la citoyenneté. Comme si la situation de crise hypostasiait cette citoyenneté, la rattachant non plus aux simples droits et devoirs formels du citoyen abstrait, mais l’indexant sur la stricte égalité des conditions matérielles d’existence. D’où la nécessité de parvenir à celle-ci par la justice, qui voudrait que nul ne pourrait s’approprier personnellement des bénéfices effectués en temps de guerre – qui seraient alors redistribués à la collectivité. François Ruffin insiste notamment sur l’exemple de l’impôt sur le revenu, mis en place en juillet 1914 pour financer la guerre.

L’État, matrice de l’exceptionnalité de la situation

Si la mise en place d’un impôt exceptionnel se justifie, ce n’est pas tant parce que certains ont gagné plus que d’autres. C’est surtout que ces gains exceptionnels sont dus à une conjoncture sanitaire sur laquelle les acteurs eux-mêmes n’avaient pas de prise, face à laquelle ils étaient impuissants. Les contraintes imposées sur la consommation par la crise sanitaire ont modifié sa répartition, et donc la structure des profits selon les secteurs. Dès lors, la croissance du chiffre d’affaires de certains secteurs ou entreprises semble indue. Mais pourquoi ? En réalité, ce n’est pas tant l’arbitraire de l’épidémie qui pose problème ; si tel était le cas, les secteurs en croissance auraient simplement été ceux qui étaient les plus à même de répondre à de nouveaux besoins conjoncturels.

Avant tout, ce sont les choix politiques de confinement ou de couvre-feu, ainsi que les mesures restrictives ayant ciblé des secteurs particuliers, qui ont modifié la structure de la consommation. Dès lors, les bonnes performances de certaines branches ne sont que le reflet de leur possibilité d’exercer en dépit de la restriction générale de l’activité économique. Il ne s’agit pas là d’affirmer que la politique sanitaire du gouvernement fut déconnectée des réalités épidémiologiques, ou que le choix de fermer par exemple les boîtes de nuit ne se justifiait pas vis-à-vis de la propagation du virus. Mais, précisément parce qu’elles sont censées être mûrement réfléchies, les décisions gouvernementales peuvent être bien plus amères lorsqu’elles apparaissent arbitraires. Ainsi, on se souvient des débats sur le caractère essentiel ou non des librairies, et de l’impression tenace que le sort d’une foule de petits commerces dépendait de choix hasardeux ou d’une intervention des lobbies que d’une modélisation épidémiologique rigoureuse. L’argument schumpétérien de la destruction créatrice en devient encore moins pertinent qu’en temps normal : les faillites annoncées ne seraient pas le fruit d’un supposé libre jeu du marché, mais bien directement de décisions politiques conjoncturelles.

Les bonnes performances de certaines branches ne sont que le reflet de leur possibilité d’exercer en dépit de la restriction générale de l’activité économique.

D’où la nécessité d’un rééquilibrage postérieur, l’État garantissant la survie de secteurs autrement condamnés à péricliter. C’est d’ailleurs aussi pour cette raison que l’État a mis en place divers mécanismes de soutien, au premier rang desquels la généralisation du chômage partiel. Le postulat néolibéral selon lequel l’issue au chômage serait la réduction des aides aux chômeurs pour inciter au travail ne peut plus, dans cette situation, avoir la moindre prise. L’État est donc déjà plus interventionniste en ces temps de pandémie qu’en temps normal. Il serait absurde de lui dénier la légitimité d’intervenir ex post pour rééquilibrer les profits, en arguant que ce n’est pas son rôle d’adoucir les effets d’une inexistante concurrence. La mise en place d’une taxation exceptionnelle se révèle indispensable, pour compenser les déséquilibres économiques entraînés par la crise.

Prenons l’exemple de Doctolib. Sa réussite exceptionnelle – entre 150 et 200 millions de chiffre d’affaires en 2020 – est en grande partie due à la promotion par le gouvernement de la téléconsultation pour les rendez-vous médicaux. Comment justifier ces profits privés réalisés grâce aux encouragements des pouvoirs publics ? Déjà actionnaire de Doctolib via la Banque Publique d’Investissement, l’État ne devrait-il pas le nationaliser, du moins le temps de la crise ? On voit mal, ne serait-ce qu’en termes de protection des informations personnelles et du secret médical, ce qui justifierait qu’une entreprise privée soit à ce point responsable de la mise en place de la stratégie de vaccination. Surtout, cela lui confère sur le long terme une position de premier plan, quasi monopolistique, dans la gestion des relations entre médecins et clients. L’État, particulièrement en temps de crise, doit savoir agir au-delà de la préservation du libre jeu du marché à laquelle se livre frileusement l’Autorité de la concurrence. En l’occurrence, la formation d’un monopole aussi incontournable dans cette conjoncture requiert manifestement une intervention étatique, par exemple sous la forme d’une « taxe Covid ».

Réponse d’urgence et stratégie de long terme

La dénonciation des profiteurs de crise semble alors se justifier. Ainsi, certaines entreprises ont pu frauder vis-à-vis du chômage partiel, ou simplement toucher des aides alors qu’elles se portaient relativement bien. Mais le choix de mobiliser ce registre des profiteurs est risqué, politiquement parlant, dans la mesure où cela circonscrit le débat à la conjoncture actuelle. En effet, prendre appui sur les distorsions conjoncturelles du marché pour justifier la régulation étatique risque parallèlement d’ériger en norme l’idéal du marché libre, confusément assimilé à la situation antérieure.

Prendre appui sur les distorsions conjoncturelles du marché pour justifier la régulation étatique risque parallèlement d’ériger en norme l’idéal du marché libre, confusément assimilé à la situation antérieure.

De même, paradoxalement, fixer son attention sur les pertes imposées aux entreprises durant la crise sanitaire alimente la rhétorique d’un besoin vital d’aides étatiques aux entreprises. Certes, le besoin d’aides pour certains secteurs était réel et seul l’État peut assumer ce rôle. Mais n’oublions pas pour autant le devoir de responsabilité qui devrait s’imposer par ailleurs aux entreprises. Non pas, bien sûr, que les entreprises soient responsables de leur activité ou non durant la crise, ni qu’elle devraient l’avoir anticipée en se constituant une trésorerie abondante. Mais sans vision de long terme, les diverses aides aux entreprises risquent bien d’entériner le principe néolibéral de socialisation des pertes et de privatisation des gains.

Si un impôt exceptionnel était mis en place, il y aurait certes une forme de rééquilibrage des gains effectués durant la crise. Mais il y a fort à parier que, si cet impôt ne se pérennisait pas au-delà de la crise, les entreprises reviendraient à un paradigme d’irresponsabilité totale vis-à-vis de la collectivité. Les divers impôts sur les entreprises ne seraient toujours vus que comme une forme de « matraquage fiscal », l’État étant supposé illégitime à interférer dans les affaires du privé. Or, il est désormais de plus en plus évident que les crises vont continuer à se multiplier, notamment en raison de la catastrophe climatique et environnementale. Dans ce contexte, si les entreprises en difficulté peuvent se faire aider par l’État en cas de besoin, alors il n’y a aucune raison qu’elles échappent à l’impôt en temps normal, précisément pour rééquilibrer la transaction. L’État ne peut être cantonné au rôle de sauveur en dernier ressort si les entreprises n’assument pas leur responsabilité dans le financement de ces politiques.

Les GAFAM ne seront pas démantelés

© Aymeric Chouquet pour LVSL

Depuis son investiture, Joe Biden multiplie les clins d’oeil à l’égard des géants de la tech. L’époque où les médias français se réjouissaient d’un possible démantèlement des GAFAM par la justice américaine semble lointaine. La déclaration de guerre de la procureure démocrate Letitia James à l’encontre de Facebook, en décembre dernier, a fait long feu. Elle affichait pourtant une détermination sans faille : l’entreprise monopolistique de Mark Zuckerberg devait tomber sous le coup des lois anti-concentration. S’il n’est pas à exclure qu’une série de régulations soit finalement imposée aux créatures de la Silicon Valley, elles ne mettront pas en cause leur situation de monopole sur le marché global. Celle-ci confère aux États-Unis un ascendant auquel ils ne sont pas prêts de renoncer – et pour le maintien duquel ils mènent d’ores et déjà une guerre judiciaire féroce. Dans ce contexte, quoi de mieux qu’une belle opération de communication destinée à créer un vent de sympathie mondial en faveur de la justice américaine ? La lutte apparente entre les procureurs américains et les GAFAM semble partie intégrante de celle-ci.

Suite à la plainte de quarante-huit États fédérés contre Facebook, accusé d’être en situation de monopole, la procureure démocrate Letitia James a porté en décembre 2019 la procédure au niveau fédéral. 

Cela faisait plusieurs mois que le réseau social de Mark Zuckerberg était dans le collimateur du Parti démocrate ; deux mois plus tôt, un rapport parlementaire recommandait le démantèlement des principaux GAFAM, tandis que des enquêtes d’opinion indiquaient que la majorité des Américains serait favorable à une telle mesure.

De la Commission européenne à la justice américaine : « Offensive générale » contre les GAFAM ?

La procureure Letitia James est elle-même une critique de longue date du monopole qu’exercent les géants de la tech sur l’économie américaine. « Cela fait près d’une décennie que Facebook utilise son pouvoir de monopole pour écraser ses rivaux et éliminer la compétition », a-t-elle déclaré lors d’une conférence de presse visionnée des centaines de milliers de fois sur YouTube (et ironiquement mise en avant par la plateforme, sous la forme de recommandation aux utilisateurs, par le hasard des algorithmes ou un modérateur taquin).

En Europe, cette décision a bénéficié d’une couverture médiatique résolument favorable. Il est vrai que la Commission européenne bataillait depuis plusieurs années pour lutter contre la situation de monopole des géants américains. La commissaire à la concurrence en pointe dans ce combat, Margrethe Vestager, n’avait obtenu que de bien maigres résultats ; un tel renfort venu d’outre-Atlantique était bienvenu.

Le secteur des technologies de la communication et de l’information, aux États-Unis, est intimement lié au complexe militaro-industriel. Non seulement le premier est partiellement le sous-produit du second, mais ils possèdent un rôle analogue comme instruments géopolitiques de la puissance américaine.

Les GAFAM, pris en étau entre la législation concurrentielle de la Commission en Europe, et la plainte de Letitia James aux États-Unis ? « Offensive générale contre les GAFA », conclut un article de Konbini.

L’ex-commissaire européenne à la concurrence, Margrethe Vestager, érigée au rang de « personnalité de l’année » par le Point en 2019. Cette égérie médiatique n’a en réalité remporté aucun succès notable contre l’hégémonie des GAFAM.

Deux mois après le commencement de cette croisade du Parti démocrate contre les GAFAM, Joe Biden était investi président. Certains mauvais esprits faisaient alors observer que les géants de la tech, loin de craindre cet instant, avaient manifestement misé sur son élection. Si parmi les « grands donateurs » en faveur de Donald Trump on ne trouve guère que Peter Thiel, le fondateur de PayPal, Joe Biden a bénéficié du soutien d’une myriade de « poids lourds » de la Silicon Valley – Eric Schmidt, l’ancien PDG de Google, aux côtés de Reed Hastings, le fondateur de Netflix, ou encore Dustin Moskowitz, l’un des pionniers de Facebook. 

Pour une analyse de la composition de l’administration Biden, lire sur LVSL l’article de Politicoboy : « Administration Biden : le retour du statu quo néolibéral »

La nomination de Kamala Harris ne sonnait pas non plus comme une fin de règne pour les GAFAM. Il faut dire que son bilan comme procureure générale de Californie (2011-2017) ne témoigne pas d’une hostilité foncière, de sa part, à l’égard des big tech. Elle avait au contraire signé de nombreux contrats avec Palantir, l’entreprise de data-analyse proche des services secrets, lui confiant notamment la charge d’améliorer les techniques de répression prédictive de la police1.

Le positionnement de Joe Biden et de Kamala Harris à l’égard de la question du démantèlement des GAFAM est pourtant déterminant, car le Department of Justice (DOJ), à partir duquel une telle décision peut être impulsée, dépend directement de l’exécutif… 

Au-delà du seul Parti démocrate, dont la proximité historique avec la Silicon Valley est bien connue, il faut prendre en compte le contexte géopolitique propre à la décennie qui vient. Les implications de celui-ci sont, pour une bonne part, bipartisanes. Et s’il y a bien un constat que Parti républicain et Parti démocrate partagent, c’est celui de la montée en puissance de la Chine, et du danger croissant qu’elle exerce sur la suprématie numérique des États-Unis parvenue à son zénith. Bipartisan fut en conséquence le vote du Cloud Act en 2018, qui permet aux États-Unis d’espionner légalement l’ensemble des acteurs économiques ou politiques qui stockeraient leurs données sur un serveur américain.

Face à cette logique de puissance, visant à réaffirmer la prééminence des géants américains de la tech, que pèse leur violation des règles de la concurrence – qu’au demeurant personne n’avait attendu l’année 2020 pour constater ? On voit ici qu’une approche juridique de la question du démantèlement des GAFAM est inopérante, sans prise en compte de leur fonction géopolitique.

La Silicon Valley, département numérique du complexe militaro-industriel – d’In-Q-Tel à SWIFT

Le secteur des technologies de la communication et de l’information, aux États-Unis, est intimement lié au complexe militaro-industriel. Non seulement le premier est partiellement le sous-produit du second, mais ils possèdent un rôle analogue comme instruments géopolitiques de la puissance américaine. Cette double proximité a conduit certains chercheurs à forger le concept de « complexe industrialo-informationnel » (information-industrial complex).2

Pour une mise en contexte de l’émergence des géants de la Silicon Valley, lire sur LVSL l’article d’Eugène Favier-Baron : « Que cache la défense de l’internet libre ? »

Cette intrication remonte aux années 1990. Le candidat Bill Clinton, dans un contexte post-Guerre froide, avait pour agenda la réduction du budget militaire des États-Unis, visant à réallouer ces fonds au secteur de l’information et de la communication. Une fois élu, il procéda à ce réagencement des subventions étatiques. La frontière entre le secteur de la défense et celui de l’information et de la communication demeurait bien sûr des plus poreuses.

L’agence In-Q-Tel, créée en 1999 afin de fournir la CIA en technologies de pointe, est le symptôme le plus manifeste de cette hybridation. Dotée d’un budget d’une cinquantaine de millions de dollars, elle était destinée à financer les entreprises prometteuses dans le secteur numérique émergeant. Les actuels « géants » sont nombreux à avoir bénéficié des fonds d’In-Q-Tel. Ce fut le cas de Facebook, mais aussi de Google, ou encore de Keyhole, entreprise rachetée par Google et renommée Google Earth.

In-Q-Tel avait un triple objectif : la protection des informations des Américains (information security), la promotion de l’usage d’internet à échelle globale, ainsi que le perfectionnement des techniques permettant de capter, de fusionner et d’agréger un nombre croissant de données (data fusion and integration) collectées dans le monde entier.3 La connexion comme moyen de permettre aux flux américains de pénétrer l’ensemble des territoires, la cartographie du monde comme précondition à une captation de masse des données par la Silicon Valley : la doctrine des États-Unis en la matière n’a pas varié. Les entreprises privées, financées par l’État, en ont été l’instrument.

Le logo d’In-Q-Tel

Tout a par la suite concouru à l’expansion de ce complexe industrialo-informationnel : la marchandisation des données encouragée par le développement des réseaux sociaux, le raffinement des technologies destinées à les capter, ou encore l’agenda sécuritaire initié par le 11 septembre. Rares sont les sujets pour lesquels un consensus bipartisan s’est dégagé aussi nettement. L’impératif de transition numérique des cinq continents, sous l’égide de la Silicon Valley, a été réaffirmé par l’ensemble des administrations démocrates et républicaines – qu’il s’agisse de promouvoir la liberté de connexion dans le monde entier pour les uns (la doctrine Freedom to connect défendue par Hillary Clinton) ou de protéger le monde de la menace terroriste pour les autres (la guerre contre le terrorisme de George Bush comportant un important volet digital).

La place prépondérante qu’occupent désormais les entreprises américaines dans le contrôle des stocks (serveurs, infrastructures de connexion) et la production des flux numériques confère aux États-Unis un avantage géopolitique sans pareil.

Prendre des mesures contre Facebook constituerait une habile opération de communication en direction du reste du monde, à l’heure où les États-Unis appellent l’ensemble du globe à faire bloc face à la Chine.

Le contrôle des stocks permet aux États-Unis d’avoir accès à une masse inquantifiable de données. Toutes celles qui sont hébergées sur un secteur américain sont de facto accessibles au gouvernement et à la justice nord-américaine.4 Le scandale SWIFT en a été l’un des révélateurs. De cette capacité sans pareil d’accès aux données d’entreprises étrangères, couplée au caractère extra-territorial du droit américain, découlent des bénéfices considérables en termes d’intelligence économique. Le rachat d’Alstom par General Electrics en témoigne : Frédéric Pierruci, l’ex-numéro deux d’Alstom, a été condamné par la justice américaine sur la base de messages hébergés par Google mail, auxquels le FBI a pu avoir accès. Plus récemment, c’est le marché européen de la santé qui semble être dans le collimateur des GAFAM ; ils comptent tirer avantage de leur capacité d’hébergement des données pour en prendre le contrôle. La volonté de Microsoft d’héberger les données de santé françaises apparaît comme un signal faible de cet agenda…

Lire sur LVSL la synthèse réalisée par Eugène Favier-Baron, Victor Woillet, Sofiane Devillers Guendouze et Yannick Malot sur le système SWIFT, et celle rédigée par Audrey Boulard, Simon Woillet et Eugène Favier-Baron sur l’agenda de Microsoft quant aux données de santé françaises.

La régulation des flux numériques par des algorithmes majoritairement américains offre quant à elle d’indéniables avantages en termes de softpower. Il suffit, pour s’en convaincre, de songer aux déclarations d’Eric Schmidt, l’un des hiérarques de Google, affirmant en 2018 qu’il « travaillait au déréférencement » des sites de propagande russes…

Et quand le contenu d’un réseau social ne penche pas spontanément en faveur des États-Unis, il arrive à ceux-ci de requérir une régulation légale qui se superpose à la régulation algorithmique préexistante.5

La prise en compte des avantages géopolitiques que confèrent les GAFAM aux États-Unis permet de prendre la mesure des forces qui s’opposeraient aux tentatives de démantèlement. Si l’une d’entre elles aboutit, on peut être certains qu’elle n’aura pas pour conséquence l’apparition d’un marché numérique concurrentiel, mais simplement le réagencement de la structure oligopolistique qui domine aujourd’hui, et qui soutient la puissance américaine.

Clayman Act et Sherman Act : Mark Zuckerberg subira-t-il le destin de John D. Rockefeller ?

La référence aux lois anti-trust du XIXème siècle, mobilisée par nombre de médias américains, est à cet égard éclairante. La plainte déposée par la procureure Letitia James se fonde sur le Clayton Act et le Sherman Act (1890). Ces deux lois anti-concentration avaient permis au président Theodor Roosevelt de briser le monopole pétrolier du milliardaire John D. Rockefeller. Son entreprise, la Standard Oil Company, avait été démantelée en 1911 sur cette base légale.

Titre d’un article des Échos (février 2018), reprenant un leitmotiv des médias américains.

La référence au Clayton Act et au Sherman Act, dans ce contexte, est donc claire : il s’agirait de mettre à mal la position monopolistique d’Amazon et de Facebook comme on avait mis fin à celle de la Standard Oil Company. Cette analogie sonne comme un aveu d’impuissance – ou, selon les points de vue, comme une proclamation de puissance. 

Le Sherman Act et le Clayton Act n’ont en effet permis le démantèlement de la Standard Oil company que pour donner naissance à un gigantesque oligopole pétrolier. Le moins que l’on puisse dire est que les majors pétroliers américains (Exxon, Texaco, Chevron, Mobil…), nés des entrailles de ces lois anti-concentration, ont continué à dominer l’économie américaine, ainsi que le marché pétrolier mondial. Les avantages géopolitiques que les États-Unis ont retiré, durant tout le XXème siècle, de leur prééminence sur l’or noir, ne sont plus à établir.

De la même manière que le Sherman Act et le Clayton Act n’ont aucunement menacé la domination américaine sur le marché pétrolier global, on peut être certain que les éventuelles mesures anti-concentration qui seraient prises dans le domaine de la big tech ne mettraient pas en danger la suprématie des États-Unis sur le marché des données. 

Plusieurs responsables démocrates ont par exemple évoqué la perspective d’une scission entre Facebook et Instagram. Aussi dommageable que puisse devenir celle-ci pour les profits immédiats de l’entreprise de Mark Zuckerberg (qui perdra peut-être deux ou trois rangs dans le classement des plus grandes fortunes mondiales), on admettra qu’une telle décision ne risquerait pas de mettre en cause la domination des Américains sur le marché des données.

Cette nouvelle primauté permet à la Chine de réclamer à cor et à cri un rééquilibrage de l’ordre juridique global dans le domaine des télécommunications et du numérique.

Elle permettrait au Parti démocrate de refaire peau neuve à peu de frais, fournissant un exutoire à la défiance populaire envers Facebook, et envoyant un signal positif au reste du monde – celle d’une puissance capable de se réformer. Une opération de communication qui ne serait pas inutile, à l’heure où les États-Unis appellent l’ensemble du globe à faire bloc face à la Chine.

GAFAM contre BATX : la guerre pour le contrôle des organisations judiciaires internationales

La domination des États-Unis sur le marché mondial des données pourrait difficilement être plus absolue. Parvenue à son apogée, elle est à présent mise en danger par l’éveil de la Chine. L’empire du milieu escompte en effet briser cette prédominance, et lancer à l’assaut de la citadelle des GAFAM ses propres champions, les BATX [sigle désignant les géants chinois : Baidu, Alibaba, Tencet et Xiamoi ndlr]. Les succès commerciaux de Huaweï, l’avance prise par la Chine sur la 5G, ne sont que la pointe avancée d’une réussite croissante dans la poursuite de cet agenda. Il faudrait également mentionner l’expansion des entreprises de télécommunications chinoises dans les pays du Sud, destinées à les doter d’infrastructures facilitant la connexion à internet – moyennant le stockage de leurs données sur des serveurs chinois.

Pour une analyse des rivalités sino-américaines dans le domaine du numérique, lire sur LVSL l’article de Sarah Vennen : « Cyber-colonialisme : comment le régime de surveillance chinois s’impose au Zimbabwe ».

Un an avant le Cloud Act américain, une loi sur la cyber-sécurité était votée en Chine, contraignant les entreprises à transférer leur stock de données au gouvernement lorsque celui-ci l’exigeait – une manne qui croîtra tant que s’étendra le réseau chinois de télécommunications et de serveurs. 

C’est dans le domaine des brevets et des régulations juridiques internationales que la Chine déploie une agressivité maximale. Longtemps dépendante de brevets américains, pour l’acquisition desquels elle a payé le prix fort, la Chine occupe désormais une position confortable en la matière. Huaweï concurrence à présent les GAFAM comme détenteur de brevets et percepteur de redevances. Cette nouvelle primauté permet à la Chine de réclamer à cor et à cri un rééquilibrage de l’ordre juridique global dans le domaine des télécommunications et du numérique. L’International Union of Telecomunications (ITU) et l’Internet Corporation for Assigned Names and Numbers (ICANN, qui alloue les noms de domaines aux sites internet) ont historiquement été dominés par les États-Unis. La Chine est à présent en mesure de contester cet état de fait. Les États-Unis devront déployer un argumentaire juridique pour contenir la progression de l’empire du milieu, et il est à prévoir que le Department of Justice recourt à de nouvelles sanctions contre les géants chinois dans les prochaines années. 

Cet agenda de judiciarisation agressive sera d’autant mieux reçu que les États-Unis seront capables de montrer patte blanche et de procéder à une auto-critique à la face du monde. C’est à la lueur de cet état de fait que l’on peut interpréter la promotion médiatique de la campagne de Letitia James contre Facebook, et les critiques adressées par les démocrates aux GAFAM. Il s’agit de restaurer un softpower abîmé par les quatre années de la présidence de Donald Trump, en donnant des gages à une opinion mondiale inquiète de la croissance sans fin des géants transcontinentaux du numérique. Son blason redoré, le Department of Justice pourra revenir à la charge et faire barrage à la progression chinoise, quitte à sacrifier une fraction de la fortune personnelle de l’un ou l’autre des géants de la tech.

Pour une analyse de la lutte entre la Chine et les États-Unis visant à contrôler les institutions juridiques internationales qui régulent le numérique, lire sur LVSL la recension effectuée par Bérenger Massard de l’ouvrage de M. Powers et S. Jablonsky, The real cyber war.

Une séparation entre Facebook et Instagram ferait sans aucun doute la « Une » des médias européens. Elle susciterait une opposition acharnée de la part de leur PDG et un affrontement féroce avec les procureurs en charge de l’affaire, qui mettraient en avant la protection des données personnelles et la lutte contre les monopoles. Grandie, la justice américaine pourrait alors pointer du doigt la puissance chinoise et rallier ses alliés traditionnels dans sa lutte pour conserver sa prédominance.

Une aubaine pour les commissaires européens ? Ceux-ci se trouvent dans une bien fâcheuse posture. D’un côté, ils refusent d’engager une politique ambitieuse pour construire la souveraineté de l’Europe en matière numérique6. De l’autre, ils souhaitent réguler les géants américains en les soumettant aux normes européennes de concurrence et de protection des données – c’est le sens du RGPD ou, plus récemment du Digital Market Act. En somme, un internet américain soumis – bien docilement – à la législation européenne : comment ne pas esquisser un sourire ?

Des mesures symboliques fortes prises par la justice américaine contre Facebook – en matière de lutte contre les monopoles ou de protection des données – permettraient à la Commission de se dépêtrer de cette situation embarrassante. Si le Department of Justice exécute ce qu’elle est incapable d’imposer, quel besoin de s’inquiéter de la domination numérique des États-Unis en Europe ?

Une aubaine pour Emmanuel Macron ? Il pourrait se reposer sur la Commission européenne, la tête haute, de la même manière que la Commission se reposerait sur la justice américaine. Ainsi, la question de la souveraineté numérique française cesserait même d’être posée. Les critiques de la domination d’outre-Atlantique se verraient marginalisées ; faut-il déployer un anti-américanisme primaire pour se plaindre de la tutelle des États-Unis sur le numérique, alors même que ceux-ci déploient des trésors d’inventivité pour le réguler et défendre la vie privée des utilisateurs !

Par bien des aspects, l’agenda de régulation des GAFAM par le Parti démocrate apparaît comme une énième manoeuvre de séduction à l’égard des élites européennes. Un moyen de présenter à la face du monde une Amérique libérale, progressiste, capable d’auto-critique, à même de conjurer les velléités indépendantistes du vieux continent. Une cuiller de miel destinée à faire avaler de nouveaux litres d’huile de ricin.

Notes :

1 Olivier Tesquet, État d’urgence technologique – comment l’économie de la surveillance tire partie de la pandémie, Premier parallèle, 2020.

2 Shaun Powers et Michael Jablonski, The real cyber war, University of Illinois Press, 2015.

3 Ibid.

4 Le Cloud Act, voté par le Congrès en 2017, permet désormais l’accès du gouvernement à n’importe quelle donnée hébergée sur un serveur américain. Il ne s’agit que de la légalisation d’une pratique largement répandue auparavant, comme en attestent les révélations d’Edward Snowden.

5 Il apparaît douteux que les multiples lois votées par le Congrès américain – et directives édictées par la Commission européenne – visant à lutter contre les fake news n’aient pas été partiellement motivées par la volonté de re-réguler les réseaux sociaux dans un sens plus favorable aux États-Unis, et moins à la Russie.

6 Ce n’est qu’en 2020 que la Commission européenne a commencé à employer le terme de « souveraineté numérique », dans sa « stratégie pour une Europe adaptée à l’ère du numérique ».

Commerces fermés, emplois menacés

Restaurant fermé à Paris suite aux mesures contre le COVID-19. © Mikani

Alors que semblait se profiler un troisième confinement, les bars et restaurants restent désespérément clos. Comme tant d’autres, ces professionnels se retrouvent donc sans perspective stable après presque un an de fermeture. Cette mesure, catastrophique pour les petits commerces, ne repose pourtant sur aucun fondement scientifique, notamment dans les zones peu denses. Dès lors, elle est apparue comme une distorsion de concurrence au profit de la grande distribution et de la vente en ligne. La portée des conséquences pour les 600.000 entreprises et les 1,3 millions d’actifs potentiellement menacés est loin d’être pleinement mesurée par le pouvoir politique.

Le 30 octobre, le président annonçait une deuxième vague de confinement en France. Dès le lendemain, les commerces « non essentiels » devaient baisser leur rideau. Depuis, la fronde autour de cette définition floue a traversé tout le pays. L’opinion a en particulier perçu la situation de concurrence déloyale induite par la possibilité pour d’autres canaux de distribution de continuer à vendre. Cette mesure est subie d’autant plus durement que les efforts et investissements consentis par ces « commerces non essentiels » pour se conformer aux nouvelles contraintes ont été importants. En tout état de cause, la définition du protocole après la fermeture administrative plutôt qu’avant laisse songeur.

La brutalité de cette mesure, annoncée la veille pour le lendemain, sans concertation et sans alternative, est symptomatique de la gestion de crise. La grande distribution avait pourtant bénéficié de quelques jours pour faire fermer ses rayons non essentiels, suscitant la ruée sur les jouets de Noël. In fine, cette dernière mesure s’est révélé parfaitement inique : elle n’a bénéficié qu’aux géants de la vente en ligne, comme l’ont déjà fait remarquer associations et élus.

La brutalité de cette mesure, annoncée la veille pour le lendemain, sans concertation et sans alternative, est symptomatique de la gestion de crise.

Les déclarations – uniquement symboliques – du gouvernement à propos d’Amazon révèlent un rapport de force largement défavorable. Visiblement, l’intérêt général ne permet pas d’envisager des mesures limitatives à l’égard de la vente en ligne, alors qu’il s’agit de la justification qui a présidé à la fermeture des commerces. Et ce malgré la distorsion de concurrence induite par le virus et les risques existants sur les plateformes logistiques. En parallèle, les propos de la start-up nation invitant les commerces traditionnels à se numériser et les aides proposées font l’impasse sur la relation humaine au cœur de leur activité.

En outre, le passage à la vente en ligne relève d’une véritable stratégie, et ne constitue en rien une solution de crise. Les villes qui ont permis d’effectuer ce passage l’avaient préparé dès le premier confinement. Aussi, l’État aurait eu davantage intérêt à nationaliser l’une des start-ups qui interviennent dans le domaine. En créant un véritable service public pour ces entreprises, il aurait offert une aide concrète et immédiate. En l’absence de stratégie coordonnée pour engager ce virage, les initiatives ont essaimé dans tous les sens. Bien que proche du terrain, cette effusion a beaucoup coûté en énergie et en temps, et elle désoriente le consommateur.

Un tissu économique vital très fragilisé

Depuis le premier confinement, les commerces physiques se trouvent fragilisés. En effet, malgré les aides existantes, les commerces ont dû investir pour rouvrir en mai mais sont encore confrontés à des évolutions du protocole sanitaire. En parallèle, suite aux restrictions, ces établissements se voient contraints de fonctionner en sous régime par rapport à leurs capacités. En conséquence, ils se retrouvent face au dilemme suivant : ou bien rester fermés et ne plus avoir de revenus pour assumer leurs charges, ou bien rester ouverts en fonctionnant à perte.

La première variable d’ajustement sera logiquement l’emploi, malgré les mécanismes mis en place pour le soutenir. Les aides apportées, notamment sous forme de prêts ou de reports de charges, se sont vite avérées insuffisantes. Si elles répondent à un besoin temporaire de trésorerie, elles ne compensent pas les pertes liées au manque d’activité. Et ce d’autant que l’endettement des entreprises avait déjà augmenté ces dernières années. Les montants consentis dans le cadre du plan de relance en septembre, entre 10 et 20 milliard d’euros, apparaissent déjà bien en deçà des besoins.

Aujourd’hui encore c’est l’incertitude qui menace les perspectives de ces employeurs.

Aujourd’hui encore c’est l’incertitude qui menace les perspectives de ces employeurs. Les tergiversations permanentes du gouvernement depuis les fêtes ont conduit de nombreux français à renoncer ou à reporter leurs dépenses, d’où une gestion particulièrement complexe des stocks, notamment dans le secteur de la restauration. Les restaurateurs, s’appuyant par ailleurs sur une date de réouverture aussi lointaine que provisoire, souffrent, à l’égal des dirigeants d’entreprise, d’un manque de visibilité sur la perspective d’une vraie reprise d’activité qui les empêche de prendre les mesures nécessaires pour « tenir ». Nous avons recensé ci-dessous le niveau de menace sur l’emploi dans les principaux secteurs concernés :


Tableau de synthèse du niveau de risque pour les principales activités touchées par le confinement.

Des chiffres encore parcellaires

Pourtant, l’ensemble des mesures consenties pour soutenir les entreprises a amorti les effets de la crise. De nombreux facteurs s’alignent pour repousser les faillites d’entreprises. En premier lieu, le moratoire sur les dettes bancaires a permis de gagner plusieurs mois. En outre, de nombreux professionnels ont cherché à limiter leurs pertes au moment du déconfinement. Le temps du bilan est attendu avec la clôture comptable, au 31 décembre ou au 31 mars, pour l’essentiel des entreprises. Enfin, les procédures de liquidation ont également pris du retard, même si, pour l’heure, l’activité des tribunaux de commerce reste limitée.

Le nombre d’entreprises en difficulté pourrait en revanche faire gonfler le volume des fermetures très prochainement.

A ce titre, les données de leur activité 2019 et les statistiques de 2020 (à fin novembre), sont éloquentes. Si le bilan est globalement positif, l’impact sur les créations d’entreprise est déjà visible – en baisse de 4 %. Toutefois, une forte concentration est observée sur le début d’année (20 % des créations sur janvier-février). Le nombre d’entreprises en difficulté (procédure de sauvegarde, de redressement judiciaire, ou liquidation judiciaire) pourrait en revanche faire gonfler le volume des fermetures très prochainement. Les annonces successives de plans sociaux ajoutées à celles de ces fermetures laissent présager une année noire pour l’économie et l’emploi.

Dynamiques de création d’entreprises en 2019 et 2020 (source : Observatoire statistique des greffiers des tribunaux de commerce).

En outre, de nombreuses entreprises se trouvent fragilisées en termes de trésorerie. Elles y ont largement puisé pour assumer leurs charges au cours du premier confinement, mais le deuxième et le troisième pourraient s’avérer fatal. Ainsi, selon l’observatoire BPI France des PME, 50 % d’entre elles déclaraient déjà rencontrer des difficultés de trésorerie à la veille du reconfinement. Or, c’est une double crise qui menace ces établissements. Tout d’abord, une crise d’insolvabilité, compte-tenu de l’activité non réalisée et non récupérable. À ce titre, les seules mesures de prêts ou de reports se révèlent insuffisantes, comme évoqué précédemment. En second lieu, c’est une crise de rentabilité qui s’annonce. En effet, même avec des comptes positifs, de nombreux dirigeants d’entreprise estimeront que les revenus tirés de leur activité récompensent péniblement leurs efforts et le risque associé.

De lourdes conséquences à venir

Ce contexte risque d’avoir des conséquences durables, en particulier dans les villes moyennes et certaines zones rurales, où le petit commerce représente l’essentiel de l’activité et de l’emploi. Ainsi, le commerce en ville moyenne représente 12 % du nombre total de commerces en France. Pourtant, avant d’être jugés « non essentiels » ceux-ci avaient fait l’objet d’une attention particulière des pouvoirs publics. Le programme Cœur de ville prévoyait 5 milliards d’euros d’aides sur un programme pluriannuel. Et 5 millions d’euros avaient déjà été mobilisés en soutien aux boutiques impactées par les manifestations des Gilets jaunes.

Le soutien aux commerces et artisans a pu être jugé excessif au regard d’autres dispositifs d’aides. Il faut toutefois prendre en compte le fait qu’il agit pour contrer un risque impondérable et global ; comme pour l’emploi au travers du chômage partiel, il est légitime que la collectivité prenne sa part de l’effort. Mais malgré cela, la protection face à la perte d’activité des indépendants reste limitée. Il faut également considérer qu’il s’agit d’un moment économique inédit, celui d’un arrêt complet de l’activité. On ne peut le comparer à la « destruction créatrice » chère aux économistes libéraux. Ici, le coût de la destruction économique a d’autres répercussions : l’effondrement simultané de plusieurs secteurs sans possibilité de transfert, le découragement des entrepreneurs, des coûts liés à la liquidation des entreprises.

Il convient par ailleurs de relativiser la pertinence de ce soutien. En effet, de nombreuses entreprises n’ont pas encore accédé à ces dispositifs, du fait de la complexité des dossiers et de l’engorgement des services chargés de les traiter. Pour étayer ce point, il suffit de relever que l’administration compte 1.923 types d’aides différents pour les entreprises, cela ne contribue guère à leur lisibilité. En outre, les 402.000 entreprises créées cette année sont exclues d’office des aides directes.

La conséquence la plus spectaculaire devrait être un renforcement de la concentration du capital.

La conséquence la plus spectaculaire devrait être un renforcement de la concentration du capital. Or, l’économie française est déjà particulièrement hiérarchisée. Selon les données de l’INSEE sur les entreprises, 50 grandes entreprises emploient 27 % des salariés, réalisent 33 % de la valeur ajoutée totale et portent 46 % du total de bilan des sociétés. L’accroissement du patrimoine des grandes fortunes en est un symptôme. En parallèle, tandis que l’économie n’a cessé de croître, le nombre des indépendants (artisans, commerçants et chefs d’entreprise) a baissé de façon spectaculaire sur des décennies.

Ceci implique qu’un nombre croissant d’entreprises se retrouve entre les mains d’un nombre de plus en plus restreint d’individus, expliquant pour partie la croissance des inégalités. La concurrence exacerbée tendra inexorablement à amplifier cette concentration ; on l’observe sur de nombreux marchés, les grandes entreprises finissent par avoir les moyens de racheter ou de faire disparaître les plus petites. Les données de l’INSEE montrent ainsi que le poids des artisans, commerçants et chefs d’entreprise dans la population totale a diminué de deux tiers depuis 1954 et encore de moitié depuis 1982.

Part des indépendants dans la population active (source : INSEE).

Cette baisse n’est pas continue, elle s’est stabilisée dans les années 2000 peu avant une remontée liée au statut d’auto-entrepreneur, remontée qui ne traduit toutefois pas véritablement un regain de « l’esprit d’entreprise » si l’on s’en tient au profil et aux activités des créateurs concernés. En effet, pour une part significative d’entre eux, l’autoentreprise représente principalement une alternative au chômage. Ainsi 25 % des 400.000 nouveaux auto-entrepreneurs de 2019 étaient chômeurs au lancement de leur activité. En complément, il ne faut pas négliger le phénomène « d’uberisation » – d’externalisation du salariat –, plus avancé qu’il n’y paraît. Ainsi, les chauffeurs représentent une part non négligeable de la croissance des microentreprises, dont près de 10 % sont actives dans les transports. Le secteur du BTP est également bien représenté, où il s’agit aussi en grande partie d’un salariat déguisé.

Par conséquent, ce coup d’arrêt forcé pourrait plus que jamais mettre à mal le modèle concurrentiel fondé sur l’entreprise individuelle, modèle déjà progressivement rongé par les privilèges exorbitants que peuvent se faire attribuer les grandes entreprises. Il faut également garder à l’esprit que l’entreprise, et plus précisément le commerce, a permis à des générations entières d’accéder à une promotion sociale en dehors du cursus scolaire classique. Il reste dès lors à prendre la mesure des conséquences morales et politiques de cette période. En effet, un tiers des artisans est âgé de plus de 50 ans, et nombre d’entre eux pourraient se montrer complètement découragés, menaçant l’extinction d’une grande partie de notre savoir-faire en matière d’artisanat, de gastronomie, d’hospitalité et de tant d’autres domaines.

Libéralisation du secteur de l’électricité : la grande arnaque

https://pxhere.com/fr/photo/1507247

Initialement justifiée par une promesse de prix plus bas pour les consommateurs français, la libéralisation du secteur de distribution de l’électricité aux particuliers s’est finalement traduite par une envolée des tarifs réglementés de vente (TRV) d’EDF et des prix du marché privé au cours de la décennie 2010. Le 1er août dernier, les TRV ont encore augmenté de 1,23%, cette hausse faisant suite à un renchérissement spectaculaire de 5,9% intervenu le 1er juin dernier. La libéralisation est également responsable d’une explosion des abus des fournisseurs d’énergie à l’encontre des ménages français, dont s’alarme aujourd’hui le Médiateur National de l’Énergie. Elle nous enjoint à questionner la pertinence de la privatisation et de la mise en concurrence systématiques des anciens marchés dits « de monopole public ».


Mauvaise nouvelle pour le portefeuille des ménages français. Le 1er août dernier, les tarifs réglementés de vente (TRV) qui déterminent les montants des factures d’électricité domestique d’EDF, dont s’acquittent encore 28 millions de ménages français, ont augmenté de 1,23%[1]. En juin dernier, ils avaient déjà bondi de 5,9%, soit la plus forte augmentation depuis 20 ans[2]. Une telle hausse équivalait à 90 euros de facture par an pour un foyer se chauffant à l’électricité, soit une part considérable du reste-à-vivre des ménages appartenant aux trois premiers déciles de revenus. Or, un tiers d’entre eux est déjà en situation de précarité énergétique en France[3].

Sous la pression du mouvement des « Gilets jaunes », le Gouvernement avait pourtant annoncé vouloir différer leur augmentation. Après avoir connu une envolée entre 2010 et 2018, les TRV devaient temporairement se stabiliser. Un tel répit aurait été bienvenu car leur revalorisation annuelle avait abouti à une augmentation des prix de l’électricité de plus de 20%[4][5]. Las, la Commission de Régulation de l’Énergie (CRE) en a décidé autrement. Elle a rappelé en février dernier qu’une hausse de 5,9% devait intervenir au mois de juin 2019 au plus tard.

Dans le même temps, le phénomène de précarité énergétique se développe en France et touche aujourd’hui 12% des ménages[6]. La hausse des prix de l’électricité et du gaz fait courir le risque à une part croissante d’entre eux de basculer dans des situations d’insolvabilité ou de grave privation énergétique, dont plusieurs organisations comme la Fondation Abbé Pierre[7], le CREAI[8] ou le CLER[9] soulignent les effets dévastateurs sur l’état de santé physique et psycho-sociale des personnes concernées.

La hausse des prix de l’électricité et du gaz fait aujourd’hui courir le risque à de nombreux ménages français de basculer dans des situations d’insolvabilité ou de grave privation énergétique.

Au-delà d’être excessive, la hausse actuelle des prix de l’électricité est en grande partie la conséquence de la politique de privatisation et de mise en concurrence dans le secteur de la distribution de l’électricité et du gaz. La principale justification politique apportée par la Commission européenne à cette mise en concurrence était pourtant de permettre aux consommateurs de bénéficier de prix bas[10].

Genèse de la libéralisation

En France, sous l’effet de la transposition des directives européennes de libéralisation des marchés de fourniture de l’électricité et du gaz aux particuliers[11], ces derniers se sont ouverts à la concurrence. En 2000, la CRE était créée afin de veiller au fonctionnement du marché en voie de libéralisation de l’énergie et d’arbitrer les différends entre opérateurs et consommateurs[12]. En 2004, EDF perdait son statut d’établissement public à caractère industriel et commercial (EPIC) pour devenir une société anonyme (SA) [13][14]. Ce choix fut effectué afin de réduire l’entreprise à l’état de simple concurrent au sein du futur marché privé de distribution énergétique. Enfin, début 2007, les marchés de distribution du gaz et de l’électricité aux ménages ont été définitivement libéralisés[15]. À cette date, les ménages français ont pu souscrire un contrat de fourniture auprès d’opérateurs privés concurrents.

Conformément aux exigences de Bruxelles, Paris a ainsi mis en place un système de fonctionnement de marché privé dont il était attendu qu’il favorise la concurrence entre distributeurs, et par là, une baisse des prix des énergies dont les consommateurs devaient être les bénéficiaires[16]. Il s’agissait également de permettre à tout opérateur privé de s’installer sur le marché de distribution de l’énergie et à ces nouveaux utilisateurs des réseaux de distribution de bénéficier, selon les termes de la Commission, d’un droit d’accès « libre, transparent et non-discriminatoire »[17].

Dans la réalité, le démantèlement des monopoles publics de distribution en vigueur dans de nombreux pays européens a eu un effet exactement inverse. Les prix de vente des énergies aux particuliers se sont littéralement envolés. La libéralisation du marché de l’électricité a abouti à une hausse à trois chiffres des prix de l’électricité en Espagne[18][19]. Elle a également été particulièrement douloureuse au Danemark, en Suède et au Royaume-Uni[20] tandis que dans l’Hexagone, les prix de l’électricité connaissent aujourd’hui un plus haut historique et continuent d’augmenter à un rythme sans précédent depuis le Second Choc pétrolier[21]. Comment a-t-on pu en arriver à une telle situation ?

Dans certains pays européens, la libéralisation a abouti à une hausse à trois chiffres des prix de l’électricité.

Dans le sillage de la libéralisation du marché national de distribution de l’électricité en 2007, le législateur fait voter le 7 décembre 2010 la loi NOME[22], portant sur une nouvelle organisation des marchés de l’électricité.  Cette loi est à l’origine de la création d’un mécanisme dit d’« accès régulé à l’énergie nucléaire historique» ou « ARENH », mécanisme par lequel EDF se voit obligé de céder une part de son électricité produite grâce au nucléaire à ses concurrents pour des tarifs « représentatifs des conditions économiques de production » selon les termes de la loi [23]. En France, le secteur du nucléaire permet de produire de l’électricité à prix faible, car inférieur aux sources de production autres que l’hydraulique[24]. L’objectif était donc de stimuler la concurrence, afin que les fournisseurs alternatifs s’approvisionnent en électricité au même coût qu’EDF et abaissent leurs tarifs de distribution.

Concrètement, avec l’ARENH, EDF devait céder un quart de sa production nucléaire à la concurrence privée, à un prix fixé par arrêté ministériel de 42€/MWh[25]. Les concurrents d’EDF avaient ainsi accès à 100 TWh/an d’électricité nucléaire. Cependant, dans un contexte de mondialisation du marché des énergies, ces sociétés sont également amenées à se fournir sur des marchés étrangers au sein desquels les cours de l’électricité, soumis à la conjoncture internationale, sont fortement instables. Parfois, comme en 2016, les prix du marché mondial s’effondrent. Durant cette période, EDF n’a par conséquent vendu aucun kilowatt à ses concurrents qui préféraient s’approvisionner ailleurs. D’autres fois, au contraire, dans un contexte de crise de l’offre ou d’inflation de la demande, les prix augmentent et l’ARENH devient compétitif. Ce mécanisme offrait ainsi aux opérateurs concurrents d’EDF une opportunité d’arbitrage : ils pouvaient se fournir sur le marché mondial quand les prix étaient bas ou via l’ARENH quand ils étaient élevés.

Au cours des années 2010, cependant, en raison de l’appétit du marché asiatique, les prix de gros internationaux ont beaucoup augmenté, de sorte que l’ARENH est devenu hyper-compétitif au regard du marché mondial. Les fournisseurs privés internationaux se sont alors rués vers l’ARENH et ont fait exploser son plafond de vente. 132,98 TWh d’électricité ont été demandés pour l’année 2019, soit 33 TWh de plus que la limite fixée par la Loi[26], forçant le Gouvernement et le Parlement à considérer en urgence, et contre l’avis d’EDF, une augmentation du plafond de vente [27][28][29][30]. En attendant, pour continuer à fournir leurs clients, les opérateurs privés ont été contraints de se tourner vers le marché international[31].

Le mythe de l’auto-régulation

L’histoire aurait pu s’arrêter là. EDF aurait ainsi vu sa compétitivité-prix accrue sur le marché de distribution aux particuliers, aux dépens des autres opérateurs privés soumis aux prix élevés et peu concurrentiels du marché international. Cependant, adoptant l’interprétation « hard line » du principe de concurrence de la Commission européenne, la CRE a estimé que  l’accroissement des écarts de prix de vente entre ceux d’EDF et des autres opérateurs privés représentait une menace à l’encontre du principe de libre concurrence. Elle a alors décidé d’intervenir afin d’affaiblir par la force l’avantage concurrentiel d’EDF. Dans une délibération datant de février dernier, elle a préconisé au Gouvernement français de mettre en oeuvre une augmentation des TRV afin de respecter le principe de « contestabilité » des tarifs[32].

Selon cet anglicisme qui constitue désormais une notion de droit économique européen, le niveau des TRV doit être fixé afin que tout fournisseur privé soit en mesure de les concurrencer afin de garantir son maintien sur le marché[33]. En clair, la contestabilité suppose une inversion totale du paradigme de réglementation des marchés. Elle protège les intérêts de l’offre (les fournisseurs) plutôt que ceux de la demande (les ménages). À ce titre, 40% de l’augmentation du prix proposée par la CRE au Gouvernement — 3,3€/MWh sur 8,3€/MWh — n’est pas liée à la hausse objective des coûts d’exploitation d’EDF. Elle provient d’un choix méthodologique consistant à faire correspondre le prix de vente de l’électricité produite par le nucléaire d’EDF à celui fixé dans le cadre de l’ARENH[34]. L’objectif de la CRE était ainsi de limiter les effets négatifs que des TRV bas pouvaient avoir sur la capacité de pénétration et de maintien sur le marché des opérateurs privés concurrents d’EDF.

La contestabilité suppose une inversion totale du paradigme de réglementation des marchés : elle protège les intérêts de l’offre plutôt que de la demande.

Par ailleurs, Bruxelles ne s’est pas contentée d’affaiblir la position d’EDF sur le marché de distribution aux particuliers. La Commission a également ordonné à la France de supprimer définitivement son système de réglementation tarifaire. Adoptée le 11 avril dernier, la loi PACTE a d’ores et déjà programmé la suppression des TRV pour les particuliers et copropriétés au 1er juillet 2023[35]. Elle constitue la suite logique d’un arrêt du Conseil d’État où ce dernier estimait que le maintien des TRV était « contraire au droit de l’Union européenne », constituant « une entrave à la réalisation de marchés de l’électricité et du gaz naturel libres et concurrentiels »[36].

Concurrence(s) et guerre civile

La suite de l’histoire a fait la une de la presse au cours des derniers mois, sur fond de tensions sociales et politiques brutalement ravivées par le mouvement des Gilets jaunes, mais aussi d’inquiétude grandissante exprimée par les ménages françaises quant à l’acquittement de leurs factures énergétiques en explosion.

La validation par le Gouvernement des préconisations de la CRE a d’abord fait bondir les associations de consommateurs. En avril, la CLCV et UFC-Que Choisir adressaient une lettre ouverte au Président de la République, lui enjoignant de renoncer à la hausse du tarif[37]. Selon elles, « approuver cette augmentation reviendrait à tourner le dos aux attentes des Français en termes de pouvoir d’achat et à la logique de dialogue mise en place avec ces derniers depuis le Grand Débat National ». La lettre est restée sans réponse.

À l’annonce de l’augmentation effective des tarifs en juin dernier, les deux associations décident de saisir le Conseil d’État[38]. Le secrétaire général de la CLCV, François Carlier, justifiait cette saisine sur RTL : « cela fait dix ans que le marché français de distribution de l’énergie a été libéralisé. Le fait que les autorités prétendent aujourd’hui être obligées d’augmenter les tarifs de vente du fournisseur historique afin de stimuler la concurrence est complètement paradoxal. (…) C’est en tout cas une décision injustifiable si l’on se place du point de vue de l’intérêt des consommateurs pour lesquels la seule chose qui compte est de bénéficier de prix abordables. La proposition de hausse de la CRE pose donc des problèmes de droit et en la suivant, le Gouvernement commet une faute »[39].

EDF se retrouve dans une situation déloyale et insensée, que ce soit du point de vue de la mission d’intérêt général des services publics ou d’un fonctionnement concurrentiel de marché. L’entreprise se retrouve confrontée à des concurrents qui ne produisent aucune valeur ajoutée dans l’économie, mais vivent d’une rente énergétique.

Les associations de consommateurs n’ont pas été les seules à réagir à l’augmentation des TRV. L’Autorité de la Concurrence l’a elle-même contestée. Dans un avis du 25 mars, l’AAI (Autorité Administrative Indépendante) en charge de la réglementation des marchés en France a estimé que la hausse proposée « conduirait à faire payer aux consommateurs les effets du plafonnement de l’accès régulé à l’électricité nucléaire. Le surcoût serait de 600 millions d’euros pour ces derniers. (…) La hausse des tarifs apparaît dès lors comme contraire à la volonté du Parlement de proposer des tarifs permettant de restituer aux consommateurs le bénéfice de la compétitivité du parc nucléaire historique. (…) Une telle régulation conduirait à transformer, sur le marché de détail aux particuliers, le prix plafond réglementé en prix plancher pour EDF, avec pour effet d’offrir aux clients restés fidèles aux TRV la garantie pour le moins paradoxale de « bénéficier des prix les plus élevés du marché ».[40]

Ces derniers mois, Jean-Bernard Lévy, directeur d’EDF, alertait l’opinion publique sur la position de faiblesse dans laquelle EDF est actuellement mise par la faute de la CRE et de la doctrine libérale du « marché privé de l’électricité » défendue par la Commission. Dans une tribune parue dans Le Figaro en mai dernier[41], c’est le principe de fonctionnement même de l’ARENH qu’il dénonçait, permettant selon lui à des acteurs privés d’accroître considérablement leurs marges sur le dos d’investissements publics, en se dédouanant des charges et risques financiers liés à l’entretien matériel du réseau. En juin dernier, il tirait la sonnette d’alarme : « depuis des années, EDF est victime du système actuel de régulation de l’accès à l’énergie nucléaire. On ne peut pas obliger EDF, entreprise qui a à sa charge l’ensemble des investissements infrastructurels, à subventionner d’autres distributeurs d’électricité privés qui ne font, eux, aucun investissement dans le réseau public (…). Nos concurrents attendent que nous leur fournissions à un prix ultra-compétitif une énergie qu’ils ne produisent même pas afin d’accroître leurs marges. Aujourd’hui, des grands groupes s’implantent sur le marché de la distribution d’électricité et viennent faire beaucoup d’argent aux dépens d’EDF»[42].

Il est vrai que le principe de séparation des gestionnaires de réseau et des fournisseurs de services voulu par Bruxelles produit aujourd’hui un tel niveau d’incohérence que même des think-tanks ultra-libéraux et minarchistes comme la Fondation IFRAP reconnaissent qu’il n’est pas viable, voire même absurde. Selon l’IFRAP, EDF est : « victime d’un système qui contraint l’entreprise à subventionner ses propres concurrents privés alors que dans un fonctionnement de marché libéralisé, ces derniers devraient plutôt réaliser les investissements pour produire eux-mêmes de l’électricité »[43]. EDF se retrouve ainsi dans une situation déloyale et insensée, que ce soit du point de vue de la mission d’intérêt général des services publics ou d’un fonctionnement concurrentiel de marché. L’entreprise se retrouve confrontée à des concurrents qui ne produisent aucune valeur ajoutée dans l’économie, et donc virtuellement aucune richesse, mais vivent malgré tout d’une rente énergétique.

Il est dès lors permis d’acquiescer aux propos d’Henri Guaino, ancien Commissaire général du Plan qui, dès 2002 dans les colonnes du Monde, alertait l’opinion publique sur « l’absurdité économique et technique de la séparation des secteurs de production et de distribution de l’énergie ». Selon lui, « la privatisation voulue par la Commission est un leurre, compte tenu des besoins considérables de financement qu’appellent le renouvellement des équipements de production et la diversification des modes de production énergétique. (…) Comme celle de la SNCF, la réorganisation d’EDF est porteuse de conséquences graves, que les institutions européennes s’efforcent de dissimuler derrière de pseudo-impératifs d’efficacité concurrentielle »[44].

Leçons d’un mirage idéologique

En résumé, le cas de la libéralisation et de la privatisation du marché de l’électricité en France est instructif à plusieurs égards. Premièrement, il nous offre un cas d’étude des incohérences folles auxquelles tout raisonnement logique trop dogmatique peut conduire. De ce point de vue, le paralogisme ultra-libéral — ou plutôt néolibéral — de la concurrence artificiellement stimulée avancé par la Commission européenne et la CRE est digne d’un enseignement scolastique sur les syllogismes. En bref, la puissance publique prétend intervenir en augmentant les TRV, et en sacrifiant ainsi l’intérêt des consommateurs, « au nom du principe de concurrence ». Or, aux yeux de la Commission européenne elle-même, un tel principe est légitimé par le fait que « seule la concurrence permet de défendre l’intérêt des consommateurs »[45]. Marcel Boiteux et les économistes de la Fondation Robert Schuman n’ont pas manqué de s’amuser de ce savoureux paradoxe[46]. Dans un article intitulé « Les ambiguïtés de la concurrence », l’auteur du problème de Ramsey-Boiteux, maître à penser des politiques de tarification publique, déclarait : « avec la suppression des tarifs régulés, il ne s’agit plus d’ouvrir la concurrence pour faire baisser les prix, mais d’élever les prix pour favoriser la concurrence! »[47].

Avec la suppression des tarifs régulés, il ne s’agit plus d’ouvrir la concurrence pour faire baisser les prix, mais d’élever les prix pour favoriser la concurrence!

Deuxièmement, cette affaire nous permet de constater que derrière la prétendue neutralité axiologique du « jeu pur et parfait de la concurrence » avancé par la Commission, se cache une entreprise politique visant à démanteler le monopole de distribution du secteur public de nombreux États membres[48]. On voit se dessiner ici ce qui constitue le cœur d’une idéologie politique en même temps que sa quadrature du cercle. Afin de faire basculer le maximum de ménages clients du système public réglementé vers le marché privé, les fournisseurs concurrents doivent être capables de concurrencer les TRV d’EDF. Or, en France, ces derniers en sont actuellement tout bonnement incapables. La Commission et la CRE multiplient alors les initiatives politiques afin d’altérer les règles du jeu de façon plus ou moins conforme à leurs dogmes, osant pour cela user de méthodes coercitives[49] ou même renier certains postulats idéologiques originels quant au fonctionnement des marchés[50].

Ce constat nous amène à notre troisième point. Le cas de figure dans lequel nous sommes plongés remet en question l’illusion selon laquelle la mise en concurrence tendrait systématiquement à un lissage optimal des tarifs pour le consommateur et devrait à ce titre constituer l’unique horizon de fonctionnement des marchés[51]. Comme le résume l’économiste Paul de Grauwe, « il existe bel et bien des limites au marché »[52][53]. De ce point de vue, la première observation pragmatique qui s’impose est que si la CRE en est réduite à demander au Gouvernement d’intervenir afin de fixer artificiellement à la hausse les prix de la ressource électricité, le marché est faillible et il est très loin d’être autorégulé[54].

Par ailleurs, certains secteurs, et notamment les activités de réseau (trains, distribution énergétique), constituent des « monopoles naturels ». Cela veut dire qu’ils ont traditionnellement été organisés comme tel parce qu’ils y ont naturellement intérêt[55]. En effet, ce sont des activités où les économies d’échelle et les coûts d’entrée sur le marché sont si considérables que la collectivité publique doit contrôler ce dernier afin d’empêcher qu’il ne tombe aux mains d’un nombre limité d’opérateurs privés. Comme cela a déjà été le cas par le passé dans des secteurs comme le transport ferroviaire au début du XXe siècle aux États-Unis[56] ou la distribution d’électricité en Californie au début des années 2000 (scandale Enron), les acteurs privés pourraient profiter de leur position dominante afin de soutirer une rente d’oligopole en pratiquant des prix trop élevés auprès de leurs clients ou en évinçant une demande jugée trop coûteuse à satisfaire. Une telle dynamique emporte des implications dramatiques en termes d’accroissement des inégalités entre les consommateurs, et donc d’érosion du fonctionnement démocratique des marchés[57][58][59][60][61].

À ce titre, comme le disent Jean-Pierre Hansen et Jacques Percebois, « le marché de distribution de l’électricité n’est pas un marché comme les autres » parce que « l’électricité doit à la fois être perçue comme une marchandise qui peut s’échanger et un service public qui requiert une intervention de l’État » [62]. L’observation est a fortiori justifiée compte tenu du fait qu’un phénomène de monopolisation est actuellement à l’œuvre dans des pans entiers des économies développées[63][64]. Sont notamment concernées les activités de réseaux et celles qui nécessitent des investissements infrastructurels ou informationnels considérables[65][66]. Or, le phénomène d’hyper-concentration aux mains d’un secteur privé sur-consolidé génère une dégradation de la diversité, du prix et de la qualité des biens et services proposés aux consommateurs[67][68].

Le marché de l’électricité n’est pas un marché comme les autres. L’électricité doit à la fois être perçue comme une marchandise qui peut s’échanger et un service public qui requiert une intervention de l’État.

Dans le cadre d’un fonctionnement de marché privé du secteur de l’électricité, un autre risque est lié au fait que certains usagers périphériques pourraient être purement et simplement exclus des services de distribution en raison des coûts d’accès à l’offre que représentent le raccordement et l’entretien du réseau électrique pour ces derniers, notamment dans des territoires mal desservis[69]. De ce point de vue, le service public de l’électricité permet la péréquation tarifaire, en subventionnant les coûts d’accès des ménages[70][71][72]. La loi du 10 février 2000, relative à la modernisation et au développement du service public de l’électricité, avait consacré cette notion de service public de l’électricité dans le droit français, qui « a pour objet de garantir l’approvisionnement en électricité sur l’ensemble du territoire national, dans le respect de l’intérêt général (…) des principes d’égalité et de continuité du territoire, et dans les meilleures conditions de sécurité, de qualité, de coûts, de prix et d’efficacité économique, sociale et énergétique »[73].

Il est donc pertinent de considérer le marché de l’énergie comme un service d’intérêt général, a fortiori compte tenu du fait que notre territoire national est vecteur d’inégalités potentielles en raison de ses nombreux espaces ruraux, d’altitudes variées, insulaires ou ultra-marins[74][75]. Ces réalités sont à mettre en comparaison avec celles d’autres pays européens comme l’Allemagne ou les Pays-Bas, dont les populations sont réparties de manière plus homogène et sur des territoires beaucoup plus densément peuplés et imposant beaucoup moins de contraintes physiques. Cet argument élémentaire de géographie économique[76] semble n’avoir jamais été entendu par la Commission européenne qui estime qu’il n’existe aucune spécificité géographique ou institutionnelle dans le fonctionnement des marchés nationaux.

Par ailleurs, la théorie néoclassique du marché adopte le postulat d’une offre homogène et ignore la question de l’inégale qualité des biens et services fournis aux consommateurs. Or, la libéralisation du secteur de la distribution aux particuliers s’est traduite par une dégradation spectaculaire et à géométrie variable de la qualité des services de distribution d’énergie aux particuliers. En France, on constate notamment une envolée du nombre de plaintes pour harcèlement lié au démarchage téléphonique, de litiges portant sur des contestations de souscriptions abusives, ou encore de dénonciations de pratiques commerciales trompeuses. À tel point que Jean Gaubert, Médiateur National de l’Énergie (MNE), s’en est inquiété dans son rapport annuel, publié en mai dernier[77][78].

Selon l’enquête menée par le MNE, 56% des Français interrogés ont déclaré avoir été démarchés de manière intempestive par au moins un distributeur au cours de l’année 2018, soit une augmentation de plus de 50% en un an. Afin d’augmenter leur clientèle, plusieurs fournisseurs ont aussi eu recours à des pratiques de tromperie aggravée. Le MNE a souligné la multiplication des démarchages téléphoniques visant à informer de fausses mesures législatives en vertu desquelles le changement de fournisseur serait obligatoire. Plus grave encore, le nombre de ménages saisissant le MNE pour changement de fournisseur de gaz ou d’électricité à leur insu s’est lui aussi envolé, en augmentation de 40% sur un an. Plusieurs fournisseurs d’électricité ont même eu recours à des stratégies de souscriptions de contrats cachées, notamment à l’occasion de la vente de produits électroménagers dans des magasins grand public[79].

Enfin, comme les travaux des théoriciens britanniques de la welfare economics l’ont démontré[80], le secteur public doit prendre en compte le coût environnemental des activités de production d’énergie, passé sous silence dans le cadre du fonctionnement de marché privé[81][82]. La question est cruciale en ce qui concerne le secteur énergétique, non seulement s’agissant du nucléaire et de ses déchets radioactifs aux demies-vies de millions d’années[83][84], mais également des déchets engendrés par les infrastructures de production d’autres énergies dont l’État ne détient pas le monopole de production, comme le solaire[85]. De telles externalités environnementales ne sont en principe pas assumées par les acteurs privés [86][87], a fortiori dans le cadre d’un paradigme de fonctionnement séparant les activités de production (publiques) et de distribution (privées) d’électricité.

Une réglementation à réinventer

En ce qui concerne le marché de distribution d’électricité en France, il semble donc que les bienfaits des politiques de libéralisation et de privatisation soient davantage un horizon idéologique qu’une réalité empirique. Si réalité il y a, elle est plutôt liée à la façon dont ces politiques se traduisent aujourd’hui sur le portefeuille des ménages. 12% d’entre eux sont aujourd’hui en situation de précarité énergétique[88]. Dans les régions françaises les plus touchées par ce phénomène, comme le Grand-Est ou la Bourgogne-Franche-Comté, ce pourcentage s’élève d’ores-et-déjà à 25% de la population ou plus[89][90]. Il devrait encore s’accroître, compte tenu de l’inflation des prix des énergies et de la stagnation des revenus des trois premiers déciles, parmi lesquels se trouve l’essentiel des ménages énergétiquement précaires. Le coût social du « paralogisme de la concurrence » est donc considérable. Il conduit des millions de Français à envisager avec moins de confiance leur niveau de vie futur.

Comme le résume le juriste Alain Supiot, « il y a donc de bonnes raisons de soustraire à la toute puissance du Marché des produits ou services qui, comme l’électricité, le gaz, la poste, les autoroutes ou les chemins de fer, reposent sur un réseau technique unique à l’échelle du territoire, répondent à des besoins partagés par toute la population et dont la gestion et l’entretien s’inscrivent dans le temps long qui n’est pas celui, micro-conjoncturel, des marchés. En ce domaine, la France s’était dotée de structures juridiques particulièrement adaptées, hybrides de droit privé et de droit public, qui avaient fait la preuve de leur capacité à conjuguer efficacité économique et justice sociale. Le bilan particulièrement désastreux de la privatisation de ces services doit inciter à faire évoluer ces structures plutôt qu’à les privatiser »[91]. En France comme ailleurs en Europe, il est urgent de changer le paradigme de réglementation du secteur de l’électricité.

 


[1]Le Monde. Les prix de l’électricité augmentent encore, ceux du gaz baissent légèrement. 29 juillet 2019. https://www.lemonde.fr/economie/article/2019/07/29/les-prix-de-l-electricite-augmentent-encore-ceux-du-gaz-baissent-legerement_5494698_3234.html

[2]La Croix. Électricité, pourquoi les tarifs réglementés augmentent de 5,9%. 31 mai 2019. https://www.la-croix.com/Economie/France/Electricite-pourquoi-tarifs-reglementes-augmentent-59-2019-05-31-1201025744

[3]Observatoire National de la Précarité Énergétique, Centre Scientifique et Technique du Bâtiment. Analyse de la précarité énergétique à la lumière de l’Enquête Nationale Logement (ENL) 2013. 8 novembre 2016. https://onpe.org/sites/default/files/pdf/ONPE/onpe_cstb_indicateurs_pe_enl_2013.pdf

[4]INSEE Première n°1746. Les dépenses des Français en électricité depuis 1960. 4 avril 2019. https://www.insee.fr/fr/statistiques/3973175

[5]Le Monde. Le prix réglementé de l’électricité augmente depuis le début des années 2000. 31 mai 2019. https://www.lemonde.fr/les-decodeurs/article/2019/05/31/des-prix-reglementes-de-l-electricite-qui-augmente-depuis-le-debut-des-annees-2000_5470021_4355770.html

[6]Observatoire National de la Précarité Énergétique. Tableau de bord de la précarité énergétique, édition 2018. 6 mai 2019. https://onpe.org/sites/default/files/tableau_de_bord_2018_v2_1.pdf

[7]Fondation Abbé Pierre (2017). La précarité énergétique en infographie. Focus sur la précarité énergétique en France. https://www.fondation-abbe-pierre.fr/nos-publications/etat-du-mal-logement/les-infographies-du-logement/la-precarite-energetique-en-infographie

[8]CREAI-ORS Languedoc-Roussillon (2013). Liens entre précarité énergétique et santé : analyse conjointe des enquêtes réalisées dans l’Hérault et le Douaisis. https://www.fondation-abbe-pierre.fr/documents/pdf/rapport_precarite_energetique_sante_conjoint_vf.pdf

[9]CLER – Réseau pour la transition énergétique. Comment en finir avec la précarité énergétique? 12 mars 2019. https://cler.org/tribune-comment-en-finir-avec-la-precarite-energetique%E2%80%89/

[10]Commission Européenne (2012). Effets positifs de la politique de concurrence : en quoi la politique de concurrence est-elle importante pour les consommateurs? http://ec.europa.eu/competition/consumers/why_fr.html

[11]Voir directives 1996/92/CE, 1998/30CE, 2003/54/CE et 2003/55/CE. (1. Commission Européenne. Directive 1996/92/CE of the European Parliament and of the Council of 19 December 1996 concerning common rules for the internal market in electricity ; 2. Commission Européenne. Directive1998/30/CE of the European Parliament and of the Council of 22 June 1998 concerning common rules for the internal market in natural gas ; 3. Commission Européenne. Directive 2003/54/EC of the European Parliament and of the Council of 26 June 2003 concerning common rules for the internal market in electricity and repealing Directive 96/92/EC – Statements made with regard to decommissioning and waste management activities ; 4. Commission Européenne. Directive 2003/55/CE du Parlement européen et du Conseil du 26 juin 2003 concernant des règles communes pour le marché intérieur du gaz naturel et abrogeant la directive 98/30/CE).

[12]Légifrance. Loi n° 2000-108 du 10 février 2000 relative à la modernisation et au développement du service public de l’électricité.

[13]Légifrance. Loi n° 2004-803 du 9 août 2004 relative au service public de l’électricité et du gaz et aux entreprises électriques et gazières.

[14]EDF France (2018). Statuts juridico-légaux d’EDF. https://www.edf.fr/groupe-edf/espaces-dedies/investisseurs-actionnaires/statuts-d-edf

[15]Légifrance. Loi n° 2006-1537 du 7 décembre 2006 relative au secteur de l’énergie.

[16]Commission Européenne (2012). Effets positifs de la politique de concurrence : en quoi la politique de concurrence est-elle importante pour les consommateurs ? http://ec.europa.eu/competition/consumers/why_fr.html

[17]Commission Européenne. Directive 2003/55/CE du Parlement européen et du Conseil du 26 juin 2003 concernant des règles communes pour le marché intérieur du gaz naturel et abrogeant la directive 98/30/CE.

[18]El País. ¿Ha funcionado la liberalización del mercado eléctrico en España? 15 novembre 2018. https://cincodias.elpais.com/cincodias/2018/11/14/mercados/1542207624_665776.html

[19]El Correo. La liberalización del sector eléctrico: dos décadas de luces y sombras. 10 décembre 2018. https://www.elcorreo.com/economia/tu-economia/liberalizacion-sector-electrico-20181207175056-nt.html

[20]Le Monde. Le marché et l’électricité, le dogme perd l’Europe. 4 septembre 2017. https://www.lemonde.fr/blog/huet/2017/09/04/le-marche-et-lelectricite-le-dogme-perd-leurope/

[21]INSEE Première n°1746. Les dépenses des Français en électricité depuis 1960. 4 avril 2019. https://www.insee.fr/fr/statistiques/3973175

[22]Légifrance. Loi n° 2010-1488 du 7 décembre 2010 portant nouvelle organisation du marché de l’électricité.

[23]Slate. Nucléaire, éolien… quelle est l’énergie la moins chère en France ? 30 novembre 2011. http://www.slate.fr/story/46785/nucleaire-eolien-energie-moins-chere-france

[24]Connaissance des énergies (2013). Coûts de production de l’électricité en France. https://www.connaissancedesenergies.org/fiche-pedagogique/couts-de-production-de-l-electricite-en-france

[25]Le Monde, AFP. L’arrêté ministériel fixant les tarifs pour la vente de l’électricité nucléaire publié au JORF. 20 mai 2011. https://www.lemonde.fr/economie/article/2011/05/20/l-arrete-ministeriel-fixant-les-tarifs-pour-la-vente-de-l-electricite-nucleaire-publie-au-jo_1524752_3234.html

[26]Commission de Régulation de l’Énergie. Les demandes d’ARENH pour 2019. 29 novembre 2018. https://www.cre.fr/Actualites/Les-demandes-d-ARENH-pour-2019

[27]Assemblée Nationale. Am. n°CD153. 1erjuin 2019.

[28]Assemblée Nationale. Am. n°CE357. 14 juin 2019.

[29]Les Échos. Électricité : comment le Gouvernement veut stabiliser la facture. 18 juin 2019. https://www.lesechos.fr/industrie-services/energie-environnement/electricite-comment-le-gouvernement-veut-stabiliser-la-facture-1029981

[30]Sénat. Am. n°200 rect. bis. 16 juillet 2019.

[31]Le Point. Électricité : ce marché où la concurrence ne marche pas. 16 mai 2019. https://www.lepoint.fr/economie/electricite-ce-marche-ou-la-concurrence-ne-marche-pas-16-05-2019-2313063_28.php

[32]Commission de Régulation de l’Énergie. Délibération de la CRE portant proposition des tarifs réglementés de vente d’électricité. 7 février 2019. https://www.cre.fr/Documents/Deliberations/Proposition/Proposition-des-tarifs-reglementes-de-vente-d-electricite

[33]Transposée en droit français, cette notion a été précisée par le Conseil d’État dans un arrêt de 2015, étant définie comme : « la faculté pour un opérateur concurrent d’EDF de proposer des offres à des prix égaux ou inférieurs aux tarifs réglementés ». Voir CE, juge des référés, 7 janvier 2015, Association nationale des opérateurs détaillants d’énergie (ANODE), n° 386076.

[34]Commission de Régulation de l’Énergie (2018). Marché de détail de l’électricité. https://www.cre.fr/Electricite/Marche-de-detail-de-l-electricite

[35]Légifrance. Loi n°2019-486 du 22 mai 2019 relative à la croissance et la transformation des entreprises.

[36]CE, Ass., 19 juillet 2017, Association nationale des opérateurs détaillants d’énergie (ANODE), n°370321.

[37]CLCV, UFC-Que-Choisir. Lettre ouverte au président de la République. 11 et 12 avril 2019. http://www.clcv.org/images/CLCV/Lettre_ouverte_Emmanuel_Macron_11042019.pdf; https://www.quechoisir.org/action-ufc-que-choisir-hausse-du-tarif-de-l-electricite-au-president-de-la-republique-de-la-court-circuiter-n65619/

[38]CLCV. Hausse du prix de l’électricité : la CLCV et UFC-Que-Choisir vont saisir le Conseil d’État. 15 mai 2019. http://www.clcv.org/energies/hausse-du-prix-de-l-electricite-la-clcv-va-saisir-le-conseil-d-etat-pour-demander-son-annulation.html

[39]RTL. Électricité : « augmenter les tarifs d’EDF pour faire vivre la concurrence ». 31 mai 2019. https://www.rtl.fr/actu/conso/tarifs-de-l-electricite-comment-expliquer-une-telle-hausse-de-5-9-7797743600

[40]Autorité de la concurrence. Avis n°19-A-07 du 25 mars 2019 relatif à la fixation des tarifs réglementés de vente d’électricité.

[41]Le Figaro. Jean-Bernard Lévy: « Des fortunes privées se sont construites sur le dos du parc d’EDF ». 15 mai 2019. http://www.lefigaro.fr/societes/jean-bernard-levy-des-fortunes-privees-se-sont-construites-sur-le-dos-du-parc-d-edf-20190515

[42]BFMTV. Jean-Bernard Lévy : « Tout est organisé pour qu’EDF perde des clients! ». 13 juin 2019. https://bfmbusiness.bfmtv.com/mediaplayer/video/jean-bernard-levy-tout-est-organise-pour-qu-edf-perde-des-clients-1168130.html

[43]IFRAP. Prix de l’électricité : pourquoi ça ne va pas. 25 avril 2019. https://www.ifrap.org/agriculture-et-energie/prix-de-lelectricite-pourquoi-ca-ne-va-pas

[44]Le Monde. Tribune : Henri Guaino : « EDF : vers le démantèlement? ». 8 février 2002. https://www.lemonde.fr/archives/article/2002/02/08/edf-vers-le-demantelement_4209384_1819218.html

[45]Commission européenne (2012). Effets positifs de la politique de concurrence : en quoi la politique de concurrence est-elle importante pour les consommateurs? http://ec.europa.eu/competition/consumers/why_fr.html

[46]Fondation Robert Schuman (2008). Ivoa Alavoine, Thomas Veyrenc : « Idéologie communautaire vs. Réalisme national ? L’épineux problème des tarifs d’électricité ». https://www.robert-schuman.eu/fr/doc/questions-d-europe/qe-95-fr.pdf

[47]Futuribles. Marcel Boiteux : « Les ambiguïtés de la concurrence. Électricité de France et la libéralisation du marché de l’électricité ». 1er juin 2007. https://www.futuribles.com/fr/revue/331/les-ambiguites-de-la-concurrence-electricite-de-fr/

[48]Le Monde Diplomatique. Aurélien Bernier : « Électricité, le prix de la concurrence ». Mai 2018. https://www.monde-diplomatique.fr/2019/05/BERNIER/59843

[49]Voir procédures d’infraction susmentionnées, engagées par la Commission européenne à l’encontre de la République Française.

[50]Dans la théorie économique néoclassique, le principe de concurrence pure et parfaite n’admet pas que des acteurs privés de l’offre bénéficient de situation de rentes de profitabilité, qui sont considérées comme un élément de concurrence déloyale et un coin (« wedge »)  dans la réalisation de l’équilibre de marché. Voir : Union Européenne – Europa EU (2019). Concurrence : préserver et promouvoir des pratiques de concurrence loyale. https://europa.eu/european-union/topics/competition_fr

[51]La Documentation Française. État, marché et concurrence : les motifs de l’intervention publique. In Concurrence et régulation des marchés. Cahiers français n°313. https://www.ladocumentationfrancaise.fr/var/storage/libris/3303330403136/3303330403136_EX.pdf

[52]Paul de Grauwe (2015). Les limites du marché : l’oscillation entre l’État et le capitalisme. Préfacé par Jean-Paul Fitoussi. Bruxelles. De Boeck Supérieur.

[53]Financial Times. The Limits of the Market by Paul de Grauwe — from excess to redress. 7 avril 2017. https://www.ft.com/content/6e07ebe2-19eb-11e7-bcac-6d03d067f81f

[54]Confère l’expression « market failure » employée par Yves Croissant et Patricia Vornetti, économistes enseignant à l’Université de la Réunion et à l’Université Paris-I Panthéon-Sorbonne. Voir : La Documentation Française. État, marché et concurrence : les motifs de l’intervention publique. In Concurrence et régulation des marchés. Cahiers français n°313. https://www.ladocumentationfrancaise.fr/var/storage/libris/3303330403136/3303330403136_EX.pdf

[55]Ibid.

[56]Stanford University – Stanford CS (1996). Rise of Monopolies: the development of the railroad monopoly in the United States. In Andy Conigliaro, Joshua Elman, Jeremy Schreiber, Tony Small: « The danger of corporate monopolies ».

[57]The Commonwealth Club of California. Harvard University Professor Tim Wu: Inside Tech Monopolies. San Francisco. 22 février 2019. https://www.youtube.com/watch?v=pQVRP3-8yhQ

[58]The New Yorker. Opinion: Tim Wu: « The Oligopoly Problem ». 15 avril 2013. https://www.newyorker.com/tech/annals-of-technology/the-oligopoly-problem

[59]The New York Times. The Opinion Section: Tim Wu: « Be Afraid of Economic Bigness. Be Very Afraid. 10 novembre 2018. https://www.nytimes.com/2018/11/10/opinion/sunday/fascism-economy-monopoly.html?login=facebook

[60]The Washington Post. Opinion: Felicia Wong: « Why monopolies are threatening American democracy ». 8 décembre 2017. https://www.washingtonpost.com/news/democracy-post/wp/2017/12/08/why-monopolies-are-threatening-american-democracy/?noredirect=on&utm_term=.41c2a742748c

[61]The Washington Post. Opinion: Tim Wu: « A call to save democracy by battling private monopolies ». 28 décembre 2018. https://www.washingtonpost.com/gdpr-consent/?destination=%2foutlook%2fa-call-to-save-democracy-by-battling-monopolies%2f2018%2f12%2f27%2f949cf8f4-06fe-11e9-a3f0-71c95106d96a_story.html%3f&utm_term=.6d7239a41cd1

[62]Jean-Pierre Hansen, Jacques Percebois (2017). Transition(s) électrique(s). Ce que l’Europe et les marchés n’ont pas su vous dire. Préfacé par Gérard Mestrallet. Paris. Odile Jacob.

[63]The Atlantic. The Return of the Monopoly: An Infographic. April 2013. https://www.theatlantic.com/magazine/archive/2013/04/the-chartist/309271/

[64]The Guardian. Joseph Stiglitz: The new era of monopoly is here. 13 mai 2016. https://www.theguardian.com/business/2016/may/13/-new-era-monopoly-joseph-stiglitz

[65]Stanford University – Stanford CS (1996). Rise of Monopolies: the making of Microsoft. In Andy Conigliaro, Joshua Elman, Jeremy Schreiber, Tony Small: « The danger of corporate monopolies ».

[66]The London School of Economics – LSE Blog. Patrick Barwise: « Why tech markets are winner-take-all ». 14 juin 2018. https://blogs.lse.ac.uk/mediapolicyproject/2018/06/14/why-tech-markets-are-winner-take-all/

[67]The New York Times. The opinion section: David Leonhardt: « The monopolization of America ». 25 novembre 2018. https://www.nytimes.com/2018/11/25/opinion/monopolies-in-the-us.html

[68]Robert Reich. The monopolization of America ». 6 mai 2018. https://www.youtube.com/watch?v=KLfO-2t1qPQ

[69]La Documentation Française. État, marché et concurrence : les motifs de l’intervention publique. In Concurrence et régulation des marchés. Cahiers français n°313. https://www.ladocumentationfrancaise.fr/var/storage/libris/3303330403136/3303330403136_EX.pdf

[70]Frank P. Ramsey (1927). A contribution to the Theory of Taxation. The Economic Journal. Vol. 37, n°145.

[71]Marcel Boiteux (1956). Sur la gestion des monopoles publics astreints à l’équilibre budgétaire. Econometrica, n°24.

[72]Observatoire de l’Industrie électrique (2017). Une histoire de la péréquation tarifaire. https://observatoire-electricite.fr/IMG/pdf/oie_-_fiche_pedago_perequation_072017.pdf

[73]Légifrance. Loi n°2000-108 du 10 février 2000 relative à la modernisation et au développement du service public de l’électricité. https://www.legifrance.gouv.fr/affichTexte.do?cidTexte=JORFTEXT000000750321

[74]France Stratégie. 2017/2027 – Dynamiques et inégalités territoriales. 7 juillet 2016. https://www.strategie.gouv.fr/publications/20172027-dynamiques-inegalites-territoriales

[75]Pierre Veltz (1996). Mondialisation, villes et territoires. L’économie d’archipel. Paris. Presses Universitaires de France.

[76]The Atlantic (2005). Richard Florida: « The World in numbers: The World is spiky ». https://www.theatlantic.com/past/docs/images/issues/200510/world-is-spiky.pdf

[77]Médiateur National de l’Énergie (2018). Rapport annuel d’activité 2018. https://www.energie-mediateur.fr/wp-content/uploads/2019/05/RA-MNE-2018-interactif.pdf

[78]Marianne. Électricité : l’hérésie de l’ouverture à la concurrence. 1erjuillet 2017. https://www.marianne.net/debattons/tribunes/energie-electricite-edf-heresie-concurrence

[79]Ibid.

[80]Arthur Cecil Pigou (1920). The Economics of Welfare. London. Macmillan.

[81]International Monetary Fund. Thomas Helbling : « Externalities: Prices Do Not Capture All Costs ». 18 décembre 2018. https://www.imf.org/external/pubs/ft/fandd/basics/external.htm

[82]Paul de Grauwe (2015). Les limites du marché : l’oscillation entre l’État et le capitalisme. Préfacé par Jean-Paul Fitoussi. Bruxelles. De Boeck Supérieur.

[83]OCDE (2003). Électricité nucléaire : quels sont les coûts externes ? https://www.oecd-nea.org/ndd/reports/2003/nea4373-couts-externe.pdf

[84]Institut de Radioprotection et de Sûreté Nucléaire (2013). Quelle est la durée de vie d’un déchet radioactif à haute activité ? https://irsn.libcast.com/dechets/dechets_quelle_est_la_duree_de_vie_d_un_dechet_radioactif_a_haute_activite-mp4/player

[85]Greenpeace (2019). Quel est l’impact environnemental des panneaux solaires ? https://www.greenpeace.fr/impact-environnemental-solaire/

[86]Elinor Ostrom (1990). Governing the commons: The evolution of institutions for collective action. Cambridge University Press. https://wtf.tw/ref/ostrom_1990.pdf

[87]Garrett Hardin (2018). La tragédie des communs. Préfacé par Dominique Bourg. Presses Universitaires de France.

[88]Observatoire National de la Précarité Énergétique. Tableau de bord de la précarité énergétique, édition 2018. 6 mai 2019. https://onpe.org/sites/default/files/tableau_de_bord_2018_v2_1.pdf

[89]INSEE Dossier Grand-Est, n°10. Vulnérabilité énergétique dans le Grand Est. Le Grand Est, région la plus touchée par la vulnérabilité énergétique pour se chauffer. 25 janvier 2019. https://www.insee.fr/fr/statistiques/3703441

[90]INSEE Flash Bourgogne, n°31. Un ménage sur trois exposé à la vulnérabilité énergétique en Bourgogne-Franche-Comté. 15 décembre 2015. https://www.insee.fr/fr/statistiques/1304080

[91]Alain Supiot (2010). L’esprit de Philadelphie : la justice sociale face au marché total. Paris. Seuil.