Vous êtes sur la page 1sur 296

******ebook converter DEMO Watermarks*******

******ebook converter DEMO Watermarks*******


Graphisme de couverture : Pierre-André Gualino
Illustration de couverture : © metamorworks / Fotolia.fr
Mise en pages : Lumina Datamatics, Inc.
20 sujets rédigés et des bibliographies
complémentaires sont disponibles sur le site :
https://www.dunod.com/EAN/9782100788828

© Armand Colin, 2016, Dunod, 2019

11, rue Paul Bert, 92240 Malakoff


www.dunod.com
ISBN 978-2-10-079751-6

******ebook converter DEMO Watermarks*******


Table des matières

Compléments numériques : mode d’emploi

Introduction

Partie 1
La dissertation de science économique :
quelle méthode ?
Chapitre 1 Les règles de la dissertation
1. Les règles
formelles
2. Les règles informelles
2.1 Une dissertation avec ou sans titres apparents ?
2.2 Une dissertation fleuve ou… synthétique ?
2.3 Quelle précision dans les références théoriques
et historiques ?

Chapitre 2 Du libellé du sujet à la problématique


1. Identifier l’enjeu du sujet
Quels enjeux pour les sujets…
2. Cadrer le sujet
2.1 Le cadrage historique et géographique

******ebook converter DEMO Watermarks*******


2.2 Le cadrage du domaine de connaissances
2.3 Un exemple de cadrage de sujet
3. Choisir et élaborer une problématique
3.1 Qu’est-ce qu’une problématique dans une
dissertation de science économique ?
3.2 Un exemple de problématisation de sujet

Chapitre 3 De la construction du plan à la


mobilisation des connaissances
1. Élaborer le plan : le contenant de la
démonstration
2. Le plan détaillé et la mobilisation des
connaissances : le contenu de la
dissertation
2.1 Exemple de plan détaillé sur le sujet
2.2 Exemple de déroulement du plan détaillé

Chapitre 4 De la conclusion à l’introduction


1. La rédaction de la conclusion
Un exemple de rédaction de conclusion
2. La rédaction de l’introduction
Un exemple d’accroche sur le sujet…

Chapitre 5 La rédaction finale et le jour de l’épreuve

Partie 2
La dissertation de science économique en 14
sujets

******ebook converter DEMO Watermarks*******


Sujet 1 Peut-on parler de frontières de la firme ?
1. Se préparer à la rédaction
1.1 L’enjeu du sujet
1.2 Le cadrage et les concepts clés
1.3 La construction de la problématique
2. Rédiger le devoir : une proposition

Sujet 2 Le progrès technique nuit-il à l’emploi ?


1. Se préparer à la rédaction
1.1 L’enjeu du sujet
1.2 Le cadrage et les concepts clés
1.3 La construction de la problématique
2. Rédiger le devoir : une proposition

Sujet 3 Le marché et la concurrence permettent-ils


toujours une coordination efficace des
actions des agents dans les économies
contemporaines ?
1. Se préparer à la rédaction
1.1 L’enjeu du sujet
1.2 Le cadrage du sujet et les concepts clés
1.3 La construction de la problématique
2. Rédiger le devoir : une proposition

Sujet 4 La concurrence doit-elle être stimulée ?


1. Se préparer à la rédaction
1.1 L’enjeu du sujet
1.2 Le cadrage du sujet et les concepts clés
1.3 La construction de la problématique
2. Rédiger le devoir : une proposition
******ebook converter DEMO Watermarks*******
Sujet 5 Risque de crédit et instabilité financière
1. Se préparer à la rédaction
1.1 L’enjeu du sujet
1.2 Le cadrage et les concepts clés
1.3 La construction de la problématique
2. Rédiger le devoir : une proposition

Sujet 6 La croissance économique a-t-elle des


limites ?
1. Se préparer à la rédaction
1.1 L’enjeu du sujet
1.2 Le cadrage et les concepts clés
1.3 La construction de la problématique
2. Rédiger le devoir : une proposition

Sujet 7 La mondialisation commerciale et productive


est-elle source de croissance ?
1. Se préparer à la rédaction
1.1 L’enjeu du sujet
1.2 Le cadrage et les concepts clés
1.3 Construire la problématique
2. Rédiger le devoir : une proposition

Sujet 8 Faut-il souhaiter le retour de l’inflation ?


1. Se préparer à la rédaction
1.1 L’enjeu du sujet
1.2 Le cadrage du sujet et les concepts clés
1.3 La construction de la problématique
2. Rédiger le devoir : une proposition

******ebook converter DEMO Watermarks*******


Sujet 9 Les politiques monétaires non
conventionnelles depuis 2007-2008 : quel
bilan ?
1. Se préparer à la rédaction
1.1 L’enjeu du sujet
1.2 Le cadrage du sujet et les concepts clés
1.3 La construction de la problématique
2. Rédiger le devoir : une proposition

Sujet 10 Les relations monétaires internationales


peuvent-elles être régulées ?
1. Se préparer à la rédaction
1.1 L’enjeu du sujet
1.2 Le cadrage du sujet et les concepts clés
1.3 La construction de la problématique
2. Rédiger le devoir : une proposition

Sujet 11 Les ressources naturelles doivent-elles être


gérées comme des biens communs
mondiaux ?
1. Se préparer à la rédaction
1.1 L’enjeu du sujet
1.2 Le cadrage du sujet et les concepts clés
1.3 La construction de la problématique
2. Rédiger le devoir : une proposition

Sujet 12 Faut-il s’en remettre au marché pour lutter


contre le réchauffement climatique ?
1. Se préparer à la rédaction
1.1 L’enjeu du sujet
******ebook converter DEMO Watermarks*******
1.2 Le cadrage et les concepts clés
1.3 La construction de la problématique
2. Rédiger le devoir une proposition

Sujet 13 Faut-il des règles de politique économique ?


1. Se préparer à la rédaction
1.1 L’enjeu du sujet
1.2 Le cadrage et les concepts clés
1.3 La construction de la problématique
2. Rédiger le devoir : une proposition

Sujet 14 La gouvernance de la zone euro : enjeux et


difficultés
1. Se préparer à la rédaction
1.1 L’enjeu du sujet
1.2 Le cadrage et les concepts clés
1.3 La construction de la problématique
2. Rédiger le devoir : une proposition

Index

******ebook converter DEMO Watermarks*******


Compléments numériques :
mode d’emploi

Le livre que vous avez entre les mains est destiné à vous aider à réussir dans
la rédaction d’une dissertation de science économique dans le cadre des
examens ou concours. En accompagnement de ce livre, nous vous proposons
des compléments numériques disponibles sur le site Dunod à cette
adresse : https://www.dunod.com/EAN/9782100788828
À partir de cette page, vous pouvez accéder à des entraînements inédits et
complémentaires de ceux présentés dans le livre qui vous permettront de vous
exercer à la dissertation régulièrement. Vous trouverez également des
bibliographies relatives à chacun des sujets de la seconde partie.
Six entraînements annuels vous seront proposés entre octobre et mars.
– Dans un premier temps, nous diffuserons au début du mois le sujet sur la
page Facebook du livre et le site Dunod, en vous invitant à le traiter en un
temps limité ;
– deux semaines après la publication du sujet, nous posterons une ​analyse
du sujet sur le site Dunod et ;
– deux semaines plus tard, le corrigé sera mis à votre disposition ​également
sur le site Dunod.
Vous pourrez alors auto-évaluer votre travail, en le confrontant au corrigé
et affiner ainsi votre réflexion et vos connaissances. Ce travail suppose une
parfaite maîtrise du contenu du livre (conseils méthodologiques et exemples
de sujets traités).
Pour vous tenir informé de la mise en ligne des ces différents éléments,
vous pouvez vous abonner à la page Facebook du livre à l’adresse suivante :
https://www.facebook.com/La-dissertation-descience-%C3%A9conomique-
Cursus-1559306797708091/?ref=bookmarks
Nous diffusons par ailleurs sur cette page, deux fois par semaine, un lien
******ebook converter DEMO Watermarks*******
sur une thématique de science économique qui nous semble intéressante pour
enrichir vos réflexions.
Les documents seront accessibles sous forme de fichier pdf sous
condition de saisie d’un mot de passe. Ce mot de passe est le dernier mot
de la partie 1 du livre.

Pour accéder à ces compléments numériques, vous devrez donc :


1) Vous rendre dans l’onglet « Ressources numériques » de l’ouvrage
sur le site Dunod.
2) Télécharger le fichier pdf.
3) Renseigner le mot de passe demandé à l’ouverture du fichier.

Nous vous souhaitons un bon travail de préparation.

Alain Beitone, Lionel Lorrain, Christophe Rodrigues

******ebook converter DEMO Watermarks*******


Introduction

Au-delà du discours d’opinion et de la pensée


unique
Rédiger une dissertation, c’est s’inscrire dans la logique d’une discipline. On
peut écrire une dissertation sur les inégalités en philosophie, une dissertation
sur les crises en histoire, une dissertation sur la mondialisation en géographie.
Le devoir attendu sera très différent s’il est traité en philosophie, en histoire
ou en géographie et s’il est traité dans une dissertation de science
économique. Répondre à cette attente implique de maîtriser la logique de la
discipline à laquelle l’épreuve correspond, connaître ses textes fondamentaux,
ses auteurs de référence, ses concepts organisateurs ainsi que les principaux
faits historiques et données empiriques qu’elle explique. Il faut aussi avoir
conduit une réflexion sur la nature et le statut des savoirs produits par la
discipline considérée.
Cette réflexion est d’autant plus importante concernant la science
économique, qu’elle fait l’objet de nombreuses controverses dans le champ
médiatique et politique. À l’occasion de la crise de 2007-2008 par exemple,
la profession d’économiste a été remise en cause pour ne pas avoir prévu la
crise. Pourtant les spécialistes de physique du globe ne prédisent pas non plus
les tremblements de terre sans que l’on remette en cause le caractère
scientifique de leur discipline. S’agissant de la crise mondiale, il apparaît que
les critiques faites aux économistes étaient très contestables. Certains d’entre
eux (comme R. Rajan ou N. Roubini) avaient attiré l’attention sur la montée
des risques financiers et la probabilité de l’éclatement d’une crise. Le fait
qu’ils n’aient pas été entendus n’a rien de nouveau. J. K. Galbraith a montré
dans son livre Brève histoire de l’euphorie financière (1992) que le même
phénomène s’est produit dans de très nombreux cas, les acteurs des marchés
financiers et les responsables politiques restant sourds aux alertes lancées. On
constate d’ailleurs que pour rendre compte a posteriori de la crise, on fait
******ebook converter DEMO Watermarks*******
bien appel aux travaux des économistes (par exemple K. Wicksell ou
H. Minsky) !
Dans les débats médiatiques, la science économique est prise en tenaille
entre deux discours. Pour les uns, il existe une science économique dont les
conclusions ne sont pas discutables. Un seul discours serait ainsi possible sur
la réalité économique et un seul type de politique économique concevable
(généralement des politiques libérales). C’est le fondement du fameux TINA
(There Is No Alternative) attribué à M. Thatcher. Ce discours revendique une
légitimité savante rarement justifiée (« tous les économistes pensent que… »)
et prétend s’appuyer sur le « bon sens ». On explique donc que le chômage
résulte d’un système social trop protecteur, que l’inflation résulte toujours
d’une création excessive de monnaie, que les politiques d’austérité sont les
seules possibles en Europe, etc. Ce discours est souvent tenu par des
économistes médiatiques qui, pour la plupart d’entre eux, ne sont pas en
réalité des économistes mais des « experts », des « consultants », des « chefs
d’entreprises », des « essayistes », etc. Or, ce qui caractérise ces économistes,
c’est bien qu’ils ne publient pas (ou plus !) de travaux de recherche et ne sont
pas soumis au contrôle de leurs pairs. Pour les autres, la science économique
(le mot science se voit souvent attribuer des guillemets) n’a pas de légitimité
scientifique. Il s’agirait uniquement d’un discours de légitimation des
puissances économiques dominantes, d’un instrument de pouvoir.
La science économique serait donc, par nature, un discours visant à
justifier les politiques économiques libérales (ou « néolibérales »). L’idée
même d’un savoir économique axiologiquement neutre est niée et on affirme
que dans le domaine économique comme dans l’ensemble des sciences
sociales, tout est affaire de choix politique et d’opinions. Dans cette optique,
il n’existerait donc pas de connaissance objective en science économique :
face au discours économique des dominants, c’est-à-dire le néolibéralisme, il
faudrait donc promouvoir un discours économique alternatif, un contre-feu
politique.
Si l’on adopte le premier point de vue en rédigeant la dissertation, on sera
conduit à tenir un discours unilatéral, qui risque fort de conduire à des
conclusions dogmatiques. Si l’on adopte le second point de vue, on sera
conduit à un discours relativiste amenant à traiter les questions posées sous
l’angle de la divergence d’opinions. Il est pourtant acquis qu’il s’agit là d’un
faux débat et qu’il existe une sortie « par le haut » de cette opposition stérile.
Il importe pour cela de rappeler que la science économique s’inscrit dans une
******ebook converter DEMO Watermarks*******
« visée scientifique » (G.-G. Granger), c’est-à-dire notamment qu’elle doit
s’assurer en permanence de la cohérence interne des discours qu’elle formule
et qu’elle doit se préoccuper de la corroboration empirique de ses énoncés.
Ces deux caractéristiques sont propres à toutes les sciences (de la nature
comme de la société).
Un autre élément important est celui du contrôle des énoncés par la
communauté scientifique. Lorsqu’un chercheur considère qu’il a produit un
résultat original, il rend public son travail par l’intermédiaire d’un ou
plusieurs articles. D’une part, cette publication est subordonnée à l’avis
d’autres chercheurs anonymes ; d’autre part, lorsque l’article est publié, il est
susceptible d’être critiqué quant à ses données, à leur traitement, à la validité
des raisonnements conduits, etc. C’est pourquoi le travail scientifique est
caractérisé par l’existence de débats et de controverses. C’est en ce sens que
G. Bachelard affirmait : « Deux hommes, s’ils veulent s’entendre, ont dû
d’abord se contredire. La vérité est fille de discussion, non pas fille de
sympathie » (La philosophie du non, 1940). Toutefois, ce débat scientifique
n’est pas un débat d’opinion, les arguments doivent obéir aux règles du
champ scientifique et on ne peut l’emporter que par la force du meilleur
argument.
Enfin, rappelons que les chercheurs en science économique (comme dans
les autres disciplines) produisent leurs connaissances en partant de
problèmes, en mobilisant un ou plusieurs paradigmes, en formulant des
hypothèses, en construisant des modèles et en conduisant des investigations
empiriques. Ce travail s’inscrit dans une logique cumulative. Un économiste
qui travaille aujourd’hui sur les risques de déflation s’appuie directement ou
indirectement sur les travaux d’I. Fisher aussi bien que sur ceux de
M. Friedman. Il connaît aussi les analyses relatives à l’hyperinflation des
années 1920 en Allemagne et celles qui concernent la déflation aux États-
Unis pendant la Grande Dépression des années 1930. Il doit construire un
modèle permettant de rendre compte d’une configuration nouvelle qui se
manifeste depuis la crise de 2007-2008 : alors que la base monétaire
mondiale a spectaculairement augmenté, on n’assiste pas à une tendance forte
à la hausse du niveau général des prix et même, périodiquement, on
s’inquiète d’une entrée dans la déflation.
Que peut-on tirer de ces quelques remarques épistémologiques en ce qui
concerne la rédaction d’une dissertation de science économique ?
1) Même si la science économique n’explique pas tout (les autres sciences
******ebook converter DEMO Watermarks*******
sociales sont très importantes et contribuent avec leurs méthodes et leurs
concepts à rendre compte d’autres aspects du monde social), elle construit et
mobilise une grille de lecture singulière et c’est ce type de regard que le
rédacteur de la dissertation doit mettre en œuvre pour traiter le sujet qui lui
est proposé.
2) La science se construit contre l’évidence. Or, ce que nous considérons
comme « évident » relève de la connaissance immédiate, des idées reçues
dans une société donnée à un moment donné. Pour traiter un sujet, il faut
donc exercer une vigilance épistémologique et renoncer à la tentation de
considérer comme allant de soi ce qui relève du sens commun.
3) La science économique produit des concepts, des outils, des modes de
raisonnements qui sont très largement partagés en dépit des divergences
théoriques qui peuvent opposer les économistes. Tous les économistes
donnent le même sens au terme « élasticité prix », tous savent ce qu’est
l’exploitation chez Marx, le taux d’intérêt naturel chez Wicksell, l’optimum
chez Pareto, une asymétrie d’information, etc. Les candidats aux examens et
concours doivent donc, autant que possible, maîtriser ce patrimoine d’outils
et de concepts et être en mesure de les mobiliser à bon escient.
4) La plupart des théories et des modèles produits par la science
économique dépendent du cadre conceptuel et des hypothèses à partir
desquels ils ont été formulés. Par exemple, le théorème de R. Coase nous dit
que le marché peut parfaitement gérer les externalités si les droits de
propriété sont correctement définis et si les coûts de transaction sont nuls.
Mais, comme le fait remarquer Coase lui-même, les coûts de transaction ne
sont empiriquement jamais nuls et les droits de propriétés ne sont pas
toujours correctement définis. Son théorème ne constitue donc pas une
adhésion religieuse à la supériorité du marché, mais une formulation
conditionnelle qui permet précisément de montrer quelles sont les limites de
la régulation marchande.
5) Il ne faut pas opposer de façon simpliste les théories. Une dissertation
n’est pas un catalogue d’auteurs du type « Hayek pense que… mais Keynes
pense que » conduisant à un « match nul » pour prendre une métaphore
sportive. Il faut traiter la question posée et ne mobiliser les auteurs que s’ils
fournissent des éléments de réponse pertinents. Par ailleurs, si le fait d’utiliser
de grands paradigmes économiques peut être utile pour organiser sa pensée, il
ne faut jamais renoncer aux nuances et à la précision. Par exemple, opposer
les « libéraux » et les « keynésiens » est doublement contestable. D’une part,
******ebook converter DEMO Watermarks*******
ceux que l’on nomme les libéraux sont très différents : entre la tradition
classique ou néoclassique et la tradition autrichienne, il y a de très
nombreuses et importantes différences (ils n’ont pas la même conception du
marché, de la monnaie, du capital, etc.). D’autre part, parce que Keynes était
un libéral, au sens où il était membre du parti libéral anglais, mais aussi parce
qu’il ne cachait pas son attachement à la démocratie libérale et à l’économie
de marché1. Cette opposition entre « keynésiens » et « libéraux » (qui bien
souvent dans des copies de concours conduit à un contresens) repose sur le
fait que l’opposition entre « libéral » et « interventionniste » est en réalité
d’ordre doctrinal et ne relève pas du champ scientifique. Il convient donc de
s’en tenir à la distinction entre la théorie néoclassique, la théorie autrichienne
ou la théorie keynésienne pour les débats qui ont traversé le xxe siècle. De
même, on ne doit pas oublier que K. Marx a apporté une contribution majeure
à la compréhension de la coordination par le marché et qu’il s’est prononcé
en faveur du libre-échange2. Il faut donc éviter les étiquettes et les
présentations caricaturales mais présenter les analyses précises des auteurs.
6) La science économique progresse, il faut donc éviter de présenter des
débats qui sont dépassés. Par exemple, identifier la théorie néoclassique au
modèle de concurrence pure et parfaite est une erreur. Aujourd’hui, les
économistes qui travaillent dans le cadre de la tradition néoclassique prennent
en compte la concurrence imparfaite, la différenciation des produits, la
viscosité des prix, etc. Prétendre remettre en cause cette pensée en critiquant
le seul modèle de concurrence pure et parfaite, c’est donc, dans une large
mesure, rater sa cible. De même, il faut prendre en compte le fait que le
fameux « No Bridge » entre microéconomie et macroéconomie est dans une
large mesure surmonté par des auteurs comme J. Stiglitz à partir du concept
d’asymétrie d’information. Afin de donner un fondement microéconomique à
l’existence d’équilibres de sous-emploi, Stiglitz montre que l’asymétrie
d’information conduit les banquiers à rationner le crédit, ce qui entraîne un
niveau insuffisant d’investissement, de croissance et donc d’emploi. Le
recours à des auteurs marquants de l’histoire de la pensée économique peut
certes se montrer très utile, mais à la condition que les analyses de ces auteurs
éclairent les problèmes auxquels nous sommes confrontés aujourd’hui. Par
exemple, les analyses d’A. Marshall sur les externalités, celles d’I. Fisher sur
la déflation par la dette, celles d’H. Minsky sur le cycle du crédit constituent
toujours des grilles de lecture pertinentes.
7) Enfin, il faut se garder de considérer l’analyse économique comme un
******ebook converter DEMO Watermarks*******
ensemble de propos exclusivement « théoriques ». Les théories sont très
utiles, mais elles n’ont d’intérêt que dans la mesure où elles suscitent et
orientent les investigations empiriques. Ces investigations peuvent porter sur
l’histoire économique. On peut penser aux travaux de Ch. Kindleberger sur
l’histoire financière, à ceux d’A. Maddison sur l’histoire de la croissance, ou
encore à ceux de P. Bairoch sur la Révolution industrielle qui conservent un
très grand intérêt. Les investigations empiriques consistent aussi à construire
des bases de données statistiques. C’est notamment le cas des travaux de
Th. Piketty sur les revenus et les patrimoines ou des données rassemblées par
G. Zucman sur les paradis fiscaux. Une bonne dissertation doit donc
impérativement mobiliser des informations historiques et faire référence à des
travaux statistiques récents (au moins les ordres de grandeur et les grandes
tendances).
La science économique ne mérite donc ni l’excès d’honneur qui en ferait
une pensée unique soustraite à tout débat scientifique ou démocratique, ni
l’indignité qui en ferait un simple discours d’opinion. Les économistes ont
pour tâche d’analyser des problèmes en montrant à la fois les causes, les
opportunités, les contraintes, les choix qui s’offrent aux décideurs politiques.
Sur la base de ces connaissances aussi objectives que possibles, seul le débat
démocratique peut conduire à des décisions qui engagent l’avenir des sociétés
humaines. D’où l’importance de bien distinguer le débat scientifique et le
débat politique qui sont l’un et l’autre légitimes, mais qui relèvent de
logiques différentes.
L’élève ou l’étudiant qui doit rédiger une dissertation devra accepter de
s’inscrire dans la visée scientifique et limiter son propos à la composante
scientifique des débats. Pour ce faire, il peut compter sur un riche patrimoine
de connaissances et sur les apports nouveaux de chaque génération
d’économistes. Apprendre et s’entraîner à rédiger une dissertation en science
économique, c’est cheminer entre le passé et le présent dans ce vaste champ
disciplinaire. Les voies sont parfois escarpées mais nous les trouvons, pour
notre part, exaltantes. Ce livre a pour objectif de vous accompagner si vous
décidez de les emprunter. Nous vous souhaitons bonne route !

******ebook converter DEMO Watermarks*******


1. Keynes est donc libéral aux trois sens du terme. Il est proche des avant-gardes culturelles de son
temps (libéralisme culturel). Sur le plan politique, il défend la démocratie représentative et les libertés
politiques (libéralisme politique). Sur le plan économique, il est favorable à l’économie de marché et
même au capitalisme, mais souhaite une régulation publique seule à même de sauver ce système ​-
économique (libéralisme économique).
2. Le 7 janvier 1848, Marx a prononcé un « discours sur la question du ​libre-échange » à l’association
démocratique de Bruxelles, discours dans lequel il critique à la fois les illusions du libre-échange et les
politiques protectionnistes.

******ebook converter DEMO Watermarks*******


Partie 1

La dissertation de science
économique : quelle méthode ?

« L’entreprise (depuis le XIXe siècle) peut-elle se passer d’entrepreneur ? »


(Concours CPGE EC-E, HEC Paris 2018), « Politique monétaire et activité
économique » (Concours du CAPES externe de SES, 2018), « Doit-on
considérer que la désindustrialisation constitue un processus inéluctable dans
un pays développé ? » (Concours CPGE EC-E, ESCP Europe, 2018)... Voici
quelques exemples de sujets d’épreuve de science économique qui ont été
proposés dans divers concours lors des sessions 2018. Ces sujets ont tous en
commun d’être classés sous l’intitulé de « dissertation ». Si ce terme est
aujourd’hui connu de tous, il suscite aussi des craintes parfois importantes
chez de nombreux étudiants et préparationnaires. Mais alors, qu’est-ce que
disserter veut dire ?
En première approche, la dissertation est un exercice qui consiste à
produire un texte structuré visant à répondre à une question, celle-ci étant
explicitement ou implicitement énoncée dans le sujet proposé. Afin de
répondre à cette question, il s’agit de mobiliser des connaissances de nature
diverse, lesquelles doivent être le plus directement possible reliées au sujet et
logiquement articulées entre elles. Ces principes de base de la dissertation
sont généralement connus par les étudiants en science économique. Malgré
ces évidences, il est manifeste que la rédaction d’une dissertation réussie est
un exercice complexe qui ne va pas de soi. L’explication tient notamment au
fait que cela suppose la maîtrise et la mise en œuvre d’une méthodologie
appropriée, méthodologie qui doit faire l’objet d’un apprentissage spécifique.
******ebook converter DEMO Watermarks*******
Il existe tout d’abord des règles propres à l’exercice de la dissertation
économique dont il faut prendre connaissance. Certaines sont formelles et
d’autres plus informelles et elles peuvent en outre varier selon les cas de
figure. Ces règles se traduisent par certaines « attentes » dans les dispositifs
d’évaluation des concepteurs de sujets et des correcteurs : les points
incontournables que l’on doit trouver dans une introduction pour que celle-ci
soit de qualité ; la fonction des transitions entre les parties du devoir
notamment en matière de problématisation ; l’articulation entre les
connaissances théoriques, les connaissances historiques et les connaissances
factuelles ; etc. La première étape consiste naturellement à prendre
connaissance de ces attentes.
On a l’habitude de dire que chaque dissertation est spécifique au sujet
auquel elle répond. Toutefois, pour réussir l’épreuve, il faut mobiliser une
méthode qui soit de portée suffisamment générale pour pouvoir être utilisée
avec tous les sujets que l’on rencontre dans les nombreux examens et
concours pratiquant ce type d’épreuve. C’est une méthode de cette nature que
cette première partie de l’ouvrage vous propose.
Enfin, précisons que dans l’apprentissage de la dissertation de science
économique, il est important de distinguer deux composantes : a) la question
de la préparation méthodique à l’exercice à proprement parler, c’est-à-dire
une activité de long terme impliquant souvent plusieurs années de formation
durant lesquelles l’objectif est de progresser dans la maîtrise des compétences
requises ; b) la question de la réalisation finale de la dissertation le jour de
l’examen ou du concours. Bien entendu, comme tout apprentissage
complexe, l’acquisition de la série de compétences nécessaires pour mener à
bien cette tâche s’effectue progressivement, avec sans doute plusieurs (et si
possible de nombreuses) rédactions de dissertations d’entraînement avant
l’épreuve finale.
Nous proposons ainsi une démarche en trois temps :
1) l’identification des règles de la dissertation ;
2) une méthode permettant d’articuler la liste des tâches à maîtriser
depuis la compréhension du libellé du sujet jusqu’à la rédaction de
l’introduction (celle-ci s’effectuant logiquement en fin de parcours
juste avant la rédaction finale du devoir) ;
3) des conseils et des remarques relatives à la manière d’appréhender la
rédaction de la copie le jour de l’épreuve ou à l’occasion d’un test

******ebook converter DEMO Watermarks*******


d’entraînement.

Méthode n° 1 Se préparer à une épreuve de dissertation


de science économique : premiers conseils
Les deux composantes de la méthodologie de la dissertation – préparation à l’épreuve
et réalisation de l’épreuve dans le temps imparti – doivent s’articuler de façon
constante. Nous conseillons de les travailler simultanément tout au long de votre
formation en alternant :
– d’une part, des exercices spécifiques isolés (constructions de problématique,
élaboration de plans détaillés, rédaction d’introductions, rédactions de « fil
directeur » et de transitions entre les parties, etc.) afin d’améliorer vos
compétences sur chaque tâche tout en les ritualisant (les attentes formelles de
l’introduction doivent devenir un automatisme par exemple, tout comme la
rédaction des transitions entre les parties)1 ;
– d’autre part, des tests d’entraînement les plus nombreux possibles portant sur
l’exercice final (rédaction intégrale d’une copie dans le temps imparti lors de
l’examen ou du concours) qui vous permettront d’affiner progressivement la
maîtrise de l’exercice.
En fin de compte, puisqu’une dissertation réussie articule efficacement la « forme » et
le « fond », l’enjeu est de parvenir à faire de la composante « forme » un exercice
maîtrisé par la routine de l’entraînement afin de porter l’attention et la concentration sur
les enjeux relatifs au contenu du sujet.

******ebook converter DEMO Watermarks*******


1. Notons que pour les étudiants de Classes préparatoires, ce type de travail peut être conduit dans le
cadre de la préparation des interrogations orales hebdomadaires (dites « khôlles »). L’expérience
montre que les étudiants qui s’entraînent, tout au long de l’année de formation, sur des sujets de
concours en rédigeant des ​problématiques, des plans semi-détaillés ou encore des conclusions-bilan de
sujets augmentent significativement leurs chances de réussite.

******ebook converter DEMO Watermarks*******


Chapitre 1 Les règles de la
dissertation

Introduction

La dissertation de science économique est pratiquée comme épreuve dans de nombreux


concours au premier rang desquels :
– les concours de recrutement aux Grandes Écoles pour les étudiants des Classes
préparatoires (concours « voie économique » des écoles de management,
concours B/L des Écoles Normales Supérieures) ;
– les concours de recrutement des enseignants de Sciences éco​nomiques et sociales
(CAPES et Agrégation) ainsi que d’Économie et Gestion (pour le concours de
l’Agrégation externe d’Économie et Gestion) ;
– certains concours de la fonction publique centrale et territoriale (concours externe
d’entrée à l’École Nationale d’Administration, concours externe d’Administrateur
territorial, concours d’Inspecteur des finances publiques notamment).
Malgré la spécificité de certaines attentes selon les concours et les jurys, on peut relever
la présence de règles communes à la pratique de la dissertation. Certaines sont
formelles et sont rappelées le plus souvent dans les rapports de jury, d’autres sont plus
informelles et peuvent fluctuer selon le contexte, le type de concours et la composition
du jury.

1 Les règles formelles

S’agissant des attentes formelles, une dissertation de science économique


suppose de respecter les règles suivantes :
1. Débuter par une introduction qui doit être construite sur la base de
4 piliers :
– une accroche dont la fonction est de mettre en valeur l’intérêt du sujet à
partir d’une citation d’auteur, d’un fait d’actualité ou d’un fait historique
marquant (dans tous les cas, l’idée présentée doit être suffisamment
******ebook converter DEMO Watermarks*******
explicitée pour que le lien avec le sujet apparaisse comme évident) ;
– une définition de chaque terme clé du sujet (il peut s’agir d’un seul terme,
mais le plus souvent le sujet en mobilise deux) ;
– une présentation de la problématique choisie par le rédacteur de la
dissertation ;
– une annonce du plan de la dissertation (l’objectif ici est de s’en tenir aux
grandes parties du développement).
2. Poursuivre par un développement (la partie la plus conséquente du
devoir sur le plan quantitatif) qui implique une structuration du devoir en
parties (au moins 2 parties, au maximum 3) et en sous-parties (au moins 2 et
au maximum 3). La combinaison « 3 parties/3 sous-parties » n’est pas
conseillée afin d’éviter la multiplication des ​paragraphes. Ce développement
est l’occasion de mobiliser des connaissances théoriques, factuelles et
historiques et de les articuler logiquement entre elles.
3. S’appuyer sur des transitions, c’est-à-dire des textes synthétiques
permettant de rappeler le fil directeur de la démonstration en lien avec la
problématique ; transitions qui prennent place au moment de l’alternance des
parties et des sous-parties.
4. Terminer par une conclusion construite sur la base de deux piliers :
– un bilan de la démonstration proposée dans le devoir (autrement dit
l’essentiel de la réponse à la question posée par le sujet) ;
– une ouverture sur un sujet ou un problème connexe vers lequel la
démonstration proposée tend à s’orienter.

2 Les règles informelles

Parmi les règles informelles (et donc souvent contingentes) propres à


l’exercice de la dissertation de science économique, on peut notamment
retenir : la présence ou l’absence de titres apparents qui marquent les étapes
du développement ; la question de la longueur du devoir ; la question de la
précision des références théoriques et historiques.

2.1 Une dissertation avec ou sans titres apparents ?


Dans sa version la plus académique, la dissertation est un exercice de style

******ebook converter DEMO Watermarks*******


qui se traduit par un texte structuré dépourvu de titres (notamment dans les
disciplines « historiques » qui pratiquent cet exercice comme la Littérature, la
Philosophie ou encore le Droit). Toutefois, l’usage a conduit à ce que, dans
de nombreux concours qui utilisent la dissertation de science économique et
en particulier les concours du CAPES et de l’Agrégation de Sciences
économiques et sociales, la pratique des titres apparents soit acceptée. Dans
d’autres concours en revanche (certains concours des Grandes Écoles de
management pour les étudiants de Classes préparatoires par exemple), la
question de la possibilité de titres apparents reste discutée entre les
correcteurs, ce qui nous conduit plutôt à vous conseiller l’absence de titres
dans ces cas de figure.
L’option que nous prenons dans cet ouvrage est de proposer des
rédactions de devoir avec des titres apparents. L’objectif est toutefois
pédagogique : nous partons de l’idée qu’il est plus facile pour le lecteur de
travailler sur une dissertation rédigée qui explicite l’idée principale de chaque
partie à l’aide d’un titre. Il ne s’agit donc pas d’une « prescription » sur la
démarche à adopter dans les concours, ni d’une préférence de notre part. En
fin de compte, il appartient à chaque candidat, au cours de sa préparation,
d’adopter la stratégie qui lui semble la plus adéquate (voir Méthode n° 2).
Dans les pratiques de correction de certains concours, se pose une autre
question, connexe à celle-ci : quel est le nombre de parties souhaitables dans
la dissertation ? Là encore, il n’existe pas de règle formelle mais des usages
qui ont été établis par l’histoire de chaque concours. Dans la plupart des cas,
le candidat dispose d’une certaine liberté pour structurer le devoir dès lors
que le développement comporte au moins deux parties et au maximum trois.
Dans certains concours toutefois (comme le concours d’entrée à HEC ouvert
aux étudiants des Classes préparatoires EC-E), les évaluateurs semblent
valoriser des devoirs reposant sur des plans en trois parties. Nous
conseillons donc au lecteur de rechercher des informations sur les pratiques
spécifi​ques au concours préparé. Il existe souvent des rapports de jury qui ​-
fournissent des éléments de réponse à cette question ou, à tout le moins, qui
proposent des pistes de correction indiquant ce qui paraît souhaitable pour les
correcteurs. D’autres concours, à l’image de celui de l’ENA, rendent
officiellement publiques certaines copies ayant fait l’objet d’une très bonne
note. Leur lecture attentive peut fournir des informations précieuses pour le
préparationnaire.

******ebook converter DEMO Watermarks*******


Méthode n° 2 Dissertation avec ou sans titres : comment
choisir ?
Dans le cas des concours qui acceptent les deux démarches, il va vous falloir choisir.
Nous vous conseillons d’utiliser la première partie de votre parcours de formation (les
deux ou trois premiers mois de travail si la préparation de l’épreuve s’effectue sur une
année par exemple) pour « tester » chaque option à l’occasion de vos exercices
d’entraînement. En fonction des informations que vous obtiendrez sur l’évolution de
vos performances, il vous faudra ensuite arrêter un choix et vous y tenir strictement
jusqu’au jour de l’épreuve (rien ne serait pire qu’après des entraînements nombreux
sans titres apparents, vous optiez pour l’autre méthode le jour « j » !).
Un des avantages principaux de la dissertation appuyée sur des titres apparents est la
facilité de lecture et de compréhension de votre démonstration par le correcteur. Si
l’articulation entre la présentation de la problématique dans l’introduction, les titres des
parties et les transitions est pertinente, cela conduira à améliorer la rigueur d’ensemble
de votre devoir et par conséquent sa lisibilité. L’inconvénient majeur toutefois repose
sur le risque de choisir des titres peu pertinents ou décalés par rapport à la
problématique annoncée et par rapport au texte que vous allez développer par la suite.
Dans ce cas, des titres purement décoratifs affaibliront la pertinence d’ensemble de la
copie en donnant le sentiment d’une structure non maîtrisée.
En fin de compte, nous vous conseillons :
– Quelle que soit la stratégie adoptée, de soigner particuliè​rement la présentation de
la problématique en introduction, les transitions entre les parties et le point
« bilan » de la conc​lusion afin que la structure du devoir et le fil directeur soient les
plus explicites possibles : c’est cette composante du devoir qui témoigne de la
qualité de votre argumentation et de ce que vous allez « démontrer ». Rappelons
que les titres apparents n’ont pas vocation à remplacer cette dimension de la
dissertation. Si le fil directeur de votre démonstration est pertinent, la présence ou
l’absence de titres n’aura finalement pas d’incidence sur la qualité de votre texte.
– Si vous optez pour la stratégie « titres apparents », préférez des formulations
courtes, par exemple sous forme de groupes nominaux, qui résument l’idée
principale de la partie correspondante et qui mobilisent les termes clés du sujet. Un
titre est par définition synthétique et ne doit pas se transformer en résumé de la
partie à venir.
– Si vous optez pour la stratégie sans titre dans la rédaction finale, nous vous
conseillons tout de même de prendre le temps de rédiger des titres lors de la
construction au brouillon de votre plan détaillé : ils vous aideront à vous centrer sur
l’idée principale de chaque partie et l’enchaînement des titres devrait vous
permettre de « tenir » plus facilement le fil directeur de votre démonstration. Il
suffira alors de ne pas les reproduire sur la copie finale.
– Enfin, quelle que soit la stratégie que vous arrêterez, il est impératif que la
structure du devoir apparaisse « visuellement » pour le correcteur. Cela signifie
qu’il faut opter pour des espaces normés entre les paragraphes en termes de
nombre de lignes (par exemple 3 lignes entre l’introduction, les grandes parties et
la conclusion, 1 ligne entre les sous-parties). Certains correcteurs apprécient
également la présence de marquage visuel : une * entre les sous-parties ; deux *
entre les grandes parties par exemple.

******ebook converter DEMO Watermarks*******


2.2 Une dissertation fleuve ou… synthétique ?
Dans certains cas de figure, comme notamment plusieurs concours de
Grandes écoles de management, il est indiqué dans les rapports de jury que
« la copie, sauf qualité exceptionnelle, ne doit pas excéder 8 pages de
rédaction » (soit l’équivalent de 2 copies doubles). Il s’agit pour le jury
d’inciter les candidats à ne pas produire de copie « fleuve » avec le risque de
conduire à du « bavardage » économique et à préférer une certaine rigueur en
même temps qu’un esprit de synthèse. Dans d’autre cas de figure (comme les
concours de recrutement des professeurs), les pratiques d’évaluation ne
conduisent pas à donner de précision de cette nature.
Nous pensons pour notre part que l’exigence d’une longueur limitée de la
dissertation est un faux problème. Le candidat compose nécessairement sur
un temps imposé (généralement 4 heures, parfois 5 voire 7 heures dans le cas
des concours de l’Agrégation ou d’autres concours de la fonction publique) et
ne peut donc pas rédiger davantage que ce que le temps imparti lui permet.
Rappeler que le « verbiage » est pénalisé et affecte la qualité de la copie est
bien entendu légitime. Il faut s’efforcer d’appliquer la règle « une idée, un
paragraphe » en s’attachant à mobiliser des connaissances rigoureuses (des
concepts, de mécanismes théoriques, des faits historiques ou factuels, des
ordres de grandeur statistique) et les lieux communs doivent être proscrits.
En pratique, les dissertations « trop courtes » sont pénalisées en raison du fait
qu’elles mobilisent trop peu de connaissances pour traiter convenablement le
sujet tandis que les dissertations longues tout en développant des
connaissances solides et rigoureuses sont peu fréquentes car, dans la plupart
des cas, hors de portée des candidats pour des raisons de contrainte de temps.
De fait, c’est bien la dérive de type « discussion de café de commerce » qui
est pénalisée dans les épreuves de concours plus que la question d’un quota
de pages à respecter.

2.3 Quelle précision dans les références théoriques


et historiques ?
Parmi les questions qui ne font pas l’objet d’attentes explicites mais qui sont
toutefois centrales dans les pratiques d’évaluation des jurys, il y a celle de la
précision des connaissances mobilisées dans la dissertation. Cela implique
notamment :
– Une parfaite maîtrise par le candidat des concepts clés du sujet ainsi que
******ebook converter DEMO Watermarks*******
des mécanismes théoriques qui leur sont associés. Il faudra veiller à ce
que les concepts utilisés soient définis ou, à tout le moins, explicités de
manière rigoureuse et insérés de manière fluide dans le propos
d’ensemble. Pour autant, il faut veiller à ne pas verser dans l’excès
inverse : si une dissertation dépourvue de concepts utilisés à bon escient
ne pourra pas être considérée comme pertinente, une dissertation réussie
ne se réduit pas à une succession de termes du vocabulaire économique et
de mécanismes fussent-ils correctement explicités.
– Une parfaite maîtrise par le candidat des références à la littérature
classique de la science économique : a) le titre des ouvrages les plus
importants doit être mentionné de manière complète dans la copie
incluant la date de première publication ; b) s’agissant des articles
scientifiques, il faut pouvoir être en mesure, a minima, de citer l’année de
publication. Par exemple, une analyse s’appuyant sur les ​travaux de
D. Ricardo sera d’autant plus valorisée qu’elle fera référence au titre
complet et daté de son ouvrage (Des principes de l’économie politique et
de l’impôt, 1817), même chose pour tout usage de la théorie de
J. M. Keynes où l’appui sur le titre exact de son ouvrage de référence –
Théorie générale de l’emploi de l’intérêt de la monnaie, 1936 – sera
préféré à la simple expression de « Théorie générale » comme on le lit
souvent.
– S’agissant des références historiques, on attend des candidats qu’ils soient
en mesure d’être précis sur le contexte dans lequel l’événement relaté
s’est déroulé, sur les ordres de grandeurs lorsqu’il est question de repères
factuels ainsi que sur les dates relatives à l’événement lui-même. Par
exemple, s’il est opportun par rapport à l’enjeu du sujet d’expliquer
l’infléchissement de la politique monétaire américaine à partir de la fin
des années 1970, il faudra indiquer que c’est en 1979 que P. Volcker est
nommé président du Conseil des gouverneurs de la Banque centrale
américaine (Fed) avec comme mission principale de réduire
significativement l’inflation par la mise en œuvre d’une politique
d’orientation monétariste. Il peut être utile de mentionner que c’est le
président démocrate J. Carter qui est à l’origine de cette nomination et
non son successeur républicain R. Reagan comme on le dit parfois à tort.
Il faudra également préciser qu’à partir de cette période, la Fed conduit
une politique monétaire particulièrement ​restrictive. Une des
conséquences de cette politique est la baisse significative du taux
******ebook converter DEMO Watermarks*******
d’inflation aux États-Unis : de plus de 10 % de hausse annuelle du niveau
général des prix en 1979 au moment du second choc pétrolier à moins
de 5 % en 1984.

Méthode n° 3 Comment produire une dissertation en


mobilisant des connaissances précises ?
Nous vous conseillons de travailler en vous appuyant sur plusieurs dispositifs
complémentaires :
– Des « fiches de cours » construites à partir de chapitres thématiques (histoire de
l’analyse économique, monnaie et finance, croissance économique, mondialisation
productive, etc.) qui articulent les connaissances théoriques (mécanismes,
présentations simplifiées de modèles, représentations graphiques) et les
connaissances empiriques (événements historiques, périodisations, ordres de
grandeurs, faits marquants de l’actualité récente).
– Des « fiches auteurs » qui recensent, pour chaque économiste important(e), le ou
les titres d’ouvrages essentiels ainsi que les concepts et mécanismes associés.
Par exemple, pour D. Ricardo on associe à son ouvrage de 1817 la théorie de la
valeur-travail, le principe de la rente différentielle et les rendements factoriels
décroissants ainsi que le mécanisme de l’avantage comparatif ; pour R. Mundell,
on pourra regrouper sur la même fiche, le triangle des incompatibilités, le schéma
IS-LM-BP (modèle Mundell-Flemming) ainsi que sa théorie des zones monétaires
optimales (article de 1961, “Theory of Optimum Currency Area” pour ce dernier
point). Selon le sujet proposé, ce sont donc seulement certains aspects de la
« fiche auteur » qui seront mobilisés.
– Un répertoire de vocabulaire économique dans lequel les concepts principaux
feront l’objet d’une définition concise et rigoureuse, susceptible d’être utilisée selon
les besoins dans la dissertation (définitions qui devront être apprises durant le
temps de la formation). S’agissant de ce dernier point, rappelons que dans certains
concours, comme notamment ceux des écoles de management, les rapports de
jury soulignent le caractère impératif de la définition des termes du sujet en
introduction et d’un usage rigoureux et explicité des concepts dans le corps du
devoir. L’investissement dans ce répertoire de vocabulaire au cours de la formation
apparaît donc comme très rentable !
L’intérêt final de cette démarche est de disposer d’un catalogue de ressources que l’on
pourra mobiliser pour alimenter la dissertation. Cela permet de rappeler qu’une
dissertation n’est en aucun cas une « question de cours » mais un exercice intellectuel
qui implique de choisir dans un ensemble de connaissances maîtrisées, celles,
et seulement celles, qui seront utiles pour répondre au problème qu’il s’agit de
résoudre.

******ebook converter DEMO Watermarks*******


******ebook converter DEMO Watermarks*******
Chapitre 2 Du libellé du sujet à
la problématique

1 Identifier l’enjeu du sujet

Le plus souvent, les sujets de dissertation de science économique, tels qu’on


les trouve dans les annales de concours, prennent la forme soit d’une phrase
rédigée sur le mode affirmatif ou interrogatif, soit d’un groupe de mots,
généralement deux expressions, que l’on associe. Cela signifie d’emblée que
le niveau d’information explicitement donné par le sujet est très limité et que
le premier travail à réaliser consiste à identifier son enjeu. Pour cela, il
importe de prêter une attention particulière à chaque mot que le sujet contient
et à la place que chacun d’eux occupe dans la formulation d’ensemble. Le
premier piège est en effet de « lire » le sujet de manière cursive ou erronée,
ce qui conduirait notamment à : a) changer sa nature, à se tromper sur son
enjeu ou mal l’identifier ; b) en réduire ou au contraire en accroître le champ
d’application (ce qui conduirait à un traitement partiel ou, au contraire, à des
parties du devoir qui deviendraient hors-sujet) ; c) en faire une interprétation
descriptive et a-problématique faute d’être parvenu à identifier la ou les
questions implicites auxquelles il renvoie.
Considérons par exemple la liste suivante de sujets :
– Doit-on considérer que la désindustrialisation constitue un processus
inéluctable dans un pays développé ? (Concours CPGE EC-E, ESCP-
Europe 2018)
– L’entreprise (depuis le XIXe siècle) peut-elle se passer de l’entrepreneur ?
(Concours CPGE EC-E, HEC 2017)
– Politique monétaire et activité économique (CAPES externe de
SES 2018)
******ebook converter DEMO Watermarks*******
– À la lumière de l’histoire, un pays doit-il toujours lutter contre son déficit
de la balance des opérations courantes ? (Concours CPGE EC-E,
Ecricome 2018)
– Quels liens peut-on établir entre les inégalités de revenus et la survenance
des crises économiques1 ?

Quels enjeux pour les sujets…


« Doit-on considérer que la désindustrialisation constitue
un processus inéluctable dans un pays développé ? »
De prime abord, on note la présence d’un seul concept dans ce sujet qui porte
sur une thématique centrale du débat public depuis plusieurs années : la
désindustrialisation. La formulation de la question, avec l’usage du verbe
« devoir » et le qualificatif « inéluctable », implique une lecture attentive qui
conduit de prime abord à poser les deux remarques suivantes :
1. « Doit-on » semble a priori inviter à une réponse normative. Rappelons
d’emblée que dans une dissertation de science économique, il n’est
jamais question d’argumenter sur la base de choix axiologiques
personnels (voir Méthode n° 4). En conséquence, il s’agit d’une formule
de style dont le but est d’inciter le candidat à orienter sa réflexion d’une
part vers les enseignements de la science économique s’agissant de la
transformation des systèmes productifs ainsi que de leurs conséquences
et, d’autre part, vers les choix de politique économique qui peuvent peser
sur le processus de désindustrialisation lorsqu’il est à l’œuvre. En
d’autres termes, si le sujet implique de présenter l’état des savoirs
scientifiques sur ce thème (le « on » peut représenter la profession des
économistes), il s’agit aussi d’interroger les politiques économiques
conduites et/ou envisageables face à ce processus qui est le plus
généralement perçu comme dommageable pour l’économie d’un
territoire (dans ce second cas, le « on » peut représenter les autorités
politiques d’un pays ou d’un groupe de pays comme par exemple l’Union
européenne).
2. Le qualificatif « inéluctable » invite par ailleurs à se demander s’il est
vain de chercher à contrecarrer le processus de désindustrialisation. Pour
le dictionnaire Le Robert, « inéluctable » signifie « contre lequel il est
impossible de lutter ». Cela renvoie à l’idée d’un phénomène qui est à la
******ebook converter DEMO Watermarks*******
fois inévitable et nécessaire. Dans le débat public, la désindustrialisation,
telle qu’elle est perçue dans les pays développés et particulièrement en
France, conduit souvent à une forme de fatalité face à un processus dont
tout le monde semble s’accorder pour dire qu’il a des effets
dommageables sur l’économie (baisse de l’emploi industriel,
délocalisations d’entreprises, intensification de la concurrence avec les
pays émergents, etc.). Le sujet invite donc à interroger cette position qui
est souvent perçue comme un « allant de soi » : doit-on considérer que le
recul du secteur industriel (par rapport au PIB, par rapport aux emplois,
dans la structure de la consommation notamment) et la perte de
compétitivité qui l’accompagne le plus souvent dans un contexte de
mondialisation de plus en plus concurrentielle sont les composants d’un
processus inexorable contre lequel il est vain de lutter ? Le savoir établi
par la science économique conduit clairement à une réponse en deux
temps qui dépend de la définition que l’on adopte. D’une part, il est
manifeste que les PDEM connaissent une baisse structurelle et relative de
l’activité industrielle. Cette baisse est mesurée par la part de l’industrie
dans la valeur ajoutée, par celle de l’emploi industriel dans l’emploi total,
ainsi que par la montée relative des activités de services dans le système
productif même si de nombreux travaux s’accordent pour nuancer ce
processus (il existe une industrialisation des services). En ce sens, la
désindustrialisation peut être considérée comme inéluctable et elle est
étudiée comme telle par des économistes comme D. Rodrik aux États-
Unis ou P. Artus en France. Pour autant, elle ne cor​respond pas
nécessairement au phénomène connoté négativement tel qu’il est perçu
dans le débat public. D’autre part, si on entend
par « désindustrialisation » le processus qui conduit à la disparition de
gains de productivité et à la perte progressive des parts de marchés dans
la compétition internationale pour les firmes européennes par exemple,
alors la réponse à la question posée par le sujet est ​clairement négative :
il existe d’importants gisements de productivité dans certaines activités
de services comme le secteur de la banque et de l’assurance, les
télécommunications, etc. ; par ailleurs, les politiques économiques mises
en œuvre (notamment la politique industrielle) peuvent conduire à
améliorer la compétitivité des firmes sur un territoire et il n’existe aucune
fatalité à la dynamique des spécialisations productives.
À partir de ces deux questions, l’enjeu du sujet apparaît de manière plus
******ebook converter DEMO Watermarks*******
explicite. La perception du processus de désindustrialisation dans le débat
public est sous-tendue par des craintes s’appuyant sur des lieux communs
et/ou des discours politiques qui, en fin de compte, ne résistent pas à
l’examen : il existe bien une tendance structurelle à l’évolution des systèmes
productifs et si, depuis quelques décennies, la plupart des PDEM rencontrent
des difficultés face aux pays émergents, cette tendance implique une
évolution des choix de politique économique, en particulier sur le plan
industriel ainsi que de la coopération État-Entreprises en matière
d’innovation et de spécialisation productive.

Méthode n° 4 La dissertation de science économique :


analyse normative ou analyse positive ?
Certains sujets peuvent apparaître a priori déstabilisants du fait de leur formulation qui
semble inviter à une réponse normative. C’est notamment le cas des sujets suivants :
– « Doit-on considérer que la désindustrialisation constitue un processus inéluctable
dans un pays développé ? » (Concours CPGE EC-E, ESCP 2018)
– « Depuis le début du XXe siècle, qu’est-ce qu’un bon taux de change ? » (Concours
CPGE EC-E, Ecricome 2013)
– « “L’Europe sera monétaire ou ne sera pas.” Que pensez-vous de cette
assertion ? » (Concours CPGE EC-E, Essec 2012)
– « L’inflation est-elle la meilleure des solutions pour résoudre les crises de la dette
publique ? » (Concours CPGE EC-E, ESCP-Europe 2012)
– « Faut-il souhaiter, ainsi que le soutenait J. M. Keynes, l’euthanasie des
rentiers ? » (Concours CPGE EC-E, Ecricome 2013)
– « À la lumière de l’histoire, un pays doit-il toujours lutter contre son déficit de la
balance des opérations courantes ? (Concours CPGE EC-E, Ecricome 2018)
Rappelons à ce propos qu’une des caractéristiques centrales de la dissertation de
science économique est de proposer une analyse positive qui mobilise des arguments
de nature scientifique à la fois conceptuels et empiriques. Les discours doctrinaux
personnels ou, a fortiori, relevant des opinions ou des lieux communs, doivent être
proscrits. En d’autres termes, même si l’énoncé du sujet semble inviter à des prises de
position qui relèvent de jugements de valeur, il faut considérer qu’il s’agit d’une simple
manière, pour le concepteur du sujet, de présenter le problème de sorte que cela invite
à la réflexion. Il n’est donc pas question pour le candidat de développer ce qu’il pense
personnellement des modalités possibles de la construction européenne, du recours à
l’inflation pour alléger le poids de la dette publique ou encore de la place de l’épargne
dans l’activité économique.
Dans tous les cas de figure, il s’agira de produire un texte dont la structure et
l’argumentation sont certes personnelles mais dont le corpus de connaissances qui le
constitue a été produit, non par le rédacteur lui-même, mais au sein de la communauté
savante à laquelle on se réfère. Il existe par exemple des arguments fondés en raison,

******ebook converter DEMO Watermarks*******


parfois contradictoires, qui permettent d’analyser la place de l’épargne dans l’activité
économique et ce sont ces arguments qui permettront de discuter de la fameuse
citation de J. M. Keynes sur l’euthanasie des rentiers. De même, la question du déficit
ou de l’excédent de la balance des transactions courantes d’un pays fait l’objet de
travaux académiques nombreux et ce sont ces travaux qu’il sera légitime de mobiliser
afin de les articuler avec la présentation des choix de politique commerciale conduits
par les gouvernements.
En ce sens, la dissertation est aussi l’occasion de montrer que le savoir économique
conduit à une expertise qui est mise à disposition, via le débat démocratique, des
autorités politiques. Si cette posture de neutralité axiologique, pour reprendre la
formule de M. Weber, est essentielle, elle ne doit pas pour autant conduire le rédacteur
du devoir à se dissimuler derrière elle et à renoncer à toute démonstration. À ce titre,
les formulations de sujets qui invitent le candidat à se positionner peuvent être
interprétées comme un signal pour orienter la problématique de la dissertation (voir
« Un exemple de cadrage de sujet » relatif à la problématique, p. 44).
En fin de compte, sur cette question délicate d’articulation entre le discours normatif et
le discours positif, nous vous conseillons de dépasser rapidement l’effet de surprise, au
moment de la lecture du sujet dès lors que celui-ci semble inviter à une prise de
position personnelle. Il faut pour cela :
– Se demander quels sont les soubassements scientifiques de la question qui est
posée et orienter votre réponse dans cette direction. En effet, au cours de la
rédaction de la dissertation, il faut être en mesure, pour chaque argument
développé, d’en connaître l’origine et de l’expliciter (économiste, courant théorique
concerné, contexte de production du mécanisme, etc.). Pour cela, il faut garder à
l’esprit quelques questions clés : « D’où provient cette idée que je vais développer
dans la copie ? » Semble-t-elle « frappée au coin du bon sens » ou puis-je en
identifier précisément la source ? Quelle est son origine théorique ? Fait-elle
consensus dans la communauté des économistes ou fait-elle à l’inverse l’objet d’un
débat scientifique ? La validité empirique de cette idée est-elle significative ou
partielle ? Par exemple, pour le sujet relatif à la citation de Keynes, il peut être
avisé de montrer que les comportements d’épargne varient selon le contexte
économique et notamment selon la progression du revenu des ménages. Cela peut
conduire à mobiliser l’hypothèse de Keynes qui a pris le nom de « loi
psychologique fondamentale » pour discuter ensuite dans le devoir de sa validité
empirique. Même si cet énoncé a été partiellement remis en question par des
travaux empiriques ultérieurs (S. Kuznets à partir de 1946), sa présence dans la
copie est légitime de par son caractère académique mais également du fait de sa
validité partielle (la propension moyenne à consommer est bien décroissante
lorsqu’on compare le revenu des ménages en coupe transversale) ou encore de
par le renouvellement des débats qu’elle a suscité par la suite (développement de
la théorie du revenu permanent de M. Friedman par exemple). De même, pour le
sujet relatif à la désindustrialisation, il sera sans doute nécessaire de montrer que
de nombreux travaux depuis le début des années 2010 (notamment dans le cadre
de l’Insee) montrent que les difficultés en matière de compétitivité des firmes de
l’économie française ne sont pas réductibles au recul des activités industrielles
mais découlent aussi de la faible propension à innover des entreprises de taille
intermédiaire (ETI) dont le marché est exclusivement hexagonal alors qu’à l’inverse
celles qui sont tournées vers les marchés extérieurs innovent davantage. Cet
argument empirique est repris par P. Aghion, G. Cette et É. Cohen dans leur
ouvrage Changer de modèle (2014) lorsqu’ils montrent que les ressorts de la
******ebook converter DEMO Watermarks*******
compétitivité de l’économie française doivent être recherchés du côté du nombre
de la qualité des ETI dans le maillage du système productif, ce qui implique une
réorientation de la politique industrielle. L’idée importante dans la dissertation est
finalement de toujours s’assurer du statut de l’argument versé sur la copie : celui-ci
peut être de nature théorique (une hypothèse, un mécanisme issu d’un modèle) ou
empirique (compte rendu d’enquête, données statistiques probantes) mais doit,
dans chaque cas de figure, faire l’objet d’une contextualisation et d’un
référencement précis.
– Il faut par ailleurs utiliser dans le devoir, lorsque c’est opportun, des arguments
normatifs qui sont produits dans le débat public et qui conduisent parfois à des
choix politiques comme des ressources complémentaires qui viennent renforcer
votre analyse. Par exemple, il peut être légitime d’expliquer que certains partis
politiques revendiquent une réduction du niveau des dettes publiques par le
recours à plus d’inflation alors que d’autres, à l’inverse, le refusent
catégoriquement. De même, dans certains contextes historiques, les autorités
politiques et monétaires ont considéré qu’un « bon taux de change » était celui qui
permettait, par la faiblesse de la valeur externe de la monnaie, de stimuler la
compétitivité-prix, ce qui pouvait conduire, notamment grâce à l’instrument de la
dévaluation compétitive, à restaurer l’équilibre de la balance des transactions
courantes. À l’inverse, d’autres contextes ont conduit au point de vue inverse
(politique du « franc fort » par exemple en France à partir de 1985 ou encore du
« poids » de l’Allemagne dans la valeur externe de l’euro jusqu’à une date
récente). Dans tous les cas de figure, si ces confrontations doctrinales prennent
logiquement place dans le devoir, elles ne sauraient être suffisantes pour traiter le
sujet, le candidat devant les soumettre à une critique scientifique.
Enfin, précisons que la meilleure façon de sortir du piège de la « dérive normative »
réside sans doute dans une problématisation pertinente du sujet : c’est la qualité de
votre démonstration qui permettra de répondre réellement au problème que le sujet
pose, et par là même de dépasser la tentation de la simple prise de position
personnelle.

« L’entreprise (depuis le XIXe siècle) peut-elle se passer de


l’entrepreneur ? »
Ce sujet, qui se présente sous la forme d’une question s’appuie sur deux
concepts clés qui, en apparence, sont très proches l’un de l’autre : entreprise
et entrepreneur. Sa formulation est académique, elle ne pose pas de difficulté
particulière et le domaine de connaissance auquel il renvoie est assez
explicite : l’analyse économique de la firme. En outre, une précision relative
au cadrage est proposée (« depuis le XIXe siècle »), ce qui devrait inciter le
candidat à donner une profondeur historique au traitement du sujet. Pour
autant, sa difficulté réside sans doute dans le risque d’une lecture hâtive qui
conduirait à une rédaction de type « question de cours » sur l’économie de la
firme avec, en fin de compte, un traitement du sujet dépourvu d’enjeu, c’est-
à-dire a-problématique (voir Méthode n° 5). Pour éviter cette erreur, il
******ebook converter DEMO Watermarks*******
convient d’expliciter l’expression « peutelle se passer » sur laquelle le sujet
repose.
Il s’agit en fait de se demander si l’entreprise, en tant qu’organisation
mettant en œuvre une production marchande, a nécessairement besoin de
s’appuyer sur la figure emblématique de l’entrepreneur ou si, au contraire, la
place de ce dernier est contingente et n’affecte ni la gouvernance de la firme,
ni l’efficacité de sa participation à la dynamique économique. La discussion
autour du caractère « incontournable » de l’entrepreneur devra ainsi être
reliée à deux questions : d’une part, celle des objectifs de la firme (qui sont
pluriels et ne se limitent pas à la recherche du profit) ; d’autre part, celle des
fonctions que l’entreprise remplit dans la dynamique économique
(l’entreprise comme acteur de la croissance économique mais aussi comme
partie prenante centrale des enjeux de développement d’un territoire).
Implicitement, ce sujet renvoie au débat ancien qui a été initié par
J. A. Schumpeter dans Capitalisme, socialisme et démocratie (1942) lorsque
celui-ci évoque « le crépuscule de la fonction d’entrepreneur ». On invite le
candidat à se demander si, sur le temps long de l’histoire économique, les
entreprises sont devenues des organisations qui ne laissent plus de place à
l’entrepreneur, c’est-à-dire l’agent économique qui endosse le risque, qui met
en œuvre les innovations et qui est à l’origine de la dynamique du capitalisme
selon l’expression de Schumpeter ; et si, le cas échéant, elles n’ont pas connu
une forme de dénaturation.
Par exemple, Schumpeter s’appuie sur l’image du « condottieri » pour
caractériser l’entrepreneur, celui qui endosse le rôle de chef de guerre
charismatique. En accord avec cette idée, on parle parfois de « capitaine
d’industrie » comme synonyme d’entrepreneur (en italien, Enzo Ferrari était
nommé « il commendatore »). Il y a dans ce débat un enjeu politique
important avec notamment une critique de la bureaucratie managériale ainsi
qu’une dénonciation des errements du capitalisme actionnarial. Pour autant, il
s’agit aussi d’une question qui peut être traitée sous l’angle scientifique. Il
faudra pour cela s’appuyer sur des définitions rigoureuses de chacun de ces
deux concepts et discuter de la portée heuristique de deux hypothèses :
a) d’une part, celle qui considère que le capitalisme a besoin d’une élite
entrepreneuriale pour assurer son dynamisme ; b) d’autre part, celle qui
considère qu’au fil de l’histoire cette élite entrepreneuriale a tendance à
s’effacer soit au profit d’une « ère des managers », soit à celui d’un
capitalisme placé sous la gouvernance des actionnaires, soit sur un modèle
******ebook converter DEMO Watermarks*******
d’entreprise qui repose sur la coopération des parties prenantes.

Méthode n° 5 La dissertation et la question de cours :


éviter la confusion
L’erreur qui consiste à « vider le sujet de son enjeu » pour le traiter comme une
question de cours (présenter les connaissances relatives à l’analyse économique de la
firme et à sa gouvernance plutôt que de répondre à la question de savoir si
l’entrepreneur est incontournable pour l’entreprise par exemple) est une dérive
classique que les correcteurs des concours rencontrent fréquemment dans les copies.
Elle repose sur une confusion entretenue par le candidat entre une « question de
cours » et l’exercice de la dissertation. Le plus souvent, dans leur cours relatif à
l’économie de la firme, les candidats ont appris conjointement comment celle-ci est
analysée dans les théories contractuelles (théories de coûts de transactions, théorie de
l’agence, etc.) puis dans les théories institutionnalistes. Ils ont ensuite appris comment
les formes de gouvernance des firmes ont évolué au cours du temps. La tentation est
donc grande, lors de la rédaction de la dissertation, « d’enchaîner » les arguments
puisés dans ce corpus de connaissances : le devoir se transforme alors en « question
de cours », « l’ère du capitalisme actionnarial succède à celle du capitalisme
managérial », ce qui conduit à la fois à une pratique du hors-sujet et à une absence de
réponse à la question. Dans les deux cas de figure, le risque est grand que cela
s’avère rédhibitoire.
Le meilleur moyen d’éviter cette dérive est de prendre le temps de bien identifier
l’enjeu du sujet en précisant son champ d’application et le problème qu’il appelle à
résoudre. Le sujet de la dissertation doit être considéré comme un objet de réflexion
propre qui, dans un premier temps à tout le moins au cours de l’épreuve, a besoin
d’être déconnecté des chapitres de cours qui ont été appris. Rappelons encore que
disserter c’est répondre à une question, il est donc légitime et nécessaire que cette
réponse apparaisse de manière explicite dans le devoir.

« Politique monétaire et activité économique »


Ce sujet prend le parti d’une formulation très académique en se présentant
simplement comme l’articulation de deux concepts. Il s’agit d’une option qui
est fréquemment utilisée dans le cadre des concours du CAPES et de
l’Agrégation de SES mais aussi dans certains sujets de concours de CPGE.
Citons par exemple, « Comportements économiques et institutions »
(Agrégation externe 2016), « Fiscalité et croissance économique » (CAPES
externe 2013), « Taux d’intérêt et politique monétaire » (CAPES
externe 2010) mais aussi « Progrès technique et emploi » (ESSEC 2005),
« Croissance et inégalités » (ESSEC 2015). Il s’agit d’un type de sujet que
l’on rencontre aussi fréquemment dans les épreuves orales de concours :

******ebook converter DEMO Watermarks*******


« Délocalisations et emploi » (HEC 2017), « Innovation et monopole »
(HEC 2017), etc. En apparence simple sur le plan de la lecture, ce type de
sujet présente toutefois au moins deux difficultés qui impliquent :
1. D’être attentif à bien rester « ancré » sur l’interaction entre les deux
concepts et ne pas considérer l’un ou l’autre selon une logique propre.
Par exemple, toute analyse se limitant à un examen de la politique
monétaire en distinguant ses objectifs et ses instruments ne répondrait
pas au problème que le sujet pose implicitement. Même s’il est sans
doute nécessaire d’étudier la diversité des instruments de la ​politique
monétaire (passage d’un refinancement à taux fixe à des instruments de
marchés à partir des années 1970 par exemple, instruments spécifiques
de la politique monétaire mis en œuvre dans la zone euro à partir
de 1999, émergence des instruments non conventionnels depuis 2008…),
c’est bien de leurs effets sur le niveau de l’activité (stimulation,
ralentissement ou… absence d’effet) qu’il s’agit afin d’apporter une
réponse à la question implicite. Le même corpus de connaissances qui
ferait l’objet d’une étude « pour lui-même » conduirait mécaniquement à
ne pas répondre.
2. D’expliciter la nature des liens qui existent entre les deux concepts dans
la mesure où la formulation du sujet ne propose aucune piste explicite qui
permettrait d’orienter la réflexion. Pour dépasser cette seconde difficulté,
il est nécessaire de donner au sujet une dimension problématisée, c’est-à-
dire proposer une démonstration dans le devoir. Par exemple, il s’agira
de montrer sous quelles conditions la politique monétaire peut
efficacement influencer le niveau de l’activité économique, que ce soit
dans le sens de la stimulation ou, au contraire, dans celui de son
ralentissement. Cette relation de cause à effet est discutée sur le plan
théorique (elle dépend notamment de l’hypothèse de neutralité de la
monnaie) mais les canaux de transmission de la politique monétaire vers
l’activité économique dépendent aussi du contexte historique et
institutionnel (la nature de la politique monétaire est très différente au
cours des Trente Glorieuses et dans les années 1980, depuis 1999 avec
l’avènement de la zone euro ou encore depuis la crise mondiale de 2008).
Il faut donc être attentif à ne pas opposer de manière binaire et
inamovible les ​positions théoriques (politique monétaire active dans la
tradition keynésienne et politique monétaire par nature inefficace dans
l’approche monétariste) en montrant que les savoirs sont cumulatifs et
******ebook converter DEMO Watermarks*******
que le débat sur l’efficacité de la politique monétaire a profondément
évolué ​notamment depuis 2008. L’enjeu du sujet ici est donc bien
d’examiner principalement les conséquences de la politique monétaire
sur le niveau de l’activité en prenant en considération la diversité des ​-
instruments (conventionnels et non conventionnels) mais également
l’élargissement des objectifs (avec, par exemple, la prise en compte de ​-
l’objectif de stabilité financière). Il s’agira aussi de prendre en
considération un « effet retour » en montrant que, selon le contexte, ​-
l’activité économique peut conduire à des ajustements dans la conduite
de la politique monétaire. La lecture du sujet peut ainsi être schématisée
comme suit (figure 2.1) :de science économique : quelle méthode ?
La dissertation

Activité
Politique monétaire
économique

Premier débat :
quelle efficacité de I’instrument
monétaire sur le niveau de I’activité ?
1 Efficace :
hypothèse de monnaie active
policy-mix (modèle IS/LM)
Inefficace :
neutralité de la monnaie à long terme
effets pervers des politiques monétaires
discrétionnaires

Second débat :
depuis 2008, renouveau de I’analyse quant
aux effets de la politique monétaire sur la
régulation de I’activité économique

Nouveau dispositif institutionnel et


2 nouvelles pratiques par les banques
centrales : usages non conventionnels de
la politique conventionnelle et politique
monétaire non conventionnelle

Les nécessaires limites du soutien


à I’activité par les politiques monétaires
depuis 2008

Figure 2.1 Enjeu du sujet : politique monétaire et activité économique

« À la lumière de l’histoire, un pays doit-il toujours lutter


contre son déficit de la balance des opérations courantes ? »
Ce sujet porte sur un thème classique de l’analyse économique (le commerce
extérieur d’un pays, son insertion dans la mondialisation commerciale et les
déséquilibres macroéconomiques qui, le cas échéant, l’accompagnent). Il peut
******ebook converter DEMO Watermarks*******
pourtant être perçu comme déstabilisant par les candidats pour plusieurs
raisons :
1. L’expression « balance des opérations courantes » est moins
fréquemment usitée que celle de « balance des transactions courantes » –
BTC – alors qu’il s’agit de la même composante de la balance des
paiements – BdP – (le compte des opérations ou transactions courantes
de la BdP comprend les opérations portant sur les biens, les services et
les revenus, c’est-à-dire la rémunération des salariés et les revenus
d’investissement consécutifs aux activités qui ont été conduites à
l’étranger, ainsi que l’aide au développement).
2. L’usage du verbe « devoir » renvoie à la question de l’articulation entre
analyse normative et analyse positive (voir Méthode n° 4) : dans ce cas, il
s’agit de se demander s’il est légitime que les autorités politiques d’un
pays se donnent comme objectif un solde équilibré de la balance des
opérations courantes (étant entendu que, généralement, un solde
déficitaire est considéré comme préjudiciable au regard par exemple des
objectifs de la politique économique énoncés par N. Kaldor avec le
schéma du « carré magique »). Répondre à cette question implique bien
entendu de mobiliser les acquis de la science économique et de ne pas
s’en tenir à des positions normatives telles qu’elles ont pu être défendues
par tel ou tel gouvernant.
3. Le champ de connaissances auquel le sujet renvoie peut sembler de
prime abord restreint : l’équilibre du commerce extérieur est en effet une
composante parmi d’autres des objectifs de la politique économique, ce
qui invite à considérer que le sujet porte sur ce point précis. Ce champ de
connaissances se réduit encore davantage si on considère qu’il s’agit d’un
objectif portant sur la courte période (et donc qui renvoie à l’exercice des
politiques conjoncturelles). Or, il est tout à fait possible, et même sans
doute souhaitable, d’élargir le champ de connaissances à la question de la
pertinence de l’usage de la BTC (et de son solde !) comme indicateur de
mesure de l’insertion d’un pays dans la mondialisation commerciale.
Certes, la question du degré de déséquilibre dans cette insertion devra
être prise en compte, mais répondre au sujet impliquera aussi de discuter
des limites de cet indicateur pour montrer que les autorités politiques
d’un pays doivent également prendre en considération la qualité de leur
participation à la mondialisation notamment s’agissant de la

******ebook converter DEMO Watermarks*******


compétitivité des firmes installées sur leur territoire et de l’attractivité de
celui-ci. Il faudra simplement être vigilant à ne pas inclure directement la
mondialisation productive dans le champ du sujet.
Sous réserve que ces premiers obstacles soient franchis, l’enjeu du sujet
devient plus explicite et la démonstration peut prendre la forme suivante :
traditionnellement, un pays mesure son degré de déséquilibre (et par ailleurs
son degré d’insertion) dans le commerce international en s’appuyant sur la
composante courante de sa balance des paiements. Le solde de cette dernière
(déficit ou excédent) est ainsi un indicateur fiable pour mesurer la position
d’un pays s’agissant de son commerce extérieur (on peut aussi le représenter
sous la forme du taux de couverture).
De prime abord, une situation de déficit (conjoncturel mais surtout
structurel) significative est le signe d’un déséquilibre extérieur préoccupant
qui pose à la fois des problèmes de financement des importations et donc de
soutenabilité du déséquilibre, de dépendance de l’économie nationale vis-à-
vis du reste du monde (mauvaise spécialisation du système productif) et
d’affaiblissement de la compétitivité des firmes du territoire (dans le cas où
les exportations sont en perte de vitesse). Toutefois, l’analyse économique
comme l’observation attentive de l’histoire invitent à la prudence quant à la
pertinence et l’usage de cet indicateur qu’est le solde de la BTC. Il existe en
effet des situations empiriques nombreuses où un pays connaît un équilibre
de son commerce extérieur voire un excédent alors que son économie est en
récession importante (les importations chutent avec la baisse cumulative de la
demande globale après une crise) ; inversement, un pays peut connaître un
déficit prononcé de sa BTC alors qu’il entre en phase haussière d’un cycle et
que son activité repart à la hausse (la hausse du PIB entraîne mécaniquement
une stimulation des importations).
S’agissant des politiques économiques, il est arrivé à des nombreuses
reprises dans l’histoire que les autorités d’un pays optent pour des mesures
(parfois drastiques) visant à la réduction du déficit courant comme par
exemple les dévaluations compétitives dans un système de change fixe mais
ajustable (courbe en « j ») ou le choix d’une dépréciation du change en
change flexible. Or, de tels choix de politique économique n’ont pas toujours
été efficaces notamment en raison de fragilités structurelles des systèmes
productifs des économies considérées. De surcroît, l’inefficacité de ce type de
mesure est allée croissante avec l’intensification de la mondialisation de
l’économie. Enfin, même si le solde de la BTC est un indicateur utile pour
******ebook converter DEMO Watermarks*******
faire apparaître le besoin ou la capacité de financement de l’économie
nationale, on peut noter qu’il est utilisé dans plusieurs pays dans une optique
néomercantiliste (en Chine et en Allemagne notamment) pour revendiquer le
fait que les autres pays devraient également poursuivre cet objectif de
recherche de l’excédent de la « balance haute ». Or, il existe une impossibilité
macroéconomique du « tous excédentaires » dans la mesure où la capacité de
financement des uns implique nécessairement le besoin de financement des
autres.
En fin de compte, l’enjeu du sujet est à la fois épistémologique et
méthodologique : il est important de se doter d’indicateurs de mesure (ici le
solde de la BTC) qui permettent de décrire une situation macroéconomique
et, dans le même temps, qui incitent à opérer les choix qui s’imposent en
matière de politique économique. Mais tout indicateur est par définition
construit et repose sur des conventions, sa portée et son usage doivent donc
être limités. Dans le cas de ce sujet, l’objectif important de politique
économique, dans un contexte de mondialisation avancée, porte sur la
compétitivité de l’économie d’un pays, la qualité de la spécialisation de son
système productif dans la segmentation des chaînes de valeur comme dans sa
distance à la frontière technologique ou encore dans le rythme de sa
croissance économique potentielle. Le recentrage abusif sur un indicateur
comme le solde de la BTC peut conduire les autorités à faire des erreurs de
politique économique par exemple en confondant le court terme et le long
terme. Comme le disait lui-même N. Kaldor, il ne faut pas confondre les
objectifs intermédiaires et les objectifs finaux de la politique économique : le
solde de la BTC n’est qu’un objectif intermédiaire.

Méthode n° 6 La maîtrise des contenus disciplinaires et


l’enjeu du sujet : des liens étroits
Il est courant que les étudiants expriment un sentiment de « prise de conscience » de
l’enjeu du sujet au moment… de la correction qui leur est proposée par leurs
formateurs, après la réalisation du devoir ! Cette idée que la compréhension du sujet
vient « après coup » et surtout qu’elle n’est pas ou difficilement transposable sur les
sujets ultérieurs conduit à un sentiment d’injustice et de blocage dans la progression
des apprentissages. L’expérience montre que ce problème est lié à l’insuffisante prise
en compte par les candidats des liens qui existent entre l’enjeu du sujet et la maîtrise
des contenus qui lui sont associés. Nous pensons que si cette prise de conscience du
« sens du sujet » s’effectue seulement au moment de la correction, c’est qu’en réalité

******ebook converter DEMO Watermarks*******


un apprentissage disciplinaire a bien lieu à cette occasion. Le fait que l’évaluation sous
forme de « dissertation test » ait une composante formative est bien entendu
souhaitable et légitime. Si, toutefois, c’est l’essentiel de l’apprentissage qui s’effectue
lors de cette étape, cela explique pourquoi le sujet n’a pu être convenablement compris
lorsque le candidat l’a travaillé en autonomie.
Ainsi, si le sujet relatif au déséquilibre de la balance des opérations courantes présenté
ci-dessus peut paraître de prime abord déstabilisant, c’est notamment en raison du fait
qu’il y a de grandes chances pour que le candidat oriente sa réflexion sur la seule
question de la mesure du commerce extérieur d’un pays et sur le degré de déséquilibre
qui l’accompagne (usage du solde de la BTC ou du taux de couverture par exemple).
Le sentiment qui peut alors se dégager est qu’il y aura « peu de choses à dire » sur un
tel sujet. Si, en revanche, les connaissances relatives aux ressorts de l’insertion d’une
économie dans la mondialisation commerciale ont été solidement apprises et
capitalisées, la connexion logique avec l’enjeu du sujet s’effectuera de manière plus
fluide.
Par exemple, s’agissant des pays d’Europe, le cas du modèle allemand est souvent
mis en avant : une BTC structurellement excédentaire depuis le début des
années 2000 combinée avec un taux d’ouverture (moyenne des exportations et des
importations, rapportée au PIB) de 47 % en 2017. Or, ce modèle allemand découle de
caractéristiques de fond de l’économie germanique telles que la compétitivité des
entreprises innovantes de taille intermédiaire (ETI) dites de « mittelstand », un maillage
de firmes spécialisées dans de nombreux secteurs clés (chimie, pharmacie,
électronique et matériel électrique, etc.) avec un recours important à la sous-traitance
nationale et internationale (outsourcing), mais aussi une régulation du marché du
travail qui a conduit à améliorer la compétitivité-prix des firmes allemandes par rapport
à celles installées dans les autres pays de l’Union européenne, etc. Par ailleurs, cette
question du modèle allemand fait débat : elle s’inscrit dans une perspective
néomercantiliste, suppose un partage de la valeur ajoutée qui s’oriente en faveur des
profits et au détriment des salaires (modération salariale depuis les lois Hartz de 2003
notamment) et s’appuie sur un processus de polarisation du marché du travail selon
les niveaux de qualifications.
Avec cet exemple, on comprend que le sujet invite aussi à traiter, d’une part, de la
dynamique du commerce intra-branche entre PDEM et notamment de l’échange intra-
branche vertical au sens de J.-L. Muchielli (échange de gamme comme par exemple le
commerce franco-allemand d’automobiles) et des enjeux de compétitivité (prix et
structurelle) pour les firmes qui en découle mais aussi, d’autre part, de la dynamique
du commerce inter-branche et de la spécialisation productive, c’est-à-dire des origines
des avantages comparatifs avec, par exemple, la constitution d’économies
d’agglomération qui permettent à certains territoires de devenir plus performants
(modèles de la nouvelle économie géographique notamment développés par
P. Krugman). Par ailleurs, c’est aussi un sujet qui invite à réfléchir sur la question des
« modèles nationaux », de leurs composantes coopérative ou non coopérative et de la
pertinence de les transférer vers d’autres pays.
En fin de compte, il s’agira bien d’étudier la question de l’équilibre du commerce
extérieur des pays tout en prenant appui sur des connaissances diverses (et qui
peuvent parfois sembler indirectement reliées au sujet) qui ont été capitalisées au
cours de la formation. Pour reprendre une métaphore connue, c’est le principe du « fil
et de la pelote de laine » : une des difficultés principales au moment de l’épreuve est
justement de correctement identifier l’existence de « fils possibles » (comment

******ebook converter DEMO Watermarks*******


expliquer les performances de l’économie allemande dans le commerce mondial ?
Comment discuter des sources de ces performances ?). La suite devient plus aisée : il
suffit de tirer sur le fil pour dérouler la pelote…

« Quels liens peut-on établir entre les inégalités de revenus


et la survenance des crises économiques ? »
Ce sujet se présente sous la forme d’une phrase interrogative mobilisant deux
concepts : celui d’inégalité de revenus et celui de crise économique. La
question porte explicitement sur les relations qui existent entre ces deux
concepts, ce qui fournit une information précise pour identifier l’enjeu du
sujet. Même si la formulation ne pose pas des difficultés apparentes, il
convient cependant de faire une lecture attentive du sujet. On peut pour cela
partir des remarques suivantes :
1. C’est le concept d’inégalité de revenus qui est choisi et non celui, plus
large, d’inégalité. Comme on le sait, les inégalités sont un objet d’étude
pour plusieurs disciplines, outre la science économique, telles que la
sociologie, la philosophie ou encore la démographie. La grille de lecture
comme la démarche méthodologique utilisées en science économique
étant propres à cette discipline, c’est dans cette perspective qu’il s’agit ici
de se situer (en particulier, il ne s’agira pas d’étudier les inégalités entre
des individus ou des groupes sociaux du point de vue des interactions que
ces derniers entretiennent entre eux comme c’est le cas dans la démarche
sociologique). Pour autant, il ne s’agit pas non plus de mobiliser sur cette
question le point de vue exhaustif de la science économique. Ainsi, il
aurait pu être légitime de s’intéresser à toutes les formes d’inégalités. Il
existe ainsi une analyse économique des inégalités dans l’accès à
l’emploi, dans l’accès à la qualification, mais aussi des inégalités face à
la répartition du patrimoine, etc. Le sujet invite à resserrer l’approche
autour de la question des revenus, c’est-à-dire au sens de J. R. Hicks, à ce
qui peut être consommé par un agent économique au cours d’une période
de temps sans amputer la valeur de son patrimoine. Les revenus prennent
naissance dans la production, c’est-à-dire dans la création de valeur
ajoutée au cours de chaque cycle de production. En ce sens, le revenu est
un flux tandis que le patrimoine est un stock. Il faudra être attentif à
prendre en considération la diversité des formes de revenus et ne pas se
limiter à la seule question des revenus du travail que sont les salaires (en
particulier, se posera la question des revenus du capital – les profits –,
******ebook converter DEMO Watermarks*******
ainsi que des revenus du patrimoine – les dividendes ou les intérêts pour
le patrimoine financier).
2. La deuxième remarque porte sur la nature de la relation entre les deux
concepts. Depuis maintenant de nombreuses années et en particulier
depuis la crise mondiale de 2008, des travaux divers partent de
l’hypothèse que les crises et, plus globalement, les déséquilibres
macroéconomiques prennent, pour partie certes, mais de manière
significative, leur source dans les composantes réelles de l’économie.
Ainsi, la hausse de l’endettement, qu’elle concerne les agents privés
(ménages, entreprises), les États avec la hausse des dettes souveraines et
plus globalement les économies nationales (déficit structurel de la
balance des transactions courantes pour de nombreux pays), peut
s’interpréter comme une conséquence directe de l’augmentation des
inégalités de revenus à l’œuvre depuis quelques décennies. Plusieurs
économistes ont montré que ce processus, qui trouve son origine dans
l’économie réelle, est un élément déclencheur important de la crise
de 2008. En France dès 2009, les travaux de J.-L. Gaffard et F. Saraceno
dans le cadre de l’OFCE montrent qu’à côté des facteurs financiers, les
inégalités de revenus ont contribué à la chute de la demande, de la
production et de l’emploi et qu’il s’agit là d’un facteur prépondérant de la
crise. De même, dans un ouvrage marquant, R. Rajan montre en 2010
(Crise : au-delà des marchés financiers) que c’est la hausse des
inégalités de revenus qui a conduit à des innovations financières dans le
système bancaire américain, innovations responsables de la crise des
subprimes de 2007. Enfin, notons qu’il ne s’agit pas là d’un phénomène
inédit à l’échelle de l’histoire : par exemple des mécanismes analogues se
sont produits à l’occasion de la crise de 1929, ce qui donne aussi au sujet
une dimension historique. En fin de compte, l’enjeu de ce sujet peut être
formulé à partir de la question suivante : comment et pourquoi un
déséquilibre macroéconomique relatif à l’économie réelle – la hausse des
inégalités de revenus – explique-t-il les crises économiques y compris
dans leur composante financière ?
3. La dernière remarque découle de la précédente : la nature de la relation
entre inégalités de revenus et crises économiques établie ci-​dessus
conditionne le sens de cette relation tel qu’il convient de la traiter dans le
devoir : il s’agira principalement d’examiner les conséquences de la
hausse de ces inégalités lorsqu’elles sont à l’œuvre sur la survenance des
******ebook converter DEMO Watermarks*******
crises mais aussi sur leur risque de survenance. Même s’il est par ailleurs
légitime de se demander comment les crises peuvent aussi avoir un effet
sur la dynamique des inégalités (il existe des interactions réciproques
entre les deux phénomènes), il ne s’agit pourtant pas de l’enjeu principal
du sujet. On peut considérer qu’il existe deux principaux mécanismes de
propagation des inégalités de revenus sur la survenance des crises : des
mécanismes par le canal des déséquilibres dans l’économie réelle (effets
sur la demande, la production et l’emploi) et des mécanismes par le canal
des déséquilibres dans la sphère financière (hausse de l’endettement des
agents, innovations financières, inflation des prix des actifs financiers,
hausse du risque systémique). Cette idée est schématisée dans la
figure 2.2.

1. Inégalités de revenus

Déséquilibres
dans I’économie réelle 2. Explication des crises
économiques/hausse
du risque de crise
Déséquilibres fnanciers et économique
hausse du risque systémique

Figure 2.2 Enjeu du sujet : quels liens peut-on établir entre les inégalités de revenus et la
survenance des crises économiques ?

Entraînement n° 1
Identifier l’enjeu des sujets de concours suivants :
– Qu’est-ce qu’une bonne gouvernance d’entreprise ? (Concours EC-E,
Ecricome 2016)
– Depuis les années 1980, la mondialisation est-elle responsable du
chômage dans les pays avancés ? (Concours EC-E, Ecricome 2016)
– La mondialisation peut-elle expliquer les mauvaises performances
économiques et sociales d’un pays ? (Concours EC-E, ESCP-Europe
2016)
– Comportements économiques et institutions (Agrégation externe de
SES 2016)
******ebook converter DEMO Watermarks*******
– Les politiques industrielles dans le contexte de la mondialisation
(ENA, Concours externe 2017)
– Un État doit-il s’inquiéter de l’augmentation de sa dette publique ?
(Concours EC-E, Ecricome 2017)
– Faut-il réglementer les marchés ? (Épreuve orale, concours HEC
2017)
– Comment expliquer le chômage français contemporain ? (Épreuve
orale, Concours ESM-Saint-Cyr 2018)

2 Cadrer le sujet

Lorsque l’enjeu du sujet a été identifié et que les risques de lecture erronée
ont été écartés, une des questions qui se pose ensuite est celle de son cadrage.
Cette étape est essentielle dans la mesure où il s’agit de fixer un périmètre à
l’intérieur duquel les connaissances permettant de nourrir la réflexion vont
être mobilisées. Ce cadrage du sujet comporte pour l’essentiel deux
composantes : une composante historique et géographique d’une part et une
composante thématique liée au domaine de connaissances concerné d’autre
part.

2.1 Le cadrage historique et géographique


Certains sujets donnent des informations explicites relatives à ce type de
cadrage. On peut relever par exemple :
– La concentration industrielle est-elle toujours un obstacle à la
concurrence ? Vous appuierez vos assertions sur des exemples tirés de
l’histoire économique depuis 1850. (Concours CPGE EC-E, ESCP-
Europe 2006)
– Depuis le début du XXe siècle, qu’est-ce qu’un bon taux de change ?
(Concours CPGE EC-E, Ecricome 2013)
– Depuis 1945, dans quelle mesure l’endettement des agents économiques
a-t-il été facteur de croissance dans les PDEM ? (Concours CPGE EC-E,
Ecricome 2009)
Dans ces cas de figure, le signal envoyé par le sujet est clair : il faut

******ebook converter DEMO Watermarks*******


suivre scrupuleusement la consigne et proposer une analyse qui s’inscrit dans
la perspective historique (et, le cas échéant, géographique) indiquée. Par
exemple, le sujet sur la concentration industrielle cité ci-dessus invite à
étudier le cas des grands trusts pétroliers aux États-Unis qui se développent
dans la seconde moitié du XIXe siècle. L’épisode de la Standard Oil de
Rockefeller en 1870 puis celui de la Standard Oil Company (SOC), holding
fondée encore par Rockefeller en 1899 ont été à l’origine des premières lois
fédérales sur la concurrence aux États-Unis (Sherman anti-trust Act en 1890
puis Clayton Act en 1914). On peut supposer que le jury sera attentif à ce
genre de développement historique.
D’autres sujets, en revanche, ne donnent aucune information relative à
une consigne de cadrage historique et/ou géographique. C’est très largement
le cas des sujets proposés pour les concours du CAPES et de l’Agrégation de
SES (voir l’exemple donné ci-dessus : « Politique monétaire et activité
économique »). Il appartient alors au candidat, sur la base de sa
compréhension du sujet et de l’enjeu auquel il renvoie, de proposer un
bornage pertinent. Dans quelques cas de figure toutefois, le sujet peut donner
des pistes implicites. Par exemple, « Le protectionnisme a-t-il de l’avenir
dans une économie de plus en plus internationalisée ? » incite à une réflexion
sur la place des politiques commerciales de protection dans un contexte de
mondialisation. En suivant S. Berger (Notre première mondialisation, 2003),
on peut considérer que la première mondialisation débute en 1870, durant la
dernière période de la Révolution industrielle. Cette référence académique
peut permettre de justifier ce cadrage historique (1870 jusqu’à nos jours) dans
le devoir. D’autres sujets, enfin, s’inscrivent dans une perspective très large,
rendant possible un cadrage lui-même fort étendu et donc variable selon les
dissertations. Par exemple, dans le sujet de l’Agrégation externe de SES 2016
« Comportements économiques et institutions », rien n’interdit d’appuyer la
réflexion sur des exemples historiques et géographiques très divers, dès lors
qu’ils sont mis au service de la problématique défendue dans le devoir. Ainsi,
en suivant D. Acemoglu et J. Robinson (Prospérité, puissance et
pauvreté, 2015), on pourra montrer comment le Botswana est un pays qui a
su se doter d’institutions mises au service de la croissance économique de
manière plus efficace que ses voisins africains ou encore mettre en
comparaison la Corée du Nord et la Corée du Sud du point de vue des
incitations collectives à certains comportements économiques (prédominance
des institutions extractives, pénalisantes pour la croissance en Corée du Nord
******ebook converter DEMO Watermarks*******
et prédominance des institutions inclusives, facteur de croissance en Corée du
Sud). En bref, sur ce type de sujet, les références à l’économie du
développement à partir de cas empiriques récents seront assurément
valorisées par le jury.
En fin de compte, la capacité à cadrer le sujet sur le plan historique et
géographique dépend en grande partie de la maîtrise des connaissances qui
lui correspondent.

2.2 Le cadrage du domaine de connaissances


Il est par ailleurs nécessaire de déterminer le ou les domaines de
connaissances dans lesquels il faudra puiser pour alimenter la réflexion. Cette
étape de la démarche est en apparence simple. Typiquement, au cours de
leurs parcours de formation, les étudiants s’appuient sur des cours et des
ouvrages structurés par grands thèmes de recherche de la science économique
(croissance économique, monnaie et finance, mondialisation, emploi et
chômage, politique économique, etc.). Ils se construisent le plus souvent une
culture économique basée sur ces découpages thématiques. Toujours
typiquement, la plupart des sujets renvoient effectivement à un domaine
spécifique de l’analyse économique. Par exemple :
– Le sujet « Existe-t-il une fiscalité optimale pour assurer la croissance
économique ? » (Concours CPGE EC-E, ESCP-Europe 2014) invite
naturellement à mobiliser des connaissances issues du thème de la
politique économique (dont la politique fiscale est une composante) ainsi
que de celui de la croissance économique (la fiscalité peut notamment
fonctionner comme un frein ou, au contraire, comme une incitation aux
innovations et à la compétitivité des firmes).
– Le sujet « Où commence et où s’achève l’intervention de l’État ? »
(CAPES externe de SES 2008) semble se centrer sur le thème large de
l’intervention de l’État dans l’économie (fonctions d’allocation, de
stabilisation et de répartition de l’État selon la typologie de R. Musgrave).
– Le sujet « Depuis le début du XXe siècle, qu’est-ce qu’un bon taux de
change ? » (Concours CPGE EC-E, Ecricome 2013) conduit ​logiquement
à s’appuyer sur la thématique des relations monétaires internationales et
sur les politiques de change.
C’est d’ailleurs la plupart du temps le thème de connaissances concerné

******ebook converter DEMO Watermarks*******


qui conduit les étudiants à préférer tel sujet par rapport à tel autre selon les
connaissances qu’ils ont capitalisées au cours de leur formation. Toutefois,
l’idée que chaque sujet renvoie à un domaine de connaissances particulier
doit être considérée avec prudence. En effet, il faut notamment éviter le piège
de la confusion entre la dissertation et la question de cours (voir Méthode n
° 5) : le sujet de dissertation doit être envisagé comme un objet propre de
réflexion et il faut parvenir à se mettre à distance des « chapitres de cours » à
partir desquels on a travaillé afin de pouvoir diversifier les ressources
mobilisées et traiter le sujet dans toutes ses dimensions. Par exemple, dans le
premier des trois sujets cités ci-dessus, la question de la concurrence fiscale
entre les territoires ne doit pas être oubliée. Or, celle-ci relève notamment des
thèmes de l’intégration européenne (les politiques fiscales sont de
compétences nationales pour les États membres de l’Union européenne, ce
qui conduit souvent à une mise en concurrence entre eux plutôt qu’à une
stratégie coopérative1) et de la mondialisation productive (certains pays
émergents s’appuient sur une stratégie de fiscalité nulle ou quasi nulle pour
attirer les filiales des FTN). On peut aussi utilement mobiliser les acquis de la
théorie des jeux : en Europe, la concurrence fiscale entre les États conduit à
un équilibre non coopératif source d’inefficacité économique de l’Union
européenne. De même, le deuxième exemple de sujet implique que la
thématique des modalités d’intervention de l’État s’articule avec celle de la
régulation marchande et de ses défaillances (réduction du degré de la
concurrence en l’absence d’une politique de concurrence, question de
l’impossible production des biens collectifs dans le cadre du marché, cas des
biens communs conduisant à des défauts majeurs de coordination lorsqu’ils
sont alloués dans le cadre du marché, etc.).
En fin de compte, il faut parvenir à établir des « connecteurs » par
lesquels des connaissances puisées dans des domaines parfois variés pourront
être utilement reliées. Il faut penser également à équilibrer les connaissances
d’ordre théorique avec celles d’ordre factuel et historique. Au final, pour
chaque sujet, on peut considérer que le jury attendra légitimement une série
de contenus « incontournables » mais laissera aussi une place significative à
des analyses qui pourront varier d’une copie à l’autre, étant entendu que la
dissertation ne saurait être un texte répondant de manière exhaustive au
problème posé. Il s’agit aussi d’évaluer la capacité du candidat à mettre des
contenus divers au service d’une problématique pertinente.

******ebook converter DEMO Watermarks*******


2.3 Un exemple de cadrage de sujet
« Quels liens peut-on établir entre les inégalités de revenus
et la survenance des crises économiques ? »
Dans un sujet comme celui-ci, aucune indication de cadrage historique ou
géographique n’est proposée. Cela signifie que le candidat doit s’appuyer sur
sa maîtrise des contenus disciplinaires associés au sujet ainsi que sur
l’identification de son enjeu pour décider du degré de mise en perspective
historique et géographique. Sur le plan historique, la question des crises
économiques est inhérente aux économies capitalistes et son analyse remonte
aux origines de la pensée économique. Les crises modernes à partir du milieu
du XIXe siècle sont des crises de surproduction qui interagissent le plus
souvent avec des déséquilibres financiers et le débat autour de la validité de
la loi de Say est déjà vif à cette époque. S’agissant de la question des
inégalités de revenus, de nombreux travaux (ceux de F. Bourguignon et
Th. Piketty en France, ceux d’A. Deaton conduits aux États-Unis par
exemple) montrent que celles-ci étaient particulièrement prononcées au cours
de la première mondialisation même si le niveau des revenus comme des
patrimoines était bien plus faible qu’aujourd’hui. Il s’agit par conséquent de
donner une profondeur historique au sujet et ne pas se limiter à la période
contemporaine même si son enjeu actuel dans le contexte économique
mondial de l’après-crise de 2008 est particulièrement fort. S’agissant des
contenus, le candidat doit être en mesure d’articuler des analyses théoriques
anciennes avec les travaux récents sur la question.
Plusieurs points peuvent être ici considérés comme incontournables :
1. L’analyse mobilisée par les économistes classiques autour de la question
des crises de surproduction capitalistes au XIXe siècle sur fond de débat
quant à la validité de la loi de J.-B. Say sera sans doute valorisée. Par
exemple, Th. Malthus défend l’idée d’une sous-​consommation capitaliste
conduisant une insuffisance des ​débouchés : les catégories les plus riches
génèrent un excès d’épargne qui est préjudiciable à l’économie. De son
côté, J. de Sismondi met en évidence un mécanisme de « sous
consommation ouvrière » du fait d’inégalités fortes dans la répartition
primaire des revenus pour expliquer les crises. Enfin, K. Marx voit dans
la baisse tendancielle du taux de profit une cause essentielle des crises
capitalistes. La concentration du capital qui vise à limiter cette baisse

******ebook converter DEMO Watermarks*******


contribue à aggraver les inégalités (processus de paupérisation relative de
la classe ouvrière). Bien entendu, toutes les composantes de ce débat
théorique ancien ne pourront être présentes dans la dissertation : le
candidat devra effectuer des choix sous contrainte. Toutefois, l’idée
importante ici est de montrer qu’il ne s’agit pas d’un débat récent dans la
discipline et que les économistes de la première heure proposent des
grilles de lecture utiles pour rendre compte de cette interaction entre crise
et inégalités des revenus.
2. Les études empiriques qui proposent une mise en perspective longue de
l’évolution des inégalités de revenus comme par exemple les travaux de
F. Bourguignon (La mondialisation de l’inégalité, 2012), Th. Piketty (Le
Capital au XXIe siècle, 2013), A. Atkinson (Inequality: What Can Be
Done? 2015), ou encore par exemple ceux d’A. Deaton (La grande
évasion : santé, richesse et origine des inégalités, 2013) trouveront une
place utile et légitime dans le traitement du sujet. On peut aussi faire
référence au volumineux Rapport sur les inégalités mondiales
(F. Alvarado, L. Cancel, Th. Piketty, E. Saez, G. Zucman, 2018) qui
décrit l’évolution des inégalités pour de nombreux pays. Sur cette base, il
apparaît que les inégalités de revenus s’inscrivent dans trois grandes
phases historiques qui devront être examinées : 1) au cours de la
première mondialisation, la répartition fonctionnelle des revenus est très
inégalitaire même si du fait d’un niveau de richesse global faible, les
inégalités mondiales dans la répartition personnelle des revenus restent
contenues. Au sein des pays qui s’industrialisent en revanche (aux États-
Unis notamment et dans une moindre mesure en Europe), l’inégalité dans
la répartition personnelle des revenus est très marquée. 2) Pendant une
grande partie du XXe siècle (depuis l’entre-deux-guerres jusqu’à la fin des
années 1970) qui correspond à une phase de mondialisation contenue, on
observe un double processus : d’une part, une réduction des inégalités de
revenus au sein des pays industrialisés mais aussi entre eux dès les
années 1930 aux États-Unis, après la Seconde Guerre mondiale
s’agissant de l’Europe et du Japon (c’est la « grande compression » selon
l’expression de Deaton au moment où l’Europe entre dans sa phase de
rattrapage par rapport aux États-Unis) ; d’autre part, un creusement des
inégalités entre les pays riches et les pays pauvres. 3) La période de la
seconde mondialisation qui s’ouvre à partir des années 1970 avec sa
composante productive (mobilité internationale accrue des capitaux) et
******ebook converter DEMO Watermarks*******
surtout financière conduit à un autre double processus : d’une part, une
réduction importante des inégalités de revenus entre les PDEM et les
pays émergents en rattrapage ; d’autre part, un creusement significatif
des inégalités intra-nationales au sein des PDEM comme des émergents.
Cette seconde composante est un fait saillant sur lequel la démonstration
proposée dans le devoir devra s’appuyer. On observe que la crise de 1929
survient à l’issue d’un contexte de niveau élevé d’inégalités de revenus
tandis que la crise de 2008 éclate, elle aussi, dans une configuration ou le
degré d’inégalités est à nouveau particulièrement fort.
3. L’analyse devra aussi s’appuyer sur la littérature scientifique relative à
l’explication des crises financières à proprement parler et qui mettent en
évidence la montée du risque systémique (travaux de J. M. Keynes,
Ch. Kindleberger ou H. Minsky par exemple). En effet, il ne faut pas
minorer la composante « survenance des crises économiques » dans
l’énoncé du sujet qui conduit logiquement à examiner les apports de
l’analyse économique spécifiquement dédiés à cette question.
4. Le devoir devra aussi s’appuyer sur les travaux actuels conduits par les
économistes qui montrent comment le creusement des inégalités de
revenus est à l’origine des crises systémiques (celle de 2008 mais aussi
celle de 1929) : ceux de R. Rajan qui montrent à partir du cas de
l’économie américaine notamment comment le système financier a
conduit à stimuler l’endettement des catégories les plus pauvres de la
population ; ceux de J.-L. Gaffard ou de P. Artus en France qui
expliquent que la déformation du partage de la valeur ajoutée entre les
salaires et les profits tout comme le creusement dans la répartition
personnelle des revenus provoquent la crise du fait de la faiblesse de la
demande globale qu’elle génère ; ou encore les travaux d’économistes
dans le cadre de l’OCDE ou du FMI (M. Kumhof et R. Rancière par
exemple) qui montrent comment, dans les pays émergents comme dans
les PDEM, le creusement des inégalités internes conduit à un
déséquilibre macroéconomique entre l’épargne et l’investissement. Enfin,
des travaux issus du champ de l’économie financière insistent sur les
déséquilibres financiers consécutifs à la hausse des inégalités de revenus,
déséquilibres qui se traduisent essentiellement par la hausse des prix des
actifs financiers (M. Aglietta en France notamment) et qui font peser
aujourd’hui un risque de système élevé sur l’économie mondiale.

******ebook converter DEMO Watermarks*******


Ces quelques repères doivent permettre de fixer le « périmètre » à
l’intérieur duquel le candidat pourra puiser les connaissances qui vont
alimenter la réflexion. On voit que cette analyse se situe au croisement de la
question des crises économiques et de la répartition des revenus, deux
thématiques majeures étudiées par les économistes. Cela donnera l’occasion
d’aller puiser dans le patrimoine de la pensée économique tout comme dans
les travaux les plus récents tout en restant focalisé sur la question de
l’interaction entre ces deux thèmes de recherche.
Entraînement n° 2
S’exercer à cadrer le sujet à partir des exemples suivants :
– Qu’est-ce qu’une bonne gouvernance d’entreprise ? (Concours EC-E,
Ecricome 2016)
– Depuis les années 1980, la mondialisation est-elle responsable du
chômage dans les pays avancés ? (Concours EC-E, Ecricome 2016)
– La mondialisation peut-elle expliquer les mauvaises performances
économiques et sociales d’un pays ? (Concours EC-E, ESCP-
Europe 2016)
– Comportements économiques et institutions (Agrégation externe de
SES 2016)
– Les politiques industrielles dans le contexte de la mondialisation
(ENA, Concours externe 2017)
– Un État doit-il s’inquiéter de l’augmentation de sa dette publique ?
(Concours EC-E, Ecricome 2017)
– Doit-on considérer que la désindustrialisation constitue un processus
inéluctable dans un pays développé ? (Concours CPGE EC-E, ESCP-
Europe 2018)

3 Choisir et élaborer une problématique

La question du choix et de la construction de la « problématique » est


certainement l’étape la plus difficile pour réussir une épreuve de dissertation
en économie. Les rapports de jury des divers concours rappellent de manière
récurrente que beaucoup de devoirs sont sanctionnés, alors qu’ils présentent

******ebook converter DEMO Watermarks*******


des connaissances souvent convenables, faute de la présence d’une
problématique ou bien en raison d’une tentative de problématisation
maladroite ou décalée par rapport au sujet. Chaque sujet étant singulier, le
travail d’élaboration d’une problématique l’est également, ce qui rend
difficile toute réflexion méthodologique générale sur la question. On peut
toutefois identifier quelques remarques et conseils suffisamment transversaux
qui devront être appliqués à l’occasion des exercices d’entraînement.

3.1 Qu’est-ce qu’une problématique dans une dissertation


de science économique ?
Il faut commencer par rappeler que « disserter » c’est répondre de manière
argumentée et structurée à un problème qui est posé, explicitement ou
implicitement, dans le sujet. Le texte rédigé dans le cadre de la dissertation
n’a ainsi de valeur et d’intérêt que dans la mesure où il est une réponse à ce
problème. Il faudra par conséquent que ce problème ait été clairement
identifié et explicité au début de la réflexion.
Pour le dictionnaire Larousse, la problématique se définit comme « un
ensemble de questions que l’on se pose de façon pertinente en fonction des
outils, concepts et points de vue développés par une discipline scientifique ».
Pour le Petit Robert, la problématique est « la science de poser les
problèmes ; un ensemble de problèmes dont les éléments sont liés ». Si ces
définitions sont sans doute trop succinctes pour éclairer la démarche à suivre
dans une dissertation, elles présentent toutefois un point commun intéressant :
construire une problématique revient à inscrire son discours dans une visée
scientifique. Plus précisément, cela implique d’élaborer une stratégie
rationnelle de réponse à un problème dont le texte de la dissertation sera le
produit final. Cette stratégie devra s’appuyer sur au moins trois principes
essentiels :
1) ce sont les connaissances produites par la discipline scientifique de
référence – la science économique pour ce qui nous concerne – qui rendent la
problématique légitime et pertinente ;
2) « problématiser » implique de prendre en compte le principe de
cumulativité des savoirs, principe qui se combine avec la reconnaissance de
la fécondité des controverses scientifiques (pour G. Bachelard par exemple,
« deux hommes, s’ils veulent s’entendre vraiment, ont dû d’abord se
contredire. La vérité est fille de la discussion, non pas fille de la sympathie »,

******ebook converter DEMO Watermarks*******


La philosophie du non, 1940) ;
3) la problématique suppose, en fin de compte… de répondre
explicitement à la question posée par le sujet.
En premier lieu donc, pour construire une problématique, il faut
s’appuyer sur les acquis de la science économique afin d’identifier le
problème à résoudre. Cela peut notamment se faire en se basant sur la série
de questions suivantes :
a) Quel est l’enjeu scientifique auquel le sujet renvoie ?
b) Cet enjeu scientifique est-il explicitement formulé ou bien le sujet
implique-t-il une reformulation pour le rendre explicite ?
c) Que s’agit-il de « démontrer » ?
d) Comment cet enjeu scientifique peut-il être traduit sous forme d’un
problème, d’une énigme que la dissertation s’attachera à résoudre ?
e) Le sujet invite-t-il à mobiliser les termes d’un débat scientifique ?
f) En quoi les acquis de l’analyse économique vont-ils permettre de
proposer des éléments que l’on pourra mobiliser dans le cadre d’une
démonstration, ce qui conduira par conséquent à résoudre cette énigme ?
La problématique du devoir est un axe de réflexion. Elle est le fil
conducteur qui structure le texte et qui, dans le même temps, lui donne du
sens. En suivant G. Bachelard, on peut rappeler que la science se construit
contre l’évidence. Il en va de même pour la dissertation en science
économique ! Ainsi, sur chaque sujet, il existe dans le débat public des
positions communément admises qui sont en général peu ou pas du tout
soumises à un examen critique. Certaines reposent sur des contre-vérités
flagrantes (le progrès technique est toujours source de chômage,
l’intervention de l’État dans l’économie est pénalisante pour la compétitivité
des entreprises, les banquiers sont des escrocs qui prêtent pour leur propre
compte et avec profit l’épargne des autres, etc.). D’autres entretiennent des
confusions et des contradictions internes qui sont autant d’obstacles à la
compréhension rigoureuse du phénomène considéré (le pouvoir des grandes
banques internationales est aujourd’hui devenu incontrôlable alors que, dans
le même temps, la finance mondiale devient de plus en plus directe et court-
circuite les « intermédiaires » ; les États membres de la zone euro doivent
retrouver leur souveraineté budgétaire en s’affranchissant des règles
contraignantes de l’Europe mais la France doit pouvoir continuer à bénéficier
des effets positifs de l’intégration européenne, etc.).

******ebook converter DEMO Watermarks*******


Identifier ces positions qui relèvent soit de la simple opinion, soit d’un
discours doctrinaire structuré, aidera à problématiser le devoir : pour parvenir
à « démontrer » quelque chose et à cerner le problème qu’il faudra résoudre,
la première étape consiste souvent à identifier ce qu’il convient de
« démonter », c’est-à-dire quelles sont les opinions et les lieux communs
communément admis que le devoir pourra remettre en cause. Bien entendu,
certains sujets sont, plus que d’autres, présents et discutés dans le débat
public. Pour autant, la dissertation étant une démonstration scientifique, il est
toujours souhaitable de prendre comme principe de départ la « rupture avec le
sens commun » pour lui opposer le savoir économique.
En second lieu, la problématique doit aussi satisfaire au principe de
cumulativité des savoirs. Cette idée signifie que les connaissances produites
par la science économique ont connu une progression significative depuis les
origines de la discipline. La compréhension des mécanismes à l’œuvre dans
le commerce international par exemple doit beaucoup aux travaux fondateurs
des économistes classiques (A. Smith, D. Ricardo mais aussi F. List).
Toutefois au cours du XXe siècle et plus encore depuis quelques décennies
avec le développement des nouvelles théories du commerce international, la
science économique a produit des modèles robustes pour rendre compte à la
fois du processus long de la mondialisation (passage de l’ancienne à la
nouvelle division internationale du travail) et à la fois des transformations
récentes qui sont à l’œuvre (régionalisation du commerce mondial ou
extension du commerce intra-firme par exemple). De même, si le débat entre
J. Rueff et J. M. Keynes au début des années 1930, relatif à la responsabilité
de l’assurance chômage dans le chômage de masse de l’époque, s’est révélé
structurant jusqu’à aujourd’hui, un nombre considérable de travaux ont été
produits depuis cette période conduisant à le renouveler en profondeur
(théorie du déséquilibre qui démontre les conditions de coexistence du
chômage classique et du chômage keynésien, mais aussi convergence des
modèles microéconomiques et macroéconomiques du chômage, modèles
macroéconomiques visant à articuler le chômage conjoncturel et le chômage
structurel, etc.).
En fin de compte, il faut garder à l’esprit qu’une dissertation de science
économique correctement problématisée ne peut pas se réduire à opposer de
manière frontale des courants théoriques, en supposant que ces grilles de
lecture reposent sur des bases qui sont restées les mêmes depuis de longues
décennies. Si certains sujets invitent effectivement à mobiliser les termes
******ebook converter DEMO Watermarks*******
d’un débat scientifique, l’objectif du devoir doit être également de démontrer
que ce débat évolue en même temps que l’histoire économique et que les
travaux les plus récents permettent une meilleure compréhension des
phénomènes observés. À ce titre, toute dissertation comporte nécessairement
une mise en perspective historique dans les analyses qu’elle développe : un
devoir sur le commerce international ne peut s’achever par D. Ricardo, tout
comme un devoir sur le chômage ne peut s’achever sur E. Malinvaud et la
théorie du déséquilibre !
Enfin, le dernier principe à suivre pour élaborer une problématique
pertinente repose sur la nécessité… de répondre explicitement à la question
posée par le sujet ! Ce rappel est important dans la mesure où, dans un
nombre de cas significatifs, les rapports de jury des concours rappellent que
trop de copies se « dissimulent » derrière les connaissances mobilisées et
notamment les oppositions théoriques pour finalement ne jamais répondre
clairement à la question. Cette dérive peut prendre des formes plus ou moins
radicales1 mais elle est toujours sanctionnée par les jurys. Bien entendu, il ne
s’agit pas de proposer une réponse sur un mode péremptoire (« Un bon taux
de change c’est nécessairement celui qui stimule la compétitivité-prix des
firmes du territoire et donc qui se traduit par une monnaie faible ! », « Les
politiques industrielles sont vouées à l’échec dans le contexte actuel de la
mondialisation ! », « La hausse des dettes publiques découle d’une incapacité
des États à contrôler leurs finances publiques et conduit inéluctablement à
l’insoutenabilité de cette dette ! », etc.) dans la mesure où la dissertation
suppose de produire un texte qui met des arguments rationnels en
confrontation et en progression. Toutefois, une réponse, même nuancée,
c’est-à-dire un choix clair adopté par le rédacteur à la fin de la copie, est
toujours possible et nécessaire.

Méthode n° 7 Comment faire apparaître explicitement la


problématique ?
Dans les dissertations non réussies, la problématique se réduit le plus souvent à un
simple « passage obligé » dans l’introduction (généralement une ou plusieurs
questions enchaînées que le candidat sait devoir écrire !) qui s’avérera déconnecté de
la suite du propos. Parfois même, les candidats s’efforcent de poser une autre question
que celle que le sujet propose avec pour objectif de « reformuler » le sujet tout en
considérant que cela devient leur « problématique ». Or, bien entendu, poser une autre
question que celle que le sujet propose ne conduit pas à le problématiser alors que
******ebook converter DEMO Watermarks*******
cela augmente les risques en revanche de « partir vers du hors-sujet ».
Afin d’éviter cette dérive, nous vous conseillons :
a) d’une part, de construire votre problématique à partir de l’identification de l’enjeu du
sujet (voir « Le cadrage historique et géographique ») ;
b) d’autre part, de vous appuyer le plus possible sur les points stratégiques de la
dissertation pour faire « vivre » cette problématique et permettre ainsi à votre devoir
de disposer d’une trame pertinente :
– le passage de l’introduction où la problématique est explicitée est
effectivement le premier « moment » où le correcteur prend connaissance de la
démonstration pour laquelle vous avez opté. Il faut veiller à ce que les questions
posées à cette occasion ne soient pas de simples figures de style formelles
mais un résumé précis des problèmes que vous allez traiter dans le
développement ;
– les textes de transition entre les parties et les sous-parties sont l’occasion de
revenir sur le fil directeur en précisant la dimension du problème que vous avez
déjà réglée à ce stade ainsi que celle qu’il reste à résoudre (les transitions sont
un propos d’étape directement reliées à la problématique) ;
– enfin, le bilan de la réflexion à l’occasion de la conclusion permet de faire la
synthèse de la démonstration et d’apporter la réponse finale au problème
initialement posé.

3.2 Un exemple de problématisation de sujet


« Quels liens peut-on établir entre les inégalités de revenus
et la survenance des crises économiques ? »
L’enjeu du sujet consiste à se demander comment et pourquoi une
composante majeure de l’économie réelle (les inégalités dans la répartition
des revenus) peut conduire à l’apparition de crises économiques et
notamment celles qui ont une composante financière. Par extension, il s’agira
aussi d’expliquer en quoi la dynamique des inégalités de revenus peut
accroître le risque de crise dans un contexte d’instabilité financière élevée.
Des travaux anciens et récents convergent pour montrer que le caractère
inégal de la répartition des revenus, en produisant des déséquilibres
macroéconomiques, accroît ou réduit le risque ainsi que la survenance des
crises. Ainsi, au cours du XIXe siècle et notamment au moment de la première
mondialisation, alors que les inégalités sont marquées tant sur le plan de la
répartition fonctionnelle (partage salaires, profits, rentes) que personnelle
(écarts entre les bas et les hauts revenus dans la population), les crises
économiques fréquentes en sont pour partie au moins la conséquence. Au
cours du premier XXe siècle (de 1918 aux années 1970), on observe dans la
plupart des pays industrialisés un repli des inégalités des revenus. De
******ebook converter DEMO Watermarks*******
nombreux économistes, à l’instar de P. Krugman (Pourquoi les crises
reviennent toujours ? 1999), font observer que durant cette période les crises
économiques sont moins nombreuses et, surtout, qu’elles n’ont pas de
caractère systémique.
La relation de cause à effet entre hausse des inégalités et survenance des
crises est à nouveau clairement établie avec l’entrée dans la seconde
mondialisation. Depuis les années 1980, la déformation du partage de la
valeur ajoutée à l’œuvre dans beaucoup de PDEM ainsi que le creusement
des écarts dans la répartition personnelle des revenus (en particulier au sein
des PDEM mais aussi et surtout au sein des pays émergents tels que la Chine,
l’Inde ou le Brésil) augmentent le risque de crise financière notamment par la
hausse de l’endettement mais aussi de crise productive particulièrement par
les déséquilibres macroéconomiques structurels qu’elles provoquent. La
manifestation empirique la plus forte de cette relation est la crise de 2008 :
des travaux convergent aux États-Unis (P. Krugman, R. Rajan) et en Europe
(J.-L. Gaffard, R. Rancière, M. Aglietta) pour montrer qu’il faut prendre en
considération les causes réelles de la crise financière mondiale (par exemple
avec la montée de l’endettement des ménages les plus pauvres aux États-Unis
notamment pour accéder à la propriété immobilière). Depuis les dix dernières
années enfin, cette relation reste solidement établie dans le sens où l’ampleur
considérable des inégalités de revenus au sein des PDEM mais surtout des
pays émergents contribue à accroître le risque de système sur le plan financier
en même temps qu’elle ​alimente fortement les déséquilibres
macroéconomiques mondiaux. En conséquence, sur le plan politique, la
question de la réduction des inégalités de revenus doit être rattachée à celle
de la mise en œuvre de politiques plus efficaces en matière de prévention des
crises et de réduction des déséquilibres globaux.
En résumé, cela conduit à une démonstration qui peut s’inscrire dans les
deux étapes suivantes :
1. Les inégalités de revenus, lorsqu’elles sont significatives et/ou en hausse,
augmentent le risque et la survenance des crises du fait de déséquilibres
importants dans l’économie réelle qu’elles provoquent. Ces déséquilibres
concernent la structure des économies nationales (niveau déprécié de la
demande intérieure, maintien d’un niveau de consommation grâce à la
hausse de l’endettement pour les catégories les plus pauvres) mais
également la structure des relations ​économiques internationales
(déséquilibres structurels des balances de transactions courantes et
******ebook converter DEMO Watermarks*******
surtout, hausse de ces déséquilibres entre les pays excédentaires et les
pays déficitaires du fait de la hausse des inégalités). Ce mécanisme est à
l’œuvre avec une intensité variable selon le contexte historique
considéré, mais il tend à jouer de manière plus forte durant les périodes
de creusement des inégalités de revenus (au cours du XIXe siècle alors que
la consommation finale reste faible, durant les premières décennies du
XXe siècle avant la crise de 1929, ou encore à partir des années 1980
jusqu’à la crise de 2008).
2. Le creusement des inégalités de revenus contribue à faire croître le risque
de système dans les contextes d’économies financiarisées et devient de
fait un facteur important de la survenance des crises dans leur
composante financière. Il existe une littérature abondante sur les causes
des crises financières. Ces travaux, d’origines théoriques diverses des
plus anciens (K. Wicksell, I. Fischer, F. Hayek, J. M. Keynes…)
jusqu’aux plus récents (R. Rajan, P. Krugman, M. Aglietta), peuvent
utilement être articulés avec ceux qui mettent l’accent sur les causes
réelles déséquilibres financiers : la hausse des inégalités de revenus incite
aux innovations financières et à l’endettement croissant des agents en
particulier dans les contextes historiques de mondialisation intensive.
Que ce soit au moment de la crise de 1929, ou actuellement avec la crise
de 2008 ainsi que depuis les dix dernières années, la globalisation
financière est propice à des prises de risques croissantes (la couverture
contre les risques individuels augmente le risque collectif) du fait du
degré d’inégalités de revenus considérables. Une part significative des
revenus captés par les parts les plus riches des populations dans les
PDEM comme dans les pays émergents, que ce soit sous forme de
hausses salariales ou de revenus du capital, alimente le système financier
mondial, ce qui contribue à accentuer davantage la financiarisation des
économies.
Exemple de problématique rédigée qui pourrait prendre place dans
l’introduction du devoir :
« Dans les contextes historiques de mondialisation avancée, les crises économiques
sont souvent expliquées à partir de facteurs financiers. S’il est manifeste que les
grandes crises systémiques à l’image de celle de 1929 ou de 2008 ont des causes
financières (déréglementation des marchés de capitaux, hausse de l’activité
spéculative des banques, hausse du risque systémique du fait d’une forte asymétrie
informationnelle, etc.), il est toutefois ​légitime de s’interroger sur la présence de

******ebook converter DEMO Watermarks*******


facteurs réels qui s’articulent avec les déterminants financiers et qui augmentent les
risques de crises ou qui conduisent clairement à leur survenance. Comment expliquer
par exemple que durant les années qui précèdent 1929 comme celles qui précèdent la
crise financière de 2007, l’endettement des ménages ait progressé de manière si
importante ? Quels liens peut-on établir entre le déclenchement de ces deux crises
mondiales et la progression significative des inégalités de revenus que ce soit sur le
plan de la répartition fonctionnelle (partage salaires/profits) ou sur celui de la
répartition personnelle (creusement des écarts entre les « riches » et les « pauvres »
au sein des populations) de ces ​revenus durant les années ou décennies qui
précèdent leur apparition ? Quels effets ces inégalités ont-elles sur les déséquilibres
économiques dans l’économie mondiale actuelle et peut-on considérer qu’elles
contribuent à aggraver l’instabilité financière et donc à accroître le risque d’une
nouvelle crise systémique ? »

Entraînement n° 3
Établir une problématique pour chaque sujet de concours suivant :
– Qu’est-ce qu’une bonne gouvernance d’entreprise ? (Concours EC-E,
Ecricome 2016)
– Depuis les années 1980, la mondialisation est-elle responsable du
chômage dans les pays avancés ? (Concours EC-E, Ecricome 2016)
– La mondialisation peut-elle expliquer les mauvaises performances
économiques et sociales d’un pays ? (Concours EC-E, ESCP-
Europe 2016)
– Comportements économiques et institutions (Agrégation externe de
SES 2016)
– Les politiques industrielles dans le contexte de la mondialisation
(ENA, Concours externe 2017)
– Un État doit-il s’inquiéter de l’augmentation de sa dette publique ?
(Concours EC-E, Ecricome 2017)
– Faut-il réglementer les marchés ? (Épreuve orale, concours
HEC 2017)
– Comment expliquer le chômage français contemporain ? (Épreuve
orale, Concours ESM-Saint-Cyr 2018)
– Doit-on considérer que la désindustrialisation constitue un processus
inéluctable dans un pays développé ? (Concours CPGE EC-E, ESCP-
Europe 2018)

******ebook converter DEMO Watermarks*******


******ebook converter DEMO Watermarks*******
1. Ce sujet n’a pas été utilisé dans le cadre d’un concours. Il est inédit. Nous le proposerons à plusieurs
reprises comme support de réflexion dans la première partie de l’ouvrage.
1. Voir, par exemple, la correction du sujet mis en ligne sur le site Dunod : « La construction
européenne conduit-elle au dumping fiscal et au dumping ​social ? » (2016-2017)
1. Dans sa version la plus extrême, cette dérive conduit à des devoirs qui opposent, au fil des parties du
développement, les théories économiques de manière frontale et caricaturale, en général la théorie
néoclassique puis la théorie keynésienne !

******ebook converter DEMO Watermarks*******


Chapitre 3 De la construction du
plan à la mobilisation
des connaissances

1 Élaborer le plan : le contenant de la démonstration

Dans une dissertation, le plan choisi doit toujours être directement relié à la
problématique : il organise la structure de la réponse et constitue le fil
directeur du devoir. Cela signifie qu’à chaque fois qu’un candidat peine à
construire un plan sur un sujet donné, c’est en réalité toujours une difficulté
qui doit être recherchée du côté de l’imprécision voire même de l’absence de
la problématique. C’est la raison pour laquelle les dissertations descriptives
dans lesquelles les plans s’apparentent à des « catalogues » qui enchaînent
des arguments sans liens entre eux sont toujours des devoirs a-
problématiques. Le plan peut ainsi être considéré comme le contenant de la
dissertation, c’est-à-dire le cadre à l’intérieur duquel la réponse à la question
va s’organiser.
Le risque qui pèse sur la démarche est ici de confondre problématique et
plan : dans l’exemple du sujet du chapitre 2 (« Quels liens peut-on établir
entre les inégalités de revenus et la survenance des crises économiques ? »),
la démonstration en deux étapes se traduit effectivement et logiquement par
un plan en deux parties. Cependant, la spécificité du plan réside dans les
développements qu’il permettra d’opérer par rapport au fil directeur principal
(les inégalités de revenus constituent une cause « réelle » aux crises
économiques modernes). Ces arguments devront toutefois être soumis à un
contrôle strict afin de revenir, à intervalles réguliers, c’est-à-dire à l’occasion
des transitions, sur le cœur de la démonstration.

******ebook converter DEMO Watermarks*******


Une métaphore permet d’approcher cette idée d’articulation entre la
problématique et le plan : la dissertation procède selon la même logique
qu’une course de ski alpin type « slalom géant » ! Il existe une ligne de
départ que doit couper le skieur (point A) et une ligne d’arrivée qui conclut la
réflexion (point B). La trajectoire la plus linéaire possible qui sépare le
point A du point B correspond au fil directeur : c’est la réponse la plus
synthétique que l’on peut formuler face au problème que le sujet soulève,
c’est-à-dire la problématique. Cette réponse, qui s’apparente à l’épreuve de
descente en ski, c’est-à-dire une course dépourvue de portes, peut faire l’objet
d’une rédaction en quelques lignes : elle prend sa place tout d’abord en
introduction (souvent en utilisant des formulations interrogatives afin de
susciter la réflexion) ; puis, en fin de devoir à l’occasion du bilan dans la
conclusion. Toutefois, le corps de la dissertation exige de réaliser une
épreuve de slalom, c’est-à-dire de procéder par « développements » (les
portes que le skieur doit franchir), « autour » du fil directeur. L’enjeu est
alors pour le rédacteur d’éviter deux pièges :
a) le « refus d’une porte » au profit d’un texte qui reste centré sur l’idée
principale mais qui s’interdit de mobiliser des connaissances qui
auraient utilement alimenté le propos (dans ce cas, les dissertations
sont souvent trop courtes, peu argumentées et manquent de précisions
sur les contenus) ;
b) « l’oubli du virage » pour retourner au fil directeur après le passage
d’une porte, ce qui conduit le rédacteur à s’éloigner de la
problématique (tentation pour le hors sujet dès lors que le texte
proposé ne répond plus au problème qui a été initialement formulé).
Cette métaphore permettant de comprendre l’articulation entre
la problématique et le plan peut être représentée par la figure 3.1. Elle permet
aussi de rappeler un autre point important de la construction du plan. Celui-ci
conduit à passer par des « bilans intermédiaires » (les fameux « temps
intermédiaires » pour le skieur !) entre chaque grande partie : un bilan pour
une dissertation en deux parties, deux bilans pour une dissertation en trois
parties. Dans la figure 3.1, le point C représente ce bilan intermédiaire. Il
existe logiquement entre A et C une idée principale (la 1re partie) qui est un
premier élément de réponse à la problématique. Cette première idée n’épuise
cependant pas le sujet, la démonstration « rebondit » pour la compléter, la
nuancer et/ou la dépasser avec la 2e partie du développement (distance

******ebook converter DEMO Watermarks*******


entre C et B). La dissertation de science économique : quelle méthode ?

1re sous-partie : Transition entre la 1re sous-partie


première série d’arguments et la 2e sous-partie
Porte 1

2e sous-partie : Porte 2
deuxième série d’arguments
C

3e sous-partie :
Porte 3 Transition entre la 1re
troisième série d’arguments Hors-sujet !
et la 2e partie

Transition entre la 3e sous-partie 4e sous-partie :


quatrième série d’arguments Porte 4
et la 4e sous-partie

Figure 3.1

Exemple d’annonce de plan rédigé qui peut prendre place à la fin de


l’introduction à propos du sujet : « Quels liens peut-on établir entre les
inégalités de revenus et la survenance des crises économiques ? »
« Durant les périodes de l’histoire marquées par un creusement des inégalités de
revenus, ces inégalités augmentent le risque et la survenance des crises du fait de
déséquilibres importants dans l’économie réelle qu’elles provoquent. Ces
déséquilibres portent en particulier sur la dynamique de la demande, sur le niveau de
l’emploi et celui de la production. Dans le contexte actuel de la seconde
mondialisation, ils affectent aussi la structure de la balance des transactions courantes
entre les grandes régions du monde (I). Par ailleurs, le creusement des inégalités de
revenus affecte la composante proprement financière des crises : il augmente le
risque systémique et explique la survenance des crises modernes. Cela pose la
question du degré d’inégalités dans la répartition des revenus que ce soit au sein des
PDEM comme des pays émergents dans la mondialisation actuelle susceptible de
permettre une réduction du risque systémique et, par conséquent, de la survenance
d’une nouvelle crise mondiale (II). »

Entraînement
60 n° 4
Élaborer un plan général pour chaque sujet de concours suivant :
– Qu’est-ce qu’une bonne gouvernance d’entreprise ? (Concours EC-E,
Ecricome 2016)
******ebook converter DEMO Watermarks*******
Depuis les années 1980, la mondialisation est-elle responsable du

chômage dans les pays avancés ? (Concours EC-E, Ecricome 2016)
– La mondialisation peut-elle expliquer les mauvaises performances
économiques et sociales d’un pays ? (Concours EC-E, ESCP-
Europe 2016)
– Les politiques industrielles dans le contexte de la mondialisation
(ENA, Concours externe 2017)
– Un État doit-il s’inquiéter de l’augmentation de sa dette publique ?
(Concours EC-E, Ecricome 2017)
– Doit-on considérer que la désindustrialisation constitue un processus
inéluctable dans un pays développé ? (Concours CPGE EC-E, ESCP-
Europe 2018)

2 Le plan détaillé et la mobilisation des connaissances :


le contenu de la dissertation

Par rapport au plan général, le plan détaillé est caractérisé par la ​présence de
sous-parties qui structurent les grandes parties et par des références relatives
à des contenus disciplinaires, ventilées dans les sous-parties. Il faudra ainsi
mobiliser :
– des contenus théoriques avec des concepts, des mécanismes, des auteurs ;
– des contenus historiques avec des événements clés associés à des dates,
des périodisations ;
– des contenus factuels avec des ordres de grandeurs empiriques, des
données statistiques ou encore des faits d’actualité.
À ce stade de la construction de la dissertation, les liens entre la forme (le
plan) et le fond (les contenus disciplinaires) sont par conséquent
particulièrement étroits. L’objectif est de produire un document (le plan
détaillé) qui servira de « feuille de route » durant la rédaction finale du
devoir.

2.1 Exemple de plan détaillé sur le sujet :


« Quels liens peut-on établir entre les inégalités de revenus
******ebook converter DEMO Watermarks*******
et la survenance des crises économiques ? »
La structure du plan incluant les sous-parties peut être présentée à l’aide de la
figure 3.2.
I.A La dynamique des inégalités de
I. Les inégalités d e revenus revenus entre la première et la seconde
expliquent la survenance des mondialisation...
crises du fait des déséquilibres
dans I’économie réelle qu’elles
I.B ... qui explique les crises par
produisent.
la montée des déséquilibres réels

Dans les contextes historiques de mondialisation soutenue, les crises


économiques sont souvent expliquées à partir de facteurs f nanciers. S’il est
manifeste que les grandes crises systémiques (1929 et 2008) ont des causes
financières, il est toutefois légitime de s’interroger sur la présence de facteurs
réels qui s’articulent avec les déterminants financiers et qui augmentent les
risques de crises, ou qui conduisent clairement à leur survenance. Sous
quelles conditions les inégalités de revenus peuvent-elles augmenter
le risque de crise ou bien directement expliquer leur apparition? Par quels
canaux de transmission le creusement de ces inégalités peut-il provoquer une crise ?

II. Les inégalités de revenus I.A La survenance des crises financières


expliquent la montée du risque dans les économies modialisées...
de système et la survenance de
la composante financière des
crises. II.B ... qui s’aggrave du fait d’un creusement
des inégalités de revenus

Figure 3.2

2.2 Exemple de déroulement du plan détaillé


I. Les inégalités de revenus : une cause de la survenance
des crises du fait de déséquilibres dans l’économie réelle
62
La dynamique des inégalités de revenus entre les pays du monde comme en
leur sein connaît des phases de contraction et de creusement au cours de
l’histoire depuis la première mondialisation (I.A). Pendant les périodes durant
lesquelles ces inégalités se creusent, elles augmentent les risques de
survenance des crises et expliquent de manière probante ces dernières
lorsqu’elles surviennent du fait des déséquilibres qu’elles engendrent dans
l’économie réelle (I.B).

I.A La dynamique des inégalités de revenus entre la première et la


seconde mondialisation…
Les inégalités portent à la fois sur la répartition fonctionnelle et sur la
répartition personnelle des revenus. S’agissant de la répartition fonctionnelle,
******ebook converter DEMO Watermarks*******
on étudie comment le partage de la valeur ajoutée s’effectue entre les salaires,
les profits et, le cas échéant, les rentes, c’est-à-dire entre les différents
facteurs qui contribuent à la production. S’agissant de la répartition
personnelle, on étudie comment le revenu global d’un territoire se distribue
parmi la population : on est conduit dans ce cas à mesurer les écarts entre les
composantes les plus riches de la population et les composantes les plus
pauvres (les inégalités dans la répartition personnelle des revenus sont
notamment mesurées à partir d’indicateurs de dispersion comme le
coefficient de Gini). Ces inégalités de revenus connaissent des logiques de
contraction ou, au contraire, de creusement selon les contextes historiques
considérés. Typiquement, on observe une tendance au creusement des
inégalités de revenus durant les phases d’accentuation de la mondialisation et,
à l’inverse, de contraction de ces inégalités durant les périodes de
mondialisation contenue :
1. Au cours de la première mondialisation, les inégalités dans la
répartition fonctionnelle des revenus sont particulièrement marquées pour les
pays qui entrent en Révolution Industrielle (Grande-Bretagne tout d’abord,
puis pays d’Europe continentale de l’ouest et États-Unis) : au début du
XIXe siècle, la part des rentes est prépondérante en Angleterre ; durant la
seconde moitié du siècle, la part des profits industriels s’accroît tandis que
celle des salaires reste très faible. S’agissant de la répartition personnelle, les
écarts de revenus sont très élevés dans les pays industrialisés (travaux
d’E. Saez et Th. Piketty) mais le sont moins à l’échelle planétaire du fait d’un
niveau de richesse global peu élevé (travaux de F. Bourguignon).
2. À partir des années 1930, débute la phase de mondialisation contenue
qui s’accompagne, dans un nombre important de PDEM, d’une mise en
œuvre de politiques de réduction des inégalités de richesses rendues possible
par la croissance économique (courbe de Kuznets). Les écarts de revenus en
termes de répartition personnelle se réduisent tandis que sur le plan de la
répartition fonctionnelle, les salariés bénéficient avec le compromis fordiste
d’un partage des « fruits de la croissance ». En revanche, les inégalités
internationales entre PDEM et pays en développement augmentent
significativement.
3. Avec l’entrée dans la seconde mondialisation à partir des années 1970,
on assiste à une ouverture importante dans l’éventail des inégalités de
revenus sur le plan de la répartition personnelle (travaux de Th. Piketty)
tandis que le partage de la valeur ajoutée connaît une déformation dans la
******ebook converter DEMO Watermarks*******
plupart des PDEM à l’avantage des profits et au détriment des salaires
(travaux de P. Artus). À partir du début des années 2000, l’arrivée des
émergents dans la mondialisation conduit : a) à réduire les inégalités
internationales du fait du rattrapage des émergents ; b) à l’accroissement des
inégalités de revenus internes à ces pays comme en Chine, en Inde et au
Brésil par exemple (travaux de F. Bourguignon).
Le creusement des inégalités de revenus durant les phases
d’intensification de la mondialisation et en particulier dans les contextes de
libéralisation financière accrue conduit à accroître le risque de crise
économique et parfois même explique la survenance de ces crises du fait des
effets des inégalités sur les déséquilibres macroéconomiques réels.

I.B ... qui explique les crises par la montée des déséquilibres réels
Les canaux de transmission du creusement des inégalités de revenus sur la
survenance des crises sont étudiés de longue date dans la pensée
économique :
1. Au cours du XIXe siècle, plusieurs analyses mettent l’accent sur le rôle
de la répartition des revenus dans l’explication des crises : c’est le cas de
celle de Th. Malthus (faible consommation des catégories aisées de la
population : « insuffisance du vouloir d’achat »), de J. de Sismondi qui
montre que la crise découle de l’insuffisance de la consommation ouvrière,
ou encore de K. Marx relative à la baisse tendancielle du taux de profit. Ces
travaux ont en commun de se situer dans un contexte où les inégalités de
richesse sont particulièrement marquées et où les crises économiques
modernes sont des crises de surproduction (combinaison d’une composante
financière avec une composante productive).
2. Des travaux contemporains divers (Ch. Kindleberger, P. Krugman,
R. Rajan) convergent pour montrer que la crise de 1929 découle d’un
processus de creusement des inégalités de revenus durant les décennies qui
précèdent le krach boursier d’octobre 1929. Le ratio dette/revenu des
ménages augmente fortement durant les années 1920 du fait d’une
progression insuffisante des revenus primaires (notamment des salaires). La
demande intérieure est alimentée par l’endettement sans parvenir à suivre le
rythme de progression de l’offre globale. Indépendamment des mécanismes
financiers à l’œuvre, la crise de 1929 est aussi une crise de surproduction.
3. S’agissant de la crise de 2008 dans les PDEM, les analyses

******ebook converter DEMO Watermarks*******


d’économistes tels que J.-L. Gaffard et F. Saraceno montrent que le
creusement spectaculaire des inégalités dans la répartition personnelle des
revenus à partir des années 1980 ne peut s’expliquer par les arguments
habituels fournis par la science économique. Par exemple, la hausse des très
hauts revenus n’est pas corrélée avec de meilleures performances de la part
des individus concernés ni avec de meilleures prises de risques ; inversement,
l’absence de progression des revenus intermédiaires et des bas revenus n’est
pas corrélée avec les évolutions de la productivité du travail qui a été
significative sur la période. Ces inégalités génèrent des déséquilibres
macroéconomiques internes : elles pénalisent la demande globale intérieure et
sont sans effets positifs sur l’investissement productif. La crise de 2008
conduit les économies dans un équilibre de sous-emploi durable qui n’est pas
simplement conjoncturel.
4. S’agissant de la question des déséquilibres macroéconomiques entre les
PDEM et les pays émergents, des travaux convergent pour montrer que
depuis 2008, la hausse des déséquilibres mondiaux mesurés par les balances
des transactions courantes combinée à la hausse des dettes publiques et
privées augmentent les risques de crises productives. Les pays émergents
enregistrent des excédents structurels faute de marchés intérieurs
suffisamment développés. Mais les PDEM ne peuvent remplir leur fonction
de débouchés que sous la condition d’un endettement croissant (travaux de
M. Kumhof et R. Rancière).
Durant les phases d’intensification de la mondialisation, le creusement
des inégalités de revenus accroît le risque de crise en même temps qu’il
explique les crises qui se sont manifestées du fait de mécanismes de
propagation de ces inégalités sur les déséquilibres macroéconomiques réels.
Comment, par ailleurs, la hausse des inégalités de revenus peutelle expliquer
la composante proprement financière des crises ?
Les inégalités de revenus : montée du risque de système et
composante financière des crises
La composante financière des crises dans les économies mondialisées fait
l’objet d’une littérature robuste et abondante. La théorie économique explique
pour quelles raisons le risque systémique s’accroît dans les contextes de
globalisation financière, ce qui conduit à des crises majeures (II.A). Pour
autant, ces déterminants financiers des crises s’articulent étroitement avec la
question des inégalités de revenus : durant les périodes où ces inégalités se
******ebook converter DEMO Watermarks*******
creusent le risque de système s’accroît et la gravité des crises
augmente (II.B).

II.A La survenance des crises financières dans les économies


mondialisées…
Durant les phases historiques d’intensification de la mondialisation et en
particulier de globalisation financière, on assiste à une hausse du risque de
système qui conduit à accroître la survenance des crises :
1. La crise de 1929 est un cas d’école du rôle prépondérant des facteurs
financiers dans le déclenchement de la crise, facteurs qui s’articulent avec
une composante cambiaire et bancaire. Cette crise est analysée par I. Fisher
en 1933. C’est le mécanisme de la déflation par la dette qui peut être
complété par celui de l’accélérateur financier : en période de hausse du prix
d’actifs avant la crise, les emprunteurs apparaissent comme davantage
solvables, ce qui incite les institutions financières à leur accorder des prêts
sur la base desquels les agents achètent des actifs. De proche en proche, cela
alimente la bulle financière par la hausse cumulative des prix d’actifs.
2. Cette analyse est reprise plusieurs fois au cours du XXe siècle autour de
l’hypothèse d’instabilité financière (Ch. Kindleberger, H. Minsky) : les crises
sont endogènes aux économies financiarisées, en incitant à l’endettement
cumulatif des agents tourné vers l’activité spéculative ; l’articulation entre la
demande de crédit croissante et l’offre du système bancaire conduit à
accroître le risque collectif jusqu’au « moment Minsky ».
3. La crise de 2008 présente des similitudes fortes avec celle de 1929 sur
le plan financier : les économies financiarisées sous-​évaluent le risque de
système du fait que le système financier mondial permet la couverture des
risques individuels (innovations financières) tout en augmentant le risque
collectif, ce qui contribue à la formation de bulles spéculatives dans un
contexte de carence de réglementation des marchés.
Avec la globalisation financière, les crises économiques deviennent
systémiques. Les facteurs financiers qui conduisent à la crise sont importants.
Mais leur degré de gravité s’accentue significativement lorsqu’ils s’articulent
avec un facteur réel : le creusement des inégalités de revenus.

II.B … qui s’aggrave du fait d’un creusement des inégalités de revenu


Une des différences entre la crise de 2008 et celle de 1929 tient au fait que la

******ebook converter DEMO Watermarks*******


première est tout d’abord une crise immobilière qui découle d’une longue
période de creusement des inégalités de revenus notamment aux États-Unis.
Le canal de transmission des inégalités sur la crise repose principalement sur
le mécanisme de hausse des endettements des agents :
1. Dans les années qui suivent la crise, de nombreux économistes (J.-
L. Gaffard ou P. Artus en France par exemple) insistent sur les causes réelles
du krach financier : la crise découle d’une suraccumulation du capital dans un
contexte de demande globale durablement récessive dont on essaie de
compenser les effets négatifs par une hausse très importante de l’endettement
des agents privés dans les PDEM.
2. M. Kumhof et R. Rancière montrent pour leur part que la hausse des
activités spéculatives à haut niveau de risque est stimulée par les flux
d’épargne en provenance des pays émergents du fait du creusement des
inégalités intra-nationales en Chine notamment tandis que la déformation du
partage de la valeur ajoutée au détriment des salaires dans les PDEM incite à
l’endettement afin de maintenir le rythme de la demande intérieure. La hausse
de l’endettement privé conduit de proche en proche à une crise de solvabilité
qui peut précipiter une nouvelle crise. À ce titre, même si une meilleure
institutionnalisation des marchés financiers dans les émergents est
souhaitable, elle n’apportera pas de réponse aux effets des inégalités de
revenus sur l’instabilité financière tant que les écarts de revenus entre les
grandes régions du monde ne seront pas réduits
3. D’autres travaux (M. Aglietta) insistent sur un mécanisme
complémentaire : les déséquilibres macroéconomiques entre les excédents
des pays émergents et les déficits des PDEM d’une part et le creusement des
inégalités de revenus au sein des PDEM d’autre part conduisent à alimenter
les marchés financiers en liquidités qui, combinées avec les actions des
banques centrales en matière de politiques monétaires non conventionnelles,
n’ont pas d’effet sur le niveau général des prix mais accroissent de manière
considérable les prix des actifs sur les marchés financiers. La hausse des
inégalités de revenus alimente le mécanisme de bulle spéculative, augmente
le risque de système et donc celui de survenance d’une nouvelle crise. Ce
mécanisme s’articule avec le fait qu’aux États-Unis notamment la dynamique
de l’endettement des ménages dépend de la valeur du patrimoine telle qu’elle
est mesurée par les marchés financiers (mécanisme de l’accélérateur financier
qui alimente la bulle de manière cumulative… jusqu’à son éclatement et le
déclenchement de la crise systémique).
******ebook converter DEMO Watermarks*******
En fin de compte, ce n’est pas tant le degré de globalisation financière qui
explique le risque et la survenance des crises (la globalisation peut être
soumise à une gouvernance plus efficace dès lors que la stabilité financière
devient un objectif partagé de politique économique) mais le degré
d’inégalité dans la distribution des revenus qui génère des mécanismes
incitatifs puissants sur les marchés financiers (hausse de l’endettement,
déséquilibres structurels dans les flux d’épargne lorsque les inégalités se
creusent) et qui conduisent à une aggravation du risque de système. En
d’autres termes, même dans un contexte institutionnel efficace en matière de
réduction de l’instabilité financière, le risque de crise systémique peut
s’aggraver du fait d’une hausse et d’un maintien structurel élevé des
inégalités de revenus.

Méthode n° 8 Comment construire le plan de la


dissertation ?
Prendre conscience du fait que la dissertation doit être structurée en parties et sous-
parties n’indique cependant pas comment procéder pour y parvenir. Nous avons
indiqué que le plan découle logiquement de l’énoncé de la problématique. Cela signifie
concrètement qu’il vous faut commencer par construire, une fois la problématique
arrêtée (la trajectoire A → B, voir figure 3.1), deux ou trois axes de réponses concis et
articulés entre eux qui constitueront la structure de votre démonstration. Il faudra pour
cela élaborer un ou deux bilans intermédiaires (A → C → B ; c’est-à-dire les passages
en italique dans le plan détaillé ci-dessus) qui délimiteront vos grandes parties.
À partir de là, nous vous conseillons :
1. De recenser les connaissances diverses qui pourront être ventilées dans chacune
de ces grandes parties. Utilisez pour cela les étapes antérieures de cette
méthodologie : appuyez-vous sur le cadrage du sujet (thématique et historique) et
puisez dans vos ressources disponibles (fiches de cours, fiches auteurs, répertoire
de vocabulaire, etc.) toutes les références qui peuvent fournir des éléments de
réponse au problème que chaque partie doit résoudre. Il ne s’agit pas ici de rédiger
du texte, mais de regrouper des éléments qui vont vous permettre d’affiner
progressivement votre plan pour passer du plan d’ensemble au plan détaillé.
2. Pour chaque partie, de regrouper ensuite les connaissances référencées de
manière cohérentes entre elles. Cette cohérence peut être de nature : a) historique
(les sous-parties ainsi établies reposeront sur une périodisation) ; b) thématique (en
distinguant par exemple les composantes commerciale, productive et financière de
la mondialisation ; les politiques de la concurrence préventives et les politiques de
la concurrence répressives, les composantes conjoncturelles et structurelles des
politiques économiques, etc.) ; c) épistémologique (en distinguant les composantes
factuelles et historiques d’une part, des composantes conceptuelles de l’autre) ; etc.
3. De penser enfin aux règles formelles de la dissertation : il faudra veiller à équilibrer

******ebook converter DEMO Watermarks*******


le nombre de sous-parties dans le devoir (au minimum 2, au maximum 3 par
partie).
Rappelons que la construction du plan détaillé est un exercice au cas par cas qui
se réalise progressivement, au fur et à mesure de l’affinage dans la sélection des
connaissances mobilisées, durant le temps de l’épreuve. C’est par conséquent, une
compétence qui exige des entraînements nombreux qui vous permettront de
ritualiser cette pratique.

Entraînement n° 5
Élaborer un plan détaillé pour chaque sujet de concours suivant :
– Qu’est-ce qu’une bonne gouvernance d’entreprise ? (Concours EC-E,
Ecricome 2016)
– Depuis les années 1980, la mondialisation est-elle responsable du
chômage dans les pays avancés ? (Concours EC-E, Ecricome 2016)
– La mondialisation peut-elle expliquer les mauvaises performances
économiques et sociales d’un pays ? (Concours EC-E, ESCP-
Europe 2016)
– Comportements économiques et institutions (Agrégation externe de
SES, 2016)
– Les politiques industrielles dans le contexte de la mondialisation
(ENA, Concours externe 2017)
– Un État doit-il s’inquiéter de l’augmentation de sa dette publique ?
(Concours EC-E, Ecricome 2017)
– Doit-on considérer que la désindustrialisation constitue un processus
inéluctable dans un pays développé ? (Concours CPGE EC-E, ESCP-
Europe 2018)

******ebook converter DEMO Watermarks*******


Chapitre 4 De la conclusion à
l’introduction

1 La rédaction de la conclusion

La formulation du titre de ce chapitre peut paraître surprenante dans la


mesure où une dissertation débute logiquement par une introduction et se
termine par une conclusion ! Nous pensons toutefois que, dans le processus
d’élaboration du devoir, la conclusion est le premier texte qui doit faire
l’objet d’une rédaction complète. En effet, une fois le plan détaillé achevé,
vous devez être en mesure de produire un texte qui résume votre
démonstration (trajectoire A → B dans la figure 3.1). Celui-ci correspond de
fait au bilan de la conclusion : il représente le repère (la trajectoire du
skieur !) que vous allez conserver durant toute la rédaction afin d’éviter les
errements du hors-sujet. Il est donc essentiel qu’il soit produit au début. Il
sera alors possible de le compléter par la deuxième composante de la
conclusion : une ouverture sur une question proche de la problématique que
vous allez soutenir, question qui a vocation à prolonger le sujet.

Méthode n° 9 Comment rédiger « l’ouverture » de la


conclusion ?
La composante « ouverture » de la conclusion fait parfois l’objet d’un traitement
seulement « formel » dans certaines copies de concours. Elle se traduit le cas
échéant par un petit paragraphe, souvent peu précis conduisant à une question dont
on ne voit pas bien la pertinence ni le rapport avec le sujet qui vient d’être traité. Cette
ouverture aura de la valeur aux yeux du correcteur si elle porte au contraire sur une
question précise, liée à une problématique spécifique qui aurait pu être traitée dans
une dissertation alternative. Pour traduire cette remarque en termes concrets, nous
vous conseillons :
******ebook converter DEMO Watermarks*******
1. De vous placer dans une posture épistémologique : une problématique n’est
pertinente que si elle renvoie à un enjeu scientifique précis. Il en va de même pour
l’ouverture. Puisque vous ne disposez que de quelques lignes, optez pour une idée
saillante qui se place en rupture avec le sens commun et qui conduit à soulever un
problème inédit dans le devoir.
2. D’utiliser une citation d’auteur ou bien une référence issue d’une publication
scientifique, un fait marquant de l’actualité ou un événement historique afin de
donner de la consistance à votre ouverture.

Un exemple de rédaction de conclusion


Le contexte de mondialisation avancée qui marque aujourd’hui l’économie
planétaire est notamment caractérisé par une hypertrophie de la finance. De
ce fait, les crises systémiques modernes présentent une composante financière
très importante. Pour autant, certains facteurs relatifs à l’économie réelle
peuvent accroître ou, au contraire, réduire le risque systémique conduisant à
la survenance des crises. Parmi ces facteurs réels, le degré d’inégalité dans la
distribution des revenus est prépondérant. Durant les phases d’intensification
de la mondialisation, ces inégalités ont tendance à se creuser soit entre les
territoires, soit à l’intérieur des territoires, soit les deux. Une des
caractéristiques de la mondialisation actuelle depuis les années 1980 est
justement une hausse significative de ces inégalités de revenus. Il existe deux
principaux canaux de transmission de ce creusement des inégalités sur la
survenance des crises : d’une part, les inégalités de revenus conduisent à
accroître les déséquilibres dans l’économie réelle, ce qui peut déclencher des
crises de surproduction ; d’autre part, ces inégalités accroissent le risque de
système sur les marchés financiers et conduisent, comme c’est le cas
actuellement, via l’endettement cumulatif des agents à accélérer la formation
des bulles spéculatives par le biais de la hausse du prix des actifs.
Les auteurs du Rapport sur les inégalités mondiales 2018 indiquent, en
conclusion de leur imposante analyse, que l’avenir des inégalités mondiales
durant les prochaines décennies sera la résultante de forces de convergences
du fait de la croissance des pays émergents et du rattrapage du niveau de vie
de leurs populations par rapport à celles des PDEM, et de forces de
divergences du fait de l’accroissement des inégalités domestiques au sein des
pays. Les scénarios possibles sont bien entendus nombreux. Mais il convient
de préciser qu’en fin de compte, l’évolution des inégalités de revenus, mais
aussi de patrimoine, d’accès aux diplômes et à la formation, etc., relève de
choix politiques et qu’il n’y a en la matière aucune fatalité.

******ebook converter DEMO Watermarks*******


2 La rédaction de l’introduction

Nous avons déjà indiqué quelles sont les attentes formelles dans une
dissertation de science économique relatives à l’introduction (voir pages 13 et
14). Dans la démarche que nous proposons, l’introduction fait l’objet d’une
rédaction une fois que le plan détaillé du devoir est réalisé et une fois que la
conclusion est elle-même rédigée. Les deux dernières étapes de l’introduction
relatives à l’énoncé de la problématique et à l’annonce du plan ont, à ce stade,
déjà fait l’objet d’un travail minutieux de préparation. Leur rédaction ne
devrait donc pas poser de problème. Il en va de même pour l’étape relative à
la définition des termes du sujet. Si, comme conseillé plus haut, un répertoire
de vocabulaire a été constitué et appris durant le parcours de formation, il
suffira alors de mobiliser les définitions requises (concepts d’inégalité,
d’inégalité de revenu et de crise économique par exemple dans le sujet qui
nous a servi de référence). Reste alors la question de l’accroche qui constitue
le début de l’introduction. Cette étape est essentielle au moins pour deux
raisons :
– ce sont les premières lignes de votre devoir lues par le correcteur ;
– c’est par le biais de ce paragraphe que vous allez vous placer en
dynamique réflexive pour le reste de l’épreuve.
Là encore, l’expérience montre que de nombreuses dissertations dans les
concours débutent par une accroche sans grand intérêt, qui énonce soit des
évidences, soit qui mobilise une information qui s’avérera sans grand rapport
avec le sujet. La seule façon de se prémunir contre cette dérive consiste à
consacrer un temps significatif, durant le parcours de formation, à la
préparation des accroches. Concrètement, cela signifie que, sur chaque
grande thématique économique (mondialisation commerciale, emploi et
chômage, etc.), il faut travailler spécifiquement les contenus en attribuant le
statut potentiel « d’accroche » pour l’introduction à certains d’entre eux :
citation d’auteur, fait historique, controverse politique, fait d’actualité, etc.
S’agissant de ce dernier point, c’est l’occasion de rappeler l’importance du
suivi de l’actualité économique par le recours fréquent à la presse mais
également aux publications et aux chroniques des principales institutions
scientifiques (OFCE, CEPII, etc.). Cela suppose que, lorsqu’une information
apparaît comme importante, il faut la relever, la classer dans la thématique
qui semble être la plus proche, et surtout l’incorporer aux connaissances à
******ebook converter DEMO Watermarks*******
maîtriser en vue de l’épreuve. Dans cette optique, l’accroche de la
dissertation se résume à être une connaissance parmi d’autres que l’on
sélectionne comme particulièrement intéressante pour lancer la réflexion sur
le sujet.

Un exemple d’accroche sur le sujet…

« Quels liens peut-on établir entre les inégalités de revenus


et la survenance des crises économiques ? »
« Dans un article publié sur le site Project syndicate en octobre 2018 (“Crazy
Rich Asians”), l’économiste américain K. Rogoff commente la sortie d’un
film du même titre dont l’intrigue se passe à Singapour. C’est l’occasion pour
lui de rappeler l’ascension fulgurante de cette petite cité-État insulaire dont le
PIB par habitant est aujourd’hui devenu l’un des plus élevés du monde. Pour
les spectateurs américains et européens, ce film contribuera selon Rogoff à la
prise de conscience de la hausse très rapide des revenus de la population
singapourienne, en particulier pour la classe moyenne émergente alors que,
par contraste, c’est au contraire un sentiment de stagnation ou de
déclassement qui prévaut pour les populations des PDEM. Cette réduction
très rapide des inégalités entre les habitants des “émergents” et ceux des
anciens pays développés au bénéfice des premiers pose la question de
nouvelles formes de déséquilibres macroéconomiques entre les grandes
régions du monde dans un contexte où, pour la plupart des pays émergents,
leurs marchés intérieurs (sur les biens et services mais aussi sur la finance)
restent insuffisamment développés. »
Entraînement n° 6
S’entraîner à la rédaction de la conclusion puis de l’introduction pour
chaque sujet de concours suivant :
– Qu’est-ce qu’une bonne gouvernance d’entreprise ? (Concours EC-E,
Ecricome 2016)
– Depuis les années 1980, la mondialisation est-elle responsable du
chômage dans les pays avancés ? (Concours EC-E, Ecricome 2016)
– La mondialisation peut-elle expliquer les mauvaises performances
économiques et sociales d’un pays ? (Concours EC-E, ESCP-
Europe 2016)
******ebook converter DEMO Watermarks*******
– Comportements économiques et institutions (Agrégation externe de
SES, 2016)
– Les politiques industrielles dans le contexte de la mondialisation
(ENA, Concours externe 2017)
– Un État doit-il s’inquiéter de l’augmentation de sa dette publique ?
(Concours EC-E, Ecricome 2017)
– Doit-on considérer que la désindustrialisation constitue un processus
inéluctable dans un pays développé ? (Concours CPGE EC-E, ESCP-
Europe 2018)

******ebook converter DEMO Watermarks*******


Chapitre 5 La rédaction finale et
le jour de l’épreuve

Avant de terminer cette partie méthodologique, il nous paraît opportun de


proposer quelques remarques et conseils relatifs à la manière d’aborder
l’épreuve le jour du concours. Si on se place dans l’hypothèse d’un parcours
de formation qui a été suivi de manière assidue et sérieuse, le(a) candidat(e) a
normalement pu bénéficier de plusieurs devoirs d’entraînement (dissertations
rédigées dans le temps imparti au concours et évaluées par les formateurs). Si
on ajoute à cela, un nombre significatif d’exercices d’entraînement portant
sur des parties spécifiques de la méthodologie de la dissertation (travail sur la
problématique, sur le plan détaillé, etc.), cela signifie que la plupart des
tâches à accomplir vont pouvoir être réalisées de manière rituelle. Parmi ces
automatismes qu’il est nécessaire de mettre en place, il faut veiller en
particulier à adopter une gestion du temps particulièrement rigoureuse.
En prenant pour repère une épreuve d’une durée de 4 heures comme c’est
le cas dans de nombreux concours1, nous vous conseillons d’adopter le
protocole suivant :
– Étape 1 : consacrer les 15 premières minutes à un travail de lecture
attentive du sujet avec comme objectif d’identifier son enjeu et de
construire une problématique (les notes écrites relatives à cette étape
constituent le « brouillon n° 1 »). Cette première étape ne devra en aucun
cas dépasser 30 minutes.
– Étape 2 : utiliser les 45 minutes suivantes pour élaborer tout d’abord le
plan d’ensemble (brouillon n° 2), puis le plan détaillé (brouillon n° 3).
Ces deux premières étapes conduisent à épuiser la première heure de
travail, c’est-à-dire un quart du temps total de l’épreuve.
– Étape 3 : consacrer entre 15 et 30 minutes à la rédaction de la ​conclusion
tout d’abord et de l’introduction ensuite. Il est envisageable, sous réserve
******ebook converter DEMO Watermarks*******
que cela ne soit pas trop chronophage, d’effectuer ces deux rédactions
partiellement au brouillon (pour les parties relatives aux définitions de
vocabulaire ou au bilan ce sera inutile).
– Étape 4 : il reste logiquement entre 2 h 15 et 2 h 30 de temps de rédaction
pour le développement de la dissertation. Ce développement devra faire
l’objet d’une rédaction directement sur la copie finale avec comme
support le brouillon n° 1 (la problématique) et le brouillon n° 3 (le plan
détaillé).
Notons enfin qu’il faut songer à conserver quelques minutes pour la
relecture finale et veiller tout au long du devoir à la qualité de l’écriture, à la
clarté de l’expression et à la syntaxe.

******ebook converter DEMO Watermarks*******


1. Dans les autres cas de figure, le lecteur effectuera une péréquation.

******ebook converter DEMO Watermarks*******


Partie 2

La dissertation de science
économique en 14 sujets

******ebook converter DEMO Watermarks*******


Sujet 1 Peut-on parler de
frontières de la firme ?

1 Se préparer à la rédaction

1.1 L’enjeu du sujet


Ce sujet renvoie à un thème de recherche de la science économique qui fait
l’objet d’une abondante littérature depuis le début du XXe siècle et à l’article
fondateur de R. Coase (« La nature de la firme », 1937). Un débat central
s’est depuis structuré dans la discipline autour de cette question entre l’école
institutionnaliste et la théorie de l’agence notamment mais aussi, de manière
moins radicale, entre R. Coase et O. Williamson par exemple sur la question
du degré d’inefficacité dans la coordination des activités par le marché d’un
côté, et par la firme de l’autre. Il est probable que ce sujet sera considéré par
le candidat comme un classique. Pour autant, il faut se méfier d’une lecture
hâtive qui escamoterait une partie des enjeux qu’il soulève.
L’expression de « frontières » de la firme renvoie à l’idée d’un périmètre
à l’intérieur duquel la firme peut être définie et analysée comme une
organisation productive et au-delà duquel ce sont des formes alternatives de
coordination des activités économiques qui sont à l’œuvre (le marché ou la
coopération par exemple). La théorie économique enseigne qu’il est possible
de considérer la firme comme une alternative au marché. En ce sens, il existe
bien une frontière clairement établie de la firme qui la sépare du mode de
coordination par le marché.
Pour autant, il convient de préciser deux choses. D’une part, il faut penser
à considérer le degré d’efficacité de la coordination des activités
économiques à l’intérieur ou à l’extérieur de la firme qui pose la question de
« l’existence de la firme », mais également la question du type de
******ebook converter DEMO Watermarks*******
gouvernance à l’œuvre au sein de la firme par rapport à celui qui s’opère à
l’extérieur. D’autre part, il convient de nuancer le caractère radical de
l’opposition entre la firme et son environnement au profit d’une réflexion qui
met l’accent sur les interactions entre la coordination par la hiérarchie et celle
par le marché. Dans ce cas, l’idée de frontière perd de sa pertinence face à la
diversité des formes de firmes (filialisation des firmes, sous-traitance, joint-
venture, etc.). Il s’agira alors de défendre l’hypothèse d’un continuum entre la
firme et le marché.

1.2 Le cadrage et les concepts clés


Le concept de firme doit faire l’objet d’une définition rigoureuse et détaillée.
La réflexion sur ses « frontières » porte indirectement à disserter sur ce qu’est
la firme et ce qu’elle n’est pas. Par exemple, il importe de ne pas assimiler la
firme à une organisation dont l’objectif principal est la recherche du profit, de
ne pas confondre firme et établissement de production ou encore, s’agissant
des firmes qui se multinationalisent, de clairement distinguer la firme en tant
qu’organisation bénéficiant d’une autonomie de décision, de ses filiales et/ou
de ses sous-traitants.
Il s’agit d’un sujet qui a une portée théorique importante. Il convient
toutefois de le placer dans une perspective historique afin d’éviter un
traitement « hors-sol » exclusivement conceptuel. Il semble légitime de
débuter la réflexion avec l’entrée dans la seconde mondialisation au sens de
S. Berger (milieu des années 1970) car cela correspond à la période
d’approfondissement de la multinationalisation des firmes et donc pose de
manière nouvelle la question de leurs frontières.

1.3 La construction de la problématique


La démonstration peut reposer sur une réflexion en deux temps :
1) Il s’agira de montrer tout d’abord qu’il est possible de parler de ​frontières
de la firme dans le sens où celle-ci est, d’une part, une organisation
productive qui est une alternative au marché et, d’autre part, une
organisation qui implique une gouvernance spécifique qui est par nature
différente des autres formes de gouvernance.
2) Toutefois, des travaux économiques nombreux partent de l’hypothèse
que s’il existe bien des frontières de la firme, celles-ci doivent être
discutées et présentent un caractère évolutif avec le contexte
******ebook converter DEMO Watermarks*******
institutionnel et historique avec en particulier la question de la
diversification des formes de firmes et de leur mode de coordination
depuis le début de la seconde mondialisation. L’idée de frontières de la
firme peut ainsi être nuancée à partir de l’hypothèse de la firme comme
« nœud de contrats ». Pour autant, face aux enjeux actuels en termes de
gouvernance mondiale notamment, se pose aussi la question de
l’articulation entre la firme et son environnement et en particulier celle
de sa responsabilité dans la coordination des activités et des choix
politiques à conduire.

2 Rédiger le devoir : une proposition

Introduction
Au début de l’hiver 2018, la détention du PDG du groupe Renault-Nissan,
Carlos Ghosn, par la justice japonaise pour soupçon d’abus de confiance et
pour avoir fait couvrir par Nissan des pertes sur investissement personnel à
l’occasion de la crise de 2008, pose avec une acuité singulière la question des
frontières de la firme : de nombreux observateurs au Japon contestent à cette
date le statut de manager du PDG français sur la firme Nissan et considèrent
que celle-ci doit être légitimement placée sous l’autorité des dirigeants
nippons. Dans cette conception, « l’affaire Ghosn » conduit à révéler que
Nissan serait en fait une firme distincte de Renault ou, qu’à tout le moins,
l’idée du groupe Renault-Nissan a fait long feu. Cet épisode est d’autant plus
étonnant que Carlos Ghosn a été PDG de Nissan (en 2001) avant d’être celui
de Renault (2005), ce qui faisait de lui l’un des premiers PDG non Japonais
d’une firme nipponne.
En économie, les concepts de firme et d’entreprise peuvent être
considérés comme équivalents. Selon G. Abraham-Frois, « une entreprise est
une unité de production qui vend ses produits (biens ou services) sur un
marché ». Un enseignement important peut être tiré de cette brève définition :
l’entreprise se définit par la mise en œuvre d’une production marchande (les
biens et services produits font l’objet d’une vente sur un marché via un prix
de marché). Une entreprise ne se définit donc pas par la recherche du profit :
il existe par exemple des entreprises de l’économie sociale (coopératives,
mutuelles et certaines associations) qui produisent des biens et services
marchands et qui sont par ailleurs à but non lucratif. Ainsi, les entreprises
******ebook converter DEMO Watermarks*******
privées à but lucratif ne correspondent qu’à une partie, certes majoritaire, de
l’ensemble des entreprises.
Deux autres critères viennent par ailleurs compléter cette définition.
D’une part, l’entreprise est une organisation productive : elle combine des
facteurs de production (capital et travail qui font l’objet d’un échange sur
leurs marchés respectifs) et assure par ailleurs une coordination des
comportements individuels dans un cadre hiérarchique. D’autre part,
l’entreprise est une unité économique dotée d’une autonomie juridique. Elle
se distingue ainsi d’un établissement de production qui est juridiquement non
autonome (une firme peut de ce fait regrouper plusieurs établissements).
L’autonomie juridique confère à l’entreprise une relative autonomie de
décision. Il arrive cependant que cette autonomie de décision soit réduite. Par
exemple, une entreprise peut avoir pour principal actionnaire une autre
entreprise (la seconde devient, le cas échéant, une filiale de la première) ; ou
encore, dans le cadre d’une relation de sous-traitance, une entreprise peut se
retrouver sous la dépendance effective d’une autre dès lors que celle-ci est
son unique client.
Avec la définition du concept de firme se pose de facto le problème de
ses frontières, c’est-à-dire du périmètre au-delà duquel la coordination des
activités économiques ne s’effectue plus à partir du mécanisme de la
hiérarchie. La question de la définition de la firme a fait l’objet d’une
réflexion tardive dans l’histoire de la pensée économique. Pour les fondateurs
de l’économie politique comme pour les néoclassiques et certains
économistes hétérodoxes à l’image de J. A. Schumpeter, la firme est réduite à
un ensemble d’individus (la classe des propriétaires industriels dans
l’économie ricardienne), à un producteur représentatif dans le modèle
néoclassique standard ou encore à un entrepreneur individuel. Les pensées
économiques classique, néoclassique et schumpétérienne ont ainsi un point
commun : la firme n’est jamais abordée comme un objet d’étude singulier,
elle est considérée spontanément soit parce qu’elle est réduite à sa dimension
individuelle, soit parce qu’elle est assimilée à une simple « boîte noire ».
Pourtant, la question de la définition de la firme ainsi que de ses frontières
par rapport aux autres formes de coordination des activités économiques s’est
révélée être un enjeu scientifique important à partir des années 1930.
Pourquoi les firmes existent-elles ? Si certains agents coordonnent leurs
activités dans le cadre d’une firme, c’est que celle-ci s’est imposée comme un
mode de coordination plus efficient. Les relations marchandes cèdent alors la
******ebook converter DEMO Watermarks*******
place à une coordination par la hiérarchie au sein d’une organisation
productive. Dans cette optique, les frontières de la firme semblent clairement
établies : la firme débute là où le marché s’arrête (et inversement). Mais par
ailleurs, les relations qui existent entre les agents au sein d’une firme sont-
elles par nature différentes de celles qui existent dans un cadre marchand ?
Autrement dit, la définition de la firme implique-t-elle une position de rupture
vis-à-vis du marché ?
Cela conduit à poser la question de la diversité des parties prenantes
(actionnaires, mais aussi salariés, clients, résidents des territoires sur lesquels
la firme implante ses établissements de production…) qui interagissent avec
la firme et qui peuvent, le cas échéant, être considérées comme des
composantes de l’organisation. Dans cette optique, la firme devient un nœud
de contrats. Avec la question des frontières de la firme se pose aussi celle de
sa gouvernance : qui décide et dirige l’organisation ? En quoi le mode de
gouvernance des firmes est-il différent de ceux qui opèrent en dehors ? Et s’il
existe une frontière de la firme, est-ce cela implique une déresponsabilisation
de la firme s’agissant des interactions avec son environnement ?
La firme existe lorsque le marché se révèle moins efficient que la
coordination par la hiérarchie. La firme est par nature différente du marché
dans la mesure où elle se définit comme une organisation productive : en ce
sens, la firme est une alternative au marché et la frontière qui sépare l’un et
l’autre est clairement identifiée (I). Cependant, si définir la firme implique
l’identification de cette frontière, cela ne conduit pas nécessairement à penser
la firme en rupture par rapport au marché : elle peut aussi s’appréhender
comme la continuité de celui-ci comme le démontrent les travaux de la
théorie de l’agence. Dans cette optique, la firme se définit soit comme un
nœud de contrats et un ensemble de droits de propriété, soit comme une
organisation productive dont les frontières s’effacent et qui produit des
mécanismes d’incitations et de contrôle sur ses différentes parties
prenantes (II).

I. Les frontières de la firme : entre organisation et marché


À partir des travaux de R. Coase, complétés par ceux d’O. Williamson
notamment, il est possible de montrer que la firme existe du fait de la
comparaison entre les coûts de transactions et les coûts d’organisation qu’elle
articule. Il existe bien une frontière clairement établie entre la firme et le
marché (A). Par ailleurs, la firme est une organisation productive qui
******ebook converter DEMO Watermarks*******
implique une hiérarchie de sorte que la question de sa frontière se pose aussi
du point de vue des relations de pouvoir qui existent entre les diverses parties
prenantes qui la composent et avec lesquelles elle interagit (B).

A. Frontière et nature de la firme : coûts de transaction et coûts


d’organisation
Durant les premières décennies du XXe siècle, des travaux de recherche
novateurs pour l’époque mettent l’accent sur le fait que le marché est une
forme d’organisation économique décentralisée efficace mais qu’il peut
exister des défaillances du marché dès lors que certaines conditions ne sont
pas remplies. Dans ce cas, la firme est une forme d’organisation alternative
qui permet de coordonner différemment les comportements des agents. En
économie, la coordination correspond à l’ensemble des procédures qui
permettent aux décisions des agents d’être cohérentes entre elles. Dans le
cadre du marché, cette coordination est assurée par les mécanismes de prix,
dans celui d’une organisation, celle-ci est assurée par la hiérarchie. Se pose la
question de savoir pour quelles raisons la coordination par le marché est, dans
certains cas, abandonnée par les agents au profit de celle relevant d’une
organisation. Dans la tradition théorique néoclassique, les agents
économiques sont dotés d’une rationalité substantive au sens d’H. Simon : ils
disposent de toute l’information nécessaire leur permettant d’adopter une
solution unique qui est objectivement préférable à toutes les autres. Cette
hypothèse restrictive quant à la rationalité est liée à une autre selon laquelle
l’information circule librement entre les agents économiques, autrement dit
que le coût d’accès à l’information est nul. Ces deux hypothèses sont remises
en cause dans l’article fondateur de R. Coase (Prix Nobel 1991) en 1937 :
“The Nature of the Firm”. Tout en conservant le principe de rationalité des
agents, Coase s’appuie sur une autre hypothèse selon laquelle à chaque fois
que deux agents ont recours au marché pour coordonner leurs transactions,
cela implique des coûts spécifiques que les deux agents vont devoir supporter
(coûts de transaction comme par exemple les coûts de recherche de
l’information, les coûts de négociation des contrats…). Par ailleurs, la
rationalité des agents est nécessairement limitée : ils disposent d’information
et de capacités de calculs insuffisantes pour parvenir à maximiser leurs
fonctions d’objectifs.
Coase montre que les agents peuvent accroître le niveau d’information
dont ils ont besoin et ainsi utiliser plus efficacement les facteurs de
******ebook converter DEMO Watermarks*******
production, en coordonnant leurs activités à l’intérieur d’une organisation
plutôt que par le biais du marché. Au sein de la firme, les coûts de
transactions disparaissent puisque celle-ci repose sur une coordination
centralisée et hiérarchique. Par exemple, si une firme du secteur automobile
décide de faire appel au marché, via un réseau de firmes sous-traitantes, pour
la prise en charge de certaines activités qu’elle considère comme
périphériques (maintenance des biens d’équipements, fournisseurs en biens
intermédiaires divers tels que les dispositifs de freinage ou les GPS, etc.), elle
supporte, le cas échéant, les coûts de transactions correspondants. La stratégie
alternative consiste à réaliser ces types de tâches en interne en y affectant
certains de ses salariés : les coûts de transactions disparaissent et la firme
augmente sa taille.
Entre ces deux stratégies, ce sont deux types de contrats entre lesquels la
firme doit opter : un contrat commercial lorsqu’elle fait appel au marché, un
contrat de travail lorsqu’elle prend en charge en « interne » les activités
concernées. Le contrat de travail présente deux avantages principaux selon
Coase : d’une part, les coûts de transactions s’annulent une fois le contrat
établi et, d’autre part, la firme peut contrôler plus facilement les segments de
la production concernés puisque les tâches sont effectuées par des salariés qui
en ont reçu l’ordre. Cependant, dès lors que le contrat de travail est préféré au
contrat commercial, un nouveau problème apparaît : comment expliquer que,
dans les économies modernes, toutes les activités de production marchande
ne soient pas prises en compte par une firme unique ? Coase montre que la
réponse tient à l’existence d’autres types de coûts, des coûts d’organisation
qui se développent lorsque la firme accroît sa taille. Ces coûts découlent de la
nécessité de coordonner par la hiérarchie les actions des agents. En ​utilisant
les acquis du modèle néoclassique, Coase montre ainsi que les dirigeants
d’une firme doivent faire face à un arbitrage impliquant un coût
d’opportunité : le choix du recours au marché ou à la firme dépend de la
comparaison entre les coûts de transactions et les coûts d’organisation. Il
propose ainsi un modèle qui permet de déterminer une taille critique de la
firme qui est atteinte lorsque le coût marginal d’organisation est égal au coût
marginal alternatif de transaction.
Cette analyse proposée par Coase a eu un impact considérable sur la
pensée économique du XXe siècle. Elle présente l’avantage de donner pour la
première fois à la firme une certaine « épaisseur » dans un modèle
économique. Le modèle de Coase présente toutefois de nombreuses limites
******ebook converter DEMO Watermarks*******
parmi lesquelles la question des caractéristiques des coûts de transactions et
d’organisation. Comment expliquer par exemple que certaines firmes
supportent des coûts de transaction supérieurs à d’autres alors que leur degré
de recours au marché est comparable ? À partir des années 1970, les travaux
d’O. Williamson (Prix Nobel 2009) proposent de répondre à ce problème. Ses
hypothèses s’inscrivent dans le champ de la nouvelle économie
institutionnelle. Il suppose, avec Coase, que les agents sont dotés d’une
rationalité limitée et que les firmes se développent tant que les coûts
d’organisation sont inférieurs aux coûts de transactions.
Cependant, il considère, d’une part, que les agents évoluent dans un
contexte d’avenir incertain (alors que les tenants de la théorie néoclassique
considèrent que l’avenir est probabilisable), ce qui les conduit à passer des
contrats nécessairement incomplets et, d’autre part, que l’information est
distribuée de manière asymétrique. Ainsi, Williamson montre que non
seulement les agents sont dans l’incapacité de prévoir l’ensemble des
évènements susceptibles de se produire dans l’avenir, mais également que les
contrats commerciaux passés dans le cadre du marché conduisent les agents à
faire preuve d’opportunisme. Il démontre ainsi que plus l’information est
asymétrique, plus la rationalité incite les agents à adopter des comportements
opportunistes et plus, in fine, les coûts de transactions sont élevés pour les
agents qui décident de coordonner leurs activités par le marché. C’est pour
cette raison que la firme apparaît comme une alternative efficace au marché :
en organisant en interne de plus en plus d’activités et en augmentant sa taille,
Williamson montre que la firme réduit les asymétries informationnelles
propres au marché. En d’autres termes, la frontière de la firme se mesure à
l’aune de la défaillance du marché face aux comportements opportunistes :
lorsqu’elle s’accroît, la frontière se déplace et la taille de la firme augmente.

B. Frontière de la firme et gouvernance


La firme est une unité économique qui vend les biens et services qu’elle
produit sur des marchés. Mais elle est également une organisation, c’est-à-
dire qu’elle est constituée d’un ensemble d’agents qui mettent en œuvre des
moyens et coordonnent leurs actions de manière cohérente dans le but
d’atteindre un ou plusieurs objectifs. Dans cette optique, toute organisation
implique l’existence d’une structure plus ou moins hiérarchisée avec une
répartition des responsabilités et des prises de décisions. À ce titre, il existe
une frontière entre la firme et son environnement. Le concept de gouvernance
******ebook converter DEMO Watermarks*******
peut être utilisé pour répondre à la question : « Qui décide de quoi au sein de
la firme » ? Dans son sens le plus large, la gouvernance de la firme renvoie,
selon A. Rébérioux, à l’exercice et à la structure du pouvoir dans les
entreprises notamment mais pas exclusivement entre les actionnaires et les
managers. Définir la firme en tant qu’organisation productive revient ainsi à
se demander comment il est possible d’associer des capitaux et d’organiser la
répartition des pouvoirs de manière à en assurer le développement et
l’efficacité productive.
Cette hypothèse selon laquelle la coordination des activités au sein de la
firme implique une hiérarchie est déjà présente dans l’article de R. Coase :
l’ouvrier change de poste de travail parce qu’il en a reçu l’ordre, non parce
qu’il est incité à le faire par une modification des prix relatifs. Cependant,
c’est surtout à partir du milieu du XXe siècle et des travaux qui s’inscrivent
dans l’optique de la « révolution managériale » que la firme est analysée
comme une organisation faisant l’objet d’enjeux de pouvoir pour l’essentiel
entre les propriétaires des capitaux et les managers. Dans un ouvrage publié
en 1932, A. Berle et G. Means (The Modern Corporation and Private
Property) montrent que le développement des grandes firmes aux États-Unis
s’accompagne de la dispersion des titres de propriété, ce qui conduit à une
séparation croissante entre la propriété et le contrôle de la firme. Cette étude
est aujourd’hui considérée comme pionnière pour trois raisons principales.
Tout d’abord, elle rend compte de la mutation que connaît le capitalisme
industriel aux États-Unis au début du XXe siècle (passage de la firme
entrepreneuriale dans laquelle les propriétaires sont également les
gestionnaires, à la firme managériale qui se dote d’un statut juridique de
société anonyme). Par ailleurs, elle met en évidence la prise de pouvoir des
managers sur les propriétaires : les premiers peuvent, d’une part, imposer
leurs choix aux seconds du fait de la position stratégique qu’ils occupent et,
d’autre part, ils privilégient des objectifs qui leur sont propres en raison
notamment du fait que leur rémunération est indépendante des performances
de la firme qu’ils dirigent. Enfin, cette étude s’appuie sur une vaste
investigation empirique, ce qui est assez novateur pour l’époque : ils
observent par exemple que, juste avant la crise de 1929, près de 45 % des
deux cents plus grandes firmes américaines ont un actionnariat
particulièrement dispersé et sont totalement contrôlées par leurs managers
(dans la fameuse entreprise de télécommunications AT&T par exemple aucun
actionnaire ne possède plus de 1 % du capital).
******ebook converter DEMO Watermarks*******
Cette analyse inaugure une importante série de travaux autour du modèle
du capitalisme managérial qui s’impose comme problématique de recherche
jusqu’à la fin des années 1970. J. K. Galbraith montre par exemple (Le
nouvel état industriel, 1967) que les firmes modernes sont caractérisées par la
formation d’une technostructure, c’est-à-dire des groupes de cadres dirigeants
qui concentrent le pouvoir économique. Ce pouvoir de la technostructure qui
se traduit par un recours intensif à la planification provient pour partie de
l’évolution de la technologie mais aussi et surtout de la complexité croissante
de l’organisation des firmes. Le pouvoir des managers repousse les frontières
de la firme et affecte la conduite des affaires publiques (lobbying des
managers auprès du politique) ainsi que le comportement des consommateurs
(mécanisme de la filière inversée). Galbraith montre ainsi que les managers
cherchent à minimiser les situations d’incertitude qui sont propres au marché.
La technostructure permet de développer des procédures de contrôle
notamment sur les prix de vente des produits : ces procédures sont d’autant
plus efficaces que le processus d’intégration verticale des firmes est poussé
(l’augmentation de la taille de la firme place les parties prenantes tels que les
fournisseurs et les clients sous le contrôle de cette dernière) ou, dans une
moindre mesure, que les firmes développent des stratégies collusives. En
partant d’une problématique similaire mais en s’appuyant sur une démarche
historique, A. Chandler montre en 1977 dans son ouvrage La main visible des
managers qu’entre le milieu du XIXe et du XXe siècle le fonctionnement des
marchés est particulièrement soumis au contrôle des firmes et de leurs
managers : la main invisible du marché a cédé la place à la main visible des
managers.
Cependant, à partir de la récession des années 1970 et notamment du
processus de la globalisation financière, le modèle de la firme contrôlée par
les managers qui conduit à repousser sa frontière fait l’objet de critiques
croissantes. Alors que les firmes cherchent à s’adapter à un nouveau contexte
économique notamment caractérisé par une concurrence internationale
intense, on observe l’apparition d’un nouveau modèle de gouvernance des
firmes « orienté vers l’actionnaire ». Il s’agit toujours de penser la firme
comme une organisation faisant l’objet de relations de pouvoirs mais en
partant de l’hypothèse selon laquelle les actionnaires (shareholders)
développent des stratégies afin de peser sur le comportement des dirigeants et
ainsi faire en sorte que ces derniers atteignent les objectifs fixés lors des
assemblées générales. Ce modèle dit de la corporate governance vise à
******ebook converter DEMO Watermarks*******
étudier, selon A. Shleifer et R. Vishny, les moyens dont se dotent les
fournisseurs de capitaux pour s’assurer de leur retour sur investissement par
le biais de mécanismes de contrôle et/ou d’incitation des dirigeants. Ce
modèle prescriptif plus que scientifique de la corporate governance a
incontestablement pesé sur les stratégies des firmes à partir des années 1980.
Par exemple, la plupart des firmes multinationales ont adopté de
nouveaux dispositifs dans leur processus de croissance afin de limiter la
dispersion de l’actionnariat (en permettant notamment aux actionnaires
historiques d’acheter les nouveaux titres au moment de l’augmentation du
capital social par exemple). Par ailleurs, la montée en puissance sur les
marchés financiers de nouveaux acteurs économiques que sont les
investisseurs institutionnels a également eu pour effet d’accroître le pouvoir
des actionnaires. Il faut cependant souligner que ce modèle de la corporate
governance présente des limites pour rendre compte de l’évolution actuelle
des relations de pouvoir au sein de la firme. Dans la plupart des PDEM,
notamment en Europe, les firmes restent sous le contrôle d’une élite
managériale marquée par une forte reproduction sociale.
La question « Peut-on parler de frontière de la firme ? » trouve un
élément de réponse dans l’idée selon laquelle elle représente une alternative
au marché. Cependant, cette réponse n’épuise pas la définition de la firme ni
son périmètre. En partant de l’hypothèse que les relations qui existent entre
les agents au sein des firmes comme au sein des marchés sont fondées sur des
contrats, il est possible de montrer qu’il n’existe pas de différence de nature
entre la firme et le marché et donc de remettre en cause l’idée de frontière.
Dès lors, comment rendre compte de l’articulation entre la firme et le
marché ? Face aux enjeux du capitalisme contemporain, comment penser les
frontières de la firme vis-à-vis du marché et comment concilier les intérêts
des firmes en tant qu’organisations productives avec ceux des autres agents
économiques, c’est-à-dire des parties prenantes des firmes ?

II. Des frontières discutées et évolutives : la firme face à la


coordination des activités économiques
À partir des années 1970, des travaux mettent l’accent sur le fait qu’il
n’existe pas de différence de nature entre la firme et le marché et donc pas de
frontière entre elle et les autres modes de coordination des activités. La firme
est analysée comme un nœud de contrats sur la base desquels elle interagit
avec d’autres agents dans le cadre des relations marchandes. Dans cette
******ebook converter DEMO Watermarks*******
optique, c’est par un ensemble de mécanismes incitatifs que la firme
s’articule avec le marché (A). Cependant, si la définition de la firme sans
rupture avec le marché présente une forte portée heuristique, les analyses en
termes d’incitation rencontrent des limites : il faut par ailleurs mettre en
évidence les conditions requises pour que les intérêts de la firme soient
compatibles ou, à tout le moins, convergents avec ceux de ses parties
prenantes, ce qui implique bien de repenser la firme comme une organisation
dont il faut reconsidérer les frontières. Ainsi, face aux enjeux actuels en
termes de gouvernance mondiale notamment, se pose la question de
l’articulation entre la firme et son environnement et en particulier celle de sa
responsabilité dans la coordination des activités et des choix politiques à
conduire (B).

A. La firme comme nœud de contrats : des frontières contestées


Durant les années 1970, deux économistes américains, A. Alchian et
H. Demsetz, développent une théorie novatrice de la firme qui rompt avec les
analyses institutionnalistes proposées à la même époque par O. Williamson.
Selon eux, pour comprendre l’existence des firmes dans les économies
modernes, il suffit de considérer qu’elles sont un prolongement, sous des
formes différentes, des relations de marché. Ces dernières conduisent les
agents économiques à nouer et dénouer en permanence des contrats (relations
fournisseurs/clients par exemple). En utilisant les hypothèses du modèle
néoclassique, Alchian et Demsetz considèrent que le marché est par nature un
mode d’allocation et de distribution des richesses plus efficace que la firme :
le mécanisme des prix relatifs remplit une fonction de signal et fournit des
incitations maximales pour les différents agents (notamment en matière
d’effort au travail dans la mesure où la rémunération de l’individu est
fonction de sa productivité marginale). Cependant, dans certains cas de
figure, il est possible de montrer que la signature de contrats de travail
durables est rationnellement préférable aux contrats marchands usuels comme
les contrats commerciaux qui doivent être signés lors de chaque transaction.
À partir de l’exemple du travail en équipe, Alchian et Demsetz soulignent
qu’il est impossible de mesurer la contribution effective de chaque participant
à une activité productive, ce qui empêche toute régulation efficace par des
contrats commerciaux. Le recours à la firme permet d’éviter au moins
partiellement les comportements de type « passager clandestin » dans la
mesure où celle-ci met en œuvre des dispositifs de contrôle et d’incitation. Si
******ebook converter DEMO Watermarks*******
l’un des agents en présence prend en charge la fonction de contrôle des
autres, il devient un « créancier résiduel » ce qui lui donne le droit (s’il est
efficace et que la productivité de l’équipe soit élevée) de percevoir un revenu
spécifique : le profit. Cette fonction de contrôle doit par ailleurs être assortie
d’une distribution de droits de propriété : le créancier résiduel devient ainsi
l’entrepreneur, propriétaire de la firme. À ce titre, il a droit, en plus de la
perception de son revenu résiduel, d’assigner des tâches aux autres
participants qui deviennent de fait ses salariés, d’établir des grilles de
rémunérations pour les contrats de travail, de modifier la composition de
l’équipe, etc., et enfin, le droit de vendre l’ensemble des droits précédents.
Dans le modèle d’Alchian et Demsetz, la firme existe dans la mesure où
le marché est dans l’incapacité de prendre en charge certaines productions qui
impliquent du travail en équipe : elle se définit, d’une part, comme le produit
d’une série de contrats et, d’autre part, comme un ensemble de droits de
propriété. En ce sens, il n’existe pas de différence de nature entre le contrat
de travail qui relie le créancier résiduel aux salariés et le contrat commercial
qui relie le fournisseur à ses clients et il n’existe pas de frontière clairement
établie de la firme.
Dans le prolongement de ces travaux, M. Jensen et W. Meckling
proposent à la même époque un modèle de la firme à partir d’une hypothèse
plus radicale selon laquelle les relations contractuelles constituent l’essence
de la firme non seulement pour les relations entre propriétaires et salariés au
sein de la firme, mais aussi pour celles qui impliquent les fournisseurs, les
clients, les institutions financières créancières, etc. La firme devient ainsi une
« fiction juridique », c’est-à-dire un artefact qui se résume concrètement à
articuler des contrats bilatéraux entre tout un ensemble d’agents
économiques. Pour Jensen et Meckling, ces contrats peuvent s’analyser dans
le cadre d’une relation d’agence. Au sein d’une firme, les différents individus
sont conduits à remplir deux rôles économiques complémentaires : le rôle de
« principal » et le rôle « d’agent ». Ainsi, une relation d’agence apparaît
lorsqu’un individu (le principal) en engage un autre (l’agent), via un contrat
de travail par exemple, afin d’exécuter une tâche en son nom, ce qui implique
de déléguer un certain pouvoir de décision à l’agent.
Jensen et Meckling adoptent par ailleurs une double hypothèse de
contrats complets (l’avenir est probabilisable) et d’asymétrie informationnelle
au bénéfice de l’agent. Ce modèle, qui peut s’articuler avec celui de la
corporate governance, s’est révélé particulièrement fécond pour rendre
******ebook converter DEMO Watermarks*******
compte des relations entre les actionnaires et les managers à partir des
années 1980. Les actionnaires (le principal) confient au conseil
d’administration ou au directoire (l’agent) la conduite des activités de la
firme avec pour objectif une création de valeur qui permettra de valoriser le
placement financier initial du propriétaire. L’agent s’engage à honorer son
contrat mais il peut être conduit à dissimuler certaines informations ou à
poursuivre implicitement des objectifs qui ne lui ont pas été assignés. Dès
lors, il s’agit pour le principal d’établir un dispositif d’incitation afin de
réduire l’asymétrie informationnelle dont il est victime. La théorie de
l’agence enseigne qu’il existe des mécanismes incitatifs externes à la firme
qui permettent de réguler les relations d’agence. Ainsi, si le marché des
produits est suffisamment concurrentiel, toute firme mal gérée finira par être
évincée du marché. Par ailleurs, le risque d’Offre Publique d’Achat (OPA),
qui donne la possibilité à une firme de prendre le contrôle d’une autre en
proposant à son actionnariat l’acquisition simultanée de titres en circulation,
incite les managers à une gestion efficace. Enfin, le marché du travail des
dirigeants est aussi un moyen d’évaluation de leurs performances. Il existe
par ailleurs des dispositifs de contrôle et d’incitation internes que peut mettre
en œuvre le principal. S’agissant des mécanismes de contrôle, le conseil
d’administration est placé sous la surveillance de l’assemblée générale des
actionnaires, ce qui peut conduire à l’éviction du conseil d’administration en
cas de mauvaise gestion. Dans les faits, l’efficacité de cette relation d’agence
est fonction de la structure de l’actionnariat. Les « petits actionnaires » sont
peu incités à adopter une telle stratégie de surveillance, compte tenu des coûts
d’agence qui sont pour eux prohibitifs et qui les conduisent à des
comportements de « passagers clandestins » (une gestion plus efficace des
managers conduira à une hausse des dividendes pour l’ensemble des
actionnaires et pas seulement pour ceux qui ont supporté le coût d’agence).
Cependant, le modèle enseigne que l’agent peut également utiliser la
rémunération des managers comme un instrument incitatif efficace
(indexation de la rémunération sur les performances de la firme).
L’analyse de la firme à la fois comme nœud de contrats et comme relation
d’agence a eu un incontestable succès sur le plan empirique notamment pour
rendre compte des stratégies de recentrage des firmes sur leur « cœur de
métier » à partir des années 1980. En effet, si l’objectif de la création de
valeur est prioritaire, les agents sont conduits à soumettre chacune de leurs
activités à une évaluation afin de ne conserver que celles qui créent le plus de
******ebook converter DEMO Watermarks*******
valeur. Cela se traduit concrètement par le développement des pratiques
d’externalisation des activités périphériques vers des sous-traitants spécialisés
(outsourcing), processus qui est notamment à l’œuvre avec la segmentation
des chaînes de valeurs mondiales depuis le début des années 2000.
Cependant, cette approche de la firme et de son absence de frontière comme
« relation d’agence » fait l’objet de nombreuses critiques. Il apparaît
empiriquement que, dans de nombreux cas, le principal ne peut anticiper
toutes les stratégies possibles de l’agent et que celui-ci est souvent conduit à
utiliser à son avantage la relation de pouvoir dont il bénéficie au sein de
l’organisation. Par conséquent, l’asymétrie informationnelle ne peut
disparaître au seul moyen de la relation d’agence. Par exemple, il est
manifeste que la rémunération des managers selon le mécanisme des stocks
options a accru dans les faits les comportements opportunistes de leur part
(les arguments en termes de relation d’agence sont alors de simples
justifications à des rémunérations complémentaires souvent considérables).

B. Vers un nouveau périmètre de la firme : des parties prenantes à la


firme comme commun
À partir des années 1980, le débat sur la frontière entre la firme et le marché
rebondit avec une nouvelle série de travaux conduits par O. Williamson.
Dans ses premières études, celui-ci plaçait déjà son modèle de la firme dans
l’hypothèse d’un environnement incertain et de contrats incomplets.
Cependant, cette analyse ne permettait pas de rendre compte de toutes les
situations empiriques : comment expliquer par exemple que certaines firmes
décident stratégiquement de ne pas procéder à une intégration verticale et de
s’en tenir à l’entretien de relations marchandes avec leurs fournisseurs tandis
que d’autres adoptent la stratégie inverse ? Williamson répond à cette
question et contribue à redéfinir le périmètre de la firme en mobilisant le
concept de spécificité des actifs. Il pose pour cela l’hypothèse selon laquelle
l’attribut fondamental d’une transaction dépend du degré de spécificité d’un
actif : plus un actif est spécifique, moins les agents sont incités à l’allouer en
utilisant le mécanisme du marché.
Selon Williamson, un actif est spécifique lorsque sa valeur dans une
utilisation alternative est plus faible que dans son utilisation présente.
Autrement dit, plus un agent économique est propriétaire d’un actif (un
équipement, un savoir-faire, une compétence, etc.) qui a nécessité un
investissement coûteux et qui a vocation à participer à une activité productive
******ebook converter DEMO Watermarks*******
singulière, moins cet actif sera transposable sur une autre activité et donc
moins il pourra faire l’objet d’une transaction au bénéfice de l’agent qui en
est le propriétaire. Les actifs spécifiques s’opposent aux actifs génériques,
c’est-à-dire aux actifs qui peuvent subir toutes les transactions marchandes et
se redéployer sans coût prohibitif pour la firme. L’actif est qualifié par
Williamson de « spécifique pur » s’il ne peut soutenir qu’une seule
transaction (celle correspondant à l’achat par la firme Playmobil des moules
pour produire les jouets en plastique par exemple) et que sa valeur devient
nulle dans toutes les transactions alternatives. Ce qui importe pour définir la
firme et comprendre son développement, c’est donc le degré de spécificité
des actifs : plus un actif est spécifique, plus les agents cocontractants qui
utilisent le marché pour allouer les richesses seront rationnellement conduits
à adopter des comportements opportunistes du fait de la distribution
asymétrique de l’information, ce qui fera sensiblement croître les coûts de
transactions.
A contrario, l’intégration de la production au sein de la firme conduit à
des coûts d’organisation faibles lorsque les actifs sont spécifiques. Par
exemple, Williamson montre qu’une relation marchande entre une firme et
son fournisseur indépendant peut être rationnelle dans la mesure où l’actif
échangé est générique (ce qui est le cas pour les pneumatiques vendus par
Michelin à Renault par exemple et donc… à l’existence de deux firmes et pas
d’une seule). Les tests de corroboration empirique réalisés à partir de ce
modèle ont été tellement probants que ce dernier a été qualifié d’« empirical
success story » par de nombreux économistes. Il est particulièrement robuste
pour rendre compte des stratégies d’intégration verticale des firmes dans le
contexte de la seconde mondialisation : lorsque les actifs sont génériques, les
agents ont recours au marché et les filières de production sont constituées de
nombreux « segments » fournisseurs-clients ; lorsque les actifs sont
spécifiques, les firmes sont incitées à accroître leur taille en rachetant les
segments amont et/ou aval de la filière, la frontière de la firme est ainsi
repoussée en même temps que son périmètre augmente. Entre le « marché
pur » et la « hiérarchie pure », il existe de nombreux arrangements plus ou
moins institutionnels entre des firmes qui restent juridiquement
indépendantes de sorte que ce modèle rend compte du caractère évolutif de la
frontière de la firme. Ces « arrangements » permettent d’articuler le temps
court (les relations de marché) avec le temps long (les relations au sein d’une
organisation) du capitalisme.
******ebook converter DEMO Watermarks*******
Malgré son indéniable portée heuristique, le modèle de Williamson
s’appuie cependant sur une hypothèse forte qu’il convient de discuter. En
présence d’asymétries informationnelles, il considère que l’intégration par la
firme est rationnelle dans la mesure où elle conduit nécessairement à
l’efficience. Or, de nombreux travaux ont mis en évidence le fait que le
recours à la hiérarchie ne supprime pas mécaniquement les comportements
opportunistes tandis que d’autres montrent qu’il existe sur certains marchés
des relations de pouvoir entre les cocontractants. Si la frontière de la firme
entre l’organisation et le marché est difficile à cerner, c’est aussi parce que la
première comme le second peuvent s’analyser conjointement en termes
d’incitations et de contraintes. À ce titre, le modèle de gouvernance de la
firme qualifié de stakeholder (parties prenantes) renouvelle l’analyse de cette
frontière. Il s’agit d’étudier les relations de pouvoir au sein des firmes du
point de vue de leur efficacité économique. Les parties prenantes représentent
l’ensemble des agents affectés directement ou indirectement par l’activité de
la firme (salariés, créanciers, fournisseurs, clients, concurrents, actionnaires,
associations de consommateurs, pouvoirs publics, etc.). Il s’agit donc
d’individus, de groupes d’individus ou d’institutions qui sont soit
juridiquement liés à l’organisation (par exemple par un contrat de travail ou
un contrat commercial), soit sans lien juridique avec elle mais qui peuvent
influencer ou être influencés par la réalisation des objectifs de cette
organisation. Ainsi, ces parties prenantes disposent de créances (stakes)
envers cette organisation. Le modèle montre que l’efficacité de la
gouvernance de la firme dépend de la capacité de celle-ci à faire coïncider ses
objectifs propres (comme la création de valeur mais aussi le prestige de la
firme ainsi que sa légitimité vis-à-vis de son environnement) avec, d’une part,
ceux des parties prenantes et, d’autre part, l’intérêt général. Or, puisque les
intérêts de chaque partie prenante ne convergent pas spontanément avec ceux
de l’organisation, il est rationnel que les unes comme l’autre mettent en
œuvre des dispositifs d’incitations et de contrainte afin de faire évoluer la
situation dans un sens qui leur soit favorable.
L’évolution du contexte économique mondial depuis une décennie, sur
fond de l’après-crise de 2008, de hausse des inégalités mais aussi de montée
en force des enjeux environnementaux et climatiques, conduit à reconsidérer
le périmètre de la firme et donc la question de sa « responsabilité ». Dans des
travaux récents, S. Bommier et C. Renouard (L’entreprise comme
commun, 2018) montrent que le modèle de la responsabilité sociale de
******ebook converter DEMO Watermarks*******
l’entreprise (RSE) a fait long feu en ce sens qu’il s’agit surtout d’un discours
de justification sans effet économiques et sociaux tangibles. Bommier et
Renouard montrent que la firme est de fait un acteur politique à part entière
dont le périmètre est nécessairement large : sur le plan interne, pour les
parties prenantes qui sont liées directement à la logique hiérarchique
(salariés, managers et actionnaires), la firme est une arène où diverses
conceptions de la justice se confrontent (partage salaires/profits, pluralité des
cultures et des cadres institutionnels s’agissant des firmes multinationales et
de leurs filiales, enjeu de la présence de droit des salariés dans les conseils
d’administration, etc.) ; sur le plan externe, elle est un acteur qui a un impact
sur les choix de fiscalité des États, sur les politiques environnementales, sur
la nature des relations avec les fournisseurs, sur le développement des
territoires et les bassins d’emploi dans lesquels elle investit. Tout cela conduit
à reconsidérer la question de la frontière de la firme : peut-on affirmer par
exemple que les États sont extérieurs aux firmes quand on pense aux
institutions financières qui ont été sauvées de la faillite en 2007-2008 ? Que
dire des agriculteurs européens dont une grande partie des revenus provient
des aides de la politique agricole commune ou encore des entreprises de
l’agroalimentaire et de la grande distribution commerciale face aux
réglementations sanitaires ? À ce titre, on peut dire que la firme « appartient »
à une multitude d’agents ou d’institutions qui détiennent sur elle des droits de
propriété variés.
Dans la lignée des travaux d’E. Ostrom, Bommier et Renouard proposent
de considérer l’entreprise comme un commun, c’est-à-dire une richesse qui se
définit à partir d’un choix éthique et politique du fait que son existence, son
entretien et sa reproduction sont nécessaires à l’exercice des droits
fondamentaux et au libre développement des personnes dans une société.
Bommier et Renouard rappellent à ce titre que si une entreprise appartient
bien à ses propriétaires (parfois des actionnaires), il s’agit d’une propriété qui
porte sur les parts de la société commerciale, seule définie par le droit, et que
la firme est une institution qui n’est pas réductible à cela. Les droits de
propriété autour desquels elle s’articule sont nombreux et la gouvernance des
économies gagnera en efficacité et en légitimité en considérant la firme
comme un commun : droit d’accès à certains actifs (comme les travailleurs
par exemple), droit de retrait (fermeture de sites industriels et revente de
filiales par les FMN par exemple), droit de gestion (qui décide au sein de la
firme ? Quelle place pour les salariés dans la gouvernance de la firme ?),
******ebook converter DEMO Watermarks*******
droit d’exclusion (comme le droit des riverains d’un territoire à rejeter un
projet d’installation de firme par exemple) et enfin le droit d’aliénation par
lequel les États peuvent préempter la vente d’actifs de firmes à des
investisseurs non-résidents ou encore des oppositions fondées juridiquement
à des décisions de délocalisation en vertu de la défense d’un tissu
économique sur un territoire.
C’est sur cette base par exemple que la loi sur l’économie sociale et
solidaire adoptée en France en 2014 contraint les dirigeants des firmes à
informer les salariés et à rechercher un repreneur lors d’un projet de
délocalisation ou de restructuration.

Conclusion
À la question « Peut-on parler de frontières de la firme ? », la littérature
scientifique propose une réponse affirmative. Le débat porte sur la distance
qui sépare le cœur de cette organisation productive de sa périphérie, c’est-à-
dire du périmètre au-delà duquel le mode de coordination des activités
économiques repose principalement sur d’autres bases que l’idéal-type de la
hiérarchie. Si, pour les uns, la firme reste une alternative au marché tandis
que pour d’autres, il existe une différence de degré plus que de nature entre
ces deux modes de coordination, il semble aujourd’hui acquis que le
périmètre de la firme doit être pensé à distance de son centre pour permettre
une gouvernance à la fois juste et efficace. L’enjeu porte sur la qualité du
cadre institutionnel : dans le contexte actuel de tension accrue sur le plan
climatique et environnemental, mais aussi sur celui de la démocratie et de la
souveraineté des politiques économiques (pensons à la concurrence fiscale
entre les États sur fond de lobbying des FMN), comment conduire les firmes
à une forme de gouvernance coopérative tournée vers l’intérêt commun ?
Ostrom proposait de répondre à partir du concept de gouvernance
multiniveau (gouvernance intraterritoriale, politique économique des États,
instances internationales, mobilisations citoyennes et ONG) articulé avec des
dispositifs institutionnels fondés sur des mécanismes de contrainte et
d’incitation qu’il reste à inventer. Bommier et Renouard concluent ainsi leur
ouvrage :
« La question d’une politique économique responsable devient centrale et la
puissance économique des entreprises doit être réorientée vers le bien commun. Là
où les États sont défaillants, les mobilisations citoyennes peuvent-elles faire front et
amener les entreprises à assumer leur responsabilité pour favoriser l’émancipation

******ebook converter DEMO Watermarks*******


des individus et la protection des biens communs afin de réaliser l’idéal universaliste
promu par la Déclaration ​universelle des droits de l’homme des Nations unies ? »

******ebook converter DEMO Watermarks*******


Sujet 2 Le progrès technique
nuit-il à l’emploi ?

1 Se préparer à la rédaction

1.1 L’enjeu du sujet


Il s’agit d’un sujet classique de la science économique. Pour autant, il faut
être attentif au fait que le débat sur cette question est marqué par des
développements récents sur fond de poussée technologique (robotisation des
systèmes productifs, révolution de l’intelligence artificielle, etc.). Il faut par
conséquent veiller à donner à la copie une profondeur historique nécessaire
(la critique du progrès technique dans le débat public est aussi ancienne que
l’industrialisation) mais aussi à accorder une certaine importance aux
analyses récentes liées à la dynamique de l’emploi. Par ailleurs, comme
souvent, il s’agit d’un sujet qui renvoie pour partie à des enjeux politiques (et
souvent à des interprétations doctrinales) et pour partie à des enjeux
scientifiques.
Sur cette question peut-être plus que sur d’autres, la science économique
produit une analyse qui s’inscrit en faux par rapport à des discours
communément répandus selon lesquels les avancées techniques sont
préjudiciables à l’emploi. Un des enjeux du sujet sera de faire apparaître
explicitement cette rupture entre le savoir économique et les discours
politiques.

1.2 Le cadrage et les concepts clés


Sur le plan historique, il semble nécessaire d’inscrire le sujet dans le temps
long, sans doute à partir de l’ouverture de la phase de croissance économique
au début du XIXe siècle. Même si les enjeux contemporains sont centraux, le
******ebook converter DEMO Watermarks*******
recul de l’histoire donne des arguments robustes sur cette question pour éviter
les idées reçues. Sur le plan géographique, l’analyse sera logiquement centrée
sur les pays développés à économie de marché et, dans une moindre mesure,
sur la place des pays émergents dans le processus de mondialisation actuel.
Le concept de progrès technique fait l’objet d’une définition ancienne en
économie. Le plus simple est sans doute de prendre le concept de manière
large et, en tous les cas, de ne pas le réduire au concept d’innovation de
produit au sens de J. A. Schumpeter (le progrès technique peut aussi porter
sur les procédés industriels ou la structuration des marchés par exemple).
Enfin, il convient d’accorder une importance au concept d’emploi notamment
en évitant une confusion avec le terme plus large de « travail ». Il s’agit ici de
considérer le travail rémunéré qui s’inscrit dans un dispositif institutionnel.

1.3 La construction de la problématique


On pourra suivre une démarche en deux temps :
1) Sur le plan conjoncturel, le processus de destruction créatrice peut
conduire à des disparitions de certains emplois. Durant les phases
d’accélération des mutations technologiques, certaines catégories
d’emplois sont négativement affectées. Toutefois, sur la longue période,
la dynamique du progrès technique transforme les structures productives
des économies et s’accompagnent de créations d’emplois (I).
2) Dans les économies de la seconde mondialisation, le progrès technique
pèse sur la structure des emplois dans un contexte de faible croissance : il
conduit à une polarisation du marché du travail et à une intensification de
la concurrence entre les territoires. Ce phénomène n’affecte pas le
volume global de l’emploi mais en revanche, il affecte la structure des
emplois et leur qualité. Ce processus implique la mise en œuvre de
politiques structurelles visant à dédommager les « perdants » d’une part
et à stimuler le progrès technique tout en améliorant la qualification des
emplois d’autre part (II).

2 Rédiger le devoir : une proposition

Introduction
En 2013, une étude frappante menée par deux chercheurs de la Oxford Martin
******ebook converter DEMO Watermarks*******
School, C. B. Frey et B. M. Osborne, estime que 47 % des emplois aux États-
Unis « présentent de grands risques de devenir automatisables », ce qui a été
traduit par l’idée que ces emplois pourraient être massivement détruits et
remplacés par des « robots ». Depuis, de nombreuses autres estimations ont
été proposées comme en 2018 lorsque l’OCDE avance que 14 % des emplois
de ses pays membres pourraient être remplacés par du capital dans les
décennies à venir avec notamment la population des jeunes actifs qui pourrait
être particulièrement touchée par l’automatisation. Ces données, comme on le
voit très disparates, sont bien entendu à prendre avec beaucoup de prudence
mais elles révèlent toutefois l’état d’inquiétude qui traverse le débat public.
Récemment par exemple, l’ingénieur californien spécialiste des nouvelles
technologies Marc Andreessen indiquait pour sa part dans la presse que l’idée
selon laquelle les robots vont voler nos emplois est totalement fausse. Il
semble donc légitime que la science économique s’empare de cette question
et se demande quel crédit accorder à cette thèse qui considère que dans le
contexte d’économie mondialisée qui est le nôtre et dans lequel les nouvelles
technologies occupent une place prépondérante, les robots et l’intelligence
artificielle vont soudainement remplacer le travail humain.
En économie, le progrès technique se définit comme l’ensemble des
bouleversements qui affectent le système productif, tant en ce qui concerne
les biens et services produits que les procédés de production, l’organisation
du travail ou encore les structures de marchés. Il est généralement considéré
comme un troisième facteur de production, à côté du capital et du travail. Ces
bouleversements ont comme effet principal de produire plus de richesses
avec le même volume de facteur capital et de facteur travail. Le concept
d’emploi pour sa part peut se définir comme la fraction du travail qui fait
l’objet d’une rémunération et qui s’inscrit dans un cadre social et juridique.
Pour D. Gambier et M. Vernières par exemple, « l’emploi est la combinaison
des éléments sociaux et juridiques qui institutionnalise la participation des
individus à la production de biens et services socialement valorisés ».
La question des effets du progrès technique sur les emplois d’une
économie nationale ou d’un bassin territorial est discutée dans le débat public
depuis les origines de l’industrialisation. Pour autant, la science économique
produit une analyse robuste, appuyée sur une mise en perspective probante,
quant aux effets du progrès technique sur les emplois. Celle-ci montre que, si
sur le plan conjoncturel les bouleversements technologiques conduisent
souvent à des destructions de certaines catégories d’emplois, sur le long
******ebook converter DEMO Watermarks*******
terme historique en revanche, c’est au contraire la dynamique du progrès
technique qui, via la croissance économique qu’elle rend possible, est
créatrice d’emplois nouveaux qui sont affectées aux générations successives
d’actifs sur le marché du travail. Pour autant, depuis l’entrée dans la seconde
mondialisation à partir des années 1970, il est incontestable que le progrès
technique pèse sur la structure des emplois dans un contexte de faible
croissance au sein des pays développés à économie de marché (PDEM). Si ce
phénomène n’affecte pas le volume global de l’emploi, il conduit à une
polarisation du marché du travail et intensifie la concurrence, d’une part,
entre les territoires et, d’autre part, au sein des territoires entre les niveaux de
qualification. Cela pose la question de la légitimité et de l’efficacité des
politiques structurelles qui ont vocation à limiter les pertes que subissent les
agents victimes de ce processus mais aussi à stimuler le progrès technique
tout en améliorant l’appariement entre la structure des emplois offerts par les
entreprises et la structure des qualifications de celles et ceux qui recherchent
un emploi.
Dans une première partie, il s’agira de montrer que les effets quantitatifs
du progrès technique sur l’emploi sont différents à court et à long terme : à
court terme, le mécanisme de la destruction créatrice conduit à la disparition
de certains emplois ; à long terme, le progrès technique est, via la croissance,
un des facteurs prépondérants de la création d’emplois (I). Pour autant,
depuis l’entrée dans la seconde mondialisation, la dynamique du progrès
technique intensifie la compétition entre les territoires et pèse sur la structure
des emplois : les marchés du travail se polarisent, ce qui rend nécessaire la
mise en œuvre de politiques structurelles adaptées (II).

I. Les effets du progrès technique sur le volume des emplois


Le mécanisme de la destruction créatrice proposée par J. A. Schumpeter
conduit à l’idée que le progrès technique est initialement destructeur
d’emplois. Il importe toutefois de ne pas surinterpréter cet effet à court
terme : ce sont certaines catégories d’emplois qui disparaissent (A). Sur la
longue période, il existe une relation positive robuste entre la dynamique du
progrès technique et la création d’emplois (B).

A. Destruction créatrice et destructions d’emploi : un faux débat ?


Dans son ouvrage La formation de la classe ouvrière anglaise (1963),
l’historien E. Thompson relate le mouvement social qui a lieu au tout début
******ebook converter DEMO Watermarks*******
du XIXe siècle en Angleterre et qui conduit à un des premiers conflits
industriels. Ce mouvement qualifié de luddisme en référence à la figure d’un
personnage mythique – John Ludd – qui aurait inspiré les ouvriers artisans,
est caractérisé par la contestation menée par ces ouvriers artisans du secteur
de la laine et du coton contre les manufacturiers qui investissent dans les
machines à tisser dans le sud de l’Angleterre à partir des années 1810. Les
luddistes sont ainsi devenus les premiers « briseurs de machines » de
l’histoire industrielle. Aujourd’hui, l’expression subsiste pour qualifier les
acteurs qui s’opposent aux nouvelles technologies (néoluddisme). Cette
crainte du progrès technique destructeur d’emplois accompagne le processus
de croissance dans lequel s’engagent les pays industrialisés.
En 1980, dans La machine et le chômage, A. Sauvy montre que le progrès
technique s’inscrit dans un mécanisme de déversement qui conduit
notamment à des suppressions d’emplois dans certains secteurs d’activités. Il
s’appuie pour cela sur l’exemple des porteurs d’eau qui sont très nombreux à
Paris au tout début du XXe siècle. Le progrès technique rend possible à cette
époque la mise en place d’un réseau de canalisation qui détruit
progressivement les emplois de porteurs d’eau (un volume d’emplois que
Sauvy estime à 20 000 pour la seule capitale française vers 1900). Dans les
années 1930, J. M. Keynes relaie lui-même cette crainte des destructions
d’emplois en considérant qu’il est possible de répercuter sur la baisse du
temps de travail plutôt que sur le chômage cet effet du progrès technique. Il
indique à cette époque que dans un siècle (donc aujourd’hui) la semaine de
15 heures de travail devrait suffire à produire les richesses nécessaires à
l’homme et ajoute qu’il songe « avec terreur » au réajustement des habitudes
que cela impliquera.
Pour autant, de nombreux travaux insistent sur l’effet de transfert que le
progrès technique a sur le volume de l’emploi, y compris sur le court terme.
Le mécanisme du déversement proposé par Sauvy indique justement que les
suppressions d’emplois dans certains secteurs sont compensées par des
créations d’emplois dans d’autres secteurs. Ce processus est bien entendu
rendu possible parce qu’il s’inscrit dans le temps et que, sur le long terme, le
déversement dépend du rythme des gains de productivité, de la croissance
économique et de la dynamique de la demande. Toutefois, même sur la
courte période, l’effet de compensation existe. Sauvy indique par exemple
que des emplois nouveaux sont requis pour produire les nouveaux biens de
production (la ville de Paris a dû investir massivement pour la mise en œuvre
******ebook converter DEMO Watermarks*******
du réseau de canalisations) mais aussi que des effets d’entraînement existent
sur le volume de la demande (la hausse de la consommation d’eau) qui
suscite, de proche en proche, des nouvelles créations d’emplois. Cet
argument peut être rapproché de l’idée de destruction créatrice que l’on doit à
J. A. Schumpeter. Dans Capitalisme, socialisme et démocratie (1942),
l’économiste autrichien montre que le capitalisme est caractérisé par un
processus qui « révolutionne incessamment de l’intérieur la structure
économique en détruisant continuellement ses éléments vieillis et en créant
continuellement des éléments neufs ». Cette mise en déséquilibre, inhérente
au capitalisme selon Schumpeter, est liée à la dynamique des innovations via
le rôle clé des entrepreneurs, ce qui conduit à l’attribution de monopoles
temporaires. La concurrence est ici perçue comme un processus qui ne porte
pas seulement sur les prix mais également sur les technologies utilisées, les
caractéristiques des produits, etc. Les innovations qui occupent une place
centrale dans l’analyse de Schumpeter ont ainsi un effet direct sur la nature
des emplois. On retrouve l’idée que la « conservation » des emplois existants,
à partir d’arguments de nature sociale (« préserver l’emploi ») ne résiste pas à
l’examen.
Aujourd’hui, de nombreux observateurs font même remarquer que l’on
peut associer la disparition de certains emplois à l’idée d’une forme de
progrès social dans la mesure où les actifs concernés ne sont bien entendus
pas acculés au chômage. Dans Travailler au XXIe siècle par exemple,
J. Barthélémy et G. Cette font référence au poinçonneur des Lilas de Serge
Gainsbourg et indiquent que ces professions obsolètes sont peu gratifiantes et
que leur disparition participe de l’amélioration des conditions de travail. Cet
argument peut être repris pour de nombreux exemples qui marquent
l’actualité et qui portent sur des emplois à faible niveau de qualification
(songeons par exemple aux caissiers des grandes surfaces commerciales face
à la généralisation des systèmes de paiements en caisses automatiques).

B. À long terme, le progrès technique crée des emplois


Cet effet de transfert de certains emplois détruits vers de nouveaux emplois
créés doit toutefois être discuté et surtout mis en perspective historique
longue. Sur le plan macroéconomique, le processus de croissance qui
s’intensifie au début du XXe siècle en Europe et aux États-Unis entretient des
relations complexes entre la dynamique du progrès technique (qui affecte la
productivité globale des facteurs – PGF), la durée du travail et le volume de
******ebook converter DEMO Watermarks*******
emplois. Bien entendu, dans une économie dépourvue de progrès technique
(et donc sans gains de productivité), la production de richesses
supplémentaires implique une hausse de la population active en emploi et
donc mécaniquement des créations d’emplois.
Dans l’hypothèse d’un progrès technique soutenu (comme c’est le cas à
partir du début du XXe siècle et l’entrée dans la phase de croissance
intensive), l’effet sur le volume de l’emploi total peut être variable et dépend
fortement du rythme de la croissance. Dans ses travaux, A. Maddison
(L’économie mondiale, une perspective millénaire, 2001) montre qu’à partir
de 1913 l’emploi total a augmenté dans tous les pays industrialisés même si
c’est à un rythme plus faible en France et en Europe comparativement à ce
qui se produit aux États-Unis et au Japon. Ce phénomène résulte d’évolutions
démographiques et de choix politiques différents selon ces territoires alors
que la dynamique du progrès technique a été partout soutenue. En effet,
l’évolution sur le long terme du nombre total d’heures travaillées par an dans
une économie pour un niveau donné de la technologie résulte du produit entre
le volume des emplois et le nombre d’heures travaillées par actif en emploi.
Le résultat de ce produit est modifié en cas de hausse de la PGF et de la
croissance économique. Cela donne ce que l’on nomme la relation de
Fourastié selon laquelle l’emploi total découle du rapport entre le PIB et la
PGF. En Europe, le choix a été fait d’affecter, pour une part significative, les
gains de productivité sur la réduction de la durée du travail en parallèle de la
hausse du volume des emplois.
Par exemple, selon Maddison, en France l’emploi total a progressé de
plus de 17 % durant le XXe siècle pour une productivité horaire du travail qui
a été multipliée par plus de 10 (avec une baisse du nombre d’heures
travaillées de près d’un tiers sur le siècle). Aux États-Unis, l’emploi total a
été multiplié par près de 2,5 sur la même période tandis que la productivité
horaire du travail a été multipliée par près de 5,8. Par opposition, les pays qui
sont entrés tardivement en croissance (pays du sud et du centre de l’Europe
par exemple) et qui ont connu un rythme sensiblement plus faible de progrès
technique ont généré sur le long terme des créations d’emplois en nombre
plus faible. Au niveau macroéconomique et sur la longue période, il est ainsi
manifeste que les économies en forte croissance intensive et donc qui
génèrent un rythme soutenu de progrès technique sont aussi celles qui ont
créé et créent le plus d’emplois.
Sur le plan structurel, il faut toutefois préciser que la nature des emplois
******ebook converter DEMO Watermarks*******
créés se transforme et qu’il existe une interaction entre la dynamique de ces
emplois, celle du progrès technique et la croissance. On retrouve ici l’analyse
en termes de déversement proposée par A. Sauvy. Ainsi, en Europe et en
particulier jusqu’au début des années 1960, la croissance conduit à un
déversement des emplois agricoles vers l’industrie, ce qui s’accompagne d’un
bouleversement des structures économiques et des structures sociales
(montée de la classe ouvrière notamment). À partir des années 1970 une
littérature abondante en économie, pensons notamment à D. Bell (Vers la
société post-industrielle, 1973), fait état du déversement des emplois vers les
activités de services qui sont, à cette époque en particulier, porteuses de
faibles gains de productivité. À la suite des travaux de W. Baumol par
exemple, on montre que les secteurs des services, les moins productifs,
tendent à absorber la main d’œuvre surtout si les salaires progressent au
même rythme que dans l’industrie (loi de Baumol dite loi de « fatalité des
coûts »), ce qui, à terme, conduit au ralentissement de la croissance
économique. La fin de la croissante fordiste durant les années 1970 est ainsi
marquée par un ralentissement de la PGF et, dans le même temps, par une
rupture dans la dynamique des emplois. Même si la forte poussée du
chômage à partir de la décennie 1970 notamment en Europe n’est pas
réductible à la question du progrès technique (stagflation, montée de la
contrainte extérieure, inefficacité croissante des politiques économiques), il
apparaît qu’avec le début de la période de la seconde mondialisation c’est
bien le ralentissement de la croissance et avec lui, celui de la PGF qui
explique la faible dynamique de l’emploi et non l’inverse.
Les PDEM sont ainsi caractérisés par un processus permanent de
création/destruction d’emplois sous les effets du progrès technique. Ce
processus affecte la structure des emplois en particulier sur le long terme
mais l’analyse économique conclut qu’il n’est pas possible d’affirmer qu’en
volume les emplois détruits par le progrès technique sont plus nombreux que
ceux qui sont créés. Pour autant, de nombreux observateurs font remarquer
que, dans la situation de l’économie mondiale actuelle, « cette fois-ci c’est
différent ». On connaît par exemple la formule de R. Gordon selon laquelle
personne ne peut prétendre que les effets de Facebook sur la croissance et sur
l’emploi peuvent être comparables à ceux de l’électricité ou du moteur à
combustion, ou encore que Kodak n’a pas été remplacé par Instagram.
Comment rendre compte de cette relation entre progrès technique et emploi
dans les économies actuelles de la seconde mondialisation ? Le savoir
******ebook converter DEMO Watermarks*******
économique établi de longue date sur cette question doit-il être reconsidéré ?

II. Seconde mondialisation : les effets contrastés du progrès


technique sur la structure des emplois
La question, aujourd’hui très anxiogène, des robots qui détruisent l’emploi,
doit être considérée avec sérieux et l’analyse économique ne peut s’en tenir à
l’argument du « bilan globalement positif » de la PGF sur le volume des
emplois. Il est manifeste que la dynamique du progrès technique a
aujourd’hui des effets macroéconomiques contrastés non pas sur le niveau
des emplois mais plutôt sur leur nature en conduisant à une forte polarisation
des marchés du travail et à un creusement des inégalités entre les salariés et
entre les territoires (A). Pour autant, il n’existe sur cette question aucune
fatalité (et certainement pas de fatalité technologique) et ces bouleversements
à l’œuvre dans les PDEM soulèvent de nouveaux enjeux politiques
notamment sur le plan des politiques structurelles à mettre en place (B).

A. Progrès technique et polarisation des marchés du travail


Il faut en premier lieu préciser que les effets du progrès technique sur la
structure des emplois rendent souvent difficiles les mutations
professionnelles au niveau individuel. Pour le dire schématiquement, les
emplois d’ouvriers détruits dans le secteur industriel à partir des années 1980
sont, certes, au moins en partie compensés par des emplois créés dans
l’ingénierie ou les nouvelles technologies, mais ce sont des emplois qui sont
occupés par d’autres salariés. Ainsi, une partie significative du chômage
structurel qui caractérise aujourd’hui les économies européennes et en
particulier la France (autour de 7 % des actifs sont en situation de chômage
structurel selon les mesures de l’OCDE) découle des restructurations
productives qui ont été à l’œuvre depuis plusieurs décennies et qui placent
une part importante de la population active dans une impasse, faute de
reconversion professionnelle compatible avec les qualifications dont elle
dispose.
Toutefois et contrairement à une idée reçue forte, il apparaît que les
nouvelles technologies ont peu d’effet sur la destruction des emplois à faible
niveau de qualification (comme par exemple les emplois de services du type
« aide à la personne » ou livraison à domicile). En revanche, les emplois à
niveau de qualification intermédiaire semblent plus menacés en particulier
dans les activités de services : emplois qui portent sur les tâches routinières
******ebook converter DEMO Watermarks*******
telles que le secrétariat, la comptabilité, les gestions de stocks, etc. Dans ces
domaines, les nouvelles technologies proposent des programmes
d’intelligence artificielle particulièrement productifs qui permettent, à
moindre coût, une production équivalente. Une étude récente de
l’OCDE (2018) indique notamment que ce sont les jeunes actifs qui
constituent la tranche d’âge la plus menacée par cette nouvelle forme de
progrès technique. L’argument principal n’est pas dû au fait que les jeunes
actifs combinent leurs études avec des « petits boulots » (Deliveroo et autres
Uber) mais davantage au fait qu’ils entrent sur le marché du travail en
occupant tout d’abord des postes de niveau de qualification intermédiaire
qualifiés de « juniors » qui ont justement cette caractéristique routinière. Ces
emplois remplissent une fonction de « tremplin » alors que le niveau de
qualification des jeunes actifs est supérieur à celui requis pour le poste qu’ils
occupent et qu’ils sont par la suite appelés à progresser vers des postes à
responsabilité plus importante, mieux en accord avec leurs qualifications.
Avec la poussée du progrès technique, ce processus risque d’être mis à mal.
Or, sur le plan factuel, le recours à la robotique s’accélère
incontestablement au sein des PDEM et des pays émergents. Selon la
Fédération internationale de la robotique (IFR), le stock mondial de robots
industriels a doublé au cours de dix dernières années, ce qui porte leur
nombre à plus de 2,6 millions dans le monde en 2019. Pour autant, leur
impact sur les emplois dépend, au-delà du niveau de qualification, des
secteurs économiques concernés (le rapport de l’OCDE indique que les
métiers de l’agriculture, de l’agro-alimentaire et de l’industrie manufacturière
sont plus « à risques » toute chose égale par ailleurs que ceux des services) et
surtout des spécialisations productives des territoires. Par exemple, au sein de
l’OCDE pour une moyenne de 9 % des emplois « automatisables » (ce qui ne
signifie pas forcément appelés à être détruits et remplacés par des robots),
seulement 6 % le sont dans les pays scandinaves contre 33 % en Slovaquie
(la France se situant dans la moyenne de l’OCDE selon le rapport).
Ce processus a un effet massif sur l’évolution des marchés du travail : les
emplois créés ont tendance à se polariser aux deux extrémités du spectre des
niveaux de qualifications (on parle de polarisation des marchés du travail). Le
progrès technologique stimule la création d’emplois à très forte valeur ajoutée
et à niveau de qualification élevée, emplois qui sont créés en nombre
toutefois relativement restreint. Puis, de l’autre côté du spectre, les systèmes
productifs notamment dans les anciens PDEM sont incités à créer des
******ebook converter DEMO Watermarks*******
emplois à très faible niveau de qualification, notamment dans les services,
secteur qui est peu touché par le risque d’automatisation.
Ce dernier phénomène conduit à ce qui a été appelé dans le débat public
« l’ubérisation de l’économie », c’est-à-dire la montée en puissance de
l’emploi indépendant, moins protégé, comme conséquence des
bouleversements structurels observés aujourd’hui. S’il est manifeste que ce
processus de polarisation est à l’œuvre avec notamment pour effet un
creusement important des inégalités salariales depuis plusieurs décennies, de
nombreux travaux visent toutefois à remettre en cause cette thématique de
l’ubérisation. Pour P. Artus et M.-P. Virard par exemple (Et si les salariés se
révoltaient ? 2018), si sur le plan macroéconomique on ne peut plus parler
d’un « grand déversement » à la Sauvy, rien ne permet pour autant de dire
qu’il y a une remise en cause de la place du salariat au sein des PDEM. De
manière analogue, J. Barthélémy et G. Cette (2017) montrent que la part des
emplois non salariés dans l’emploi total se contracte presque continument
dans les PDEM depuis plus de vingt ans. En France par exemple, cette part
reste inférieure à 12 % des emplois après avoir atteint un pic au début des
années 2000. Ces auteurs font remarquer que ce travail non salarié se
transforme toutefois : en plus des activités à faible niveau de qualification, il
concerne aussi l’autre côté du spectre des métiers qui impliquent une grande
autonomie dans le travail (conseil et audit par exemple). De ce point de vue,
les nouvelles technologies et l’économie numérique facilitent l’activité de ces
travailleurs à haut niveau de qualification.
Enfin, il faut aussi prendre en considération les effets du progrès
technique sur la nature des emplois en le reliant avec le processus de
multinationalisation des firmes. Dans son ouvrage, La société hyper-
industrielle (2017), P. Veltz rappelle que les emplois peuvent être examinés
du point de vue de leur position dans les chaînes de valeurs mondiales et que
la structure des firmes intégrées a cédé la place, dans la période actuelle de
mondialisation, à celle des firmes filialisées qui sont insérées dans des
réseaux transnationaux. Jusqu’aux années 1980, c’est l’activité de production
industrielle qui constitue le maillon stratégique de la chaine de valeur tandis
que la conception en amont et la distribution en aval apparaissent comme
périphériques (la production industrielle constitue le cœur de « l’avantage
concurrentiel » des firmes selon l’expression de M. Porter). Avec la
mondialisation productive, on assiste à une montée en puissance de l’amont
(activités de R&D, de design, de conception des produits) et de l’aval
******ebook converter DEMO Watermarks*******
(distribution, plateformes logistiques, service après-vente, etc.). Ces
évolutions productives accentuent le phénomène de polarisation du marché
du travail.
Dans ce processus, le progrès technique occupe une place centrale : il
contribue à creuser la « courbe du sourire » qui, selon la proposition de
l’ingénieur coréen Stan Shih, corrèle le niveau de valeur ajoutée dans le
processus de production avec la distribution de la chaîne de valeur. Dans
l’économie mondiale actuelle, les firmes multinationales tendent à concentrer
les créations d’emplois à forte valeur ajoutée en amont et en aval des chaînes
de valeur tandis que les emplois à faible valeur ajoutée ont tendance à se
situer vers leur centre. Ce mécanisme peut être relié avec celui de la mise en
compétition des territoires et la concurrence accrue entre les salariés nomades
des PDEM et des émergents d’un côté, et les salariés sédentaires des PDEM
et des émergents de l’autre (modèle de P.-N. Giraud). En fin de compte, la
question des effets du progrès technique sur l’emploi s’articule avec celle des
effets de la mondialisation sur l’emploi : avec la polarisation des marchés du
travail, la concurrence s’intensifie entre les travailleurs des pays émergents et
des PDEM.

B. Les politiques de l’emploi face au défi du progrès technique


Face à cette question des robots et de l’emploi, il importe de préciser que les
PDEM comme les émergents sont placés face à des choix de politiques
économiques et qu’il ne saurait être question d’une quelconque fatalité
technologique. En tout état de cause, la plupart des travaux sérieux sur cette
question relativisent fortement les effets de volume de cette poussée du
progrès technique sur l’emploi. F. Bourguignon, par exemple, rappelle
en 2018 que la robotisation a deux effets contradictoires sur l’emploi et que
leur identification est de nature à donner des clés pour orienter les choix de
politique économique. D’une part, elle supprime des postes de travail tandis
que, d’autre part, elle accroît la PGF et conduit à un processus vertueux qui
alimente la création de nouveaux emplois via la croissance. En augmentant le
revenu généré par les entreprises innovantes, elle est à l’origine d’une
demande additionnelle qui a des effets d’entraînement sur d’autres secteurs.
Si son effet net final sur l’emploi est incertain, il est possible de peser sur
cette trajectoire notamment par le biais de politiques structurelles dédiées.
Parmi les pistes possibles, on peut identifier, en premier lieu, les politiques de
transferts de revenus à destination des actifs qui apparaissent comme les
******ebook converter DEMO Watermarks*******
perdants du changement technologique ; en deuxième lieu, les politiques qui
visent à stimuler l’innovation et à améliorer l’appariement entre le progrès
technique et la formation en capital humain ; enfin, en dernier lieu, les
politiques structurelles qui visent à stimuler la coopération entre les
territoires, condition par laquelle le sentier de croissance potentielle des pays
d’Europe en particulier pourra être redynamisé.
Un des enjeux politiques majeurs aujourd’hui porte sur la question de la
prise en charge des « perdants » du progrès technique. Dans son Rapport sur
le développement dans le Monde (2019), la Banque mondiale préconise par
exemple un renforcement des politiques de protection sociale dans les pays
qui sont les plus fortement touchés par le processus de polarisation de leur
marché du travail. Elle y indique notamment que la protection sociale avec
notamment la couverture du risque contre la perte d’emploi doit porter une
attention prioritaire aux personnes les plus démunies et pour lesquelles le
niveau de qualification (qui est faible et/ou qui tend à devenir obsolète) les
place en situation de faiblesse structurelle par rapport aux transformations qui
résultent de la mondialisation et du progrès technique. En Europe
aujourd’hui, dans un contexte marqué par la montée des populismes et de
défiance à l’égard des élites politiques, il est manifeste que les politiques
publiques ne sont pas perçues comme sécurisantes face aux risques croissants
qui sont supportés par les salariés. Selon la formule de P. Artus et M.-
P. Virard, « les salariés partagent les risques, mais pas les profits ». En
France en particulier, la « peur des robots » est une composante d’un malaise
économique dont personne ne semble douter face à des politiques sociales qui
paraissent bien dérisoires au regard des risques supportés par les travailleurs.
Si les politiques de transfert de revenu apparaissent comme légitimes et
nécessaires dans un but de répartition plus équitable des risques, celles-ci se
limitent à compenser les effets dommageables des mutations économiques.
Or, les politiques structurelles ont aussi vocation à anticiper ces mutations et
à peser favorablement sur un appariement plus efficace entre les besoins en
emplois des systèmes productifs et la formation de la main d’œuvre présente
et future. Dans son rapport de 2019, la Banque mondiale préconise également
un renforcement de l’investissement dans le capital humain pour mieux faire
face aux évolutions que connaît le travail. Or, depuis l’entrée dans la seconde
mondialisation, la politique industrielle a reculé notamment en Europe au
profit d’une conception visant à privilégier la régulation par le marché
(prédominance par exemple de la politique de la concurrence) en s’appuyant
******ebook converter DEMO Watermarks*******
au mieux sur des mesures incitatives afin de favoriser les externalités
positives. L’objectif était de créer un contexte propice à l’innovation des
firmes, à la R&D, etc. Depuis les années 1990 toutefois, avec l’essor du
secteur des nouvelles technologies mais aussi l’apport des travaux en
nouvelle économie géographique (P. Krugman, Geography and Trade, 1991),
la politique industrielle et, indirectement, de l’emploi a rebondi avec la
thématique des pôles de compétitivité dont l’objectif est de stimuler les
rendements d’échelle externes des firmes qui sont incitées à l’agglomération
sur des territoires dédiés en raison du fait qu’elles y trouvent des ressources
essentielles (bassin d’emploi avec qualification sectorielle, réseaux de sous-
traitants spécialisés, infrastructures de transports et plateformes logistiques,
etc.). Dans ces contextes d’économie marshalliennes, les relations vertueuses
entre progrès technique, croissance et emploi sont soutenues. On comprend
alors pourquoi les ingénieurs de la Silicon Valley (Marc Andreessen par
exemple) perçoivent de manière nécessairement positive l’émergence de la
robotisation !
Enfin, se pose aussi la question des politiques de coopération entre les
territoires, question qui devient particulièrement cruciale s’agissant des
relations économiques qui se tissent entre les pays de l’Union européenne.
Dans ses travaux, P. Artus insiste depuis plusieurs années sur les risques qui
pèsent sur la construction européenne dès lors que les dispositifs
institutionnels conduisent à des processus de divergences entre les systèmes
productifs des pays membres (entre le Nord et le Sud de la zone euro
notamment) sans qu’il existe de mécanismes de compensation. Sur le front de
la politique industrielle et de l’emploi, cette question se pose avec une acuité
particulière s’agissant de la localisation territoriale des FMN et de leurs
filiales. Avec l’incitation à la stratégie de concurrence fiscale et sociale à
l’œuvre au sein des pays de la zone euro, on comprend que le processus de
creusement de la courbe du sourire évoqué plus haut risque de s’accentuer
aux dépens des territoires les plus fragiles. Ainsi, et faute de choix politique
adapté, cela peut conduire à creuser la polarisation à l’œuvre sur le marché du
travail et donc d’accroître le risque du progrès technique pénalisant l’emploi.
P. Veltz (2017) fait remarquer à ce titre qu’un système d’emploi équilibré
pour un pays ne peut pas reposer uniquement sur la recherche d’emplois très
qualifiés (centres de R&D, design, ingénierie de prototype, etc.) et qu’une
coupure territoriale trop marquée entre ces centres de conception d’un côté et
des sites de production à plus faible valeur ajoutée a toutes les chances d’être
******ebook converter DEMO Watermarks*******
contreproductive pour l’économie considérée.
Ce risque était déjà identifié par D. Cohen en 2006 (Trois leçons sur la
société industrielle) lorsqu’il expliquait le mécanisme des appariements
sélectifs. Cette coupure géographique limite les processus de diffusion du
savoir et les allers-retours d’expériences nécessaires au renforcement du cœur
de métier des firmes. C’est d’ailleurs ce qui se passe au sein de la
mondialisation productive avec la tendance au resserrement des chaînes de
valeurs. Certains pays, à l’image de l’Allemagne, usent de cette stratégie
industrielle de proximité des chaînes de valeurs (compétitivité des fameuses
entreprises de taille intermédiaire du sud du pays) tandis que, comme le
rappelle S. Berger (Making in america, 2014), les États-Unis sont sans doute
en passe de la perdre. On voit que s’agissant des politiques en Europe, l’enjeu
est la mise en place de dispositifs qui incitent à la coopération entre les États
membres pour raccourcir les chaînes de valeur plutôt qu’à la concurrence
débridée entre les territoires sans quoi les firmes, par le jeu du progrès
technique, continueront de mettre les travailleurs et les emplois à l’épreuve.
Veltz rappelle, à propos de la politique industrielle française, que fixer en
France des centres de recherche est fondamental (rôle du crédit d’impôt
recherche) mais que ce serait une terrible erreur de laisser la France devenir
un pays sans fabrication, c’est-à-dire fabless.

Conclusion
En fin de compte, cette analyse a permis de montrer que les relations entre le
progrès technique et l’emploi font l’objet d’une connaissance économique
robuste et ancienne : la dynamique du progrès technique affecte
favorablement le volume de l’emploi sur le plan macroéconomique et en
longue période. À ce titre, les discours anxiogènes d’un grand remplacement
du travail humain par les robots sont sans fondement. Cependant, il est tout
aussi acquis que le progrès technique, notamment dans sa forme
contemporaine avec la robotisation, a des effets ambigus sur la structure des
emplois. Dans le contexte actuel de mondialisation avancée, le progrès
technique contribue à polariser les marchés du travail et devient facteur
d’aggravation des inégalités salariales, ce qui rend nécessaire le recours à des
politiques économiques adaptées.
S’agissant de la question des inégalités, aujourd’hui, de nombreux
travaux (E. Saez, F. Bourguignon, Th. Piketty) montrent que les dernières
décennies sont marquées par une progression significative des inégalités de
******ebook converter DEMO Watermarks*******
revenus avec notamment un creusement entre les revenus du travail (salaires)
et ceux du capital (revenus d’actifs financiers). Piketty, par exemple, indique
que la part du revenu national détenue par les 1 % les plus riches de la
population des États-Unis était de l’ordre de 10 % après impôts au début des
années 1970, elle est supérieure à 20 % au milieu des années 2010. Cela
permet de rappeler que la question de la polarisation du marché du travail ne
peut se réduire à celle des emplois mais porte aussi sur des questions de
politiques de répartition des revenus et des patrimoines.

******ebook converter DEMO Watermarks*******


Sujet 3 Le marché et la
concurrence permettent-
ils toujours une
coordination efficace des
actions des agents dans
les économies
contemporaines ?

1 Se préparer à la rédaction

1.1 L’enjeu du sujet


Le terme central du sujet est celui de coordination. On appelle
« coordination », en science économique, toute procédure qui permet de
rendre cohérentes entre elles les décisions et les actions d’agents
économiques alors même que ces décisions et actions n’ont aucune raison
d’être spontanément compatibles. Prenons quelques exemples élémentaires :
je suis artisan dans le bâtiment et j’ai besoin pour poursuivre mon chantier de
disposer d’une colle permettant de fixer des carreaux sur un mur. Il est très
probable que je vais trouver facilement le produit nécessaire dans un magasin
spécialisé dans le domaine du bricolage qui offre des produits et des
outillages très divers aux particuliers comme aux entrepreneurs. Pourtant, je

******ebook converter DEMO Watermarks*******


ne connais pas le directeur du magasin de bricolage et je n’avais pas annoncé
à l’avance mon intention d’acheter ce produit. Autre exemple, je suis invité à
dîner chez des amis et en sortant de chez moi vers 20 heures je me dis qu’il
serait convenable d’apporter une bouteille de vin. Il est très probable que je
vais trouver la bouteille souhaitée dans un supermarché qui reste ouvert une
partie de la soirée, dans une épicerie de nuit voire dans le rayon boisson
d’une station-service. Ma décision d’acheter tel ou tel produit s’est donc
trouvée en cohérence avec la décision des vendeurs de faire figurer tel ou tel
produit dans les rayonnages de leurs magasins.
De façon plus générale, la vie économique suppose la mise en cohérence
de nombreuses décisions. Si je veux boire un café à la terrasse de mon bar
préféré, il a fallu que de nombreux mois plus tôt quelqu’un plante des
caféiers à l’autre bout du monde, que le café soit ensuite récolté, trié, torréfié,
acheminé, moulu, vendu au propriétaire du bar, qui doit par ailleurs disposer
d’un percolateur, etc. Dans tous les exemples cités, la coordination est
assurée par des mécanismes de marché. Dans un contexte de concurrence,
chaque offreur (de matériel de bricolage, de vin ou de café) s’est efforcé
d’anticiper la demande de ses clients potentiels et d’être en mesure d’y
répondre. Il se fonde notamment sur les signaux que constituent les prix de
marché. Cette coordination n’est donc pas intentionnelle : chaque acheteur
s’efforce d’obtenir les biens ou services qu’il souhaite acquérir au meilleur
prix et avec la meilleure qualité ; chaque vendeur s’efforce de répondre aux
attentes de ses clients en lui proposant des prix attractifs. C’est cette
confrontation de l’offre et de la demande, dans un contexte de concurrence
qui assure la mise en cohérence des décisions des agents économiques.

1.2 Le cadrage du sujet et les concepts clés


Le sujet couvre un champ très vaste de la science économique. On peut
même sans doute considérer que des exemples tirés de l’ensemble des
domaines de la science économique peuvent être mobilisés pour traiter la
question posée. Il s’agit donc d’un avantage pour le rédacteur du devoir… à
condition qu’il mette en relation ses connaissances (même partielles) et la
question posée.
Le thème de la coordination est en effet constitutif de la science
économique. Pour A. R. Turgot, comme pour A. Smith, il s’agit de desserrer
les contraintes de la réglementation étatique et de montrer que les décisions

******ebook converter DEMO Watermarks*******


individuelles, dans un cadre de concurrence, constituent une procédure de
coordination plus efficace et plus efficiente. L’exploration de la coordination
par le marché est présente chez K. Marx, puis chez les économistes
néoclassiques et les économistes autrichiens. La macroéconomie
contemporaine s’intéresse beaucoup aux défauts de coordination. Mais la
science économique ne s’est pas limitée à l’étude de la coordination par le
marché. L’article fondateur de R. Coase (1937) met l’accent sur l’importance
de la coordination par la hiérarchie, d’autres travaux plus récents portent sur
le rôle des conventions, normes et valeurs et sur l’importance de l’État pour
répondre aux défauts de coordination.
Le marché et la concurrence sont donc bien une procédure de
coordination. Mais le sujet pose la question suivante : cette coordination par
le marché est-elle toujours efficace ? Que faut-il entendre par « coordination
efficace » ? Il s’agit d’une procédure qui parvient à mettre en cohérence les
décisions des agents économiques. Si le marché et la concurrence ne
parviennent pas à obtenir ce résultat, ils ne sont pas efficaces. On est alors en
présence de « défauts de coordination ». Le sujet demande donc d’expliquer
en quoi le marché et la concurrence constituent un mode de coordination.
Mais il faut ensuite montrer que la coordination marchande n’est pas toujours
efficace : d’une part il existe des défauts de coordination comme nous venons
de le voir, d’autre part il existe d’autres modes de coordination. Or, comme le
faisait remarquer R. Coase, s’il existe d’autres modalités de coordination que
le marché, c’est que, dans certains cas, le marché n’est pas le mode de
coordination le plus efficace.

1.3 La construction de la problématique


La compréhension de la question posée et de ses enjeux nous conduit donc
directement à la problématique qui peut, dans le cas de ce sujet, se décliner en
trois interrogations :
1) Le marché et la concurrence peuvent-ils être une forme de coordination
efficace ? (La réponse à cette question est positive).
2) Le marché et la concurrence sont-ils toujours une forme de coordination
efficace ? (La réponse à cette question est négative car il existe des
défauts de coordination et des formes de coordination alternatives au
marché).
3) Si le marché n’est pas toujours une forme de coordination efficace
******ebook converter DEMO Watermarks*******
comment répondre à cette situation ? (La réponse à cette question réside
dans la mise en place d’incitations de la part de l’État et/ou de formes
diverses de coopération de la part des agents économiques).

2 Rédiger le devoir : une proposition

Introduction
Dans les années 1920-1930, un vif débat a opposé l’économiste L. von Mises
et l’économiste O. Lange à propos des mérites comparés du plan et du
marché comme mode de coordination. Si O. Lange considérait (à la suite
notamment de V. Pareto ou d’E. Barone) qu’une économie parfaitement
concurrentielle et une économie centralement planifiée de façon rationnelle
sont des moyens équivalents de coordonner l’activité économique,
L. von Mises pensait au contraire que le calcul économique était impossible
dans une économie ne relevant pas de la propriété privée et de la concurrence.
Dans le contexte de l’époque, marqué par le rôle mondial de l’URSS et la
montée du dirigisme économique, face à des économies de marché en
difficulté (crises, chômage, désordres monétaires), l’enjeu du débat était
surtout politique. Mais fondamentalement, deux points de vue s’affrontaient :
Mises pensait que seule une coordination horizontale, s’appliquant à des
agents prenant des décisions décentralisées, était possible et souhaitable ;
Lange, en revanche, mettait en évidence l’anarchie du marché et plaidait pour
une coordination verticale permettant la mise en cohérence ex ante des
décisions économiques.
En effet, dès lors que des acteurs économiques prennent des décisions
indépendamment les uns des autres, rien ne permet d’assurer que l’agrégation
de ces décisions décentralisées conduira à une situation d’ensemble cohérente
(on peut produire trop de briques et pas assez de ciment). La coordination est
donc une procédure de mise en cohérence des décisions des agents de telle
sorte que le résultat d’ensemble soit lui-même cohérent. Il existe pour
l’essentiel quatre modes de coordination :
– le marché qui assure la coordination par l’intermédiaire des signaux
véhiculés par les prix ;
– la hiérarchie qui repose sur les injonctions d’une autorité centrale ;
– la coopération qui repose sur l’action collective concertée des individus

******ebook converter DEMO Watermarks*******


concernés et sur la délibération collective destinée à adopter les décisions
les plus pertinentes ;
– les conventions, normes, valeurs, traditions, qui conduisent à ce que les
comportements des individus sont cohérents entre eux dès lors qu’ils
adoptent des comportements conformes aux conventions et aux normes
en vigueur.
Comme on le voit, le marché et la concurrence ne sont pas le seul mode
de coordination possible. Ce mode de coordination est-il toujours efficace ?
Les travaux des économistes conduisent à en douter. P. Cahuc considère par
exemple que la nouvelle microéconomie est « une théorie de l’inefficacité des
transactions marchandes ». Il convient donc de montrer en premier lieu que le
marché peut être un mode de coordination efficace (I), mais que de nombreux
défauts de coordination existent, ce qui a conduit les économistes
institutionnalistes à mettre l’accent sur le rôle de la hiérarchie (II). Nous
montrerons ensuite l’importance des normes et des conventions, de la
coopération, en introduisant le rôle de l’État (III).

I. Le marché comme mode de coordination


Depuis la naissance de l’économie politique, les économistes étudient la
question de la coordination. La célèbre « main invisible » d’A. Smith est une
métaphore de la coordination puisqu’elle conduit à assurer que les choix
individuels servent l’intérêt général. Les Physiocrates et les premiers
économistes classiques observent des économies de la fin de l’Ancien régime
qui sont très largement administrées et ils mettent l’accent (voir les tentatives
de réforme de Turgot) sur la nécessité de laisser jouer l’initiative individuelle
et la concurrence pour améliorer la situation économique générale. Il est bien
préférable, selon eux, de « laisser faire les hommes » et de « laisser passer les
marchandises » plutôt que de multiplier les règlements et les taxes sur la
circulation des marchandises.

A. La conception walrasienne de la coordination


C’est L. Walras, et plus largement la tradition walrasienne, qui a rendu
compte de la coordination par le marché, selon une démarche qui se veut
aussi rigoureuse que possible. Le modèle walrasien de base se situe dans les
conditions de la concurrence parfaite. Cela suppose l’atomicité (aucun agent
ne dispose d’un pouvoir de marché), la transparence (l’information est

******ebook converter DEMO Watermarks*******


parfaite et gratuite), la libre entrée et la libre sortie du marché (qui conduit les
agents à modifier leurs offres et leurs demandes sur les divers marchés en
fonction des informations qu’ils reçoivent), l’homogénéité du produit (pas de
différenciation des produits), la mobilité des facteurs de production (qui
peuvent être utilisés pour produire n’importe quel bien ou service). À ces
conditions de la concurrence, il faut ajouter un « commissaire-priseur » qui
annonce les prix et les ajuste (« tâtonnement walrasien ») de telle façon que
sur chaque marché les quantités offertes soient égales aux quantités
demandées. Ce modèle walrasien de base est aussi un modèle où le temps
n’existe pas. Tous les ajustements sont instantanés et les échanges ne se
réalisent qu’aux prix d’équilibre déterminés au cours de chaque séance de
marché.
Dans ces conditions, tous les marchés sont simultanément en équilibre et
le surplus total (des producteurs et des consommateurs) est maximisé.
Chaque unité de facteur de production est allouée là où elle est relativement
la plus efficiente. Cette situation globale résulte donc des décisions
individuelles des agents prises en fonction de l’information véhiculée par le
système des prix relatifs. Si, pour une raison quelconque, les conditions de
l’offre et/ou de la demande se modifient sur un ou plusieurs marchés, les prix
relatifs vont se modifier, les agents adapteront leurs décisions aux nouveaux
prix relatifs, ce qui fera converger l’économie vers une nouvelle situation
d’équilibre général. C’est donc bien le système des prix (le marché et la
concurrence) qui assure la coordination du comportement des agents et du
système économique dans son ensemble.
Mais cette conception de la coordination est très restrictive. En
particulier, parce qu’elle considère comme réglée la question de l’information
et parce que, paradoxalement, alors qu’il s’agit de rendre compte du
fonctionnement d’une économie décentralisée, la centralisation de
l’information par le commissaire-priseur joue un rôle essentiel.

B. La conception autrichienne de la coordination


La tradition économique autrichienne, illustrée notamment par L. von Mises
et F. Hayek, propose une tout autre lecture de la coor​dination par le marché.
Tout d’abord, dans leur conception, il n’y a pas de centralisation (donc pas de
commissaire-priseur). On se trouve donc en présence d’une économie
décentralisée dans laquelle les agents prennent des décisions
indépendamment les uns des autres. Ensuite, l’information n’est pas
******ebook converter DEMO Watermarks*******
disponible gratuitement et de façon égale pour tous. Le marché est un
processus de découverte de l’information. Chaque agent va prendre des
décisions et la concurrence porte notamment sur la prévision (donc sur
l’information). Par exemple, un producteur qui prévoit mieux que les autres
les attentes de ses clients a un avantage par rapport à ses concurrents.
Dans la conception autrichienne, il n’existe pas non plus d’équilibre
général et les échanges ne se réalisent pas nécessairement en situation
d’équilibre. En effet, dès lors que les décisions des agents ne sont pas
coordonnées ex ante, chaque décision d’un agent (produire plus ou moins,
produire un bien différent, etc.) introduit un déséquilibre. Ces déséquilibres
vont se manifester à travers le système des prix et les autres agents vont
réagir à cette situation nouvelle en modifiant à leur tour leurs décisions. Une
économie décentralisée et concurrentielle ne se trouve donc jamais en
situation d’équilibre, elle est en permanence dans une situation de
déséquilibre dynamique. Pour les Autrichiens, ce qui constitue le grand
mérite du marché comme mode de coordination, c’est qu’il permet que se
réalisent en permanence des ajustements par rapport à ces déséquilibres qui
sont, au moins provisoirement, corrigés. Cette conception du marché est donc
compatible avec la prise en compte du temps et de l’ignorance. Les agents
constatent la situation en l’instant t et ils adaptent leurs comportements pour
se trouver dans une situation plus favorable à l’instant t + 1. Les agents ont
une information imparfaite, mais le marché produit de façon continue et non-
intentionnelle de l’information qui est diffusée par le système des prix. Pour
les auteurs autrichiens, cette coordination par le marché et la concurrence
n’est possible que si le libre jeu du marché est respecté et si les pouvoirs
publics se limitent à faire respecter de façon impersonnelle des règles de
droits identiques à tous les participants au marché (droit de propriété, respect
du système de poids et mesure, respect des engagements contractuels, etc.).
Si ce modèle du marché est séduisant sur le plan intellectuel, il sous-
estime deux problèmes majeurs. Le marché produit de l’instabilité (comme
Hayek l’a montré lui-même dans son analyse monétaire des crises). Peut-on
se passer d’une procédure de limitation de cette instabilité ou de lutte contre
ses effets ? Par ailleurs, le marché produit de l’inégalité. Mises affirme
d’ailleurs que l’inégalité est inhérente à l’économie de marché. Mais les
Autrichiens sous-estiment le fait que cette inégalité peut saper les fondements
du lien social sans lequel le fonctionnement d’une économie de marché
devient impossible.
******ebook converter DEMO Watermarks*******
Les économistes néoclassiques d’une part, autrichiens d’autre part,
promeuvent, quoique de façon très différente, la coordination par le marché et
la concurrence. Ces analyses sont éclairantes dans la mesure où elles
montrent comment, via le système des prix, il est possible d’assurer une
coordination horizontale et non-intentionnelle des décisions d’agents qui
prennent leurs décisions indépendamment les uns des autres. Ces approches
mettent aussi en évidence les conditions très restrictives d’une coordination
parfaitement efficace confiée aux seuls mécanismes de marché. Par ailleurs, il
faut prendre en compte l’existence d’autres formes de coordination.

II. Défaillances du marché, défauts de coordination et rôle de la


hiérarchie
De longue date, les économistes ont mis en évidence les défaillances du
marché et les défauts de coordination, ce qui confirme que le marché et la
concurrence ne sont pas toujours un moyen de coordination efficace des
décisions des agents. Par ailleurs, depuis l’article fondateur de R. Coase
(“The Nature of the Firm”, 1937) on sait qu’il existe un autre mode de
coordination, la hiérarchie, ce qui confirme que, dans certains cas, le marché
n’est pas le mode de coordination le plus efficace.

A. Défaillances du marché, défauts de coordination et équilibres


sous-optimaux
À la suite de P. Krugman, on peut définir les défaillances du marché comme
des situations où, dans un contexte de coordination marchande, la poursuite
par les agents de leurs intérêts personnels ne conduit pas à satisfaire les
intérêts de la société dans son ensemble, mais peut même conduire à dégrader
la situation d’ensemble.
Les économistes retiennent traditionnellement trois grandes catégories de
défaillances du marché :
– En premier lieu, les situations d’asymétrie d’information qui ​favorisent
les comportements opportunistes et donc les situations d’antiélectron
(sélection adverse) ou d’aléa moral. L’exemple du marché des voitures
d’occasion donné par G. Akerlof (The Market for « Lemons », 1970) est
particulièrement éclairant. L’auteur montre que devant l’incertitude
relative à la qualité des véhicules proposés à la vente, les possesseurs des
véhicules de meilleure qualité se retirent du marché, faute de pouvoir
obtenir un prix correspondant aux caractéristiques de leur véhicule. À la
******ebook converter DEMO Watermarks*******
limite aucun échange ne se produit puisque progressivement les différents
vendeurs se retirent. De même, les offreurs de crédits ou de contrats
d’assurance, faute de connaître le niveau de risque associé à chaque
client, proposent un prix moyen des contrats qui est considéré comme
coûteux par les agents peu risqués et comme peu coûteux par les agents
risqués : le marché sélectionne donc les mauvais risques.
– En deuxième lieu, les situations d’externalités (positives ou négatives)
qui, n’étant pas prises en compte par le marché, conduisent à une
production excessive de biens et services produisant des externalités
négatives (pollution par exemple) et à une offre insuffisante de biens et
services produisant une externalité positive (éducation ou santé par
exemple).
– Enfin, les situations de biens collectifs (non rivaux et non excluables). La
consommation d’une unité de ces biens par un agent supplémentaire a un
coût marginal nul (puisque les biens collectifs sont à la disposition de
tous dès lors qu’ils sont à la disposition d’un seul). De ce fait, aucun
offreur ne produira de tels biens dans un cadre marchand.
On voit que dans ces trois cas le marché et la concurrence ne conduisent
pas à la maximisation de la satisfaction collective.
Les analyses en termes de défaut de coordination ont plutôt été
développées dans le cadre des analyses macroéconomiques (tout en
mobilisant des concepts microéconomiques). On dira qu’une économie est en
situation de défaut de coordination s’il existe des opportunités d’échange
mutuellement avantageux qui ne se réalisent pas parce que les agents ne sont
pas incités à les réaliser. L’économie peut donc se trouver dans une situation
d’équilibre sous-optimal. Par exemple, on peut interpréter en termes de défaut
de coordination la situation d’équilibre de sous-emploi. Il serait préférable
que toutes les ressources productives soient utilisées, pour cela il faudrait que
les producteurs produisent plus, mais ils ne le font pas parce que la demande
est insuffisante. Or, s’ils investissaient plus, produisaient plus et recrutaient
plus, la demande augmenterait et la situation globale de l’économie serait
plus favorable. Ce type d’approche, développé par les auteurs de la Nouvelle
Économie Keynésienne (NEK), met donc en évidence le fait que l’absence de
commissaire-priseur walrasien et le fait que les agents prennent leurs
décisions sans prendre en compte l’impact de ces décisions sur la situation
globale conduisent à des situations sous-optimales qui résultent de défauts de

******ebook converter DEMO Watermarks*******


coordination.

B. L’arbitrage marché/hiérarchie et la question des coûts de


transaction
Non seulement le marché et la concurrence peuvent voir leur efficacité mise
en cause par les défaillances de marché et les défauts de coordination, mais,
de plus, on constate que dans certains cas, d’autres modes de coordination
sont jugés préférables par les agents.
R. Coase se pose, dans son article de 1937, une question essentielle : si le
marché et la concurrence étaient toujours un mode de coordination efficace, il
n’y aurait dans l’économie que des individus coordonnés par le marché
(coordination horizontale). Or, on constate qu’il n’en est rien. Il existe des
entreprises à l’intérieur desquelles la coordination s’opère par la hiérarchie. À
l’intérieur des frontières de la firme, un pouvoir central (et ses représentants)
dispose d’une autorité qui leur permet d’obtenir l’exécution des instructions
qu’ils donnent aux salariés. Par exemple, si un ouvrier cesse de travailler
dans l’atelier 1 et va travailler dans l’atelier 2, ce n’est pas parce qu’une
incitation de marché l’y conduit, mais parce qu’il en a reçu l’ordre de son
contremaître ou du chef d’atelier. Pourquoi, dans certains cas, la coordination
par la hiérarchie est-elle préférée à la coordination par le marché ?
La réponse de R. Coase (qui sera prolongée par O. Williamson) repose
sur deux éléments. D’une part, le recours au marché n’est pas gratuit
contrairement à ce que suppose le modèle walrasien de base. Pour nouer des
relations marchandes il existe des coûts de recherche du partenaire (client ou
fournisseur), des coûts de négociation du contrat, de rédaction du contrat, de
suivi de l’exécution du contrat et éventuellement des coûts de résolution des
conflits qui peuvent résulter de la non-exécution du contrat par le partenaire.
Cet ensemble de coûts est appelé « coûts de transaction » par Coase. Certes,
le fonctionnement de la coordination par la hiérarchie a elle aussi un coût
(coût d’organisation), mais les agents économiques vont arbitrer entre les
deux types de coûts et choisir la coordination par la hiérarchie lorsqu’elle se
révèle moins coûteuse. D’autre part, Coase prend en compte le temps. Il
considère que la coordination par la hiérarchie au sein de la firme est plus
probable lorsque des contrats de très court terme se révèlent peu satisfaisants.
Le contrat de travail, s’il est suffisamment stable, permet d’établir une
relation durable entre le détenteur de l’autorité et les exécutants. Un
entrepreneur de construction, par exemple, n’embauche pas tous les matins
******ebook converter DEMO Watermarks*******
de nouveaux maçons, peintres, plombiers, etc.
Cette analyse permet de comprendre que l’arbitrage entre le marché et la
hiérarchie peut se modifier : une activité conduite jusque-là à l’intérieur des
frontières de la firme (coordination hiérarchique) peut être externalisée et
faire l’objet d’un contrat commercial avec un prestataire de service
(coordination marchande). O. Williamson a montré qu’existaient aussi des
formes mixtes de coordination (le contrat de franchise par exemple) qui
articulent des modalités marchandes et hiérarchiques de coordination.

III. Nécessité et procédures d’une coordination hors-marché


Nous venons de le voir, le marché et la concurrence ne sont pas toujours un
mode de coordination efficace. Mais il faut aller plus loin. En effet, même
lorsque l’on privilégie la coordination marchande, l’articulation avec d’autres
formes de coordination semble indispensable. C’est pourquoi les normes, les
valeurs et les conventions, de même que la coordination verticale assurée par
l’État jouent un rôle important dans l’action économique des agents.

A. Normes, valeurs et conventions


Dans la vie sociale, de manière générale, l’existence de normes, de valeurs et
de conventions contribue de façon très importante à la coordination du
comportement des agents, que l’on songe par exemple aux manières de table,
aux façons de saluer les autres acteurs sociaux, aux règles relatives à la façon
de se vêtir, etc. Le non-respect de ces nor​mes ou de ces traditions produit un
trouble (plus ou moins grave) dans le déroulement des interactions sociales.
Ces normes, valeurs, conventions, sont le résultat d’un processus de
construction sociale qui s’inscrit dans l’histoire, elles sont le plus souvent
institutionnalisées. L’exemple célèbre de la conduite automobile permet
d’illustrer l’importance des conventions et de leur institutionnalisation.
Techniquement, il est indifférent de conduire à droite ou à gauche. Mais si
chaque conducteur choisit librement le côté de la route sur lequel il conduit
en fonction de sa subjectivité, la désorganisation de la circulation est assurée
et le nombre d’accidents sera très élevé. En fait, bien que le choix soit
arbitraire (il n’y a pas de raison objective de conduire à droite plutôt qu’à
gauche), lorsque le choix est fait, chacun s’attend à ce que les autres
conduisent du même côté et se comporte en conséquence. On dit que le choix
du côté de la route est une connaissance commune (Common Knowledge).
Les comportements correspondants sont incorporés dans l’habitus des agents
******ebook converter DEMO Watermarks*******
(lorsqu’ils quittent leur place de stationnement ils ne se demandent pas de
quel côté de la route ils doivent conduire).
Dans la vie économique de très nombreuses conventions de ce type
fonctionnent. Lorsqu’on signe un bail, il est précisé que le logement doit être
occupé « en bon père de famille ». Formule creuse, mais dont on considère
qu’elle est de connaissance commune et qu’elle implique notamment que l’on
ne doit pas utiliser le logement pour se livrer à des activités illicites. Dans les
relations contractuelles, tout ne peut pas être spécifié par le contrat. Très
souvent on sélectionne le cocontractant parce que l’on sait qu’il va respecter
ses obligations pour des raisons diverses : il défend sa réputation, il a un
honneur professionnel, il respecte la tradition de la maison dont il est le
créateur ou l’héritier, il se fait une certaine idée de ses relations avec les
clients. Cela permet notamment de réduire les incertitudes sur la qualité. Le
rôle des conventions de qualité est d’ailleurs très important dans la vie
économique comme l’ont montré de nombreuses études. La mise en place des
appellations d’origine, la définition de terroirs constituent à la fois une
contrainte pour les producteurs et un moyen pour les consommateurs de faire
des choix éclairés. Ces normes, valeurs et conventions jouent aussi sur le
marché du travail. Par exemple, la définition d’une grille de qualification est
un moyen d’institutionnaliser la hiérarchie des emplois et des rémunérations
et de ne pas la soumettre exclusivement aux rapports marchands. G. Akerlof
et J. Yellen ont montré que lorsque les salariés avaient le sentiment d’être
rémunérés de façon juste cela jouait de façon positive sur leur productivité.
En résumé, les rapports marchands sont encastrés dans un réseau de
relations sociales fortement liées aux normes, aux traditions et
aux conventions qui contribuent de façon décisive à la coordination des
comportements des agents.

B. Coopération et rôle de l’État


La coopération est aussi une forme de coordination qu’il faut prendre en
compte. Il s’agit d’une forme de coopération horizontale (tous les participants
à la coopération sont en principe égaux) et c’est une coordination
intentionnelle (les acteurs agissent collectivement de façon consciente pour
résoudre un problème de façon coordonnée). Imaginons les commerçants
d’un quartier du centre-ville qui veulent organiser une quinzaine commerciale
pour attirer les clients et résister à la concurrence d’un centre commercial
implanté en périphérie. Cette action collective ne relève pas de la concurrence
******ebook converter DEMO Watermarks*******
et de la décision décentralisée. Si chaque commerçant du centre-ville prend
des décisions indépendamment des autres, il y a peu de chance qu’un
événement attractif se mette en place. De même, il n’existe pas d’autorité
hiérarchique capable d’imposer aux commerçants la participation à la
quinzaine commerciale. La solution c’est la coopération. Les commerçants
vont se réunir volontairement, décider collectivement de la date, de
l’organisation (musique, spectacles, promotions, etc.), de la répartition des
coûts, etc. Les décisions vont généralement être adoptées par consensus pour
s’assurer de la cohésion du groupe. Ce rôle de la coopération intervient dans
de nombreux domaines de la vie économique, au point que l’on parle parfois
de « coopétition » pour caractériser certaines relations interentreprises
marquées à la fois par la compétition (concurrence) et par la coopération.
C’est le cas, par exemple, des entreprises appartenant à un même groupe ou
de celles qui participent à un même pôle de compétitivité.
La coopération comme mode de coordination a fait l’objet de travaux
importants d’E. Ostrom (Prix Nobel de science économique en 2009 en
même temps qu’O. Williamson). Ostrom a étudié de nombreux exemples de
communautés confrontées à la gestion d’un bien commun et qui adoptent des
stratégies coopératives pour échapper à la « tragédie des biens communs ».
L’un des exemples étudiés porte sur l’usage de nappes phréatiques en
Californie. Si l’on puise trop d’eau, il existe un risque de voir les nappes
alimentées par l’eau de l’océan Pacifique et, du fait de la salinisation, devenir
impropre à la consommation comme aux usages agricoles (irrigation). Si on
adopte une logique de concurrence, chaque habitant de la zone va chercher à
puiser le maximum d’eau pour maximiser son avantage individuel. Le
résultat sera l’épuisement de la ressource. L’agrégation de comportements
individuels rationnels conduit à une situation désastreuse du point de vue
collectif. Une autre solution serait la hiérarchie. Une autorité pourrait fixer
des quotas de prélèvement d’eau et les faire respecter. Mais cette solution
peut conduire à une fixation de quotas trop abondants, à un non-respect des
quotas, à un coût important de contrôle pour faire face à la fraude, etc. Les
solutions coopératives observées par Ostrom reposent sur la délibération
collective des personnes intéressées à la gestion de la ressource, l’adoption de
règles de prélèvement et l’existence à la fois d’une adhésion individuelle aux
normes ainsi élaborées et d’un contrôle social sur les membres de la
communauté (on retrouve ici l’importance des normes et des valeurs). De
telles solutions coopératives ont fonctionné parfois sur plusieurs siècles (cas
******ebook converter DEMO Watermarks*******
des procédures d’irrigation en Espagne qui remontent à la présence des
Arabes dans la péninsule). Ainsi que le souligne Ostrom, il ne faut pas se
limiter à l’alternative marché/hiérarchie, il faut prendre en compte la
coopération comme mode de coordination.
Il semble aussi nécessaire de revenir sur le rôle de l’État. Si la question de
la hiérarchie a été largement pensée depuis Coase à partir de l’exemple de
l’entreprise, on ne doit pas oublier que les administrations publiques
disposent d’un pouvoir d’injonction. La nécessité de l’intervention de l’État
était soulignée par A. Smith ou J.-B. Say (pourtant par ailleurs théoriciens du
marché). De même, la pensée néoclassique a présenté l’État comme une
réponse possible aux défaillances du marché. Les analyses en termes de
défaut de coordination débouchent sur la nécessité de disposer d’un
coordinateur extérieur au marché qui, dans de nombreux cas, est la puissance
publique. Par exemple, seule l’action de l’État peut permettre à une économie
de sortir de la situation d’équilibre de sous-emploi.
Au total donc, l’existence de la coopération et des politiques publiques
nous confirme que le marché et la concurrence ne sont pas toujours des
modes de coordination efficace. Dans certaines situations (biens communs,
défauts de coordination) le recours à d’autres procédures de coordination est
indispensable.
Ces analyses conduisent à considérer que s’il est utile de définir des types
idéaux des modes de coordination, aucune économie ne fonctionne
conformément à un seul de ces modes de coordination à l’état « pur ». La
coordination des activités économiques résulte toujours d’une combinaison
de divers modes de coordination : pas de marché sans État et sans entreprises
(donc sans hiérarchie), pas de marché sans normes sociales et sans
conventions, pas d’entreprise et de vie sociale sans coopération, etc. De plus,
l’articulation entre ces modes de coordination peut évoluer : l’État comme les
entreprises peuvent externaliser certaines activités en ayant un recours accru
au marché, les dysfonctionnements du marché peuvent conduire à un surcroît
de réglementation (exemple des banques et des marchés financiers
après 2008).

Conclusion
Le marché et la concurrence constituent donc bien des procédures de
coordination efficaces et largement utilisées. Ils permettent notamment une
production et une gestion décentralisée de l’information à travers le système
******ebook converter DEMO Watermarks*******
des prix. C’est en fonction de cette information véhiculée par les prix que les
agents vont prendre des décisions cohérentes avec les décisions des autres
agents. La flexibilité des prix permet notamment d’ajuster les quantités
offertes et les quantités demandées. Les prix relatifs permettent de guider les
choix des consommateurs comme la combinaison productive adoptée par les
producteurs, etc. Le marché et la concurrence permettent aussi un ajustement
graduel et en continu des décisions économiques. Inutile d’attendre la
décision d’une autorité centrale pour augmenter ou diminuer les quantités
produites, chaque agent décide pour ce qui le concerne, en fonction des
informations qu’il détient. Il s’agit d’un mode de coordination horizontal et
non-intentionnel.
Mais le marché et la concurrence ne sont pas toujours le mode de
coordination le plus efficace. D’une part, la hiérarchie (mode de coordination
vertical et intentionnel) est une alternative au marché (R. Coase). D’autre
part, les travaux d’E. Ostrom ont montré que la coopération pouvait être un
mode de coordination préférable au marché et à la hiérarchie (notamment en
ce qui concerne la gestion des biens communs). Ces différents modes de
coordination (y compris le marché) ne peuvent fonctionner sans un certain
degré de coordination par des règles, des normes et des conventions, ce qui
confirme que le marché et la concurrence ne peuvent pas fonctionner comme
mode de coordination dans un vide social et institutionnel. De nombreuses
analyses économiques ont mis l’accent sur les défaillances du marché et sur
les défauts de coordination au sein des économies marchandes. Cela conduit
notamment à la nécessité d’un coordonnateur hors-marché qui est le plus
souvent l’État.
Le débat public ne devrait donc pas porter sur des alternatives simplistes
(Marché ou État, concurrence ou coopération, normes sociales ou libre choix
individuel) mais sur le degré et les modalités de combinaison des modes de
coordination permettant de concilier au mieux les choix individuels et
l’intérêt général. Dans de nombreux pays par exemple, l’économie sociale est
présentée comme un mode de fonctionnement de l’économie qui se distingue
à la fois du capitalisme et du contrôle étatique. De même, après la crise de
2008, des voix se sont élevées pour réclamer une réduction de l’influence des
marchés financiers et un contrôle accru de l’État sur les banques et autres
institutions financières.

******ebook converter DEMO Watermarks*******


******ebook converter DEMO Watermarks*******
Sujet 4 La concurrence doit-elle
être stimulée ?

1 Se préparer à la rédaction

1.1 L’enjeu du sujet


La formulation du sujet est classique : la phrase interrogative invite
logiquement à un débat sur la légitimité et, le cas échéant, l’efficacité des
dispositifs institutionnels visant à stimuler la concurrence. Il s’agit d’une
question qui a soulevé beaucoup de controverses tant sur le plan scientifique
que politique et ce depuis les origines de l’analyse économique. La
formulation « doit-elle » proposée dans le sujet semble en apparence inviter à
une réflexion normative. En réalité, ce n’est pas l’opinion du rédacteur du
devoir qui est demandée, mais une analyse rigoureuse sur la pertinence de la
mise en œuvre de dispositifs visant à introduire, préserver, voire restaurer la
concurrence sur les marchés.
On pourra ainsi considérer dans le traitement du sujet que le verbe
« stimuler » se décline de trois façons : introduire, préserver, restaurer. Si la
présentation des termes de ce débat est requise, il faut toutefois garder à
l’esprit le principe de la cumulativité des savoirs : depuis les fondateurs de
l’économie politique la connaissance scientifique a beaucoup progressé et
s’est considérablement renouvelée. En fin de compte, le piège d’un sujet
débat de ce type est de donner le sentiment dans la copie d’une opposition
frontale de positions immuables et incompatibles. Il est donc essentiel de
donner aussi au sujet une profondeur historique afin de comprendre la
transformation de ce débat.

1.2 Le cadrage du sujet et les concepts clés


******ebook converter DEMO Watermarks*******
Le concept clé est bien entendu celui de concurrence. Mais la question porte
sur l’efficacité et la légitimité de sa stimulation, ce qui implique d’orienter la
réflexion sur les dispositifs institutionnels qui interagissent avec la
concurrence (politique de la concurrence mais aussi les autres politiques
structurelles). Le cadrage du sujet est laissé à la discrétion du rédacteur,
compte tenu du caractère très large de la question posée.
Dans la proposition ci-dessous, le choix a été fait de s’en tenir à la
stimulation de la concurrence sur le marché des produits tout en se plaçant
dans une perspective historique longue. Le choix aurait pu être d’ouvrir
davantage le sujet en intégrant les questions relatives à la concurrence sur le
marché du travail ou celles de la concurrence entre les nations et les
territoires par exemple et d’opter, le cas échéant, pour une mise
en perspective historique plus modeste.

1.3 La construction de la problématique


La problématique adoptée visera à répondre à trois questions successives :
1) Faut-il préserver le caractère concurrentiel des marchés, le cas échéant,
par des politiques économiques dédiées ? Dans la plupart des cas, la
réponse à cette question est « oui » même si les politiques de la
concurrence ont connu des débuts hésitants.
2) Faut-il restaurer la concurrence sur certains marchés lorsqu’elle fait
défaut ? Là encore, la réponse à cette question est le plus souvent « oui »
et se traduit par des politiques de concurrence visant à lutter contre les
collusions, les concentrations et les monopoles.
3) Faut-il partout et toujours chercher à introduire, préserver ou restaurer la
concurrence ? Cette question appelle une réponse nuancée en particulier
lorsqu’il s’agit de réfléchir à l’articulation entre les politiques de
concurrence et les autres politiques structurelles.

2 Rédiger le devoir : une proposition

Introduction
À l’occasion d’une conférence de presse donnée le 20 novembre 2018, la
commissaire européenne à la concurrence Margrethe Vestager a déclaré que
l’Union européenne veillera à ce que le Royaume-Uni respecte les règles de
******ebook converter DEMO Watermarks*******
l’Union en matière de politique de concurrence après sa sortie prévue en
mars 2019. En effet, selon elle, quel que soit le protocole de Brexit adopté,
l’économie britannique restera intégrée à celle des autres pays européens sur
le plan commercial notamment, c’est pourquoi « il est important d’avoir des
conditions de concurrence équitable » a-t-elle précisé. Cet exemple, sur fond
de processus de sortie de l’Union européenne du Royaume-Uni, illustre
l’importance des politiques de concurrence qui, au sein de l’Union, sont
conduites par la Commission européenne.
La concurrence se définit comme une situation de marché caractérisée par
une compétition entre, d’une part, les agents exprimant une offre et, d’autre
part, ceux exprimant une demande. Cette compétition porte généralement sur
les prix, mais également sur les parts de marché ou encore sur la qualité des
produits échangés. Il convient de ne pas assimiler le concept général de la
concurrence avec celui de la concurrence pure et parfaite tel qu’il est proposé
dans le modèle du même nom.
Les théories en science économique accordent une place inégale à la
concurrence mais la plupart d’entre elles considèrent que celle-ci présente des
vertus importantes et que les marchés caractérisés par une concurrence
suffisamment intense conduisent à une efficacité économique plus grande que
les autres. Il s’agit alors de se demander si la stimulation de la concurrence
par des dispositifs institutionnels est possible et si elle est requise. Comment
introduire puis préserver le caractère concurrentiel des marchés ? Comment le
restaurer lorsqu’il est remis en cause ? Tout dispositif de stimulation de la
concurrence est-il nécessairement légitime et efficace ?
Depuis les origines de la pensée économique moderne, l’idée selon
laquelle il est nécessaire de préserver la concurrence pour permettre
l’efficience des marchés est centrale (I). À partir de l’entrée dans la seconde
mondialisation, l’accent a été mis plus fortement sur la nécessité de restaurer
la concurrence sur certains marchés qui ont connu un processus de
concentration et/ou de collusion ou sur lesquels elle est absente (II).
Cependant, la question de la légitimité et de l’efficacité de la stimulation de la
concurrence en particulier face aux autres politiques économiques
structurelles est discutée (III).

I. Préservation de la concurrence et efficience des marchés


La plupart des analyses économiques montrent que lorsque les marchés
présentent un caractère concurrentiel, ils conduisent à une plus grande
******ebook converter DEMO Watermarks*******
efficacité économique. La stimulation de la concurrence a donc, en premier
lieu, consisté à introduire puis préserver le caractère concurrentiel des
marchés (A). Cette réflexion a servi de support à la mise en œuvre de
politiques dédiées à la stimulation de la concurrence dans un cadre
préventif (B).

A. Introduire et préserver la concurrence : un enjeu de l’analyse


économique
À partir du milieu du XVIIIe siècle, le courant des physiocrates (animé par
F. Quesnay) joue un rôle important dans le développement du libéralisme
économique en général et dans la promotion du marché et de la concurrence
en particulier. P. de Boisguilbert par exemple (Le détail de la France, 1697)
considère que le libre commerce du grain (qui n’était pas en vigueur à cette
époque) favoriserait l’enrichissement de la nation en permettant d’étendre les
marchés au niveau national puis international. La formule devenue célèbre de
V. de Gournay « laissez faire les hommes, laissez passer les marchandises »
résume bien ce primat accordé aux libertés individuelles et aux vertus de la
concurrence. En 1776, A. Smith (Recherches sur la nature et les causes de la
richesse des nations) s’inscrit également dans cette optique en montrant que
la concurrence est à l’origine de la main invisible du marché par laquelle les
actions individuelles conduisent à la réalisation de l’intérêt général.
Toutefois, les physiocrates comme la plupart des classiques observent
qu’il existe une tendance sur les marchés à réduire, voire à faire disparaître la
concurrence. Pour ceux qui s’inscrivent dans la promotion du libéralisme
économique, il s’agit alors de valoriser la coordination par le marché et
d’introduire la concurrence là où elle fait défaut. Ainsi, pendant le règne de
Louis XVI, Turgot supprime les frontières intérieures du Royaume de France
et instaure le libre commerce du grain. En 1791, la loi Le Chapelier supprime
les jurandes et maîtrises ainsi que les corporations de métiers qui
réglementaient les activités à l’échelle de chaque ville. En 1846, suite
notamment aux analyses de D. Ricardo, la Grande-Bretagne abroge les lois
protectionnistes sur les céréales, etc.
L’hypothèse du caractère autorégulateur des marchés devient centrale à
partir de la révolution marginaliste à la fin du XIXe siècle et surtout avec la
constitution du modèle microéconomique standard de la concurrence pure et
parfaite (CPP) qui fonde la théorie néoclassique (V. Pareto). Les cinq
fameuses conditions de la CPP (atomicité, homogénéité des produits,
******ebook converter DEMO Watermarks*******
transparence de l’information, fluidité et mobilité) forment l’ossature d’un
modèle qui montre l’efficience de la coordination par le marché conduisant
l’économie vers un optimum au sens de Pareto. Dans ce modèle, tous les
agents sont preneurs de prix, ce qui implique qu’ils ne disposent d’aucun
pouvoir de marché. La question centrale qui est posée est alors celle de la
confrontation entre la CPP et la réalité empirique : plus les marchés
observables s’éloignent des conditions du modèle, plus la stimulation de la
concurrence par des dispositifs institutionnels qui permettront de s’en
rapprocher apparaît comme légitime. Une des applications les plus
importantes de cette idée est celle du cas des marchés oligopolistiques
(remise en cause de la condition d’atomicité). En situation d’oligopole ou de
duopole, la théorie enseigne que cela se traduit par une perte d’efficacité
économique (prix plus élevés et volume d’échange plus faible). Le cas limite
est celui du monopole pour lequel la perte pour la collectivité est
significative : c’est la perte sèche du monopole (ou triangle
d’A. C. Harberger). On voit que, dans ce cas, l’enjeu est bien de stimuler la
concurrence pour préserver le caractère atomistique des marchés.
Enfin, il faut souligner qu’à partir des années 1930, de plus en plus de
travaux ont en commun de s’appuyer sur le concept de concurrence praticable
(workable competition) qui correspond à une situation de marché où la
concurrence est suffisante pour assurer l’efficacité économique, même s’il
existe un écart entre la situation observée et le modèle de la CPP. L’économie
est caractérisée par des marchés imparfaits. Elle est alors conduite vers un
optimum de second rang qui peut paraître satisfaisant. Dans cette optique,
l’enjeu n’est plus de ramener la concurrence vers la CPP, mais de la préserver
pour qu’elle reste praticable. En 1933, E. Chamberlin (The Theory of
Monopolistic Competition) propose d’analyser le fonctionnement des
marchés à partir de l’hypothèse d’hétérogénéité des produits (remise en cause
de la condition d’homogénéité). Il montre que la concurrence est
monopolistique, même quand on observe un grand nombre de firmes sur un
marché, si celles-ci adoptent une stratégie de différenciation de leurs produits.
Cette différenciation peut porter sur les caractéristiques des produits (la
qualité) mais aussi sur l’environnement du produit (effet de marque par
exemple). Les entreprises disposent dans ce cas d’un certain pouvoir de
marché, en déterminant notamment de manière plus autonome leurs prix dans
la mesure où une différenciation « réussie » réduit l’élasticité-prix de la
demande en fidélisant les consommateurs.
******ebook converter DEMO Watermarks*******
Cette approche a été complétée par les travaux de J. A. Schumpeter pour
lequel la différenciation des produits est notamment le résultat du
comportement d’innovation des firmes conduisant à des monopoles
temporaires. Ce comportement est caractéristique de l’entrepreneur capitaliste
selon Schumpeter : le capitalisme est un système fondamentalement
déséquilibré dont la dynamique repose sur le rythme des innovations
(mécanisme de la destruction créatrice). L’intensité du contexte concurrentiel
et l’incitation à l’innovation doivent ainsi être logiquement préservées en
particulier par des politiques de protection des firmes innovantes (protection
de la propriété industrielle et intellectuelle par un système de brevet par
exemple). Le rendement social d’une innovation est en effet la somme du
rendement privé et de l’externalité positive qui lui est associée. Faute d’un
cadre réglementaire suffisamment protecteur, le rendement privé de
l’innovation peut devenir nul (les comportements de passagers clandestins
deviennent rationnellement la norme), ce qui inciterait les firmes à renoncer à
l’innovation. D. North (Prix Nobel d’économie 1993) montre que les pays,
qui ont connu précocement la Révolution industrielle à l’image de la Grande-
Bretagne, doivent beaucoup à la qualité de leur contexte institutionnel et en
particulier à la présence d’institutions qui ont permis de garantir les droits de
propriétés et de protéger les innovations (droits des brevets).

B. Les débuts hésitants des politiques de la concurrence


La politique de la concurrence débute avec la volonté, d’une part, d’éviter la
formation des monopoles par une concentration excessive du capital pouvant
conduire à des trusts (lorsqu’une firme possède un pouvoir de marché
particulièrement important de telle sorte qu’elle influence significativement la
gouvernance des autres) et, d’autre part, d’éviter les stratégies collusives
entre firmes pouvant conduire à des cartels, l’objectif étant ainsi de maintenir
un niveau de concurrence jugé satisfaisant. On appelle « collusion » un
dispositif d’entente entre firmes sur un marché par lequel les firmes
concernées sortent de la concurrence (l’entente peut porter sur les prix mais
aussi sur les volumes de produits). Lorsque la collusion s’inscrit dans un
cadre formel, voire prend la forme d’une organisation, il s’agit d’un cartel
(exemple de l’OPEP).
Cette prise de conscience de la nécessité d’une politique de la
concurrence préservant le caractère concurrentiel des marchés est tardive par
rapport à la Révolution industrielle et au processus de concentration du
******ebook converter DEMO Watermarks*******
capital. Au Japon à partir des années 1860 par exemple, se forment les
Zaibatsu, caractérisés par une concentration conglomérale aux mains des
puissantes familles. Ces firmes étendent leurs activités avec le soutien du
pouvoir impérial convaincu de la nécessité d’industrialiser le pays en
s’appuyant sur ces grands groupes (l’objectif est notamment de lutter contre
l’impérialisme occidental). Durant la seconde moitié du XIXe siècle, les cartels
se multiplient également dans l’Empire allemand (on en compte plus de 400 à
la fin du siècle). Au début du XXe siècle, ils prennent la forme de Konzerns
qui associent concentration verticale et horizontale (Krupp, puis le cartel de la
chimie Agfa-BayerBasf à partir de 1904 par exemple). Là encore, ce
processus se réalise avec l’appui tacite du régime politique (le groupe Krupp
fabrique des armes dont la Grosse Bertha durant la Première Guerre
mondiale).
Le déclenchement des premières politiques visant à préserver la
concurrence se produit aux États-Unis. À la fin du XIXe siècle, certains
secteurs du système productif américain conduisent à des structures de
marchés oligopolistiques (tabac, acier, pétrole notamment). Les firmes sur ces
marchés recherchent des avantages de taille (présence de rendements
d’échelle croissants), des avantages technologiques ou encore le contrôle de
l’accès à une ressource rare (ALCOA – Aluminium Compagny of America –
avec l’approvisionnement en bauxite par exemple). Aux États-Unis, l’opinion
publique s’est rapidement mobilisée contre les effets néfastes du contrôle des
marchés par des grands groupes industriels (on parle de « barons voleurs »).
Par exemple, en 1870, J.-D. Rockefeller fonde la Standard Oil. En une
décennie, il met en place une stratégie de concentration horizontale
particulièrement agressive jusqu’à maîtriser 90 % du raffinage aux États-
Unis. Accusé par les autorités et les médias de pratiques collusives et de
manipulation des prix, Rockefeller crée malgré tout un trust en 1882. C’est
sur la base du constat d’une carence réglementaire à partir du cas Rockefeller
que les États-Unis votent le Sherman antitrust Act en 1890 qui interdit les
cartels. Puis, plus tardivement en 1914, le Clayton Act vient compléter ce
dispositif par une réglementation sur les concentrations (une fois encore en
réponse à Rockefeller qui fonda une holding – la Standard Oil Company – en
1899 avant que celle-ci ne soit dissoute en 1911). C’est également en 1914
qu’est créée la Federal Trade Commission – FTC –, l’autorité américaine de
la concurrence chargée d’instruire les dossiers du point de vue de la
puissance publique.
******ebook converter DEMO Watermarks*******
En fin de compte, les premières politiques de la concurrence s’inscrivent
essentiellement dans un cadre réglementaire large, qui a vocation à préserver
le caractère concurrentiel des marchés plus qu’à réprimer les pratiques
anticoncurrentielles. Leur efficacité est relative et surtout la conviction d’une
politique de concurrence ambitieuse n’est pas acquise. Aux États-Unis par
exemple, le National Recovery Act de 1933 rend de nouveau possible le
développement des cartels (des études ont montré que cette loi a contribué à
prolonger la récession des années 1930 et à retarder les restructurations
industrielles même si elle a favorisé la reflation).
En Europe, les débuts de la politique de la concurrence sont tardifs. Celle-
ci ne s’impose que sous l’impulsion de la construction communautaire à
partir des années 1950. Depuis le Traité de Rome de 1957, la politique de la
concurrence relève de la compétence de la Commission européenne qui fixe
les principes du droit de la concurrence en vigueur dans les pays membres.
En pratique, la Commission européenne a la charge de veiller à l’exercice de
la concurrence sur le territoire européen (politiques préventives de
concurrence) tandis que les autorités nationales des pays membres ont un
pouvoir de contrôle sur les pratiques anticoncurrentielles (politique
répressive).
Les dispositifs qui visent à préserver la concurrence sur les marchés
n’épuisent pas la question de la stimulation de la concurrence. Depuis
notamment les années 1980, la question d’une politique de la concurrence
active visant à réprimer les comportements anticoncurrentiels et à restaurer la
concurrence s’est posée avec une acuité particulière.

II. Restauration de la concurrence et efficience des marchés


La concentration du système productif conduit à l’affaiblissement et parfois
même à la disparition de la concurrence sur certains marchés, ce qui incite de
nombreux pays à mettre en œuvre des politiques visant à restaurer le
caractère concurrentiel des marchés. Ces politiques portent pour partie sur la
lutte contre les stratégies collusives et les concentrations (A) mais aussi sur la
lutte contre certains monopoles (B).

A. Restaurer la concurrence par des politiques de lutte contre les


collusions et les concentrations
Les politiques répressives de la concurrence ont en commun de s’appuyer sur
un acquis important de l’analyse économique. Lorsqu’un marché a une
******ebook converter DEMO Watermarks*******
structure oligopolistique découlant notamment de la présence de rendements
d’échelle croissants, il existe une incitation forte pour les firmes à sortir de la
concurrence et à opter pour des stratégies collusives. L’objectif pour chacune
d’elles est alors de s’approprier une rente qui a tendance à se fixer à un
niveau supérieur au profit obtenu en situation de concurrence parfaite. Les
travaux en théorie des jeux (ceux de J. Nash – Prix Nobel 1994 – notamment)
montrent que, dans certaines structures de marché, l’économie est alors
conduite à un défaut de coordination : les intérêts individuels (les gains
associés à la collusion) font obstacle à l’optimum collectif (des prix de
marché plus faibles et des quantités échangées plus élevées en cas de
concurrence). S’il est des arguments pour montrer que la pérennité d’un cartel
dans le temps implique des conditions restrictives (nécessité d’un faible
nombre de firmes au sein du cartel afin de ne pas rendre les coûts de
surveillance rédhibitoires), force est toutefois de constater l’importance et la
diversité des cartels dans les économies modernes alors qu’ils sont bien
entendu interdits.
Ainsi, depuis le milieu des années 2000, la politique de lutte contre les
collusions en France conduite par l’Autorité de la concurrence (AdC) est
devenue très volontariste avec une hausse considérable des sanctions
financières prononcées, ce qui atteste de l’ampleur des pratiques collusives.
Ces amendes s’établissent autour de 200 millions d’euros cumulés annuels
dans le courant des années 2000 avec un record de 1,2 milliard d’euros
en 2015 avant une « rechute » autour de 500 millions d’euros cumulés pour
l’année 2017. Ce sont des secteurs très divers de l’économie qui sont
concernés par ces pratiques collusives tels que la signalisation routière, les
chèques bancaires, la restauration des monuments publics, la téléphonie
cellulaire, etc. L’actualité a été marquée en 2017 par une amende record au
« cartel du lino » de 302 millions d’euros. E. Combe (vice-président de
l’AdC) indique à ce propos que si les démantèlements de cartels conduisent à
des baisses de prix bénéficiant aux consommateurs (autour de 20 % de baisse
en moyenne), dans nombre de cas il s’agit d’ententes portant sur des biens
intermédiaires au sein d’une filière de production. Ce sont donc d’autres
firmes qui subissent le préjudice de la collusion. Malgré ces constats, il
apparaît que la politique répressive de lutte contre les cartels est difficile à
mettre en œuvre en raison de la complexité des procédures de détection et de
l’établissement des preuves. Depuis 1996, la Commission européenne a ainsi
décidé d’instituer un dispositif juridique innovant inspiré de la théorie des
******ebook converter DEMO Watermarks*******
jeux et nommé « procédure de clémence » selon lequel les dirigeants des
firmes, qui dénoncent l’existence d’une pratique collusive à laquelle elles ont
participé, peuvent bénéficier d’une immunité dans les poursuites (un
dispositif analogue a été mis en place aux États-Unis dès 1978 avec une
certaine efficacité).
Le second volet de la politique répressive de la concurrence porte sur les
abus de position dominante. Du fait de leur taille, de leur avance
technologique ou de leurs parts de marché, certaines firmes peuvent acquérir
une position dominante, c’est-à-dire la possibilité pour elle d’affecter de
manière significative l’évolution de la concurrence sur ce marché et par
conséquent d’en modifier le fonctionnement. La position dominante sur un
marché n’est pas illégitime par principe. Les autorités européennes
considèrent que c’est l’exploitation délibérée de cette situation dans le but de
restreindre la concurrence qui transforme la position dominante en abus.
Ainsi, celui-ci se caractérise par une situation dans laquelle une firme utilise
son poids important face à ses concurrents pour biaiser le marché à son
avantage.
Par exemple, une firme qui dispose de parts de marché importantes peut
être incitée à pratiquer des prix de vente inférieurs à ceux qui maximiseraient
son profit (prix prédateurs) afin d’évincer les concurrents (exemple de Engie
en 2016). Cette éviction peut également passer par un mécanisme de barrière
à l’entrée. En 2004 par exemple, la firme Microsoft a fait l’objet d’une
condamnation en Europe pour sa pratique de vente liée : le système
d’exploitation Windows impliquait que l’on utilise obligatoirement le logiciel
de lecture média de Microsoft (mediaplayer). La Commission européenne a
infligé à la firme américaine une amende de près de 500 millions d’euros
pour avoir abusé de sa position dominante sur le marché des logiciels
informatiques. En France, l’AdC a mis en évidence plusieurs cas importants
d’abus de position dominante ces dernières années : Orange et SFR pour
avoir commercialisé des offres favorisant les appels passés sur leur propre
réseau aux dépens de Bouygues (2012) ; la SNCF pour avoir entravé l’arrivée
de nouveaux opérateurs sur le marché du fret ferroviaire (2012) ; Sanofi-
Aventis pour avoir établi une stratégie de dénigrement à l’encontre des
génériques face à un de ses produits phare (2013) ; ou encore Orange à
nouveau mais à titre individuel pour avoir freiné le développement de la
concurrence sur le marché de la téléphonie à destination des entreprises
(350 millions d’euros d’amende en 2015).
******ebook converter DEMO Watermarks*******
B. Lutter contre les monopoles ?
La question de la stimulation de la concurrence concerne également la remise
en cause de certains monopoles. Dans les pays développés à économie de
marché, plusieurs secteurs ont fait l’objet d’un processus d’ouverture à la
concurrence depuis quelques décennies. C’est ce qui s’est produit aux États-
Unis par exemple avec le démantèlement des public utilities (téléphonie et
énergie notamment) dans les années 1980 ou de manière analogue en France
en 1998 avec l’ouverture complète à la concurrence du marché des
télécommunications après une décennie de restructuration pour l’opérateur
historique – France Télécom – qui est passé du statut d’administration
publique à celui de Société anonyme. Plus récemment toujours en France,
l’ouverture à la concurrence a concerné également le marché de l’électricité
ou encore celui du transport ferroviaire de passager à partir de la fin 2019.
Ces marchés ont en commun d’être des industries de réseaux qui impliquent
la mise en œuvre d’une infrastructure (réseau filaire de téléphonie ou
d’électricité, réseau ferroviaire pour la SNCF ou la RATP par exemple).
Historiquement, ces marchés relèvent d’un cas d’école de l’analyse
économique : le monopole naturel. Ce type particulier de monopole
correspond à une situation où une firme est seule en mesure d’être offreur sur
un marché du fait de la présence de coûts fixes d’installation très élevés
entraînant des rendements d’échelle fortement croissants. Afin de couvrir ses
coûts, la firme doit donc produire à grande échelle, ce qui implique qu’elle
puisse s’adresser à l’intégralité de la demande sur le marché. Il existe donc
une barrière à l’entrée « naturelle » qui empêche une régulation
concurrentielle. Depuis A. Smith, l’analyse économique enseigne qu’à partir
du moment où un monopole naturel s’impose, il est légitime de confier ce
type de production à la puissance publique ou de mettre en place un dispositif
de strict contrôle par l’État de la firme concernée sous peine de voir celle-ci
abuser de sa rente de monopole et/ou de freiner l’accès aux services pour
certains utilisateurs. De fait, après 1945, en France, de nombreuses industries
de réseaux font l’objet de monopoles publics (SNCF, EDF et GDF, PTT puis
France Télécom notamment). Mais si ce type de firme était adapté au
contexte économique et politique des Trente Glorieuses, c’est moins le cas
avec les changements techniques et idéologiques qui s’opèrent au début des
années 1980 (les critiques sont notamment croissantes à propos de la faible
incitation à l’innovation des monopoles publics). Afin de réduire les barrières
à l’entrée, un dispositif a consisté à séparer la gestion du réseau (lignes
******ebook converter DEMO Watermarks*******
téléphoniques et lignes électriques par exemple) de la production du service.
En fin de compte, ce processus a bien conduit à une remise en cause de
plusieurs monopoles publics et à une introduction de la concurrence sur ces
marchés qui sont devenus oligopolistiques.
C’est ainsi ce qui est prévu pour l’ouverture à la concurrence du « rail »
en France : la « SNCF réseau » restera de la compétence de l’État tandis que
le service de transport sera géré dans le cadre d’un marché concurrentiel.
L’ouverture à la concurrence des marchés de réseaux a produit toutefois des
résultats variables. S’agissant du marché de la téléphonie sur lequel nous
disposons aujourd’hui d’un peu de recul, l’ouverture à la concurrence a sans
doute été efficace du point de vue de l’incitation à l’innovation mais
concernant la tarification, il a été prouvé à plusieurs reprises que les firmes
présentes ont opté pour des stratégies collusives (Orange, Bouygues et SFR).
Si la lutte contre les monopoles peut ainsi paraître fondée, elle ne règle pas
pour autant tous les problèmes relatifs à la concurrence.
La question de la lutte contre les monopoles porte également sur des
monopoles publics ou des marchés très règlementés qui ne relèvent pas de
cas de monopoles naturels. Ainsi, J. Delpla et C. Wyplosz (La fin des
privilèges, 2007) montrent que de nombreuses activités en France comme les
taxis, les pharmacies ou la grande distribution commerciale bénéficient de
rentes de situation dues à des protections réglementaires qui conduisent à des
pratiques de prix élevés, à des risques de niveau faible de production (pour
les taxis par exemple) et à une exclusion du marché pour les concurrents
potentiels. Ainsi, les firmes de la grande distribution sont « protégées » par
les lois Raffarin et Galland (1996) qui limitent les possibilités d’installation
de nouveaux supermarchés et hypermarchés sur des territoires prédéfinis. Les
évolutions récentes sur le marché du transport collectif urbain (avec l’arrivée
d’entreprises comme Blablacar ou Uber) attestent pour leur part de son
attractivité importante pour les « nouveaux entrants », ce qui suscite de vifs
débats politiques : cette concurrence est-elle légitime compte tenu des baisses
de prix potentiels ou déloyale compte tenu notamment de la licence dont
doivent s’acquitter les taxis ou des suspicions de pratique de travail
dissimulé ? Depuis longtemps, de nombreux rapports ont souligné
l’importance d’une stimulation de la concurrence dans ces secteurs : rapport
Armand-Rueff en 1960, rapport Attali en 2008, rapport Gallois en 2012.
En 2015, la loi Macron organise la libéralisation partielle de certains secteurs
comme celui du transport routier de voyageurs. Son adoption a toutefois
******ebook converter DEMO Watermarks*******
soulevé de vifs débats entre parlementaires comme dans la société civile.
L’objectif des politiques de la concurrence est le maintien ou la
restauration du caractère concurrentiel des marchés. Cet objectif n’est
cependant pas une fin en soi. Derrière la question de la stimulation de la
concurrence, se pose celle de l’efficacité économique et du bien-être collectif.

III. La stimulation de la concurrence en débat


Des travaux économiques importants montrent que la stimulation de la
concurrence peut avoir des effets néfastes sous certaines conditions (A). Au-
delà d’une remise en cause des dispositifs visant à stimuler la concurrence, il
faut se demander comment articuler les politiques de la concurrence avec les
autres politiques structurelles (B).

A. Ne pas tuer la concurrence au nom de la concurrence


Parmi les nombreux travaux qui considèrent que la stimulation de la
concurrence peut s’avérer contreproductive, ceux de l’école autrichienne
occupent une place incontournable. L’analyse de F. Hayek (Prix Nobel
d’économie 1974) s’appuie en particulier sur une hypothèse qui rompt
radicalement avec la conception walrassienne. Pour Hayek, les actions des
agents économiques sont caractérisées par l’incomplétude des informations
dont ils disposent. Il montre que le marché n’est pas un lieu intemporel où
s’échangent seulement des marchandises, c’est surtout un lieu où se
produisent, se diffusent, s’échangent et s’ajustent des informations partielles
et atomisées sur la base d’anticipations réalisées par les agents. Le marché est
ainsi un processus de découverte : les prix sur les marchés ne sont pas connus
par avance, ils sont des signaux qui incitent les agents à adopter certains
comportements plutôt que d’autres. Dans cette approche, la concurrence est
un processus et non un état ; elle conduit à des déséquilibres sans cesse
renouvelés mais qui sont simultanément résorbés au fur et à mesure que les
agents ajustent leurs anticipations. Pour Hayek, le marché est une institution
sociale centrale mais les règles qui le régissent ne sont pas le résultat d’une
élaboration consciente. Elles s’inscrivent dans un « ordre spontané » et non
dans un « ordre construit » ; elles s’imposent dès lors qu’elles rendent plus
efficaces les comportements économiques.
Selon la formule d’Hayek, le marché est un « ordre social spontané ».
Ainsi, toute politique visant à préserver ou à renforcer la concurrence sur le
marché, par des actions volontaristes de l’État en particulier, ne peut que
******ebook converter DEMO Watermarks*******
venir perturber cet ordre social spontané. Lorsque des firmes commettent des
erreurs et sont évincées, cela peut réduire effectivement leur nombre mais en
aucune façon l’efficacité de la régulation par le marché dans la mesure où cet
événement conduira à un ajustement des anticipations chez les agents de
sorte, qu’en fin de compte, le marché sélectionne toujours les meilleurs et les
plus performants. Toute politique anti-trust ou qui vise à une gestion
centralisée de l’information est donc logiquement néfaste et ne peut que
conduire à terme sur la « route de la servitude » (titre d’un livre d’Hayek
publié en 1944).
En fin de compte, Hayek montre que l’action légitime essentielle des
pouvoirs publics est celle qui assure la garantie les droits de propriété et des
droits des contrats, le droit étant un complément indispensable à l’ordre
spontané du marché sans quoi les échanges et la concurrence ne peuvent
exister. Ainsi, dans La route de la servitude, Hayek considère finalement que
si la concurrence est la méthode la plus efficace que l’on connaisse c’est
surtout la seule méthode qui permette d’ajuster les activités humaines les
unes aux autres sans intervention arbitraire ou coercitive de l’autorité, même
si cette intervention a justement pour but de stimuler la concurrence. Cela
revient en fin de compte à ne pas tuer la concurrence au nom de la
concurrence selon la formule d’H. Lepage.

B. Stimuler la concurrence : un objectif prioritaire de politique


économique ?
À partir de 1945, les pays industrialisés entrent dans une phase de
mondialisation contenue dans laquelle les incitations à la concurrence passent
essentiellement par la politique commerciale entre les nations : montée du
multilatéralisme avec les accords du GATT à partir de 1947, extension du
régionalisme en Europe (Traité de Rome en 1957). Sur les marchés intérieurs
en revanche, c’est la politique industrielle qui domine (politique des grands
projets sous la Présidence de Gaulle, politique des champions nationaux sous
celle de Pompidou). Dans leurs travaux, P. Aghion et P. Howitt (L’économie
de la croissance, 2010) montrent que lorsqu’une économie est en rattrapage
et qu’elle se situe loin de la frontière technologique, la stratégie la plus
efficace est celle de l’imitation des technologies existantes. Dans ce contexte,
la structuration du système productif en grandes firmes sur des marchés
oligopolistiques (aéronautique, sidérurgie, énergie, banque, etc.), le cas
échéant soutenues par les pouvoirs publics, est effectivement justifiée. C’est
******ebook converter DEMO Watermarks*******
le cas de l’économie française et des autres économies européennes durant les
Trente Glorieuses (mais aussi du Japon ou plus tardivement de la Corée du
Sud par exemple).
À partir des années 1980 et pour les pays qui se sont rapprochés de la
frontière technologique, les politiques structurelles sont profondément
remaniées et l’idée du caractère central de la politique de la concurrence
s’impose progressivement (création du Conseil de la concurrence en France
en 1986, remplacé en 2004 par l’AdC, renforcement du droit et de la
politique de la concurrence en Europe avec le Traité de Lisbonne en 2009).
Les travaux d’E. Combe enseignent à ce titre que la politique de la
concurrence est essentielle dans la mesure où elle crée les conditions d’une
plus grande efficacité économique dans tous les secteurs et pour tous les
agents : baisse des prix favorables aux consommateurs et aux entreprises,
mais aussi stimulation des innovations, aide aux entreprises entrantes sur les
marchés, élargissement de la taille des marchés, etc. Il s’agit donc d’une
politique par nature structurelle qui n’a pas vocation à être infléchie en
fonction des fluctuations économiques. Combe s’appuie notamment sur le cas
du marché aérien des « low cost ». Des études empiriques montrent que
depuis près de 20 ans en Europe l’intensification de la concurrence sur ce
marché a conduit à des baisses significatives de prix, mais également à
davantage de ponctualité sur les vols (hausse de la qualité du service) ou
encore à des gains de productivité qui ont pu s’articuler avec une stabilité de
l’emploi dans le secteur. Pour autant, les autorités de la concurrence veillent à
ce que les firmes qui ont pu bénéficier de la chute des barrières à l’entrée ne
soient pas incitées à leur tour à mettre en œuvre des stratégies collusives ou
de concentrations abusives. C’est pourquoi, par exemple, la fusion de
Ryanair et d’Aer Lingus en Irlande en 2007 a été finalement interdite par la
Commission européenne. De même, l’arrivée en 2011 en France d’un
4e opérateur sur le marché de la téléphonie cellulaire (Free) a conduit à des
baisses significatives de prix et à une recomposition du paysage (fin 2017,
Free détient près de 23 % de parts de marché de ce secteur !).
Malgré cela, la politique de la concurrence a parfois mauvaise presse.
Dans le débat public, elle est souvent perçue comme un moyen de justifier
des politiques de libéralisation des marchés dans un contexte de faible
croissance potentielle, de recul du périmètre des services publics et d’un
creusement des inégalités d’accès à ces services. Ce débat est par exemple
relancé en France en 2018 avec le dossier de l’ouverture à la concurrence du
******ebook converter DEMO Watermarks*******
rail et de la privatisation de la SNCF. Parmi les arguments mobilisés, se pose
notamment la question de l’avenir des « petites lignes » interurbaines. À ce
propos, les analyses de J.-L. Gaffard montrent qu’il n’y a pas lieu de faire un
faux procès à la politique de la concurrence sous réserve que celle-ci soit
efficacement articulée avec d’autres politiques structurelles et avec la
politique industrielle en particulier. Or, en Europe notamment, c’est bien la
politique industrielle qui fait défaut actuellement et qui est à l’origine d’un
creusement des écarts en matière de performances économiques structurelles
entre les pays membres. En France en particulier, le système productif est
caractérisé par la faiblesse des entreprises de taille intermédiaire et par une
hypertrophie des secteurs oligopolistiques. Or, comme le rappellent Aghion
et Howitt, lorsqu’une économie est proche de la frontière technologique,
l’incitation à l’innovation est plus forte lorsque l’intensité de la concurrence
est vive (firmes au « coude à coude »). C’est ce qui caractérise par exemple le
système productif allemand ou certains secteurs de l’économie américaine
(Sillicon Valley) et fait défaut en France. Gaffard montre à ce propos qu’une
politique industrielle horizontale, c’est-à-dire transectorielle et qui ne se
limite pas à subventionner des « champions nationaux », est essentielle pour
fournir des incitations aux firmes (enseignement supérieur de qualité,
formation des salariés dans les bassins d’emploi, pôles de compétitivité,
recherche publique ambitieuse, etc.) et ainsi permettre une convergence
productive réelle entre les pays d’Europe là où jusqu’à présent les institutions
européennes s’en tiennent à des discours d’intention (échec de la Stratégie de
Lisbonne depuis 2000) et où les États membres se montrent peu actifs sur
leurs territoires.
Toutefois, l’articulation de la politique industrielle avec la politique de la
concurrence implique aussi d’admettre l’existence nécessaire de distorsions
dans la concurrence. Gaffard rappelle à ce titre que la concurrence n’est pas
un « état des affaires » qu’il conviendrait de surveiller ; elle est un processus
au cours duquel les firmes installées peuvent être défiées par de nouveaux
concurrents dans un contexte où l’information se diffuse progressivement et
où les décisions sont prises sur la base d’anticipations diverses. En fin de
compte, les enseignements d’Hayek trouvent ici une nouvelle actualité : les
politiques structurelles sont inefficaces si elles ne cherchent qu’à rapprocher
l’économie des conditions de la concurrence parfaite (comme sont souvent
tentés de le faire les tenants des politiques libérales dites « de l’offre ») ; elles
gagneront en efficacité en créant un contexte incitatif aux innovations et en
******ebook converter DEMO Watermarks*******
validant certaines restrictions à la concurrence ou pratiques monopolistiques
qui permettent aux entreprises d’acquérir des informations de marché et ainsi
de stimuler la croissance économique potentielle.

Conclusion
Si la théorie économique enseigne bien que les marchés concurrentiels
conduisent à plus d’efficacité, la question de la stimulation de la concurrence
suscite de nombreux débats : mettre en œuvre des dispositifs qui conduisent à
se rapprocher de la CPP, rendre possible une concurrence praticable, justifier
la concentration du système productif en cas de rendements croissants, lutter
contre les monopoles et les collusions mais aussi prendre acte du fait que la
concurrence est un processus impliquant des distorsions qui sont sources de
croissance.
Dans son ouvrage Les habits neufs de la concurrence (2018), F. Lévêque
montre que si les marchés concurrentiels changent progressivement de forme
avec l’approfondissement de la mondialisation (arrivée de nouveaux acteurs
sur fond d’ubérisation des économies), il y a toutefois des raisons de penser
que le degré d’intensité de la concurrence tend aujourd’hui à se réduire du
fait du pouvoir de marché parfois considérable que certaines firmes ont réussi
à se constituer. Cela s’explique par le fait que l’élargissement des marchés
dans l’économie mondiale a des effets contradictoires : si, d’une part, il
augmente le volume de la demande et accroît sa diversité, il conduit aussi et
surtout à des processus de concentration assortis d’instauration de
nombreuses barrières à l’entrée (rendements d’échelle croissants, propriété
intellectuelle, pratiques collusives). En fin de compte, face au pouvoir des
grands groupes comme notamment les GAFAM, c’est bien la question
politique de régulation et de contrôle dans un cadre démocratique du système
capitaliste moderne qui reste posée.

******ebook converter DEMO Watermarks*******


Sujet 5 Risque de crédit et
instabilité financière

1 Se préparer à la rédaction

1.1 L’enjeu du sujet


La crise financière qui a commencé en 2007 et qui produit toujours des effets
négatifs sur l’économie mondiale a conduit, parmi les économistes et les
responsables de la politique économique, à une intensification de la réflexion
sur l’instabilité financière et sur les moyens de la réduire de sorte que la
« stabilité financière » apparaît aujourd’hui comme un objectif à part entière
de la politique économique. Dès le G20 de Londres, en avril 2009, la décision
est prise de mettre en place un Conseil de la stabilité financière. L’objectif de
cette institution qui rassemble à la fois des régulateurs nationaux et des
organisations internationales est d’analyser les vulnérabilités des systèmes
financiers et de coordonner les actions destinées à favoriser une plus grande
stabilité financière. En dépit des réformes mises en œuvre visant à renforcer
les mesures micro et macro prudentielles, dix ans après la crise, des voix se
font entendre qui s’inquiètent de la survenance d’une nouvelle perturbation
financière majeure. Comme l’écrit Paul Krugman : « les crises reviennent
toujours » et il convient de se demander pourquoi.
L’énoncé du sujet rapproche deux termes, celui de « risque de crédit » et
celui « d’instabilité financière » sans poser de question explicite. Il revient
donc à l’auteur de la dissertation de formuler une question qui sera le cœur de
sa problématique. Compte tenu de la littérature scientifique sur le sujet, on
peut penser que le risque de crédit est une cause majeure de l’instabilité
financière. Il conviendra donc d’analyser les relations causales entre ces deux
phénomènes. Sur cette base, la question qui se pose inévitablement est celle

******ebook converter DEMO Watermarks*******


de la réduction de l’instabilité ​financière qui peut être rendue possible par une
meilleure compréhension de ses causes.

1.2 Le cadrage et les concepts clés


Le sujet ne porte pas sur une période historique particulière mais il convient,
afin de le traiter de manière rigoureuse, de le mettre en perspective en
procédant par comparaison. On peut se reporter à l’instabilité financière de la
période antérieure à 1914, des troubles financiers de l’entre-deux-guerres, de
la stabilité financière de la période 1945-1965, l’amplification de l’instabilité
financière depuis les années 1970 et bien sûr les krachs financiers mondiaux
de 1987 et 2007. On a donc l’embarras du choix. Il faut seulement choisir des
exemples judicieux.
Le risque de crédit est un cas particulier de risque de contrepartie. Ce
dernier porte sur la probabilité que le cocontractant fasse défaut au moment
du dénouement d’un contrat. Le risque de contrepartie devient risque de
crédit lorsque ce contrat porte sur une opération de crédit. De manière plus
large, le risque de crédit inclut le risque de marché, le risque de liquidité et le
risque opérationnel. L’instabilité financière désigne pour sa part des
déviations cumulatives des prix des actifs financiers par rapport à leur valeur
fondamentale. Cela se traduit par des hausses ou des baisses cumulatives sur
les marchés d’actions, sur les marchés de taux ou sur le marché des changes
(gonflement puis éclatement de bulles spéculatives). L’instabilité financière
peut aussi se manifester sur les marchés d’actifs et sur les institutions
financières (banques, compagnies d’assurance, fonds d’investissement
notamment). Dans ce cas, on peut assister à des faillites (éventuellement en
cascade) de ces institutions qui résultent parfois de « course au guichet »
(Bank Run).

1.3 La construction de la problématique


En principe, le système financier (banques et marchés) sait gérer le risque de
crédit. Il s’agit même de l’une de ses fonctions essentielles. Dès lors, la
question se pose de savoir pourquoi, au cours de certaines périodes, le risque
de crédit augmente et conduit à un accroissement de l’instabilité financière et
donc à la multiplication des crises financières. Si la relation causale entre
risque de crédit et instabilité financière est établie, il convient alors de se
demander comment il est possible de réduire l’instabilité financière
******ebook converter DEMO Watermarks*******
notamment par le recours à des politiques prudentielles qui permettent de
limiter la montée du risque de crédit.

2 Rédiger le devoir : une proposition

Introduction
En décembre 2018, dans l’une de ces notes d’analyse économique, P. Artus
souligne que la finance tend à devenir plus grosse et plus risquée et il ajoute
qu’il serait illusoire de croire qu’elle pourrait devenir plus petite et moins
risquée. L’explication réside, selon lui, dans le fait qu’il existe au niveau
mondial une épargne abondante, tandis que les épargnants souhaitent un
risque limité et une forte liquidité de leurs placements et que les
investissements à financer supposent des ressources longues et sont associés
à un risque important (nouvelles technologies, transition énergétique, etc.). Il
y a là en effet une explication de l’explosion de la finance par rapport à la
croissance économique en volume depuis la fin des années 1970. Banques et
marchés doivent opérer des montages financiers complexes pour rendre
compatibles les attentes des épargnants et celles des investisseurs. Mais cette
explication, qui repose sur une analyse en termes de marché des fonds
prêtables, est partielle. Elle ne prend pas en compte l’instabilité endogène de
la finance qui résulte des effets d’un cycle financier largement lié à
l’accroissement périodique du risque de crédit. Dans le cadre d’un paradigme
qui emprunte des éléments d’analyse à J. A. Schumpeter (importance de la
monnaie de crédit), à J. M. Keynes (rôle des anticipations et des « esprits
animaux ») et à H. Minsky (hypothèse d’instabilité financière), l’instabilité
financière est inhérente à une économie capitaliste financiarisée. Il convient
donc de s’interroger sur les liens entre risque de crédit et instabilité
financière.
Par risque de crédit, au sens large, on entend le risque de voir un,
plusieurs ou un grand nombre d’acteurs du système financier faire défaut sur
leur dette ou être dans l’incapacité de respecter leurs engagements (par
exemple ne pas livrer à l’échéance prévue les liquidités ou les devises que
l’on s’était engagé à livrer dans le cadre d’un contrat à terme). Le risque de
crédit, dans le sens que nous adoptons ici, est un risque de contrepartie (le
partenaire au contrat est victime d’illiquidité et/ou d’insolvabilité) qui se
manifeste sur le marché du crédit. Il inclut le risque de marché (variation
******ebook converter DEMO Watermarks*******
importante du cours des titres, des devises, des taux d’intérêt, qui place les
opérateurs dans l’incapacité de respecter leurs engagements), le risque de
liquidité (qui résulte d’une brutale contraction de la liquidité de marché du
fait d’une crise de confiance) et enfin le risque opérationnel (qui résulte d’une
erreur humaine ou d’une défaillance technologique, intentionnelle ou non).
On le voit, les opérations financières (crédits bancaires ou recours aux
marchés financiers) sont intrinsèquement risquées, elles mettent en relation
des agents économiques qui n’ont pas le même degré d’aversion pour le
risque et qui sont le plus souvent en situation d’asymétrie d’information.
Mais en principe, le système financier sait comment gérer les risques et
comment se protéger contre les risques. Ce qui importe donc ce sont les
risques excessifs que les banques ou les marchés prennent et surtout les effets
de contagion qui conduisent à un risque systémique. L’instabilité financière,
quant à elle, désigne des déviations cumulatives des prix des actifs financiers
par rapport à leur valeur fondamentale. Elle se manifeste par la récurrence
des crises financières qui se produisent sur les marchés des changes, sur les
marchés boursiers et qui se traduisent parfois par des faillites bancaires.
Une première question se pose donc : comment le risque de crédit
conduit-il à une instabilité financière (I) ? Si cette relation est établie, il faut
alors s’interroger sur les moyens qui permettraient de stabiliser un système
économique intrinsèquement instable (II).

I. La dette, le boom, la crise


Le schéma explicatif de l’instabilité financière peut être résumé en trois
termes qui constituaient le titre d’un livre de V. Levy-Garboua et
G. Maarek (1985). La dette est le point de départ. Quand la situation
économique est satisfaisante (croissance soutenue, faible inflation, faible taux
d’endettement des entreprises et des ménages), on assiste à un gonflement
des taux d’endettement qui alimente la consommation et la production, et qui
favorise la pleine utilisation des facteurs de production. Dans un second
temps, la croissance débouche sur un « boom », c’est-à-dire sur une période
de surchauffe de l’économie (la croissance effective est supérieure à la
croissance potentielle). Cette phase de surchauffe se traduit par une
augmentation du prix des actifs. À un certain moment on assiste à un
retournement à la baisse. Les prêteurs (banques, épargnants) s’inquiètent de
la montée de l’endettement. Les prix des actifs baissent, les agents tentent
alors de se désendetter, ce qui aggrave la situation : on est passé du boom à la
******ebook converter DEMO Watermarks*******
crise. C’est ce que l’on appelle le cycle du crédit qui voit alterner des phases ​-
d’euphorie et des phases de détresse financières. Pour rendre compte de ce
mécanisme, il faut distinguer deux choses : le mécanisme qui con​duit à
l’apparition et au gonflement des bulles spéculatives (A), puis le mécanisme
qui conduit à l’éclatement des bulles (B).

A. Le paradoxe de la tranquillité et le gonflement des bulles


spéculatives
Les mécanismes qui conduisent à l’aggravation du risque de crédit ont
notamment été analysés par l’économiste postkeynésien H. Minsky. Celui-ci
parle d’un paradoxe de la tranquillité car c’est au cœur des périodes où la
situation économique est prospère et la situation financière stable que se
créent les conditions du déclenchement d’une crise financière. Minsky
montre que pendant la période de tranquillité, le taux d’endettement
augmente. En effet, ménages et entreprises étant peu endettés, ils sont
conduits à solliciter des crédits pour consommer ou investir et les organismes
financiers accordent facilement ces crédits car ils considèrent que le risque de
crédit est limité. Dans un premier temps, il s’agit de ce que Minsky appelle
un financement prudent (les revenus ou les gains en capital générés par
l’utilisation des emprunts permettent de rembourser le capital emprunté et
payer les intérêts). Dans un climat d’optimisme quant à l’avenir économique,
les emprunteurs et les banques passent progressivement à un financement
spéculatif (les revenus ou les gains en capital tirés de l’utilisation des
emprunts permettent de payer les intérêts mais pas de rembourser le capital,
les emprunteurs doivent donc souscrire un nouveau crédit à l’échéance pour
rembourser). Enfin, la recherche par les prêteurs de l’extension de leur
clientèle conduit progressivement à une proportion croissante de crédits qui
relèvent du financement Ponzi (les revenus ne permettent de payer ni les
intérêts, ni le capital).
Le passage d’un mode de financement à l’autre se traduit par une montée
du risque de crédit. Comment expliquer cette euphorie spéculative qui est
aussi une course à l’abîme (aveuglement au désastre) ? Le cœur de
l’explication se trouve dans le mécanisme de l’accélérateur financier. Dans la
période d’euphorie et d’octroi généreux du crédit, le prix des actifs
(immobiliers et financiers notamment) augmente. Cela produit donc, du point
de vue des emprunteurs, un effet de richesse positif. Tant que les
anticipations sont haussières, les agents sont donc incités à emprunter afin
******ebook converter DEMO Watermarks*******
d’acquérir de nouveaux actifs et de bénéficier de la plus-value qui découle de
la hausse des prix. Du côté des prêteurs, le fait que les emprunteurs disposent
d’un patrimoine dont la valeur augmente, cela constitue une garantie contre le
risque de défaut (c’est particulièrement vrai dans le cas de crédits
hypothécaires). La hausse du prix des actifs est donc autoentretenue et elle
explique le processus de bulles spéculatives.
Le krach boursier de Wall Street d’octobre 1929 est le résultat de ce type
de processus : des couches de plus en plus larges de la population achetaient
à crédit auprès des brokers des actions cotées sur le
New York Stock Exchange. Quelques mois plus tard, ils revendaient ces
actions avec une plus-value qui leur permettait de rembourser le crédit, de
payer les intérêts et d’accroître leur patrimoine. Cela conduisait à emprunter à
nouveau et à se porter acheteurs sur le marché boursier. Le gonflement de la
bulle immobilière aux États-Unis qui a précédé la crise de 2007-2008 relève
de la même logique.
Cet exemple permet de mettre en évidence trois composantes essentielles
de la montée du risque de crédit. D’une part, les banques, à la recherche d’un
accroissement de leur part de marché, ont été conduites à accorder des crédits
à des clients qui constituaient de « mauvais risques ». Il s’agit des fameux
« Ninja » (No income, no job, no asset) qui bénéficiaient de crédits
« subprime », alors que les « bons risques » bénéficiaient de crédit « prime ».
D’autre part, le fait que des organismes liés à l’État (Freddie Mae et
Fannie Mac) apportaient leur garantie et refinançaient les crédits
hypothécaires conduisait les banquiers à sous-estimer les risques, enfin
l’adoption du modèle « originate and distribute » permettait aux banques
d’initier le crédit (originate) puis de revendre le risque (distribute) grâce à la
titrisation. On voit par là que des stratégies individuelles rationnelles, y
compris des stratégies visant à se protéger des risques, ont pour effet
émergent d’accroître le risque systémique qui n’est pas pris en compte par les
agents individuels. Cette montée du risque est donc inhérente au
fonctionnement d’une économie capitaliste au sein de laquelle la sphère
financière joue un rôle essentiel. Elle débouche sur une plus grande
vulnérabilité à l’éclatement de crises et donc à une plus grande instabilité.

B. De l’euphorie à la panique : l’éclatement des bulles spéculatives


L’économiste Ch. Kindleberger a intitulé son livre sur l’histoire des crises
financières Manias, Panics and Crashes (1978). « Manias » signifie en
******ebook converter DEMO Watermarks*******
anglais « folie » ou « fureur ». Mais cette phase d’euphorie résultant de
comportements mimétiques ne doit pas être expliquée par des comportements
irrationnels. Les stratégies des agents sur le marché du crédit comme sur les
marchés financiers sont parfaitement rationnelles. Elles conduisent toutefois à
la montée du risque de crédit et à un éloignement cumulatif du prix des actifs
par rapport à leur valeur fondamentale. Cette hausse des cours des titres, des
taux de change, des prix des matières premières et/ou des actifs immobiliers
ne peut durer éternellement. Il vient toujours un moment où les anticipations
se retournent à la baisse. On a pris l’habitude de parler du « moment
Minsky » pour désigner cette période où les anticipations haussières se
transforment en anticipations baissières.
Prenons l’exemple de la crise de 1987, considérée à l’époque comme la
principale crise depuis 1929. Entre 1979 et 1985 la valeur du dollar sur les
marchés des changes ne cesse de s’apprécier du fait du changement de la
politique monétaire des États-Unis qui provoque une hausse importante des
taux d’intérêt américains et de la confiance qu’inspire la politique
économique du président Reagan aux milieux financiers. Mais il apparaît dès
le début des années 1980 que la bulle spéculative sur le marché des changes
conduit à une surévaluation du dollar nuisible à l’économie américaine. Cette
bulle sur le marché des changes en provoque une autre sur les marchés
financiers puisque les placements en provenance du reste du monde
alimentent la hausse du cours des obligations et des actions. En 1985,
conscients de cette montée du risque, les autorités monétaires et les
gouvernements des grandes puissances économiques s’efforcent d’organiser
un atterrissage en douceur du dollar (soft lending) entre 1985 (accord du
Plaza) et 1987 (accord du Louvre). Mais à l’automne 1987, un désaccord
public entre les autorités monétaires allemandes et le secrétaire au Trésor
américain déclenche une crise de confiance, une chute brutale du dollar et un
effondrement des cours boursiers. C’est le « moment Minsky » de cette crise.
En 1997, la crise asiatique est déclenchée par la révélation de l’effondrement
des réserves de change de la Thaïlande qui déclenche une sortie massive de
capitaux (Fly to Quality). De manière analogue, en 2007 c’est la fermeture de
deux fonds de placement spécialisés dans le placement de produits structurés
incluant des crédits hypothécaires qui amorce la crise amplifiée par la faillite
de Lehman Brothers (septembre 2008).
À l’origine de chaque grande crise financière se trouve un évènement
singulier qui provoque un retournement des anticipations à la suite d’une
******ebook converter DEMO Watermarks*******
période de « boom » qui a conduit à une hausse excessive du prix des actifs.
Dès lors, l’accélérateur financier joue à la baisse : la valeur des actifs baisse,
les banques contractent leurs crédits (Credit Crunch), les agents cherchent à
se désendetter en vendant leurs actifs en catastrophe, ce qui provoque une
accentuation de la baisse des cours. Ce processus de déflation par la dette
avait déjà été analysé en 1933 par Irving Fisher. La crise de surendettement
conduit à une chute du prix des actifs et à une chute du niveau général des
prix qui entraîne un paradoxe : plus les individus se désendettent et aggravent
de ce fait la baisse des prix, plus la dette réelle des agents augmente. Cela est
susceptible de conduire à des paniques bancaires et donc à des faillites en
chaîne des banques.
La crise de 2007-2008 présente de ce point de vue une originalité, elle est
la première crise d’une économie financiarisée au niveau mondial. Depuis le
début des années 1980 on a déréglementé les activités financières, on a
libéralisé les mouvements de capitaux, on a décloisonné les activités
financières (les séparations entre banques d’affaire et banques de dépôt, entre
banque et assurance, entre financement bancaire et financement de marché
ont été remises en cause). De ce fait un vaste marché mondial des activités
financières s’est constitué. Comme le rappelle M. Aglietta, au début des
années 1980 le commerce mondial comme le montant des actifs financiers
étrangers représentaient chacun environ 20 % du PIB mondial. Trente ans
après, le commerce mondial représente toujours environ 20 % du PIB
mondial, mais les actifs financiers étrangers représentent 180 %. Cette
mesure, parmi d’autres, de la financiarisation croissante de l’économie,
permet de comprendre l’ampleur de la montée de l’endettement public et
privé au niveau mondial. Or, cette montée de la dette est aussi une montée du
risque de crédit. De plus, de nombreux travaux ont mis en évidence une
corrélation positive entre la taille de la finance et la fréquence des crises
financières. Il convient donc de s’interroger sur les moyens de limiter à la fois
la montée du risque financier et l’instabilité financière.

II. Limiter le risque de crédit, maîtriser l’instabilité financière


Au lendemain de la crise de 2007-2008, le Cercle des économistes publie un
ouvrage intitulé Le monde a-t-il encore besoin de la finance ? La question
méritait d’être posée à la suite d’un séisme d’une telle ampleur. La réponse
était en substance : oui, le monde a besoin de la finance, mais à condition
qu’elle soit bien régulée. Il faut rappeler en effet que la finance exerce des
******ebook converter DEMO Watermarks*******
fonctions essentielles dans les économies développées : une fonction de
transfert de richesse dans le temps (l’épargne retraite par exemple), une
fonction de gestion du risque (à travers les opérations à terme ou des contrats
d’assurance), une fonction de mise en commun des richesses (à travers
l’émission d’actions ou d’obligations pour financer des investissements
privés ou publics), une fonction de production et de diffusion de
l’information (à travers les cours des titres, les taux de change ou les taux
d’intérêt qui sont des signaux-prix). Sauf à imaginer un monde où les agents
n’auraient recours qu’à l’autofinancement et à la thésaurisation, la finance est
indispensable. Mais parce qu’elle est indispensable et que ses éventuels
dysfonctionnements affectent l’ensemble de l’économie, elle doit être régulée
au niveau des acteurs individuels de la finance par une politique
microprudentielle qui suppose à la fois une supervision et des procédures de
résolution (A) et au niveau de l’ensemble de l’économie par une politique
macroprudentielle (B).

A. La politique microprudentielle
Pendant la période qui s’étend de la grande crise des années 1930 (adoption
de la séparation bancaire dans le cadre du Glass-Steagall aux États-Unis
en 1933) au début des années 1970, l’activité des banques est soumise à une
règlementation stricte de la part des autorités nationales. Plusieurs études
conduites aux États-Unis mettent l’accent sur le lien entre cette
règlementation et le niveau élevé de stabilité financière. À partir du début des
années 1990, l’idée s’impose qu’il faut laisser une plus grande latitude aux
banques et au fonctionnement des marchés financiers pour assurer un
financement plus dynamique des économies. Il faut pour cela dérèglementer
les activités financières et, en même temps, inciter les banques à renforcer
leurs contrôles internes des risques et faire jouer davantage la discipline de
marché. Pourtant, dès 1974, à la suite de la faillite de la banque Herstatt en
Allemagne, les banques centrales décident de mettre en place, dans le cadre
de la Banque des règlements internationaux, le Comité de Bâle dont les
activités vont conduire dans le cadre du dispositif dit « Bâle I » à
l’instauration du ratio Cooke (qui impose le respect d’un rapport de 8 % entre
les fonds propres de chaque banque et le total de ses engagements pondérés
par les risques). Progressivement, du fait même de la récurrence des crises,
on constate la volonté de renforcer les mesures microprudentielles afin de
réduire le risque de crédit au niveau de chaque banque pour protéger les
******ebook converter DEMO Watermarks*******
clients (déposants ou emprunteurs).
Cette politique microprudentielle repose, pour l’essentiel, sur les éléments
suivants. En premier lieu, elle implique une surveillance de la solvabilité et
de la liquidité. Dans cet objectif des ratios de fonds propres et de liquidité
sont instaurés. Ces ratios visent à mettre les banques en situation de résister à
des difficultés éventuelles. En deuxième lieu, elle implique de limiter l’effet
de levier, c’est-à-dire le rapport entre le montant total des crédits accordés et
les capitaux propres des banques et des autres institutions financières. On sait
en effet que, pour un taux d’intérêt donné, la rentabilité des banques est
proportionnelle à l’effet de levier. Elles ont donc intérêt à financer par leur
propre endettement les crédits qu’elles accordent. Il est donc nécessaire
qu’une règlementation limite l’ampleur de l’effet de levier. En troisième lieu,
elle conduit à lutter contre le phénomène d’aléa moral. D’une part, certaines
banques bénéficient d’une garantie publique, d’autre part, les diverses
institutions bancaires et financières ont tendance, dans la période d’euphorie,
à sous-estimer les risques qu’elles prennent notamment en procédant à des
opérations de transformation d’échéances trop importantes (financer par des
emprunts sur des échéances courtes, des prêts sur des échéances longues). La
solution consiste à fixer des règles de résolution bancaire qui privilégient le
« bail in », c’est-à-dire le fait que ce sont les actionnaires de la banque et les
déposants les plus importants qui supportent le coût d’une éventuelle faillite
et non les finances publiques. En quatrième lieu, elle implique de lutter contre
l’arbitrage règlementaire.
Par exemple, le renforcement de la règlementation des banques peut
inciter à développer le shadow banking. La solution ici est d’étendre le
champ de la règlementation à la finance de l’ombre et aux activités « hors
bilan » des banques. Enfin, elle vise à séparer les activités bancaires. C’est ce
qui a été réalisé au États-Unis avec la règle Volcker et en Grande-Bretagne
avec la règle Vickers. Sans obliger les groupes bancaires à se scinder en
entités indépendantes, ces règles consistent à cantonner dans une entité
spécifique les activités de banques d’investissement (règle Volker) ou les
activités de banque de dépôt (Règle Vickers). Dans les deux cas on évite la
contagion entre les deux types d’activités et la garantie de la puissance
publique ne bénéficie qu’aux activités de banque de dépôt.
On le voit, les mesures microprudentielles sont nombreuses. C’est leur
mise en place et leur renforcement qui étaient au cœur des politiques
publiques à la suite des accords de « Bâle 1 » et de « Bâle 2 ». Mais depuis la
******ebook converter DEMO Watermarks*******
crise asiatique de 1997-1998 et plus encore depuis la crise de 2007-2008, les
réflexions des économistes et, dans une moindre mesure, les politiques
publiques mettent l’accent sur le risque systémique et les politiques
macroprudentielles.

B. La politique macroprudentielle
Le recours aux politiques macroprudentielle constitue, selon A. Cartapanis,
un changement de paradigme qui repose notamment sur l’idée que la stabilité
financière est un bien collectif. Il ne s’agit donc pas seulement de protéger les
intérêts des épargnants ou des emprunteurs clients de telle ou telle banque,
mais d’empêcher la survenance de crises systémiques qui sont
intrinsèquement liées au caractère endogène du risque de crédit. De plus, ce
qui est en jeu, ce n’est pas le sort de tel ou tel marché ou de telle ou telle
institution financière, mais les effets de la crise financière éventuelle sur la
production en volume des économies concernées. Le risque de défaut d’une
institution financière n’est pas seulement lié à l’agrégation de ses diverses
prises de risque dans ses relations avec sa clientèle, mais il dépend aussi de la
situation d’ensemble du système financier et, plus largement encore de la
situation macroéconomique globale.
Par exemple, une chute du prix des actifs (crise boursière, crise
immobilière) est susceptible d’affecter la qualité des créances détenues par
toutes les institutions financières. De même, un choc macroéconomique
important peut conduire les banques à ne plus prêter les liquidités dont elles
disposent aux autres banques avec le risque de survenance d’une crise de
liquidité. Bien mieux, le comportement prudent des banques les plus liquides
qui décident de placer en titres publics non risqués leurs avoirs en monnaie
centrale, permet à ces banques de limiter leur propre exposition au risque,
mais conduit dans le même temps à un assèchement brutal de la liquidité des
marchés dont elles peuvent être victimes alors qu’au niveau individuel leur
comportement apparaît comme prudent.
La finalité de l’approche macroprudentielle n’est pas seulement d’assurer
la résilience des institutions financières prise individuellement, ni d’assurer la
stabilité du système financier dans son ensemble, mais aussi de faire en sorte
que des difficultés financières ne conduisent pas à une contagion au sein de la
sphère réelle. Il importe en premier lieu, dans le cadre de l’approche
macroprudentielle, d’analyse les canaux de transmission du risque entre les
banques et autres institutions financières. Le premier canal résulte d’une
******ebook converter DEMO Watermarks*******
exposition directe dans le cas où, par exemple, une banque est créancière
d’une autre dans le cadre de prêts bilatéraux. Si la banque débitrice est en
difficulté ou si elle fait défaut, la banque créancière subit les effets d’un
risque de contrepartie. Elle va devoir provisionner son bilan pour compenser
les pertes qui affectent ou sont susceptibles d’affecter une partie de son actif.
Le second canal résulte d’une pénurie de refinancement. Une banque solvable
et liquide en situation normale, puisqu’elle détient des actifs qui lui
permettent de servir de collatéral à des emprunts de liquidité, peut ne pas
trouver ces liquidités sur le marché en raison d’une brusque montée de la
défiance. Enfin, une banque peut être victime du fait que d’autres banques
réalisent des ventes massives d’actifs parce qu’elles sont en situation de
détresse. Il va en découler une baisse de la valeur des actifs qui affecte aussi
les banques qui ont pris peu de risque au niveau individuel.
L’analyse des risques de contagion entre banques permet d’identifier des
banques d’importance systémique et donc de les soumettre à une supervision
particulièrement vigilante. Dans le même temps, puisqu’elle prend en compte
l’analyse d’ensemble de la situation macroéconomique, l’approche
macroprudentielle doit analyser la situation de l’économie au regard du cycle
des affaires. On sait en effet que c’est à la fin de la phase haussière du cycle
que la spéculation se développe et que la prise de risque s’accroît en même
temps que le surendettement progresse. C’est largement en raison du défaut
de surveillance macroprudentielle que la crise asiatique de 1997 et la crise
des subprimes de 2007 sont survenues. Dans le premier cas, les autorités
monétaires nationales et internationales n’ont pas pris en compte le fait que
l’infrastructure financière n’était pas adaptée à l’afflux massif de capitaux qui
a caractérisé la période antérieure à la crise. De plus, l’affaiblissement des
réserves de change des pays concernés (notamment la Thaïlande) n’a pas été
pris en compte.
Ce n’est que tardivement que ce déséquilibre macroéconomique a été
perçu par le FMI, au moment où les sorties massives de capitaux
s’amorçaient. S’agissant de la crise de 2007, les autorités monétaires
surveillaient essentiellement la stabilité des prix, l’objectif de l’accroissement
de 2 % du niveau général des prix étant respecté, elles n’ont pas pris en
compte l’augmentation du prix des actifs et le risque d’instabilité financière
que cette hausse comportait. Enfin, comme l’a déclaré A. Greenspan après la
crise, les autorités monétaires des États-Unis (mais d’autres aussi sans doute)
comptaient sur la discipline de marché pour imposer aux banques des
******ebook converter DEMO Watermarks*******
comportements individuels prudents. S’il n’en a rien été c’est que la montée
du risque de système n’a pas été perçue par les participants au marché du
crédit et aux marchés financiers.
Dans cette perspective, plusieurs types de mesures peuvent être mis en
place. D’une part, la surveillance du cycle financier, d’autre part, la mise en
place de « coussins de fonds propres » contracycliques et/ou liés au risque
systémique. Les banques centrales peuvent donc exiger que le rapport entre
les fonds propres et les engagements des banques soit plus important quand le
risque systémique s’accroît, et/ou en phase haute du cycle financier. Le but
est d’inciter les banques à octroyer moins de crédits quand le risque de
surendettement devient plus important. De plus, en activant ces dispositifs,
les autorités envoient un signal aux agents qui sont incités à modérer leur
euphorie. Les autorités monétaires peuvent aussi produire une meilleure
information statistique sur les risques de crédit et coopérer davantage (ce qui
est rendu possible, par exemple, par la mise en place du Conseil du risque
systémique en 2009 ou par l’intensification de la coopération au sein du
Comité de Bâle). Au sein de l’Union européenne, la mise en place de « stress
tests » sur l’ensemble des banques et la création de l’Union bancaire qui
institue un cadre de supervision unique et une procédure de résolution unique
en cas de crise bancaire sont une bonne illustration de la logique
macroprudentielle.

Conclusion
Le risque de crédit est donc bien endogène. Il est inhérent au fonctionnement
même d’une économie au sein de laquelle la finance occupe une place
importante. Or, comme le soulignait déjà J. A. Schumpeter, le développement
du capitalisme implique le financement à crédit d’une partie de
l’accumulation. L’interaction entre les agents non-financiers d’une part, les
banques et les marchés financiers d’autre part, fait naître un cycle du crédit
qui se traduit par une aggravation du risque systémique au fur et à mesure
que le taux d’endettement augmente. C’est ce cycle du crédit qui permet de
comprendre le gonflement de bulles spéculatives dont l’éclatement conduit à
la crise financière.
L’existence d’une relation causale entre le risque de crédit et l’instabilité
financière est solidement établie par une longue tradition théorique qui va de
Marx à Minsky en passant par Wicksell, Keynes et Fisher. Mais cette
instabilité financière n’est pas une fatalité. Comme le faisait remarquer
******ebook converter DEMO Watermarks*******
Minsky, l’existence d’une longue période de relative stabilité financière qui
va des années 1930 aux années 1970 montre que des institutions
judicieusement mises en place et des comportements financiers prudents sur
la base de l’expérience peuvent contribuer à cette stabilité. Mais le « tournant
libéral » de la fin des années 1970, le développement d’une confiance
excessive dans l’efficience des marchés comme alternative à la
règlementation jugée trop tatillonne, a conduit à une nouvelle période
d’instabilité financière qui a culminé lors de la crise de 2007. Cela a mené à
une réflexion autocritique chez les économistes et à un changement
significatif de l’orientation de la politique économique visant à limiter la
montée du risque (et donc le retour des crises). Il faut souligner cependant
que si les responsables du système financier n’ont pas pu anticiper la crise et
conjurer son éclatement, ils se sont montrés relativement efficaces pour en
limiter l’impact sur l’économie mondiale. On n’a pas assisté à des faillites en
chaînes des banques, ni a un effondrement durable du commerce mondial, ni
à une déflation profonde et durable. À travers la politique monétaire non
conventionnelle, les banques centrales ont joué à plein leur rôle de prêteur en
dernier ressort.
Mais un débat reste ouvert. Si certains économistes soulignent des
inflexions importantes dans la gestion des risques et dans la régulation des
systèmes financiers, d’autres considèrent que les changements décisifs ne
sont pas intervenus (par exemple en matière de séparation bancaire ou en
matière de limitation de l’effet de levier) et déplorent le fait que pour
l’essentiel l’attitude « business as usual » l’ait emporté. Ils s’inquiètent d’une
nouvelle montée des risques financiers et craignent la survenance d’une
nouvelle crise financière.

******ebook converter DEMO Watermarks*******


Sujet 6 La croissance
économique a-t-elle des
limites ?

1 Se préparer à la rédaction

1.1 L’enjeu du sujet


Deux interrogations centrales agitent aujourd’hui à la fois les économistes et
les responsables politiques. D’une part, depuis la crise de 2007-2008 la
reprise de l’économie est, au mieux, poussive. On n’a pas retrouvé la
tendance de croissance antérieure à la crise. Cela concerne non seulement les
pays développés (dont le Japon qui est en quasi-stagnation depuis le début
des années 1990), mais aussi les pays émergents comme le montrent les
situations de la Russie, du Brésil et de la Chine. D’autre part, les inquiétudes
sur le réchauffement climatique, sur la destruction de la biodiversité et des
écosystèmes renforcent l’idée d’une limite physique de la croissance (pénurie
des matières premières, désertification, hausse du niveau des océans, etc.).
La croissance semble donc bien buter contre des limites. L’un des
dangers de ce sujet serait de l’aborder sur le registre des débats médiatiques
et militants. Ce serait une erreur, par exemple, de centrer le devoir sur la
question de la décroissance, parce que cette notion n’a pas de légitimité
académique. En revanche, il existe de nombreux travaux autour de la
question de la « croissance verte » ou de la « stagnation séculaire » qui
peuvent être utilement mobilisés pour traiter ce sujet.

1.2 Le cadrage et les concepts clés


L’histoire des faits et de la pensée économique nous enseigne que ces
******ebook converter DEMO Watermarks*******
interrogations ne sont pas nouvelles. Il faut donc éviter de se limiter aux
débats contemporains. Il y a un grand intérêt, pour traiter ce sujet, à adopter
une perspective historique longue car les débats anciens sur les limites de la
croissance éclairent les débats actuels. Il faut aussi prendre en compte les
différentes dimensions du sujet.
Sans doute la plupart des candidats penseront d’abord aux questions
environnementales, mais il ne faudrait pas oublier les aspects liés aux
technologies et à l’innovation, les questions liées aux inégalités, celles qui
concernent les politiques économiques. De nombreux champs de la science
économique doivent donc être mobilisés et pas seulement les théories de la
croissance. Le concept de croissance est bien sûr essentiel dans le sujet, le
terme « limites » n’est pas un concept économique, on pourra donc retenir
comme limites de la croissance tous les phénomènes qui peuvent ralentir le
rythme de croissance et, dans certains cas, conduire à une croissance nulle
voire négative.

1.3 La construction de la problématique


La tentation est sans doute de faire un plan du type : oui elle a des limites,
mais non elle n’en a pas (ou l’inverse). Un tel plan ne serait guère
satisfaisant, car nul de conteste qu’il y ait des limites à la croissance (au
moins à certains moments et dans certains espaces). Ce qui pose problème
dans ce sujet, ce sont les arguments qui, au cours du temps, ont conduit des
économistes, pourtant remarquables, à considérer que la tendance à la
stagnation était inévitable. Leurs arguments ont été toutefois contestés et on a
constaté ensuite une reprise ou une poursuite de la croissance. Cet historique
des débats nous permet sans doute d’examiner les controverses
contemporaines sur la stagnation séculaire.
La problématique est donc la suivante : en quoi les débats conduits jadis à
partir des thèses de Th. Malthus, D. Ricardo, A. Hansen et P. Sweezy nous
permettent-ils d’éclairer la controverse naissante sur la stagnation séculaire ?
Le plan adopté sera donc historique. De plus, tout en restant fermement ancré
dans les savoirs savants de référence, la réponse à la question posée par le
sujet suppose l’adoption d’un cadre d’analyse. Notre perspective sera donc la
suivante : les limites de la croissance peuvent être surmontées si la croissance
se transforme. Le point de vue selon lequel nous sommes entrés dans une
nouvelle phase historique au cours de laquelle la croissance devient

******ebook converter DEMO Watermarks*******


durablement faible serait tout aussi acceptable.

2 Rédiger le devoir : une proposition

Introduction
En septembre 2018, J. Stiglitz publie un article qui a un grand retentissement
(“Beyond Secular Stagnation”). Il y affirme que la stagnation séculaire n’a
rien de naturel ni d’inévitable. Pour lui, la croissance trop faible résulte d’une
stimulation budgétaire insuffisante de l’économie et d’une régulation
insuffisante du secteur financier.
« La croissance est la religion du monde moderne » affirme de son côté
D. Cohen (Le monde est clos et le désir infini, 2015). En effet, dit-il, elle
apaise les conflits, elle est une promesse de progrès. Mais, affirme-t-il, la
croissance matérielle s’éloigne, elle devient intermittente du fait des crises et
elle menace la planète. Elle se heurte donc à des limites. Dans son livre
de 2018 (Il faut dire que les temps ont changé), Cohen se réfère aux travaux
de R. Gordon pour affirmer que la dynamique de croissance est parvenue à
son terme.
La croissance économique est, selon F. Perroux, l’augmentation sur
longue période d’un indicateur du produit réel global (le plus souvent on
utilise le PIB). Cependant, beaucoup d’économistes font aussi référence au
produit par tête pour tenir compte à la fois de l’augmentation de la production
et de l’augmentation de la population. À l’échelle de l’histoire de l’espèce
humaine, la croissance économique est un phénomène récent. Au mieux, on
peut parler de croissance à partir de 1750. Mais de cette époque (qui est celle
de la Révolution industrielle) à nos jours, l’augmentation de la production
totale et de la production par tête est spectaculaire (en particulier dans les
pays qui sont les pionniers de cette Révolution industrielle). Pourtant, très tôt,
des économistes s’inquiètent des limites de la croissance en mettant en avant
une tendance vers l’état stationnaire. Le débat revient de façon récurrente, on
le retrouve aujourd’hui avec le thème de la stagnation séculaire. Il est donc
intéressant d’analyser les arguments avancés au cours des différentes étapes
de ce débat.
Dès le XIXe siècle, des controverses opposent les économistes sur le
caractère soutenu de la croissance ou, au contraire sur la tendance à la
stagnation (I). Au cours de la période contemporaine, le débat rebondit sans
******ebook converter DEMO Watermarks*******
pour autant se limiter aux questions environnementales : si les limites de la
croissance sont réelles, elles peuvent toutefois être surmontées si la
croissance se transforme (II).

I. Les limites de la croissance : un débat qui vient de loin


Les économistes classiques s’intéressent à la croissance, mais alors que
certains, comme A. Smith adoptent un point de vue optimiste sur les
possibilités d’une poursuite de la croissance, d’autres au contraire, comme
Th. Malthus et D. Ricardo, s’inquiètent de ses limites (A). Le débat
s’estompe au début du XXe siècle car les néoclassiques se concentrent sur la
question de l’équilibre tandis que les enjeux liés à la dynamique économique
à long terme sont considérés comme secondaires. Toutefois, le débat sur
l’hypothèse stagnationniste ressurgit après la crise de 1929 (B).

A. Les classiques pessimistes et l’état stationnaire


La Révolution industrielle qui accélère la croissance économique est
étroitement liée à la Révolution agricole et à la Révolution démographique
(A. Landry). C’est la croissance démographique qui va susciter l’inquiétude
de Th. Malthus (Essai sur le principe de population, 1798). Ce dernier
considère que la population s’accroît selon une progression géométrique et
les subsistances (production agricole) selon une progression arithmétique. Il y
a donc une tendance vers une pénurie alimentaire qui se traduit par des
famines et une hausse de la mortalité. Pour Malthus, cette « loi de
population » est une loi naturelle qui s’impose à toutes les économies et à
toutes les sociétés. Malthus considère que certains hommes n’ont pas leur
place au « grand banquet de la nature » et que les lois sur les pauvres
(adoptées en Grande-Bretagne entre le XVIe siècle et le XIXe siècle) aggravent
la situation puisqu’elles encouragent l’accroissement de la population et donc
le déséquilibre entre la population et les subsistances.
D. Ricardo reprend à son compte cette loi de population et l’articule avec
deux de ses contributions à l’analyse économique. D’une part, il met en
évidence la loi des rendements décroissants en agriculture. Il part pour cela
de l’idée simple selon laquelle les agriculteurs commencent par mettre en
culture les terres les plus fertiles, puis, lorsqu’ils doivent augmenter la
production, ils ont recours à la mise en culture de terres moins fertiles dont
les rendements sont plus faibles. Chaque terre nouvellement mise en culture
(terre marginale) est donc caractérisée par des rendements plus faibles que les
******ebook converter DEMO Watermarks*******
précédentes. D’autre part, Ricardo élabore une théorie de la répartition des
revenus entre trois classes de la société : les ouvriers (qui perçoivent les
salaires), les propriétaires fonciers (qui perçoivent les rentes foncières) et les
industriels capitalistes (qui perçoivent les profits). Or, la rente est déterminée
par les différences de rendements des terres. Il faut en effet que les vendeurs
de blé des terres marginales perçoivent un prix au moins égal à leur coût de
production. Comme le prix est le même pour tous les producteurs, les
propriétaires de terres plus fertiles (puisque les rendements sont plus élevés)
reçoivent une rente égale à la différence entre leur coût de production (faible)
et le prix du marché (égal au coût de production de la dernière terre mise en
culture).
La conclusion de l’articulation de ces trois analyses (loi de population, loi
des rendements décroissants et théorie de la répartition) est donc la suivante :
lorsque la population augmente, on doit mettre en culture des terres moins
fertiles, de ce fait la rente foncière perçue par les propriétaires fonciers
augmente. Comme le montant des salaires dépend du coût des subsistances, il
a tendance à augmenter et donc la part du profit dans la répartition des
revenus diminue. Or, pour Ricardo ce sont les capitalistes (sur la base du
profit) qui accumulent du capital et rendent ainsi possible la croissance. Si la
part des profits diminue, l’investissement va devenir plus faible et, à terme, la
croissance va s’interrompre : c’est l’état stationnaire.
Cette thèse sera cependant démentie par les faits. Les analyses qui la
fondent reposent sur une projection des situations observées par les auteurs.
Par exemple, la tendance à l’explosion démographique qui découlerait de la
progression géométrique de la population ne s’est pas produite : lorsque le
niveau de vie et le niveau de l’éducation s’élèvent, les individus réduisent
leur fécondité. Malthus suppose que la première phase de la transition
démographique qu’il a sous les yeux va se poursuivre indéfiniment. Or, le
taux de natalité se met à baisser fortement dans la seconde phase de la
transition et le taux d’accroissement naturel diminue (spécifiquement en
Grande-Bretagne). La même erreur de prévision concerne la fertilité des sols.
Même si Ricardo a pris en compte le recours à l’importation de produits
agricoles et le rôle des machines dans l’accroissement des rendements
agricoles, il sous-estime l’accroissement spectaculaire des rendements
agricoles lié au recours aux engrais, à l’accroissement de la taille des
exploitations, à l’intensification de la production agricole. Il sous-estime
aussi le changement des rapports de forces politiques en Grande-Bretagne en
******ebook converter DEMO Watermarks*******
faveur des industriels capitalistes et au détriment des propriétaires fonciers
(réforme électorale de 1832, abrogation des Corn Laws de 1846 après sa mort
en 1823).
K. Marx est le premier à réfuter le caractère naturel de la loi de Malthus,
il conteste l’idée de surpopulation absolue et insiste sur les potentialités du
développement des forces productives dès lors qu’elles seraient affranchies
des rapports sociaux capitalistes. Pour Marx, les limites à la croissance sont
sociales et non pas naturelles. Il faut observer cependant qu’en dépit du
démenti de l’histoire et des critiques historiques, les thèses malthusiennes
conservent une influence jusqu’à aujourd’hui.

B. Le débat des années 1930-1950 aux États-Unis :


l’hypothèse stagnationniste
Le débat sur les limites de la croissance (et plus précisément sur les
perspectives de stagnation de l’économie) ressurgit après la Première Guerre
mondiale et se poursuit pendant la totalité de l’entre-deux-guerres. Le
premier protagoniste du débat est J. M. Keynes. Ce dernier développe
successivement deux arguments contradictoires, mais liés à la démographie.
D’une part, de la fin de la Première Guerre mondiale à 1936, Keynes adopte
une position néomalthusienne : il considère que l’on ne peut pas bénéficier à
la fois d’une croissance rapide de la population et d’une augmentation de la
production par tête. Il y a donc de ce point de vue une limite démographique
à la croissance. Keynes participe d’ailleurs en Grande-Bretagne à des
campagnes en faveur de la limitation des naissances. À partir de 1937,
Keynes modifie radicalement son argumentation : c’est une population
déclinante qui menace la croissance économique du fait du vieillissement de
la population, d’un excès d’épargne et d’une demande effective insuffisante.
On se trouve donc encore en présence d’une limite démographique à la
croissance, mais cette fois la limite tient à la croissance insuffisante voire à la
décroissance de la population. Dans les deux cas, Keynes s’inspire de
Th. Malthus, mais dans le premier cas il met l’accent sur la loi de population,
dans le second cas sur les analyses de Malthus relatives à l’insuffisance de la
demande effective.
À partir de 1937, le débat sur les limites de la croissance connaît une
nouvelle impulsion à l’initiative de l’économiste américain A. Hansen. Ce
dernier bénéficie d’une grande influence pour avoir contribué à la diffusion
des idées de Keynes aux États-Unis (il est à l’origine du schéma IS-LM avec
******ebook converter DEMO Watermarks*******
J. R. Hicks). Hansen occupe de nombreuses responsabilités tant sur le plan
académique qu’auprès de l’administration fédérale. Son intervention dans le
débat public est liée à une sévère rechute de l’économie américaine en 1937.
Alors que le premier New Deal avait conduit à une relance de l’activité
économique (1934-1937), l’année 1937 est marquée par une chute des cours
boursiers, en 1938 le PIB baisse en valeur absolue ainsi que les revenus des
ménages, le taux de chômage augmente. Cette rechute est largement liée au
fait que l’administration fédérale a changé l’orientation de la politique
économique donnant la priorité à la lutte contre le déficit budgétaire (hausse
des impôts, baisse des dépenses), alors que la Réserve fédérale double les
réserves obligatoires des banques. Hansen et les partisans de la thèse
stagnationniste considèrent que l’accélération de la croissance provoquée par
le premier New Deal n’a été que transitoire et que l’économie revient à sa
tendance de long terme marquée par une croissance faible ou négative.
Pour Hansen, trois évolutions structurelles expliquent cette tendance à la
stagnation : le ralentissement des innovations technologiques, le fait que la
croissance ne soit plus stimulée par la conquête de nouveaux territoires vers
l’Ouest et le ralentissement de la croissance de la population. Ces trois
évolutions concourent à une insuffisance de la demande adressée à
l’économie, donc à la diminution des occasions d’investissement (l’activité
de production devenant moins intensive en capital) et à un excès d’épargne.
Hansen n’adopte pas une attitude fataliste à l’égard de cette tendance à la
stagnation. D’une part, en bon keynésien, il propose de lutter contre les
inégalités afin d’accroître la consommation. D’autre part, tout en précisant
qu’il ne s’agit pas d’instaurer le socialisme, il indique que l’État doit se
comporter comme une banque d’investissement. Il ne s’agit pas seulement,
par une relance conjoncturelle, d’amorcer la pompe (Pump Priming) de
l’investissement privé, mais de pratiquer ce que Keynes appelait de ses vœux
à la fin de la Théorie générale de l’emploi, de l’intérêt et de la
monnaie (1936), une large socialisation de l’investissement : l’État doit
massivement et durablement investir lorsque l’investissement privé est
structurellement insuffisant.
Une contribution importante au débat est publiée en 1942 aux États-Unis
par un jeune économiste : P. Sweezy. Ce dernier emprunte à la fois aux
analyses de Keynes et Hansen sur la stagnation ainsi qu’aux analyses de
Marx. Il considère que la stagnation est le produit à la fois d’une
suraccumulation du capital et d’une crise de réalisation (manque de
******ebook converter DEMO Watermarks*******
débouchés du fait de la faiblesse des revenus salariaux). Ces tendances sont,
selon lui, renforcées par le passage du capitalisme à une phase monopoliste
(s’appuyant ici sur les travaux relatifs à la concurrence imparfaite).
J. A. Schumpeter, bien que très proche de Sweezy sur le plan personnel,
intervient dans le débat pour contester les thèses stagnationnistes et pour
souligner le dynamisme des économies lié à l’innovation, à la concurrence et
à la destruction créatrice. Schumpeter critique les thèses de la sous-
consommation et de l’excès d’épargne et il souligne qu’en 1830 personne
n’aurait pu prévoir les énormes occasions d’investissement offertes par le
développement des chemins de fer et plus tard de l’électricité. Le débat ne va
s’éteindre que progressivement (en 1946, un débat public oppose encore
Sweezy et Schumpeter à Harvard).
On le voit, de nombreux arguments en faveur de la thèse des limites de la
croissance se manifestent très tôt dans l’histoire des débats économiques :
limites naturelles (rendement des sols et démographie), limites
technologiques (épuisement du progrès technique), limites liées à
l’insuffisance de la demande globale (excès d’épargne, inégalités nuisibles à
la consommation). Ces arguments apparaissent généralement dans les
périodes de difficultés économiques et s’estompent lorsque l’économie se
montre plus dynamique. C’est ainsi que P. Sweezy publie en 1977 (après le
choc pétrolier donc) un livre intitulé The End of Prosperity (avec
H. Magdoff).

II. La résurgence contemporaine du débat sur les limites


de la croissance
Le débat sur les limites de la croissance refait surface à la fin des
années 1960, il s’amplifie sous l’effet du choc pétrolier de 1973 et des
préoccupations accrues à propos de l’environnement. La crise de 2007-2008
relance la question avec la reprise du thème de la stagnation séculaire. Nous
distinguerons deux familles d’arguments dans ce débat : ceux qui relèvent
plutôt des variables d’offre et ceux qui relèvent plutôt des variables de
demande.

A. Les variables d’offre : limites écologiques et technologiques


En 1968, P. R. Ehrlich publie un livre intitulé The Population Bomb qui
connaît un succès mondial. Mettant en évidence l’accélération de la
croissance de la population mondiale depuis le XVIIIe siècle (la période de
******ebook converter DEMO Watermarks*******
doublement de la population est de plus en plus brève) il prévoit une famine
massive pour 1970-1980 du fait d’une inéluctable pénurie alimentaire. Cet
argument néomalthusien a été repris par des personnalités médiatiques (le
commandant Cousteau) et il est présent dans le courant de l’écologie
profonde qui plaide pour une baisse en valeur absolue de l’effectif de la
population mondiale en raison des effets destructeurs de l’espèce humaine sur
la biosphère. En 1972, le rapport au Club de Rome rédigé par une équipe de
chercheurs du MIT sous la direction de D. Meadows (on parle souvent du
Rapport Meadows) souligne les limites de la croissance et donne lieu à une
campagne en faveur de la « croissance zéro ». Les auteurs traitent des
questions démographiques, mais surtout de la pénurie inéluctable des
ressources non renouvelables et des conséquences néfastes de la production
de déchets et de la pollution. Là encore ce sont les limites écologiques de la
croissance qui sont mises en avant. De même, certaines analyses soulignent la
pénurie prochaine des énergies fossiles (en particulier du pétrole). Le Peak
Oil (production maximale de pétrole précédant le déclin du fait de
l’épuisement des gisements) a été prévu pour l’année 2010 par l’Agence
internationale de l’energie. Force est de constater que nombre de ces
prévisions alarmistes ne se sont pas réalisées.
Conformément à la théorie de la transition démographique, la croissance
de la population mondiale a fortement diminué et son effectif tend vers une
stabilisation autour de 10 milliards d’individus (pas de croissance
exponentielle infinie par conséquent). Pas de famine massive, au contraire la
proportion des individus en situation de grande pauvreté a diminué à l’échelle
mondiale. Pas de Peak Oil non plus, les réserves prouvées de pétrole n’ont
jamais été aussi importantes et le problème économique majeur est de freiner
l’utilisation du pétrole et des autres énergies fossiles afin de réduire les
émissions de gaz à effet de serre. L’enjeu est aujourd’hui de renoncer à
exploiter des gisements dont on connaît l’existence si on veut réussir la
transition énergétique. Cela ne veut pas dire que les questions
environnementales ne sont pas importantes. R. Gordon considère d’ailleurs
que le coût du réchauffement climatique est l’un des facteurs de la stagnation
séculaire. L’analyse scientifique implique ainsi de résister aux approches
catastrophistes et de prendre en compte l’ensemble des variables qui pèsent
sur le processus.
Les travaux de R. Gordon portent justement sur l’évolution de la
croissance potentielle et s’appuient principalement sur deux constats : d’une
******ebook converter DEMO Watermarks*******
part, on assiste à un phénomène de vieillissement de la population qui réduit
la part de la population active dans la population totale, d’autre part, on
assiste à un ralentissement des gains de productivité (qu’il s’agisse de la
productivité du travail ou de la productivité globale des facteurs). Or, ces
deux variables (population active et gains de productivité) sont les
déterminants de la croissance potentielle qui ne peut donc que ralentir.
S’agissant du ralentissement des gains de productivité, il résulte
essentiellement du fait que le progrès technique ne les alimente plus de façon
significative. Pour Gordon il existe une seule grande vague de progrès
technique (One Big Wave) qui va du dernier tiers du XIXe siècle aux
années 1990. Cette vague d’innovations bouleverse les conditions de l’offre
avec la machine à vapeur, l’électricité, l’automobile et toutes les
transformations qui leur sont liées. Les innovations récentes portent surtout
sur des biens de consommation (les tablettes qui remplacent les ordinateurs
par exemple) et leur impact sur la productivité est plus faible. Gordon
souligne ce fait à partir d’un exemple : serions-nous disposés à renoncer à
l’eau courante pour conserver Facebook ? Parmi les variables d’offre qu’il
prend en compte, Gordon insiste sur le rendement décroissant de l’éducation
et le coût croissant de l’enseignement supérieur. Il prend aussi en compte des
variables de demande : le creusement des inégalités qui rend la demande de
consommation moins dynamique et la montée de l’endettement qui, elle aussi
nuit à la consommation.
Comme Hansen en son temps, Gordon ne se montre pas fataliste face à la
situation qu’il décrit. Il propose, par exemple, de mettre en œuvre des
politiques de lutte contre les inégalités, de faciliter l’accès à l’enseignement
supérieur (c’est un débat important aux États-Unis), de développer
l’investissement public.
À côté de ces variables d’offre qui pèsent sur les limites de la croissance,
on peut identifier une série de variables qui affectent la demande et qui
conduisent à reconsidérer le caractère inéluctable de ce processus de
stagnation séculaire.

B. Les limites liées aux variables financières et à la politique


économique
L. Summers est, avec R. Gordon, l’autre économiste qui a lancé le débat sur
la stagnation séculaire lors d’une réunion du FMI en 2013. Ancien président
de l’université d’Harvard, ancien économiste en chef de la Banque mondiale,
******ebook converter DEMO Watermarks*******
ancien secrétaire au Trésor de W. Clinton, Summers est un économiste
controversé, mais très influent. P. Krugman salue le caractère hétérodoxe de
ses analyses sur la stagnation séculaire. Dès 2014, le Bulletin du FMI
considère comme probable une situation de stagnation séculaire
(éventuellement accompagnée de déflation) dans les pays avancés.
L’analyse de Summers, qui fait référence explicitement aux travaux
d’A. Hansen, a pour point de départ l’absence de véritable reprise à la suite
de la crise de 2007-2008. Pour lui, il ne s’agit pas d’un phénomène
conjoncturel, mais d’une situation d’excès structurel d’épargne par rapport à
l’investissement dans un contexte d’inflation faible (voire de menace de
déflation). La situation qui caractérise le Japon depuis le début des
années 1990 menace les autres économies avancées (États-Unis et Europe
notamment). Summers s’appuie sur les travaux de K. Wicksell. Pour ce
dernier en effet, il existe un taux d’intérêt naturel qui assure l’égalité entre
l’épargne et l’investissement. Ce taux naturel doit être distingué du taux
monétaire qui s’observe sur les marchés financiers. Lorsque le taux monétaire
est égal au taux naturel, l’économie est en situation d’équilibre monétaire et
tous les fonds prêtables offerts par les agents économiques sur la base de leur
épargne sont utilisés pour financer les investissements assurant ainsi le plein-
emploi des ressources productives.
Summers considère que, dans l’économie mondiale actuelle, du fait de
l’excès d’épargne (Global Saving Glut), le taux d’intérêt naturel est négatif.
Or, la politique monétaire se heurte à la frontière des taux d’intérêt nominaux
nuls (Zero Lower Bond). Certes, les taux d’intérêt réels pourraient être
négatifs si l’inflation était plus importante, mais précisément elle est très
faible, les menaces de déflation subsistent et les politiques monétaires très
accommodantes ne se traduisent pas, comme on le voit dans la zone euro, par
un rythme plus élevé de hausse des prix. Cette situation, où le taux d’intérêt
monétaire est supérieur au taux d’intérêt naturel (négatif), conduit à une
situation durable de récession : on est en présence d’un effet cumulatif
wicksellien où la faiblesse de la demande a un effet négatif sur le niveau de la
production qui a, à son tour, un effet négatif sur la demande. Cela conduit à
une tendance à la stagnation séculaire.
Cette situation est d’autant plus préoccupante qu’elle est autoentretenue :
la faiblesse de la croissance effective liée à l’insuffisance de l’investissement
par rapport à l’épargne a un effet négatif sur la croissance potentielle. En
effet, un niveau élevé et durable du taux de chômage conduit à une
******ebook converter DEMO Watermarks*******
dégradation du capital humain. D’autre part, le faible niveau de
l’investissement a un impact négatif sur le renouvellement du capital et sur
l’innovation. Dans les deux cas, ces évolutions ont un effet négatif sur la
productivité globale des facteurs, donc sur la croissance.
Pour M. Aglietta, qui s’appuie lui aussi sur les travaux de Wicksell, ce
qui est en cause c’est la financiarisation de l’économie qui conduit à
privilégier la rentabilité à court terme des placements au détriment des
investissements portant sur des échéances longues. Aglietta propose donc une
voie de sortie de la stagnation séculaire qui consisterait pour l’État à émettre
des titres longs afin de financer des investissements dans le domaine de la
transition énergétique et de la lutte contre le réchauffement climatique. On
pourrait donc, par ce type de démarche, lutter à la fois contre l’aspect
demande (insuffisance de l’investissement et excès d’épargne) et sur l’aspect
offre (limites environnementales à la croissance). Ch. de Perthuis et P.-
A. Jouvet (Le capital vert, 2013) développent un point de vue convergent.
Pour eux, la prise en compte de l’environnement (pollution, capital naturel)
constitue une nouvelle perspective de croissance. Il faut pour cela modifier
notre conception de la fonction de production en y intégrant le capital naturel.
Dès lors que l’on prendra en compte les coûts de la pollution et des
prélèvements sur le stock de capital naturel, les innovations favorisant une
croissance plus « verte » (moins polluante, moins consommatrice de
ressources naturelles) seront encouragées et valorisées. Ces innovations
contribuant à la transition écologique nécessitent des investissements de long
terme et sont créatrices d’emploi.
C’est dans cette perspective que P. Crifo et ses coauteurs considèrent que
l’économie verte est une réponse à la crise économique.

Conclusion
La question des limites de la croissance est aussi ancienne que la science
économique (tendance à l’état stationnaire de Malthus et Ricardo). Les
économistes qui se sont inquiétés de la tendance à la stagnation de
l’économie ont mis en avant, d’une part, des limites naturelles (démographie,
épuisement des ressources naturelles) et, d’autre part, des limites
technologique et économique (épuisement du progrès technique, insuffisance
structurelle de la demande adressée à l’économie). Ces débats ressurgissent
généralement lorsque l’économie mondiale est confrontée à des phases
durables de récession ou de dépression. Il n’est donc pas surprenant que l’on
******ebook converter DEMO Watermarks*******
assiste depuis 2012-2013 à un débat sur la stagnation séculaire. Un examen
de l’histoire de l’économie mondiale et de l’histoire des débats sur les limites
de la croissance montre que, jusqu’ici, l’économie mondiale n’a pas buté sur
l’état stationnaire et que les arguments des partisans de la thèse
stagnationniste ont été réfutés par le dynamisme de l’économie.
Sommes-nous aujourd’hui dans une situation économique comparable où
l’adoption de politiques économiques adéquates permettra de trouver les
« nouveaux chemins de la prospérité » (É. Laurent et J. Le Cacheux) ou bien
sommes-nous confrontés à une limite écologique sans précédent ? Le débat
n’est pas tranché, ni sur le plan politique et médiatique, ni sur le plan
scientifique. Mais deux idées se dégagent chez les spécialistes de ces
questions. D’une part, il faut reconsidérer la croissance en ne mesurant plus
seulement la production (le PIB) mais en mesurant le bien-être et la
soutenabilité. Il faut aussi mieux prendre en compte les gains de bien-être liés
à certaines innovations dont les effets sont actuellement mal mesurés. De
plus, même si on considère qu’il existe une limite à la croissance de la
production matérielle, on peut mettre l’accent sur la qualité des relations
sociales, sur le bienvivre, etc.
D’autre part, le fait de relever les défis écologiques (et en particulier
énergétiques) nécessite la construction d’importantes infrastructures, une
vague d’innovations, des créations d’emplois, donc les perspectives d’une
nouvelle croissance. Cela signifie que la dimension sociale de la croissance
ne doit pas être négligée : c’est pourquoi É. Laurent (Le bel avenir de l’État
providence, 2015) plaide pour un « État social écologique ».

******ebook converter DEMO Watermarks*******


Sujet 7 La mondialisation
commerciale et
productive est-elle
source de croissance ?

1 Se préparer à la rédaction

1.1 L’enjeu du sujet


La question posée est ouverte, ce qui appelle à se demander si et/ou sous
quelles conditions la « mondialisation commerciale et productive » alimente
la croissance économique, au niveau global comme au niveau de chaque
économie nationale. Le développement du commerce peut être considéré
comme un facteur de débouchés pour les producteurs nationaux et conduire
ceux-ci à accroître leur capacité productive. Il est alors source de croissance
économique. Mais d’autres « canaux de transmission » doivent être analysés
et il convient de s’interroger sur les effets de la mondialisation commerciale
et productive sur les niveaux de productivité. En effet, une amélioration de la
productivité conduit potentiellement à un accroissement de la production et
donc à la croissance. Dans le même temps, la mondialisation commerciale et
productive conduit à des changements sectoriels qui modifient le volume et la
structure des emplois nationaux, ce qui peut peser sur le niveau de croissance
économique, à la hausse ou à la baisse. Ainsi, la mondialisation génère des
gagnants (les plus qualifiés et les plus mobiles) mais aussi des perdants (les
moins qualifiés).
La question de la relation entre commerce international et croissance
économique est apparue avec l’économie classique, en particulier avec
******ebook converter DEMO Watermarks*******
A. Smith et D. Ricardo. Ces deux auteurs se sont efforcés de montrer que les
gains à l’échange étaient sources de croissance économique et qu’il fallait
donc, sauf exception, favoriser le libre-échange. On retient la notion de gains
à l’échange reposant sur la spécialisation dans l’avantage comparatif chez
Ricardo. La croissance smithienne apparaît davantage comme une
conséquence de l’élargissement des marchés qui est source de gains de
productivité. Ces idées ont alimenté les réflexions théoriques mais ont
également conduit plusieurs auteurs à tester cette relation entre croissance et
ouverture commerciale (P. Bairoch, J. Bhagwati notamment). Une
indétermination demeure à ce jour : si la corrélation entre ouverture
commerciale et croissance économique est établie, le sens de la relation n’est
pas évident. Il conviendra donc ici de mettre en évidence ces éléments à
travers les théories du commerce international, anciennes et nouvelles.
Les firmes multinationales, les investissements directs étrangers et la
réduction des coûts de transport et de communication sont les facteurs
principaux de la mondialisation productive. Beaucoup considèrent que cela
peut favoriser la croissance économique, et même le développement, sous
certaines conditions. Cette mondialisation productive accompagne la
mondialisation commerciale mais beaucoup de questions sont posées quant
aux effets potentiellement néfastes sur les économies nationales, poussant
certains auteurs, à l’instar de D. Rodrik, à proposer de contrôler davantage la
dynamique de mondialisation, quitte à la réduire, pour en préserver ses
aspects positifs.

1.2 Le cadrage et les concepts clés


La question posée relève du champ disciplinaire de l’économie internationale,
en relation avec la question de la croissance économique. Ce champ a été
fortement renouvelé à partir des années 1970 à travers l’élaboration des
nouvelles théories du commerce international, dont P. Krugman
(Prix Nobel 2008) est le représentant le plus connu. C’est également à la
même période que les nouvelles théories de la croissance, dites théories de la
croissance endogène apparaissent, ce qui va alimenter la réflexion sur les
relations entre commerce international, investissements directs étrangers
(IDE) et croissance économique. La décomposition internationale des
processus productifs (DIPP) à partir des années 1980 questionne la relation
entre croissance économique et mondialisation productive qui accélère le
commerce intrafirme. Se juxtaposent alors deux types de commerce
******ebook converter DEMO Watermarks*******
international : un commerce traditionnel de complémentarité (division
internationale du travail) et un commerce de concurrence sur les segments de
la chaîne de valeur mondiale (DIPP).
Le capitalisme a connu deux mondialisations si l’on suit S. Berger, une
première à la fin du XIXe siècle, une deuxième qui débute avec les accords du
GATT et s’accélère au cours des années 1980. La mondialisation productive
correspond pour sa part à la dynamique d’internationalisation des processus
de production appelée également décomposition internationale des processus
productifs. Il s’agit d’une évolution plus récente (même si les premières
firmes transnationales apparaissent à la fin du XIXe siècle) rendue possible par
la libéralisation commerciale, l’effondrement des coûts de transport et le
développement des technologies de l’information et de la communi​cation.
Celle-ci est propre à la deuxième mondialisation et a conduit les économistes,
notamment ceux de l’OMC et du FMI, à proposer des réflexions en termes de
chaînes de valeur mondiale pour comprendre les dynamiques
macroéconomiques rattachées à cette nouvelle organisation productive.

1.3 Construire la problématique


L’analyse de la dynamique économique que sous-tend le sujet va conduire à
s’interroger autour de deux questions :
1) Pourquoi la mondialisation commerciale et productive peut-elle
générer une croissance économique supérieure à la croissance
économique en autarcie ?
2) Quels sont les effets néfastes de la mondialisation commerciale et
productive sur la croissance économique ? Existe-t-il un degré de
mondialisation économique et commerciale optimal pour la croissance ?
Les réponses apportées à ces deux questions permettront alors de traiter le
sujet en s’appuyant sur les apports de la théorie économique.

2 Rédiger le devoir : une proposition

Introduction
L’élection de D. Trump aux États-Unis en 2016 sur un programme
protectionniste a sonné comme une fin de partie pour le multilatéralisme
commercial à l’œuvre depuis la signature du GATT en 1947. Les taxations
******ebook converter DEMO Watermarks*******
décidées à l’encontre de la Chine, la renégociation de l’ALENA avec le
Canada et le Mexique risquent de peser sur la croissance économique
américaine, mais également mondiale. Pour le FMI, la possibilité d’une
« guerre commerciale » pourrait « entamer la confiance des entreprises et des
investisseurs ». L’idée selon laquelle la libéralisation commerciale et
productive est source de croissance économique reste très présente malgré
tout.
Le capitalisme a connu deux mondialisations selon S. Berger, la ​première
à la fin du XIXe siècle et la deuxième depuis les années 1980. Ces deux
mondialisations se sont accompagnées d’une croissance économique forte au
niveau mondial mais plus ou moins forte au niveau des régions ou économies
nationales. Il est possible de définir la mon​dialisation commerciale comme la
dynamique selon laquelle les échanges de biens et services entre économies
nationales voient leur volume s’accroître dans un contexte de libéralisation
des marchés, c’est-à-dire de réduction voire suppression des entraves au
commerce international. La mondialisation productive correspond à la
dynamique d’internationalisation des processus de production insufflée par
les stratégies globales des firmes transnationales et la décomposition
internationale des processus productifs (DIPP). La croissance économique
peut se définir avec F. Perroux comme « l’augmentation soutenue pendant
une ou plusieurs périodes longues d’un indicateur de dimension, pour une
nation, le produit global net en termes réels ». Quels peuvent être les effets de
la mondialisation économique et commerciale sur la dynamique
économique ? Le processus n’a-t-il que des vertus ? Un grand nombre de
théories économiques considère que la mondialisation commerciale et
productive est un facteur de croissance économique (I). Cependant, la
mondialisation économique et commerciale n’est pas ​suffisante en elle-même
pour dynamiser la croissance économique, et ses effets pervers doivent être
limités (II).

I. La mondialisation commerciale et économique peut favoriser


la croissance…
L’ouverture commerciale est généralement analysée comme un facteur de
croissance économique du fait de l’élargissement des marchés et des gains à
l’échange (A). L’analyse économique a également mis en évidence les effets
positifs de la mondialisation productive sur la dynamique productive (B).

******ebook converter DEMO Watermarks*******


A. Commerce international et croissance
Le gain à l’échange a été au cœur de l’argument favorable à la libéralisation
commerciale : parce que la liberté de commercer existe, les producteurs
doivent se spécialiser dans les produits qu’ils savent fabriquer de façon
efficiente pour échanger les surplus ainsi réalisés. L’accroissement de la taille
des marchés, notamment à l’international, permet alors de renforcer la
spécialisation et ainsi les niveaux de productivité. Cette analyse est au cœur
de la thèse d’A. Smith (Recherche sur la nature et les causes de la richesse
des nations, 1776), considéré comme le fondateur de l’économie classique.
Le penchant naturel des hommes à trafiquer les conduit à échanger les
surplus qu’ils produisent. Ceux-ci apparaissent lorsque l’efficacité productive
s’améliore, et celle-ci s’accroît avec la division du travail.
En conséquence, il convient que chacun se spécialise dans la production
pour laquelle il dispose d’un « avantage absolu ». Appliquant cette analyse
aux nations, Smith en conclut que le commerce international permet
d’accroître le produit global, c’est-à-dire il est source de croissance
économique. C’est en ce sens qu’il se prononce en faveur de la libéralisation
des échanges internationaux (sauf cas particuliers pour les produits
stratégiques ou en représailles à des barrières commerciales mises en place
par d’autres nations).
C’est cependant l’analyse ricardienne (D. Ricardo, Des principes de
l’économie politique et de l’impôt, 1817) qui influencent encore plus
fortement l’idée qu’une relation entre commerce international et croissance
apparaît. Son analyse le conduit à démontrer que deux pays ont intérêt à
commercer, même si l’un d’eux n’a aucun avantage absolu vis-à-vis de
l’autre. Dans son exemple classique, le Portugal est plus productif que
l’Angleterre dans la fabrication de drap comme dans celle de vin, ce qui
pourrait laisser croire que le Portugal a intérêt à tout produire et ne pas
échanger. Pourtant, étant donné que chaque pays est relativement plus
efficace dans l’une des deux productions (le vin pour le Portugal, le drap pour
l’Angleterre), la spécialisation et l’échange permettent d’augmenter les
quantités produites au niveau global (croissance économique). Pour Ricardo,
comme pour d’autres classiques du XIXe siècle, avec l’augmentation de la
population, la dynamique économique tend à s’essouffler en raison du
rendement décroissant de la terre qui conduit à accroître les coûts de
production agricole et, en conséquence, le prix des denrées alimentaires et les
salaires nécessaires à la reproduction de la main-d’œuvre. À terme,
******ebook converter DEMO Watermarks*******
l’économie entre dans une situation d’état stationnaire, c’est-à-dire une
croissance économique nulle. Un moyen d’y remédier est de libéraliser le
commerce pour accéder à des denrées alimentaires moins onéreuses et libérer
des ressources pour l’investissement et l’accumulation du capital. Cet
argument a conduit les Britanniques à abolir les Corn Laws en 1846.
La modélisation néoclassique, proposée initialement par E. Heckscher et
B. Ohlin, puis complétée par P. Samuelson (d’où l’acronyme HOS), oriente
la recherche en économie internationale au cours du XXe siècle sans remettre
en question les conclusions du modèle classique selon lesquelles il existe une
dynamique commerce/croissance fondée sur l’avantage comparatif et les
gains à l’échange. Cependant, ces modèles à « dotations factorielles », où
l’avantage comparatif est déterminé par le facteur relativement abondant, ont
une portée heuristique limitée aux échanges internationaux interbranches. Or,
les statistiques montrent que dès les années 1970, les deux tiers du commerce
international correspondent à un commerce intrabranche. De « nouvelles
théories du commerce international » sont alors développées et permettent
de renforcer l’idée que la relation commerce international/croissance
économique est forte.
En fondant son argumentation sur ces théories et sur celle de la croissance
endogène, qui stipule que l’origine des gains de productivité réside dans
l’activité économique elle-même, E. Helpmann montre que l’ouverture
commerciale dynamise la croissance économique. D’une part, le gain à
l’échange permet d’investir et d’accumuler du capital. D’autre part, les
échanges facilitent les effets d’apprentissage (élément au cœur de la théorie
de la croissance proposée par P. Romer, Prix Nobel 2018) grâce à l’accès à
des produits techniquement plus élaborés et facteurs de progrès technique.
Ces effets d’apprentissage découlent de l’usage et également de la volonté
d’imiter. Enfin, l’ouverture aux échanges suscite la croissance par le biais de
la recherche et développement et de l’innovation (tous les modèles de
croissance pointent cette relation nécessaire entre innovation et croissance).
En effet, l’accroissement de la taille des marchés incite les firmes à innover
puisqu’elles pourront imputer le coût de l’innovation sur des débouchés
potentiellement plus importants. Par ailleurs, la concurrence internationale
peut être un facteur incitatif à l’innovation. Ces dynamiques sont illustrées
par la réussite de la Corée du Sud qui est devenue un pays industrialisé en
quelques décennies grâce à son accès au marché mondial. En effet, sans accès
au marché mondial, la taille du marché coréen aurait été insuffisante pour
******ebook converter DEMO Watermarks*******
amortir les coûts liés au rattrapage technologique de ce pays de 60 millions
d’habitants.
Ainsi, il semble établi que commerce international et croissance
économique sont liés. L’internationalisation des processus productifs conduit
à renforcer cette dynamique.

B. Développement des chaînes de valeur mondiale et croissance


La croissance du commerce international a été plus rapide que celle de la
production mondiale depuis l’après Seconde Guerre mondiale. La dynamique
commerciale s’est intensifiée avec la mondialisation des chaînes de valeur.
Cette évolution récente des dynamiques productives et commerciales a
conduit l’Organisation mondiale du commerce (OMC) et l’Organisation de
coopération et de développement économique (OCDE) à repenser la mesure
du commerce mondial en tenant compte des valeurs ajoutées échangées et
non plus des valeurs brutes échangées puisque, si les échanges entre
économies nationales concernent toujours des biens et services, il s’agit aussi,
et surtout à présent, de biens et services intermédiaires intégrant très souvent
des services productifs « invisibles » jusqu’à présent dans les statistiques.
Pour faire une analogie, le commerce international est plus justement mesuré
en valeur ajoutée, comme l’est le produit intérieur brut : cela permet d’éviter
les doubles comptes. L’OCDE a ainsi publié un rapport intitulé Economies
interconnectées (2013) dans lequel sont listés les effets positifs de la
mondialisation productive.
Il convient d’abord de rappeler que celle-ci a été permise par
l’abaissement important des coûts de transports, par le développement des
technologies de l’information et de la communication, et par la libéralisation
commerciale. Ses acteurs principaux sont les sociétés transnationales,
définies par la Conférence des Nations Unies pour le commerce et le
développement (CNUCED) comme toute société possédant au moins 10 %
d’une unité productive sur un territoire autre que son territoire d’origine. On
en compte aujourd’hui dans le monde plus de 80 000 avec en moyenne
10 filiales. La CNUCED considère qu’elles sont à l’origine des deux tiers du
commerce mondial, dont la moitié relève d’un commerce intra-firme. Le
développement de cette mondialisation productive repose également sur la
sous-traitance internationale, c’est-à-dire le fait que des relations de sous-
traitance (faire faire plutôt que faire) s’établissent au-delà des frontières.
Apple commande par exemple l’assemblage de ses smartphones et tablettes,
******ebook converter DEMO Watermarks*******
entre autres, à la firme taïwanaise Foxconn qui possède plusieurs usines en
Chine. Si ce pays connaît aujourd’hui un « ralentissement » de sa croissance
économique, il est indéniable que son inscription au bout de la chaîne de
valeur mondiale (CVM) a fortement dynamisé, depuis les années 1980, son
activité économique.
D’autre part, les transferts de technologie apparaissent comme un des
premiers éléments favorables à la croissance économique. En effet, les
investissements directs étrangers (IDE) qui accompagnent la mondialisation
productive permettent que les progrès de productivité se diffusent entre les
pays, voire accroissent les progrès de productivité dans les pays de
destination de ces IDE. Comme l’avait souligné A. Gerschenkron à propos du
Japon, nul besoin de franchir toutes les étapes technologiques pour les
latecomers, autant utiliser les technologies de pointe disponibles. C’est ainsi
que l’Inde a pu bénéficier des avancées technologiques réalisées en Occident
pour se spécialiser dans les services informatiques à distance (outsourcing)
dans le cadre des CVM. En retour, le pays a développé ces techniques pour
gagner en productivité, notamment autour de la ville de Bangalore. Par
ailleurs, comme pour la mondialisation commerciale, la mondialisation
productive dynamise la croissance par l’amélioration de la productivité liée à
davantage de concurrence et aux économies d’échelle rendues possibles par
l’extension des marchés des biens et services intermédiaires.
Il apparaît donc que mondialisation productive et croissance éco​nomique
vont de pair. La croissance est dynamisée par la réduction des coûts
(concurrence, économies d’échelle) et les transferts de technologie.
Cependant, comme pour le commerce, il est difficile d’établir un sens de
causalité.

II. … à condition de l’accompagner et de limiter les effets


pervers qui y sont associés
La mondialisation commerciale et productive et la croissance économique
sont corrélées. Pour autant, si l’ouverture commerciale et productive semble
nécessaire, elle n’est pas suffisante et ses effets en termes de croissance
reposent sur d’autres conditions (A). Par ailleurs, la mondialisation
économique et commerciale peut avoir des effets néfastes sur les économies
nationales et doit s’accompagner de garde-fous (B).

A. La mondialisation commerciale et productive, nécessaire mais pas


******ebook converter DEMO Watermarks*******
suffisante à la croissance
Il est important de noter que la relation entre commerce international et
croissance a été débattue de longue date. En effet, P. Bairoch s’est efforcé de
montrer que, si commerce international et croissance économique étaient
corrélés, rien ne prouvait qu’une causalité existe entre ouverture commerciale
et croissance économique. Pour lui, à l’inverse, c’est plutôt la dynamique de
croissance qui favorise l’ouverture commerciale, y compris et surtout après
que davantage de protectionnisme ait redynamisé cette croissance. Ainsi, il
considère que l’Allemagne, après la Grande Dépression de 1873-1893, a
retrouvé un niveau de croissance économique plus élevé après avoir mis en
œuvre des tarifs douaniers. De même, pour lui ce ne sont pas les replis
nationaux qui ont causé la Grande Dépression de l’après-crise de 1929, mais
bien la Grande Dépression qui a conduit à un effondrement du commerce
international. Si sa thèse a été discutée, il n’en est pas moins vrai que les
évaluations plus contemporaines établissent toujours une corrélation positive
entre les deux éléments sans trancher clairement sur un sens de causalité.
Par ailleurs, les études et l’expérience historique montrent que les effets
positifs de la mondialisation productive sur la croissance reposent sur des
conditions spécifiques. D’abord, les sociétés transnationales doivent être
incitées à investir, ce qui nécessite des coûts de production réduits et une
assurance quant au respect des droits de propriété, en particulier dans les pays
en développement ou les pays émergents. C’est ainsi par exemple qu’ont été
constituées des zones franches, c’est-à-dire dans lesquelles la fiscalité est très
avantageuse pour les producteurs, souvent situées sur des zones côtières afin
de faciliter l’importation des intrants et l’exportation des produits. Mais cela
nécessite aussi qu’existent des infrastructures de transport et de
communication de qualité et que des investissements publics soient réalisés.
Enfin, il faut que les pays d’accueil des IDE soient capables de les absorber.
De nouveau, la question se pose principalement pour les PED ou les
émergents. Leur population active doit être suffisamment formée pour que les
technologies présentes dans ces investissements se diffusent à l’économie
nationale, accroissent la productivité et dynamisent la croissance. Cela
nécessite une politique éducative très volontariste, à l’image de ce qu’a mis
en place la Corée du Sud à partir des années 1960. L’autre élément qui
renforce cette dynamique mondialisation productive-commerce-croissance
repose sur la constitution de coentreprises, c’est-à-dire d’entreprises
appartenant simultanément à l’investisseur international et à un investisseur
******ebook converter DEMO Watermarks*******
national (souvent l’État). La Chine l’a bien compris en imposant ce type
d’organisation productive à coentreprises pour que le consortium européen
puisse assembler des appareils dans la zone de libre-échange de Tianjin.
Enfin, certains considèrent, à l’image de S. Jean du Centre d’études
prospectives et d’informations internationales (CEPII), que la DIPP est à
rendement décroissant et devrait voir ses effets sur le commerce et sur la
croissance économique s’amenuiser. Suite à la crise de 2007-2008,le PIB
mondial a baissé de 2 % et le commerce de 12 % en 2009. En 2010, le
commerce mondial a augmenté de 13 % et la croissance mondiale s’est
élevée à 4,1 %. La volatilité plus grande du commerce mondial s’explique du
fait que 80 % des échanges concernent des produits manufacturés dont la
demande est plus sensible aux fluctuations. Le commerce international n’a
pas retrouvé le dynamisme d’avant-crise, et c’est ce qui laisse penser que
l’explosion des CVM a atteint ses limites. Plusieurs facteurs peuvent être
avancés. La hausse des coûts salariaux dans les pays émergents, en particulier
en Chine, réduit l’intérêt d’implanter des segments de production intensif en
travail dans ces pays. Il faut également noter l’intensification des risques de
ruptures d’approvisionnement inhérents à la DIPP, à l’image de celles
apparues à la suite du tremblement de terre au Japon en 2011. Enfin, la
volonté chinoise de recentrer son économie sur son marché intérieur et de
monter en gamme conduit à regrouper des segments productifs dans ce pays
qui a été le catalyseur du commerce international ces dernières années.
S. Jean en conclut, avec prudence en raison du manque de recul sur cette
dynamique nouvelle, que la mondialisation commerciale et productive sera de
moins en moins source de croissance. P. Artus rejoint ces analyses. Il montre
en effet qu’une dynamique de déglobalisation est à l’œuvre avec le retour du
protectionnisme et la volonté de « produire au voisinage », c’est-à-dire de
défaire la segmentation productive. En conséquence, des coûts importants liés
aux fermetures et transferts d’unités de production vont vraisemblablement
peser sur la croissance économique.
Ainsi, le sens de la relation mondialisation commerciale et productive-
croissance n’est pas clairement établi. Pour autant cette relation existe et est
d’autant plus forte que certaines conditions sont réunies. Cependant, il existe
des gagnants et des perdants de la mondialisation, et il faut en tenir compte.

B. Contrôle de la mondialisation économique et commerciale


et soutenabilité politique de la croissance
******ebook converter DEMO Watermarks*******
Déjà au XIXe siècle, J. S. Mill avait montré que, si des gains à l’échange
pouvaient être attendus de la libéralisation commerciale, la question de la
répartition de ces gains n’était pas tranchée. Pour comprendre cette
répartition, il s’appuie sur les notions de termes de l’échange, définis comme
rapport entre la valeur des exportations et celle des importations, et de
demandes réciproques, c’est-à-dire de demande adressée au coéchangiste. Il
montre que, lorsque les demandes réciproques sont équivalentes (économies
de taille similaire), les termes de l’échange ne varient pas et le gain à
l’échange est partagé. En revanche, si la demande d’un pays est plus forte que
celle de son partenaire, alors le prix des produits importés s’accroît, ce qui
dégrade les termes de l’échange. Dès lors, les petits pays gagnent à la
mondialisation commerciale puisque leur demande est relativement faible.
Mill a fait valoir cet argument pour faire accepter, dans leur intérêt,
l’ouverture commerciale aux partenaires de la Grande-Bretagne, économie la
plus importante à l’époque. L’argument de la taille de l’économie et des
effets de l’ouverture sur les termes de l’échange a aussi été utilisé par
J. Bhagwati qui a forgé la notion de « croissance appauvrissante ». Pour lui,
la spécialisation et l’ouverture au commerce d’un grand pays en
développement, notamment, peuvent conduire à une situation de croissance
économique (les volumes produits et échangés s’accroissent) sans que cela
accroisse le revenu par tête. En effet, pour cet auteur, un grand pays qui
accroît sa production en se spécialisant accroît l’offre de produits au point de
conduire à une baisse des prix, et donc à une dégradation de ses termes de
l’échange.
Par ailleurs, la mondialisation commerciale et productive a des effets sur
la répartition des revenus et/ou sur la structure de l’activité économique. Les
modélisations du type HOS ont permis de montrer que la spécialisation
modifiait la rémunération des facteurs de production. Ainsi, le théorème de
Stolper-Samuelson affirme que l’augmentation du prix d’un bien augmente la
rémunération réelle du facteur utilisé intensément dans la production de ce
bien et diminue la rémunération réelle de l’autre facteur. Ainsi, que l’on
raisonne en termes d’échange de produits ou d’inscription dans les CVM, les
dynamiques devraient conduire à voir les rémunérations des travailleurs
qualifiés s’accroître dans les économies fortement dotées en travail qualifié
(PDEM) et celles des travailleurs peu qualifiés se réduire. C’est l’inverse
dans les PED ou les pays émergents. Cette dynamique des inégalités
croissantes liée à la mondialisation commerciale et productive est également
******ebook converter DEMO Watermarks*******
analysée par un économiste comme P.-N. Giraud (L’Homme inutile, 2015)
qui considère, contrairement à ce que prédit le théorème de Stolper-
Samuelson, qu’elles s’accroissent également dans les pays émergents.
Rejetant l’hypothèse d’immobilité des facteurs de production, il montre que
les capitaux comme les travailleurs les plus qualifiés sont nomades et
s’implantent sur les espaces les plus compétitifs. Mais, ajoute-t-il, un espace
est d’autant plus compétitif que les travailleurs sédentaires sont peu
rémunérés relativement aux travailleurs nomades.
Les stratégies d’implantation renforcent alors les dynamiques
inégalitaires. Le point important, c’est que l’accroissement des inégalités pèse
fortement sur la croissance économique. En effet, les inégalités réduisent la
productivité en raison de leurs effets délétères sur l’alimentation, la santé,
l’éducation dont la qualité détermine l’efficacité du capital humain. Ainsi, la
mondialisation commerciale et productive s’accompagne d’une
« mondialisation de l’inégalité » (F. Bourguignon) qui ralentit la dynamique
de croissance.
Enfin, l’économiste D. Rodrik distingue dans ses travaux l’intégration
économique profonde de l’intégration économique superficielle. Dans le
premier cas, une autorité politique permet de contrôler les effets
potentiellement négatifs de l’intégration commerciale et productive, à l’image
de l’organisation économique et politique des États-Unis, idéal-type pour
l’auteur de l’intégration profonde. Dans le second cas, il n’existe pas
d’autorité véritablement légitime au-dessus des différentes entités intégrées.
C’est la situation que connaît la mondialisation actuelle (aux niveaux
commerciaux et productifs, mais également financiers). Rodrik établit ainsi
un triangle d’incompatibilité entre « intégration économique en profondeur »,
« politique démocratique » et « État-nation ». Alors, pour respecter la
démocratie, approfondir l’intégration économique nécessiterait d’abandonner
les souverainetés nationales.
Or, comme l’illustrent les questions de souveraineté au sein de l’Union
européenne avec le Brexit, ou l’élection de D. Trump aux États-Unis, les
citoyens restent très attachés à l’idée de nation. Dès lors, comme Rodrik le
rappelle dans La mondialisation sur la sellette (2018), vouloir libéraliser
toujours plus le commerce et l’investissement au nom d’un surcroît d’activité
économique est une erreur qui risque de conduire à un recul violent de la
mondialisation. Selon les mots de Rodrik, pour « sauver la mondialisation de
ses propres partisans », il faut accepter de protéger les économies nationales
******ebook converter DEMO Watermarks*******
lorsque des demandes de ce type apparaissent et semblent légitimes. Si une
nation décide de proposer à ses travailleurs une couverture des risques
sociaux, est-il légitime que ce choix soit remis en cause au nom de la
mondialisation ? P. Artus établit un constat similaire : la globalisation met en
péril les politiques redistributives en érodant les assiettes fiscales et sociales
de leur financement, le capital et le travail qualifié étant très mobiles et attirés
par les espaces peu fiscalisés. Rodrik propose que les problèmes que pose
l’ouverture soient traités collectivement et donnent lieu à un contrôle
multilatéral comme ceux qui concernent le commerce au sein de l’OMC. Il
s’agirait alors de développer des accords de sauvegardes sociales et
environnementales.

Conclusion
Ainsi, il apparaît indéniable que mondialisation commerciale et productive et
croissance soient corrélées. En effet, des classiques aux nouveaux
keynésiens, la théorie économique est venue renforcer cette idée du fait des
gains à l’échange, des progrès de productivité, de la réalisation d’économies
d’échelle permis par l’ouverture des économies à l’international. Cependant,
d’une part l’ouverture seule ne suffit pas à dynamiser la croissance et
nécessite des politiques d’accompagnement vers la croissance. D’autre part, il
existe des gagnants et des perdants de la mondialisation. C’est la raison pour
laquelle la mondialisation économique et commerciale ne doit pas être
poussée trop loin, au risque d’être rejetée par les populations et de conduire à
une contraction forte de la production.
Une « intégration économique profonde » ne pourra advenir que lorsque
des abandons de souveraineté nationale auront été opérés, ce qui prend
beaucoup de temps. C’est d’ailleurs l’un des enjeux des années qui viennent
en termes d’organisation de la gouvernance mondiale. Comment en effet
concilier souverainetés nationales et enjeux globaux comme la stabilité
financière et monétaire internationale, la lutte contre l’évasion fiscale ou la
préservation du climat et de la biodiversité ?

******ebook converter DEMO Watermarks*******


Sujet 8 Faut-il souhaiter le retour
de l’inflation ?

1 Se préparer à la rédaction

1.1 L’enjeu du sujet


À partir des années 1960, le constat d’une inflation à taux croissant a été au
cœur des réflexions des économistes et des responsables de la politique
économique. En 1963, le plan de stabilisation du ministre des Finances,
Valéry Giscard d’Estaing, a déjà pour objectif de lutter contre l’inflation.
L’accélération de l’inflation à la suite des chocs pétroliers de 1973 et 1979,
dans un contexte de ralentissement de la croissance et de hausse du chômage,
est apparue comme paradoxale (stagflation). À partir du début des
années 1980, les politiques de désinflation se généralisent et, au sein des
PDEM, la cible d’inflation à 2 % s’impose aux banques centrales. Cette
politique est un succès puisque la « grande inflation » est vaincue et que, du
début des années 1990 à 2007, c’est la « grande modération » qui s’impose.
Cette victoire sur l’inflation accroît la crédibilité des banques centrales.
La crise financière de 2007-2008 change la donne. Ce n’est plus
l’inflation, mais la déflation qui menace et certains économistes s’inquiètent
même de la « fin de l’inflation ». Dans ce contexte, un retour de l’inflation
apparaît comme une évolution souhaitable. Alors qu’il est encore chef
économiste du FMI, O. Blanchard se demande s’il ne faudrait pas, dans le
contexte d’après-crise, porter la cible d’inflation à 4 % par an. Cette question
du retour à un taux d’inflation plus élevé ne vise pas seulement à éviter le
risque de la déflation, elle concerne aussi la question de l’endettement et la
question de la formation des salaires. C’est donc l’ensemble du contexte
macroéconomique qui est concerné par la question d’un éventuel retour de

******ebook converter DEMO Watermarks*******


l’inflation.
La formulation du sujet s’inscrit, en apparence, dans une visée normative.
Il s’agit en réalité d’inviter le candidat à une réflexion sur les enjeux du débat
actuel autour des politiques économiques de stabilisation et des moyens de
réduire les déséquilibres macroéconomiques. L’usage du verbe « souhaiter »
incite ainsi à examiner les choix politiques adoptés par les gouvernements des
pays développés à partir de l’entrée dans la période de désinflation au début
des années 1980 et à les soumettre à un examen critique. Au regard de quels
objectifs sous-jacents un retour de l’inflation peut-il être souhaitable ? Quels
sont les risques qui accompagneraient un infléchissement des politiques
économiques vers « plus d’inflation » ? Indépendamment de ces risques, un
retour de l’inflation serait-il de nature à réduire les déséquilibres
macroéconomiques que les PDEM connaissent aujourd’hui, dix ans après la
crise mondiale ?

1.2 Le cadrage du sujet et les concepts clés


Même si un rappel du passage de la « grande inflation » à la « grande
modération » est nécessaire, l’enjeu du sujet porte principalement sur la
période qui suit la crise financière de 2007-2008. L’inflation est
l’augmentation générale, durable et cumulative du niveau général des prix.
Dans les pays industrialisés, l’inflation a été vaincue bien avant la crise
de 2007-2008, l’objectif d’un taux d’inflation un peu inférieur à 2 % par an a
été atteint. Au Japon cependant, les tendances déflationnistes se manifestent
dès les années 1990, ce qui explique que ce pays a été un pionnier dans la
mise en œuvre de la politique monétaire non conventionnelle. Après la faillite
de Lehman Brothers, et avec la chute du commerce mondial et de la
production mondiale en 2009, la crainte de la déflation (c’est-à-dire de la
baisse générale, durable et cumulative du niveau général des prix) s’est
installée. Dans les faits, les banques centrales ont modifié leur objectif : il ne
s’agissait plus de conjurer l’inflation, mais d’éviter d’entrer dans la logique
de dépression résultant de la déflation par la dette analysée par Irving Fisher
dans les années 1930.
Au-delà du risque de déflation, il convient de se demander si un taux
d’inflation plus élevé est de nature à résoudre certaines difficultés rencontrées
par les économies des PDEM et, plus largement, par l’économie mondiale.
Ces difficultés concernent les conditions de formation des salaires et la

******ebook converter DEMO Watermarks*******


répartition fonctionnelle des revenus en faveur du capital, mais aussi la
question de l’endettement puisque l’inflation est susceptible de réduire la
valeur réelle de la dette. De plus, et à condition d’éviter le dérapage de
l’inflation à taux croissant, l’inflation peut aussi soutenir l’investissement et
donc la croissance.

1.3 La construction de la problématique


Pour savoir si l’on doit souhaiter un retour de l’inflation, il faut tout d’abord
s’interroger sur les causes de la désinflation et sur les bénéfices que l’on peut
attendre d’un retour à un taux d’inflation plus élevé. Si la perspective du
retour de l’inflation peut apparaître comme séduisante, c’est une évolution
peu probable. La menace de désinflation est un phénomène structurel lié à un
nouveau régime de croissance et à la globalisation. Dès lors, la vraie question
qui se pose est celle de la politique économique qu’il convient de mettre en
œuvre dans un nouveau régime de croissance et un nouveau contexte pour la
politique monétaire.

2 Rédiger le devoir : une proposition

Introduction
En 2010, alors que l’économie mondiale subit de plein fouet les
conséquences de la crise, le Fonds monétaire international, par
l’intermédiaire de son économiste en chef O. Blanchard, ouvre un débat sur
une question qui ne semblait plus devoir être discutée : modifier l’objectif des
grandes banques centrales en matière de ciblage d’inflation en passant de 2 à
4 %. À l’époque, cette proposition a suscité de vives oppositions notamment
chez les défenseurs de ce qu’il convient d’appeler l’orthodoxie monétaire.
Qu’est-ce qui peut conduire un économiste comme O. Blanchard à faire une
telle proposition alors qu’un consensus en faveur d’une cible à 2 % s’était
progressivement imposé à partir des années 1980 ?
Depuis les années 1960 jusqu’au milieu des années 1980 la lutte contre
l’inflation a été au cœur des préoccupations des économistes. La « grande
inflation » qui s’est manifestée jusqu’à la fin des années 1970 a conduit à
l’adoption généralisée de politiques de désinflation à partir de 1979 (politique
monétaire de Paul Volcker aux États-Unis). Ces politiques ont été couronnées
de succès et ont conduit, à partir du milieu des années 1980 jusqu’à la crise
******ebook converter DEMO Watermarks*******
de 2007, à la « grande modération » qui combinait faible inflation et stabilité
de la croissance. Les banques centrales ont acquis de ce fait une forte
crédibilité puisque la victoire contre l’inflation a été mise à leur crédit.
L’inflation, définie comme une hausse continue et cumulative du niveau
général des prix à la consommation, a longtemps été considérée comme le
danger principal qui menaçait les économies pendant les Trente Glorieuses.
Cela concernait les pays industrialisés, mais aussi, plus tard, les pays
émergents qui ont connu des épisodes d’hyperinflation et les pays de l’ancien
bloc soviétique après la transition au capitalisme. Dans tous les cas,
l’inflation est apparue comme une perturbation majeure qui dépréciait la
monnaie, nuisait à la compétitivité des entreprises, brouillait les signaux
véhiculés par les prix et entraînait un creusement des inégalités de revenu et
de patrimoine.
On peut donc s’étonner que certains considèrent aujourd’hui un taux
d’inflation plus élevé comme une réponse possible aux difficultés
économiques qui résultent notamment de la crise de 2007-2008. Pour
comprendre ce paradoxe apparent, il faut d’abord s’intéresser aux causes du
phénomène de désinflation, mais aussi se demander en quoi une hausse plus
rapide des prix pourrait constituer une solution (I). Mais nous montrerons que
souhaiter un retour à un taux d’inflation plus élevé est vœu pieux car la
désinflation a un caractère structurel. Dès lors, il convient de se demander
quelles politiques économiques mettre en œuvre dans ce nouveau contexte
macroéconomique (II).

I. De la désinflation aux avantages d’un retour à l’inflation


Si l’on compare la situation actuelle des principaux pays industrialisés en
matière d’inflation à la situation qui prévalait à la fin des années 1970, le
changement est radical. Les taux d’inflation étaient alors fréquemment à deux
chiffres tant aux États-Unis qu’en Europe. Aujourd’hui, les banques centrales
peinent encore à lutter contre les risques de déflation et à maintenir leur taux
d’inflation au voisinage de 2 %. Comment peut-on expliquer ce phénomène
de désinflation (A) ? Dans ce contexte, un taux d’inflation plus élevé peut
apparaître comme une partie de la solution afin de résoudre les difficultés
rencontrées (B).

A. Un régime de faible inflation


Comment peut-on expliquer le ralentissement de la hausse des prix
******ebook converter DEMO Watermarks*******
particulièrement sensible dans les pays industrialisés ? En premier lieu, il
s’agit de l’effet des politiques de désinflation conduites par les banques
centrales et les gouvernements à partir des années 1980. Les politiques de
freinage de la croissance de la demande globale et les politiques monétaires
restrictives ont modifié durablement le contexte économique. Les banques
centrales (devenues indépendantes pour celles qui ne l’étaient pas encore) ont
gagné en crédibilité au fur et à mesure que la cohérence intertemporelle de
leurs politiques de désinflation s’est imposée aux agents économiques. Cette
crédibilité accrue affecte les anticipations d’inflation qui ont tendance à
s’aligner sur la cible d’inflation des banques centrales.
Plus près de nous, dans la zone euro, l’objectif de stabilité des prix est
l’objectif unique de la BCE qui figure dans le Traité de Maastricht de 1992.
La période de la « grande modération » a aussi convaincu les agents
économiques qu’un faible taux d’inflation était compatible avec une
croissance relativement soutenue et un taux de chômage faible (notamment
aux États-Unis). La crise de 2007-2008 a amplifié le phénomène de
ralentissement de la hausse des prix en raison du freinage brutal de l’activité
économique qui a conduit à un risque de déflation.
Un autre facteur important est intervenu avec l’approfondissement de la
mondialisation commerciale et la place croissante des pays émergents dans la
production manufacturière mondiale à partir de la fin des années 1990. Les
pays émergents ont intégré l’OMC et ils contribuent à fournir les pays
industrialisés en marchandises moins coûteuses du fait de coût de production
plus faibles. La baisse des coûts de transport et des coûts de coordination qui
résultent du développement des nouvelles technologies contribue aussi à la
baisse de certains prix et donc au freinage de la hausse générale du niveau
des prix. L’internationalisation des chaînes de valeur joue également un rôle
décisif. Une part importante des biens intermédiaires utilisés dans les unités
de production des pays industrialisés est importée en provenance de pays à
bas salaires et contribue à la diminution du coût global de production.
L’inflation est donc de plus en plus liée aux caractéristiques de l’économie
mondiale dans son ensemble et moins fortement liée aux déséquilibres qui
peuvent surgir au niveau national. Enfin, l’affaiblissement du pouvoir de
négociation des salariés conduit à ce que, même en fin de cycle, lorsque
l’économie se rapproche du plein-emploi, les salaires progressent peu. La
boucle prix-salaire joue donc beaucoup moins et globalement le ​partage des
revenus se modifie en défaveur des salariés et en faveur du capital.
******ebook converter DEMO Watermarks*******
Ainsi, le ralentissement de la hausse des prix est un choix de politique
économique (la priorité à la désinflation à partir des années 1980) mais il
découle également de la mondialisation commerciale et productive ainsi que
de la modification du rapport de force entre les bénéficiaires de revenus du
travail et les bénéficiaires de revenus du capital. Il reste toutefois à se
demander si un changement d’objectif quant à l’inflation pourrait constituer
une solution face aux déséquilibres macroéconomiques à l’œuvre dans de
nombreux PDEM.

B. Que peut-on attendre de l’inflation ?


En quoi une accélération de la hausse des prix pourrait-elle jouer un rôle
positif sur la situation économique ? Le premier mécanisme concerne la
croissance économique. Pendant une bonne partie des Trente Glorieuses, les
économies des pays industrialisés ont bénéficié d’un effet de levier sur
l’investissement et donc d’un effet positif de l’inflation sur la croissance. En
effet, si l’inflation n’est pas totalement anticipée et si la hausse des prix est
plus rapide que l’augmentation du taux d’intérêt nominal, le taux d’intérêt
réel est inférieur au taux nominal. Or, c’est le taux d’intérêt réel qui, comparé
à l’efficacité marginale du capital, détermine le niveau de l’investissement.
L’inflation incite donc les entrepreneurs à investir et on peut ajouter qu’elle
joue aussi en faveur de l’équipement en biens durables des ménages lorsque
ceux-ci financent leurs achats à crédit. Le second effet positif d’un rythme
plus soutenu d’inflation réside dans son effet sur les dettes publiques et
privées.
On sait en effet que le niveau global d’endettement est devenu très élevé,
notamment depuis la crise de 2007-2008. Cela a deux effets négatifs sur la
croissance économique. En premier lieu, la charge de la dette
(remboursement du principal et des intérêts) conduit les États comme les
entreprises à réduire leurs dépenses pour parvenir à se désendetter. En second
lieu, le niveau élevé de l’endettement accroît le risque de crédit et incite les
banques à se monter plus frileuses dans l’octroi de crédits alors même
qu’elles disposent de liquidités abondantes. Lorsque la dette est à taux fixe,
l’accroissement de l’inflation réduit le taux d’intérêt réel.
Enfin, puisque l’inflation réduit la valeur réelle de la monnaie (son
pouvoir d’achat) la valeur réelle de la dette est donc réduite par
l’accroissement du taux d’inflation. Dans le passé on a souvent assisté à ce
phénomène de désendettement lié à l’inflation. C’est le phénomène de
******ebook converter DEMO Watermarks*******
« l’euthanasie du rentier » dont parlait J. M. Keynes : ce sont les créanciers
qui subissent un effet de richesse négatif, mais le désendettement des
débiteurs stimule l’économie en favorisant la reprise de la consommation et
de l’investissement. Les États, en particulier, pourraient retrouver des marges
de manœuvre budgétaires non seulement pour stimuler l’économie à court
terme, mais surtout pour engager des dépenses structurelles en matière de
transition écologique ou d’investissement en capital humain et technologique.
Ce phénomène est l’opposé de la déflation par la dette analysée par I. Fisher :
c’est le désendettement par l’inflation. Enfin, une inflation plus soutenue, en
même temps qu’elle appauvrirait les créanciers, pourrait favoriser le retour de
l’indexation des salaires sur les prix et donc créer un contexte plus favorable
aux salariés. Un rééquilibrage de la répartition des revenus en faveur des
revenus du travail pourrait en découler.
Ainsi, l’inflation pourrait retrouver le rôle de stimulant de la croissance et
de l’emploi qui a été le sien pendant les Trente Glorieuses. Mais cela
supposerait que l’augmentation du taux d’inflation ne débouche pas sur une
nouvelle spirale inflationniste où l’inflation à taux croissant finirait par jouer
négativement et pourrait conduire à nouveau à la stagflation.

II. L’impossible retour de l’inflation et les enjeux du nouveau


contexte macroéconomique
Ainsi, le retour de l’inflation peut apparaître comme un moyen de dynamiser
l’économie. Mais outre que le risque de dérapage vers l’inflation à taux
croissant ne doit pas être écarté. On a de bonnes raisons de penser que la
désinflation a un caractère structurel et qu’elle est une caractéristique durable
du contexte macroéconomique (A). Dans ces conditions, il faut se demander
quelles orientations il convient de donner à la politique macroéconomique
(B).

A. L’impossible retour de l’inflation


Quand bien même le retour de l’inflation serait souhaitable, est-il possible ? Il
semble bien que non. Dès la période qui a précédé la crise de 2007-2008
(pendant la période où a joué le paradoxe de la tranquillité) on a pu constater
que si le taux d’inflation mesuré par l’indice du niveau général des prix à la
consommation connaissait une hausse modérée, les prix des actifs financiers
et immobiliers augmentaient quant à eux fortement. Dans la période qui a
précédé la crise, les banques centrales ne perçoivent pas ce phénomène
******ebook converter DEMO Watermarks*******
nouveau Or, celui-ci se poursuit après la crise. L’accroissement très important
de la liquidité mondiale ne se traduit pas par une accélération de la hausse des
prix à la consommation ; en revanche, elle se manifeste à nouveau par une
hausse des prix des actifs. Les banques centrales, tout en prenant conscience
de la montée des risques financiers, continuent de mettre en avant leur cible
d’inflation.
C’est ainsi que M. Draghi, à partir de mars 2015, justifie la mise en œuvre
de la politique d’achat d’actifs de la BCE par le fait que le taux d’inflation de
la zone euro reste inférieur à la cible des 2 % d’inflation. P. Artus considère
que, dans les pays développés à économie de marché, l’augmentation de la
liquidité a un effet de portefeuille et se traduit par des achats d’actifs (donc
une hausse des prix de ces derniers), alors que dans les pays émergents, la
hausse de la quantité de monnaie a un effet de transaction et se traduit par une
hausse des prix des biens et services. Il semble bien que, dans les PDEM,
l’inflation, telle qu’on l’entendait traditionnellement, ne soit plus la
conséquence inéluctable d’une politique monétaire accommodante. L’une des
raisons de ce phénomène réside sans doute dans un ancrage à un faible niveau
des anticipations d’inflation.
De ce fait, même une politique de faible taux d’intérêt et de facilité
quantitative ne conduit pas à un rythme d’inflation plus élevé. De plus, même
si une certaine démondialisation se manifeste, la concurrence des pays à bas
salaire, dont certains connaissent un développement technologique important,
est une caractéristique durable de l’économie mondiale. La pression à la
baisse sur les prix des biens et services liée à l’ouverture des économies et à
la croissance des pays émergents va probablement se maintenir. Enfin, même
si la thèse de la stagnation séculaire ne fait pas l’unanimité, il semble bien
que les PDEM sont entrés dans un nouveau modèle de croissance caractérisé
par une croissance potentielle faible. Dans ces conditions une stimulation de
la croissance effective n’a pas d’effet positif sur l’emploi, elle peut même se
traduire par une précarisation accrue de la main-d’œuvre. La stimulation de la
croissance par l’inflation, qui a marqué les Trente Glorieuses dans une
période où les gains de productivité étaient forts et la croissance potentielle
dynamique, pourrait bien, dans ce nouveau modèle de croissance, ne pas
avoir les effets favorables attendus en matière d’emploi et de partage du
revenu.
Le faible rythme de la hausse des prix dans les pays développés à
économie de marché a donc bien un caractère structurel et un retour de
******ebook converter DEMO Watermarks*******
l’inflation ne semble pas une réponse possible aux difficultés rencontrées
dans ces économies. Se pose alors la question de politiques alternatives à
mettre en œuvre dans ce nouveau contexte macroéconomique.

B. Quelle politique économique dans le nouveau contexte


macroéconomique ?
Il convient tout d’abord de redonner toute sa place à la question de la finance
et de son rôle dans l’économie. Pendant longtemps, les banques centrales ont
concentré leur action sur la stabilité économique entendue comme un faible
niveau d’inflation. Elles doivent aujourd’hui se concentrer sur la stabilité
financière entendue comme la limitation de l’ampleur du cycle financier. La
crise de 2007-2008 a rendu toute son actualité à l’hypothèse d’instabilité
financière d’H. Minsky. Cette analyse montre l’instabilité endogène des
économies liée au cycle du crédit et à l’accélérateur financier : quand le prix
des actifs augmente, l’effet de richesse positif pousse les banques à accorder
plus facilement des crédits, ce qui joue à la hausse sur le prix des actifs, mais
quand la tendance se retourne, l’accélérateur joue à la baisse et les prix des
actifs s’effondrent provoquant la multiplication des défauts des agents sur
leur dette. Les banques centrales doivent donc mettre en place des dispositifs
prudentiels pour l’imiter le cycle du crédit et « stabiliser une économie
instable » (Minsky).
Le deuxième axe important de réflexion pour infléchir la politique
économique consiste à mobiliser l’épargne et le pouvoir de création
monétaire des banques, pour financer les investissements considérables qui
sont nécessaires afin d’assurer la transition vers une économie décarbonée et
plus largement la transition écologique. Cela impliquerait des investissements
très importants en capital humain et en recherche-développement, donc la
mise en place de dispositifs institutionnels permettant de combiner
volontarisme public et initiative privée. L’objectif est de relever le niveau de
la croissance potentielle tout en rendant cette croissance soutenable. Il
s’agirait aussi d’améliorer le niveau et la qualité de l’emploi (dans plusieurs
pays de l’Union européenne tel que la France, par exemple, le taux d’emploi
reste à un niveau structurellement faible : moins de 66 % en 2018). J. Yellen
a montré récemment que le taux d’emploi, plus que le taux de chômage,
devrait constituer aujourd’hui un indicateur important pour le politique
économique.
Un troisième axe de réflexion pourrait porter sur la réduction des
******ebook converter DEMO Watermarks*******
inégalités de revenus et plus largement sur la protection collective contre les
risques individuels qui résultent d’une économie dynamique fondée sur
l’innovation. Récemment, le FMI a attiré l’attention sur les dangers d’une
inégalité excessive des revenus et sur la nécessité de promouvoir une
croissance inclusive. Cela suppose à la fois une réduction des inégalités dans
le partage des revenus primaires (notamment en luttant contre les bas salaires
et les emplois précaires) et le renforcement de la redistribution afin de pallier
les risques sociaux.
Enfin, le dernier axe repose sur la prise en compte du caractère
incontournable d’une politique discrétionnaire de stabilisation de l’activité
économique. En particulier il faut, comme on l’a fait dans les années 1960
aux États-Unis, se montrer attentif à l’écart entre la croissance effective et la
croissance potentielle. Même si l’on parvient à promouvoir une croissance
potentielle plus dynamique, la surveillance de l’instabilité autour du sentier
de croissance reste indispensable. La coordination marchande décentralisée
présente de nombreux avantages, elle ne peut suffire à assurer la stabilité
financière et la stabilité économique.

Conclusion
Pour séduisant qu’il puisse paraître, le retour de l’inflation n’apparaît pas
comme une solution possible, compte tenu du caractère structurel de la
désinflation. Il n’est pas sûr qu’il soit souhaitable dans la mesure où un
rythme de hausse des prix plus soutenu ne pourrait répondre aux multiples
défis auxquels sont confrontées les économies contemporaines : transition
écologique, inégalités, niveau et qualité de l’emploi, gestion de l’innovation,
etc. À défaut de solution miracle, il apparaît que l’action de coordination et
de régulation multidimensionnelle des économies est plus que jamais
nécessaire. Le volontarisme public, reposant sur le débat démocratique et
l’implication des citoyens, apparaît indispensable. Cela suppose des
changements majeurs dans la conception et la mise en œuvre des politiques
publiques au niveau national, mais aussi des efforts accrus de coopération
internationale, qu’il s’agisse de la coordination des politiques économiques
en zone euro et plus largement dans l’Union européenne, de développement
d’un cadre prudentiel intégré pour la finance mondiale, de la mise en œuvre
de la protection des biens communs mondiaux et de la production des biens
collectifs mondiaux. Sur toutes ces questions, la contribution de l’analyse
économique est déjà très abondante. Il reste aux responsables politiques et
******ebook converter DEMO Watermarks*******
aux citoyens à s’en emparer pour enrichir le débat public.

******ebook converter DEMO Watermarks*******


Sujet 9 Les politiques
monétaires non
conventionnelles depuis
2007-2008 : quel bilan ?

1 Se préparer à la rédaction

1.1 L’enjeu du sujet


Depuis la crise de 2007-2008, la plupart des pays développés à économie de
marché ont mis en œuvre des politiques monétaires non conventionnelles.
Cela signifie que, ne pouvant plus agir par la modification des taux d’intérêt
directeurs, les banques centrales ont mis en œuvre pour l’essentiel une action
par les quantités de monnaie centrale. Il en est résulté une augmentation très
significative de la liquidité mondiale. Ce faisant, les banques centrales ont
contribué de façon décisive à ce que les économies frappées par la crise des
crédits subprime ne soient précipitées dans la récession, la déflation et les
faillites en cascade au sein du système bancaire et financier. À s’en tenir à ce
constat, on pourrait tirer un bilan unilatéralement positif de ces choix de
politique monétaire. Cependant, de nombreux économistes s’inquiètent de
l’impossibilité, où se trouvent les banques centrales, de sortir de ces
politiques non conventionnelles et de normaliser leurs politiques monétaires.
D’une part, l’abondance de liquidité favorise le gonflement de bulles sur
le prix des actifs, d’autre part, le faible niveau des taux d’intérêt favorise le
recours au crédit de la part des États comme des agents privés. La hausse de
l’endettement et le gonflement de bulles spéculatives s’autoentretiennent
faisant croître le risque systémique. Dans cette perspective, le bilan des
******ebook converter DEMO Watermarks*******
politiques monétaires non conventionnelles apparaît contrasté. Elles n’ont fait
que retarder l’échéance et contribuent à créer les conditions d’une nouvelle
crise financière majeure.

1.2 Le cadrage du sujet et les concepts clés


La distinction entre « politique monétaire conventionnelle » et « politique
monétaire non conventionnelle » fait aujourd’hui consensus dans la littérature
économique. Dans le premier cas, il s’agit des politiques monétaires, reposant
sur l’action par les taux d’intérêt, telles qu’elles ont été conçues et mises en
œuvre dans les principaux PDEM jusqu’à la crise de 2007-2008. Cette crise a
été un choc financier, productif mais aussi théorique : alors que les banquiers
centraux étaient parvenus à vaincre la Grande Inflation puis à maintenir les
économies dans la Grande Modération (1985-2007), il a fallu, face à la crise,
redéfinir de manière radicale les objectifs et les instruments de la politique
monétaire. La politique monétaire non conventionnelle, qui repose sur
l’action par la quantité de monnaie centrale, a été mise en œuvre par les
PDEM à partir de 2008.
Même si une politique monétaire non conventionnelle a été mise en
œuvre au Japon à partir de la fin des années 1990, le sujet porte pour
l’essentiel sur les politiques monétaires mises en œuvre après la crise
financière de 2007-2008. On étudiera le cas des principaux pays industrialisés
(États-Unis, zone euro, Grande-Bretagne). Les politiques monétaires non
conventionnelles résultent du fait que la baisse, parfois très rapide, des taux
directeurs ne produit pas l’effet de stimulation attendu et surtout ne permet
pas de répondre à la situation d’assèchement du marché interbancaire où
certaines banques ne parviennent plus à se refinancer. La politique monétaire
conventionnelle rencontre de toute façon une limite lorsqu’elle atteint la
« frontière des taux zéro » (Zero Lower Bound). L’action par les prix que sont
les taux d’intérêt devient, dès lors, largement inopérante. Les banques
centrales ont donc adopté des mesures non conventionnelles qui portent
principalement sur la quantité de liquidités mise à la disposition de
l’économie et sur le montant des crédits que les banques accordent.
Le premier type d’action constitue ce que l’on nomme le Quantitative
Easing. Il s’agit de fournir des liquidités aux banques en leur garantissant un
accès illimité à un guichet à taux fixe (nul ou très proche de zéro) et en
procédant à des achats massifs de titres sur les marchés. Le second moyen

******ebook converter DEMO Watermarks*******


constitue ce que l’on nomme le Credit Easing. Il s’agit d’inciter les banques
de second rang à accorder davantage de crédits aux agents non bancaires.
Cela passe notamment par le rachat par la banque centrale de créances de
piètre qualité qui se trouvent à l’actif des banques afin que ces dernières
soient incitées à accorder plus de crédits. Les banques centrales peuvent aussi
conditionner l’octroi de liquidités (notamment des refinancements à long
terme) aux banques de second rang au fait que ces dernières accroissent
l’encours des crédits accordés aux agents non bancaires. Les banques
centrales ne se désintéressent pas pour autant des taux d’intérêt, mais elles
agissent sur les anticipations de taux d’intérêt à long terme par les banques de
second rang et par les agents non bancaires. Dans ce but elles pratiquent le
Forward Guidance. En garantissant le maintien de taux courts à un taux très
faible ou nul pour une longue période, elles espèrent que cela conduira à une
baisse des taux longs qui sont décisifs en matière de décisions
d’investissements.
Faire le bilan des politiques monétaires non conventionnelles c’est donc
se demander quel est l’impact sur les économies du maintien durable de taux
d’intérêt nuls ou très faibles et de la fourniture de liquidités abondantes aux
banques de second rang.

1.3 La construction de la problématique


L’intitulé du sujet apparaît comme assez descriptif, mais il y a bien un enjeu
derrière cette formulation. En effet, face au risque de crise de liquidité,
d’effondrement du système financier, de récession durable et d’éclatement de
la zone euro, les banques centrales n’avaient guère d’autres choix que
d’intervenir en innovant sur les instruments utilisés afin d’éviter le pire. Et,
de fait, le pire a été évité. Il importe donc de comprendre comment la
politique monétaire non conventionnelle a eu cet effet positif. Mais d’autre
part, cette politique a eu des effets sans précédents en termes d’augmentation
de la liquidité mondiale et de maintien de taux d’intérêt très faibles, de sorte
que la normalisation de la politique monétaire apparaît comme très
problématique et très risquée. L’idée selon laquelle la politique non
conventionnelle n’était qu’une parenthèse avant un retour à la politique ​-
conventionnelle apparaît donc de plus en plus problématique. Y a-t-il une
possible « sortie par le haut » des politiques monétaires non
conventionnelles ?

******ebook converter DEMO Watermarks*******


2 Rédiger le devoir : une proposition

Introduction
En juin 2018, réagissant aux annonces de politique monétaire de M. Draghi,
le quotidien économique français La Tribune titrait « BCE : la fin de la
morphine monétaire ». La formule était à la fois excessive et inappropriée.
Excessive, car les mesures annoncées par le président de la BCE étaient très
prudentes et ne constituaient pas un sevrage thérapeutique brutal.
Inappropriée, car la politique de la BCE ne visait pas à provoquer
l’assoupissement de l’économie, mais au contraire à la stimuler. Plutôt que de
morphine, il aurait été préférable de parler de « dopant » ou de « fortifiant ».
Cela illustre en tout cas la vivacité des débats autour de la politique
monétaire. Mais ce n’est rien à côté de ce qui se passe aux États-Unis. En
octobre 2018, le président Trump a indiqué que la Fed (Banque centrale
indépendante) était « tombée sur la tête », qu’elle « devenait folle » en
remontant les taux d’intérêt. Le mécontentement du président est d’autant
plus vif qu’il a nommé lui-même le président du Conseil des gouverneurs,
J. Powell, pour remplacer J. Yellen, une économiste démocrate nommée par
B. Obama. Or, le nouveau président du Conseil des gouverneurs de la
Réserve fédérale poursuit la politique de normalisation de la politique
monétaire en ​augmentant prudemment mais régulièrement le principal taux
directeur de la Fed (taux des fonds fédéraux).
Derrière ces polémiques se joue un enjeu majeur. Selon la Banque de
France, la politique monétaire est l’ensemble des moyens mis en œuvre par
un État ou une autorité monétaire pour agir sur l’activité économique par la
régulation de sa monnaie. On entend par « politique monétaire non
conventionnelle » une politique qui repose principalement sur l’action par la
quantité de liquidité telle qu’elle est menée à partir de la crise mondiale
de 2008. À partir de cette date, la banque centrale des États-Unis a mis en
œuvre une politique monétaire non conventionnelle combinant une baisse très
rapide de son taux directeur et une vigoureuse politique d’achats d’actifs sur
les marchés afin d’alimenter les banques de second rang et l’ensemble de
l’économie en liquidités. La Banque centrale européenne s’est engagée dans
la même voie, quoique de façon plus tardive. À partir de la fin de
l’année 2015, la Fed a commencé à remonter ses taux d’intérêt sous l’autorité
de J. Yellen qui s’appuyait notamment sur la baisse du taux de chômage aux
******ebook converter DEMO Watermarks*******
États-Unis. Nommé à la tête de la Fed en février 2018, J. Powell a poursuivi
sa politique de hausse des taux dont il annonce le maintien pendant
l’année 2019. La BCE a commencé, pour sa part, à réduire ses achats d’actifs
(15 milliards par mois depuis septembre 2018 contre 30 milliards par mois
précédemment et 80 milliards par mois à l’époque où la politique était la plus
expansionniste). La crainte exprimée par D. Trump, et par d’autres
observateurs qui utilisent des formulations plus diplomatiques, c’est que
l’affaiblissement du soutien monétaire à l’activité économique ne casse pas la
croissance alors que cette dernière se montre moins dynamique qu’on ne
l’avait prévu précédemment. Autrement dit, le durcissement de la politique
monétaire risque d’être procyclique (freinage de la consommation et de
l’investissement) au moment où, en Europe notamment, la croissance faiblit
et où il faudrait la soutenir. Les banquiers centraux considèrent, pour leur
part, que l’on ne peut pas poursuivre indéfiniment la stimulation monétaire de
l’économie par injection de liquidités au risque de provoquer une situation de
surchauffe et d’aggraver l’instabilité financière.
Ces débats rendent nécessaire un bilan des politiques monétaires non
conventionnelles mises en œuvre dans les pays développés à économie de
marché au lendemain de la crise des subprimes. En effet, montrant l’ampleur
des déséquilibres financiers (assèchement des marchés monétaires, menaces
sur la liquidité des banques et des autres institutions financières, contraction
brutale du crédit aux agents non financiers), les banques centrales ont
constaté que la politique fondée sur la modification des taux directeurs et des
réserves obligatoires n’était plus efficace, notamment en raison du fait que les
taux directeurs avaient atteint ou se rapprochaient dangereusement de la
frontière des taux zéro. Il leur a donc fallu innover en usant de l’action par les
quantités : facilité quantitative (Quantitative Easing) grâce à l’injection de
liquidités, facilité de crédit (Credit Easing) par des mesures incitant les
banques de second rang à accorder plus de crédits aux agents non financiers
et action prospective sur les taux d’intérêt à long terme (Forward Guidance)
pour agir sur les anticipations des agents en matière de taux d’intérêt et donc
d’investissement. Ces politiques non conventionnelles ont eu un effet
salvateur et ont évité à l’économie mondiale de s’enfoncer dans un cercle
vicieux de faillites bancaires, de déflation et de dépression (I). Cependant, en
inondant l’économie mondiale en liquidités, en maintenant durablement des
taux d’intérêt artificiellement bas, ces mêmes politiques sont devenues un
facteur de risque systémique. D’une part, elles créent les conditions d’un
******ebook converter DEMO Watermarks*******
gonflement de nouvelles bulles spéculatives, d’autre part, elles soutiennent la
solvabilité des finances publiques puisque les États peuvent financer leur
déficit et leur dette à des taux très faibles. Mais au total, le gonflement
généralisé de l’endettement comporte un fort risque de survenance d’une
nouvelle crise systémique. De ce point de vue, les politiques monétaires
n’auraient fait que reculer l’échéance de l’assainissement nécessaire (II). Le
bilan des politiques monétaires non conventionnelles est donc très contrasté.

I. L’effet salvateur de la politique monétaire non conventionnelle


Dans une très large mesure, la politique monétaire non conventionnelle s’est
imposée aux banques centrales dans le cadre d’une stratégie de « Cleaning
Up Afterward » (nettoyer les débats après coup). En effet, les économistes
qui avaient tenté d’attirer l’attention sur la montée des risques financiers
avant 2007 (notamment N. Roubini, R. Rajan) n’ont guère été entendus.
L’ambiance générale était à l’optimisme quant à l’efficience des marchés et
aux mérites de la titrisation sous l’égide de banques centrales qui étaient à
l’origine de la « Grande modération ». Le « paradoxe de la crédibilité » a joué
à plein. Le déclenchement et l’ampleur de la crise financière de 2007-2008
ont été un choc non anticipé. Mais les banquiers centraux, à la différence de
ce qui s’était passé en 1929, étaient conscients des risques et disposés à
prendre leurs responsabilités. Dès 2002, B. Bernanke avait formulé la
doctrine qui porte son nom à propos de la déflation : « Deflation: making
sure “it” doesn’t happen here ». En d’autres termes, la politique monétaire
non conventionnelle a permis d’éviter une crise de liquidité (A) et une crise
de solvabilité (B).

A. La politique monétaire non conventionnelle a permis d’éviter la


crise de liquidité
Le principal risque qui a découlé de la crise porte sur la question de la
liquidité du système financier et, au-delà, des agents non financiers
(entreprises et ménages). Les banques et autres institutions financières
comptaient à la fois sur la liquidité de leur bilan (détentions d’actifs pouvant
être échangés contre de la monnaie banque centrale) et sur la liquidité de
marché (l’existence de marchés sur lesquels emprunter, en cas de besoin, les
liquidités). Or, la crise a provoqué une contraction brutale de ces deux
sources de liquidités. D’une part, certains actifs se sont révélés de mauvaise
qualité (en particulier tous les produits structurés qui incluaient des crédits
******ebook converter DEMO Watermarks*******
subprime, mais aussi les créances sur les ménages et les entreprises victimes
de l’éclatement de la bulle immobilière). D’autre part, sur les marchés
monétaires, la défiance généralisée a conduit les institutions financières, qui
disposaient de liquidités, à refuser de les prêter par crainte que leur
contrepartie ne se révèle rapidement insolvable ou illiquide.
Dès lors, la possibilité existait, surtout après la faillite de Lehman
Brothers en septembre 2008, d’une crise générale de liquidité et donc de
faillites en chaîne du système bancaire. Outre l’effet de panique, cela aurait
conduit à des effets de richesse négatifs sur les ménages et les entreprises
(baisse de la valeur de leur patrimoine) et donc au déclenchement d’une
spirale déflationniste. Pour enrayer une telle évolution, les banques centrales
ont procédé à une baisse très rapide de leurs taux directeurs. Mais cette action
par les prix s’est révélée insuffisante. Dès septembre et octobre 2007, la
Réserve fédérale procède à des achats d’actifs sur les marchés, mais les
montants restent encore limités (de l’ordre de 70 milliards de dollars). La
BCE fait, pour sa part, une utilisation non conventionnelle des instruments
conventionnels. Au lieu de refinancer les banques de second rang à taux
variable dans le cadre d’un appel d’offre, elle ouvre un guichet de
refinancement à taux fixe où les banques sont servies pour la totalité des
liquidités qu’elles réclament. Dans la même logique, la Réserve fédérale des
États-Unis met en place dès décembre 2007 un refinancement à 28 jours
(alors qu’habituellement elle accorde des crédits à 24 heures).
La Banque centrale américaine met aussi en place trois phases de
Quantitative Easing entre décembre 2008 et décembre 2013 pour un total de
près de 3 000 milliards de dollars. L’action de la BCE est plus tardive et plus
progressive. Entre 2009 et 2012, elle achète des obligations sur les marchés
financiers et notamment des obligations des États en difficultés dont les taux
d’intérêt ont tendance à s’accroître par rapport aux taux allemands. Elle fait
ainsi coup double : elle alimente l’économie en liquidités et elle renforce la
crédibilité de la zone euro sapée par la perspective d’un défaut sur la dette
souveraine de la Grèce et d’autres pays du Sud de la zone euro. En 2011
et 2012, la BCE met aussi en place des opérations de refinancement à très
long terme (Very Long term Refinancing Operation, VLTRO) pour un
montant de 1 000 milliards d’euros et une durée de trois à cinq ans alors que
les opérations de refinancement à long terme sont habituellement de trois
mois dans le cadre de la politique monétaire conventionnelle.
C’est dans ce contexte qu’en juillet 2012, alors que l’action de la BCE
******ebook converter DEMO Watermarks*******
face à la crise de la dette grecque est contestée, que M. Draghi, président de
la BCE, fait une déclaration retentissante rappelant que son mandat est de
maintenir l’inflation un peu au-dessous de 2 % par an. Or, à l’époque la
déflation menace, injecter massivement des liquidités est donc conforme au
mandat de la BCE. De plus, explique Draghi à une assemblée de financiers
réunis à Londres : « Nous ferons tout ce qui sera nécessaire pour préserver
l’euro. Et croyez-moi ce sera suffisant. » Compte tenu de la crédibilité de la
BCE et de M. Draghi, la déclaration a un fort impact et on voit
immédiatement les écarts de taux d’intérêt entre les pays membres de la zone
euro se réduire, signe que la confiance dans la pérennité de la zone euro se
redresse. Enfin, à partir de mars 2015, la BCE lance un véritable Quantitative
Easing, avec initialement des achats de 60 milliards d’actifs financiers par
mois. Cette politique d’achat d’actif est prolongée plusieurs fois et s’est
terminée en décembre 2018.
Si on examine la base monétaire des pays membres de l’OCDE, c’est-à-
dire la monnaie banque centrale qui est au passif du bilan des banques
centrales, elle passe au total de 2 000 milliards d’euros en 2002 à
12 000 milliards d’euros en 2016. Il y a donc un très fort accroissement de la
liquidité mondiale. Les banques centrales ont donc joué leur rôle de prêteur
en dernier ressort tel qu’il a été défini en 1873 par W. Bagehot. La crise de
liquidité a donc été évitée comme la « course au guichet » qui aurait précipité
les faillites bancaires. L’intervention résolue des banques centrales a
contribué à restaurer la confiance entre les banques et la confiance des agents
non financiers dans les banques. La liquidité de bilan s’est améliorée du fait
que les banques centrales ont accepté d’acheter aux banques des actifs de
moins bonne qualité et la liquidité de marché s’est améliorée aussi puisque
chacun savait pouvoir compter sur les apports de liquidité des banques
centrales.

B. La politique monétaire non conventionnelle a évité la crise de


solvabilité et soutenu l’activité économique
La crise n’a pas entraîné que des problèmes de liquidité mais aussi des
problèmes de solvabilité et elle a eu des effets réels qu’il a fallu combattre.
Les problèmes de solvabilité se sont d’abord manifestés dans le secteur
bancaire. En Grande-Bretagne, la banque Northern Rock, qui avait connu une
croissance spectaculaire en levant des fonds à des taux relativement faibles
soit auprès des épargnants individuels, soit auprès d’autres institutions
******ebook converter DEMO Watermarks*******
financières qui ont des liquidités à placer, se trouve en difficulté quand la
situation financière se dégrade pour deux raisons :
– Les prêteurs individuels (souvent des épargnants âgés) retirent leurs fonds
par crainte d’une faillite de la banque (on parle de panique bancaire ou de
course aux guichets).
– Les institutions financières, qui craignent une crise de liquidité ou une
crise de solvabilité, contractent des prêts.
Dans les deux cas, les comportements sont autoréalisateurs puisque la
crainte de la contraction de la liquidité provoque une crise de liquidité, voire
une faillite. Pour empêcher la montée de la défiance, le gouvernement
britannique nationalise la banque en février 2008.
La banque américaine Bear Stearns qui, en juillet 2007, avait annoncé des
pertes considérables sur ses fonds de placement en raison du début de la crise
des crédits hypothécaires, est rachetée par J. P. Morgan Chase en mars 2008
au prix de 2 dollars l’action (contre 170 dollars l’action au premier
semestre 2007). En septembre 2008, ce sont les deux organismes semi-
publics de refinancement hypothécaires (Freddie Mac et Fannie Mae) qui
sont placés sous la tutelle du gouvernement fédéral. Le premier assureur
mondial (AIG) est lui aussi au bord de la faillite. Le gouvernement fédéral
doit procéder à une nationalisation, la Réserve fédérale apportant 85 milliards
de dollars. Le 15 septembre 2008, la banque Lehman Brothers fait faillite. Le
gouvernement a décidé de ne pas la sauver considérant que ses actifs sont
trop faibles, et sans doute dans le but de faire un exemple afin d’éviter que
l’aléa moral ne soit trop important. Cette banque d’affaire (tout comme la
Bear Stearns) ne bénéficiait pas du système fédéral d’assurance des dépôts.
Avec le recul, certains observateurs se demandent s’il n’aurait pas été
préférable de sauver aussi Lehman Brothers. Toujours est-il qu’en
octobre 2008 l’État fédéral adopte un plan de 700 milliards de dollars pour
sauver le système bancaire. Au Bénélux, les États augmentent leur part dans
le capital de la puissante banque Fortis pour la sauver de la faillite, en
Allemagne le gouvernement intervient pour sauver la quatrième banque du
pays. En France, les pouvoirs publics accordent des crédits à la plupart des
grandes banques. Le schéma est donc partout le même, le budget de l’État est
mobilisé pour financer le sauvetage de banques menacées de faillites.
Il en découle un creusement du déficit public et de la dette publique, donc
un recours accru au marché pour placer des titres de la dette publique, qui
******ebook converter DEMO Watermarks*******
sont acquis par les banques centrales dans le cadre de leur politique de
refinancement et/ou d’achats d’actifs. Mais les pouvoirs publics n’ont pas eu
seulement à sauver les banques. Aux États-Unis par exemple, la demande
adressée aux constructeurs automobiles (General Motors et Chrysler) s’est
effondrée et ceux-ci étaient au bord de la faillite, le gouvernement fédéral
étant là encore intervenu pour les sauver. Le cas de l’automobile n’est qu’un
exemple d’un phénomène plus général : la crise immobilière et la crise
financière ont eu des effets de richesse négatifs considérables qui ont conduit
les ménages et les entreprises à contracter fortement leur consommation et
leurs investissements. Cette baisse de la demande globale produit
logiquement une baisse de la production et une hausse du chômage qui
poussent les gouvernements à procéder à des relances budgétaires
importantes. Là encore les déficits et les dettes augmentent conduisant les
banques centrales à intervenir sur le marché secondaire de la dette. Mais un
autre mécanisme lié à la crise est intervenu, la contraction du crédit (Credit
Crunch). D’une part, les banques ont contracté fortement les crédits accordés
aux clients en raison d’une forte croissance de leur aversion pour le risque,
d’autre part, les agents non financiers (sauf l’État) ont cherché à se
désendetter, ils ont donc réduit leur demande de crédit. Au total, cette
contraction du crédit a eu un effet négatif sur la dynamique de la demande
globale. Les diverses composantes de la politique monétaire non
conventionnelle ont toutes pour objectif de soutenir le crédit et donc l’activité
économique.
Au total, les politiques monétaires non conventionnelles ont contribué
directement ou indirectement à lutter contre la crise de solvabilité
(notamment au sein du système bancaire). Elles ont aidé aussi à soutenir le
crédit, à maintenir les taux d’intérêt à long terme à un niveau modéré et donc
à éviter la spirale déflationniste. Certes, la reprise économique n’a pas été très
dynamique, mais le pire a été évité.

II. L’impossible normalisation de la politique monétaire non


conventionnelle
Le bilan des politiques apparaît donc, à ce stade, très favorable, il faut
cependant nuancer fortement. En effet, par définition les politiques non
conventionnelles avaient vocation à être transitoires. Réponses
exceptionnelles à une situation exceptionnelle, les politiques non
conventionnelles devraient conduire à un retour vers les politiques
******ebook converter DEMO Watermarks*******
conventionnelles dès lors que les déséquilibres économiques se résorbent. On
parle de « normalisation » des politiques monétaires.
Mais cette normalisation se révèle difficile. D’une part, la crainte existe
qu’une politique monétaire moins accommodante ait un impact négatif sur la
croissance et l’emploi. D’autre part, certains économistes se demandent si
une contraction de l’offre de liquidité banque centrale et une hausse des taux
d’intérêt directeurs ne risquent pas de conduire à un krach obligataire. Enfin,
la question se pose de la soutenabilité de la dette publique. Depuis 2008, les
États sont habitués à se financer à des taux très faibles et à supporter une
charge de la dette modérée. Le retour à des taux plus élevés pourrait susciter
la méfiance des épargnants et déséquilibrer un peu plus les finances
publiques.

A. Normalisation contracyclique de la politique monétaire


Les banques centrales, compte tenu de la gravité de la crise, qualifiée de
« pire crise financière de l’histoire mondiale » par B. Bernanke, ont conservé
à leur politique monétaire une orientation accommodante pendant une très
longue période. Aux États-Unis, alors que la croissance du PIB devenait plus
dynamique après 2010, J. Yellen la présidente de la Fed a, à plusieurs
reprises, écarté la perspective d’une hausse des taux ou d’une réduction de la
politique de rachat d’actifs en faisant valoir que le taux de chômage était
encore trop élevé.
Ce n’est qu’en 2015 que la politique monétaire prend très prudemment un
tour plus restrictif, alors que le taux de chômage est revenu à son niveau
d’équilibre. Mais une économie dont le chômage est à son niveau plancher,
compte tenu des déterminants structurels, est menacée de ralentissement de la
croissance. Il y a donc une tension entre le pouvoir exécutif qui mène une
politique de stimulation budgétaire et la Réserve fédérale qui met en œuvre
une orientation plus restrictive de la politique monétaire. Mais le conseil des
gouverneurs fait observer que le chômage reste faible aux États-Unis et que
des tensions inflationnistes peuvent survenir. Dans la zone euro, la BCE a
certes annoncé la baisse de ses achats d’actifs à partir de septembre 2018 et la
fin du Quantitative Easing en fin décembre 2018. Mais d’une part, elle a
précisé que, si nécessaire, elle pourrait poursuivre ses acquisitions de titres
sur le marché secondaire si la situation l’exigeait, d’autre part, elle a indiqué
que la fin des achats d’actifs ne signifiait pas une hausse des taux d’intérêt
qui resteront durablement à leurs niveaux actuels (nul pour les opérations
******ebook converter DEMO Watermarks*******
principales de refinancement, négatif pour la facilité de dépôt) bien après la
fin du Quantitative Easing. Enfin, elle a indiqué que l’arrêt des achats d’actifs
ne signifiait pas, dans l’immédiat, la réduction de la taille du bilan de la BCE
(elle compensera par des achats sur le marché secondaire les titres qui sortent
de son bilan parce qu’ils arrivent à échéance). Il ne s’agit donc pas vraiment
d’une normalisation de la politique monétaire (on ne revient pas à la politique
monétaire conventionnelle) mais d’une réduction de l’aspect accommodant
de la politique monétaire non conventionnelle.
Le problème qui est posé est double. En premier lieu, tout se passe
comme s’il était impossible de normaliser la politique monétaire sans risquer
de casser la croissance. Les autorités monétaires craignent manifestement
qu’un durcissement excessif de la politique monétaire ne produise un effet de
signal négatif et provoquent des anticipations pessimistes qui auraient des
effets négatifs sur la production et l’emploi. De plus, la hausse des taux
directeurs a toutes les chances de provoquer une hausse des taux débiteurs
pratiqués par les banques de second rang, ce qui nuirait aux investissements
et à la consommation. Une normalisation de la politique monétaire pourrait
aussi conduire à un rationnement du crédit si les banques de second rang se
retrouvent moins liquides et si elles obtiennent plus difficilement des
liquidités sur les marchés ou auprès de la banque centrale. En zone euro
comme aux États-Unis, le taux de chômage moyen se rapproche du taux de
chômage d’équilibre et donc le ralentissement du rythme de la croissance,
déjà à l’œuvre, pourrait s’amplifier. En second lieu, le problème est aussi
qu’à ces effets réels, peuvent s’agréger des aspects financiers. Certaines
composantes du système bancaire de la zone euro restent très fragiles en
raison de la persistance, dans leur bilan, d’actifs de mauvaise qualité (c’est
particulièrement le cas en Italie). Une politique de contraction du bilan de la
BCE dans le cadre d’une éventuelle normalisation de la politique monétaire
pourrait renforcer la défiance et donc rendre plus difficile les crédits
interbancaires. On sait aussi que la zone euro se caractérise depuis 2008 par
une faible mobilité des capitaux intra-zone, les excédents commerciaux des
pays du Nord de la zone euro (notamment l’Allemagne) sont placés à
l’extérieur de la zone euro plutôt que dans les pays du Sud de la zone qui ont
pourtant besoin de ce transfert d’épargne pour financer le renforcement de la
compétitivité structurelle de leurs économies. Comme la politique monétaire
non conventionnelle a joué un rôle essentiel dans la défense de la zone euro
et dans la réduction des spreads de taux entre pays membres, une
******ebook converter DEMO Watermarks*******
normalisation pourrait être perçue comme une moindre volonté de défendre
l’euro, surtout à un moment où les prises de positions du gouvernement
italien créent des tensions au sein de la zone. Le résultat pourrait donc être un
creusement des écarts de taux d’intérêt et des difficultés de certaines banques
de la zone.
On peut aussi rappeler que la banque d’Angleterre est placée dans une
situation difficile dans la perspective du Brexit : la livre sterling se déprécie
sur le marché des changes, ce qui devrait pousser à une hausse des taux, mais
l’activité économique montre des signes de faiblesse, ce qui devrait pousser
au statu quo, voire à une baisse des taux directeurs. Quant à la Banque
centrale du Japon, elle s’est engagée à maintenir des taux directeurs nuls
pendant une très longue période.
On comprend que dans ces conditions, il semble difficile de donner une
orientation plus restrictive aux politiques monétaires dans le cadre de la
transition vers des politiques monétaires conventionnelles.

B. Soutenabilité de la dette publique, dominance budgétaire et


instabilité financière
La normalisation de la politique monétaire se heurte à un autre problème qui
concerne le financement public. En effet, comme nous l’avons vu plus haut,
les déficits publics se sont fortement creusés après la crise de 2007-2008.
Cela n’a pas résulté seulement des habituels stabili​sateurs automatiques qui
se manifestent dans les phases de récession. Les gouvernements ont été
obligés d’engager des sommes considérables pour permettre au système
bancaire d’échapper à la faillite en chaîne, mais ils ont dû aussi soutenir
l’activité économique menacée par la contraction de la demande domestique
et étrangère (le commerce international baisse de plus de 10 % en 2010).
Cette augmentation des déficits publics s’est traduite par un gonflement de la
dette publique. Les médias ont parlé de façon contestable de la « crise des
dettes publiques » en zone euro en oubliant de préciser que le taux
d’endettement (dette publique sur PIB) était beaucoup plus élevé en Grande-
Bretagne, aux États-Unis et plus encore au Japon. Pour financer cette dette,
les états doivent émettre des titres de dette publique sur le marché primaire.
Une question décisive concerne le taux d’intérêt que les États doivent
consentir pour collecter les fonds qui leur sont nécessaires. Or, ce taux
d’intérêt combiné avec le montant de la dette détermine le montant du flux
d’intérêt dont l’État doit s’acquitter. Ce flux étant une composante des
******ebook converter DEMO Watermarks*******
dépenses publiques annuelles, plus il est élevé plus il contribue au déficit
public et puis il réduit les marges de manœuvre budgétaire dont dispose la
politique économique après paiement des intérêts. Il existe donc un risque
d’effet boule de neige de la dette publique. Si le déficit primaire (déficit total
moins paiement des intérêts) conduit à un accroissement du recours à
l’endettement public, la dette publique devient autoentretenue.
Cela conduit à une réflexion sur la soutenabilité de la dette publique. On
sait que cette soutenabilité suppose que le taux de croissance en volume de
l’économie soit supérieur au taux d’intérêt réel. Or, la crise a eu pour effet de
ralentir fortement la croissance économique et le taux d’inflation, et pour que
la dette publique soit soutenable il faut que le taux d’intérêt nominal sur les
titres de la dette publique soit particulièrement faible. La politique d’achat de
titre de la dette publique sur le marché secondaire a été le principal support
des injections de liquidité des banques centrales et des politiques de
Quantitative Easing. Comme l’effet sur les taux d’intérêt est le même si la
banque centrale intervient sur le marché primaire ou sur le marché secondaire
de la dette, les États ont été en mesure de financer leur dette à des taux très
faibles (voire nuls ou négatifs pour les titres à court et moyen termes). Grâce
à la politique monétaire non conventionnelle la soutenabilité de la dette a
donc été assurée et la charge d’intérêt est restée supportable. Mais, de ce fait,
la politique monétaire est soumise à une situation de dominance budgétaire
(Fiscal Dominance).
En effet, toute contraction de la liquidité du marché secondaire de la dette
et tout relèvement des taux directeurs dans le cadre d’une normalisation de la
politique monétaire risquent de conduire à une remise en cause de la
soutenabilité de la dette publique. La politique monétaire non conventionnelle
combinée avec le niveau élevé de l’endettement public a donc conduit à une
forme d’irréversibilité : la banque centrale est condamnée à alimenter
l’économie en liquidités au risque de déclencher une crise des finances
publiques.
Mais maintenir cette liquidité abondante présente des risques importants.
En effet, une large part de ces actifs liquides est placée sur les marchés
d’actifs financiers et immobiliers, de sorte que de nombreux observateurs
s’inquiètent de voir se gonfler à nouveau des bulles sur les prix des actifs.
Comme, dans le même temps, les politiques microprudentielles et
macroprudentielles sont restées trop timides, on assiste à une montée des
risques liés à l’instabilité financière. Beaucoup d’économistes considèrent
******ebook converter DEMO Watermarks*******
que les risques de crises financières sont désormais aussi forts qu’avant 2007.
P. Artus affirme même en octobre 2018 que la nouvelle crise financière a déjà
commencé. Il cite notamment la dépréciation des taux de change des pays
émergents, la baisse des cours boursiers (en particulier les cours des actions
des banques européennes) et la poursuite de la hausse de l’endettement public
et privé au niveau mondial. Dans ces conditions, un durcissement de la
politique monétaire pourrait conduire à un déclenchement d’une crise
financière. Aux États-Unis, par exemple, on considère que la hausse des taux
de la Fed contribue à expliquer la baisse des cours de la bourse de New York.
Les banques centrales sont donc confrontées à un dilemme cornélien :
elles doivent normaliser leur politique monétaire et revenir à une politique
monétaire plus conventionnelle car il n’est pas possible de continuer
indéfiniment à doper l’économie mondiale par des injections de liquidités.
Mais toute tentative de rendre la politique monétaire risque de déclencher une
crise des finances publiques et ou une crise financière majeure.

Conclusion
Le bilan des politiques monétaires non conventionnelles est donc contrasté.
D’une part, elles constituent une innovation qui a permis aux banques
centrales de contribuer de façon décisive à éviter l’entrée de l’économie
mondiale dans une spirale déflationniste comparable à celle de la Grande
Dépression des années 1930. Mais la rançon de ce succès c’est l’abondance
de liquidités qui affecte l’économie mondiale et corrélativement le maintien
sur longue période de taux d’intérêt anormalement bas. Cela a certes
contribué à soutenir l’activité économique et l’emploi et permis aux États de
se financer à moindre coût sur les marchés financiers. La soutenabilité de la
dette publique a donc été assurée grâce à l’abondance des liquidités qui a fait
baisser significativement les taux d’intérêt. Cette baisse des taux a
particulièrement bénéficié aux titres publics, à l’exception de quelques États
en difficulté, qui apparaissent comme des actifs sans risque. Mais la
contrepartie de ce bilan positif réside dans une forme d’irréversibilité : il est
devenu très difficile pour les banques centrales d’adopter des politiques
monétaires plus restrictives au risque de porter la responsabilité de remettre
en cause une croissance économique toujours fragile, voire de déclencher une
crise financière.
Il semble donc difficile d’échapper à ce dilemme, sauf à mettre en œuvre
des mesures structurelles qui permettraient de sortir par le haut des
******ebook converter DEMO Watermarks*******
difficultés. Ces mesures pourraient concerner deux domaines. D’une part, des
mesures pourraient être prises en faveur d’une croissance plus dynamique par
des investissements en recherche-développement en capital humain. Il
faudrait aussi, dans cette perspective, dynamiser la croissance en la rendant
plus durable (transition écologique) et plus inclusive (réduction des
inégalités). D’autre part, il faudrait prendre des mesures plus vigoureuses en
faveur de la stabilité financière. Beaucoup de travaux confirment qu’au-delà
d’un certain seuil la taille de la finance n’a plus d’effets positifs sur la
croissance, voire qu’elle a un effet négatif. Il faudrait donc notamment limiter
l’effet de levier sur lequel jouent les institutions financières en augmentant
beaucoup plus fortement les exigences prudentielles.
Dans les deux cas, un renforcement de la gouvernance mondiale s’impose
pour lutter contre les déséquilibres globaux et gérer de façon coopérative les
biens collectifs et les biens communs mondiaux.

******ebook converter DEMO Watermarks*******


Sujet 10 Les relations monétaires
internationales peuvent-
elles être régulées ?

1 Se préparer à la rédaction

1.1 L’enjeu du sujet


La question posée vise à se demander s’il est possible de réguler le système
des paiements entre les différentes zones monétaires du monde. Les relations
monétaires internationales apparaissent avec les premiers échanges
internationaux. Cependant, l’organisation des transactions monétaires et
financières s’opère au cours de la première mondialisation avec le régime de
l’étalon-or. Depuis, plusieurs régimes monétaires internationaux se sont
succédé au cours de l’histoire du capitalisme pour réguler les relations
monétaires internationales. Pour R. McKinnon, un régime ou système
monétaire international peut se définir comme un ensemble de règles qui
contraignent ou influencent les décisions des États en matière de change, de
politique monétaire et de mobilité des capitaux. Il repose sur quatre
éléments : la convertibilité des monnaies et l’organisation des flux de
capitaux, le régime de change, la fourniture de liquidité et la
surveillance/coopération monétaire.
On entend par régulation un dispositif qui permet à un système complexe
de corriger les déséquilibres qui l’affectent du fait de chocs exogènes ou de
processus endogènes. Pour certains économistes, le marché est autorégulateur
au sens où il est capable, grâce au mécanisme des prix, de rétablir son
équilibre en cas de perturbation. Si l’on pense qu’il en va ainsi, alors il faut et
il suffit que les relations monétaires internationales s’inscrivent dans un cadre
******ebook converter DEMO Watermarks*******
marchand (notamment la flexibilité des taux de change) pour que leur
régulation soit assurée. Mais les acquis de la science économique nous
apprennent que les conditions de l’autorégulation marchande sont très
restrictives. Le plus souvent, les marchés sont affectés par des défauts de
coordination qui conduisent à des déséquilibres cumulatifs (crises de change).
L’enjeu du sujet consiste alors à rechercher s’il est possible de mettre en
place des dispositifs institutionnels (règlementation, coordination des
autorités monétaires, etc.) qui, dans le contexte issu de la libéralisation
financière entamée au cours des années 1970, seraient en mesure d’assurer
une plus grande stabilité financière internationale.

1.2 Le cadrage du sujet et les concepts clés


Il s’agit d’une question qui relève du champ de l’économie et de la finance
internationales ainsi que de l’économie politique internationale dans le sens
où des questions de souveraineté et de pouvoir se posent nécessairement
lorsqu’il s’agit de réfléchir aux relations monétaires entre pays. Cette
question n’est pas propre à l’économie contemporaine puisque les relations
monétaires internationales ont été régulées par différents systèmes monétaires
internationaux, depuis l’étalon-or de la fin du XIXe siècle à aujourd’hui en
passant par le système de Bretton-Woods. Il est en revanche important de
noter que certains économistes, à l’image de J. Mistral, considèrent
qu’aujourd’hui les relations monétaires internationales se déroulent dans un
« non-système monétaire international ». Ainsi, le traitement du sujet doit
s’appuyer sur l’histoire des relations monétaires internationales à partir de la
première mondialisation et la réflexion doit porter sur les crises et
refondations de leur régulation en analysant également le champ de leurs
évolutions possibles.
Réguler les relations monétaires internationales consiste à permettre
qu’elles se déroulent dans un cadre stable, mais également que des dispositifs
de réponses à des crises soient prévus. Il convient donc ici d’aborder les
institutions qui les fondent : organisation des transferts monétaires, régime de
change, coopération monétaire.

1.3 La construction de la problématique


La formulation de la question ne doit pas conduire le candidat à opposer
simplement possibilité/impossibilité de la régulation. Si la régulation était
******ebook converter DEMO Watermarks*******
impossible alors la question n’aurait pas de sens. En d’autres termes, s’il
fallait donner une réponse radicale à la question, celle-ci serait positive. En
revanche, les relations monétaires internationales sont régulées de manière
plus ou moins efficaces selon le contexte de mise en œuvre de la régulation.
Ainsi, deux grandes questions vont structurer la réflexion :
1) Pourquoi les régulations des relations monétaires internationales mises
en œuvre au cours de l’histoire n’ont-elles pu être maintenues ?
2) Quelles sont les pistes et obstacles aujourd’hui pour une nouvelle
régulation des relations monétaires internationales ?

2 Rédiger le devoir : une proposition

Introduction
Au début du mois d’octobre 2018, des économistes français (notamment
M. Aglietta, Th. Piketty, L. Scialom, G. Zucman) publient, dans le quotidien
Le Monde, un article dans lequel ils s’inquiètent du fait que les accords
commerciaux internationaux conduisent à affaiblir la régulation du système
monétaire et financier international exposant ainsi l’économie mondiale à de
nouvelles crises. Au mois de juin précédent, le Secours Catholique publie un
volumineux rapport qui, s’appuyant sur une récente encyclique pontificale,
s’inquiète des quarante années de dérégulation financière qui ont précédé la
crise de 2007-2008 et l’insuffisance des efforts de régulation, qui ont été
réalisés dans les dix ans après le choc financier et réel majeur qu’elle a
constitué. Les relations monétaires internationales correspondent à
l’ensemble des interdépendances qui s’établissent entre monnaies nationales
(ou régionales) dans le cadre des échanges économiques et financiers
internationaux. Leur régulation consiste à mettre en œuvre un ensemble de
procédures qui permettent d’éviter des perturbations (crises monétaires) en
garantissant la liquidité internationale ou d’en corriger les effets en
rétablissant une situation d’équilibre (stabilité monétaire internationale). Cela
repose sur un système monétaire international, qui permet de déterminer le
taux de change des monnaies nationales, et sur un étalon monétaire
international.
Comment expliquer que la régulation des relations monétaires
internationales ait dû être repensée au cours de l’histoire du capitalisme
mondialisé ? Quelles sont les pistes proposées aujourd’hui pour pérenniser
******ebook converter DEMO Watermarks*******
les relations monétaires internationales et la mondialisation ? La réflexion
s’organise autour de deux axes. Dans un premier temps, nous nous efforçons
d’expliquer pourquoi les régulations fondées sur un étalon métallique ont
échoué. Dans un second temps, nous réfléchissons aux écueils du non-
système actuel et à la nécessité de concevoir une régulation des relations
monétaires internationales reposant sur une coopération politique à l’échelle
mondiale.

I. L’impossible régulation fondée sur une monnaie nationale


La première mondialisation mise en évidence par S. Berger (Notre première
mondialisation, 2003) a eu pour caractéristique une intégration monétaire et
financière internationale régulée par l’étalon-or. Celui-ci s’est effondré au
début du XXe siècle (A). Après des tentatives avortées dans l’entre-deux-
guerres, un étalon de change-or a été élaboré à la suite de la signature des
accords de Bretton Woods en 1944, mais ce système était voué à l’échec (B).

A. L’étalon-or et son effondrement


Afin de bien comprendre les difficultés propres à la régulation des relations
monétaires internationales, dont celles rencontrées par l’étalon-or, il convient
de présenter le trilemme mis en avant par R. Mundell (Prix Nobel 1999). Il
montre en effet qu’il est impossible de réaliser simultanément la fixité des
taux de change, c’est-à-dire la définition rigide de la valeur externe des
monnaies nationales, la libre circulation des capitaux, c’est-à-dire l’absence
d’entrave aux mouvements monétaires et financiers, et l’autonomie des
politiques économiques et en particulier de la politique monétaire, c’est-à-
dire de la détermination d’objectifs de taux d’intérêt et de quantité de
monnaie par les autorités monétaires nationales. L’étalon-or reposant sur la
fixité du change, nous allons voir que dans le cadre de la première
globalisation, qui conduit à une intégration financière importante, les
politiques monétaires nationales autonomes ont été abandonnées.
Le système de l’étalon-or s’impose à la fin du XIXe siècle alors que
l’Angleterre est devenue la première puissance économique mondiale et que
les frontières s’ouvrent au commerce et aux capitaux. C’est l’adoption de la
référence à l’or par l’Allemagne bismarckienne en 1873 qui accélère
l’abandon du bimétallisme par les pays qui, comme la France ou les États-
Unis, fondent la valeur de leur monnaie sur l’or ou l’argent, le taux de change
entre les deux métaux étant fixe. Ce système bimétalliste est complexe et
******ebook converter DEMO Watermarks*******
soumis à des pressions en raison des rythmes différents de découverte de
métal.
L’étalon-or détermine un étalon commun de mesure de la valeur. Il repose
sur plusieurs règles non écrites : la valeur des monnaies nationales est fixée
en or et garantie par la banque centrale, les billets sont convertibles en or et la
frappe du métal est libre, l’or peut circuler librement entre pays. Il présente
un fonctionnement théorique qui doit conduire à un équilibrage automatique
des balances commerciales selon l’analyse qu’en donne D. Hume dès le
XVIIIe siècle. En effet, la base monétaire étant fondée sur les réserves en or
des banques centrales des pays participant au commerce mondial, un
excédent ou un déficit commercial doit donner lieu à un accroissement
(entrées d’or) ou une réduction (sorties d’or) de cette base monétaire. En
acceptant les hypothèses d’un rapport de proportionnalité fixe entre base
monétaire et masse monétaire d’une part et de corrélation positive entre
quantité de monnaie et niveau des prix d’autre part, un excédent commercial
doit conduire à un accroissement des prix des produits nationaux et donc à
une réduction de ce déficit (retour automatique à l’équilibre). En effet, du fait
de la hausse des prix, les exportations perdent en compétitivité et régressent
tandis que les importations progressent rééquilibrant la balance commerciale.
En cas de déficit commercial, c’est l’inverse qui se produit.
Par ailleurs, la fixité du change repose sur un mécanisme de points
d’entrées et de sorties d’or pour les paiements. Dans un régime de change qui
détermine la valeur des monnaies dans un étalon accepté en paiement ultime
par tous, il peut sembler indifférent de régler ses dettes en monnaie
(fiduciaire ou scripturale) ou en or. À l’époque, les lettres de change
permettent ces règlements. Mais comme elles s’échangent aussi sur le marché
des changes, si une monnaie s’y apprécie ou déprécie au-delà du coût du
règlement en métal (transport, assurance et éventuellement frappe) alors le
règlement se fait en or et par le jeu de l’offre et de la demande, le taux de
change reste très proche de sa parité, c’est-à-dire de sa valeur en or. Des
points d’entrées et de sorties d’or déterminent alors les marges de fluctuations
du change qui restent très faibles. Ainsi, les relations monétaires
internationales, pour ce qui concerne le commerce à tout le moins, sont
théoriquement régulées par le mécanisme de l’étalon-or, c’est-à-dire de façon
automatique sur la seule base des décisions individuelles rationnelles des
agents.
Cependant, comme l’ont mis en évidence plusieurs économistes, il faut
******ebook converter DEMO Watermarks*******
distinguer l’étalon-or historique de l’étalon-or théorique. Dans l’étalon-or tel
qu’il a effectivement fonctionné, la livre sterling est la devise-clé du système
monétaire international et la Banque d’Angleterre l’institution qui garantit la
liquidité des paiements internationaux. Comme le souligne M. Aglietta dans
ses nombreux ouvrages sur la question, la banque centrale anglaise est celle
qui dispose des réserves de change les plus faibles de l’époque. Le régime
repose sur la confiance accordée à l’institution de la City et à la livre sterling,
c’est-à-dire à la monnaie de la première puissance économique, financière et
militaire. L’historien de l’économie Ch. Kindleberger parle à ce propos de
« stabilité hégémonique ». D’ailleurs, la pénurie potentielle d’or, dont la
quantité dépend des découvertes, rend nécessaire l’utilisation de la livre
sterling pour les investissements internationaux qui vont à cette période de
l’Europe (Angleterre, France) vers le reste du monde (empires coloniaux,
Amériques, Europe de l’Est). Il convient de noter enfin que cette stabilité des
changes et des prix n’a pas garanti la stabilité économique et que de
nombreux krachs boursiers et crises bancaires sont apparues au cours de la
période.
Les tensions nationalistes et les préparatifs du financement de la Première
Guerre mondiale déstabilisent l’étalon-or. En effet, le financement monétaire
des dépenses publiques conduit à un accroissement considérable de la masse
monétaire au regard des réserves d’or. Pour mener une politique monétaire
autonome la contrainte de l’étalon-or est alors abandonnée.

B. Un étalon de change-or dysfonctionnel


Après la Première Guerre mondiale les pays cherchent à rétablir une
régulation monétaire internationale fondée sur des devises clés, notamment le
dollar, monnaie de la première puissance économique du moment, et la livre
sterling qui conserve un rôle important dans les réserves de change (balances
sterlings) et dont le système bancaire a une implantation mondiale. La
Conférence de Gênes de 1922 propose de conserver l’or comme étalon sans
que la convertibilité interne des billets soit rétablie. Les valeurs externes des
monnaies sont déterminées en or ou en monnaie convertible en or. Dans le
premier cas, la monnaie devient monnaie de réserve. Le dollar est ainsi une
monnaie de réserve puisque les États-Unis disposent du plus important stock
d’or du monde. Le Royaume-Uni va œuvrer pour retrouver la parité or de la
livre sterling d’avant-guerre, ce qui nécessite une politique déflationniste
avec un stock d’or amoindri. En effet, les politiques inflationnistes qui
******ebook converter DEMO Watermarks*******
précèdent ont fait perdre leur compétitivité-prix aux produits britanniques et
le retour à la parité-or nécessite la dévaluation (réduction de la valeur or du
sterling) ou la déflation (réduction des prix nationaux). Le choix de la
déflation est fortement critiqué par J. M. Keynes qui dénonce dans son
pamphlet de 1925 Les conséquences économiques de M. Churchill : le retour
à la parité d’avant-guerre se fait au prix d’une montée du chômage
britannique lié à la politique déflationniste qui n’empêche pas la monnaie
d’être surévaluée. Quant au franc, sa convertibilité sera rétablie en 1928
(franc Poincaré) avec une dévaluation de 80 %. Cependant, la défiance à
l’égard de la livre puis la crise de 1929 et ses conséquences économiques
dépressives ne permettent pas de reconstituer une régulation des relations
monétaires internationales. La livre sterling est déclarée inconvertible
en 1931, le dollar flotte en 1933. En 1933, la Conférence de Londres réunit
soixante-six pays en vue de rétablir la stabilité monétaire internationale mais
bute sur le recentrage des États-Unis sur le rétablissement de leur économie
nationale dans le cadre du New Deal de Roosevelt qui les conduit à dévaluer
le dollar.
Il faut attendre le début des années 1940, en pleine guerre, pour que les
États-Unis et la Grande-Bretagne entament des discussions en vue de rétablir
un ordre monétaire international nécessaire. Les accords de Bretton Woods
de 1944 donnent naissance à un second régime de change-or fondé sur une
devise-clé, le dollar dont la valeur est définie en or, et sur des institutions
internationales, le Fonds monétaire international (FMI) et la Banque
mondiale. Deux plans s’opposaient pour constituer la nouvelle régulation des
relations monétaires internationales : celui de l’administration américaine
porté par H. D. White, alors secrétaire au Trésor, face à celui de la couronne
britannique porté par J. M. Keynes. Le plan de Keynes est beaucoup plus
ambitieux puisqu’il propose d’abandonner toute référence à l’or, « vieille
relique barbare », pour organiser un système de régulation fondé sur une
monnaie supranationale qu’il propose d’appeler « bancor », dans laquelle les
monnaies nationales définissent une parité fixe mais ajustable, et une
chambre de compensation permettant de contrôler les paiements
internationaux et d’ajuster les balances des paiements (nous y reviendrons
dans le point II-B). Mais la conception américaine l’a emporté : la Fed
garantit un dollar à un trente-cinquième d’once d’or fin, les autres monnaies
définissent leur valeur externe en dollar, as good as gold, les changes sont
fixes mais ajustables sous le contrôle du FMI.
******ebook converter DEMO Watermarks*******
Selon les enseignements du triangle de Mundell, la pérennité d’un tel
système nécessite un contrôle des mouvements de capitaux. Au regard de
l’analyse en termes d’hégémonie, les États-Unis doivent fournir la liquidité
internationale. Ces deux éléments sont au cœur du dilemme mis en évidence
par R. Triffin : il n’est pas possible pour une monnaie nationale d’être
également monnaie des règlements internationaux. En effet, dans un monde
en reconstruction puis en rattrapage économique (les économies européennes
et japonaises convergent vers celle des États-Unis) le besoin en liquidité
internationale est croissant. Les États-Unis fournissent cette liquidité à travers
le plan Marshall, puis par les investissements étrangers réalisés par les firmes
états-uniennes et, enfin, par un déficit commercial croissant à partir des
années 1960. Or, la quantité de dollars croît plus rapidement que la quantité
d’or. En conséquence, le dollar doit être dévalué (sinon, la quantité de dollars
en circulation dans le monde aurait dû être réduite). Le système finit par
s’effondrer au début des années 1970, dans le cadre d’une amplification des
mouvements internationaux de capitaux, et malgré des tentatives pour le
maintenir (création du pool de l’or au début des années 1960 afin de stabiliser
la valeur du métal sur le marché, création des droits de tirage spéciaux
en 1968 pour élargir la liquidité en dehors du dollar). Le 15 août 1971, le
président Nixon annonce unilatéralement l’inconvertibilité du dollar en or. Le
flottement généralisé est à l’œuvre dès 1973 et c’est lors des accords de la
Jamaïque en 1976 que le système de Bretton Woods prend fin officiellement.
Ainsi, il faut reconnaître au système de Bretton Woods d’avoir tenté de
mettre en œuvre une régulation des relations monétaires internationales
fondée sur des institutions visant à permettre les ajustements de balance des
paiements. Cependant, laisser la responsabilité à une banque centrale
nationale de garantir la liquidité mondiale a fini par buter les intérêts
politiques nationaux comme l’a bien exprimé J. B. Connally, le secrétaire au
Trésor de R. Nixon : « Le dollar est notre monnaie, mais c’est votre
problème. »

II. Comment répondre à l’instabilité monétaire et financière ?


La victoire idéologique et épistémologique du courant monétariste en science
économique a imposé l’hypothèse d’efficience des marchés financiers
favorable à la régulation par le marché. L’effondrement du système de
Bretton Woods a conduit à un régime de change flottant dans le cadre d’une
libéralisation financière internationale. Mais cette régulation marchande a
******ebook converter DEMO Watermarks*******
montré ses limites du fait d’une instabilité monétaire et financière
croissante (A). C’est pourquoi la réflexion se porte aujourd’hui sur
l’organisation d’une régulation institutionnalisée des relations monétaires
internationales (B).

A. L’échec de la libéralisation financière


M. Friedman (Prix Nobel 1976) défend dès les années 1960 les atouts d’un
régime de change flexible à travers son fameux plaidoyer flexibiliste. La
régulation marchande des relations monétaires internationales permet dans ce
cadre un ajustement des balances des paiements par la variation des cours du
change. En effet, la monnaie d’un pays excédentaire tend à s’apprécier
puisqu’elle est demandée sur le marché des changes, ce qui doit réduire la
compétitivité des produits nationaux et accroître celle des produits étrangers.
À l’inverse, un pays déficitaire voit sa monnaie se déprécier et sa
compétitivité-prix s’accroître. Dans le modèle de Friedman, cet ajustement
est quasiment immédiat, contrairement aux délais imposés par les démarches
administratives nécessaires au sein du FMI sous le régime de Bretton Woods.
Rappelons simplement qu’une dévaluation/réévaluation excédant 10 % de la
parité officielle nécessitait un accord à la majorité qualifiée. Enfin, dans un
cadre de libre circulation des capitaux, abandonner la fixité du change c’est
également retrouver une autonomie de la politique monétaire. E. Fama
(Prix Nobel 2013) renforce le plaidoyer flexibiliste en proposant à la
communauté scientifique un modèle d’efficience des marchés financiers, ce
qui conduit logiquement, sur le plan politique, à prôner la libéralisation
financière. En effet, cette analyse montre que les marchés financiers sont en
mesure de garantir une efficience informationnelle en déterminant des prix
d’actifs synthétisant toutes les connaissances disponibles. L’efficience est
également opérationnelle, la concurrence entre acteurs des marchés financiers
permettant de minimiser les coûts de transaction. Elle est enfin
allocationnelle puisque les ressources financières sont utilisées là où les
rendements sont les meilleurs. L’argument a convaincu les décideurs
politiques et permis de fonder ce que M. Aglietta appelle une communauté
épistémique favorable à la libéralisation financière et ouvrant la voie à la
deuxième globalisation financière de l’histoire du capitalisme.
Cependant, l’histoire économique conduit à observer que la régulation
marchande des relations monétaires internationales ne s’est pas révélée
stabilisante. La question de la liquidité ultime n’est pas résolue par ce type de
******ebook converter DEMO Watermarks*******
dispositif puisqu’aucun étalon monétaire international n’existe. En
conséquence, le dollar, monnaie nationale, est resté la monnaie des paiements
internationaux qu’il s’agisse des transactions courantes ou des mouvements
financiers internationaux. Dès lors, le « privilège exorbitant » des États-Unis
dont parle B. Eichengreen n’a pas disparu avec le système de Bretton Woods
et la stabilité monétaire internationale repose toujours sur les décisions des
États-Unis. D’ailleurs, l’instabilité monétaire et financière croissante oblige la
Fed à intervenir fortement à partir des années 1990 pour juguler les crises
financières engendrées par la globalisation financière. C’est le cas avec les
crises mexicaines de 1994-1995 et asiatique de 1997 dont les plans de
sauvetage sont en partie financés par la banque centrale états-unienne. Les
réponses américaines à la crise de 2007-2008 ne sont pas sans poser
problèmes également puisque la politique de Quantitative Easing menée par
la Fed, consistant à accroître la base monétaire par achat d’actifs financiers
grâce à la création monétaire, a accru fortement la liquidité mondiale en
dollars et alimenté l’activité financière internationale. Il est notable que les
échanges quotidiens de devises sur le marché des changes s’élèvent selon la
Banque des règlements internationaux à plus 5 000 milliards de dollars
en 2016 soit dix-huit fois le montant quotidien du PIB mondial.
Enfin, contrairement aux conclusions du modèle de M. Friedman, les
déséquilibres commerciaux ne se résorbent pas dans le régime de changes
flexibles post-Bretton Woods. Les États-Unis, bien que le dollar ait fortement
fluctué depuis le flottement, connaissent un déficit commercial structurel. Au
cours des années 1980, c’est à l’égard du Japon et de l’Allemagne. À partir
des années 1990, c’est à l’égard de la Chine principalement. Certes, il est
reproché à la Chine de sous-évaluer sa monnaie dont la valeur externe est
définie par la Banque populaire de Chine pour maintenir sa compétitivité. Il
lui est également reproché de contrôler les flux de capitaux à destination de
son économie. Cependant, la situation monétaire conduit aujourd’hui à ce que
la Chine présente des réserves de change considérables qui financent… les
déficits des États-Unis. Un mouvement de défiance sur le dollar conduirait
vraisemblablement à une crise financière mondiale sans précédent, ce qui
n’est dans l’intérêt de personne. C’est pourquoi dès 2009, en référence au
plan Keynes, le gouverneur de la Banque centrale de Chine s’interroge sur la
pertinence de faire du droit de tirages spéciaux (DTS) la monnaie des
règlements internationaux.
L’autorégulation des relations monétaires internationales est un échec qui
******ebook converter DEMO Watermarks*******
risque de déstabiliser davantage encore l’économie mondiale et, ​au-delà, les
relations internationales. C’est pourquoi l’organisation d’une régulation
volontariste semble nécessaire.

B. Vers de nouvelles régulations ?


Il ne s’agit pas ici de faire œuvre de prospective mais d’explorer quelques
évolutions institutionnelles possibles pour mieux réguler les relations
monétaires internationales. Beaucoup s’accordent aujourd’hui pour dire que
le dollar est contesté sans être remplacé car il n’existe pas vraiment de
remplaçants, à court terme à tout le moins. Deux pistes semblent cependant
se dessiner : un système multidevise ou multipolaire et la transformation du
DTS en liquidité internationale ultime. La première piste est notamment
analysée par A. Bénassy-Quéré et J. Pisani-Ferry dans un rapport de 2011 du
Conseil d’analyse économique français intitulé Réformer le système
monétaire international. Sur la base d’une analyse comparative entre un
système hégémonique dans lequel une monnaie nationale joue le rôle de
liquidité internationale et un système multidevise, ils concluent que les
régulations monétaires internationales gagneraient à être fondées sur trois
devises clés, les monnaies des trois pôles économiques dominants (dollar,
euro et yuan). Ces devises flotteraient entre elles dans un cadre de libre
circulation des capitaux mais cela nécessiterait qu’existe une coordination
forte entre banques centrales pour éviter toute guerre des monnaies, c’est-à-
dire toutes tentatives d’influencer la valeur externe des monnaies pour
accroître la compétitivité-prix des produits régionaux. Cette coordination
éviterait l’écueil du triangle d’incompatibilité et permettrait de diluer le
dilemme de Triffin et de partager le privilège exorbitant. Cependant, cela
nécessite que l’euro et le yuan deviennent des monnaies équivalentes au
dollar. L’euro doit en cela être complété par un budget de la zone euro et la
création d’eurobonds (c’est-à-dire de titre de dette publique émis au nom de
ce budget) afin de fournir un actif financier sûr aux institutions financières à
l’image des bons du Trésor américains. Le yuan doit finir son
internationalisation qui a débuté par la modification des règles de fixation de
sa valeur externe par la Banque populaire de Chine et l’annonce de
l’intégration de la monnaie chinoise dans le panier de monnaies composant le
DTS.
Cependant, ce type de solution ne règle pas vraiment la question de la
liquidité internationale ultime et de l’ajustement des balances des paiements.
******ebook converter DEMO Watermarks*******
M. Aglietta est beaucoup plus sévère sur la capacité à réguler les relations
monétaires internationales dans un système multidevise. En effet, dans le
cadre d’une intégration financière complète, il ne peut exister plusieurs
formes de liquidité, et si elles existent leur prix est indéterminé.
Intuitivement, cela s’explique par le fait que la monnaie, fondée sur la
souveraineté, est la mesure ultime de toute valeur. Or, au niveau mondial, en
l’absence de souveraineté universelle, il est impossible que plusieurs
monnaies soient simultanément mesure ultime de toute chose puisque chaque
monnaie est mesurée dans une autre monnaie. C’est pourquoi, dans l’histoire,
les relations monétaires internationales ont été régulées dans un cadre
reposant sur une devise-clé. Dans la deuxième piste, M. Aglietta propose
alors de s’inspirer du plan proposé par J. M. Keynes. Créer une liquidité
mondiale ultime ne reposant sur aucune devise nationale permettrait d’éviter
les écueils d’un système multidevise ou d’un système hégémonique. Les
paiements internationaux seraient réglés par les banques centrales nationales
(ou régionales) dans cette monnaie dans le cadre d’une chambre de
compensation. En cas de risque systémique mondial, c’est-à-dire de
perturbation délétère de l’ensemble du système monétaire et financier à
l’image de la crise des subprimes, l’institution garante de cette liquidité
ultime pourrait jouer le rôle de prêteur en dernier ressort international. Le
DTS et le FMI seraient les candidats idéaux à condition que les puissances
mondiales s’entendent pour redéfinir les statuts du fonds et rééquilibrer les
rapports de force au sein de cette institution toujours dominée par les États-
Unis.

Conclusion
Nous pouvons ainsi dire que, jusqu’à présent, toutes les tentatives de réguler
les relations monétaires internationales ont connu des difficultés. Que la
monnaie internationale repose sur l’or ou sur une devise-clé (celle de la
puissance hégémonique), l’économie mondiale était déstabilisée par la
confusion entre monnaie internationale et monnaie nationale. Ainsi, l’étalon-
or et la livre sterling, le change-or et le dollar ou le semiétalon dollar n’ont
pas permis d’assurer simultanément la fourniture de liquidité internationale et
l’ajustement des balances des paiements. Pire, le non-système actuel est
source d’une instabilité économique et financière délétère. C’est pourquoi, au
regard des leçons de l’histoire, des avancées de la connaissance économique
et du rééquilibrage économique du monde, il est impératif de penser une
******ebook converter DEMO Watermarks*******
régulation consciente des relations monétaires internationales. Elle pourrait
reposer sur un système multidevise et/ou sur une liquidité internationale
ultime dont le FMI aurait la responsabilité. Cependant, beaucoup d’obstacles
politiques devront être surmontés pour atteindre cet objectif ambitieux. Le
premier concerne la capacité des Européens à surmonter les différentes crises
que connaît l’Europe aujourd’hui, en particulier la nécessité d’élaborer le
cadre institutionnel nécessaire pour faire de l’euro une monnaie complète. Le
deuxième concerne la capacité des nations à mettre en œuvre une
gouvernance mondiale efficace.

******ebook converter DEMO Watermarks*******


Sujet 11 Les ressources
naturelles doivent-elles
être gérées comme des
biens communs
mondiaux ?

1 Se préparer à la rédaction

1.1 L’enjeu du sujet


Les questions environnementales occupent aujourd’hui une place importante
dans l’analyse économique. Ce que l’on nomme classiquement les
« ressources naturelles » (énergies fossiles, ressources halieutiques, eaux
marines, ressources forestières, ressources minières, etc.) sont une
composante significative de ces questions environnementales, même si ces
dernières renvoient aussi à d’autres enjeux. Certaines de ces ressources
naturelles peuvent effectivement être considérées comme des biens communs
mondiaux dès lors que l’on applique les critères de définition de ce concept.
Par exemple, les ressources halieutiques sont un bien rival sans être
excluable, faute notamment de droits de propriété clairement établis.
Cependant, pour une autre part, ces ressources naturelles peuvent faire l’objet
de droits de propriété de sorte qu’elles sont gérées par des agents privés
(songeons par exemple aux gisements pétroliers ou miniers, ou aux
ressources forestières).
Par ailleurs, les États peuvent accorder des autorisations d’exploitation
******ebook converter DEMO Watermarks*******
conduisant à ce que les ressources prélevées deviennent une production au
sens économique, vendue sur des marchés, ce qui les soumet au mécanisme
de l’exclusion par les prix. Même si ces ressources ne sont pas toujours des
biens communs, elles font pourtant l’objet d’une attention et d’un statut
particulier dans la mesure où la société juge qu’elles ne peuvent (et ne
doivent) être gérées selon une pure logique marchande ou capitaliste. En ce
sens, elles deviennent des « communs », c’est-à-dire des richesses qui se
définissent à partir d’un choix éthique et politique du fait que leur existence,
leur entretien et leur reproduction sont nécessaires à l’exercice des droits
fondamentaux et au libre développement des personnes.
Dans cette perspective, les « communs » sont des richesses pour
lesquelles la société juge qu’elles doivent être mises en commun. On peut
dire par exemple que la survie des espèces menacées (éléphants, ours blancs,
etc.), le maintien de la biodiversité ou la sauvegarde de certains espaces
naturels (forêts primaires, zones humides, etc.) sont des communs de
l’humanité. Ils le sont notamment parce qu’ils sont menacés par la tragédie
des biens communs au sens où leur usage privatif conduit à la surexploitation
de la ressource jusqu’à sa disparition, mais pas seulement pour cette raison.
En fin de compte, l’enjeu de ce sujet consiste à se demander comment
articuler l’exercice de la propriété privée, la souveraineté des États avec la
nécessité de la reproduction des communs mondiaux (qui peuvent, le cas
échéant, être des biens communs).

1.2 Le cadrage du sujet et les concepts clés


Le sujet suppose que l’on articule des savoirs empruntés à l’économie
publique, à l’économie de la mondialisation (notamment la gouvernance
mondiale) et à l’économie de l’environnement. Sur le plan chronologique, il
porte essentiellement sur la période contemporaine, c’est-à-dire depuis que
les questions environnementales sont devenues un enjeu planétaire (à partir
des années 1970). Sur le plan géographique, il conviendra de faire porter la
réflexion sur l’économie mondiale dans son ensemble.
En première approche, les ressources naturelles correspondent à
l’ensemble des prélèvements effectués par l’action de l’homme sur la nature
et qui deviennent par la suite des richesses au sens économique : les
ressources fossiles qui sont notamment source d’énergie (pétrole, gaz naturel,
charbon), les ressources minières (métaux, pierres précieuses), les ressources

******ebook converter DEMO Watermarks*******


forestières, les ressources halieutiques, etc. Ces prélèvements deviennent des
richesses dès lors que les hommes leur attribuent une valeur positive. C’est
ainsi que l’économiste français G. Rotillon ​précise : « On parlera de
ressources naturelles au sens économique quand la ressource sera utilisable
avec la technologie existante et exploitable avec les prix actuels ». Par
convention, ces ressources relèvent de la production au sens économique (on
considère que les grandes firmes multinationales pétrolières « produisent » du
pétrole). Elles sont considérées comme « renouvelables » ou « non
renouvelables ». Par exemple, les ressources forestières ou halieutiques sont
considérées comme renouvelables contrairement aux ressources fossiles. Cela
fait toutefois l’objet de vifs débats : la surexploitation des forêts primaires
peut entraîner leur disparition ! De façon plus générale, la production de ces
ressources est un enjeu majeur dans la mesure où elle peut conduire à
l’épuisement du capital naturel dont elles sont une composante.
Le concept de « bien commun » est utilisé de longue date en économie
publique. Il désigne des biens qui sont rivaux (la consommation des uns prive
les autres de la consommation des mêmes biens) et non excluables (on ne
peut pas interdire l’accès à la ressource notamment au moyen d’un
mécanisme des prix du fait d’une difficulté à définir les droits de propriétés).
Certaines ressources naturelles présentent bien ces caractéristiques (les
ressources halieutiques hors des eaux territoriales par exemple). Mais
beaucoup de ressources naturelles sont rivales et excluables. Le concept de
« bien commun » est problématique. Il est parfois confondu avec les concepts
de « bien collectif » ou de « bien public ». Une définition rigoureuse de ces
concepts permet toutefois d’éviter toute confusion : un bien collectif est un
bien non rival et non excluable de sorte qu’il ne peut pas être alloué par le
marché ; un bien public est un bien qui est alloué par l’État (ce qui est le cas
des biens collectifs mais aussi de nombreux biens privatifs comme le service
éducatif par exemple). Par ailleurs, l’émergence, notamment à partir des
travaux d’E. Ostrom, du concept de « communs » doit conduire à une
vigilance particulière quant à la différence entre « communs » et « bien
commun ». Plus généralement, dès le début de son livre Gouvernance des
biens communs, Ostrom insiste sur la nécessité de distinguer, « communs »
(Common Pool Resources), biens collectifs et biens publics. Pourtant de
nombreux ouvrages ou articles confondent certaines de ces notions
(notamment celles de « bien collectif » et de « bien public »).

******ebook converter DEMO Watermarks*******


1.3 La construction de la problématique
La question posée renvoie à un dilemme. Puisque les biens communs sont
situés pour la plupart sur les territoires d’États-nations et que certaines
ressources naturelles sont des biens privatifs faisant le plus souvent l’objet
d’une appropriation privée, ils ne semblent pas, sauf dans des cas limités,
relever de la question des biens communs au niveau mondial. Pourtant, les
enjeux planétaires semblent de plus en plus importants qu’il s’agisse du
réchauffement climatique, de la réduction rapide de la biodiversité, de
l’épuisement de certaines ressources renouvelables ou non, ce qui conduit
certains observateurs à craindre une « guerre des ressources ». Ces réflexions
reviennent à considérer que ce sont des « communs » et qu’ils relèvent, au
même titre que les biens communs, d’une gouvernance mondiale. Pour
examiner ce dilemme, il convient donc de se demander dans quelle mesure on
peut parler de « biens communs » à propos des ressources naturelles et
comment on peut dès lors envisager leur gestion et, par extension, leur
pérennité.

2 Rédiger le devoir : une proposition

Introduction
L’attribution en octobre 2018 du Prix Nobel de science économique à
W. Nordhaus (et à P. Romer) montre, au-delà des polémiques, l’importance
cruciale des questions environnementales pour la science économique. Dans
le même temps, les travaux de recherche sur la question des « communs » ne
cessent de se multiplier depuis plusieurs années. Ce sont d’ailleurs ses
travaux sur les « communs » qui ont valu à Ostrom le Prix Nobel en 2009. Au
cœur des débats relatifs à l’environnement figurent les ressources naturelles.
Tout ce qui existe dans la nature ne constitue pas des ressources au sens
économique. Pour que l’on puisse parler de ressources naturelles il faut que
ces éléments naturels soient considérés comme présentant un intérêt pour les
individus et les sociétés. Pendant la majorité de l’histoire de l’humanité, les
gisements de pétrole ou d’uranium n’étaient pas perçus comme une
ressource, mais le bois et le gibier oui. Il faut ensuite que l’on dispose d’une
technologie permettant d’exploiter les ressources et il faut enfin que le prix de
la ressource soit tel que les coûts de production soient au moins couverts (au
prix du pétrole des années 1950, les gisements pétroliers off shore ne
******ebook converter DEMO Watermarks*******
présentent aucun intérêt). Parmi ces ressources naturelles, on distingue les
ressources épuisables (ressources minérales, énergies fossiles telles que les
gisements de gaz ou de pétrole) et les ressources renouvelables (forêts,
ressources halieutiques, etc.). Mais cette distinction doit être fortement
nuancée du fait de la disparition de certaines espèces ou de certains espaces
(forêts primaires, zones humides) qui étaient pourtant en principe
renouvelables. Le concept de bien commun fait aujourd’hui l’objet d’une
définition stabilisée : il s’agit de biens qui sont à la fois rivaux (la
consommation du bien par un agent rend impossible la consommation
simultanée du même bien par un autre) et non excluables (faute de droits de
propriété clairement établis, on ne peut pas exclure, notamment par un
mécanisme de prix, un agent qui souhaite consommer le bien). Enfin,
précisons que le qualificatif de « mondial » renvoie à l’idée que la régulation
de ce type de bien doit être pensée en termes de gouvernance mondiale,
compte tenu du caractère planétaire des enjeux que cette question soulève.
Les menaces d’épuisement qui pèsent sur les ressources naturelles,
menaces étudiées déjà par les économistes classiques (S. Jevons, The Coal
Question, 1865) ou par le Rapport du Club de Rome (1972), affectent
l’humanité tout entière. Dès lors, la question se pose de savoir si ces
ressources naturelles ne devraient pas être considérées comme des biens
communs impliquant l’humanité tout entière. Pourtant, dès 1962 une
résolution de l’Assemblée générale des Nations unies affirmait la
souveraineté permanente des peuples et des nations sur leurs ressources
naturelles. Il existe donc une tension entre la logique de l’intérêt collectif
mondial et la logique qui peut conduire chaque État à tirer le parti le plus
avantageux des ressources naturelles qui se trouvent sur son territoire (y
compris dans la zone maritime exclusive). Pour traiter cette question, il
importe tout d’abord d’examiner comment les économistes doivent
considérer les ressources naturelles : sont-elles des biens privatifs usuels, des
biens communs ou encore des « communs » (I) ?
Sur cette base, on pourra se demander à partir de quel mode de
coordination la gouvernance de ces ressources peut s’opérer de sorte que cela
permette de rendre compatible l’exercice de la souveraineté des États avec
l’intérêt général de l’humanité (II).

I. Les ressources naturelles : bien privatifs, biens communs ou


« communs » ?
******ebook converter DEMO Watermarks*******
La définition juridique des ressources naturelles n’est pas stabilisée. Le code
français de l’environnement y fait figurer les espaces et milieux naturels, les
paysages, la qualité de l’air, la biodiversité. Ce code précise que ces
ressources naturelles sont un « patrimoine commun de la Nation ». La
stratégie européenne pour l’usage durable des ressources naturelles énumère
les matières premières, la biomasse, l’air, l’eau, le sol, la géothermie, les
marées et l’énergie solaire, par exemple. La Convention sur la diversité
biologique (1992) et la Convention de Nagoya (2010) mettent l’accent sur le
partage des avantages tirés de l’utilisation des ressources génétiques et
entendent lutter contre la biopiraterie, c’est-à-dire l’appropriation privée de
ces ressources sans partage des ​avantages. On le voit, à divers niveaux, la
question de la définition des ressources naturelles et de leur gestion dans
l’intérêt commun est posée.

A. Les catégories de biens : une construction théorique essentielle


C’est à P. Samuelson (dans un article célèbre de 1954) que l’on doit la
distinction entre « private consumption goods », que l’on peut nommer en
français « biens privatifs » et « collective consumption goods », que l’on
nomme habituellement « biens collectifs ». Les bien privatifs (un vêtement
par exemple) sont rivaux (si le vêtement est porté par une personne, il ne peut
pas être porté par une autre) et peuvent faire l’objet d’une exclusion par les
prix. Leur production dans le cadre d’une coordination marchande ne pose
donc pas de problème. En revanche, les biens collectifs constituent une
défaillance du marché. Ils sont en effet mis à la disposition de tous, dès lors
qu’ils sont mis à la disposition d’une seule personne, le consentement à payer
est donc nul et aucun producteur privé n’a intérêt à les produire alors même
qu’ils sont individuellement et socialement utiles. On peut prendre l’exemple
du service de prévision météorologique : le fait qu’une personne l’utilise ne
prive pas une autre personne de son utilisation. Puisque de tels biens ne
peuvent pas être produits dans le cadre marchand, une solution consiste à ce
qu’ils soient produits par la puissance publique (on parle alors de « biens
publics »), mais ils peuvent aussi être produits par des organismes privés non
marchands (fondations, associations). Tous les biens collectifs ne sont donc
pas publics. Inversement, tous les biens publics ne sont pas collectifs. En
effet, l’État peut produire des biens tutélaires qui sont rivaux et excluables
(l’éducation par exemple). À côté de ces deux cas polaires de biens privatifs
et collectifs, l’économie publique a élaboré deux autres catégories de biens :
******ebook converter DEMO Watermarks*******
les biens de club qui sont non rivaux mais excluables (une séance de cinéma
dans la limite du remplissage de la salle par exemple ou une chaîne de
télévision cryptée) et les biens communs qui sont rivaux mais non excluables
(ou difficilement excluables). Les réserves halieutiques sont un bon exemple
de ce second cas : les mêmes poissons prélevés par certains pêcheurs ne
peuvent pas l’être par d’autres (rivalité), mais il est difficile, surtout dans les
eaux internationales, d’empêcher les différents bateaux de pêche de prélever
tous les poissons qu’ils souhaitent.
Cette classification a une grande portée heuristique, mais les catégories de
« biens collectifs » et de « biens communs » apparaissent comme trop
limitatives. Les biens véritablement non excluables sont peu nombreux et il
est toujours possible d’inventer des procédures d’exclusion par les prix. C’est
ainsi que la télévision est apparue au départ comme un bien collectif : dès lors
que l’émission existait, tout un chacun pouvait en bénéficier à condition de se
doter d’une antenne et d’un téléviseur. On peut noter que, même dans ce cas,
une logique marchande était possible dès lors que l’émetteur se finançait par
la publicité. Mais surtout on a inventé le cryptage et donc la nécessaire
souscription d’un abonnement pour bénéficier des programmes émis. La
diffusion par câble a renforcé la possibilité de l’exclusion par les prix. Des
autoroutes à péages, voire des ponts comme le viaduc de Millau, montrent
également l’extension possible de l’exclusion par les prix. De même, on peut
transformer des biens communs en biens de club en privatisant des espaces
de pêche, de chasse ou de nature et en en réservant l’accès aux agents
économiques qui s’acquittent d’une cotisation ou d’un droit d’entrée.
L’introduction du concept de « communs » trouve ici son intérêt : il s’agit
de richesses qui ne sont pas seulement des biens techniquement non
excluables, mais qui sont aussi des biens, publics ou privés, qui apparaissent
comme nécessaires à l’exercice de droits fondamentaux de la personne (qu’il
s’agisse des générations présentes ou des générations futures). L’approche est
donc normative et substantielle et pas seulement formelle (c’est-à-dire
reposant sur des critères techniques). La définition de ce qui relève de
l’espace des biens communs relève donc d’un choix politique démocratique
et exprime une préférence collective. On peut considérer que la stabilité du
climat obtenue par une limitation du réchauffement climatique est un bien
commun de même que la sauvegarde de la biodiversité ou d’espaces naturels
protégés de tout usage destructeur, etc.
Une fois cette typologie construite, il s’agit maintenant de se demander
******ebook converter DEMO Watermarks*******
quelle peut être sa portée s’agissant de la place des ressources naturelles :
comment départager celles qui peuvent sans conséquence être considérées
comme des biens privatifs de celles qui ne peuvent pas l’être soit pour des
raisons techniques, soit pour des raisons politiques, soit pour les deux.

B. Quel statut pour les ressources naturelles ?


La liste comme la catégorisation des ressources naturelles est soumise à
débats. Cela tient notamment au fait de l’évolution du statut de ces ressources
mais aussi de l’approfondissement de la mondialisation et de choix politiques
variables notamment en matière d’attribution des droits de propriété.
Certaines ressources naturelles restent des biens privatifs. Il en va ainsi de la
plupart des ressources minérales et des ressources en énergie fossile, mais
aussi de la plupart des terrains et donc des espaces naturels qui s’y trouvent.
Ces biens privatifs ont parfois des propriétaires privés, parfois des
propriétaires publics. Dans certains cas, les ressources du sous-sol ont été
nationalisées par l’État, mais l’exploitation est concédée à des opérateurs
privés. Les exemples de la « Montagne d’or » en Guyane ou de l’exploitation
de la forêt amazonienne au Brésil montrent que l’attribution de licences
d’exploitation à des entreprises à but lucratif est source de revenus pour
l’État, mais conduit à mettre gravement en péril le capital naturel. Or, les
forêts sont des puits de carbone et l’humanité tout entière est une victime
potentielle de la déforestation et du réchauffement climatique. D’autres
ressources naturelles ont le caractère de biens communs (cas des ressources
halieutiques ou des nappes phréatiques). Mais cela ne permet pas de résoudre
la question des « communs ».
Par exemple, peut-on autoriser un propriétaire privé ou public d’un terrain
en zone humide à l’urbaniser en mettant en péril la biodiversité liée à ce type
d’espace ? Peut-on autoriser des navires-usines de plus en plus puissants à
prélever des poissons jusqu’à mettre l’existence même de la ressource en
péril ou à utiliser des techniques de pêche (pêche électrique ou filets
dérivants) qui détruisent des espèces ne présentant aucun intérêt commercial
(cas des dauphins, victimes de la pêche aux thons) ?
À cette question de l’articulation entre les caractéristiques des biens et
leur régime juridique public ou privé s’ajoute la question de la souveraineté
des différents États. En septembre 2018, par exemple, les pêcheurs français et
anglais de coquilles Saint-Jacques se sont violemment affrontés en mer dans
les eaux internationales. Les pêcheurs anglais avaient commencé à prélever
******ebook converter DEMO Watermarks*******
des coquilles, alors que les pêcheurs français, afin de préserver la ressource,
avaient accepté une règlementation qui retardait le début de la pêche de
plusieurs semaines. Ils considéraient donc que les Anglais se comportaient en
passagers clandestins. Un compromis a été négocié aux niveaux des deux
gouvernements concernés. Cet évènement n’a rien d’anecdotique.
L’existence de la Commission baleinière internationale (créée en 1946)
montre l’importance, mais aussi les difficultés des États, à protéger une
ressource au niveau mondial. Un autre exemple de la difficulté à gérer des
ressources naturelles tout en respectant la souveraineté des États est donné
par la gestion des fleuves dont dépendent parfois plusieurs pays pour leur
approvisionnement en eau. Le risque est qu’un ou des État(s) situé(s) en
amont ne capte(nt) ou ne stocke(nt) une trop grande quantité d’eau au
détriment des pays situés en aval.
La même question est aujourd’hui débattue à propos de l’usage des
énergies fossiles et du réchauffement climatique. Certains spécialistes
plaident pour que l’on cesse d’exploiter les énergies fossiles. Selon eux, le
seul moyen d’éviter de produire du CO2, c’est de laisser le pétrole, le gaz et
le charbon dans le sol. Pour le moins, il faudrait cesser de rechercher de
nouvelles ressources en énergie fossile qu’il s’agisse de ressources
conventionnelles (dans le sous-sol ou dans les fonds marins de l’Arctique) ou
de ressources non conventionnelles (sables et schistes bitumineux). Si une
telle décision devait être prise, cela signifierait que les pays producteurs
renoncent à l’usage d’une ressource naturelle située sur leur sol au nom de la
défense de l’intérêt collectif mondial. Outre qu’une telle décision serait sans
doute difficile à obtenir, elle pose la question d’une justice environnementale
mondiale qui devrait conduire à indemniser les pays concernés par l’arrêt de
l’exploitation.
Certaines ressources naturelles sont des biens privatifs et peuvent être
gérées au niveau national. D’autres sont des biens communs qui peuvent
aussi être gérés au niveau national, voire local (la protection d’espaces
naturels ou de paysages). Mais certaines ressources naturelles sont des
« communs mondiaux » dans la mesure où elles concernent les droits de
l’humanité tout entière, y compris les générations futures. De ce fait, elles
impliquent une gouvernance mondiale qui reste très problématique du fait de
l’absence d’un gouvernement mondial et des conflits d’intérêts entre États
souverains.

******ebook converter DEMO Watermarks*******


II. Coordination et gouvernance des ressources naturelles
Comment gérer les ressources naturelles ? L’analyse économique nous
propose trois types idéaux de modes de coordination : le marché, l’État ou la
coopération. L’observation du fonctionnement des économies montre que ces
trois procédures sont effectivement utilisées dans les divers systèmes
économiques observés dans le temps et dans l’espace. Chaque mode de
coordination présente des avantages et des inconvénients et semble plus ou
moins bien adapté aux diverses ressources naturelles. Cela permet de
comprendre l’intérêt de l’approche d’Ostrom. Il n’existe pas de solution
unique pour la gestion des ressources naturelles. En revanche, l’articulation
de divers modes de gouvernance et de divers niveaux d’action peut se révéler
particulièrement efficiente.

A. Le marché, l’État et la coopération


Le premier mode concevable de gestion des ressources naturelles est le
marché. On justifie souvent cette conception à partir de la « tragédie des
biens communs » formulée en 1968 par G. Hardin. Ce dernier souligne qu’en
l’absence de droits de propriété, les biens en accès libre donnent lieu à une
surutilisation qui met finalement en péril l’existence même des ressources
naturelles. Il prend l’exemple des pâturages communaux anglais avant la
période des enclosures. Dès lors que tous les habitants d’un village peuvent
faire paître librement leur bétail sur les terrains communaux, un
comportement individuel rationnel conduit donc chacun à maximiser le
nombre de têtes de bétail qui utilisent les terrains communaux. De ce fait, on
assiste à un prélèvement excessif qui fait finalement disparaître la nourriture
des animaux. On peut tirer de cet exemple l’argument, selon lequel, si on
attribue au contraire la propriété privative des terrains à certains éleveurs, il
devient rationnel pour eux d’assurer la pérennité de la ressource donc de
limiter le nombre d’animaux et de s’assurer que l’herbe des pâturages reste
suffisamment abondante. Dès lors l’usage des pâturages (usus) peut aussi
donner lieu à une location (fructus) ou à une vente à un prix qui dépend de la
qualité du service produit par les terres (abusus).
À l’appui de cette approche par le marché, on peut aussi citer l’analyse
d’H. Hotelling (The Economic of Exhaustible Resources, 1931) qui montre
que dans un système concurrentiel le prix d’une ressource épuisable a
tendance à augmenter au fur et à mesure de la diminution du stock. Cette
hausse du prix et donc de la rente du producteur conduit à la fois à une
******ebook converter DEMO Watermarks*******
diminution de l’usage de la ressource et à la rentabilisation des recherches
visant à produire des substituts. Enfin, le théorème de Coase (1960) montre
qu’en l’absence de coûts de transaction, la définition de droits de propriété
permet aux différents détenteurs de droits de négocier le prix de la destruction
des ressources naturelles (par exemple une entreprise qui pollue une rivière
doit indemniser les pêcheurs et les agriculteurs qui se trouvent en aval, le
coût de la pollution est donc internalisé dans les calculs de l’entreprise
polluante). Cette coordination par le marché s’applique aujourd’hui aux
ressources minières et aux énergies fossiles, à l’usage des sols, partiellement
à l’usage de l’eau, aux espaces naturels lorsqu’ils appartiennent à des
propriétaires privés. Certaines politiques publiques favorisent ce recours au
marché. C’est ainsi qu’en matière de biodiversité les utilisateurs (promoteurs
immobiliers par exemple) qui détruisent un espace naturel peuvent
compenser en achetant des titres négociables appelés « unités de
biodiversité » qui servent aux émetteurs à financer la protection d’autres
espaces naturels.
La gestion par l’État conduit à considérer que ce dernier représente
l’intérêt général et peut donc soit s’approprier des ressources communes, soit
en règlementer l’usage afin de promouvoir l’intérêt commun : la création par
l’État de parcs nationaux, l’appropriation publique des zones littorales
(domaine public où la circulation est libre et qui n’est pas susceptible d’une
appropriation privée), l’interdiction de produits toxiques qui provoquent la
disparition de certaines espèces (abeilles par exemple) ou le repeuplement par
l’État de certains espaces (ours et loups), la règlementation de la chasse ou de
la pêche. Par exemple, dans beaucoup de pays d’Amérique latine, la
production et la distribution d’eau potable ont été longtemps le fait de
monopoles publics. Le mauvais fonctionnement de ce service public et
l’influence des politiques d’ajustement structurel ont conduit, à partir des
années 1980, à privatiser ce service sous forme de concession à des
entreprises multinationales. Cependant, à partir du milieu des années 2000 le
mécontentement du public (notamment à propos des tarifs et des subventions
versées par l’État aux entreprises privées) et des changements politiques ont
conduit à un mouvement de reprise en main de la distribution de l’eau par
l’État et/ou les collectivités locales (en Argentine notamment). On voit donc
que l’intervention de l’État est l’enjeu de rapports de forces politiques. Si
certains économistes défendent la prise en main par la puissance publique
(nationale ou locale) de certains services publics (eau, assainissement,
******ebook converter DEMO Watermarks*******
ramassage et traitement des ordures ménagères, etc.), d’autres mettent en
avant la vigilance nécessaire à l’égard des défaillances de l’État (corruption,
financement des partis politiques par les entreprises concessionnaires, capture
du régulateur, etc.).
Les travaux d’Ostrom ont comme apport principal d’avoir montré que
l’on n’était pas limité au dilemme coordination par le marché ou coordination
par l’État, mais qu’il existe une troisième possibilité consistant dans la
gestion coopérative des biens communs. À partir d’une étude pionnière
portant sur la gestion des nappes phréatiques en Californie, Ostrom montre
que la gestion coopérative est efficace et efficiente. Chaque utilisateur de ces
ressources communes que sont les nappes d’eau douce souterraine pourrait en
effet être tenté de prélever la plus grande quantité d’eau possible pour
maximiser son avantage privé. La tragédie des biens communs consisterait
non seulement dans l’épuisement de la ressource mais dans un risque de
salinisation car ces nappes se trouvent au-dessous du niveau de la mer. Une
baisse trop forte du niveau des nappes d’eau douce pourrait conduire à une
entrée d’eau de mer rendant l’eau impropre à la consommation comme à
l’irrigation. Ostrom montre que cette coordination coopérative résulte de la
mise en place d’un processus d’auto-gouvernement collectif qui conduit à la
mise en place de règles de prélèvement permettant d’éviter l’épuisement de la
ressource. Cela suppose à la fois des procédures de contrôle du respect des
règles et des sanctions en cas de manquements aux règles. Des études
ultérieures ont analysé un très grand nombre de cas comparables à travers le
monde (par exemple les systèmes d’irrigation en Espagne mise en place lors
de la présence musulmane et maintenus bien après). Cette idée de coopération
peut être décidée entre individus, mais aussi entre États au niveau mondial.

B. Gouvernance polycentrique et action multiniveau


La notion de biens communs mondiaux reste controversée. La littérature
produite par les organisations internationales (essentiellement en langue
anglaise) a généralisé l’usage de « Public Goods » traduit en français par
« biens publics », ce qui contribue à une mauvaise compréhension des enjeux
liés aux biens communs, aux biens collectifs et aux « communs ». Mais
comme le fait remarquer C. Hess, une proche collaboratrice d’Ostrom, il
s’agit le plus souvent de biens communs mondiaux. En toute rigueur, il
faudrait distinguer les deux catégories de biens. Par exemple, les règles qui
régissent l’Antarctique (Traité de 1959), qui interdisent toute souveraineté
******ebook converter DEMO Watermarks*******
exclusive sur ce continent, ainsi que toute militarisation, qui instituent une
coopération scientifique et qui instaurent (Convention de 1964) une stricte
protection de la faune et de la flore (les prélèvements ne peuvent avoir qu’une
visée scientifique et sont soumis à autorisation préalable), ont le caractère
d’un bien public puisqu’il s’agit d’une production des États. En revanche,
grâce à ce traité, l’Antarctique est un bien commun puisque ce territoire est
inappropriable à la fois par les agents privés et par les États. On est en
présence d’une gestion de ce bien commun qui est réalisée au niveau
mondial, dans un cadre coopératif, par l’ensemble des États signataires du
Traité. L’idée d’étendre cette gestion coopérative d’un bien commun dans le
cadre d’une gouvernance mondiale apparaît, pour l’instant, peu réaliste. Peut-
on considérer que, de ce fait, compte tenu de l’absence d’un gouvernement
mondial susceptible de recourir à la hiérarchie pour imposer des solutions
conformes à l’intérêt collectif mondial, les ressources naturelles sont
condamnées à subir la tragédie des biens communs ?
Là encore, les analyses de V. Ostrom et E. Ostrom se révèlent précieuses.
Dans leurs travaux de science politique antérieurs à la création de l’École de
Bloomington, ils ont montré, en étudiant le fonctionnement des services de
police aux États-Unis, que la pluralité des autorités (services municipaux,
services au niveau du comté, au niveau de l’État, au niveau fédéral) était
finalement préférable à un système policier centralisé soumis à une autorité
unique. Ils parlent à ce propos d’une gouvernance polycentrique. Ce concept
est très utile dans le cadre de la réflexion sur la gestion des ressources
naturelles. Soumettre la gestion des espèces sauvages ou des zones humides à
la gestion d’une autorité unique, au niveau national et a fortiori au niveau
mondial, n’est certainement pas la bonne solution.
Pour reprendre une formule utilisée fréquemment, l’enjeu est de penser
global et agir local. Une communauté rurale utilisatrice d’une forêt, des
pêcheurs prélevant du poisson dans une même zone maritime ou fluviale
disposent de plus d’informations et d’expériences qu’une autorité centrale. Il
est donc préférable de leur laisser la responsabilité d’élaborer des règles
d’utilisation des ressources communes. Mais les autorités de rang supérieur
(régional, national, international) peuvent jouer un rôle important en
favorisant la circulation de l’information, en offrant un cadre juridique pour
l’institutionnalisation des règles élaborées au niveau local et lutter contre les
comportements de passagers clandestins. Cette pluralité des centres de
décision est d’autant plus importante qu’une pluralité d’acteurs intervient
******ebook converter DEMO Watermarks*******
dans la gestion des ressources naturelles : les usagers de la ressource
(qu’Ostrom nomme les « appropriateurs »), par exemple les pêcheurs qui
s’approprient un flux de poissons prélevés, mais aussi les organisations non
gouvernementales de protection de la nature, les entreprises utilisatrices de
l’espace ou des ressources, les diverses administrations en charge de la
gestion de l’eau, de l’air, de la construction des infrastructures, etc.
Cette gouvernance polycentrique peut et doit être aussi une gouvernance
multiniveau. Par exemple, la protection du thon rouge de Méditerranée a été
mise en œuvre par les États riverains de cet espace maritime. Ces États, en
accord avec les pêcheurs locaux, se sont entendus pour limiter les périodes de
pêche et mettre en place des quotas de prélèvements. Ils ont ensuite, via les
marines nationales des États participants, imposé le respect de ces normes,
même dans les eaux internationales, aux bateaux de pêche, y compris ceux
qui étaient originaires de pays non riverains. Un accord mondial n’était pas
nécessaire ici. En revanche, un accord mondial a été nécessaire pour interdire
le commerce de l’ivoire ou la commercialisation des espèces sauvages. La
commission baleinière internationale, dont il a été question ci-dessus, ne
concerne que les pays qui pratiquent cette pêche.
Il n’est donc pas nécessaire d’attendre un accord mondial sur la gestion
des ressources naturelles pour veiller à leur exploitation durable. Par
exemple, en ce qui concerne le réchauffement climatique, les États-Unis ont
refusé de ratifier l’accord de Kyoto, mais la Californie, d’autres États et de
nombreuses villes ont décidé d’inscrire leurs actions dans le cadre de cet
accord. Dans certaines régions, ce sont les populations autochtones qui, pour
préserver leurs modes de vie traditionnels, imposent la règlementation de la
chasse et de la pêche ou s’opposent à la création d’exploitations minières qui
remettraient en cause leur espace naturel. Certes, dans certains cas, des
accords mondiaux semblent nécessaires, mais le développement d’initiatives
locales favorise la création des conditions d’accords plus large. Les membres
de l’équipe d’Ostrom insistent sur le fait que la mise en commun des
connaissances, la circulation de l’information, l’échange d’expérience
d’actions collectives favorisent l’extension de la prise en charge des biens
communs à tous les niveaux.

Conclusion
Indiscutablement, l’interdépendance au niveau mondial entre les différents
espaces, les différents États, les différentes populations s’est accrue. La
******ebook converter DEMO Watermarks*******
question des ressources naturelles joue un rôle majeur dans cette
interdépendance. Qu’il s’agisse des ressources énergétiques et des
conséquences de leur usage sur le réchauffement climatique, de la qualité des
sols, de la biodiversité, de la disponibilité de l’eau (de plus en plus de régions
sont menacées de stress hydrique), de l’acidification des océans, le
patrimoine naturel mondial de l’humanité est gravement menacé. La prise de
conscience de la nécessité d’agir est de plus en plus grande comme le
montrent notamment les conférences mondiales, les organisations non
gouvernementales, les actions des États et des collectivités locales. Mais à la
nécessité de cette action coordonnée ne correspond aucune solution unique au
niveau directement mondial.
Il convient donc d’agir en combinant les différents modes de coordination
(marché, État, coopération) et les différents niveaux de gouvernance (local,
national, mondial). Il ne faut pas négliger dans cette perspective l’importance
de la diffusion des connaissances scientifiques et de la mobilisation de la
société civile. Lorsque des populations obtiennent la préservation d’un espace
naturel, la création d’un parc naturel régional, l’adoption d’une
règlementation plus stricte en matière de chasse, de pêche, d’usage de
pesticides dans l’agriculture, etc., elles contribuent finalement à une gestion
mondiale plus responsable des ressources naturelles. Il en va de même
lorsque des villes ou des régions accroissent l’offre de transports en commun,
lorsque les entreprises innovent pour favoriser la déconnexion entre la
production et la consommation de ressources naturelles.
En fin de compte, au-delà même de la question des ressources naturelles,
le concept de bien commun pourrait être au cœur d’un nouveau paradigme
permettant de penser autrement l’organisation de la vie sociale et le rapport à
la Nature.

******ebook converter DEMO Watermarks*******


Sujet 12 Faut-il s’en remettre au
marché pour lutter
contre le réchauffement
climatique ?

1 Se préparer à la rédaction

1.1 L’enjeu du sujet


La question de la lutte contre le réchauffement climatique est au cœur des
problématiques économiques contemporaines parce que cette lutte est
indispensable mais qu’elle nécessite de changer de comportements et plus
largement de modèle économique. À défaut, un réchauffement moyen
excédant deux degrés centigrades par rapport à la période préindustrielle
risque de conduire à des effets délétères massifs sur les sociétés, comme le
rappelle le GIEC dans son dernier rapport. Les économistes apportent des
éléments de compréhension des phénomènes responsables du réchauffement
mais aussi des instruments d’action que peuvent mettre en œuvre les pouvoirs
publics. Ainsi, en est-il des différentes taxes proposées en vertu du principe
pollueur-payeur ou encore des marchés de quotas d’émission de CO2.
Ces instruments ont été théorisés de longue date par des économistes
comme A. C. Pigou ou R. Coase (Prix Nobel 1991) en réponse au problème
des externalités, c’est-à-dire des conséquences de l’activité économique d’un
agent sur d’autres agents sans que celles-ci soient prises en compte par le
marché. Les émissions polluantes en sont l’illustration la plus parlante. Il est
notable également que le Prix Nobel de sciences économiques 2018 a été

******ebook converter DEMO Watermarks*******


attribué à W. Nordhaus pour ses travaux d’analyse macroéconomique
intégrant le changement climatique. Si des controverses l’ont opposé à
d’autres économistes, en particulier avec un spécialiste de l’économie de
l’environnement, N. Stern, tout cela confirme que la réflexion économique
sur le réchauffement climatique est riche.
Cependant, les rapports qui se succèdent restent alarmants en raison de
l’accroissement continu des émissions de gaz à effet de serre (GES) et des
irréversibilités liées à leur stock dans l’atmosphère. Le recours à la
coordination marchande est sans doute l’action la plus évidente, pour les
économistes, en vue de l’atténuation ou de l’adaptation au changement
climatique. Encore faut-il que la conception même des marchés et leur
encadrement institutionnel soient efficaces et efficients. Mais peu
d’économistes assurent que le recours au marché est suffisant pour modifier
la trajectoire périlleuse sur laquelle se trouve l’humanité. Pour remporter la
lutte contre le réchauffement climatique, il faut impérativement faire appel à
des actions plus volontariste reposant sur une coordination hiérarchique. Cela
suppose une action déterminée du pouvoir politique.

1.2 Le cadrage et les concepts clés


Le réchauffement climatique qui correspond à l’accroissement de la
température terrestre moyenne peut être analysé comme une externalité
négative de l’activité économique. En effet, la cause principale du
changement climatique est l’émission de GES dans l’atmosphère qui s’est
accélérée à partir de la révolution industrielle. L’utilisation des énergies
fossiles, mais également la déforestation en sont les causes principales. Dans
le cas d’externalités, l’action des pouvoirs publics est recommandée
puisqu’on est en présence d’une défaillance de marché. Cette action peut
passer par une intervention sur le marché (sous la forme d’une taxe pour une
externalité négative ou sous la forme d’une subvention pour une externalité
positive) qui vise à modifier les comportements économiques par la mise en
œuvre d’incitations liées à la modification des prix relatifs. Cette action peut
également passer par l’institution de marchés comme celui des quotas
d’émission de CO2 qui doit également conduire à un changement de
comportements. Si ces mesures s’avèrent efficaces, il est possible de s’en
remettre au marché pour lutter contre le réchauffement climatique.
Par ailleurs, la stabilité climatique (qui correspond à l’absence de

******ebook converter DEMO Watermarks*******


réchauffement ou, a minima, à un réchauffement contenu) peut être analysée
comme un bien collectif, c’est-à-dire un bien qui n’est pas rival (vivre à une
température donnée pour un individu ne la rend pas différente pour un autre)
et qui n’est pas excluable (il n’est pas possible de faire payer un individu
pour accéder à une température mondiale plus ou moins élevée). Un bien
collectif ne pouvant pas être produit par des agents privés sur un marché, il
revient à l’État de financer la stabilité du climat à partir de prélèvements
fiscaux. La question climatique étant une question mondiale, elle devient un
« common » au sens de l’expression d’Ostrom. En l’absence de
gouvernement mondial l’enjeu est alors celui de la gouvernance mondiale.
Dans cette perspective, s’en remettre au marché pour lutter contre le
réchauffement climatique est sans doute contreproductif.

1.3 La construction de la problématique


La question qui est posée consiste à se demander comment contenir le
réchauffement climatique qui est analysé par les économistes comme une
défaillance de marché. Elle consiste également à se demander comment les
sociétés peuvent s’adapter aux changements inéluctables. L’action des
pouvoirs publics, nécessaire, doit-elle uniquement reposer sur les marchés ?
Si elle repose sur les marchés, quelles sont les conditions d’efficacité de cette
action ? Le premier axe de réflexion portera sur la question de l’action sur les
marchés. Le second axe visera à montrer qu’il est aussi nécessaire d’agir au-
delà des marchés pour lutter contre le réchauffement climatique.

2 Rédiger le devoir une proposition

Introduction
En 2018, le prix de la Banque de Suède à la mémoire d’Alfred Nobel a été
décerné à W. Nordhaus pour ses travaux d’analyse macroéconomique
intégrant le changement climatique. Cela illustre la place qu’occupe
aujourd’hui le réchauffement climatique dans les débats de société, mais cela
illustre également la place qu’y prend la pensée économique qui propose des
instruments de lutte contre le réchauffement climatique. Celui-ci semble
aujourd’hui inéluctable en raison des irréversibilités liées aux émissions de
gaz à effet de serre (GES) qui s’amorcent avec la révolution industrielle.
L’accroissement moyen des températures devient une source d’inquiétude
******ebook converter DEMO Watermarks*******
plus tardivement, lorsque les questions écologiques prennent une place
grandissante au cours des années 1970, mais surtout au cours des
années 1990 notamment avec le Sommet de la Terre de Rio en 1992. Le
réchauffement climatique pose des problèmes importants aux sociétés
puisqu’il est à l’origine d’un dérèglement du climat, d’une montée des océans
délétère pour les espaces géographiques proches du niveau de la mer, d’une
atteinte à la biodiversité. L’impact néfaste sur les populations doit conduire
les pouvoirs publics à prendre des décisions en termes d’atténuation du
réchauffement (le contenir, si possible sous le seuil des deux degrés
centigrades) par un contrôle des émissions de GES, mais également en termes
d’adaptation, en particulier pour les populations les plus fragiles.
La science économique apporte des solutions dans la mesure où l’origine
du réchauffement est bien connue et analysée comme une externalité
négative, c’est-à-dire comme la conséquence non désirée et néfaste d’une
activité économique qui n’est pas prise en compte par le marché.
L’internalisation de cette externalité peut reposer sur des mécanismes de
marché. D’autre part, il est possible d’analyser la stabilité du climat comme
un bien collectif, ni rival ni excluable. Dans ce cas, le marché ne permet pas
de la produire et une intervention des pouvoirs publics est nécessaire. Se
demander si la lutte contre le réchauffement climatique peut reposer sur le
marché consiste alors à questionner l’efficacité de la coordination marchande
pour atteindre les objectifs d’atténuation et d’adaptation à ce phénomène.
Nous allons montrer que cette lutte peut reposer sur des mécanismes de
marché (I). Nous verrons aussi qu’ils nécessitent une gouvernance efficace et
juste : Sommet de la Terre de Rio en 1992 (II).

I. La lutte contre le réchauffement climatique peut passer par le


marché
La question de la lutte contre le réchauffement climatique doit être au cœur
des réflexions actuelles en raison des effets potentiellement destructeurs de ce
dernier. L’origine du phénomène est anthropique et consensuellement
attribuée à l’accroissement du stock de gaz à effet de serre dans l’atmosphère
(CO2, méthane notamment), gaz émanant de l’activité économique. L’analyse
économique propose cependant, depuis près d’un siècle, des réponses
économiques à ce type de phénomène qualifié d’externalité négative à travers
le principe pollueur-payeur, ou encore la mise en place de bonus-malus
permettant de modifier les comportements sur les marchés. Nous allons voir
******ebook converter DEMO Watermarks*******
qu’il existe deux solutions relevant du marché : la taxe, voire la subvention
en cas d’externalité positive (A) et les quotas d’émissions (B).

A. Le principe pollueur-payeur et la taxe pigouvienne


L’économiste britannique A. C. Pigou développe, dans les années 1920, une
réflexion autour du principe pollueur-payeur lorsqu’apparaît une externalité
négative. Il ne s’interroge bien sûr pas sur le réchauffement climatique en
particulier mais sur les conséquences non désirées de l’activité économique
sur un ou plusieurs agents économiques sans que cela donne lieu à l’émission
de signaux-prix qui inciteraient les agents à réduire la production
d’externalités négatives et à accroître la production d’externalités positives.
Les taxes et subventions contribuent alors à modifier les comportements des
agents économiques dans le sens jugé souhaitable. Cette analyse est très
pertinente pour ce qui concerne la lutte contre le réchauffement climatique.
La conceptualisation néoclassique a très tôt mis en évidence les potentiels
échecs de marché comme les externalités. Une externalité est dite négative
lorsque le coût marginal privé de production (subi par le producteur) est
inférieur au coût marginal social de production (subi par la société). Dans
cette circonstance, le coût global n’est pas supporté par le producteur,
puisque l’effet ne donne pas lieu à compensation marchande, et la production
excède la production optimale.
En effet, sous l’hypothèse de rendements décroissants, les coûts
marginaux sont croissants, et l’équilibre de marché est atteinte lorsque le coût
marginal égalise la recette marginale, c’est-à-dire le prix de marché. Mais si
ce coût marginal est plus faible pour le producteur que pour la société, la
production sera établie à un niveau plus élevé que celui reflétant la totalité du
coût marginal. Pour Pigou, la situation n’est pas optimale, ce qui nécessite
une intervention publique visant à internaliser l’externalité, c’est-à-dire à
faire supporter l’ensemble des coûts au producteur. Cela passe par la
détermination d’une taxe dont le montant doit permettre d’égaliser le prix de
marché au coût marginal social de production. C’est le principe pollueur-
payeur mis en avant depuis plusieurs années par différents gouvernements
pour justifier l’instauration de diverses écotaxes.
Le réchauffement climatique peut être analysé comme une externalité
négative dans la mesure où il est avéré que c’est l’activité économique qui a
conduit, depuis la Révolution industrielle, à un accroissement de la
concentration de GES dans l’atmosphère : les hommes utilisent trop de
******ebook converter DEMO Watermarks*******
carbone parce que les coûts liés à l’utilisation du carbone ne sont pas
entièrement payés par les producteurs. La Suède a par exemple décidé de
mettre en œuvre une taxe dès 1991 avec des conséquences plutôt
encourageantes sur les modifications de comportements. Initialement d’un
niveau modeste (27 euros la tonne de CO2 pour les ménages et le secteur des
services, 7 euros pour les industriels et agriculteurs), cette taxe a été
augmentée pour atteindre aujourd’hui 120 euros pour les agents non soumis
au système européen de quotas d’émissions de CO2. Le mix énergétique a
évolué en faveur d’une réduction des émissions avec, en 2014, l’industrie qui
utilise 34 % de biocarburants et 32 % d’électricité principalement issue de
l’hydroélectricité et du nucléaire (M. Cruciani, « La transition énergétique en
Suède », IFRI, 2016). L’objectif d’une émission nette nulle a été fixé à 2045,
ce qui fait de ce pays le plus ambitieux d’Europe occidentale et illustre
l’efficacité de l’instrument fiscal pour internaliser les externalités.
L’intervention fiscale sur le marché, si elle vise à limiter les activités
néfastes, peut également encourager les comportements vertueux. À l’inverse
du principe pollueur-payeur, il s’agit de favoriser les décisions qui
engendrent des externalités positives, c’est-à-dire des bénéfices sociaux
supérieurs aux bénéfices privés. L’utilisation d’un véhicule électrique émet
moins de GES, ce qui est favorable à la société puisque moins de GES c’est
moins de réchauffement climatique. Cependant, le coût privé d’un véhicule
électrique est plus élevé que celui d’un véhicule thermique. C’est la raison
pour laquelle ont été mis en place des bonus écologiques (prise en charge
d’une partie du prix d’achat du véhicule) et autres primes à la conversion
(somme allouée en contrepartie de la destruction d’un véhicule polluant). En
France, ce type d’aide peut atteindre jusqu’à 11 000 euros pour les ménages
les plus modestes ou les plus éloignés de leur lieu de travail.
L’efficacité de l’incitation fiscale est reconnue par la communauté
scientifique des économistes. Il s’agit d’un instrument d’intervention sur les
marchés très puissant. Mais une autre solution marchande de lutte contre les
émissions polluantes est envisagée et mise en œuvre : les marchés de quotas
d’émission.

B. Le principe pollueur-payeur et les marchés de quotas d’émission


À la suite de la signature du Protocole de Kyoto en 1997, les États se sont
engagés à réduire leurs émissions de GES et l’Europe a choisi d’instituer un
marché des quotas d’émission. Cette idée repose sur l’analyse de
******ebook converter DEMO Watermarks*******
l’économiste R. Coase (Prix Nobel 1991) qui s’interroge en 1960 sur la
question du coût social de production (The Problem of Social Coast) et qui
propose à la lumière d’exemples historiques une méthode d’internalisation
des externalités différente de la solution pigouvienne. Il analyse une
jurisprudence anglaise de la fin du XIXe siècle qui oppose un médecin à un
confiseur, le cabinet du premier étant mitoyen de l’atelier du second. Le
médecin se plaint de ne pouvoir travailler lorsque les machines du confiseur
fonctionnent en raison du bruit. Il obtient que le confiseur cesse son activité.
Coase considère qu’une autre solution eût été possible si un marchandage
avait pu être opéré entre les deux protagonistes. Quel montant monétaire le
médecin aurait-il accepté en compensation du désagrément ? Une somme qui
aurait permis son déménagement et/ou la construction d’une isolation
phonique. Coase propose alors, sous la condition que les droits de propriété
soient clairement définis et que les coûts de transaction soient nuls,
d’instituer un marché de droits échangeables qui détermine un prix
permettant de satisfaire toutes les parties.
Cette idée est au cœur de la gestion marchande des émissions polluantes
et repose sur un principe assez simple : devoir payer un prix pour émettre des
GES doit conduire à une réduction des émissions par limitation de l’activité
et/ou innovations dans des procédés de production plus propres. L’Union
européenne a choisi de soumettre les producteurs d’électricité et de l’industrie
lourde à un système d’échange de quotas d’émission (SEQE) à partir
de 2005. Les pouvoirs publics ont, dans la première phase, attribué
gratuitement les quotas d’émission selon un plafond national d’émission.
Cette méthode n’a pas été très efficace puisque les économistes s’accordent à
évoquer un prix de 40 euros la tonne pour avoir des effets significatifs sur la
réduction des émissions de GES. Or, le prix s’est effondré pour stagner en
dessous de 10 euros la tonne à partir de la fin 2011, soit une valeur peu
incitative à la substitution de processus de production carbonés vers des
processus décarbonés. Cela s’explique, d’une part, par le ralentissement
économique qui fait suite aux crises financières déclenchées à partir de 2007-
2008 qui ont eu des effets négatifs sur l’activité (le ralentissement de la
production a conduit à des émissions moindres), et d’autre part, par des
attributions de quotas en quantité trop importante, ce qui provoque une baisse
du prix des quotas (excès d’offre sur le marché). On est là en présence d’une
situation de capture du régulateur puisque les groupes de pression des
secteurs contraints à se soumettre au marché de quotas sont parvenus à
******ebook converter DEMO Watermarks*******
obtenir des autorités européennes une attribution de quotas très généreuse.
Fin 2018, la valeur du carbone sur le marché s’est redressée pour atteindre
25 euros la tonne et une étude de Carbon Tracker estime qu’elle pourrait
atteindre 35 à 40 euros la tonne d’ici 2023.
Ce redressement du prix s’explique principalement par une révision dans
l’attribution des quotas d’émission. En premier lieu, plutôt que de définir un
plafond national, c’est un plafond européen qui a été déterminé, permettant
en ce sens de limiter les comportements de passager clandestin des États qui
cherchent à préserver la compétitivité des producteurs nationaux, ce qui
aurait conduit, à l’image de la concurrence fiscale, à jouer sur la
« concurrence carbone ». Mais surtout, un mécanisme de stabilité a été mis en
place afin de retirer du marché certains quotas d’émissions lorsque les prix
s’effondrent. En effet, la réduction de l’offre sur le marché conduit à un
accroissement du prix de la tonne de CO2 émise. Et comme le rappelle
Carbon Tracker à propos de la production d’électricité, la mise en place d’une
production moins émettrice de CO2 (usage du gaz plutôt que du charbon)
renchérit le coût d’utilisation de l’énergie et doit conduire les consommateurs
finaux à préférer les économies d’énergie.
Ainsi, comme nous l’avons montré, la science économique ​propose des
instruments d’intervention sur le marché visant à modifier les ​comportements
par des incitations qui peuvent prendre la forme de taxes, de subvention ou de
quotas d’émissions. Leur mise en œuvre a connu des succès plus ou moins
grands selon les circonstances mais ne semble pas avoir suffi à juguler le
réchauffement climatique. Il est manifeste que le recours au marché n’est pas
suffisant.

II. Au-delà du marché : la question de la gouvernance dans la


lutte contre le réchauffement climatique
La lutte contre le réchauffement climatique nécessite une gouvernance
cohérente et globale qui va au-delà du marché. Cette gouvernance repose sur
une mise en cohérence des instruments de lutte au niveau national comme
supranational. Comme le montre l’analyse économique, un bien collectif, à
l’image de la stabilité du climat, ne peut pas être produit par le marché, mais
comme cette question dépasse la souveraineté des États, une action plus
globale doit être entreprise (A). Cependant, des questions de justice sociale
apparaissent à la fois au niveau des sociétés nationales (fiscalité, interdictions
de circuler, etc.) et entre économies développées et en développement ou
******ebook converter DEMO Watermarks*******
émergentes (B).

A. Le climat comme bien collectif nécessite une action globale


L’analyse économique néoclassique propose des solutions en présence
d’externalités par le recours au marché (fiscalité ou quota). Ce n’est pas
envisageable pour ce qui concerne les biens collectifs, c’est-à-dire des biens
qui ne sont ni rivaux, ni excluables. C’est le cas de la stabilité climatique. En
effet, lorsqu’un agent économique bénéficie de la stabilité du climat, les
autres agents peuvent simultanément en user car il n’y a pas de rivalité
contrairement à un bien privatif, comme une paire de chaussures, qui ne peut
satisfaire simultanément plusieurs consommateurs. De même, il n’est pas
envisageable d’exiger le paiement d’un prix pour accéder à la stabilité
climatique puisqu’il suffirait qu’un seul agent paie pour que les autres
profitent de ce paiement. Il n’est donc pas rationnel qu’un agent décide de
payer pour tous, chacun optant pour une stratégie de passager clandestin. La
coordination marchande ne permet pas de produire un bien collectif, et seul
l’État, par son pouvoir de lever l’impôt (et donc d’exiger que chacun paie
indirectement), peut le produire (ou le faire produire).
L’absence d’État mondial pose alors un problème de gouvernance
climatique. C’est dans le cadre de la Convention-cadre des Nations unies sur
les changements climatiques (CCNUCC), issue du Sommet de la Terre tenu à
Rio en 1992, que vont s’ouvrir des discussions sur la question climatique.
C’est ainsi qu’est signé le Protocole de Kyoto en 1997 qui établit des
objectifs de réduction des émissions de GES pour les pays développés, mais
laissant les pays en développement en dehors de ce type de contraintes afin
de leur permettre un rattrapage économique. Des négociations régulières sont
organisées, les Conférences des parties (COP), et celle de Copenhague
en 2009 (COP15) apparaissent comme des échecs. Un espoir survient
cependant après la signature de l’Accord de Paris en 2015 (COP21) à
l’unanimité qui engage les signataires à contenir le réchauffement climatique
à deux degrés par rapport à la période préindustrielle. Mais cet engagement
repose sur des objectifs volontaires (chaque État définit son propre objectif)
et non contraignants. Il n’existe en effet aucune instance de contrôle et de
coercition permettant d’obliger le respect de ces engagements.
Par ailleurs, le retrait des États-Unis de l’Accord de Paris en 2017 montre
la fragilité de la méthode de coordination non contraignante qu’est l’ONU.
Les engagements pris lors de cette COP21 ne suffisent d’ailleurs pas à
******ebook converter DEMO Watermarks*******
contenir le réchauffement climatique à deux degrés d’ici 2050. Selon
J. Olivier, leur respect devrait conduire à un réchauffement d’environ trois
degrés, ce qui est moins important que la poursuite du rythme actuel
(quasiment cinq degrés) mais insuffisant pour éviter des effets délétères
(fonte des glaciers et du permafrost, acidification des océans, migrations
climatiques, désertification, etc).
La stabilité climatique relève d’une action globale qui ne peut pas être
mise en œuvre que par des États nationaux coordonnant leurs actions
puisqu’il n’existe pas de « maître des horloges » mondial. Il apparaît
cependant que les comportements opportunistes empêchent l’action. D’une
part, la mise en concurrence des territoires dans le cadre de la mondialisation
commerciale et productive réduit l’efficacité de toute action nationale. En
effet, les segments productifs les plus polluants sont implantés sur les
territoires les moins contraignants. Les économistes parlent à ce propos de
fuites de carbone puisque, si la production locale est moins émettrice de GES,
ce n’est pas le cas de la consommation de produits importés ou partiellement
fabriqués dans des territoires aux contraintes moins fortes. Ainsi, le Réseau
Action Climat estime que, si l’Union européenne, considérée comme un bon
élève, a réduit ses émissions de GES de 10 % entre 2000 et 2010, elle les a
accrues de 9% en tenant compte du solde des émissions exportées et
importées. D’autre part, l’action en faveur du climat nécessite des politiques à
long terme qui ne coïncident pas nécessairement avec le cycle politique.
Ainsi, l’administration Obama engage les États-Unis dans l’Accord de Paris
mais l’administration Trump l’en retire après une campagne électorale
climato-sceptique de l’actuel président.
En fin de compte, en présence d’un bien collectif comme la stabilité
climatique, une action de l’État est nécessaire. Cependant, il n’existe pas
d’État mondial et la coordination de l’action repose sur une gouvernance qui
manque de capacité coercitive. C’est donc la coordination par la coopération
qu’il faut développer. Surtout, l’effort financier lié au réchauffement
climatique doit être juste, qu’il repose sur le marché ou pas.

B. La lutte contre le réchauffement : un impératif de justice


La lutte contre le réchauffement climatique peut reposer sur des instruments
de marché comme le principe pollueur-payeur ou comme les marchés de
quotas d’émission, mais cela ne suffit pas. Des règlementations peuvent être
imposées aux agents économiques également. Mais dans tous les cas, cette
******ebook converter DEMO Watermarks*******
lutte interroge sur la justice des procédures. Comme le rappelle le rapport du
Conseil économique, social et environnemental qui lui est consacré (2016), la
justice climatique doit conduire à ce que la lutte contre le réchauffement
climatique n’accroisse pas les inégalités (question de justice) car c’est le
meilleur moyen de la rendre acceptable (question d’efficacité). Cette question
se pose au niveau international comme au niveau national, et elle se pose en
termes d’atténuation (réduction des émissions) comme en termes d’adaptation
(les plus pauvres seront les principales victimes si rien n’est fait).
Au niveau international, le Protocole de Kyoto distinguait les pays
développés des pays en développement, l’accord de réduction des émissions
ne concernant que les premiers, considérés comme principaux responsables
des émissions de GES. Ils sont à l’origine du développement industriel qui
repose initialement sur l’usage du charbon, l’énergie fossile la plus polluante.
Lors de la COP15 de Copenhague, un accord est trouvé pour financer
l’atténuation et l’adaptation des pays les plus pauvres à travers
l’institutionnalisation d’un Fonds vert qui doit être abondé à hauteur de
100 milliards de dollars annuels d’ici 2020. En 2015, les Nations unies
établissent le financement de ce fonds comme l’une des cibles des Objectifs
de développement durable. Ce fonds est principalement utilisé dans le
financement de mesures d’atténuation. Pour ce qui concerne les mesures
d’adaptation, ce sont essentiellement de petits États insulaires, souvent
archipélagiques comme les îles Tonga, qui en bénéficient car ils sont soumis
à la montée des océans mais également aux phénomènes météorologiques
extrêmes plus fréquents comme les cyclones et ouragans. Mais de manière
plus générale, et c’est l’un des arguments du président indien N. Modi, il
semble difficile de comprendre comment ceux qui sont les principaux
responsables des émissions historiques de GES, qui vivent dans un confort
relativement satisfaisant, pourraient imposer des restrictions empêchant la
majorité de la population mondiale d’accéder à un mode de vie similaire. Le
mode de vie de l’Américain moyen n’étant pas généralisable aux 10 milliards
d’habitants prévus en 2050, la question de l’accompagnement vers le
développement devient centrale en parallèle de la modification des modes de
vie polluant du Nord.
D’autre part, quels que soient les territoires observés, ce sont toujours les
plus pauvres qui sont victimes du dérèglement climatique. Il est assez simple
d’illustrer cela à travers l’exemple des ravages causés par l’ouragan Katrina à
la Nouvelle-Orléans en 2005. Parmi les plus de 1800 victimes, une très
******ebook converter DEMO Watermarks*******
grande majorité était pauvre, principalement afro-américaine. Plus
récemment, de nombreux éléments vont dans ce sens : l’interdiction de
l’accès des véhicules diesel d’un certain âge au centre de Paris pénalise les
ménages éloignés du centre et propriétaires de véhicules anciens ;
l’accroissement de la taxe carbone est perçu comme une injustice pour les
ménages les plus modestes dont les logements sont mal isolés.
Ainsi, comme le rappelle l’économiste É. Laurent dans son ouvrage Le
bel avenir de l’État-providence (2014), il convient de « réconcilier
la question sociale et le défi environnemental » pour repenser l’État-
providence comme un État social-écologique. Les risques liés aux émissions
de GES sont à présent bien identifiés et leur mutualisation pourrait reposer
sur des assurances sociales-écologiques, à l’image des assurances sociales qui
se développent après la Deuxième Guerre mondiale. Mais mettre en œuvre la
transition écologique c’est aussi pour lui atteindre deux doubles dividendes :
santé-climat et emploi-climat. Lutter contre les émissions de GES améliore la
santé de la population et potentiellement la productivité de ses actifs. Par
ailleurs, pour lutter contre les émissions de GES il faut créer des emplois
dans les énergies renouvelables mais également pour les actions d’atténuation
comme l’isolation thermique des bâtiments.
Ainsi, que les instruments privilégiés dans la lutte contre le réchauffement
climatique relèvent du marché ou de la règlementation, ils doivent être justes
pour être acceptés. Cette justice sociale-écologique nécessite une action
publique volontariste qui laisse penser que s’en remettre uniquement au
marché ne suffit pas.

Conclusion
En définitive, s’en remettre au marché pour lutter contre le réchauffement
climatique n’est pas dénué de sens. Les économistes proposent des
instruments d’intervention sur le marché (taxe, bonus) qui ont une certaine
efficacité. De même, l’institutionnalisation de marchés de quotas d’émission
bien calibrés peut limiter les émissions de GES et par là même le
réchauffement climatique. Cependant, considérer que le marché suffit à
l’atténuation et l’adaptation au réchauffement est en revanche illusoire. Il
convient en effet de coordonner les actions de lutte au niveau international, ce
qui n’est pas toujours aisé. Surtout, ces actions doivent être justes aux yeux
des plus démunis (États comme citoyens) pour apparaître comme légitimes et
acceptées.
******ebook converter DEMO Watermarks*******
À cet égard, au-delà de la question de la lutte contre le réchauffement
climatique, le mouvement des « gilets jaunes » en France apparu pendant
l’hiver 2018-2019 interroge nos démocraties. Le rejet massif des élites
politiques et le sentiment de ne pas être représenté nécessite sans doute de
repenser l’organisation politique vers davantage de participation citoyenne à
la prise de décision collective et notamment sur la question du réchauffement
climatique.

******ebook converter DEMO Watermarks*******


Sujet 13 Faut-il des règles de
politique économique ?

1 Se préparer à la rédaction

1.1 L’enjeu du sujet


La question posée concerne les règles de politique économique et la
pertinence de leur mise en œuvre. Ainsi, une erreur consisterait à vouloir
débattre de la pertinence de l’existence de la politique économique, en
l’occurrence les politiques conjoncturelles, c’est-à-dire la politique
monétaire, la politique budgétaire et leur coordination à travers le policy-mix.
Le sujet porte sur la question de la conception et de la mise en œuvre des
politiques économiques conjoncturelles. Leur étude est un champ
disciplinaire initié après la Grande Dépression des années 1930 par la pensée
keynésienne dont la proposition centrale consiste à légitimer l’action
monétaire et/ou budgétaire des pouvoirs publics en cas d’équilibre de sous-
emploi, c’est-à-dire lorsque la coordination par le marché ne permet pas
d’utiliser pleinement les facteurs de production disponibles, en particulier le
travail. Les politiques économiques conjoncturelles sont alors
discrétionnaires.
L’analyse a été grandement renouvelée à partir des années 1960 avec le
développement des critiques du keynésianisme de la synthèse, alors fondé sur
le modèle IS-LM et la courbe de Phillips. J. Pisani-Ferry interprète cette
évolution de la théorie économique comme une conséquence de changements
majeurs, notamment la prise en compte du temps dans l’analyse de la
décision publique et dans le comportement des agents économiques (théories
des anticipations, incohérence temporelle) et le développement de l’économie
des choix publics (école dite du public choice) mettant en avant les possibles

******ebook converter DEMO Watermarks*******


défaillances de l’État.

1.2 Le cadrage et les concepts clés


La théorie économique dans son ensemble a été traversée par les débats
concernant le rôle de l’État et son intervention économique. L’analyse
keynésienne connaît un succès important auprès des économistes et des
décideurs politiques à la suite de la Grande Dépression des années 1930 et va
guider l’action publique à partir de cette période. En 1959, R. Musgrave
établit trois fonctions à l’État dont celle de stabilisation de l’activité
économique (les deux autres fonctions étant celles d’allocation des ressources
et de répartition des revenus) qui sera mise en œuvre grâce aux politiques
économiques conjoncturelles. Si l’analyse keynésienne des Trente Glorieuses
a été fondée sur des relations économiques comme l’arbitrage inflation-
chômage, les réflexions en termes de règles apparaissent dans la critique du
keynésianisme de la synthèse. Les différentes théories qui en découlent
conduisent à proposer que la politique économique soit soumise à des règles
de fonctionnement, à l’image du contrôle de l’évolution de la masse
monétaire pour garantir la stabilité des prix (règle dite du k % attribuée à
M. Friedman, initiateur du monétarisme).
La crise du mode de régulation fordiste à la fin des années 1960 et
l’inefficacité des politiques conjoncturelles keynésiennes au cours de la
période de stagflation des années 1970 ont renforcé les arguments des
économistes opposés à la discrétion. Ainsi, en 1977, F. Kydland et E. Prescott
publient un article fondamental concernant la politique monétaire : “Rules
Rather than Discretion: The Inconsistency of Optimal Plans” (« Des règles
plutôt que des décisions discrétionnaires : l’inconsistance des prévisions
optimales »). Par ailleurs, les contraintes pesant sur les États européens, ceux
de la zone euro en particulier, conduisent les autorités à imaginer des règles
budgétaires dans le cadre des traités qui accompagnent la création de l’euro.

1.3 La construction de la problématique


La question posée appelle ainsi deux réflexions qui vont orienter le
développement de la dissertation :
1) Pour quelles raisons des règles de politique économique devraient-
elles être mises en œuvre ? Il convient de contrôler l’action des pouvoirs
publics pour en éviter les dérives et il importe d’ancrer les anticipations
******ebook converter DEMO Watermarks*******
des agents pour gagner en efficacité.
2) Quelles sont les règles qui sont pertinentes et celles qui ne le sont
pas ? Les règles peuvent avoir un effet négatif et empêcher la
stabilisation de l’activité économique. Elles deviennent alors inefficaces.

2 Rédiger le devoir : une proposition

Introduction
À l’automne 2018, la Commission européenne a retoqué le projet de budget
du gouvernement italien qui présente un déficit public de 2,4 %, en dessous
du seuil des 3 % fixés par les règles du Pacte de stabilité et de croissance
(PSC). Elle a justifié cette décision par deux éléments. Tout d’abord, ce
déficit excède les engagements du précédent gouvernement (déficit de
0,8 %). Mais surtout, la dette publique italienne dépasse largement le seuil de
60 % du PSC (elle atteint en effet 130 % du PIB), et un tel déficit ne
permettrait pas de la voir refluer. Si l’Europe monétaire s’est construite sur
des règles budgétaires de contrôle de la dépense publique à partir des
années 1990, la question du contrôle réglementaire de l’action économique
des pouvoirs publics se pose depuis les années 1960.
Les règles de politique économique peuvent se définir comme des
mécanismes automatiques de mise en œuvre de ces politiques, connus par les
agents économiques et respectés par les pouvoirs publics quoi qu’il advienne.
À l’inverse, les politiques sont dites discrétionnaires lorsque les responsables
politiques peuvent en décider au cas par cas selon leur évaluation de la
situation. La réflexion sera axée sur les politiques économiques
conjoncturelles, c’est-à-dire la politique monétaire et la politique budgétaire
qui visent à stabiliser l’activité économique. Pourquoi les pouvoirs publics
devraient-ils être neutralisés dans la mise en œuvre de la politique
économique conjoncturelle ? Quels sont les contrôles qui sont les plus
pertinents ? De quelles marges de manœuvre les pouvoir publics devraient-ils
être dotés ? En réponse aux critiques émises à l’encontre des prescriptions
keynésiennes de politique économique, l’action économique des pouvoirs
publics semble devoir être de plus en plus contrôlée (I). Cependant, la
question de l’efficacité des règles nécessite d’être analysée (II).

I. De la discrétion à la règle : pourquoi les règles de politique


******ebook converter DEMO Watermarks*******
économique se sont-elles imposées ?
Les politiques économiques conjoncturelles élaborées après la crise de 1929
reposent généralement sur l’action discrétionnaire des pouvoirs publics (A).
Cependant, l’inefficacité de ces politiques après les chocs pétroliers des
années 1970 conduit à proposer des règles de politique économique
conjoncturelle (B).

A. De l’inefficacité de l’action discrétionnaire…


La macroéconomie qui fonde les politiques économiques discrétionnaires est
instituée après la publication de la Théorie générale de l’emploi, de l’intérêt
et de la monnaie de J. M. Keynes en 1936. J. R. Hicks (Prix Nobel 1972)
propose dès 1937 (“Mr. Keynes and the ‘Classics’: A Suggested
Interpretation”) le modèle qui va guider les politiques de stabilisation de
l’activité économique : le modèle IS-LM. En cas d’équilibre de sous-emploi,
c’est-à-dire de situation macroéconomique d’équilibre sur le marché des
biens et services et sur le marché de la monnaie mais en présence d’un
chômage involontaire, les pouvoirs publics peuvent stimuler l’activité par la
politique monétaire (réduction du taux d’intérêt stimulant l’investissement et
la demande adressée à l’économie) et/ou par la politique budgétaire
(accroissement de la demande publique) pour atteindre le plein-emploi.
À la fin des années 1950, l’économiste A. W. Phillips met en évidence
une relation inverse entre taux de croissance du taux de salaire nominal et
taux de chômage : plus le taux de chômage est faible, plus la croissance du
taux de salaire nominal est élevée puisque la réduction du chômage crée des
tensions sur le marché du travail. La réinterprétation de cette courbe par
P. Samuelson (Prix Nobel 1970) et R. Solow (Prix Nobel 1987) établit la
possibilité d’un arbitrage entre inflation et chômage que les pouvoirs publics
peuvent mener par des politiques discrétionnaires d’austérité, quand
l’inflation s’accélère, et de relance quand le chômage devient trop élevé.
C’est le fondement des politiques de stop and go menées notamment en
Grande-Bretagne pendant les Trente Glorieuses.
Cependant, ce pouvoir économique discrétionnaire est de plus en plus
critiqué au cours des années 1960 et l’échec des politiques conjoncturelles
mises en œuvre au cours des années 1970 renforce ces critiques. M. Friedman
(Prix Nobel 1976), l’un des plus fervents opposants aux politiques
économiques keynésiennes, rejette l’idée qu’une politique monétaire
discrétionnaire puisse être efficace. Il fonde son analyse sur l’hypothèse
******ebook converter DEMO Watermarks*******
d’anticipations adaptatives des agents économiques selon laquelle ils
modifient leurs comportements au vu des erreurs passées. Ainsi dans son
analyse monétariste, il considère que « l’inflation est toujours et partout un
phénomène monétaire », la quantité de monnaie en circulation déterminant en
dernière instance le niveau général des prix. Dans ces conditions, une
politique monétaire expansionniste visant à relancer l’activité, si elle peut
avoir un effet réel à court terme, ne conduit qu’à l’inflation à long terme,
cette inflation apparaissant d’autant plus vite que les agents ont appris des
politiques monétaires passées et adapté leurs comportements. La courbe de
Phillips devient verticale à long terme, révélant ainsi un « taux de chômage
naturel » de l’économie contre lequel une politique conjoncturelle
expansionniste ne peut rien.
Par ailleurs, Friedman met en évidence les décalages temporels entre
action sur les taux d’intérêt des autorités monétaires et situation
conjoncturelle risquant de renforcer le cycle économique : en décidant par
exemple de baisser les taux directeurs suite à un ralentissement conjoncturel,
le risque est que la décision soit tardive et ait des effets au moment où
l’activité repart, ce qui crée des tensions inflationnistes. C’est pourquoi le
père du monétarisme propose que les autorités monétaires abandonnent la
politique discrétionnaire de taux pour une règle de politique monétaire
agissant sur la masse monétaire dite règle du k %.
La théorie quantitative de la monnaie repose sur l’équation des échanges
d’I. Fisher qui égalise la monnaie disponible dans l’économie (MV pour la
masse monétaire multipliée par la vitesse de circulation de la monnaie) et
l’ensemble des transactions réalisées (PT pour le niveau général des prix
multiplié par le volume des échanges). En considérant que la vitesse de
circulation est stable, que le volume des transactions n’est pas affecté par les
variables monétaires (dichotomie), un accroissement de la masse monétaire
(M) conduit nécessairement à un accroissement du niveau général des prix
(P), soit de l’inflation. En conséquence, sachant que les transactions
augmentent au rythme de la production (le trend de croissance), une masse
monétaire évoluant à ce même rythme n’est pas inflationniste. Ainsi, si on
appelle k % le taux de croissance de la production, un taux de croissance de
k % de la masse monétaire n’est pas inflationniste. Cette analyse a influencé
les autorités monétaires qui intègrent, ou ont intégré, l’évolution de la masse
monétaire comme objectif intermédiaire de leur politique monétaire. La mise
en œuvre de règles va ensuite se généraliser.
******ebook converter DEMO Watermarks*******
B. … à la mise en œuvre de règles de politique économique
L’économiste français J. Pisani-Ferry rappelle que l’évolution de l’analyse
économique a modifié la vision du rôle des pouvoirs publics dans l’économie
et conduit à considérer que les pouvoirs publics devaient être contrôlés. Il
identifie des évolutions théoriques poussant en ce sens : la prise en compte du
temps et des anticipations des agents économiques, le développement des
analyses en termes d’économie politique (l’école des choix publics considère
les décideurs politiques comme des acteurs rationnels maximisant leur
intérêt).
La mise en œuvre de la politique monétaire a également évolué avec
l’analyse de F. Kydland et E. Prescott (Prix Nobel 2004) qui publient en 1977
un article intitulé “Rules Rather than Discretion: the Inconsistency of Optimal
Plans” (« Des règles plutôt que des décisions discrétionnaires :
l’inconsistance des prévisions optimales »), fondé sur l’hypothèse
d’anticipations rationnelles des agents économiques. Ceux-ci n’ont pas
besoin d’un temps d’adaptation pour comprendre les conséquences d’une
décision de politique économique. Dès lors, une règle de politique
économique clairement énoncée permet d’ancrer les anticipations, c’est-à-
dire de lever les incertitudes quant aux décisions qui sont prises. Cependant,
l’analyse s’appuie sur un autre élément : la crédibilité de la parole donnée.
Considérant que l’homme politique rationnel agit en vue de sa réélection, le
risque est grand de voir celui-ci renoncer à la règle et sombrer dans
l’incohérence temporelle. Pour éviter cet écueil, il convient de confier la mise
en œuvre de cette politique monétaire à une banque centrale indépendante du
pouvoir politique.
Cette analyse est renforcée par les critiques émises par l’école des choix
publics (public choice), en particulier par celle de W. Nordhaus, pour qui la
politique économique est déterminée par le cycle électoral. Il conduit les
candidats à leur propre succession à arbitrer en faveur de l’inflation à la veille
des élections et à mettre en œuvre une politique monétaire expansionniste en
dehors de toute considération du cycle économique. Une fois élus, ils
n’hésitent pas à revenir sur ces politiques et à arbitrer en faveur du chômage
même si ce n’est pas économiquement justifié. En conséquence, une autorité
monétaire indépendante du pouvoir politique mettant en œuvre une politique
monétaire à partir de règles, et non de manière discrétionnaire, serait plus
efficace.
Les défaillances de l’État mises en évidence par l’école des choix publics
******ebook converter DEMO Watermarks*******
(objectifs d’accès au pouvoir et capture de la décision publique par des
intérêts particuliers notamment) se retrouvent à propos de la mise en œuvre
de la politique budgétaire. Il est d’ailleurs notable qu’un institut statistique
comme l’Insee en France intègre le cycle électoral à l’analyse de la dépense
budgétaire des collectivités territoriales. Ainsi, la baisse des investissements
publics municipaux en 2015 en France s’explique par la fin du cycle électoral
communal. La question de ​l’endettement public et de l’hypothétique report de
la charge de la dette sur les générations futures justifie l’existence de règles
budgétaires.
Depuis la signature du Traité de Maastricht déterminant les conditions de
qualification pour l’intégration à la zone euro, un contrôle budgétaire strict
est mis en œuvre. Il passe par des seuils maxima de déficit public et de dette
publique en pourcentage du PIB. Le Pacte de stabilité et de croissance
de 1997 reprend les critères de Maastricht et fixe le seuil de déficit public à
3 % du PIB et celui de dette publique à 60 %. Ces règles budgétaires visent à
éviter qu’apparaisse un effet boule de neige de la dette, c’est-à-dire une
situation dans laquelle la charge de la dette (les intérêts payés sur la dette)
nécessite un endettement supplémentaire pour la couvrir. Pour J.-P. Fitoussi,
entre La règle et le choix (2002), c’est la règle qui s’est imposée. De même,
aux États-Unis, il existe un plafond de la dette voté par le Congrès qui
conduit à des coupes automatiques dans les dépenses publiques lorsqu’il est
atteint. En 2013 les tensions entre le président Obama, démocrate, et le
congrès républicain ont failli conduire à des coupes budgétaires d’environ
400 milliards de dollars dont les conséquences récessives auraient été
élevées, et sans doute électoralement coûteuses aux Républicains. C’est
pourquoi, les deux camps ont trouvé un accord et ce plafond a été relevé.
Ainsi, si la révolution keynésienne a permis d’envisager l’action
économique conjoncturelle des pouvoirs publics, la pertinence d’une action
discrétionnaire a été remise en question par les analyses critiques du
keynésianisme. Aujourd’hui, les règles de politiques économiques sont
devenues la règle.

II. Quelles règles pour quelle efficacité ?


En pratique, les pouvoirs publics se sont dotés de règles de politique
économique au niveau monétaire comme au niveau budgétaire. L’analyse
économique a proposé d’identifier quelles étaient les bonnes règles de
politique économique (A). Pour autant, non seulement il peut être difficile
******ebook converter DEMO Watermarks*******
d’en concilier toutes les caractéristiques mais tous les économistes ne
partagent pas ce principe de contrôle réglementaire (B).

A. Qu’est-ce qu’une bonne règle de politique économique ?


Aujourd’hui, la politique monétaire est mise en œuvre de manière plus ou
moins indépendante par la banque centrale. L’indépendance par rapport au
pouvoir politique peut être totale (fixation des objectifs et instruments de
politique monétaire) comme pour la BCE ou centrée sur les instruments
comme pour la Banque d’Angleterre. La difficulté pour le banquier central
consiste à fixer une stratégie monétaire efficace et cela peut passer par des
règles.
L’économiste suédois L. Svensson distingue trois types de règles : les
règles instrumentales, les règles de ciblage, les règles de ciblage
intermédiaire. Dans le premier cas, il s’agit d’établir une relation entre la
valeur de l’instrument de politique monétaire et des variables
macroéconomiques. Un exemple en est la fameuse règle proposée par
J. Taylor en 1993. Cette règle relève d’un travail empirique de l’économiste
qui établit une relation entre taux directeur, écart de production (différence
entre la croissance réalisée et la croissance potentielle de l’économie) et écart
inflationniste (différence entre inflation mesurée et cible d’inflation). Un
écart de production négatif pèse à la baisse sur le niveau des taux directeurs,
un accroissement des prix supérieur à la cible pèse à la hausse. Cette règle
explique assez bien les décisions de la Fed sans pour autant qu’un mécanisme
automatique ait été mis en place par les autorités monétaires américaines. Les
règles de ciblage consistent à établir les objectifs poursuivis, le plus répandu
étant le ciblage de l’inflation. C’est par exemple le cas de la BCE qui a un
objectif d’inflation proche de 2 % par an. Cette règle n’est pas mécanique et
laisse le champ libre pour déterminer la politique monétaire à mettre en
œuvre. À la suite de la crise financière, l’inflation a très fortement ralenti en
zone euro, au point de laisser craindre une dynamique de déflation. Pour
juguler ce ralentissement, M. Draghi a mis en œuvre des politiques
monétaires non conventionnelles. Enfin, il existe des règles de ciblage
intermédiaire qui consistent à contrôler un objectif intermédiaire corrélé à
l’objectif final. C’est le cas de la règle du k % puisque la stabilité des prix est
obtenue par le contrôle de la masse monétaire. Pour la BCE, il s’est agi
jusqu’en 2003 de contrôler l’évolution de l’agrégat monétaire M3 avec un
objectif de croissance de 4,5 % par an correspondant à 2 % d’inflation et
******ebook converter DEMO Watermarks*******
2,5 % de croissance en volume.
Le contrôle réglementaire de la politique budgétaire a donné lieu à une
vaste littérature économique et a été organisé par les pouvoirs publics,
notamment en Europe. En 1998, G. Kopits et S. Symanski ont défini une
règle budgétaire idéale permettant d’éviter les dérapages financiers et
assurant la soutenabilité de l’endettement. Elle doit présenter huit
caractéristiques : clarté, transparence, simplicité, flexibilité, pertinence,
capacité coercitive, cohérence, efficience. Cela peut passer par un
plafonnement de dépenses ou encore une règle d’équilibre budgétaire à
l’image du choix de l’Allemagne d’inscrire dans sa constitution l’obligation
pour l’État fédéral de présenter un déficit public inférieur à 0,35 % du PIB
sur le cycle économique. Cependant, ces nombreux critères sont
potentiellement contradictoires : une règle flexible perd nécessairement en
simplicité. P. Artus considère, quant à lui, deux conditions pour que des
règles de politique budgétaire soient efficaces. Elles doivent être
raisonnables, c’est-à-dire permettre au budget de jouer son rôle de
stabilisation de l’activité économique. Elles doivent également être crédibles,
c’est-à-dire qu’elles seront respectées par les États qui y sont soumis.
L’économiste ne considère pas que le contrôle actuel des politiques
budgétaires en zone euro respecte ces deux critères.

B. De l’insuffisance des règles à leur rejet


La crise financière déclenchée en 2007-2008 a mis en avant la nécessité de
mettre en œuvre une action de politique monétaire discrétionnaire. En effet, à
partir du moment où le taux directeur, principal instrument de politique
monétaire, est fixé à 0 % ou très proche de 0 %, la banque centrale se doit
d’innover. En l’absence de cet instrument, plus de règle de Taylor effective
pour la Fed qui a dû mettre en œuvre plusieurs politiques de Quantitative
Easing, c’est-à-dire de rachats programmés de titres dans l’objectif de
dynamiser l’activité économique, notamment par la stimulation du crédit et
par les effets de richesse associés à l’accroissement du prix des actifs
financiers. C’est B. Bernanke alors président du Conseil des gouverneurs de
la Fed qui a imaginé ce programme, s’inspirant de ce que fit la Banque du
Japon au début des années 2000, et qui a été suivi par les principales banques
centrales des pays développés, y compris par la BCE mais plus tardivement.
Quelle que soit l’économie concernée, les autorités monétaires ont
communiqué sur ces politiques monétaires de manière à ancrer les
******ebook converter DEMO Watermarks*******
anticipations des agents financiers. Il s’agit dans ce cas de ne pas les
surprendre et d’éviter toute surréaction de leur part. Une illustration en est
l’effet stabilisant qu’a eu l’annonce par M. Draghi en 2012, nouvellement
nommé à la présidence de la BCE, que tout serait fait pour sauver l’euro en
pleine crise grecque. Pour crédibiliser son propos il a présenté un programme
potentiel de rachat de titres publics, ce qui a suffi à « calmer » les marchés.
Ainsi, même si des règles de politiques monétaires peuvent être identifiées,
elles ne peuvent suffire en toute circonstance, ce qui nécessite ce que
Bernanke a appelé une « discrétion contrainte ».
Les règles de politique budgétaire sont, quant à elles, difficiles à mettre en
œuvre, voire contre-productives pour certains économistes. Qu’il s’agisse du
plafond de la dette aux États-Unis ou des critères du PSC en zone euro, ils ne
sont pas respectés. Depuis sa création, le plafond de la dette a été sans cesse
accru par le Congrès, et les 3 % de déficit public en zone euro ont
fréquemment été dépassés, et en premier lieu par la France et l’Allemagne.
C’est analysé dans le cas de la zone euro comme la conséquence de sanctions
insuffisantes ou peu crédibles. En effet, lorsque le non-respect de ce critère
pouvait ne pas qualifier pour le passage à l’euro, tous les gouvernements se
sont appliqués à le respecter. Depuis c’est beaucoup moins le cas. C’est sans
doute ce qui explique la volonté du ministre allemand des Finances
W. Schäuble d’exclure la Grèce de la zone euro pour non-respect du Pacte et
en faire un exemple de sanction. La Commission a plutôt choisi de faire
évoluer les règles budgétaires en automatisant les sanctions en cas de
procédure de déficit excessif, et en contrôlant ex ante le budget de chaque
État dans le cadre du semestre européen. C’est à ce titre que le projet de
budget italien a été retoqué en octobre 2018. Enfin, une nouvelle règle dite
« règle d’or » a été imaginée dans le cadre du Traité pour la stabilité, la
coordination et la gouvernance (TSCG) signé en 2012. Il s’agit d’imposer à
chaque État un équilibre ou un excédent budgétaire à moyen terme.
L’équilibre budgétaire correspond à un déficit structurel de – 0,5 % du PIB
pour un pays endetté au-delà de 60 % du PIB, et – 1 % du PIB pour un pays
endetté en-deçà.
Les règles de politique budgétaire mises en œuvre en Europe ont été
critiquées par de nombreux économistes, partisans ou opposants des règles
budgétaires. Tous s’accordent en effet à considérer qu’en l’état elles ont des
effets pro-cycliques et non contra-cycliques comme le nécessiterait toute
action budgétaire. A. Bénassy-Quéré et X. Ragot considèrent par exemple
******ebook converter DEMO Watermarks*******
qu’il faut conserver un contrôle de la politique budgétaire à travers le
semestre européen mais qu’il faut le rendre plus cohérent, notamment en
analysant les déséquilibres au niveau de la zone euro et pas seulement État
par État. D’autres économistes sont beaucoup plus critiques à l’image de
C. Mathieu et H. Sterdyniak qui rejettent ces règles budgétaires. Il s’agit en
effet pour eux de contraintes incohérentes face au rôle que doivent jouer les
budgets publics (action contra-cyclique), et en raison d’une conception
théorique infondée.
Alors que la croissance économique reste faible et le chômage élevé dans
un grand nombre de pays, que la transition énergétique nécessite des
financements et qu’un excès d’épargne existe en zone euro, aucune relance
budgétaire ne semble possible. Par ailleurs, parler de « règle d’or » dans le
cadre du TSCG est trompeur. En effet, la règle d’or des finances publiques
consiste, selon P. Leroy-Beaulieu, à ne pas financer les dépenses courantes
par le déficit. En revanche, les investissements générant de l’activité à long
terme peuvent être financés par endettement. Enfin, fonder une règle
budgétaire sur le déficit structurel est problématique. En effet, cet indicateur
repose sur le PIB potentiel d’une économie, agrégat qui ne peut pas être
observé et doit être construit sous diverses hypothèses. Or, les évaluations ne
sont pas nécessairement convergentes et cette règle ne peut pas être
rigoureusement appliquée. La discipline budgétaire est devenue un objectif
alors qu’elle ne devait être qu’un moyen de contrôle des dérives, annihilant
dès lors toute velléité de politique budgétaire.

Conclusion
Ainsi, un grand nombre de critiques ont été émises à l’encontre des politiques
économiques conjoncturelles d’inspiration keynésienne. Elles ont conduit à
contrôler l’action des pouvoirs publics par des règles de politique
économique. Cela a d’abord été le cas des politiques monétaires mises en
œuvre par des banques centrales indépendantes définissant les objectifs et/ou
instruments de cette politique monétaire. Ensuite, ce sont les politiques
budgétaires qui ont été contraintes, notamment dans le cas européen où les
règles ont été poussées très loin, au point de proposer la quasi-automaticité
des sanctions dans le TSCG. Cependant, ces règles se sont avérées
procycliques et ont empêché que les politiques économiques conjoncturelles
jouent leur rôle de stabilisation du cycle économique. C’est pourquoi certains
prônent aujourd’hui leur révision, voire un abandon des règles et un retour à
******ebook converter DEMO Watermarks*******
la discrétion, à la possibilité pour les pouvoirs publics d’intervenir
massivement dans l’économie au moment opportun.
Un consensus semble d’ailleurs se dégager aujourd’hui parmi les
économistes pour considérer qu’au niveau de la zone euro la mise en œuvre
d’une politique économique conjoncturelle efficace doit passer par une
intégration budgétaire et fiscale plus forte et par une véritable politique
budgétaire. Cela nécessiterait des abandons de souveraineté nationale
supplémentaires.

******ebook converter DEMO Watermarks*******


Sujet 14 La gouvernance de la
zone euro : enjeux et
difficultés

1 Se préparer à la rédaction

1.1 L’enjeu du sujet


À la suite de la crise financière qui est survenue en zone euro à partir
de 2010, la possibilité d’un éclatement de la zone monétaire est apparue.
Cette possibilité a été renforcée par les déclarations de W. Schaüble, alors
ministre allemand des Finances, intransigeant vis-à-vis de la Grèce et allant
même jusqu’à envisager un Grexit, c’est-à-dire une sortie de ce pays de la
zone euro. Cet épisode est significatif d’un défaut de gouvernance de l’union
économique et monétaire.
Depuis, si la zone euro s’est maintenue, c’est principalement grâce aux
déclarations du nouveau gouverneur de la Banque centrale européenne
(BCE), M. Draghi, qui a annoncé en 2012 que l’institution ferait tout pour
préserver l’euro (“Within our mandate, the ECB is ready to do whatever it
takes to preserve the euro. And believe me, it will be enough”), et aux actions
de politique monétaire entreprises, notamment le rachat de titres de dette des
pays en difficulté. Mais les institutions européennes ont également évolué à
la suite de la meilleure compréhension des mécanismes à l’œuvre lors de
cette crise. Une union bancaire est aujourd’hui en chantier et la surveillance
des déséquilibres macroéconomiques est opérée. Par ailleurs, la Commission
a accru le contrôle des finances publiques des États membres à travers le
« semestre européen ». Beaucoup d’économistes s’accordent pour dire que
ces nouveaux contrôles ne permettent pas de stabiliser véritablement la zone
******ebook converter DEMO Watermarks*******
euro, voire œuvrent à sa « déstabilisation » (J. Stiglitz).
En conséquence, la réflexion se poursuit à propos des réformes
nécessaires au maintien de l’intégration monétaire européenne, réformes qui
reposent sur les propositions théoriques concernant les zones monétaires
optimales à la suite des travaux initiaux de R. Mundell, et qui interrogent les
nécessaires transferts de souveraineté permettant des transferts budgétaires
pour compenser l’hétérogénéité structurelle de la zone.
La formulation du sujet est assez atypique : une thématique, associée à
deux axes de réflexion. L’incitation première est ainsi d’orienter l’enjeu du
sujet autour de ces deux pistes : les évolutions passées et futures de la
gouvernance de la zone euro depuis la mise en place de la monnaie unique
(les enjeux) d’une part, les obstacles que cette gouvernance rencontre face à
ces différentes pistes (les difficultés) d’autre part. Outre le caractère sans
doute trop descriptif de cette démarche, son inconvénient réside dans le fait
de ne pas placer au centre de la réflexion la crise qui frappe la zone euro à
partir de 2009. Or, un des enjeux du sujet est justement que la gouvernance
de la zone euro s’est révélée profondément différente avant et après cette
crise. Ainsi, il s’agira surtout d’examiner l’évolution économique et
institutionnelle dans la zone au cours des dix dernières années.

1.2 Le cadrage et les concepts clés


La zone euro est institutionnalisée en 1999 à la suite des Traités de
Maastricht (définissant notamment les critères de convergence permettant à
une nation d’être éligible à la monnaie unique, 1992) et d’Amsterdam
(définissant les règles budgétaires du Pacte de stabilité et de
croissance, 1996). Si 11 pays sont éligibles au premier janvier 1999, la zone
euro intègre un nombre croissant de pays membres de l’Union européenne.
Elle en compte 16 en 2009 à la veille de la crise financière et 19 aujourd’hui.
Parler de gouvernance c’est parler des modalités par lesquelles les
institutions gèrent leurs affaires communes, ici la monnaie unique, mais
également les conditions de pérennité de celle-ci. P. Lamy définit la
gouvernance comme « l’ensemble des transactions par lesquelles des règles
collectives sont élaborées, décidées, légitimées, mises en œuvre et
contrôlées ». Elle se distingue du gouvernement en ce sens qu’elle ne repose
pas sur une instance politique comme les gouvernements nationaux émanant
des élections.

******ebook converter DEMO Watermarks*******


1.3 La construction de la problématique
L’intitulé du sujet peut faire pencher le candidat sur un plan du type : I. Les
enjeux et II. Les difficultés. Il nous apparaît cependant que la
problématisation peut conduire à se questionner sur les différents éléments
autour desquels la gouvernance de la zone euro existe et connaît des
difficultés. La naissance de l’euro a conduit à une gouvernance fédérale de la
monnaie qui est voie de finalisation avec l’union bancaire. Elle reposait sur
une exigence de convergence nominale, c’est-à-dire d’homogénéisation des
taux d’inflation et des taux d’intérêt, mais pas sur une convergence réelle. La
Banque centrale européenne qui mène la politique monétaire de la zone a été
instituée avec pour mandat de garantir la stabilité des prix. Sur le modèle de
la Bundesbank allemande, elle est indépendante des pouvoirs politiques et ne
peut financer directement les gouvernements. Certains considèrent
aujourd’hui que ce mandat doit être élargi à la stabilité financière et à
l’emploi.
Par ailleurs, les États sont restés maîtres des politiques budgétaires, sous
contrainte des Traités européens interdisant la solidarité budgétaire.
Cependant, les situations conjoncturelles divergent et la gouvernance par les
règles a conduit à des politiques pro-cycliques (sauf en 2009 lorsque ces
règles ont été suspendues). Pour qu’une monnaie unique soit pérenne, il est
pourtant nécessaire que des transferts budgétaires apparaissent (théorie des
zones monétaires optimales), ce que les traités empêchent.
Ainsi, il est possible de distinguer deux moments dans la gouvernance de
la zone euro. Le premier repose sur les institutions mises en place au moment
de la création de l’union monétaire, institutions dont la crise financière va
révéler l’insuffisance. Le second se construit en réponse à cette crise, et s’il
présente des avancées, celles-ci vont apparaître insuffisantes.

2 Rédiger le devoir : une proposition

Introduction
La crise financière qui éclate en zone euro en 2009 à la suite de la crise des
subprimes a mis en évidence un défaut majeur de gouvernance, en particulier
dans le cas de la Grèce. Il s’est en effet avéré que les gouvernements hellènes
avaient falsifié, avec la complicité tacite des instances européennes, les
comptes de l’État afin d’être qualifiés pour l’euro et ensuite ne pas subir les
******ebook converter DEMO Watermarks*******
potentielles sanctions prévues par le Traité d’Amsterdam (procédure de
déficit excessif). Lorsque la situation a été rendue publique, des mouvements
spéculatifs très importants sur la dette grecque sont apparus (ventes massives
de titres souverains) et ont conduit à un effondrement du prix de ces actifs, et
corrélativement à un accroissement considérable des taux souverains. Pour
répondre à cette crise et organiser un plan de sauvetage de la Grèce, le
gouvernement allemand a exigé que le Fonds monétaire international (FMI)
participe à ce plan dans le cadre de la « Troïka » (Commission, Banque
centrale européenne et FMI). Cet épisode montre à quel point la gouvernance
de la zone euro était défaillante. Qu’un espace économique aussi riche doive
faire appel à l’institution financière internationale connue pour organiser le
sauvetage et la restructuration des dettes des pays en développement en
défaut de paiement interroge sur la capacité de la zone euro à organiser sa
propre gouvernance.
Pour P. Lamy la gouvernance est « l’ensemble des transactions par
lesquelles des règles collectives sont élaborées, décidées, légitimées, mises en
œuvre et contrôlées », c’est-à-dire des modalités par lesquelles les institutions
gèrent leurs affaires communes. La zone euro est instituée à la suite de la
ratification du Traité de Maastricht en 1993, et 11 pays la rejoignent en 1999.
Après différents élargissements, elle compte aujourd’hui 19 pays qui ont
donc choisi d’abandonner leur souveraineté monétaire au profit du Système
européen de banques centrales (SEBC) à la tête duquel se trouve la BCE. Il
met en œuvre la politique monétaire. Quant à la gouvernance budgétaire, elle
reste de la responsabilité de chaque État membre qui s’est cependant engagé à
respecter des règles budgétaires, énoncées dans le traité d’Amsterdam
de 1997, puis renforcées en 2012 par le Traité sur la stabilité, la coopération
et la gouvernance. S’y ajoute une surveillance macroéconomique des pays
membres. En 2018, avec la multiplication des succès électoraux des partis
eurosceptiques, à l’image du gouvernement italien mené par la Ligue et le
Mouvement cinq étoiles qui a remis en cause les engagements budgétaires du
gouvernement précédent, la question de la gouvernance de la zone euro et de
ses difficultés se pose. De longue date, le projet de monnaie unique en
Europe a été critiqué au niveau économique et la crise semble avoir révélé au
grand public un défaut de gouvernance congénital (I). À la suite de la crise
de 2009 des changements institutionnels sont apparus et la crise semble
pourtant s’enliser. Les changements de gouvernance ont-ils été suffisants
pour pérenniser la zone monétaire (II) ?
******ebook converter DEMO Watermarks*******
I. La crise financière en zone euro a révélé une crise de
gouvernance
À partir de 2009, la crise financière déclenchée aux États-Unis se diffuse à la
zone euro, ce qui va révéler ses défauts de conception. Un choix de
gouvernance par les règles a été opéré dès le départ, mais ce choix s’est avéré
inadapté (A). Par ailleurs, la gouvernance de la zone euro ne permet pas de
stabiliser l’activité économique, c’est-à-dire de mettre en œuvre des
politiques conjoncturelles contra-cycliques (B).

A. Une gouvernance par les règles inadaptée


L’Union économique et monétaire a été construite sur l’hypothèse que la
convergence nominale des économies, accompagnée de règles budgétaires,
suffirait à pérenniser la zone monétaire. Ainsi, dès le Traité de Maastricht qui
entre en vigueur en 1993, il est spécifié que les États membres qui seront
qualifiés pour la monnaie unique doivent converger en termes d’inflation et
de taux d’intérêt et respecter des niveaux de déficits et dettes publics
respectivement de 3 % du PIB et 60 % du PIB. En effet, en vertu de la théorie
de la parité des pouvoirs d’achat, lorsque l’évolution des prix diverge entre
deux économies fortement intégrées, un ajustement des taux de change doit
s’opérer. La monnaie de l’économie connaissant une inflation plus
importante doit se déprécier pour compenser la perte de compétitivité liée à
l’accroissement des prix nationaux et inversement pour celle de l’économie
connaissant une inflation plus faible. Ainsi, pour être qualifié pour le passage
à l’euro, une économie devait connaître un taux d’inflation inférieur à la
moyenne des taux des trois pays les moins inflationnistes majorée d’un point
et demi. De même, en vertu de la théorie de la parité des taux d’intérêt, une
convergence sur les taux à long terme était exigée. En effet, les écarts de taux
génèrent des ajustements du change. Le taux d’inflation d’un pays qui
souhaite adopter l’euro ne doit pas dépasser de plus de 1,5 point la moyenne
des taux d’inflation des trois pays candidats qui ont les prix les plus stables.
Une fois l’euro adopté, la gouvernance monétaire est confiée à la Banque
centrale européenne dont le mandat vise à garantir la stabilité des prix et la
gouvernance budgétaire repose sur des règles, celles du Traité de Maastricht
reprises dans le Traité d’Amsterdam de 1997 sous le nom de Pacte de
stabilité et de croissance (PSC). Une gouvernance par les règles a donc été
choisie, au détriment d’une gouvernance par la coordination de politiques
budgétaires discrétionnaires comme l’a regretté J.-P. Fitoussi en 2002 dans
******ebook converter DEMO Watermarks*******
son ouvrage La règle et le choix.
Parier sur la stabilité d’une zone monétaire était plutôt audacieux. La
convergence nominale des économies ne conduit pas nécessairement à leur
convergence réelle. Ou alors cette convergence peut devenir « artificielle »
comme le soulignent A. Barbier-Gauchard, M. Sidiropoulos et A. Varoudakis
dans La gouvernance économique de la zone euro (2018). Ainsi, certaines
économies comme l’Espagne ou la Grèce vont connaître une croissance
relativement importante et une forte réduction du chômage conduisant à une
convergence vers la situation des pays d’Europe du Nord comme
l’Allemagne ou les Pays-Bas. Le caractère artificiel relève du fait que cette
activité économique repose sur la production de biens et services non
échangeables, et est financée par des entrées importantes de capitaux.
Le cas espagnol est à cet égard révélateur. En effet, l’économie est tirée
par la construction immobilière qui repose elle-même sur des financements
peu coûteux (du fait de l’intégration monétaire, les taux d’intérêt ont
convergé), mais au prix d’un accroissement important du déficit commercial.
Cela s’explique à travers l’égalité comptable (X – M) = (S – I) + (T – G) qui
signifie qu’un déficit extérieur repose sur un déficit d’épargne nationale
privée (cas de l’Espagne) ou publique (cas de la Grèce). Or, comme
l’enseigne la théorie des zones monétaires optimales, en cas de choc
asymétrique, la pérennité de la zone repose sur des transferts de ressources
qui n’étaient pas prévus par les Traités.
En effet, si la réflexion initiale proposée par R. Mundell en 1961
(“A Theory of Optimal Currency Area”) montre qu’un choc asymétrique,
c’est-à-dire subi par un seul pays membre de l’union monétaire, peut être
surmonté par la mobilité des travailleurs vers les autres pays membres, on
doit surtout à P. Kenen (“The Theory of Optimum Currency Area: an Eclectic
View”, 1963) d’avoir mis en évidence la nécessité de mettre en œuvre des
transferts de ressources. Cela nécessite qu’existent un budget et des
ressources fiscales rendant possibles ces transferts. Ainsi, les effets récessifs
liés au choc peuvent être plus facilement surmontés, à l’image de l’action
menée par le gouvernement fédéral aux États-Unis. Cependant, l’institution
de la zone euro n’a pas été réalisée sur cette conception : il n’existe pas de
budget de la zone euro. Il existe, en revanche, un budget de l’Union
européenne voté pour sept ans, en équilibre, et plafonné à 1,1 % du revenu
national brut quand celui des États-Unis représente environ 25 % du PIB. De
ce fait, la solidarité entre économies nationales n’est pas permise (clause dite
******ebook converter DEMO Watermarks*******
de « no bail out ») et les budgets nationaux sont contraints par des règles
budgétaires. Par nécessité, après la crise des subprimes, la Commission a
permis que les déficits publics puissent excéder les 3 % du PIB, mais très
rapidement elle a exigé un retour au respect de ces critères, et les règles ont
été renforcées suite à la signature du Traité sur la stabilité, la coordination et
la gouvernance (TSCG) entré en vigueur en 2012. Quant aux économies
périphériques ayant le plus subi les conséquences de la crise financière en
raison d’une défiance grandissante des opérateurs de marché sur la capacité
des États à rembourser leur dette, elles ont été financièrement aidées, mais au
prix d’une austérité budgétaire excessive visant à comprimer les coûts de
production nationaux afin de regagner en compétitivité prix (on parle alors de
« dévaluation interne » puisque la valeur externe de la monnaie ne peut pas
être réduite).
Ainsi, la convergence nominale n’a pas permis une convergence réelle
soutenable et les déséquilibres macroéconomiques qui sont apparus n’ont pas
pu être surmontés du fait d’une absence de solidarité. La gouvernance par les
règles, en vigueur depuis le Traité de Maastricht, a eu des effets délétères
puisqu’elle n’a pas permis de mener une politique de stabilisation
macroéconomique.

B. Une gouvernance conduisant à l’impossibilité de mener une


politique conjoncturelle contra-cyclique
La politique de stabilisation, aussi appelée politique conjoncturelle, vise à
lisser le cycle économique autour de la croissance potentielle en mettant en
œuvre des actions contra-cycliques, expansionnistes en période de
ralentissement et récessives en période de surchauffe. Les instruments de la
politique conjoncturelle sont la politique budgétaire et la politique monétaire.
La gouvernance de la zone euro n’a pas suffisamment permis jusqu’à présent
la mise en œuvre de politiques budgétaires contra-cycliques. Quant à la
politique monétaire, elle a longtemps été menée dans un unique objectif de
stabilité des prix, c’est-à-dire de contrôle de l’inflation à niveau proche mais
inférieur à 2 % par an.
Comme nous l’avons vu, il n’existe pas au sein de la zone euro de
transferts budgétaires, et cela relève d’un choix politique puisqu’en réalité il
n’existe pas de budget propre à la zone monétaire, mais un budget de l’Union
européenne, limité à 1,1 % du revenu national de l’Union européenne. À titre
de comparaison, le budget fédéral des États-Unis représente environ 25 % du
******ebook converter DEMO Watermarks*******
PIB américain. Par ailleurs, ce budget qui est voté tous les cinq ans ne peut
pas être déficitaire puisqu’il n’existe aucune capacité de financement propre à
la zone euro. Or, le principe de la stabilisation budgétaire conduit à un
creusement du déficit en période de ralentissement économique. Cette
fonction repose donc sur les budgets nationaux des pays membres de la zone
euro contraints par le PSC. Ces contraintes ont pesé sur la capacité d’action
des gouvernements et ont souvent empêché que des actions contra-cycliques
soient mises en place. C’est ce que montre A. Bénassy-Quéré dans ses
travaux sur les politiques budgétaires : entre 1995 et 2016 les politiques
budgétaires discrétionnaires, c’est-à-dire insufflées par des choix
gouvernementaux, ont été procycliques. H. Sterdyniak et C. Mathieu sont
encore plus critiques puisqu’ils dénoncent le caractère théoriquement infondé
des seuils imposés par ces règles. Ils leur apparaissent arbitraires puisque la
théorie économique n’a pas établi un niveau précis dont les effets seraient
délétères.
Face aux dix-neuf politiques budgétaires nationales il existe également
une politique monétaire de la zone euro décidée par la Banque centrale
européenne. Trois questions se posent alors quant à la gouvernance de la
zone : une politique monétaire unique est-elle efficace pour garantir la
stabilité des prix si les prix divergent entre économie nationale ? La stabilité
des prix doit-elle être le seul objectif de la politique monétaire ? Un policy-
mix cohérent peut-il être mis en œuvre ? Tout d’abord, le mandat de la
Banque centrale européenne consiste à garantir la stabilité des prix, c’est-à-
dire à maintenir un niveau d’inflation inférieur à 2 % mais proche de ce
niveau. Jusqu’à la crise, la BCE a mené une politique monétaire
conventionnelle à travers la détermination des taux directeurs. En période de
surchauffe (accélération inflationniste) les taux sont relevés, en période de
ralentissement de l’inflation ils sont réduits. Or, l’inflation ne converge pas
nécessairement dans la zone, et si des écarts persistent, la politique monétaire
risque de renforcer les divergences.
Par exemple, au cours de la période précédant la crise des subprimes, le
taux d’inflation est systématiquement plus élevé en Espagne qu’en
Allemagne. En conséquence, la politique monétaire est trop restrictive pour
l’Allemagne et pas assez pour l’Espagne. Dans un régime de change flexible
ou fixe mais ajustable, la variation du taux de change doit permettre de
compenser ces écarts d’inflation (théorie de la parité des pouvoirs d’achat), et
dans ce cas conduire à une dépréciation (appréciation) de la monnaie
******ebook converter DEMO Watermarks*******
espagnole (allemande) pour compenser l’accroissement des prix en Espagne,
ce qui est impossible avec une monnaie unique. Nous savons que la
divergence des coûts est un élément important qui est à l’origine des
déséquilibres externes qui sont apparus en zone euro. Ensuite, la stabilité des
prix comme seul objectif de politique monétaire semble poser un problème de
cohérence du policy-mix. En période de ralentissement, les pouvoirs publics
nationaux peuvent légitimement chercher à relancer l’activité économique,
mais cette relance peut être entravée par une politique monétaire non
accommodante. Cet écueil est moins présent dans les décisions de politiques
monétaires de la Fed qui reposent sur deux éléments : l’évolution des prix et
l’évolution de l’activité économique. Selon la règle de Taylor, c’est l’écart
entre inflation anticipée et inflation et l’écart entre activité et activité
potentielle qui guident la fixation du Fed fund, le taux directeur.
Ainsi, la gouvernance de la zone euro en termes de politique économique
conjoncturelle n’est pas optimale puisqu’elle ne permet pas d’atteindre
correctement les objectifs de stabilisation de l’activité économique. Cela est
aussi dû au fait que la zone euro n’est pas vraiment une zone monétaire
optimale.

II. Des changements institutionnels post-crise insuffisants


À la suite de la crise de 2009-2010, plusieurs réformes ont été entreprises par
les États membres. Cependant, au niveau monétaire, si l’action de la BCE a
été cruciale pour stopper la spéculation, les avancées en termes d’union
bancaire et d’unification des marchés financiers sont insuffisantes (A). De
même, il semble bien que la gouvernance budgétaire reste aujourd’hui encore
moralisatrice, les déficits budgétaires sont réprouvés et la notion de
mutualisation est rejetée par une grande partie des États membres (B).

A. De timides avancées au niveau monétaire


Suite à la crise des subprimes, les systèmes bancaires nationaux ont été mis
en difficulté : une crise de confiance a conduit à un blocage des
refinancements dans les systèmes interbancaires (les agents financiers ne
savaient pas quelle était la qualité des actifs au bilan des emprunteurs). Pour
éviter qu’ils ne s’effondrent, entraînant avec eux des pans entiers de
l’économie réelle, les États sont massivement intervenus en injectant des
fonds dans leurs banques. Il en est résulté un accroissement très important des
déficits et dettes publiques soulignant le lien très fort entre dette publique et
******ebook converter DEMO Watermarks*******
système bancaire. Lorsque les opérateurs des marchés financiers ont
commencé à douter de la capacité de certains États d’honorer leur dette, un
cercle vicieux s’est mis en place. Une banque possède en effet à son actif des
titres de dette publique. Or, lorsque les taux d’intérêt sur ces titres
s’accroissent, leur valeur de marché se réduit et par là même la valeur de
l’actif de la banque. Si le passif est inchangé, la banque est en difficulté. Pour
lui venir en aide, l’État doit s’endetter, ce qui risque de conforter les agents
financiers dans leurs doutes et de renchérir de nouveau le coût de
l’endettement. Dette publique et crise bancaire s’autoentretiennent.
Pour éviter cet écueil, il convient de mettre en place une union bancaire
qui permette en théorie de gérer les crises sans dégrader les dettes publiques.
En Europe, elle existe depuis 2014, mais elle est loin d’être aboutie et
beaucoup la considèrent comme insuffisante. En théorie, une union bancaire
repose sur trois piliers : une surveillance unique, une résolution unique et une
garantie des dépôts. En zone euro, seuls les deux premiers piliers sont
institués. Le Mécanisme de supervision unique est adossé à la BCE et se
charge de surveiller la santé financière des 130 banques considérées comme
systémiques (établissements dont on considère qu’au vu de leur taille, une
défaillance pourrait entraîner l’ensemble du système bancaire et financier),
notamment en procédant régulièrement à des stress tests visant à évaluer leur
capacité à résister à un choc économique. Ainsi, les derniers qui ont été
menés ont permis à l’Autorité bancaire européenne de conclure que ces
banques étaient résistantes. Le mécanisme de résolution unique vise à
faciliter la gestion d’une banque défaillante (restructuration des dettes,
faillite) sans avoir à impliquer les finances publiques et donc les
contribuables. Pour ce faire, un fonds de résolution unique doit être abondé
par les banques à hauteur de 55 milliards d’euros d’ici 2025. Mais d’une part,
les modalités de constitution de ce fonds ne sont pas encore établies, et
d’autre part, son niveau semble faible au regard de la taille du bilan des
banques les plus grosses (à titre d’exemple, celui de BNP-Paris avoisine les
2 000 milliards d’euros, quasiment le PIB français). En revanche, les États
membres n’ont pas réussi à mettre en place une garantie des dépôts unique.
S’ils se sont accordés sur une garantie à hauteur de 100 000 euros (ce qui
signifie qu’en cas de faillite d’une banque les déposants sont indemnisés à
hauteur de leurs dépôts jusqu’à cette limite), chaque État membre est
responsable de cette garantie. Cela illustre la défiance qui reste forte entre les
États membres. Les pays du Nord de la zone craignent en effet de devoir
******ebook converter DEMO Watermarks*******
prendre en charge la garantie des dépôts des pays du Sud considérés comme
peu rigoureux dans la gestion de leurs finances publiques. Il est
électoralement impossible pour leurs dirigeants politiques de laisser un doute
quant à l’usage des ressources fiscales nationales qui seraient nécessairement
sollicitées puisqu’il n’existe pas de ressources fiscales propres à la zone euro.
Par ailleurs, la généralisation des politiques monétaires non
conventionnelles (dites de Quantitative Easing, consistant à fournir des
liquidités banque centrale aux agents financiers dans l’objectif de dynamiser
le financement de l’activité économique) interpelle de nombreux économistes
quant à la question de la stabilité financière. En effet, ces liquidités peuvent
alimenter une activité financière importante propice aux bulles spéculatives
(sur l’immobilier, sur les actifs financiers, etc.). En conséquence, la question
de permettre à la BCE de garantir la stabilité du prix des actifs se pose,
comme le soulignent P. Artus et M.-P. Virard dans La folie des banques
centrales (2016). Pour l’heure, l’accroissement du bilan de la BCE n’a pas eu
d’effet inflationniste sur les prix à la consommation (ce qui est conforme à
son mandat). En revanche, des signes de bulle spéculative apparaissent sur
l’immobilier ou sur les actions. La BCE pourrait avoir à jouer un rôle pour
stabiliser également l’évolution du prix des actifs à travers une politique
macroprudentielle repensée.
Ainsi, il semble que la gouvernance monétaire de la zone euro ait connu
quelques avancées, mais celles-ci sont manifestement insuffisantes. En
revanche, les réformes proposées dans la gouvernance budgétaire ne
semblent pas suffisantes.

B. Des réformes toujours attendues au niveau budgétaire


Nous avons vu que l’union monétaire s’était constituée sur la base de règles
budgétaires contraignant les budgets nationaux, et que cela pouvait expliquer
en partie les difficultés économiques de la zone euro. Les pays membres ont
pourtant jugé nécessaire de renforcer ce contrôle budgétaire. À partir
de 2012, le Traité sur la stabilité, la coordination et la gouvernance (TSCG)
renforce le contrôle budgétaire en imposant que le déficit structurel, c’est-à-
dire en dehors des effets liés à la conjoncture économique qui, lorsqu’elle
ralentit dégrade les comptes publics, n’excède pas 0,5 % du PIB (« règle
d’or »). Cela signifie que sur le cycle économique un État membre de la zone
euro ne peut pas être en déficit. Par ailleurs, des contrôles supplémentaires
ont été décidés à travers l’examen des projets de budget dans le cadre du
******ebook converter DEMO Watermarks*******
Semestre européen, et la mise en œuvre des sanctions liées à la procédure de
déficit excessif a été modifiée en vue de faciliter le déclenchement de la dite
procédure. C’est ce qui menace l’Italie par exemple à la fin de l’année 2018
en raison d’un endettement public considéré comme trop élevé. Il apparaît
ainsi que la gouvernance budgétaire de la zone euro, par les règles,
auxquelles restent très attachés les pays membres du nord de l’Europe comme
l’Allemagne ou les Pays-Bas, ait empêché que des mesures budgétaires
contra-cycliques puissent être mises en place, exception faite de la période
post-crise des subprimes.
Dans l’esprit de la gouvernance budgétaire, les États qui ne respectent pas
les règles sont des fautifs, et en tant que fautifs doivent être sanctionnés.
C’est le sens même de la procédure de déficit excessif ou des conditions
imposées aux gouvernements qui souhaiteraient faire appel au Mécanisme
européen de stabilité (MES) en cas de difficultés au niveau des finances
publiques. En effet, pour pouvoir bénéficier de prêts, les États de la zone
doivent accepter des mesures de restructuration comparables aux plans
d’ajustement structurels imposés aux pays en développement par le FMI et la
Banque mondiale au cours des années 1980 et 1990, avec des effets délétères
sur l’activité économique et le capital humain. L’Espagne, le Portugal ou la
Grèce ont dû ainsi réduire les niveaux de rémunération et/ou de pensions
retraites pour bénéficier des plans d’aide. Pourtant, d’autres modalités de
gouvernance budgétaire sont possibles. L’idée d’un budget de la zone euro,
tout comme celle d’une mutualisation au moins partielle des dettes sont
proposées par plusieurs économistes afin d’organiser une véritable politique
de stabilisation mais également pour faire de l’euro une monnaie complète,
c’est-à-dire, pour M. Aglietta, un rapport social reposant sur des biens
collectifs financés par une dette publique émise dans cette monnaie.
Parmi les défenseurs d’un budget européen, nous retrouvons A. Bénassy-
Quéré ou J. Pisani-Ferry qui proposent de mettre au centre de la stabilisation
budgétaire les stabilisateurs automatiques, c’est-à-dire les variations des
dépenses et des recettes publiques générées par la conjoncture économique.
En effet, lorsque l’activité accélère, les recettes fiscales et sociales
augmentent automatiquement (plus d’actifs travaillent, plus d’entreprises
réalisent des profits et paient des cotisations et des impôts) et inversement
lorsque l’activité ralentit. Organiser une stabilisation automatique au niveau
de la zone euro permettrait alors des transferts de ressource vers les espaces
subissant un ralentissement plus important. Les stabilisateurs automatiques
******ebook converter DEMO Watermarks*******
les plus puissants étant l’assurance chômage et l’impôt sur les sociétés, ces
auteurs proposent d’avancer vers une organisation commune de ces
dispositifs. Un économiste comme M. Aglietta va plus loin en proposant un
budget de la zone euro à hauteur de 2-3 % du PIB alimenté par des ressources
propres. Cela nécessiterait alors de créer une Agence budgétaire européenne
avec un ministre des Finances et un Trésor européen qui seraient légitimés
par une conférence interparlementaire de la zone euro.
À travers ce budget, il s’agirait de financer des biens collectifs au niveau
européen. Il s’agirait, dans un cas comme dans l’autre, d’un changement
profond dans la gouvernance de la zone euro puisqu’il conduirait à mutualiser
des moyens financiers plus importants que ce qui existe aujourd’hui, et dans
un cadre plus resserré, l’actuel budget concernant l’Union européenne et pas
seulement la zone euro. Afin de redonner une cohérence à l’action
budgétaire, Aglietta propose également de surveiller le déficit consolidé
plutôt que le déficit pays par pays. En effet, le seuil de déficit de 3 % du PIB
de la zone euro n’est pas atteint et cela laisse une marge de manœuvre
collective pour mener une politique budgétaire de relance. Cependant, cette
idée semble illusoire au vu des règles imposées par le nord de l’Europe.

Conclusion
En définitive, il semble que les difficultés propres à la gouvernance de la
zone euro n’aient pas vraiment été surmontées. La crise de la zone euro qui
débute en 2009 met au jour les défauts de conception de l’union monétaire
qui repose sur une gouvernance par les règles ne permettant pas d’organiser
une solidarité budgétaire en cas de choc macroéconomique. Des avancées
existent cependant, en particulier sur l’union bancaire, mais elles apparaissent
bien insuffisantes au regard des besoins de transferts entre économies
nationales nécessaires au maintien de la monnaie unique. Ces transferts
pourraient d’ailleurs faciliter l’action stabilisatrice des pouvoirs publics en
zone euro. Cependant, les règles budgétaires à l’œuvre l’empêchent, et
l’action monétaire de la BCE, bien que volontariste, apparaît insuffisante.
La solution économique est connue, une gouvernance davantage
discrétionnaire reposant sur la coordination des politiques budgétaires et/ou la
création d’un budget de la zone euro, mais l’action politique semble paralysée
par les enjeux nationaux. Au-delà de la gouvernance de la zone euro, ces
éléments de blocage entravent également l’accomplissement de l’euro comme
monnaie internationale. En effet, comme le souligne M. Aglietta, l’absence
******ebook converter DEMO Watermarks*******
de Trésor et de budget propre à la zone euro empêche l’existence de bons du
Trésor européens. Or, c’est l’existence de ces titres publics qui pourrait faire
de la monnaie unique une monnaie complète en raison de son adossement à
une souveraineté européenne. Si le dollar reste aujourd’hui la liquidité
mondiale ultime, c’est parce que le marché des bons du Trésor américain
demeure le plus profond et le plus liquide au niveau mondial.

******ebook converter DEMO Watermarks*******


Index

A
Acemoglu D., 42
Aghion P., 26, 145, 147
Aglietta M., 47, 175, 223, 227, 229
Akerlof G., 126
Alchian A., 90
Alvarado F., 46
Artus P., 47, 187, 189, 268
Atkinson A., 45

B
Bachelard G., 5, 50
Bairoch P., 8, 185
Barone E., 118
Bénassy-Quéré A., 228, 270
Berger S., 41, 179, 180, 221
Berle A., 87
Bernanke B., 269
Bhagwati J., 188
Boisguilbert de P., 134
Bourguignon F., 45, 189

C
Cahuc P., 119
Cancel L., 46
Cette G., 26
Chamberlin E., 136
Chandler A., 88
******ebook converter DEMO Watermarks*******
Coase R., 6, 84, 117, 122, 124, 125, 128, 129
Cohen É., 26
Combe E., 140, 146
Crifo P., 175

D
Deaton A., 46
Delpla J., 143
Demsetz H., 90

E
Ehrlich P. R., 172
Eichengreen B., 227

F
Fama E., 226
Fisher I., 5, 8, 264
Fitoussi J.-P., 266
Friedman M., 5, 26, 226, 227, 261, 264

G
Gaffard J.-L., 38, 47, 147
Galbraith J. K., 3, 88
Giraud P.-N., 188
Gordon R., 172, 173, 174
Gournay de V., 134
Granger G.-G., 5

H
Hansen A., 170, 174
Harberger A. C., 135
Hayek F., 120, 121, 144, 145
Heckscher E., 182

******ebook converter DEMO Watermarks*******


Helpmann E., 182
Hicks J. R., 38, 170, 263
Howitt P., 145, 147
Hume D., 222

J
Jean S., 186
Jensen M., 92
Jouvet P.-A., 175

K
Keynes J. M., 19, 25, 26, 47, 51, 169, 170, 224, 229, 263
Kindleberger Ch., 8, 47, 223
Kopits G., 268
Krugman P., 54, 122, 174, 178
Kumhof M., 47
Kuznets S., 26
Kydland F., 261, 265

L
Landry A., 167
Lange O., 118
Laurent É., 176
Le Cacheux J., 176
Lepage H., 145
Leroy-Beaulieu P., 270
Lévêque F., 148
List F., 51

M
Maddison A., 8
Magdoff H., 171
Malinvaud E., 52
Malthus Th., 45, 167, 168, 169, 176
******ebook converter DEMO Watermarks*******
Marshall A., 8
Marx K., 7, 45, 116, 169
Mathieu C., 270
McKinnon R., 218
Meadows D., 172
Means G., 87
Meckling W., 92
Mill J. S., 187
Minsky H., 3, 8, 47
Mises von L., 118, 120
Mistral J., 219
Mundell R., 20, 221
Musgrave R., 43, 261

N
Nash J., 139
Nordhaus W., 265
North D., 136

O
Ohlin B., 182
Ostrom E., 127, 128, 129

P
Pareto V., 118, 135
Perroux F., 166, 180
Perthuis de Ch., 175
Phillips A. W., 263
Piketty Th., 8, 46
Pisani-Ferry J., 228, 260, 265
Prescott E., 261, 265

Q
Quesnay F., 134
******ebook converter DEMO Watermarks*******
R
Ragot X., 270
Rajan R., 3, 38, 47
Rancière R., 47
Rébérioux A., 87
Ricardo D., 19, 20, 51, 52, 135, 167, 168, 176, 177, 181
Robinson J., 42
Rodrik D., 178, 189
Romer P., 182
Roubini N., 3
Rueff J., 51

S
Saez E., 46
Samuelson P., 182, 263
Saraceno F., 38
Say J.-B., 45, 128
Schumpeter J. A., 28, 136, 171
Shleifer A., 89
Simon H., 84
Sismondi de J., 45
Smith A., 51, 116, 119, 128, 134, 142, 167, 177, 181
Solow R., 263
Sterdyniak H., 270
Stiglitz J., 8
Summers L., 174
Svensson L., 267
Sweezy P., 171
Symanski S., 268

T
Taylor J., 267
Triffin R., 225
Turgot A. R., 116, 119, 135

******ebook converter DEMO Watermarks*******


V
Vishny R., 89
Volcker P., 19

W
Walras L., 119
Weber M., 25
White H. D., 224
Wicksell K., 3, 174
Williamson O., 86, 124, 125
Wyplosz C., 143

Y
Yellen J., 126

Z
Zucman G., 8, 46

******ebook converter DEMO Watermarks*******


Des mêmes auteurs
Mickaël Joubert et Lionel Lorrain, Économie de la mondialisation, 2015.
Alain Beitone et Christophe Rodrigues, Économie monétaire, 2017.
Alain Beitone (dir.), Dictionnaire de science économique, 2019 (6e édition).
Alain Beitone (dir.), Économie, sociologie et histoire du monde contemporain, 2016 (2e
édition).

******ebook converter DEMO Watermarks*******

Vous aimerez peut-être aussi