Vous êtes sur la page 1sur 254

GRANDES

QUESTIONS
d’ÉCONOMIE
e
du XXI siècle

Bertrand Blancheton

9782340-024007_001-264.indd 5 13/03/2018 13:13


ISBN 9782340-024007
©Ellipses Édition Marketing S.A., 2018
32, rue Bargue 75740 Paris cedex 15

9782340-024007_001-264.indd 6 13/03/2018 13:13


Introduction

Cet ouvrage met en perspective de grands thèmes économiques en


débat actuellement à travers le monde. Une mise en perspective
historique est proposée afin de caractériser la nature des questions.
Les connaissances fondamentales sont mentionnées afin de préparer
avec succès concours et examens sur ces sujets. L’ouvrage s’appuie
sur un grand nombre de données, hiérarchisées et sélectionnées.
Mais il s’agit aussi d’offrir, lorsque cela est possible, une réflexion
prospective sur l’intensité de la croissance future, les évolutions
de la mondialisation, les conséquences de la hausse de population
mondiale sur l’environnement, la dynamique de la hiérarchie
entre grandes puissances économiques (États-Unis, Chine, Inde,
Japon, Europe), la survenance probable de crises financières, les
déséquilibres internationaux, les marges de manœuvre de politiques
économiques pour les États, les possibles évolutions des frontières
de l’entreprise et du salariat. Treize thèmes ont été sélectionnés
en raison de leur intérêt :
La perspective d’une stagnation séculaire.
1.

2. La mondialisation et son avenir.


e
3. Population mondiale et environnement au XXI siècle.

4. Les inégalités.

5. La montée en puissance de la Chine et de l’Inde.

6. Le leadership des États-Unis.

7. L’économie japonaise, laboratoire du futur ?

8. L’Europe, entre intégration et désintégration.

9. Les déséquilibres internationaux.

10. La récurrence des crises financières.

11. Politiques économiques et mondialisation.

12. La dette publique.

13. L’ubérisation.

9782340-024007_001-264.indd 7 13/03/2018 13:13


Grandes questions d'économie du XXIe siècle

Au fi l des développements des sous-thèmes sont abordés : le


développement durable, la silver économie, l’impact de l’économie
numérique sur l’activité, l’organisation industrielle, les enjeux de
8 la croissance des grandes agglomérations, la monnaie interna-
tionale, la guerre des monnaies, la crise de la dette grecque, l’union
bancaire, le Brexit…

Ces treize thèmes sont autant d’essais prospectifs. D’ordinaire


les économistes-historiens laissent aux essayistes le soin de se
hasarder à des projections et la futurologie a mauvaise presse dans
les cercles académiques. C’est sur la base de tendances historiques
lourdes (comme par exemple le développement du secteur des
services), d’hypothèses et de rapprochements avec des situations
économiques passées que nous esquissons des scenarii pour le
XXIe siècle.

L’ouvrage se veut un outil efficace et ludique. Des rubriques « Pour


mémoire » et « Pour la petite histoire » proposent des définitions
et des anecdotes marquantes sur les thèmes abordés. Le livre est
parsemé de citations, presque culte en économie, d’auteurs et de
responsables politiques comme Solow, Bernanke, List, Churchill,
Kissinger, Thatcher, Deng Xiaoping… Une rubrique « Reçu 5 sur 5 »
propose des QCM pour tester l’assimilation des connaissances
essentielles.

9782340-024007_001-264.indd 8 13/03/2018 13:13


1 La perspective
d’une stagnation
séculaire

La croissance va-t-elle connaître un épuisement définitif ? Outre-


Atlantique, le débat fait rage entre économistes. Les discussions font
ressortir un pessimisme quant au futur de l’activité économique
aux États-Unis et par extension à l’échelle mondiale, comme si
la parenthèse d’une forte croissance ouverte avec la Révolution
industrielle allait se refermer. Avant de considérer la portée des
arguments qui étayent la stagnation séculaire tant du côté de l’offre
(idées de Robert Gordon) que du côté de la demande (positions de
Summers et Krugman), nous montrons que la crainte du déclin
est récurrente en histoire contemporaine. Nous opérons aussi un
retour sur les performances de croissance des États-Unis, du Japon
et d’autres zones afin de prendre la mesure de cette stagnation.
Enfin nous resituons ces débats autour de la question clé des
conséquences du développement du secteur des services sur les
innovations et la croissance économique.

# La crainte récurrente
d'une stagnation
Un récent numéro de la Revue Économique intitulé « Fin de monde :
analyses économiques du déclin et de la stagnation (1870-1950) »1
rappelle – fort à propos – que les débats sur la stagnation économique
scandent l’histoire économique. Nous proposons ainsi d’analyser les
thèses de Ricardo sur l’état stationnaire, la vision de Jevons sur les
conséquences de l’épuisement des ressources naturelles, la hantise du
déclin en France durant la longue stagnation des années 1873-1892
et, enfin, les débats de la fin des années 1930 et des années 1940 sur
la stagnation séculaire.

1. Revue Économique, vol.66, n°5, 2015.

9782340-024007_001-264.indd 9 13/03/2018 13:13


Grandes questions d'économie du XXIe siècle

* L’état stationnaire chez Ricardo


L’idée de la stagnation n’est pas nouvelle. Au plus fort de la Révolution
industrielle, les classiques anglais expriment des doutes sur le
10
maintien d’une croissance soutenue à long terme. Ils sont, sur cette
base, qualifiés de pessimistes contrairement aux classiques français
(Say et Bastiat) plus enclins à entrevoir les apports potentiels de
l’industrie à la croissance. David Ricardo (1772-1823), père fondateur
du raisonnement déductif, propose une vision de l’état stationnaire
qui trouve sa source dans les caractéristiques du secteur agricole.
L’analyse des rendements décroissants des terres mises en culture
conduit Ricardo à raisonner en termes différentiels c’est-à-dire à
la marge. Sa théorie de la rente différentielle consiste à expliquer
l’origine du prix des terres payées aux propriétaires fonciers (le
loyer) à partir des rendements agricoles. Ce prix varie en fonction
des différences de rendements entre les terres. À titre d’exemple
Ricardo considère trois terrains (identiques en termes de surface)
produisant respectivement 100, 90 et 80 quintaux de céréales. Le
propriétaire du terrain qui donne 90 quintaux avec la même quantité
de travail que celui qui donne 80 quintaux met la différence de 10
sur le compte de la qualité intrinsèque de sa terre et réclame cette
rente. Sous l’effet de l’augmentation de la population, il conviendra
de mettre en culture de plus en plus de terres… Les meilleures
terres ont été mises en culture les premières et la loi des rende-
ments décroissants de la terre prévaut. La rente différentielle est
condamnée à augmenter et la part du produit national consacrée
aux paiements des propriétaires fonciers également. Comme les
salariés touchent des salaires de subsistance incompressibles et
que leur nombre est croissant, la masse salariale augmente à court
terme proportionnellement à la population. En conséquence les
profits des entreprises sont laminés. À long terme, le profit (ce
qui reste du produit brut lorsque l’on a enlevé les salaires et la
rente) tend vers zéro. Le stock de capital se stabilise : l’économie
s’installe dans l’état stationnaire. L’état stationnaire est stable. Il
peut être modifié par le progrès technique susceptible d’améliorer
la productivité agricole et l’ouverture commerciale de l’économie
susceptible de réduire le prix des importations. Via la baisse du
prix des denrées alimentaires et, par conséquent, du salaire de
subsistance, les importations de produits agricoles ne permettent
qu’un déplacement temporaire de l’horizon de l’état stationnaire.

9782340-024007_001-264.indd 10 13/03/2018 13:13


1. La perspective d’une stagnation séculaire

* Épuisement des ressources et stagnation :


les analyses de Jevons
En 1865, dans l’ouvrage The Coal Question, l’économiste néoclassique
britannique Stanley Jevons rappelle le rôle clé du charbon dans 11
la Révolution industrielle anglaise mais constate aussi le possible
épuisement de cette ressource. Une économie industrielle repose
sur l’extraction irréversible de certains minerais et se trouve, par
conséquent, dans une situation de la dépendance énergétique.
Dans la mesure où le charbon est une ressource épuisable, fonder
l’ensemble d’un appareil productif sur son seul usage apparaît
très risqué. Pour Jevons, les Britanniques ont choisi de prendre
ce risque afin d’alimenter une dynamique économique promet-
teuse dans un premier temps, mais promise à un déclin par la
suite. Antoine Missemer1 relate qu’en 1897, le Président de la
Royal Statistical Society, L. Courtney porte les craintes de Jevons
en donnant l’exemple de la province de Cornwall qui avait été
florissante grâce à son activité d’extraction du cuivre. Lorsque les
gisements se sont épuisés, la région s’est lourdement appauvrie
et a vu sa population décroître. Courtney prédit alors, trente ans
après Jevons, que le destin de la Grande-Bretagne tout entière
pourrait ressembler à celui de la province de Cornwall si les mines
de charbon venaient à s’épuiser. Cet exemple illustre la prégnance
de la peur du déclin parmi bon nombre d’observateurs britanniques
à la fin du XIXe siècle. Il a le mérite de mettre en évidence – de façon
pionnière – la pierre d’achoppement que constitue la question de
l’épuisement des ressources naturelles dans ce contexte.

Selon Missemer, la raréfaction des ressources peut être conçue sous


deux angles distincts : un angle géophysique et un angle économique.
Le premier concerne simplement la mesure des réserves disponibles.
L’étude des ressources naturelles est alors essentiellement technique,
à l’aide des connaissances et des méthodes des sciences naturelles.
Jevons déplace le spectre d’analyse de la question géophysique à
une question purement économique. Ce deuxième angle ne vise
plus à estimer les réserves de charbon encore disponibles, mais à se
concentrer sur deux éléments essentiels : d’un côté, l’accessibilité
économique, matérialisée par la rentabilité des gisements face aux
contraintes de coûts subies par les exploitants et, d’un autre côté,
l’étude d’une demande de minerai aux évolutions incessantes.

1. Missemer A., « La peur du déclin économique face à l’épuisement des ressources naturelles de W Stanley
Jevons à Herbert S Jevons (1865-1915) », Revue économique, vol. 66, n°5, 2015, pp. 825-842.

9782340-024007_001-264.indd 11 13/03/2018 13:13


Grandes questions d'économie du XXIe siècle

Jevons analyse les mécanismes économiques d’ajustement entre


une offre soumise à des coûts croissants et une demande exprimant
des besoins toujours renouvelés.
12
Chez Jevons, la peur de la stagnation économique se fonde sur
les conséquences d’une hausse du prix de la houille. En raison de
difficultés croissantes d’accès, la houille deviendrait plus chère.
Si le coût d’extraction du charbon, et donc son prix de vente aux
industriels, augmentent, alors tous les biens produits avec du
charbon risquent de voir leurs prix augmenter, ce qui pourrait
induire une perte de compétitivité-coût pour la Grande-Bretagne.
L’épuisement des ressources naturelles apparaît ainsi comme un
vecteur progressif de déclin économique compris dans un sens
relatif et non absolu.

* La longue stagnation (1873-1892)


À la suite du krach de la bourse de Vienne en mai 1873 (suivi
d’une panique bancaire aux États-Unis en septembre), l’Europe
s’installe dans une longue période de stagnation d’environ une
vingtaine d’années connue aussi sous le nom de grande dépression1.
Un moindre dynamisme de l’innovation est perceptible et un
climat de morosité s’installe durablement. La vieille Europe prend
conscience du fait que la baisse des coûts de transports et la libéra-
lisation commerciale ont fait émerger de dangereux concurrents
(notamment les pays dits neufs). Les pays européens rompent avec
la libéralisation à partir de la fin des années 1870 et un nouveau
régime de politique commerciale est établi, plus stratégique et
discriminatoire (tarifs Bismarck de 1879, tarif général de 1881
en France…)

En France, une peur du déclin s’installe. Plusieurs ouvrages comme


Le péril national, de Raoul Frary, (Paris, Cerf, 1883), La France et la
concurrence étrangère, Charles Thierry-Mieg (Paris Calmann-Levy,
1884) manifestent cette inquiétude. La presse française et les cercles
académiques insistent aussi sur la perspective d’un déclassement
relatif du pays. L’expression « le péril jaune », souvent matinée de
préjugés racistes, traduit la crainte qu’un rassemblement de pays
asiatiques ne mette à mal le leadership de l’Occident. Ces craintes
sont objectivées par la montée en puissance du Japon et de la
Chine dans le commerce international. Dans un registre différent

1. Voir Breton Y., Broder A., Lutfalla M. (dir), « La longue stagnation en France : l’autre grande dépression
1873-1897 », Paris, Economica, 1997.

9782340-024007_001-264.indd 12 13/03/2018 13:13


1. La perspective d’une stagnation séculaire

la montée en puissance de l’Allemagne est analysée par Maurice


Schwob dans l’ouvrage Le danger allemand, publié en 1896. Dans ce
contexte déprimé, une partie du courant agrarien établit un lien
entre le recul de l’agriculture et le déclin national. 13

Faut-il, aujourd’hui, disqualifier les craintes devant les menaces


de désindustrialisation et de stagnation comme relevant du même
passéisme qui conduisait en France – sous la Troisième République –
à s’inquiéter du dégonflement du secteur agricole1, alors qu’on
aurait dû y voir une composante essentielle de l’industrialisation ?

Pour
la petite Dans les années 1890, afin de lutter contre la concurrence des
histoire importations allemandes, les autorités britanniques imposent un
label « made in Germany » censé détourner les consommateurs
britanniques… Sans succès ! Ce label signale – au contraire – la
qualité des produits allemands et renforce leur attrait.

* La thèse d’une « Secular Stagnation »


de Hansen
À la fin des années 1930, l’économiste Alvin Hansen soutenait
l’idée que les États-Unis étaient condamnés à une croissance
faible en raison, notamment, d’un ralentissement progressif de
la croissance démographique et d’une insuffisance de la demande
globale. Il a, semble-t-il, été le premier à utiliser l’expression
« Secular Stagnation ».

Dans l’ouvrage Full Recovery or Stagnation (1938), Hansen s’intéresse


avant tout aux causes de la rechute de la croissance américaine de
la fin des années 1930. Il explique que la reprise de 1934-1937 a
été principalement le fruit d’un soutien public à la consommation

1. Voir par exemple Méline J., Le retour à la terre et la surproduction industrielle, Paris, Hachette, 1905.

9782340-024007_001-264.indd 13 13/03/2018 13:13


Grandes questions d'économie du XXIe siècle

dans le cadre du New Deal de Roosevelt1. En vertu du principe


d’accélération, l’investissement a ensuite suivi la progression
de la consommation. La reprise n’ayant pas de ressort propre,
14 l’interruption du soutien à la consommation (via une politique
monétaire restrictive, une réduction des dépenses fédérales et des
hausses d’impôts) a provoqué l’effondrement de l’investissement.
La solution aurait été de continuer à soutenir la consommation par
les dépenses publiques ou de mener une politique d’accroissement
des investissements publics.

Dans un contexte de défiance vis-à-vis des banques, à la suite


des faillites du début des années 1930, les marchés financiers ne
permettent pas – à eux seuls – d’orienter l’épargne vers des projets
d’investissement réel. Il est donc nécessaire de promouvoir une
fonction de « banque d’investissement » par l’État. Le problème
majeur est le manque permanent d’occasions d’investir par rapport
à la formation de l’épargne, d’où une pression défl ationniste
structurelle. Selon Pierre Dockes2, Hansen souligne que trois
facteurs jouent un rôle essentiel dans la formation des occasions
d’investir et qu’il n’est plus possible de compter sur eux à l’époque :
les innovations technologiques, la croissance de la population et la
conquête de nouveaux territoires, riches en ressources naturelles.

En ce qui concerne ce que Hansen nomme le « producers’ capital »,


à la différence du XIXe siècle, il n’est plus possible de compter sur
des innovations fortement « capital using » du type de celles de la
1. L’expérience Roosevelt dite du New Deal (la nouvelle donne), conduite entre 1933 et la veille de la Seconde
Guerre mondiale, bénéficie d’un extraordinaire prestige. Elle apparaît pour beaucoup comme un premier
exemple historique de l’efficacité d’une stratégie de relance et préfigurerait les politiques économiques
d’inspiration keynésienne. En réalité ses enseignements sont beaucoup plus nuancés et sa portée plus
limitée. Roosevelt n’avait ni doctrine, ni vrai programme économique, il entendait seulement lutter
de façon pragmatique contre les manifestations de la crise. Ses objectifs sont de casser le processus de
baisse des prix et de redonner au plus vite du travail aux chômeurs.
La reprise de l’activité paraît décevante. La production industrielle connaît jusqu’à la guerre une
évolution heurtée et médiocre, le niveau de 1929 n’est retrouvé qu’en 1937 avant d’ailleurs de s’effondrer
de nouveau en 1938 (baisse d’environ 20 %). La difficulté majeure parait résider dans l’incapacité à
retrouver un volume d’investissement important faute de confi ance à la fois dans le système fi nancier,
comme le souligne Hansen, et dans les perspectives d’activité. Le chômage est certes réduit mais reste à
un niveau élevé (plus de 10 millions de chômeurs en 1935 ce qui correspond à un taux supérieur à 20 %).
L’expérience du New deal est ambiguë à bien des égards. En matière d’activité, le lent rétablissement
de la production ne peut masquer la persistance d’un chômage très élevé. Du point de vue de son inspi-
ration keynésienne, s’il est vrai que Roosevelt a eu plusieurs entretiens personnels avec Keynes, la
politique économique à l’œuvre reste ambivalente. D’un côté, un interventionnisme global se fait jour
dans l’agriculture et l’industrie et des grands travaux contribuent à réemployer des chômeurs en ce
sens elle peut être qualifiée de keynésienne. Mais d’un autre coté au moins jusqu’en 1938 le principe du
caractère stabilisant du déficit budgétaire n’est pas ouvertement accepté par Roosevelt.
2. Dockes P., « Les débats sur la stagnation séculaire dans les années 1937-1950 Hansen-Terborgh et
Schumpeter-Sweezy », Revue Économique, vol.66, n°5, 2015, pp. 967-992.

9782340-024007_001-264.indd 14 13/03/2018 13:13


1. La perspective d’une stagnation séculaire

Révolution industrielle et plus généralement des grandes vagues


schumpétériennes (machine à vapeur, chemin de fer, électricité,
automobile), celles du passage d’une société rurale et artisanale à
l’industrie, puis à la grande industrie. Ces vagues longues ont été 15
suivies de dépressions longues, et la stagnation de la fin des années
1930 peut être assimilée à une dépression de ce type.

Les solutions proposées par Hansen sont voisines de celles de J-M.


Keynes : abaisser le taux d’intérêt, mettre en œuvre des transfor-
mations institutionnelles afin de réduire les inégalités et de faire
baisser la propension à épargner et, enfin, opérer une mutation du
rôle du budget des administrations publiques. L’interventionnisme
de Keynes se veut global et respectueux de la sphère de décision
des entrepreneurs privés.

À cette époque, les craintes pour la croissance future étaient même


partagées par Schumpeter, pourtant chantre de l’innovation, qui
redoutait, quant à lui, les conséquences d’une sorte de bureau-
cratisation de l’innovation au sein des économies capitalistes. Le
carcan réglementaire issu des New Deal annihile l’innovation. Dans
Capitalisme Socialisme et démocratie (1942), il doute, plus largement,
de la capacité du capitalisme à sortir vainqueur du conflit avec le
socialisme soviétique.

Depuis la crise de 2007-2009 le thème de la stagnation séculaire a


ressurgi. Avant d’exposer les termes du débat nous allons mettre
en perspective les performances de croissance depuis les années
1960 aux États-Unis et ailleurs.

9782340-024007_001-264.indd 15 13/03/2018 13:13


Grandes questions d'économie du XXIe siècle

# Le ralentissement de la croissance,
quelle ampleur ? Quelle réalité ?
16 Les chiffres de PIB montrent une fermeté de la croissance mondiale
mais un fléchissement au sein des économies les plus avancées
(États-Unis, Japon, Europe).

* La bonne tenue de la croissance mondiale


depuis la crise financière de 2007-2009

Graphique 1.1 – Taux de croissance du PIB réel mondial entre 1961 et 2018

Source : Banque mondiale, prévisions pour 2017 et 2018

Le graphique ci-dessus retrace la croissance du PIB réel de l’économie


mondiale depuis 1961 à partir de données de la Banque mondiale.
La trajectoire de la croissance mondiale apparaît très sensible aux
chocs : premier choc pétrolier de 1973-74, choc pétrolier de 1979
à la suite de la révolution islamique en Iran, guerre du Golfe en
1991, crise des subprimes associée à un recul absolu de l’activité
à l’échelle globale en 2009.

Par contre, le graphique ne suggère pas l’idée d’une stagnation de


la croissance à long terme. L’insertion des pays émergents dans la
mondialisation (BRICS1), un phénomène de rattrapage technolo-
gique et une dynamique intersectorielle favorable (industrialisation)
sont la source de leur forte croissance (voir les cas de la Chine et
de l’Inde). Exception faite du choc de 2009 (–1,7 %) le rythme de
la croissance mondiale semble inchangé depuis les années 1990.

1. Cet acronyme est utilisé dans les années 2000 pour désigner cinq grands pays émergents : Brésil, Russie,
Inde, Chine et Afrique du Sud.

9782340-024007_001-264.indd 16 13/03/2018 13:13


1. La perspective d’une stagnation séculaire

Bien entendu, le débat concerne l’économie américaine et plus


largement les économies les plus « matures », les vieilles économies
industrialisées.
17
* L’essoufflement de la croissance au sein
des économies les plus avancées
La stagnation séculaire est, avant tout, un débat américain que
l’exemple des États-Unis accrédite davantage. La tendance à la
décélération de la croissance américaine est nette depuis les années
1960 et plus encore depuis les années 1990. Aux anticipations
déraisonnables suscitées vers 1997 par l’éclosion de la « nouvelle
économie » (les fameuses NTIC, les Nouvelles Technologies de
l’Information et de la Communication), a succédé une désillusion
brutale, lorsqu’il est apparu que les forts taux de croissance de
la période antérieure étaient seulement (même dans le cas le
plus favorable, celui de l’économie américaine) retrouvés ou
approchés pendant une brève période, suivie d’un reflux marqué.
Les conséquences réelles de la crise des subprimes (–2,8 % pour
les États-Unis) ont été vécues comme un traumatisme. Et surtout,
pire encore, la cavalerie de l’innovation n’est pas venue au secours
de la croissance américaine qui oscille autour de 2 % seulement.
Donald Trump a fait de la relative faiblesse de l’activité un angle
d’attaque de sa campagne présidentielle en 2016, promettant de
porter cette croissance à 4 % par une relance budgétaire d’envergure
et des réformes structurelles (libéralisation dans les secteurs de
la finance, des énergies…).

Graphique 1.2 – Taux de croissance du PIB réel des États-Unis entre 1961 et 2016

Source : Banque mondiale

9782340-024007_001-264.indd 17 13/03/2018 13:13


Grandes questions d'économie du XXIe siècle

Les cas du Royaume-Uni et de la France, deux vieilles économies


tertiaires, et plus largement et plus curieusement celui l’Union
Européenne dans son ensemble (malgré un processus de convergence
18 de pays périphériques) accréditent aussi l’idée d’un ralentissement
séculaire de l’activité. Les trajectoires de croissance font ressortir
la forte interdépendance dans le cadre de l’intégration européenne
(à partir du début des années 1970 pour le Royaume-Uni). La
tendance au ralentissement est assez nette depuis les années 2000.

Graphique 1.3 – Taux de croissance du PIB réel du Royaume-Uni,


de l’Union européenne et de la France entre 1961 et 2016

Source : Banque mondiale

# La stagnation japonaise
Le Japon souffre depuis le début des années 1990 d’une stagnation
de sa croissance. Le tassement de l’activité s’est accompagné d’une
déflation rampante que les politiques économiques n’ont pas réussi
à combattre. Si le début des difficultés peut être associé à une crise
financière de grande ampleur (effondrement boursier de 1990-1992,
dégonflement de la bulle immobilière), leur perpétuation apparaît
comme la conséquence de faiblesse structurelle « moderne » comme
l’accélération de la tertiairisation et le vieillissement de la population.
La part des personnes de plus de 65 ans dans la population totale
est passée de 7 % en 1970 à 11,9 % en 1990 et 26,9 % en 2016. Ce
vieillissement rapide de la population freine le potentiel de croissance,
notamment en entraînant un déclin de la population active, mais il
contribue aussi à la détérioration des finances publiques.

9782340-024007_001-264.indd 18 13/03/2018 13:13


1. La perspective d’une stagnation séculaire

Dès les années 1990, les taux d’intérêt sont portés à un très bas niveau
et le pays entre dans une trappe à la liquidité1. La politique budgétaire
prend alors de puissants relais à travers des plans de relance variés
mais qui ne parviennent pas à relancer l’activité. L’épisode montre la 19
très grande difficulté à sortir de la déflation via les outils conjoncturels
traditionnels. Dans les années 2000, les stratégies de dépréciations du
yen ne parviennent pas à dynamiser l’inflation via le renchérissement
du prix des importations. De même, les relances budgétaires qu’elles
soient axées sur l’investissement public ou la consommation à travers
des baisses d’impôts ou des transferts échouent à casser la déflation
et ont pour conséquence un accroissement très spectaculaire de la
dette publique. Le rapport dette/PIB passe ainsi de 70 % en 1992 à
142 % en 2000, 182 % en 2008 et 234 % en 2016.

Graphique 1.4 – Taux de croissance du PIB réel du Japon entre 1961 et 2016

Source : Banque mondiale

# Le débat contemporain
sur la stagnation séculaire
Paul Krugman et Lawrence Summers mettent en avant des facteurs
qui affaiblissent, selon eux, durablement la demande globale alors
que d’autres économistes comme Tyler Cowen et Robert Gordon2
se concentrent sur les causes de l’affaiblissement de la croissance
potentielle.

1. La trappe à la liquidité désigne un niveau minimal en dessous duquel les taux d’intérêt nominaux ne
peuvent pas descendre.
2. Voir deux contributions « Is US Economic Growth Over ? », NBER Working Papers n°18314, August 2012
et « The Demise of US Economic Growth : Restatement, and Reflections », NBER Working Papers, n°19895
February 2014.

9782340-024007_001-264.indd 19 13/03/2018 13:13


Grandes questions d'économie du XXIe siècle

* La faiblesse endémique de la demande


Lors d’une conférence du FMI en novembre 2013 Lawrence
Summers affirme que l’économie américaine se trouve vraisem-
20
blablement dans une période de « stagnation séculaire ». Dans la
lignée de Wicksell et Keynes, il incrimine la faiblesse des occasions
d’investir liée en particulier à la démographie et à l’excès d’épargne
en relation avec des inégalités croissantes. Dès lors, l’équilibre de
plein-emploi entre l’épargne et l’investissement correspondrait
à un taux d’intérêt naturel négatif. Cela expliquerait, selon lui,
l’absence d’inflation constatée lors des périodes d’expansion comme
durant la fin des années Reagan, les années 1990 et 2000 ainsi
que la relative faiblesse de la reprise après la crise de 2007-2008.
Les bulles financières que des taux d’intérêt nuls ne manquent pas
de générer seraient seules responsables des phases d’expansion.

Ainsi les conséquences du bas niveau des taux d’intérêt sont


dénoncées. Les effets de la borne du zéro (« zero lower bound ») sont
plus importants que prévus et durent plus longtemps que prévu. La
politique monétaire perd de son efficacité car pour relancer l’éco-
nomie, il faudrait porter les taux d’intérêt nominaux en dessous
de zéro, ce qui est impossible. Le maintien à long terme dans la
trappe à liquidité a des conséquences néfastes sur la consommation
et l’investissement. Lorsque, comme depuis le début de la crise
financière, les taux d’intérêt réels tendent à être négatifs, il est
plus difficile de sortir de la trappe à liquidité.

Le contexte a changé de façon importante depuis le cycle de 2000


à 2007 : ce cycle a été marqué par la forte hausse de l’endettement
des ménages américains, qui a permis un soutien substantiel des
dépenses de consommation et donné l’illusion d’un dynamisme de
l’activité. Même si la tendance récente observée à la baisse de cet
endettement aux États-Unis cessait, les dépenses de consommation
ne pourraient pas reprendre leur rythme d’augmentation du cycle
précédent, à moins que les ménages ne s’endettent davantage qu’ils
ne le sont déjà. Le ralentissement de la croissance des dépenses de
consommation favorise en plus, lui aussi, la baisse des taux d’intérêt.

Même les politiques monétaires non conventionnelles ont de grandes


difficultés à combattre la stagnation séculaire. Selon Krugman,
sans une hausse marquée de la cible de l’inflation (de 2 % à 4 %),
le problème de la « borne du zéro » risque de neutraliser la plupart
des mesures monétaires. Ensuite, la politique fiscale (notamment
une hausse des dépenses publiques) pourrait chercher à compenser

9782340-024007_001-264.indd 20 13/03/2018 13:13


1. La perspective d’une stagnation séculaire

la baisse de la croissance des dépenses des ménages et des inves-


tissements, mais il n’est pas certain que cet élan permettrait de
sortir de la stagnation permanente, encore faudrait-il que les
consommateurs suivent. 21

* Les facteurs de ralentissement


de la croissance potentielle
Les travaux très fouillés de Robert Gordon (2012) ont eu un grand
retentissement et ont concentré les débats sur les liens entre
innovations et stagnation. Gordon annonce un ralentissement
durable et significatif de la croissance américaine. Par extension, il
remet en cause la croyance dans le caractère illimité de croissance
économique. Selon les estimations de Gordon (2014), le taux de
croissance annuel moyen s’élèvera dans les prochaines décennies
à 1,3 % pour la productivité du travail, à 0,9 % pour la production
par tête, à 0,4 % seulement pour le revenu réel par tête des 99 %
des ménages les moins aisés et à 0,2 % pour le revenu disponible de
ces mêmes ménages. Les États-Unis refermeraient ainsi une paren-
thèse de forte croissance ouverte avec la Révolution industrielle.
Gordon défend la thèse d’une grande stagnation développée aussi
par Tyler Cowen1 en raison de la fin des innovations les plus « à
portée de la main » (low-hanging fruits). Gordon (2012), comme
Cowen, fait du ralentissement de l’innovation la principale cause
de l’affaiblissement de la croissance potentielle ; les inventions les
plus faciles à mettre en œuvre ont déjà été mises à jour et l’économie
buterait tout simplement sur un manque d’inspiration.

Les critiques, adressées à Gordon, se sont concentrées sur cet


argument de l’épuisement de l’innovation. Beaucoup d’auteurs
sont, au contraire, très optimistes sur la capacité du capitalisme à
innover dans le futur. Erik Brynjolfsson et Andrew McAfee dans
l’ouvrage The Second Machine Age (2014) pensent, au contraire, que
le progrès technique va s’accélérer significativement. Les progrès
les plus attendus concernent essentiellement le domaine médical,
les robots, l’impression en 3D, l’intelligence artificielle, les big
data et les voitures sans conducteur. Or, pour Gordon, aucune de
ces innovations n’aura autant d’impact sur la productivité et le
niveau de vie que celles générées lors de la deuxième révolution
industrielle. Un point clé réside en effet dans les conséquences
de l’innovation sur la productivité. De ce point de vue la période

1. Cowen T., The Great Stagnation : How America Ate All the Low-hanging Food of Modern History, Got Sick,
and Will (Eventually) Feel Better, Dutton Adult, 2011.

9782340-024007_001-264.indd 21 13/03/2018 13:13


Grandes questions d'économie du XXIe siècle

récente est marquée par un contraste saisissant entre d’un côté


le dynamisme de l’innovation (plateformes de service, l’internet
connecté…) qui prouve que l’inspiration des entrepreneurs innova-
22 teurs est toujours présente et, de l’autre, la faiblesse des gains de
productivité et des performances de croissance.

Gordon a regretté que le débat sur la stagnation séculaire se soit


concentré sur les innovations alors qu’il avait identifié d’autres
facteurs de freinage de la croissance qui ont été moins discutés.
Selon lui, plusieurs autres phénomènes hypothèquent la capacité
des États-Unis à engendrer une forte croissance potentielle dans
les prochaines décennies.

Un premier « vent contraire » réside dans la démographie améri-


caine. La hausse du taux d’activité des femmes qui avait contribué
à la croissance américaine des 40 dernières années ne pourra plus
avoir le même effet positif. Il atteint vraisemblablement un plateau
autour des 65 %. En raison des dysfonctionnements propres à la
protection sociale aux États-Unis, les entreprises sont incitées à
embaucher à temps partiel, afin d’éviter de payer les coûts d’assu-
rance sociale ce qui freine aussi l’activité. Concernant cet argument
démographique, Gordon convient que des réponses sont possibles
à travers, par exemple, le recours à l’immigration.

Le plafonnement du taux de scolarisation constitue un autre


problème dans le cas des États-Unis. Une population plus scola-
risée a des salaires plus élevés et pousse la productivité globale
vers le haut. Le niveau d’éducation, après avoir augmenté pendant
plusieurs décennies, stagne désormais dans le pays. Par exemple,
le pourcentage de jeunes qui disposent d’un diplôme du secondaire
est passé de 10 à 80 % entre 1900 et 1970, puis il a diminué pour
atteindre 74 % en 2000. De plus, l’accès à l’éducation, et plus
particulièrement aux études universitaires, devient de plus en plus
difficile, comme le montre l’explosion de la dette étudiante. Alors
qu’elle constituait un moteur central de la croissance économique au
cours du dernier siècle en générant d’importants gains de produc-
tivité, l’éducation contribuera, selon lui, moins à la croissance au
cours des prochaines décennies.

La dette obère aussi très dangereusement la croissance future des


États-Unis mais également des autres économies avancées. Sous le
poids de la dette (la dette brute totale, privée et publique, dépasse
les 400 % du PIB aux États-Unis), les économies occidentales ont
entamé un long processus de stabilisation budgétaire qui pèsera

9782340-024007_001-264.indd 22 13/03/2018 13:13


1. La perspective d’une stagnation séculaire

sur la croissance future (hausse d’impôts, réduction des dépenses


publiques), sans autre solution de long terme que l’inflation. Ici
l’histoire enseigne que les phases de désendettement ne sont pas
toujours synonymes de stagnation. Durant les années 1920 et les 23
années 1950, une inflation soutenue et une croissance dynamique
se sont combinées pour amortir l’endettement issu des conflits
mondiaux.

L’augmentation des inégalités représente aussi une bourrasque


structurelle très forte contre la croissance. Pendant que les revenus
des acteurs les plus mobiles et les plus talentueux de la mondiali-
sation atteignent des sommets, les 90 % les plus pauvres subissent
des attaques pour réduire leurs salaires et leurs avantages sociaux,
notamment du côté de leurs régimes de pensions. Le tassement des
revenus de la classe moyenne – aux États-Unis, le salaire médian
n’a progressé que de 8 % en vingt ans – pèse sur la consommation
et donc sur la croissance. Mais en même temps, la concentration
des revenus dans les mains du centile supérieur de la population
– via la distribution de dividendes aux actionnaires – peut poten-
tiellement accélérer la circulation du capital et être un vecteur
de propagation de l’innovation. Pour Gordon, les inégalités vont
continuer à s’accroître. La part du revenu national détenue par les
1 % des ménages les plus aisés atteignait des niveaux extrêmes entre
1913 et 1929. Elle a fortement diminué entre les années cinquante
et le début des années soixante-dix. Elle augmente à nouveau
depuis la fin des années soixante-dix et retrouve aujourd’hui les
valeurs qu’elle atteignait au début du vingtième siècle. Au cours
des dernières décennies, la croissance du revenu réel des 99 %
des ménages les moins aisés a été inférieure d’un demi-point à la
croissance moyenne de l’ensemble des revenus. En 2012, toujours
selon Gordon, le revenu réel médian des ménages américains était
inférieur à son niveau de 1998. Si cette tendance se poursuit, la
hausse des inégalités devrait à l’avenir se traduire par une baisse
de 0,5 point de pourcentage du taux de croissance annuel moyen
des revenus réels des 99 % des ménages les moins aisés.

Ici Gordon convient qu’il n’y a pas de fatalité à ce que les inégalités
freinent durablement la croissance. Des réponses sont possibles à
travers, par exemple, la progressivité des systèmes fiscaux comme
ce fut le cas aux États-Unis des années 1930 aux années 1960.

9782340-024007_001-264.indd 23 13/03/2018 13:13


Grandes questions d'économie du XXIe siècle

Pour
la petite Roosevelt porte le taux marginal de l’impôt fédéral sur le revenu
histoire de 25 % en 1932 à 79 % en 1936. Ce taux est porté à 91 % en
1941, il reste à ce niveau jusqu’en 1964.
24

# Développement des services


et freinage de la croissance
Le débat sur la stagnation séculaire doit, selon nous, inévitablement
être resitué par rapport aux conséquences du développement de la
part des services dans l’économie. Cette dynamique structurelle, au
cœur des travaux de Kuznets et Baumol dans les années 1950-1960,
parait aujourd’hui beaucoup trop négligée.

De ce point de vue, comment peut-on apprécier les perspectives


d’une croissance tertiaire, où l’innovation dans les services prendrait
intégralement le relais de l’innovation industrielle comme moteur
de la croissance ? Dans la lignée des économistes classiques, nous
défendons une nouvelle fois l’idée que la tertiarisation exerce à long
terme un effet de freinage sur la croissance potentielle.

* Le modèle classique
Pour les fondateurs de l’économie classique, les services – qu’il
s’agisse de ceux de l’artiste comédien, du domestique, du médecin… –
ont en commun d’être exclus de la sphère de la production, et
le développement de ces activités qualifiées d’« improductives »
s’inscrit dans le cheminement inéluctable vers l’état stationnaire,
qui constitue à leurs yeux l’aboutissement ultime du processus
d’industrialisation.

L’approche néo-classique, au contraire, récuse ce clivage brutal


entre « productif » et « improductif » (réintégrant de plein droit les
services au même titre que les produits dans la sphère productive),
mais elle rejoint par une voie différente la thèse d’un tarissement
progressif des sources de la croissance au fur et à mesure de la tertia-
risation des économies avancées, en plaçant au centre de l’analyse
la question de la dynamique sectorielle des gains de productivité.
Cette vision est partagée par William Baumol et Jean Fourastié,
qui évoque « l’envahissement » de l’économie par le tertiaire et
dénonce comme « une erreur particulièrement pernicieuse » toute
notion d’un développement fondé sur le tertiaire, ou encore Daniel

9782340-024007_001-264.indd 24 13/03/2018 13:13


1. La perspective d’une stagnation séculaire

Bell, pourtant le premier chantre de la société post-industrielle,


mais qui admet sans difficulté que l’absorption par les services
d’une part croissante de la main-d’œuvre freine nécessairement
la productivité et la croissance globales. 25

Le modèle commun à ces auteurs tire toute sa force de sa simplicité.


Il repose sur deux prémisses :
◊ Tout d’abord, les gains de productivité dans le secteur tertiaire
sont faibles ou nuls, et en tout cas négligeables au regard de
ceux de l’industrie et même de l’agriculture. L’exemple préféré
de Fourastié est celui du coiffeur qui ne tond pas plus vite
aujourd’hui qu’il y a un siècle, et qui n’est pas plus productif à
Chicago qu’à Calcutta.
◊ Ensuite, la demande de services tend à augmenter à long terme,
sous l’effet de la progression des revenus et de la saturation
progressive des besoins en biens alimentaires, puis en biens
industriels, conformément aux lois d’Engel.
De là découlent directement plusieurs implications majeures.
D’abord, le prix relatif des services par rapport à celui des biens
industriels est appelé à augmenter indéfiniment, puisqu’il reflète
nécessairement à long terme l’écart des gains de productivité
respectifs entre les deux secteurs. Ici chacun peut mesurer facilement
à quel point le prix relatif de la coupe de cheveux a augmenté par
rapport aux prix d’articles ménagers comme les cafetières, les sèche-
cheveux… En second lieu, la part des services dans la valeur de la
consommation totale ne peut que s’accroître à long terme, puisque
l’effet prix et l’effet volume jouent simultanément dans le même
sens, et, du même coup, la part des services ne peut qu’augmenter
au sein de la valeur totale du PIB et surtout au sein de l’emploi total.
Enfin, l’alourdissement du poids relatif du secteur à faibles gains
de productivité ne peut que freiner mécaniquement le rythme de la
croissance globale, par un effet de structure, c’est-à-dire indépen-
damment de tout fléchissement des gains de productivité au sein
de chaque secteur envisagé séparément.

Avant de critiquer ce modèle ou de réfléchir sur ces limites, il


faut prendre acte de sa portée explicative à l’égard des réalités
contemporaines. Il existe bien en effet une tendance dominante,
qui s’affirme à travers toutes les phases de la conjoncture et dans
les contextes les plus divers, au renchérissement cumulatif du prix
des services par rapport au prix des biens, en particulier des biens
manufacturés. Par ailleurs, comment ne pas faire le rapprochement

9782340-024007_001-264.indd 25 13/03/2018 13:13


Grandes questions d'économie du XXIe siècle

avec les débats sur la stagnation séculaire dans les économies les
plus avancées, qui sont aussi les plus tertiarisées, et aussi avec le
contraste entre les deux grandes économies du monde actuel : la
26 Chine, dont le rythme de croissance en pleine phase d’industria-
lisation dépassait les 10 % par an.

* Les critiques du modèle


Une objection fondamentale porte sur le postulat central du modèle
d’épuisement de la croissance : la faiblesse des gains de productivité
dans les services, considérée comme caractéristique du secteur
tertiaire dans son ensemble. Il ne s’agit certes pas là d’une affir-
mation doctrinale (comme la thèse marxiste et classique de l’impro-
ductivité intrinsèque des activités de services), mais d’un jugement
de fait, susceptible en principe de vérifications empiriques. Or, à cet
égard, on ne doit pas se laisser impressionner par les exemples trop
bien choisis de la coupe de cheveux ou du quatuor de musiciens.
Car il existe aussi des contre-exemples : les services de transport
et communications mettent à leur actif des gains de productivité
mesurables au même titre que ceux de l’industrie ou de l’agriculture,
et d’une amplitude souvent encore plus impressionnante, comme
l’atteste la baisse de leur prix relatif, et en particulier la baisse à
long terme de la part des coûts de transport dans la valeur CAF
(coût, assurance, fret) des biens importés – un facteur qui joue un
rôle au moins aussi déterminant que les politiques commerciales
dans l’essor des échanges internationaux depuis deux siècles. Mais,
entre ces deux extrêmes (la coupe de cheveux et les transports), si
l’on veut parvenir à un jugement pondéré, tout le problème vient
de ce qu’il n’existe pas et ne peut exister de mesure directe de la
productivité et de ses variations pour un grand nombre d’activités
de services, la majorité probablement.

* La complémentarité entre
services et industries
Mieux vaut renoncer à toute tentative de mesure que de persister
dans certaines approches manifestement absurdes, comme de
vouloir mesurer la productivité du médecin par le nombre de
patients examinés, celle du chercheur par le nombre d’articles qu’il
publie, celle du professeur par le nombre de diplômes délivrés :
car cela revient implicitement à exclure toute possibilité d’une
authentique progression de la productivité liée au contenu même
de l’activité exercée. Or il serait contraire à toute vraisemblance que
des secteurs aussi évolutifs puissent demeurer en marge du progrès

9782340-024007_001-264.indd 26 13/03/2018 13:13


1. La perspective d’une stagnation séculaire

de la société, et certains indicateurs objectifs globaux (comme les


gains d’espérance de vie) confirment sans ambiguïté qu’il n’en est
pas ainsi. De plus, la situation est loin d’être figée, et aucune activité
tertiaire ne paraît vouée à demeurer irrémédiablement à l’écart 27
des gains de productivité. La révolution informatique (les NTIC)
a entraîné ce qu’on a appelé l’« industrialisation » des services, en
réalité l’industrialisation de certains services, avec pour résultat
des gains de productivité mesurables parfois spectaculaires, mais
qui ont donné lieu à des généralisations et prévisions abusives.

Que conclure vis-à-vis des perspectives de stagnation séculaire ?


D’abord, bien sûr, que la tertiarisation des économies avancées
n’est pas synonyme d’épuisement de l’innovation, de productivité
stagnante et de fin de la croissance. Mais de fin de la croissance
économique directement mesurable, sans doute, au moins au
sens de croissance directement imputable à un secteur d’activité
donné (c’est l’enseignement le plus clair de tous les débats autour
du paradoxe de Solow : « On voit des ordinateurs partout, sauf
dans les statistiques de productivité »). Les complémentarités
s’affirment à tous les niveaux. Les préoccupations d’équilibre, de
plein emploi, de préservation de l’environnement et de progrès
qualitatif l’emportent sur les objectifs quantitatifs d’accroissement
du niveau de vie, dont la prééminence exclusive peut apparaître
comme propre à une phase désormais révolue de l’histoire écono-
mique. Encore faut-il se garder de forcer les oppositions. Du point
de vue précisément des dynamiques de productivité, les dévelop-
pements actuels peuvent aider à mieux comprendre rétrospec-
tivement les problèmes de mesure de la croissance industrielle
elle-même, qui se posaient déjà dans la phase antérieure (bien
qu’à une moindre échelle) en présence d’innovations de produits
et de progrès qualitatifs. Réciproquement, dans la phase actuelle,
l’importance croissante des activités de services pour lesquelles la
productivité est impossible à mesurer directement ne signifie pas
que l’on doive renoncer à toute mesure globale de la productivité
de l’économie dans son ensemble : aussi longtemps que les biens
matériels demeurent une composante essentielle de la demande
finale, leur croissance peut être tenue pour représentative de la
contribution productive de toutes les branches de l’économie, y
compris bien entendu les services.

9782340-024007_001-264.indd 27 13/03/2018 13:13


Grandes questions d'économie du XXIe siècle

# Conclusion
La récurrence de craintes infondées quant à la stagnation de la crois-
28 sance en histoire économique ne saurait, aujourd’hui, dispenser d’un
semblable débat dans un contexte largement différent. Aujourd’hui,
un retour vers les faits économiques accrédite, bel et bien, l’idée
d’une stagnation séculaire. La croissance du PIB des économies les
plus avancées (États-Unis, Japon, Europe) tend à ralentir significa-
tivement. Les arguments avancés pour expliquer ce freinage et sa
capacité à s’inscrire sur la longue durée n’ont pas tous la même force.
Un haut niveau de dette est-il une vraie menace pour la croissance ?
Historiquement les phases de désendettement ne sont pas toujours
synonymes de stagnation comme l’illustrent les années 1920 et les
années 1950 où la combinaison d’une inflation soutenue et d’une
croissance dynamique avait permis un amortissement des dettes. Le
vieillissement de la population et les inégalités de revenus peuvent être
combattus par des politiques économiques (immigration, fiscalité).
L’argument d’un tassement de l’innovation est plus complexe, les
entrepreneurs modernes ne manquent sans doute pas d’inspiration.
Les innovations sont nombreuses et changent la vie des gens mais
elles concernent pour l’essentiel le secteur des services (numérique,
ubérisation…) et ont – au final – peu d’effets sur la productivité et
la croissance. À long terme, la principale menace pour la croissance
du PIB réside dans ce phénomène. Néanmoins, sur ces bases, l’épui-
sement de la croissance (la stagnation) ne serait pas synonyme de
fin du progrès humain.

9782340-024007_001-264.indd 28 13/03/2018 13:13


2 La mondialisation
et son avenir

La mondialisation reste l’une des caractéristiques majeures de


l’environnement économique contemporain. Elle est porteuse
d’opportunités et de contraintes. Nous proposons de mettre en
perspective ce processus à travers une analyse de sa dynamique,
de ses forces motrices, de son intensité et ses effets théoriques.
La mondialisation n’est ni linéaire, ni irréversible ! Il s’agit de
bien resituer la période charnière que nous vivons depuis la crise
financière de 2007-2009. La mondialisation connaît un tassement
de son intensité et son bien-fondé est de plus en plus contesté.
Peut-on, sur ces bases, anticiper une crise de la mondialisation à
l’avenir, un repli des économies sur elles-mêmes ?

# La contestation de la mondialisation
La contestation de la mondialisation contemporaine ne date pas
d’hier. À la fin des années 1990, déjà, une partie de la société civile
dénonçait une « mondialisation sauvage ». Dans l’ouvrage La grande
désillusion publié en 2002, Joseph Stiglitz dressait un bilan négatif
de stratégies d’ouverture uniformes, axées sur la doctrine libérale

9782340-024007_001-264.indd 29 13/03/2018 13:13


Grandes questions d'économie du XXIe siècle

dite du consensus de Washington1. Rodrik et Rodriguez2 insistaient,


quant à eux, sur la faible robustesse des travaux empiriques qui depuis
les années 1980 montraient, dans un unanimisme suspect, l’impact
30 positif de l’ouverture commerciale sur la croissance. Déjà la vision
béate d’une mondialisation heureuse pour tous s’était effacée au
profit d’une approche plus critique et nuancée. Une bonne stratégie
nationale d’ouverture devait être graduelle et contrôlée à l’instar
de l’exemple chinois. L’ouverture était payante si le pays disposait
d’institutions de qualité lui permettant de maîtriser des technologies
et des connaissances modernes mais aussi d’administrer – en bon
ordre – son insertion dans la mondialisation.

Depuis la critique de la mondialisation s’est déplacée vers ses consé-


quences inégalitaires entre les économies nationales et entre les
individus à l’intérieur des économies. Toutes les promesses de
convergence des prix des facteurs de production et des niveaux de
revenus par tête, portées par la théorie pure du commerce interna-
tionale (approche Hecksher, Ohlin, Samuelson, Stolper) n’ont pas été
tenues même si des cas de convergence peuvent être mis en avant
(à la périphérie de l’Europe par exemple). L’envolée des très hauts
revenus, ceux des derniers centiles, et une paupérisation des classes
moyennes sont à l’œuvre. Le succès du livre de Thomas Piketty Le
Capital au XXIe siècle (2013) est, pour partie, liée au souhait des

1. Durant les années 1980-1990, le FMI conditionne son aide aux pays en voie de développement à la
mise en œuvre de programmes d’ajustements structurels (PAS) d’inspiration libérale. L’idée consiste à
libéraliser le fonctionnement de ces économies en vue d’accélérer leur insertion dans une mondialisation
perçue alors comme une sorte de paradigme du développement. Les PAS menées par le FMI (et la Banque
Mondiale) ont été résumés en dix points par John Williamson en 1990. Ces faits saillants, partagés
par l’ensemble des autorités économiques américaines (Fed, agences économiques du gouvernement…)
fondent ce que Williamson appelle le consensus de Washington.
– Rigueur budgétaire : recherche de l’équilibre budgétaire à moyen terme afi n de limiter l’endettement
des États.
– Action sur les dépenses publiques à travers une réduction des subventions qui introduisent des
distorsions sur les marchés.
– Promotion d’une politique de stabilité monétaire basée sur la libéralisation des taux d’intérêt.
– Promotion de l’ouverture économique : les exportations doivent devenir un puissant moteur de la
croissance.
– Libéralisation des échanges (libéralisation des échanges commerciaux, démantèlement des instru-
ments de politiques commerciales…)
– Recherche d’une attractivité vis-à-vis des IDE.
– Privatisations afi n de réduire le poids de l’interventionnisme étatique.
– Déréglementation des marchés intérieurs (des capitaux, du travail…)
– Réforme fi scale orientée vers l’élargissement du nombre de contribuables, le développement de la
TVA et la baisse des taux marginaux de l’impôt sur le revenu.
– Renforcement des droits de propriétés.
2. Rodriguez F. et Rodrik D., « Trade policy and economic growth : a skeptic’s guide to the cross-national
evidence », NBER Working Paper, n°7081, 1999.

9782340-024007_001-264.indd 30 13/03/2018 13:13


2. La mondialisation et son avenir

opinions publiques – y compris aux États-Unis – de comprendre les


mécanismes par lesquels la mondialisation provoque une hausse des
inégalités de revenus et de patrimoine. Peu à peu, les gagnants de la
mondialisation ont été opposés aux perdants. 31

Lors des élections présidentielles américaines, Donald Trump a su


capter les suffrages de ces perdants. Il leur a promis une protection à
travers un durcissement de la politique commerciale américaine : des
hausses de droit de douanes contre les produits chinois, des mesures
contre les importations mexicaines ont été évoquées.

L’arrivée au pouvoir de Trump fait craindre un changement de régime


de politique commerciale et l’entrée dans une ère plus protection-
niste. D’autres pays sont tentés – eux aussi – par un durcissement des
contrôles pour préserver la stabilité sociale à l’instar du Royaume-Uni.
Ce scénario marquerait une rupture avec le mouvement de libéra-
lisation à l’œuvre depuis la fin des années 1940. Un tel virage peut
être dangereux à négocier comme le montre l’histoire qui offre deux
séquences de retournement des politiques commerciales à l’échelle
internationale.

À la fin des années 1870 tout d’abord, après une période de libéra-
lisation commerciale et de forte ouverture, le monde avait basculé
vers un régime plus protectionniste. Au terme de débats sur les
conséquences de la libéralisation tarifaire des années 1860 et dans
un contexte de stagnation de l’activité, l’Espagne (1877), l’Alle-
magne (1879), la France (en 1881 puis en 1892) et d’autres pays
avaient remonté leurs tarifs douaniers et mis en œuvre des mesures
stratégiques et discriminatoires : pour un même produit le tarif
pouvait être différent selon le pays de provenance. Des nomencla-
tures douanières plus désagrégées permettaient de mieux cibler les
importations à freiner. Mais jusqu’en 1913, ce nouveau protection-
nisme avait, cependant, été assez modéré pour préserver les acquis
de la mondialisation. Le graphique ci-dessous – fondé sur un gros
travail d’histoire économique quantitative de Jules Hugot et Michel
Fouquin – montre que le coefficient d’ouverture d’un échantillon de
17 pays, pour lesquels les données sont disponibles, se stabilise sur
un plateau haut des années 1870 à la Première Guerre mondiale.

Par contre après la crise de 1929, la guerre commerciale mondiale


avait débouché, par son ampleur, sur un repli des économies sur
elles-mêmes et une crise de la mondialisation qui avait aggravé
la crise. L’arsenal protectionniste s’était alors enrichi de mesures
nocives comme les quotas et les relations commerciales et financières

9782340-024007_001-264.indd 31 13/03/2018 13:13


Grandes questions d'économie du XXIe siècle

avaient été marquées par la montée du bilatéralisme. Le coefficient


d’ouverture commerciale atteint alors un point bas historique (voir
graphique 2.1). La guerre commerciale s’était prolongée par une
32 déflagration mondiale.

# Les dimensions de la mondialisation


Dans sa dimension économique la mondialisation désigne une inten-
sification des échanges internationaux de marchandises, de services
et de facteurs de production (capital et travail), une interpénétration
de plus en plus poussée des économies nationales.

Pour
mémoire
Le terme globalisation désigne le même processus mais véhicule
aussi l’idée qu’une homogénéisation des comportements et des
modes de vie serait à l’œuvre à l’échelle globale. La globalisation
renvoie aussi à l’émergence d’enjeux planétaires (réchauffement
climatique, épuisement des ressources naturelles, pandémies…)
qui nécessitent de penser une régulation coopérative à l’échelle
du monde.

* L’ouverture commerciale
Les coefficients d’ouverture (rapports entre les flux exportés et
importés de marchandises et de services) permettent de mesurer
l’intensité et l’évolution de la mondialisation. Les travaux histo-
riques montrent trois temps dans l’histoire de la mondialisation
commerciale : une période d’ouverture croissante jusqu’à la Première
Guerre mondiale, un repli durant l’entre-deux-guerres, accentué
dans les années 1930 et une réouverture des économies dans les
années 1960.

9782340-024007_001-264.indd 32 13/03/2018 13:13


2. La mondialisation et son avenir

Graphique 2.1 – Coefficients d’ouverture commerciale (1827-2014)

33

Source : Hugot J et Fouquin M, « Back to the future : trade costs and the two globalizations,
1827-2014 », CEPII Working Paper, n°2016-13. L’échantillon de 7 pays prend en compte
l’Australie, les États-Unis, la France, la Norvège, les Pays-Bas, le Royaume-Uni et la Suède.

Le graphique ci-dessus offre une vue détaillée de la mondialisation


commerciale depuis le début du XIXe siècle. En prenant en compte
7 pays, une dynamique d’ouverture est perceptible de la fin des
années 1840 jusqu’à la fin des années 1870. Si l’on raisonne sur
un échantillon plus large de 17 pays, l’ouverture commerciale
connaît alors un tassement durant ce que l’on appelle la première
mondialisation, jusqu’à la Première Guerre mondiale. Durant
l’entre-deux-guerres, la crise de la mondialisation entraîne les
coefficients d’ouverture vers des niveaux très faibles, inférieurs à
ceux atteints au XIXe siècle. Le graphique montre ensuite l’accélé-
ration de l’ouverture à partir de la fin des années 1960 jusqu’à un
point culminant à la veille de la crise des subprimes.

Si l’on raisonne au niveau mondial, en se concentrant sur la période


récente, d’après les statistiques de la Banque mondiale, entre le
début des années 1980 et le milieu des années 2000, le volume

9782340-024007_001-264.indd 33 13/03/2018 13:13


Grandes questions d'économie du XXIe siècle

des échanges mondiaux de marchandises a été multiplié par plus


de quatre. Les coefficients d’ouverture atteignaient des niveaux
sans précédent historique (le rapport exportations mondiales sur
34 PIB mondial atteint les 30 % en 2008). Ce niveau reste un sommet
historique. En 2009, à la faveur de la crise mondiale, le commerce
international s’est contracté de 12 % en termes réels. Depuis les
coefficients d’ouverture stagnent voire régressent.

Plusieurs phénomènes rendent probables l’arrêt de la progression


de l’ouverture commerciale à l’échelle mondiale et sa stabilisation
sur un « plateau haut » comme entre les années 1880 et 1913. Le
mouvement de libéralisation commerciale est brisé comme en
témoigne l’échec consommé du cycle de négociations de Doha (lancé
en 2001) et son rejet par une partie de l’opinion. La gouvernance
mondiale est devenue plus complexe du fait de la diversité des
acteurs et plus conflictuelle du fait de la variété de leurs intérêts Les
tensions commerciales sont plus fortes et le protectionnisme gris
(normes environnementales, techniques…) est particulièrement
ardent. Les accords bilatéraux de libre-échange se multiplient
comme autant d’entorse au multilatéralisme prôné par l’OMC.

Sur un plan plus structurel, les coefficients d’ouverture (exporta-


tions/PIB) diminuent mécaniquement avec le développement du
secteur des services. Dans la mesure où la contribution des services
à l’échange international est curieusement constante à travers le
temps et relativement faible (les services représentent autour de
20 % seulement des échanges internationaux), un effet de structure
lié à la tertiarisation des économies est à l’œuvre identifiable. Le
développement du secteur des services tire pour ainsi dire le ratio
exportations globales brutes/PIB à la baisse. Ce facteur pèsera à
l’avenir comme le montre déjà le cas de la Chine dont l’ouverture
s’effondre littéralement de 37 % en 2006 à 22 % en 2015.

9782340-024007_001-264.indd 34 13/03/2018 13:13


2. La mondialisation et son avenir

Graphique 2.2 Exportations mondiales/PIB mondial entre 1960 et 2015 (en %)

35

Source : Banque mondiale

* La mobilité des facteurs de production


La mobilité internationale des capitaux constitue une deuxième
dimension de la mondialisation. L’intégration financière inter-
nationale atteint un degré, sans précédent si l’on en juge par
l’importance des investissements directs à l’étranger, l’intensité
des flux de plus court terme motivés par un souci de diversification
ou par la spéculation. Le rapport IDE/PIB est passé à l’échelle
mondiale de 10 % en 1990 à 35 % en 2015. Par ailleurs, chaque
jour sur le marché des changes l’équivalent de 5300 milliards de
dollars d’opérations se noue si l’on en croit les chiffres de la Banque
mondiale pour 2013.

L’histoire de la mondialisation financière est aussi une histoire


en trois temps : ouverture financière croissante jusqu’en 1914,
repli jusqu’au seuil des années 1980 et réouverture rapide depuis
avec une stabilisation à ce haut niveau à l’occasion de la crise de
2007-2009.

Jusqu’en 1914, le développement des mouvements de capitaux


a été porté par les progrès des technologies de communication
(télégraphe [1844], le téléphone [1875]). Les gouvernements
européens (en premier lieu le Royaume-Uni, véritable banquier du
monde) ont également favorisé les IDE sortants, outil d’influence
dans un contexte de montée des impérialismes et des tensions
internationales. Les flux de capitaux étaient alors unilatéraux, d’un

9782340-024007_001-264.indd 35 13/03/2018 13:13


Grandes questions d'économie du XXIe siècle

centre développé et doté des spécialisations industrielles vers une


périphérie en retard de développement et cantonnée dans un rôle
de fournisseur de produits primaires et agricoles.
36
Le caractère potentiellement déstabilisant des mouvements inter-
nationaux de capitaux a poussé les gouvernements à les contrôler
entre la Première Guerre mondiale et le début des années 1980.
Il s’agissait, comme à l’époque de Bretton Woods, de préserver la
stabilité du change et de pouvoir utiliser la politique monétaire
comme outil de stabilisation. Un contrôle des opérations de change
a alors freiné aussi bien les investissements de portefeuille que les
investissements directs à l’étranger1.

Lors du sommet du G7 de Tokyo en 1979, les grandes puissances


capitalistes actent le principe d’une levée des contrôles de change
et d’une libéralisation internationale des capitaux. Le coup d’envoi
d’un processus d’intégration financière internationale est donné,
soutenu par des progrès techniques (ordinateurs, puis plus tard
internet) et des innovations financières (produits dérivés…). Les
responsables politiques en attendent des effets positifs sur la crois-
sance mondiale et assument le risque d’une plus grande instabilité
à l’heure où, avec l’effondrement du communisme, le capitalisme
n’a plus d’alternative crédible.

Les mouvements migratoires internationaux constituent la troisième


dimension mesurable de la mondialisation. Même s’ils scandent
l’actualité à travers la question des réfugiés, ces mouvements restent
contenus, et apparaissent toujours comme une sorte de chaînon
manquant de la mondialisation. Depuis le début du XXe siècle ils
font l’objet de contrôles étroits alors que le XIXe siècle avait été
caractérisé par des mouvements migratoires internationaux de
masse notamment de l’Europe et l’Asie vers les États-Unis mais
aussi à l’échelle intracontinentale en Europe2.

1. Les investissements dits de portefeuille désignent des mouvements internationaux de capitaux (de court
terme) notamment les prises de participations inférieures à 10 % du capital motivée par la réduction
du risque associé à la diversification ou la pure spéculation. Les investissements directs à l’étranger
sont plus stables, il s’agit de flux internationaux de capitaux motivés par l’acquisition d’une entreprise
à l’étranger (rachat d’une structure, création ex-nihilo…) ou une prise de participation dans le capital
supérieure par convention à 10 %.
2. Blancheton B. et Scarabello J., « L’immigration italienne en France entre 1870 et 1914 », Économies et
sociétés Série AF, n°42, 6, 2010, pp. 925-946.

9782340-024007_001-264.indd 36 13/03/2018 13:13


2. La mondialisation et son avenir

* Le rôle des FMN : vers une opposition avec


les États pour structurer la mondialisation
Les 80 000 firmes multinationales (FMN)1 recensées à l’échelle
globale apparaissent comme les chefs d’orchestre d’une organisation 37
mondialisée de la production. En 1977 il existait seulement 11 000
multinationales qui contrôlaient 82 000 filiales. Le phénomène s’est
développé dans les années 1980 avec l’envolée des flux d’IDE, puis
accélérer symbolisant l’intensification du processus de globalisation.
Il existe aujourd’hui environ 78 000 firmes multinationales qui
comptent près de 870 000 filiales à travers le monde, au total elles
emploient près de 54 millions de personnes.

Les firmes multinationales sont impliquées dans deux tiers des


transactions internationales. Dans le cadre d’une division inter-
nationale des processus de production le commerce intra-firme
représente un tiers du commerce mondial. Ces flux ne peuvent
être expliqués en recourant aux analyses traditionnelles des
déterminants du commerce international : les prix auxquels ces
flux sont valorisés résultent de choix stratégiques plus que d’équi-
libres de marché. Elles optimisent finement les chaînes de valeurs
à l’échelle mondiale. Les firmes multinationales constituent de
véritables réseaux transnationaux qui échappent de plus en plus
au contrôle des États.

Les multinationales apparaissent en capacité d’imposer des


standards techniques et de consommation, elles sont perçues par
certains comme un puissant vecteur d’homogénéisation des modes
de vie à l’échelle planétaire (Amazon, Coca-Cola, Apple, Nike, Mac
Donald, Google en sont les symboles…).

Aujourd’hui, les FMN s’opposent ouvertement aux États pour


structurer la mondialisation. Les États ont de plus en plus de
difficultés à soumettre les FMN à la fiscalité comme l’illustrent des
cas emblématiques d’entreprises qui réussissent manifestement
à échapper à l’impôt en France : Amazon, Google, Facebook,
Starbucks, Ikea, KFC…

1. Une fi rme multinationale (FMN) est une entreprise qui possède ou contrôle des fi liales ou des actifs
physiques ou fi nanciers dans au moins deux pays. Une fi rme devient multinationale lorsqu’elle réalise
un investissement direct à l’étranger (IDE). Un IDE est un flux international de capital motivé par
l’acquisition d’une entreprise à l’étranger (rachat d’une structure existante ou création ex-nihilo d’un
site de production…) ou une prise de participation dans le capital supérieure par convention à 10 %. Cet
investissement doit présenter en principe un caractère stable et celui qui l’effectue doit prendre part
aux décisions stratégiques de l’entreprise.

9782340-024007_001-264.indd 37 13/03/2018 13:13


Grandes questions d'économie du XXIe siècle

Pour
la petite En 2015, certaines multinationales se sont acquittées en France
histoire de très faibles impôts sur les sociétés : 21,6 millions d’euros pour
Microsoft pour un chiff re d’affaires de 493 millions d’euros ; 6,7
38 millions d’euros pour Apple ; 0,1 million seulement pour Facebook ;
5,4 millions pour Google pour un chiff re d’affaires estimé entre
1,25 et 1,4 milliard d’euros.

Ces sociétés développent en Europe des montages fiscaux innovants


afin d’exploiter l’absence d’harmonisation fiscale, elles installent
leur siège social dans des pays de l’UE où la fiscalité est la plus
favorable. En 2017, le taux de l’impôt sur les sociétés est ainsi de
12,5 % en Irlande contre 33,3 % en France.

La technique dite du « sandwich hollandais » est, par exemple,


utilisée par Starbucks qui dégrade sa rentabilité en France en
versant des royalties à une société néerlandaise Starbucks Coffee
EMEA BV sur une multitude d’éléments (marque, logo, recettes
de cuisine…), au total ces royalties représentent 6 % du chiff re
d’affaires. De même, la société hollandaise prête des sommes aux
fi liales françaises à taux d’intérêt élevés de l’ordre de 2,5 % à 3
mois, bien au-dessus des conditions de marché.

# Ouverture commerciale
et croissance, l’éclairage
de la théorie économique
Aujourd’hui encore, pour une très large majorité des économistes,
l’ouverture commerciale est génératrice d’un gain net en termes de
bien-être et de croissance. Ces arguments théoriques ne vont pas
l’objet d’une véritable contestation. Mais l’existence de ce gain n’exclut
pas de pouvoir identifier des gagnants et des perdants (au niveau
international et à l’échelle nationale). La légitimité et la pérennité
du processus de mondialisation passe donc par la redistribution de
ce gain net.

Quel est exactement ce gain net ? Par quels mécanismes apparait-il


à l’échelle mondiale ?

9782340-024007_001-264.indd 38 13/03/2018 13:13


2. La mondialisation et son avenir

L’ouverture commerciale élargit d’abord l’offre de produits à la dispo-


sition des consommateurs nationaux. La plus grande variété de l’offre
est, en soi, un facteur d’amélioration du bien-être. Plus largement
l’intensification du commerce intra-branche répond à une demande 39
de différenciation des consommateurs nationaux.

L’argument le plus souvent avancé en faveur de la mondialisation


commerciale est celui, ancien, de la spécialisation des économies
nationales à partir d’avantages comparatifs en termes de coûts de
production. Pour Ricardo (Principes d’économie politique et de l’impôt,
1817) cette spécialisation permet en premier lieu une économie
globale de facteurs de production et, partant, un déplacement de la
frontière de production. Le gain décrit ici apparaît par nature statique.
La possibilité d’effets d’entraînements sur la croissance peut être
réintroduite à la fois par les économies d’échelle dynamique et des
phénomènes d’apprentissage liés au processus de spécialisation ainsi
que par le canal de la baisse du prix des importations.

Mais toutes les spécialisations ne se valent pas ! Un pays, contraint


de se spécialiser dans une production dont les termes de l’échange
(rapport entre prix des exportations et des importations) se dégradent
à long terme, peut connaître une croissance dite appauvrissante
(J. Bhagwati). Un courant d’inspiration marxiste a attiré l’attention
sur l’importance des termes de l’échange et la possibilité d’un échange
inégal (S. Amin). Au lieu d’être un facteur de convergence, comme chez
les néoclassiques, le commerce international est un vecteur d’exploi-
tation de certains pays (ceux du Sud) par d’autres (ceux du Nord).

L’ouverture commerciale favorise ensuite la diffusion internationale


de l’innovation à travers les flux de services (brevets, licences, services
aux entreprises…) et de marchandises (surtout les biens d’équipements
dont le rôle moteur doit être mis en avant en matière de croissance).
L’approche du rattrapage développée par A. Gerschenkron1 s’appuie
notamment sur ces effets d’entraînement liés aux formes matérielles
traditionnelles du transfert de technologies. À contrario les pays qui
ont mis en œuvre une stratégie autarcique ont connu une stagnation
relative faute de pouvoir adopter les innovations venues d’ailleurs.
Ainsi le Japon est-il passé à côté de la première révolution industrielle
en restant fermé des années 1630 à la restauration Meiji (1867).

1. Gerschenkron A., Economic Backwardness in Historical Perspective, Belknap Press of Harvard University
Press, 1962.

9782340-024007_001-264.indd 39 13/03/2018 13:13


Grandes questions d'économie du XXIe siècle

L’ouverture commerciale permet aussi l’exploitation d’économies


d’échelle statiques et dynamiques, internes voire externes à travers la
constitution de grands marchés et l’allongement des séries produites.
40 Les gains de productivité obtenus dans les secteurs d’exportation se
diff usent à l’ensemble de l’économie nationale notamment à travers
la baisse du prix relatif des biens d’équipement. Les arguments
développés par le courant de la croissance endogène se situent
également dans cette veine même si les fondements sont plus
immatériels (travaux de Rivera-Batiz et Romer (1991), Grossman et
Helpman (1991), etc.). L’ouverture donne accès au stock mondial de
connaissances, la constitution de grands marchés permet aux secteurs
de la recherche d’exploiter des rendements d’échelle croissants et
de supprimer des activités redondantes, au final chaque pays peut
consacrer une part plus importante de capital humain à la recherche.
L’ouverture est ici encore incontestablement un véritable moteur de
la croissance.

À travers l’intensification de la concurrence, l’ouverture commerciale


constituerait un facteur de rationalisation tout azimut au sein des
économies, une sorte de catalyseur de la croissance économique.
Au niveau microéconomique, la concurrence commerciale interna-
tionale accélère de facto la recherche de gains de productivité, l’effort
d’adaptation à la demande, et sous certaines hypothèses le rythme
de l’innovation (controverse sur le lien entre structure de marché et
intensité de l’innovation). Au niveau macroéconomique, l’ouverture
commerciale obligerait, aussi, les sociétés à rendre plus efficace leurs
institutions, leur système éducatif pour s’approprier les innovations,
à réaliser des efforts pour faire reculer le népotisme et la corruption
(analyse de D. Rodrik par exemple), ou encore pour améliorer le
système de santé. L’ouverture commerciale serait aussi par ce canal
un catalyseur du développement.

L’histoire économique suggère que l’ouverture commerciale apparaît


comme une condition nécessaire de la croissance économique. Au
XXe siècle l’Albanie ou la Corée du Nord offrent de nouveaux exemples
d’échecs de l’autarcie. À un degré moindre l’insuccès des expériences
de croissance autocentrée (stratégie dite de substitution aux impor-
tations) de certains pays non alignés dans les années 1950-1960
(Brésil, Algérie…) montre lui aussi la nécessité de s’ouvrir aux échanges
internationaux pour bénéficier de l’émulation internationale. Mais
l’ouverture n’est pas une condition suffisante de la croissance. Un État
stratège doit en contrôler le rythme, s’assurait que le pays dispose de

9782340-024007_001-264.indd 40 13/03/2018 13:13


2. La mondialisation et son avenir

spécialisations porteuses de forts gains de productivité et présente un


minimum de diversification sectoriel afin de préserver une capacité
d’adaptation dans le futur.
41

# Les niches restreintes


des justifications théoriques
du protectionnisme
Si en théorie économique le libre échange est la règle et le protection-
nisme l’exception, historiquement l’inverse est vrai : les politiques
commerciales sont généralement à l’œuvre afin de préserver la cohésion
sociale et d’influencer la qualité des spécialisations afin que l’éco-
nomie nationale ne figure pas aux rangs des perdants de l’ouverture.

La politique commerciale désigne des interventions des pouvoirs


publics qui ont pour effet d’introduire des distorsions dans les
échanges transfrontaliers. Le plus souvent ces actions visent à freiner
les importations de marchandises et de services, plus rarement à
soutenir les exportations. Le protectionnisme est par nature graduel.
En théorie il peut se justifier soit dans des situations de marché assez
spécifiques, soit pour de courtes périodes de temps.

Selon l’économiste classique anglais John Stuart Mill, si un grand


pays peut disposer d’un pouvoir de marché sur un bien à l’échelle
mondiale, la protection peut être bénéfique. Ce pays en instaurant
un tarif réduit sa demande interne et provoque, ainsi, une baisse
du prix mondial. De la sorte l’amélioration des termes de l’échange
peut être à l’origine d’une hausse du bien-être au sein de l’économie
nationale sous un certain nombre d’hypothèses concernant les
élasticités (travaux de Johnson). Un risque réside dans des mesures
de rétorsions d’autres grands pays.

La théorie de la protection des « industries dans l’enfance » justifie


une protection temporaire seulement pour certaines activités
industrielles. Cette théorie est énoncée très tôt par A. Hamilton
dans son Rapport sur les manufactures (1791), puis systématisée par
F. List dans son Système national d’économie politique (1841). L’idée
de base est qu’un tarif permet à l’industrie nationale naissante de se
protéger de la concurrence internationale, le temps d’exploiter des
économies d’échelle et de devenir « compétitive ». Contrairement
aux représentations parfois entretenues, il s’agit d’une approche qui
prône l’insertion dans l’échange international, selon les mots de

9782340-024007_001-264.indd 41 13/03/2018 13:13


Grandes questions d'économie du XXIe siècle

List « le protectionnisme est notre voie, le libre échange est notre


but ». On protège le temps d’accroître la productivité, de développer
le savoir-faire. La protection doit être dégressive et temporaire, elle
42 n’a pas vocation à être systématique.

Dans les années 1980, le courant de la politique commerciale straté-


gique a offert un renouvellement des justifications de la protection.
Ce courant théorique intègre la concurrence imparfaite (économies
d’échelle, oligopoles, externalités…) dans l’analyse du commerce
international et justifie la protection dans certaines configurations
de marché relativement restreintes. Un tarif douanier peut se justifier
pour réduire la rente d’une entreprise étrangère en position de
monopole sur le marché national. Une subvention à l’exportation
peut se justifier pour donner un avantage à une entreprise national
sur un marché oligopolistique « à la Cournot ». L’intervention de
l’État peut aussi permettre par des subventions à l’investissement
de s’imposer sur un marché où il n’y aurait de place que pour une
seule firme (aéronautique gros porteur). Mais la possibilité de repré-
sailles efface ici le gain pour l’économie nationale et débouche sur des
équilibres non coopératifs comme sur le marché de l’aéronautique
avec un conflit permanent entre Boeing et Airbus.

Pour comprendre l’épaisseur historique du protectionnisme, il


convient de sortir du strict champ de la théorie économique pure
pour réintroduire des considérations plus stratégiques et politiques.
Certains secteurs peuvent être considérés comme stratégiques et
justifier ainsi une protection. Les enjeux non marchands dans le
secteur agricole résident dans la préservation à long terme d’une
indépendance alimentaire et l’utilisation de l’arme alimentaire en
prévision d’une croissance démographique mondiale. Dans le cas
français l’aménagement du territoire est aussi mis en avant. Les
biens culturels peuvent faire valoir une spécificité, ils sont porteurs
d’externalité à long terme (rayonnement culturel…).

# Mobilité internationale
des capitaux : une croissance
plus soutenue mais plus instable
Les termes des débats académiques sur les conséquences de la mobilité
internationale des capitaux n’ont pas significativement évolué au
cours de la période récente : elle fluidifie la croissance économique
mondiale mais apporte davantage d’instabilité.

9782340-024007_001-264.indd 42 13/03/2018 13:13


2. La mondialisation et son avenir

La mobilité internationale des capitaux peut favoriser le dévelop-


pement économique par différents canaux :
◊ La mobilité des capitaux favorise une meilleure allocation entre
l’épargne et l’investissement : de bons projets d’investissement 43
trouvent des financements venus de l’extérieur alors qu’auparavant
ils pouvaient être rationnés.
◊ Elle améliore aussi la liquidité des marchés. L’intervention d’opé-
rateurs du monde entier sur un marché financier national accroît
sa profondeur et son attractivité.
◊ Elle contribue à abaisser le coût du capital à l’échelle mondiale par
deux canaux. Celui de la concurrence entre les agents qui veulent
financer les bons projets d’investissement, celui de la réduction des
primes de risques inflationnistes dans un environnement de globa-
lisation financière. La lutte contre l’inflation apparaît comme un
corolaire de la mobilité des capitaux. Un gouvernement qui souhaite
attirer des capitaux étrangers doit en garantir le rendement réel en
garantissant la stabilité des prix sur son territoire.
◊ À travers des investissements de portefeuille, la mobilité des capitaux
permet la réduction des risques via une possible diversification
internationale des placements.
Mais la mobilité des capitaux soumet à des contraintes nouvelles :
◊ La réactivité des opérateurs (tels les fonds de pensions américains),
leur exigence forte en matière de rendement à court terme modifient
les rapports de forces au sein des entreprises entre actionnaires,
salariés et dirigeants. La recherche d’une rentabilité immédiate
peut conduire à une détérioration des conditions de travail et au
sacrifice des intérêts des salariés.
◊ Par ailleurs, les cours de change se révèlent beaucoup plus instables.
Non seulement les cours sont volatils sur des horizons de court
terme (journée, semaine, mois) mais ils s’écartent durablement
de leur niveau d’équilibre comme par exemple le cours de parité
des pouvoirs d’achats.
◊ Plus largement, les nombreuses crises survenues depuis le début
des années 1980 (crise mexicaine en 1982, krach d’octobre 1987,
crise asiatique en 1997, crise Russe en 1998, crise brésilienne en
2002, crise des subprimes de 2007-2009, crise liée au contre-choc
pétrolier de 2015-2016…) témoignent d’une instabilité financière
recrudescente (voir le chapitre 10 sur la récurrence des crises
financières).

9782340-024007_001-264.indd 43 13/03/2018 13:13


Grandes questions d'économie du XXIe siècle

◊ L’activité économique – elle-même – semble plus instable, à travers


notamment les répercussions réelles de ces crises en termes de
croissance et les difficultés plus grandes de mobiliser les politiques
44 économiques pour soutenir l’activité (voir les chapitres 9 et 11 de
ce livre).

# Les forces motrices


de la mondialisation
L’intensification des échanges économiques internationaux dépend de
deux facteurs principaux : l’impact des technologies sur l’évolution des
coûts de déplacement des marchandises, des capitaux, des personnes
et de l’épaisseur des barrières érigées par les gouvernements nationaux
(obstacles douaniers, contrôle des changes, visas…).

Historiquement la mondialisation commerciale est favorisée par


la baisse à long terme des coûts de transaction (coûts de transport,
assurance…). Selon Paul Bairoch, les coûts de transports, assurance et
frais divers représentaient 17 à 20 % de la valeur CAF (coût, assurance,
fret) des importations mondiales, 8 à 9 % en 1913 contre seulement
3 % aujourd’hui. Les notions de fragmentation internationale de la
production, de division internationale des processus de production,
l’optimisation des chaînes de valeurs à l’échelle globale rappellent
que le transport est de moins en moins un obstacle à la compétitivité-
coût des entreprises.

Les nouvelles technologies de l’information et de la communication


sont de plus en plus au service de l’intensification des échanges de
marchandises et de services. Cette même technologie couplée avec le
dynamisme de l’innovation financière (produits dérivés, titrisation…)
a renforcé l’intégration financière internationale et permit l’émer-
gence d’un marché global des capitaux. Ces progrès technologiques
vont se poursuivre, favorisant toujours la mondialisation.

Seule la politique commerciale paraît pouvoir s’opposer à l’explosion


des échanges réels. Or depuis la fin des années 1940 (création du
General Agreement on Tariffs and Trade en 1947) un mouvement de
libéralisation des échanges est à l’œuvre. Il a été choisi par les respon-
sables politiques. Il est justifié par la croyance en l’existence de gains
globaux (en termes de bien-être et de croissance économique) associés

9782340-024007_001-264.indd 44 13/03/2018 13:13


2. La mondialisation et son avenir

au développement des échanges commerciaux internationaux. Les


mécanismes du gain global reposent sur les avantages de la spécia-
lisation des économies, une diffusion des technologies accélérée par
les échanges commerciaux (notamment de biens d’équipements), 45
l’exploitation d’économie d’échelle ou encore les vertus intrinsèques
d’un marché global plus concurrentiel qui pousserait les entreprises
à faire plus d’efforts pour réaliser des gains de productivité, mieux
s’adapter à la demande des clients voire à innover davantage.

Au niveau des capitaux les régulateurs sont en mesure de tracer les


opérations et de les contrôler comme le prouve le déploiement de
mesures de sanctions contre certains pays (Iran, Russie…). Le contrôle
des mouvements internationaux de capitaux n’est pas généralisé par
les gouvernements en raison des avantages supposés de la mobilité
des capitaux : fluidification de la croissance globale, soutien au
développement à travers l’amélioration de la liquidité des marchés,
baisse des taux d’intérêt, diversification des portefeuilles d’actifs
financiers… Les gouvernements assument les risques associés aux
mouvements de capitaux : volatilité plus forte des cours de change,
crise financière plus fréquentes et à l’impact réel parfois violent
comme en 2009 où la croissance du PIB s’est effondrée de 2,4 % aux
États-Unis et de près de 5 % en Allemagne et au Japon. De fait, sans
système économique alternatif crédible en face de lui, le « capitalisme
financier » prend le risque de l’instabilité.

Les mouvements migratoires internationaux tendent à s’intensifier


du fait de conflits militaires à travers le monde (Irak, Syrie, etc.) ou
de crises sociales spécifiques (comme en Grèce). À elle seule, l’Alle-
magne a accueilli près d’un million de réfugiés. Cette immigration
modifie sa structure démographique et accroît la flexibilité de son
marché du travail.

Sous l’impulsion de quelles forces les États pourraient-ils durcir les


contrôles à l’avenir ? Une pression forte des populations peut permettre
l’établissement de barrières. Dès lors le rapport des individus et des
groupes avec la mondialisation devient crucial comme le montrent
l’exemple de l’élection présidentielle américaine de 2016 et l’épisode
du Brexit.

Si la répartition du gain global associée à la mondialisation commer-


ciale est jugée inéquitable par un grand nombre de personnes, une
demande de protection peut se faire jour et être répercutée au niveau
politique. La mondialisation a provoqué une accentuation des inéga-
lités au sein des pays les plus avancés depuis les années 1980. Seule

9782340-024007_001-264.indd 45 13/03/2018 13:13


Grandes questions d'économie du XXIe siècle

une fraction de la population – souvent mobile – capte le bénéfice


des gains de productivité associés aux nouvelles technologies. Seule
une répartition équitable de son gain global peut légitimer à long
46 terme la mondialisation.

De même, cette demande pourrait naître des conséquences de l’ins-


tabilité financière, d’une menace ou d’une réalisation d’un risque
systémique. Si, par exemple, un grand nombre d’épargnants ne
pouvaient plus recouvrer leurs dépôts bancaires la pression pour
réguler les flux financiers internationaux serait très forte.

Plus fondamentalement si des courants de valeurs devenaient


dominants et parvenaient à remettre en cause l’idée selon laquelle la
recherche de l’efficacité économique doit structurer prioritairement
la société, la légitimité de l’échange international pourrait être
remise en cause. Les religions, le nationalisme, la priorité accordée
à la préservation de l’environnement peuvent avoir cette capacité.

# Le trilemme de Rodrik
Le trilemme mis en exergue par l’économiste Dany Rodrik1 illustre
bien les termes des rapports entre actions des gouvernements, aspira-
tions des populations et intensité de la mondialisation. Il rappelle en
creux que l’hyper-mondialisation n’est pas historiquement un état
permanent. Selon le trilemme politique de l’économie mondiale il
est impossible d’avoir simultanément :
◊ une intégration économique poussée, une hyper-mondialisation
(libéralisation des échanges commerciaux, intégration financière…)
◊ des États-nations souverains (frontières, monnaie, impôts)
◊ la démocratie politique.

L’intégration économique impose une compétition entre les États


qui limite leur capacité à adopter les politiques interventionnistes,
protectrices que souhaitent les populations. Le gouvernement peut
alors soit choisir d’ignorer la volonté des habitants, et préserver
au passage sa liberté de choix ; soit décider d’abandonner sa souve-
raineté et de transférer les aspirations démocratiques à des instances
supranationales.

1. Rodrik D., The Globalization Paradox. Democracy and the Future of the World Economy. W.W Norton &
Company, New York, 2011.

9782340-024007_001-264.indd 46 13/03/2018 13:13


2. La mondialisation et son avenir

Graphique 2.3 – Le trilemme de Rodrik

Globalisaon
Économique 47

d o de

Fé glo
dé b a
e
e
ol

ra

fo mis

lis
m
Ca

e
rc

l
États-Naons Compromis de Démocrae
Forts Breon Woods Polique

Avant la Grande Guerre, une première mondialisation est à l’œuvre


qui elle-même paraît difficilement réversible pour les contempo-
rains. Au dix-neuvième siècle le commerce mondial a en effet connu
une formidable expansion, son volume est environ multiplié par 20
entre 1815 et 1913. Cet essor a pour origine directe la Révolution
Industrielle, qui confère un quasi-monopole pour les exportations
manufacturières à quelques pays (l’Angleterre d’abord puis quelques
autres pays d’Europe continentale dont la France et l’Allemagne).
Une véritable division mondiale du travail s’instaure : les produits
industriels des pays avancés sont échangés contre les denrées alimen-
taires et les matières premières des « pays neufs » et des économes
coloniales. L’expansion du trafic commercial est soutenue par des
innovations (en manière de conservation des denrées par exemple
avec l’installation de systèmes réfrigérants sur les bateaux dans
les années 1870) et surtout une baisse de long terme des coûts de
transport, qui s’accélère au milieu du XIXe siècle avec la révolution
des transports.

Après le dépôt du brevet du télégraphe en 1844 par S. Morse, la


première ligne télégraphique transmanche est posée dès 1851 et
le premier câble transatlantique en 1865. En 1913, la longueur des
réseaux télégraphiques représente onze fois le tour de la terre, et le
téléphone est déjà en plein essor : un pas décisif vers la transmission
instantanée de l’information a été franchi, il ouvre notamment la voie
à une intensification de la mobilité internationale des capitaux. En
fin de période (1880-1913) les indicateurs de l’intégration financière
internationale convergent pour faire apparaître un très haut degré
d’intégration des marchés de capitaux : le stock d’investissement

9782340-024007_001-264.indd 47 13/03/2018 13:13


Grandes questions d'économie du XXIe siècle

direct à l’étranger est élevé, culminant selon Paul Bairoch en 1913 à


20-22 % pour l’Europe occidentale, l’Angleterre « banquier du monde »
finance des projets de développement dans la plupart des zones.
48
Le système monétaire de l’étalon-or garantissait alors la stabilité des
cours de change et des prix. Au sein de ce système les populations
influençaient très peu les politiques nationales (suff rage censitaire,
absence de droit de vote des femmes…). Il était donc possible d’avoir
un monde constitué d’états-nations fortement intégrés économi-
quement, dans lequel les populations devaient supporter des épisodes
de déflation prolongée (comme aux États-Unis dans les années 1890).
Cette situation est désignée par l’expression « camisole de force dorée »
sur le graphique 2.3. La progression des aspirations démocratiques
notamment sous l’influence la Grande Guerre a rendu ce compromis
intolérable.

Les progrès démocratiques permettent aux populations d’exiger des


avancées sociales et une protection contre l’instabilité de l’activité
économique surtout après la crise financière de 1929. Les gouver-
nements soucieux de conserver leur souveraineté, dans un environ-
nement de nationalisme exacerbé, mettent en œuvre des replis
autarciques sur les plans commerciaux et financiers. Un protection-
nisme radicalement nouveau par son ampleur et ses instruments
est déployé dans les années 1930 (droits de douanes portés à des
plus hauts historiques, contingentements, quotas, dépréciations
monétaires volontaires…). Il entraîne une dislocation de l’éco-
nomie internationale, une véritable crise de la mondialisation. La
contraction des échanges, presque aussi brutale pour la France que
pour les pays qui ont choisi l’« autarcie », annule en quelques années
toute la progression du demi-siècle précédent. Les flux migratoires,
les flux de capitaux (émissions internationales ou crédits bancaires)
à l’exception partielle des investissements directs, se sont quasiment
taris au cours des années 1930. L’intégration financière internationale
atteint un creux à partir de 1929 et dans le même temps les échanges
commerciaux se restreignent. Ces mouvements simultanés traduisent
la multiplication des obstacles et contrôles. Les politiques de relance
cherchent une issue à la dépression dans le cadre national.

Après le choc de la Seconde Guerre mondiale sous l’ère du système


de Bretton Woods (1944-1971), un autre compromis se fait jour,
caractérisé par une limitation de l’intégration économique (maintien
d’un contrôle des changes, maintien d’un certain niveau de protection
commerciale…) et l’exercice de la démocratie au sein d’états souverains.

9782340-024007_001-264.indd 48 13/03/2018 13:13


2. La mondialisation et son avenir

Les gouvernements parviennent à stabiliser l’activité économique


à travers l’utilisation de politiques conjoncturelles, d’inspiration
keynésienne, efficaces comme l’illustre le cas de la relance Kennedy-
Johnson dans les années 1960 aux États-Unis. 49

Certes l’histoire de la mondialisation montre une amplification


des battements de l’économie globale et fait ressortir l’intensité
de l’actuelle mondialisation. Mais elle est aussi scandée par des
épisodes de repli, de perturbations des échanges qui montrent que le
phénomène n’est pas, intrinsèquement, irréversible. L’intensité de la
mondialisation économique participe d’un équilibre plus global qui
renvoie au rôle que les états-nations entendent jouer et à la capacité
des populations à peser sur les décisions politiques.

Une motivation de la reprise en mains de l’ouverture par les popula-


tions pourrait être la préservation de l’environnement. Pour l’heure
les théories successives du commerce international raisonnent
en termes monétaires et n’intègrent les externalités négatives du
transport de marchandises. Le commerce international participe
au processus de réchauffement climatique et à un épuisement des
ressources naturelles incompatibles avec le bien-être des générations
futures, qui pourront choisir de mieux l’encadrer.

# Conclusion
La mondialisation n’est ni linéaire, ni irréversible ! Si la baisse des
coûts de transport est appelée à se poursuivre en raison de la perma-
nence des innovations, une reprise en mains politique du processus
est possible comme le suggère le trilemme de Rodrik. Depuis la crise
des subprimes la mondialisation connaît un tassement. Les flux
internationaux de capitaux ont ralenti, les États peuvent s’opposer
à certains IDE au motif de la préservation d’intérêts nationaux. Le
rejet de l’immigration semble grandir, il a joué un rôle clé dans la
sortie du Royaume-Uni de l’Union Européenne. La mondialisation
est soupçonnée, par l’opinion, d’accroître les inégalités de revenus,
de ne profiter qu’à certains.

Le mouvement de libéralisation commerciale est stoppé comme en


témoigne l’échec consommé du cycle de négociations de Doha. Les
tensions commerciales sont plus fortes et le protectionnisme gris
(normes environnementales, sanitaires, techniques…) est particuliè-
rement ardent. Les accords bilatéraux de libre-échange se multiplient

9782340-024007_001-264.indd 49 13/03/2018 13:13


Grandes questions d'économie du XXIe siècle

comme autant d’entorse au multilatéralisme prôné par l’OMC. Le


monde semble basculé vers un nouveau régime de politique commer-
ciale moins favorable à l’ouverture.
50
Un facteur structurel joue aussi dans le sens de l’arrêt de l’ouverture
les coefficients d’ouverture : le développement du secteur des services
tire pour ainsi dire le ratio d’exportation global brut/PIB à la baisse.
Lorsque l’ouverture commerciale de la Chine passe de 37 % en 2006
à 22 % en 2015, l’impact sur le ratio global est évident.

Les points de rapprochement entre la période actuelle et l’histoire


des années 1870-1910 sont assez nombreux.

Après des débats sur les conséquences économiques et sociales de la


libéralisation commerciale des années 1860 et l’intensification de
la concurrence mondiale, la plupart des gouvernements européens
(à l’exception notable du Royaume-Uni) avaient mis en œuvre des
politiques commerciales plus stratégiques et discriminatoires,
augmentant légèrement les droits de douane, ciblant certains concur-
rents, rejetant parfois la clause de la nation la plus favorisée à la base
de l’assouplissement des décennies précédentes. Mais ce durcissement
de la politique commerciale avait été assez modéré et retenu pour
maintenir les acquis de la mondialisation et stabiliser l’ouverture
sur « un plateau haut » entre les années 1880 et 1913.

C’est ce scénario qui nous semble aujourd’hui le plus probable. La


mondialisation cesserait de s’intensifier mais les économies ne
connaîtraient pas pour autant de repli sur elle-même, il ne s’agirait
pas d’une crise de la mondialisation mais d’une consolidation.

9782340-024007_001-264.indd 50 13/03/2018 13:13


3 Population mondiale
et environnement
au XXIe siècle

La population mondiale connaît depuis de longues décennies une


croissance rapide. Cette tendance devrait, selon les démographes,
se poursuivre jusqu’à la fin du XXIe siècle. Ce phénomène constitue
un défi majeur pour les politiques de développement à destination
des pays d’Asie et d’Afrique. Les changements démographiques qui
sont susceptibles de se dérouler dans les prochaines années consti-
tuent des défis de taille pour la réalisation d’un développement
durable à l’échelle planétaire. La population mondiale continue
d’être plus urbaine sous l’impulsion des pays émergents et en voie
de développement. Pour les économies les plus avancées (Japon,
Europe, États-Unis), le vieillissement de la population porte des
enjeux plus spécifiques en matière de croissance, d’emplois et de
transformation sociale (innovations, risque de dépendance…).

# Perspective historique
et projection
La population mondiale a connu une explosion depuis la révolution
démographique du XIXe siècle. Jusqu’alors, elle ne progressait que
très lentement en raison d’un quasi-équilibre entre les naissances et
les décès. Pour équilibrer la forte mortalité, infantile notamment, il
fallait une fécondité moyenne élevée, de l’ordre de six enfants par
femme. Dans une perspective malthusienne, toutes choses égales
par ailleurs, la croissance démographique venait buter sur une
insuffisance des subsistances et provoquait une hausse des prix et
une baisse des salaires réels qui la ramenait à son niveau initial (à
travers les conséquences de la malnutrition).

9782340-024007_001-264.indd 51 13/03/2018 13:13


Grandes questions d'économie du XXIe siècle

Pour
mémoire
Thomas Malthus (1766-1834) est un économiste et démographe
britannique, rattaché à l’école classique. Dans l’ouvrage Essai sur
le principe de population, publié en 1798, il défend l’idée que
52
la population croît de manière géométrique (1,2,4,8,16…) alors
que la production agricole n’augmente que de façon arithmétique
(1,2,3,4,5…). Aussi, l’espoir d’un bonheur social infini serait-il
chimérique ; la hausse de la population lui semble dangereuse et
devoir être combattue par une réduction du taux de natalité. Le
terme malthusianisme est, depuis, passé dans le langage courant
pour désigner des situations de partage de la pénurie.

Avec la Révolution Industrielle, les premiers progrès de l’hygiène et


de la médecine et grâce à la mise de politiques sociales, la mortalité
a fortement diminué en Europe. Les familles étant toujours aussi
nombreuses, les naissances ont été supérieures aux décès, entraînant
un accroissement de la population. En 1900, la population mondiale
était déjà estimée entre 1,55 et 1,76 milliard. En 1950, elle attei-
gnait 2,5 milliards. Sous l’impulsion des pays en développement
d’Asie (Chine et Inde) la population a continué de progresser dans
la deuxième moitié du XXe siècle, jusqu’à atteindre 4,06 milliards en
1975 et 6,12 milliards en 2000.

Aujourd’hui, la population mondiale est estimée à 7,55 milliards


(juillet 2017). La part de l’Asie a beaucoup progressé comme le suggère
le graphique ci-après : elle concentre 59,7 % de la population mondiale
en 2017. À l’heure actuelle, la Chine et l’Inde demeurent les deux pays
les plus peuplés au monde, avec plus de 1,3 milliard de personnes
chacun, représentant respectivement 19 % et 18 % de la population
mondiale. La part de l’Afrique est de 16,6 % : le continent est appelé à
voir sa population exploser au XXIe siècle et sa part grandir. L’Afrique
devrait être responsable de plus de la moitié de la croissance de la
population de la planète au cours des 35 prochaines années car elle
présente le taux de croissance démographique le plus élevé.

9782340-024007_001-264.indd 52 13/03/2018 13:13


3. Population mondiale et environnement au XXIe siècle

Tableau 3.1 – Décomposition de la population mondiale par continent en 2017

En milliards de personnes En % du total


Asie 4,5 59,7 53
Afrique 1,25 16,6
Europe 0,74 9,8
Amérique Latine et Caraïbes 0,645 8,6
États-Unis et Canada 0,361 4,8
Océanie 0,040 0,5

La population mondiale devrait atteindre les 8,5 milliards de personnes


d’ici 2030 selon le rapport du Département des affaires économiques
et sociales de l’ONU intitulé « World Population Prospects : The 2015
Revision ». Selon la même source, elle atteindrait les 9,7 milliards d’ici
2050 et les 11,2 milliards d’ici 2100 comme le montre le graphique
ci-dessous. Elle pourrait alors se stabiliser lorsque tous les pays se
« caleraient » sur le régime démographique que connaît actuellement
l’Europe.

Par ailleurs, l’Inde devrait dépasser la Chine en tant que pays le plus
peuplé de la planète d’ici sept ans et le Nigéria pourrait détrôner
les États-Unis au troisième rang mondial d’ici 35 ans. Le rapport
souligne également, avec force, qu’entre 2015 et 2050, la moitié de
la croissance de la population mondiale devrait être l’œuvre de neuf
pays : l’Inde, le Nigéria, le Pakistan, la République Démocratique du
Congo, l’Éthiopie, la Tanzanie, les États-Unis, l’Indonésie et l’Ouganda.

Parmi les 10 pays actuellement les plus peuplés, un seul se trouve en


Afrique (Nigéria), cinq sont situés en Asie (Bangladesh, Chine, Inde,
Indonésie et Pakistan), deux en Amérique latine (Brésil et Mexique),
un en Amérique du Nord (États-Unis) et un en Europe (la Russie).
Parmi eux, la population du Nigéria, actuellement au septième rang
mondial, est celle qui augmente le plus rapidement. Le rapport prévoit
aussi que, d’ici 2050, les populations de six pays au total devraient
dépasser les 300 millions : la Chine, l’Inde, l’Indonésie, le Nigéria,
le Pakistan et les États-Unis.

9782340-024007_001-264.indd 53 13/03/2018 13:13


Grandes questions d'économie du XXIe siècle

Graphique 3.1 – Décomposition de la population mondiale


par continent entre 1950 et 2100
Milliards

54 12
Afrique

10 Asie

Europe
8
Amérique
Centrale et
6 du Sud

4
Amérique
du Nord
2
Océanie
0
1950

1960

1970

1980

1990

2000

2010

2020

2030

2040

2050

2060

2070

2080

2090

2100
La concentration de la croissance de la population mondiale dans
les pays les plus pauvres présente un ensemble de défis en matière
de développement. Elle rend plus difficile la lutte contre la pauvreté,
l’éradication de la faim et de la malnutrition, et l’amélioration de la
scolarisation et des systèmes de santé, qui sont tous essentiels à la
réussite des nouveaux programmes de développement durable.

Parallèlement à ces prévisions de croissance démographique, un vieillis-


sement important de la population est attendu dans les prochaines
décennies dans la plupart des régions du monde, à commencer par
l’Europe, où 34 % de la population devrait être âgée de plus de 60
ans d’ici 2050. En Amérique Latine, dans les Caraïbes et en Asie, les
plus de 60 ans devraient représenter 25 % de la population d’ici 2050.

Le rapport indique également que l’espérance de vie à la naissance a


augmenté de façon significative dans les pays les moins avancés au
cours des dernières années. Dans les pays les plus pauvres, l’espérance
de vie a gagné six ans en moyenne, passant de 56 ans en 2000-2005
à 62 ans en 2010-2015. Cette tendance est appelée à se prolonger.

Bien que les disparités significatives d’espérance de vie entre les diffé-
rentes zones géographiques et groupes de revenus soient amenées
à perdurer, le rapport indique qu’elles devraient diminuer de façon
significative d’ici 2045-2050.

9782340-024007_001-264.indd 54 13/03/2018 13:13


3. Population mondiale et environnement au XXIe siècle

# Une population plus urbaine


Selon le service Population du Département des Affaires Économiques
et Sociales de l’ONU, en 2014, 54 % de la population mondiale vivait 55
dans les aires urbaines. La population urbaine dans le monde est
passée de 746 millions en 1950 (soit environ 30 % de la population
totale à l’époque) à 3,9 milliards en 2014 (soit 54 % du total).

Les mégapoles recensées sont au nombre de 28 en 2014, et regroupent


12 % des urbains dans le monde alors qu’elles n’étaient que 10 en 1990
et ne rassemblaient alors que 7 % de la population urbaine mondiale.
Le rapport recense également 1691 agglomérations urbaines de plus
de 300 000 habitants. Parmi elles, 400 sont chinoises (soit 23 %) sous
l’impulsion de l’exode rural, 167 sont indiennes, et 20 sont françaises.
Comme le montre le tableau ci-dessous Tokyo reste la plus grande
ville mondiale avec 37,1 millions d’habitants, loin devant Delhi, près
de 25 millions, Shanghai près de 23 millions et Mexico, Bombay, Sao
Paulo et Osaka entre 20 et 21 millions d’habitants. Il est à noter
qu’aucune ville européenne ne figure dans ce top 10.

Tableau 3.2 – Populations des dix principales agglomérations mondiales en


2014 (projection pour 2030)

En 2014 Projection pour 2030


Tokyo 37,83 37,19
Delhi 24,95 36,06
Shanghai 22,99 30,75
Mexico 20,84 23,86
Sao Paulo 20,83 23,44
Bombay 20,74 27,79
Osaka 20,12 19,97
Pekin 19,52 27,70
New York 18,59 19,88
Le Caire 18,41 24,50

Source : World Urbanization Prospects, ONU, 2014.

Le tableau suggère que la croissance des villes chinoises et indiennes


devrait se poursuivre d’ici 2030 alors que la population des agglo-
mérations de l’OCDE devrait connaître un tassement (Tokyo, Osaka,
New York) à l’exception de Mexico.

9782340-024007_001-264.indd 55 13/03/2018 13:13


Grandes questions d'économie du XXIe siècle

La définition des agglomérations et leur comparaison posent des


problèmes de méthodes bien analysés par François Moriconi-Ebrard
et Joan Perez1 dans un article récent publié en 2017. Selon les
56 auteurs, Shanghai et Canton (Guangzhou) sont les deux agglomé-
rations urbaines les plus peuplées du monde, avec respectivement
79,7 millions d’habitants et 47,5 millions d’habitants. Ils utilisent
une définition dite morphologique, correspondant à la définition
française de l’unité urbaine, c’est-à-dire la population agglomérée
au-dessus d’un seuil minimal. Le saut quantitatif impressionnant
réalisé par Shanghai et Canton en une décennie est davantage le fait
de l’étalement urbain qui a absorbé dans une même agglomération
des villes qui étaient déjà millionnaires que d’un phénomène plus
classique d’exode rural. Au sens des auteurs, l’agglomération de
Canton englobe ainsi Macao, Shenzhen et Hong Kong, des villes qui
sont toujours distinctes dans d’autres bases de données, comme celle
de l’Organisation des Nations Unies.

# Le cas de la vieille Europe


Le vieillissement démographique constitue une tendance à long terme
qui s’est amorcée en Europe il y a plusieurs décennies. Ce mouvement
se manifeste dans les transformations de la structure des âges de la
population et se traduit par une part croissante de personnes âgées
et une part décroissante de personnes en âge de travailler dans la
population totale.

L’accroissement de la part relative des personnes âgées s’explique par


une plus grande longévité. L’espérance de vie progresse sous l’effet de
progrès médicaux et d’une meilleure prévention des risques. Cette
évolution est souvent appelée le « vieillissement par le sommet » de
la pyramide démographique.

Le tableau ci-dessous montre que la part des personnes de plus de 65


ans a progressé dans tous les pays européens entre 1960 et 2016. En
2016, elle atteint 23 % en Italie, 21 % en Allemagne et au Portugal,
19 % en France. Seul le Japon présente un taux plus élevé (27 %).

1. Morioni F., Perez J., « Shanghai et Guangzhou sont les agglomérations urbaines les plus peuplées du
monde », Confins, 30, février 2017, online.

9782340-024007_001-264.indd 56 13/03/2018 13:13


3. Population mondiale et environnement au XXIe siècle

Tableau 3.3 – Part des personnes de plus de 65 ans en 1960 et en 2016 dans
différents pays.

1960 2016
57
Japon 6 27
Italie 9 23
Allemagne 12 21
Portugal 8 21
France 12 19
Royaume-Uni 12 18
États-Unis 9 15
Chine 4 10
Inde 3 6
Monde 5 8,46

Source : Banque mondiale.

Par ailleurs, de faibles taux de fécondité persistent depuis de


nombreuses années et contribuent également au vieillissement de
la population ; la baisse des naissances entraînant une diminution
de la proportion de jeunes dans la population totale. Ce processus,
appelé « vieillissement par la base » de la pyramide démographique,
peut être observé dans le rétrécissement de la base des pyramides des
âges de la population de l’UE (à 28) au cours des dernières années.

Selon les projections d’Eurostat, la population de l’Union à 28 qui


atteint aujourd’hui 512 millions devrait culminer à 525,5 millions vers
2050 et ensuite redescendre graduellement à 520 millions à l’horizon
2080. L’Europe s’installerait alors dans un régime démographique qui
stabiliserait sa population. La comparaison des pyramides des âges
pour 2015 et 2080 révèle que la population de l’Union Européenne
devrait continuer de vieillir. Au cours des prochaines décennies, le
nombre élevé de baby-boomers fera gonfler le nombre de personnes
âgées. Cependant, d’ici à 2080, les pyramides prendront davantage
la forme d’un bloc, se resserrant légèrement au milieu (autour des
45-54 ans) et se rétrécissant fortement à proximité de la base.

Un autre aspect du vieillissement démographique réside dans le


vieillissement progressif de la population âgée elle-même, l’impor-
tance relative des personnes très âgées progressant à un rythme
plus rapide que n’importe quel autre segment de la population de

9782340-024007_001-264.indd 57 13/03/2018 13:13


Grandes questions d'économie du XXIe siècle

l’Europe. On s’attend ainsi à ce que la part des personnes âgées de


80 ans et plus dans la population de l’UE soit multipliée par deux ou
plus entre 2015 et 2080, de 5,3 % à 12,3 %.
58
Au cours de la période 2015-2080, la part de la population en âge
de travailler devrait diminuer régulièrement jusqu’en 2050, avant
de se stabiliser quelque peu, tandis que les personnes âgées consti-
tueront sans doute une part grandissante de la population totale, les
personnes de 65 ans et plus représentant 28,7 % de la population
de l’UE en 2080, contre 18,9 % en 2015. À la suite de ces transferts
entre groupes d’âge, le taux de dépendance des personnes âgées dans
l’Union Européenne devrait presque doubler, passant de 28,8 % en
2015 à 51,0 % en 2080 (il s’agit du rapport entre le nombre des plus de
65 ans et le nombre des 15-64 ans). Le taux de dépendance totale liée
à l’âge devrait grimper de 52,6 % en 2015 à 77,9 % en 2080 (il s’agit
ici du rapport entre la population des 0 à 14 ans + la population des
plus de 65 ans / la population des 15-65 ans). Ces évolutions lourdes
constituent autant de défis économiques et sociaux.

# Le mirage de la « Silver Economy »


La silver économie, économie des séniors, désigne l’ensemble des
activités liées aux personnes âgées. Mais derrière ce terme, se cache
l’idée de mettre en avant les opportunités du vieillissement de la
population. Il s’agit d’insister sur ses retombées économiques positives
plutôt que sur son coût pour la collectivité.

En France, cette économie du vieillissement avait été identifiée comme


l’un des sept axes à développer dans le rapport de la Commission
Innovation 2030, remis par Anne Lauvergeon au Président de la
République François Hollande, en octobre 2013. En France, la Silver
Valley réunit sur un même territoire, en Ile-de-France, plus de 240
entreprises reliées de près ou de loin au secteur. L’objectif est de
favoriser les passerelles entre tous ces acteurs pour développer une
nouvelle off re aux seniors. La silver économie fait l’objet d’un réel
engouement.

Le vieillissement de la population s’accompagne certes de transfor-


mation des modes de consommation. Les jeunes retraités donnent
un coup de fouet au tourisme en toute saison. Le quatrième âge a
besoin d’une prise en charge croissante et d’innovations dans la
téléassistance, la domotique, etc. Le secteur est incontestablement

9782340-024007_001-264.indd 58 13/03/2018 13:13


3. Population mondiale et environnement au XXIe siècle

un gisement d’emplois. En France le chiff re de 300 000 emplois


générés par le secteur d’ici à 2020 est souvent avancé ; il s’agit surtout
d’emplois d’aides à domicile, d’auxiliaires de vie, d’infirmiers.
59
La silver économie est porteuse d’optimisme et se veut une oppor-
tunité de croissance. Mais ces débats occultent totalement plusieurs
écueils basiques du vieillissement. D’abord la question du financement
de l’allongement de l’espérance de retraite et la dégradation des
ratios nombre de cotisants / nombre de retraités. En France, selon
le onzième rapport du COR et sous couvert d’hypothèses (quant
à la fécondité, la mortalité…) le ratio cotisant par retraité devrait
passer à 1,65 en 2020, 1,40 en 2040 et 1,35 en 2060 et les dépenses
de retraite devraient continuer à représenter autour de 14 % du
PIB comme aujourd’hui. Ces évolutions sont porteuses de tensions
intergénérationnelles fortes.

Le financement du risque de dépendance est, lui, spécifique (soins


médicaux, aide au quotidien, hébergement en EHPAD). La durée
moyenne d’un épisode de dépendance est d’environ 4 ans. Aujourd’hui
la perte d’autonomie touche plus de 1 200 000 personnes âgées en
France. L’effort public consacré à la dépendance est estimé à plus
de 24 milliards d’euros par an. L’APA – l’Aide Personnalisée pour
l’Autonomie – est aujourd’hui la principale prestation publique pour
la prise en charge de la dépendance, cette prestation varie selon trois
grands critères : le degré de dépendance, le niveau de revenus et la
solution de maintien à domicile ou de placement en établissement.
Le coût de ce « risque dépendance » est appelé à se renforcer.

Les conséquences du vieillissement sur la productivité globale de


l’économie sont négatives. La prise en charge des personnes âgées
est très utilisatrice de main-d’œuvre dont le coût relatif continuera
d’augmenter. Par ailleurs, il est très difficile d’imaginer des gains
significatifs de productivité (autant que cela ait un sens) chez les
infirmiers, les aides à domicile.

9782340-024007_001-264.indd 59 13/03/2018 13:13


Grandes questions d'économie du XXIe siècle

# Hausse de la population
et dégradation de l’environnement
60 La hausse prévisible de la population mondiale jusqu’à la fin du
XXIe siècle pose la question du « butoir écologique » du capitalisme
ou de ce que l’on appelle aussi le « développement durable »1. Les
ressources terrestres permettent-elles de faire face à cette hausse ?
Quelles conséquences sur l’épuisement des ressources ? Quelles
conséquences sur le réchauffement climatique, l’accès aux ressources
en eau potable et en alimentation ?

Proposer des projections en matière d’épuisement des ressources


naturelles est plus délicat qu’en matière de population car de nouvelles
découvertes peuvent être opérées et des innovations peuvent, à l’avenir,
améliorer l’extraction et l’utilisation de ces ressources. Malgré cela,
l’épuisement de certains minerais et de certaines énergies fossiles
est d’ores et déjà programmé. L’argent minerai serait épuisé entre
2021 et 2037 une fois que le stock de 270 000 à 380 000 tonnes aura
été exploité. L’argent a de nombreuses applications dans l’industrie
(électronique, électricité, soudure…). Pour l’étain, très utilisé dans la
chimie, la soudure, la date de 2028 est avancée concernant le taris-
sement d’un stock estimé à 6,1 millions de tonnes. Pour le cuivre, la
date de 2039 est avancée, pour l’uranium 2040… En ce qui concerne
le pétrole les réserves planétaires pourraient être épuisées dès 2050.

Les dégradations à l’encontre de l’environnement se multiplient :


déforestation, érosion des sols, perte de biodiversité, émission de
gaz à effet de serre… L’empreinte écologique de l’humanité explose.
Selon le Global Foodprint Network, réseau international qui calcule,
chaque année depuis 1986, le jour du « dépassement de la Terre »
celui-ci ne cesse d’être avancé. Il s’agit du moment où dans une année
les ressources naturelles renouvelables s’épuisent (ressources halieu-
tiques, forêts, production des terres agricoles, capacité à absorber le
C02…). En 2017, c’est 2 août que les ressources renouvelables d’une

1. Le développement durable (ou soutenable) est défi ni en 1987 par le rapport Brundtland comme « un
développement qui répond aux besoins du présent sans compromettre la capacité des générations
futures à répondre aux leurs ». Ce concept qui prête à l’exégèse et dont la portée normative apparait
quasi inexistante attire, néanmoins utilement l’attention sur les conséquences environnementales de
la croissance économique (émission de gaz à effet de serre, épuisement des ressources naturelles…). La
croissance est-elle compatible avec l’environnement ? Peut-on faire confi ance à l’économie de marché
(ses institutions, ses mécanismes, sa capacité d’innovation…) pour les rendre compatible ou bien faut-il
enclencher un processus plus radical et alternatif de décroissance de l’économie (dans la lignée des
analyses de N Georgescu-Roegen, The Entropy Law and the Economic Process, 1971).

9782340-024007_001-264.indd 60 13/03/2018 13:13


3. Population mondiale et environnement au XXIe siècle

seule planète n’ont plus suffi à subvenir à la consommation de la


population mondiale. À partir de cette date les hommes vivent, en
quelque sorte, à crédit puisqu’ils puisent dans le stock de ressources.
61
Les leviers à mobiliser pour contrecarrer ce mouvement sont bien
connus mais doivent être sans cesse rappelés : diminuer les émissions
de gaz à effets de serre en développant les énergies renouvelables
(solaire, éolien…), en favorisant les transports en commun, les
circuits courts entre production et consommation, réduire les déchets
alimentaires à travers l’optimisation des conditionnements, mettre
en place les bases d’une économie circulaire assurant la réutilisation
des matières premières…

# La question vitale de l’eau


L’accès à l’eau va constituer un enjeu clé du XXIe siècle. Inextricablement
liée au changement climatique, à l’agriculture et à la sécurité alimen-
taire, à l’énergie, à la santé, l’eau est peut-être le thème qui illustre
le mieux les trois piliers du développement durable, qu’il s’agisse de
la lutte sociale contre la pauvreté, du développement économique,
ou de la préservation des écosystèmes. Il s’agit, là encore, de défis
essentiels. Les ressources en eau seront-elles suffisantes pour faire
face à la hausse de la population ? Théoriquement oui, mais selon
le rapport annuel de l’ONU 2015, il est urgent de changer « radica-
lement » la façon de l’utiliser et de la partager sans quoi, au rythme
actuel, « le monde devra faire face à un déficit hydrique global de
40 % » dès 2030. Le rapport souligne ainsi à quel point la pénurie
et la mauvaise gestion de cette précieuse ressource cristallisent les
tensions et les conflits autour du monde.

Le stress hydrique – autrement dit, une ressource insuffisante pour


répondre aux différentes activités humaines et aux besoins de l’envi-
ronnement – commence lorsque la disponibilité en eau est inférieure
à 1 700 m3 par an et par personne. Quasiment les trois quarts des
habitants des pays arabes vivent déjà en dessous du seuil de pénurie
établi, lui, à 1 000 m3 par an, et près de la moitié se trouvent dans
une situation extrême avec moins de 500 m3, en Égypte, en Libye
notamment.

9782340-024007_001-264.indd 61 13/03/2018 13:13


Grandes questions d'économie du XXIe siècle

Les projets de centres de dessalement de l’eau de mer se multiplient


pour produire de l’eau potable dans les régions du monde qui en
ont les moyens, comme en Californie ou dans les pays arabes. À elle
62 seule, l’Arabie Saoudite souhaite se doter de seize nouvelles usines
fonctionnant à l’énergie nucléaire.

Les aquifères souterrains fournissent de l’eau potable à la moitié de


la population mondiale. Mais un sur cinq est surexploité. Largement
dévolus à l’irrigation intensive – comme dans le nord de la Chine
où le niveau de la nappe phréatique est descendu de 40 mètres en
quelques années –, les prélèvements excessifs accentuent les risques de
glissement de terrain et favorisent surtout les entrées de sel, rendant
à terme l’eau impropre à la consommation. Avec l’élévation du niveau
de la mer, des grandes villes en croissance voient ainsi la qualité de
l’eau douce de leurs aquifères menacée, notamment Shanghaï, en
Chine, et Dacca, au Bangladesh. Des îles du Pacifique comme Tuvalu
et Samoa sont contraintes d’importer de plus en plus d’eau douce.
La pénétration du sel représente également une inquiétude de taille
pour les régions méditerranéennes françaises.

L’Inde est souvent pointée du doigt comme responsable d’une exploi-


tation non-durable de la ressource souterraine en eau. En 1960, le pays
était équipé de moins d’un million de puits ; en 2000, il en comptait 19
millions. Toute cette ressource prélevée au moyen de pompes a permis
d’accroître fortement la productivité agricole et de réduire le niveau
de pauvreté. Mais le choix massif de l’irrigation a pour contrepartie
de graves pollutions. Du fait de l’épuisement des nappes phréatiques,
la quantité d’eau disponible par habitant devrait diminuer de 30 %
d’ici 2030. Selon C Jaffrelot1, les pénuries pourraient alors affecter
au moins 10 % de la population. Le stress hydrique pourrait être
aggravé en Inde par la fonte des glaciers himalayens qui pourrait
réduire le débit du Gange, de la Yamuna et du Brahmapoutre. D’ici
2050, la demande en eau devrait augmenter de 55 %, non seulement
sous la pression d’une population croissante, mais aussi parce que la
consommation s’envole. Les besoins de l’industrie devraient exploser
de 400 % d’ici-là. Quant au secteur agricole, ses prélèvements actuels
ne sont pas soutenables, estiment les experts. Entre 1961 et 2009, les
terres cultivées se sont étendues de 12 %, tandis que les superficies
irriguées augmentaient de 117 %.

1. Jaff relot Ch., « L’inde à l’horizon 2025 », dans Bouissou J-M., Godement F., Jaff relot C., (dir) Les géants
d’Asie, Arles, Picquier Poche, 2012.

9782340-024007_001-264.indd 62 13/03/2018 13:13


3. Population mondiale et environnement au XXIe siècle

Une solution est de chercher à rendre l’agriculture plus efficiente afin


qu’elle puisse nourrir de plus en plus d’humains, sans contaminer
pour autant la ressource, ni polluer davantage l’environnement.
Avoir recours aux eaux usées, une fois traitées, pourrait contribuer 63
à relever ce défi.

Une conséquence de cette pression hydrique est l’épuisement des


nappes phréatiques. Alors que deux milliards d’hommes, soit un
petit tiers de la population mondiale, dépendent des eaux souter-
raines, le niveau des nappes phréatiques est devenu extrêmement
préoccupant dans certaines parties du globe, comme l’Inde, la Chine
ou la péninsule Arabique, ainsi que dans certaines régions de Russie
ou même encore dans l’Ouest des États-Unis.

# Conclusion
La croissance de la population mondiale qui devrait se poursuivre
durant tout le XXIe siècle soumet la planète à des défis globaux
cruciaux : lutte contre le réchauffement climatique, optimisation
de l’utilisation des ressources naturelles, partage de l’eau… Elle
soumet ensuite les différentes zones à des défis spécifiques. Pour les
pays émergents et en voie de développement, les questions de lutte
contre la pauvreté, de santé, d’éducation continueront de se poser à
une large échelle. Pour les économies matures, les opportunités de
la silver économie ne peuvent éluder la question du financement du
vieillissement et ses effets défavorables sur la productivité globale
et la croissance potentielle.

9782340-024007_001-264.indd 63 13/03/2018 13:13


9782340-024007_001-264.indd 64 13/03/2018 13:13
4 Les inégalités

Le thème des inégalités s’est imposé dans les débats publics depuis
une dizaine d’années. L’envolée des salaires des très hauts dirigeants
d’entreprise ou encore des sportifs les plus renommés choque une
partie de l’opinion. Ces débats de sociétés appellent des questions
plus globales. Le développement des inégalités freine-t-il la crois-
sance et participe-t-il d’un processus de stagnation séculaire ?
La mondialisation accroît-elle les inégalités ? La légitimité de
la mondialisation passe-t-elle par une meilleure répartition des
richesses ?

Les inégalités sont d’abord difficiles à définir. La notion est intrin-


sèquement multidimensionnelle et mêle le genre, l’âge, l’espace…
Nous nous concentrerons sur les revenus qui en constituent une
dimension centrale. Si les inégalités sont faciles à mesurer, il est en
revanche beaucoup plus difficile de fonder des normes, d’affirmer
ce qui est juste ou injuste, équitable ou inéquitable. Une façon de
poser le problème est de tenter d’analyser les conséquences des
inégalités de revenus sur la croissance économique.

Après avoir étudié les liens entre inégalités et développement,


nous montrerons que la mondialisation s’est accompagnée d’une
réduction de l’extrême pauvreté à l’échelle mondiale et d’une
hausse des inégalités de revenus. Dans un parfait unanimisme
des institutions internationales comme l’ONU, l’OCDE, le FMI
ou la Banque mondiale dénoncent aujourd’hui le développement
des inégalités et appellent à leur résorption. Contrairement à une
idée reçue, dans ce contexte global, la France apparaît comme un
pays où la pauvreté et les inégalités sont relativement faibles.

9782340-024007_001-264.indd 65 13/03/2018 13:13


Grandes questions d'économie du XXIe siècle

# Une notion multidimensionnelle


Le concept d’inégalité est, par nature, multidimensionnel. Les inéga-
66 lités entretiennent des liens étroits avec de nombreuses questions
socioéconomiques. L’inégalité concerne la distribution des revenus,
des patrimoines, la pauvreté relative, l’accès à l’emploi, à l’éducation
voire l’accès à d’autres ressources (logement, services publics, justice,
etc.). Étudier les racines des inégalités sociales consiste à comprendre
pourquoi un ménage n’a pas suffisamment de ressources pour parti-
ciper aux différentes activités « jugées normales », ni pour disposer
de conditions de vie largement répandues dans la société. De ce
point de vue, selon A. Sen1 l’inégalité, en termes relatifs, peut être
comprise comme l’écart par rapport à une notion de distribution
appropriée du caractère. Toujours selon A. Sen, deux notions d’une
distribution juste s’opposent, l’une basée sur les besoins, l’autre sur
le mérite. Considérée en dehors de toute référence normative, une
définition sociologique appréhende l’inégalité comme l’accès biaisé
des membres d’une même société à des biens sociaux d’ordre matériel
ou symbolique. Cette définition se réfère implicitement à un concept
d’inégalité d’opportunités qui peut être la conséquence de trois
sources différentes, liées d’une part à l’origine familiale, associées
d’autre part aux discriminations de nature raciale, de genre, d’âges…
ou dues en définitive à la dotation initiale en capital financier ou
physique des individus.

Empiriquement, le concept d’inégalité économique peut être mesuré


de différentes manières. Cependant, les études réalisées sur ce thème
cherchent à l’appréhender par le biais de la distribution des revenus
ce qui est réducteur et nécessite quelques clarifications liminaires.
Les mises au point portent en premier lieu sur la définition de l’unité
d’observation et en second lieu sur la définition du concept du revenu
utilisé. L’unité d’observation peut être défi nie comme l’unité de
consommation économique au sein de laquelle les revenus sont mis
en commun et les décisions de consommation prises conjointement.
La notion de revenu doit être précisée dans le détail afin de bien en
appréhender la complexité.

1. Sen A., On Economic Inequality, Oxford University Press, 1973.

9782340-024007_001-264.indd 66 13/03/2018 13:13


4. Les inégalités

# La focalisation sur les revenus


L’étude des inégalités se focalise largement sur la distribution des
revenus. L’évolution du revenu disponible brut (RDB) conditionne, 67
en effet, celle du pouvoir d’achat des ménages, c’est-à-dire de leurs
conditions de vie. Le RDB résulte des revenus primaires versés et des
choix politiques opérés en matière de redistribution.

Le revenu primaire est la somme des revenus de facteurs de production.


Le terme primaire signifie qu’il est calculé avant tout prélèvement
fiscal ou social et toute redistribution. Les revenus primaires des
ménages rémunèrent leur participation aux activités productives, ils
constituent la rémunération du travail et du patrimoine.

Les revenus du travail sont constitués des salaires et traitements.

Les revenus du patrimoine se composent :


◊ des intérêts reçus (par les détenteurs d’obligations par exemple) ;
◊ des dividendes reçus (par les détenteurs d’actions) ;
◊ des loyers (qui rémunèrent la propriété immobilière et foncière).

Des revenus mixtes (revenus du travail non salarié) rémunèrent le


travail et le capital dans le cas des entreprises individuelles (profes-
sions libérales, entreprises agricoles…)

Afin de réduire les inégalités dans la répartition des revenus primaires


et d’apporter des revenus à ceux qui n’en ont pas, les pouvoirs publics
opèrent une redistribution. Des prélèvements sont opérés et des
prestations sont accordées (elles sont appelées revenus de transferts).

Les prélèvements sont constitués par :


◊ les cotisations sociales ;
◊ des impôts directs sur le revenu, souvent progressifs c’est-à-dire
avec un taux marginal croissant ;
◊ des impôts directs sur le patrimoine.

Les revenus de transferts sont :


◊ les prestations versées par les organismes de sécurité sociale au titre
de la couverture de certains risques de la vie (maladie, vieillesse,
famille, accident du travail, emploi) voire d’autres prestations selon
les pays, qui complètent les revenus du travail ou les suppléent
pour les foyers dont les membres ont de faibles revenus ou sont
sans emploi.

9782340-024007_001-264.indd 67 13/03/2018 13:13


Grandes questions d'économie du XXIe siècle

Le revenu disponible brut des ménages est un revenu après cotisa-


tions sociales et impôts directs mais avant transferts sociaux en
nature, il est disponible pour la dépense de consommation finale
68 et l’épargne. En comptabilité nationale, le revenu disponible brut
des ménages est égal à la somme de l’excédent brut d’exploitation,
de la rémunération des salariés, de la rémunération du travail de
l’entrepreneur individuel (voire de sa famille), des profits bruts de
l’entreprise, des revenus de la propriété (dividendes, intérêts…), des
prestations sociales en espèces moins les cotisations sociales et les
impôts sur le revenu et le patrimoine versés.

# La mesure des inégalités


de revenus et de la pauvreté
Les inégalités de revenus sont mesurées le plus souvent via l’indice
de Gini. Cet indice de concentration du caractère étudié prend, par
construction, une valeur comprise entre 0 et 1. La valeur 0 correspond
à une distribution parfaitement égalitaire du caractère (tous les
individus ont exactement le même revenu). La valeur 1 correspond
à une situation ou un seul individu concentre l’entièreté du caractère
(il capte à lui seul tous les revenus du groupe).

D’autres indicateurs sont utilisés : part du dernier centile dans le


total des revenus (1 % dont les revenus sont les plus grands), part
du dernier décile (quelle part des revenus les 10 % qui gagnent le
plus concentrent-ils ?). Les rapports inter-déciles et interquartiles
peuvent aussi être utilisés.

La pauvreté, quant à elle, est une notion relative : sa définition et sa


mesure sont particulièrement conventionnelles. La notion de pauvreté
est très relative, « on est toujours le pauvre de quelqu’un » selon un
adage populaire. La pauvreté n’a, d’abord, pas le même sens dans
les économies avancées et les économies en voie de développement.
Une conception relative prédomine dans le premier cas alors qu’une
approche absolue fait davantage sens dans le second. Par-delà ces
conceptions, la pauvreté renvoie fondamentalement à des manques
en termes d’avoir, de pouvoir, de santé voire même de considération
et de socialisation.

9782340-024007_001-264.indd 68 13/03/2018 13:13


4. Les inégalités

* Approche monétaire : pauvreté


absolue et pauvreté relative
L’approche en termes de pauvreté relative est utilisée pour mesurer
la pauvreté dans les économies les plus avancées. Par convention, 69
au sein d’une société, un individu est considéré comme pauvre si
son revenu est inférieur à 50 % (ou 60 %) du revenu médian (le
revenu associé à l’individu qui lorsque l’on classe les individus par
ordre croissant de revenu est en position médiane, il y a autant de
personnes qui ont un revenu inférieur au sien que de personnes
dont le revenu est supérieur). À titre d’illustration, en 2014, la
pauvreté débutait en France avec un revenu inférieur à 840 euros
au seuil de 50 % (pour une personne seule) et un revenu inférieur
à 1008 euros au seuil de 60 %. Le graphique n° 4.7, p. 79, montre
l’évolution des taux de pauvreté depuis plus 40 ans en France.

L’approche en termes de pauvreté absolue pose qu’un individu est


considéré comme pauvre s’il dispose de moins de 1 dollar, moins
de 1,25 dollar, ou de moins de 2 dollars par jour pour vivre. Cette
approche est plus adaptée à la situation des pays émergents ou en
voie de développement.

* Approche non monétaire de la pauvreté


La conception de la pauvreté humaine a évolué au cours de la
période récente vers une approche dite non monétaire centrée
sur les manques des individus en termes de santé, de pouvoir, de
capacité voire de considération. Ainsi l’Indice de Pauvreté humaine
(IPH) a été créé par le PNUD (programme des Nations Unis pour
le Développement) en complément de l’IDH.

Le calcul de l’IPH-1 adapté aux pays pauvres repose sur trois


variables :
◊ le risque de mourir avant 40 ans ;
◊ le taux d’analphabétisme des adultes ;
◊ les conditions de vie mesurées par l’accès aux services de santé,
l’accès à l’eau potable et la sous-nutrition chez les enfants de
moins de cinq ans.

9782340-024007_001-264.indd 69 13/03/2018 13:13


Grandes questions d'économie du XXIe siècle

Le Calcul de l’IPH-2 – adapté aux pays riches – combine quatre


indicateurs :
◊ indicateur de longévité ;
70
◊ indicateur d’instruction ;
◊ indicateur de conditions de vie ;
◊ indicateur d’exclusion.

# La difficulté à définir
des normes d’équité
En théorie, pour les économistes néoclassiques la répartition des
revenus primaires résulte du « jeu du marché ». Une productivité
marginale du travail plus élevée se traduit par un salaire plus grand.
Un talent rare est récompensé par un haut niveau de rémunération
sur le marché. Dans la réalité, la répartition des revenus primaires
résulte aussi des rapports de forces au sein de la société (pouvoirs des
syndicats, pouvoirs des professions réglementées dans les domaines
juridique et médical en particulier).

En principe, les inégalités de revenus constituent la base des


mécanismes d’incitations qui contribuent à la recherche de l’effi-
cacité économique. Celui qui s’engage plus dans le travail, qui est plus
efficace, qui innove davantage, qui prend des risques doit, a priori,
être récompensé par un revenu plus élevé. Les écarts de revenus
récompensent en principe l’aptitude à être efficace dans la production,
la contribution « à la valeur ajoutée globale ».

À contrario, la redistribution des revenus se justifie, elle aussi très


intuitivement, au nom de la solidarité, du vivre ensemble. Les individus
n’ont pas des capacités productives égales. Pendant l’éducation, des
déterminismes différents s’exercent sur les individus et les empêchent
d’atteindre les mêmes niveaux de productivité dans le travail. La
redistribution doit compenser les handicaps et les inégalités.

Il n’existe pas de norme d’équité en matière de distribution des


revenus : un économiste ne peut pas dire qu’une distribution des
revenus est intrinsèquement équitable ou inéquitable. Chaque citoyen
peut porter une appréciation sur la situation. Partant la question
devient de nature politique et devrait être tranchée par le suffrage
universel. Le vote devrait déterminer une orientation sur la question

9782340-024007_001-264.indd 70 13/03/2018 13:13


4. Les inégalités

des inégalités. Historiquement l’off re politique voit s’opposer des


tenants de l’accroissement des inégalités (libérer les énergies…) et
des tenants de la réduction des inégalités (nécessaire solidarité).
71
Dans le cadre de la recherche d’un équilibre, d’un positionnement
du « curseur des inégalités » il peut être utile de rappeler les carac-
téristiques de deux cas polaires (largement imaginaires). Winston
Churchill par une phrase assez célèbre résume à sa manière le débat
« Le vice inhérent au capitalisme consiste en une répartition
inégale des richesses. La vertu inhérente au socialisme consiste
en une égale répartition de la misère. »

D’un côté à droite sur le schéma ci-dessous, la forme absolue du


libéralisme qui serait une jungle capitaliste. Il n’y aurait pas de
place pour celui qui aurait des handicaps et serait dans l’incapacité
de participer à la production, il devrait être laissé sur le bord de la
route, sans revenu, ni soin…

De l’autre, à gauche sur le schéma, l’égalité absolue qui conduit à une


société figée avec la misère en partage. Les individus s’engagent peu
dans le travail et innovent peu. Cette situation pourrait correspondre
à une économie de type soviétique (ETS) sans mécanisme d’incitation.
La perspective est ici la stagnation et le gaspillage des ressources.

ETS Jungle

Efficacité sociale Efficacité économique


Transferts liberté dans l’allocation
Solidarité Individualisme
Compensation les handicaps Récompenser les talents

L’ambition de l’économiste J-M. Keynes était – dans la Théorie


Générale – de parvenir à dépasser cette opposition entre efficacité
économique et efficacité sociale. Chez Keynes la redistribution peut,
sous certaines hypothèses, ramener l’économie vers un équilibre de
plein emploi. Il propose de redistribuer les revenus des agents qui
gagnent beaucoup et ont des propensions à consommer faibles vers
ceux qui gagnent peu et consomment entièrement le supplément de
revenu reçu.

Pour le philosophe américain John Rawls (Théorie de la justice


sociale, 1971) les inégalités économiques et sociales se justifient à
condition d’être liées à des fonctions ouvertes à tous (égalité des
chances pour accéder aux métiers les plus rémunérateurs) et surtout

9782340-024007_001-264.indd 71 13/03/2018 13:13


Grandes questions d'économie du XXIe siècle

de profiter à tous à travers la dynamique d’activité qu’elles engendrent.


Si les inégalités produisent une société de rentiers, inertielle avec une
forte reproduction sociale, elles doivent être combattues.
72

# La courbe de Kuznets
La courbe de Kuznets met en relation les inégalités de revenus
(indice de Gini) et le niveau de développement (revenu/tête) supposé
croissant dans le temps. Au cours des premiers stades de dévelop-
pement, lorsque l’investissement dans le capital infrastructurel et
dans le capital naturel est le principal mécanisme de croissance, la
progression des inégalités entraîne la croissance en déversant les
ressources vers ceux qui épargnent le plus et investissent le plus.
Par la suite, dans les économies plus avancées, l’accroissement du
capital humain prend la place de l’accroissement du capital physique
comme source de la croissance. Dès lors, les inégalités ralentissent la
croissance économique en limitant le niveau général de l’éducation,
parce que tous les agents ne peuvent directement financer leur montée
en compétences.

Graphique 4.1 – Courbe de Kuznets


Inégalité

Revenu par tête

Dans les années 1950, S. Kuznets explique ce phénomène historique


par la dynamique intersectorielle de l’économie (par le déplacement
des travailleurs de l’agriculture vers l’industrie et partant des espaces
ruraux vers les villes). Dans cette perspective, les inégalités décroissent
après que 50 % de la main-d’œuvre a été employée dans un secteur
à plus hauts revenus.

9782340-024007_001-264.indd 72 13/03/2018 13:13


4. Les inégalités

La courbe de Kuznets est aujourd’hui largement discutée tant du


point de vue empirique que théorique. Kuznets utilise des données
croisées provenant de pays différents mais sur une même période.
Ceci empêche d’utiliser des données dans le temps pour observer une 73
progression individuelle du développement économique du pays. Ses
données portaient surtout sur des pays d’Amérique latine à revenus
intermédiaires où les inégalités sont grandes depuis longtemps. Si on
contrôle cette variable, la forme en U inversé disparaît. Enfin, la forme
en U inversé de sa courbe ne semble pas tant tenir à la progression
du développement économique de chaque pays que de différences
historiques entre ces pays. D’un point de vue théorique, Thomas
Piketty remet en cause la stricte causalité (supposée par la courbe
de Kuznets) entre le niveau de développement et les inégalités de
revenus. On pourrait croire, au vu de cette relation, que l’accroissement
dans le temps des inégalités d’un pays est un phénomène «naturel»
qui se résout de lui-même dans le temps, de façon endogène. Piketty
montre, au contraire, sur des données françaises et américaines, que
la réduction des inégalités n’est pas mécaniquement associée à la
croissance du PIB par habitant. Historiquement, elle a surtout été liée
à des événements inattendus affectant le capital (guerre, inflation,
catastrophes) et par l’impôt (sur le revenu notamment). Par ailleurs,
les travaux de Piketty montrent le rôle clé des variations des revenus
de capitaux dans la dynamique globale des revenus (les inégalités
salariales sont restées stables).

Thomas Piketty affirme que le capitalisme, s’il n’est pas régulé, génère
des inégalités grandissantes. Il suggère plusieurs mesures politiques
pour limiter la hausse des inégalités et notamment la création d’un
impôt mondial sur le capital. Il insiste aussi sur la nécessité de mettre
en place des évaluations précises des hauts patrimoines.

# Le recul de la pauvreté extrême


L’intensification de la mondialisation s’est accompagnée d’un recul
de la pauvreté extrême à l’échelle de la planète. Les estimations de
la Banque Mondiale (graphique 4.2 page suivante) font ressortir
qu’à l’échelle mondiale le taux de pauvreté a régulièrement baissé
depuis le début des années 1980 (44,3 % en 1981, 12,8 % en 2012).
Le nombre de pauvres est ainsi passé de 2 milliards d’individus en
1981 à 900 millions en 2012. La pauvreté a beaucoup diminué en
Asie de l’Est et du Sud avec l’émergence économique de la Chine et

9782340-024007_001-264.indd 73 13/03/2018 13:13


Grandes questions d'économie du XXIe siècle

de l’Inde. Par contre, faute d’une croissance suffisante, elle recule


beaucoup moins vite en Afrique subsaharienne où le taux de pauvreté
reste supérieur à 40 %.
74
Graphique 4.2 – Taux d’extrême pauvreté par région du monde entre 1981 et 2012
(personnes vivant avec moins de 1,9 dollar par jour, PPA 2011)

Source : Banque Mondiale.

# Mondialisation et progression
des inégalités de revenus
Les études convergent pour mettre en avant une progression des
inégalités de revenus depuis le seuil des années 1980. Le livre
Le Capital au XXIe siècle qui étudie les inégalités à une échelle inter-
nationale a eu un retentissement planétaire. Sur la base d’un très
gros travail empirique, Piketty montre l’envolée des inégalités de
revenus depuis les années 1980 surtout ceux du dernier centile (le
1 % dont les revenus sont les plus élevés).

Les inégalités observées aujourd’hui sont comparables aux niveaux


d’inégalités d’avant la première guerre mondiale. Le graphique
ci-dessous fait ressortir une nette tendance à la hausse des inégalités
de revenus depuis le milieu des années 1980 pour les pays de l’OCDE.
Pour les États-Unis, la valeur de l’indice de Gini est passée de 0,34 en
1985 à 0,394 en 2014. La moyenne des pays de l’OCDE est passée de
0,29 à 0,318 sur la même période. Pour l’Allemagne l’indice est passé
de 0,25 à 0,292. En Suède, les inégalités semblent bondir durant les
années 2000. Par contre, au Royaume-Uni et en France l’indice est
plus stable passant de respectivement 0,32 à 0,358 et de 0,30 à 0,294.

9782340-024007_001-264.indd 74 13/03/2018 13:13


4. Les inégalités

Graphique 4.3 – Indice de Gini des revenus entre 1985 et 2014.

75

Source : OCDE.

Depuis les années 1980, la globalisation financière a eu pour corolaire


la stabilité des prix. Une inflation basse garantie le rendement réel
des capitaux. Les revenus du capital ont progressé plus vite que les
revenus du travail. Thomas Piketty a théorisé cette dynamique. Sa
thèse centrale repose sur une «loi fondamentale du capitalisme» :
r>g, où « r » est le taux de rendement du capital (intérêts, dividendes,
royalties, loyers, plus-values financières et immobilières…) et « g »
la croissance économique, dont dépend la progression des revenus
du travail. Au cours de la mondialisation contemporaine les revenus
des placements croissent plus vite que les salaires. Il est plus facile
d’épargner pour le capitaliste afin de faire grossir son patrimoine
que pour le travailleur qui doit s’en constituer un.

Pour les États-Unis, Ph. Aghion a mis au jour un lien de causalité entre
les innovations et les inégalités dites extrêmes, incarnées par les très
hauts revenus (dernier centile, top 1 %). Les revenus de l’innovation,
et pas seulement ceux de la rente foncière ou de la spéculation,
contribuent à la poussée des revenus des très hauts talents. Ceci doit
déboucher sur une fiscalisation adaptée aux sources de revenus afin
de ne pas freiner l’innovation.

Pour
la petite Aujourd’hui selon l’ONG Oxfam, qui se fonde sur le classement
histoire Forbes des fortunes mondiales, huit personnes (dans l’ordre
B. Gates, A. Ortega, W. Buffett, C. Slim, J. Bezos, M. Zuckerberg,
L. Ellison et M. Bloomberg) détiennent autant de richesses que
la moitié la plus pauvre de la population mondiale.

9782340-024007_001-264.indd 75 13/03/2018 13:13


Grandes questions d'économie du XXIe siècle

Dans les pays émergents et en développement l’augmentation des


inégalités s’explique d’abord par le fait que les revenus des classes
moyennes supérieures ont rejoint ceux des classes supérieures, comme
76 en Chine et en Afrique du Sud.

Le graphique ci-dessous met en perspective le niveau d’inégalité


dans seize pays. Les inégalités de revenus sont fortes dans des pays
émergents comme le Brésil et la Chine, beaucoup plus faibles dans des
pays européens notamment du Nord (Norvège, Finlande, Pays-Bas,
Allemagne). Aux États-Unis l’indice de Gini atteint 0,394, soit un
niveau relativement élevé.

Graphique 4.4 Indice de Gini des revenus en 2014 dans 16 pays

Source : OCDE

# Les inégalités freinent-elles


aujourd’hui la croissance ?
Vouloir identifier une relation stable entre les inégalités de revenus et
la croissance est délicat comme l’ont montré les discussions autour de
la courbe de Kuznets. Chercher à définir un degré d’inégalité optimal
du point de vue de la croissance semble être une gageure. Cela étant,
des discussions intéressantes concernent aujourd’hui les effets de la
progression des inégalités sur la croissance. L’idée dominante est que
la hausse des inégalités a freiné la croissance au cours des dernières
années par plusieurs mécanismes : un « sous-investissement » en
éducation et une insuffisance de la demande globale.

9782340-024007_001-264.indd 76 13/03/2018 13:13


4. Les inégalités

Un récent rapport de l’OCDE1 établit un lien négatif entre hausse


des inégalités et croissance à travers le creusement de l’écart entre,
d’un côté, la classe moyenne inférieure et les ménages pauvres et,
de l’autre, le reste de la société. L’éducation constitue le canal de 77
transmission : du fait de l’investissement insuffisant des ménages
pauvres dans l’éducation, les inégalités pèsent sur la croissance. Le
creusement des inégalités aurait ainsi coûté plus de 10 points de
croissance au Mexique et à la Nouvelle-Zélande au cours des deux
dernières décennies, et entre 6 et 9 points aux États-Unis, à l’Italie
et au Royaume-Uni. Le même phénomène s’observe en Finlande, en
Norvège et en Suède, même si les niveaux d’inégalité y sont beaucoup
moins élevés. À l’inverse, une situation plus égalitaire a contribué
à faire progresser le PIB par habitant en Espagne, en France et en
Irlande avant la crise.

Toujours selon ce rapport, les inégalités agissent principalement sur


la croissance en limitant les possibilités d’instruction des enfants
issus de milieux socioéconomiques modestes, ainsi que la mobilité
sociale et le développement des compétences. Les résultats scolaires
des personnes dont les parents ont un faible niveau d’instruction se
dégradent à mesure que les inégalités de revenus sont plus prononcées.
À titre de comparaison, ce n’est pratiquement pas le cas, voire pas
du tout, lorsque le niveau d’instruction parental est moyen ou élevé.
Les effets des inégalités sur la croissance découlent de l’écart non
pas entre les 10 % les plus pauvres de la population mais bien entre
les 40 % les plus défavorisés et le reste de la société. L’OCDE estime
que les programmes de lutte contre la pauvreté ne pourront, à eux
seuls, résorber cet écart. Les transferts en nature et le renforcement
de l’accès aux services publics, notamment à des services d’éducation,
de formation et de soins de qualité, constituent un investissement
social essentiel pour améliorer l’égalité des chances à long terme. Il
ressort également de l’analyse que la redistribution, fondée notamment
sur les impôts et les prestations sociales, n’est pas en soi un frein à
la croissance, à condition que les mesures prises dans ce sens soient
conçues, ciblées et mises en œuvre correctement.

L’idée que les inégalités freinent la consommation est plus tradition-


nelle, elle trouve ses fondements théoriques chez Marx et Keynes
notamment. Elle avait déjà été avancée pour expliquer la dépression
des années 1930. Elle ressurgit aujourd’hui. Pendant que les revenus
des acteurs les plus mobiles et les plus talentueux de la mondialisation

1. Cingano F., Trends in income inequality and its impact on economic growth, document de travail 163, OCDE,
2014.

9782340-024007_001-264.indd 77 13/03/2018 13:13


Grandes questions d'économie du XXIe siècle

atteignent des sommets, les 90 % les plus pauvres subissent des


attaques pour réduire leurs salaires. Or ces derniers ont des propen-
sions à consommer plus élevées. Le tassement de leurs revenus pèse
78 inévitablement sur la consommation et donc sur la croissance. Les
effets nocifs sur la demande globale peuvent être contrebalancés par
un endettement croissant des ménages mais celui-ci trouve – à un
moment donné – une limite comptable.

# La progression des inégalités


en France : entre mythe et réalités
En France, il est de bon ton de déplorer le niveau élevé des inégalités
de revenus et de pauvreté. Les chiff res annuels sont commentés sur
le même ton alarmiste. Il est vrai que le nombre de supers-riches
progresse. Dans une étude récente Garbinti, Goupille et Piketty
montrent qu’entre 1983 et 2015 les revenus moyens du top 1 % ont
augmenté de 100 % alors que pour le reste de la population ils n’aug-
mentaient que de 25 %. Cela étant la prise en compte de données
plus larges conduit à une appréciation beaucoup plus nuancée. La
France est un pays où les inégalités de revenus ont relativement peu
progressé depuis les années 1980 et où la pauvreté reste contenue.

Le graphique 4.3, p. 75, montre que l’indice de Gini est resté stable
de 1985 à 2014 (0,3 contre 0,294) alors qu’il a progressé ailleurs
dans le monde. Le graphique 4.5 montre, quant à lui, que l’indice a
diminué nettement de 1970 à 1998, mais que depuis sa progression
reste limitée.

Graphique 4.5 – Indice de Gini des revenus en France entre 1970 et 2015

Source : observatoire des inégalités

9782340-024007_001-264.indd 78 13/03/2018 13:13


4. Les inégalités

Le rapport inter-décile, c’est-à-dire le rapport entre les revenus des


10 % les plus riches et ceux des 10 % les moins riches (graphique
4.6) montre, quant à lui, une grande stabilité autour de 3,5 depuis
le milieu des années 1990. 79

Graphique 4.6 – Évolution du rapport inter-déciles (rapport entre les 10 %


les plus riches et les 10 % les plus pauvres) en France entre 1970 et 2015.

Source : observatoire des inégalités. Revenus après impôts et prestations.

Graphique 4.7 – Taux de pauvreté en France entre 1970 et 2015

Source : Observatoire des inégalités, personnes vivant en métropole, hors étudiants.

Le graphique ci-dessus fait apparaître un recul du taux de pauvreté


en France entre les années 1970 et le milieu des années 2000. Depuis,
une hausse légère peut être observée. Le graphique montre aussi
l’importance du choix du seuil : si, pour 2014, on retient le seuil de
60 % au lieu de 50 % le taux passe à 14,1 % et le nombre de pauvres
passe de 5 millions à 8,8 millions.

9782340-024007_001-264.indd 79 13/03/2018 13:13


Grandes questions d'économie du XXIe siècle

Malgré cela, la France est l’un des pays au monde où le taux de pauvreté
est le plus faible. Le graphique 4.8 montre que la France est au même
niveau que la Suisse et la Norvège (8,6 % et 7,8 %), deux pays avec
80 de très hauts niveaux de vie. Le système de redistribution conserve
une efficacité en France (retraites par répartition, aides sociales…).

Graphique 4.8 – Taux de pauvreté au seuil de 50 % en 2014

Source : OCDE

# Conclusion
La mondialisation a eu pour conséquence de permettre à beaucoup
d’économies émergentes – bien insérées dans les échanges interna-
tionaux – de réduire la pauvreté en leur sein. Mais la mondialisation
s’est accompagnée d’une progression des inégalités de revenus qui
semble aujourd’hui freiner la croissance, en particulier dans les
économies les plus avancées. Les éventuelles corrections passent par
des évolutions des politiques fiscales ciblées sur les très hauts revenus.
Dans un contexte de compétition internationale forte, pour attirer
les activités et les talents, ces réformes fiscales posent la question
(toujours un peu naïve) de la capacité des états à coopérer dans le
sens d’une harmonisation des dispositifs de taxation.

9782340-024007_001-264.indd 80 13/03/2018 13:13


5 La
en
montée
puissance
de la Chine
et de l’Inde

La Chine et l’Inde sont aujourd’hui deux grandes puissances au sein


de l’économie mondiale. Longtemps peu ouverts sur l’extérieur,
ces pays se sont insérés avec succès dans la mondialisation à partir
des années 1980-90. Ces deux pays émergents ont rapidement
progressé dans la hiérarchie des puissances et n’ont pas connu
les mêmes difficultés que le Brésil et la Russie, autres grands
émergents stoppés dans leur élan. Pour certains observateurs, la
Chine contesterait aujourd’hui le leadership des États-Unis. L’Inde
de manière plus discrète devient, elle aussi, un géant économique
et joue, déjà, un rôle important dans la gouvernance mondiale.
La montée en puissance de ces deux voisins asiatiques témoigne
d’un déplacement du centre de gravité de la mondialisation vers
l’Asie1. Mais la réussite de ces pays ne doit pas occulter certaines
de leurs fragilités qui deviennent, en raison de leurs poids, des
menaces pour la stabilité économique de la planète tout entière.

# La « plus grande démocratie du monde »


et le pays du parti unique
Un contraste saisissant se fait jour, tout d’abord, sur le plan politique
entre les deux pays : l’Inde apparaît comme la « plus grande démocratie
du monde » alors que la République Populaire de Chine vit sous un
régime de parti unique (le parti communiste) au sein d’une économie
« socialiste de marché ».

1. Voir Bouissou J.-M., Godement F., Jaff relot C., Les géants d’Asie, Arles, Picquier Poche, 2012.

9782340-024007_001-264.indd 81 13/03/2018 13:13


Grandes questions d'économie du XXIe siècle

Pays de 3 287 263 km2, l’Inde est un État fédéral, qui comprend 29 États
établis sur des bases essentiellement linguistiques, et sept territoires
créés pour des raisons politiques ou historiques (Delhi, Pondichéry).
82 Le pays est aujourd’hui la plus grande démocratie parlementaire du
monde. La vie politique indienne est marquée depuis les années 1990
par l’alternance de deux grands partis. Le Parti du Congrès, fondé en
1885, qui est la plus ancienne formation politique indienne ; il a dominé
la scène politique indienne au moment de l’indépendance (1947) et
jusque dans les années 1990. Le Bharatiya Janata Party (BJP), fondé
en 1980 représente la droite hindoue conservatrice ; il a remporté les
élections législatives en 1998 puis en 2014. Ces dernières années ont
été marquées par l’émergence de partis régionaux dans les différents
états de l’Inde, entraînant un système de gouvernance par coalition.
À l’issue des élections législatives qui se sont déroulées en mai 2014 le
candidat du BJP, Narendra Modi, a été élu Premier ministre avec deux
priorités : la relance de la croissance et l’amélioration de la politique
de voisinage. La relance de la croissance passe par la dynamisation
des investissements directs étrangers. Par ailleurs, le gouvernement
a mis en place des programmes de développement à forte visibilité,
comme « Make in India » (visant un transfert de technologies et une
fabrication croissante en Inde), « Smart Cities » (restructuration
urbaine et développement propre), « Swachh Bharat » (nettoyage
de l’Inde) ou « Clean Ganga » (assainissement du Gange), « Digital
India » (accès au numérique). Pour accroître les transferts de capitaux
et de technologie vers l’Inde, le gouvernement souhaite s’appuyer
sur l’importante diaspora indienne (2,3 millions de personnes aux
États-Unis, 1,4 million au Royaume Uni, 2,5 millions sur le continent
africain, 7 millions dans les pays du Golfe).

Pays d’une superficie de 9 596 960 km2, c’est-à-dire trois fois supérieure
à celle de l’Inde, la Chine se compose de 22 provinces, 5 régions
autonomes (dont le Tibet), 4 municipalités autonomes (dont Pékin
et Shanghai) et deux régions autonomes (Hong Kong et Macao). Le
parti communiste gouverne la République Populaire de Chine depuis
1949, il est de fait un parti unique (il comptait près de 88 millions
d’adhérents en 2015). La Chine se définit comme une économie
« socialiste de marché ». Une célèbre phrase de Deng Xiaoping traduit
à la fois la complexité et le pragmatisme chinois : « Peu importe que
le chat soit gris ou noir pourvu qu’il attrape les souris ».

Le marché joue, de facto, un rôle central dans l’allocation des ressources


mais le pays conserve une référence à la planification centralisée
(plans quinquennaux). Le treizième plan quinquennal qui couvre

9782340-024007_001-264.indd 82 13/03/2018 13:13


5. La montée en puissance de la Chine et de l’Inde

la période 2016-2020 affiche trois priorités : l’accès au plus grand


nombre à Internet – « Internet Plus », le secteur des services et les
industries stratégiques. Il s’articule autour de 5 mots clés : « l’inno-
vation », « la coordination », « une société libre de toute corruption », 83
« davantage d’ouverture » et « un développement partagé » pour
attirer les entreprises étrangères. L’ouverture et l’attachement de
principe au libre-échange marquent la continuité avec la stratégie à
l’œuvre depuis 1978.

# Deux grandes puissances


démographiques en forte croissance
La Chine et l’Inde ont en commun de constituer les deux grandes
puissances démographiques de la planète. La Chine compte 1,37
milliard d’habitants en 2015 une densité de 146 habitants au km2
(19 % de la population mondiale). Le pays cherche depuis plusieurs
décennies à contrôler sa croissance démographique. L’Inde a une
population de 1,311 milliard d’habitants en 2015 soit une densité
de 441 habitants/km². Sa croissance démographique reste forte, de
l’ordre de 1,2 % en 2015.

Le graphique ci-dessous montre la force du taux de croissance du


PIB chinois qui, depuis le seuil des années 1980, oscille autour de
10 % par an avec des pics autour de 14-15 %. La croissance chinoise
entame depuis une dizaine d’années un atterrissage en douceur.
Le rythme de la croissance indienne a été moins soutenu jusqu’au
début des années 2000 mais depuis, le pays maintient une activité
forte et, aux cours des dernières années, sa croissance est devenue
supérieure à celle de la Chine. La croissance économique indienne,
longtemps tirée par les activités de services à forte intensité de main-
d’œuvre qualifiée, est désormais plus diversifiée, avec l’expansion des
secteurs manufacturiers et de la construction, ainsi que sur une part
plus grande de l’investissement et de la consommation privée. En
parallèle, la maîtrise de l’inflation reste une préoccupation centrale
pour les autorités.

9782340-024007_001-264.indd 83 13/03/2018 13:13


Grandes questions d'économie du XXIe siècle

Graphique 5.1 – Taux de croissance du PIB en volume


de la Chine et de l’Inde entre 1980 et 2017 (en pourcentages)

84

Source : Banque Mondiale.

Les échanges internationaux ont constitué le principal moteur de


cette croissance : la Chine s’est ouverte à partir de 1978 et l’Inde à
partir des années 1990. Les deux pays tendent à mettre en œuvre
aujourd’hui un modèle de croissance plus autocentré, fondé sur la
consommation et l’investissement.

Les deux pays vont devoir faire face au défi du ralentissement de


leur croissance à la faveur du développement du secteur des services.

# L’ascension dans la hiérarchie


des puissances
Le tableau ci-dessous propose une comparaison des PIB globaux et par
habitant de la Chine et de l’Inde avec ceux d’autres grandes puissances
économiques. Le PIB global révèle le poids d’une économie alors
que le PIB par tête mesure le niveau de vie moyen de la population.

9782340-024007_001-264.indd 84 13/03/2018 13:13


5. La montée en puissance de la Chine et de l’Inde

Chacun de ces deux indicateurs est présenté en dollars courants et


corrigé de la parité des pouvoirs d’achat (PPA). Le sens des écarts
mérite d’être précisé.
85
Lorsqu’un pays calcule son PIB, il le fait en monnaie locale. La Chine
l’exprime en yuan et l’Inde en roupie. Pour comparer les PIB des
différentes économies il convient de les convertir en dollar, unité de
compte au plan international. Quel taux de change utiliser pour opérer
cette conversion ? Le taux de change courant, officiel, de marché ou
bien le cours de PPA, cours théorique, parfois considéré comme plus
réaliste. Le taux courant est, de fait, un équilibre ; soit un équilibre de
marché au sein d’un régime de change flottant ; soit un cours officiel
au sein d’un régime plus administré. Le taux courant peut parfois
être éloigné de la « fair value » que constitue la PPA.

À l’origine la PPA est conçue comme une théorie de la détermination


du taux de change avant d’être utilisé pour comparer les niveaux de
vie entre pays. La PPA a été systématisée par l’économiste suédois
G. Cassel pendant la Première Guerre mondiale à un moment où la
définition de cours d’équilibre se posait du fait de trajectoires infla-
tionnistes nationales différentes sous l’effet du financement des
dépenses de guerre. Cette approche fonde, de manière très intuitive,
le cours de change d’équilibre entre deux monnaies sur leur pouvoir
d’achat respectif en biens et services. Cette référence à la PPA a été
très utilisée au XXe siècle même si les études empiriques concluaient
parfois à une non vérification. Depuis les années 1990 il est admis
qu’il existe une force de rappel du taux de change réel vers une valeur
stable. Mais le processus de convergence vers la PPA est lent. La PPA
apparaît comme un équilibre de très long terme reposant sur des
hypothèses assez restrictives :
◊ Les biens produits dans différents pays devraient être parfaitement
substituables, comparables.
◊ Les coûts de transaction (coût de transport, d’acquisition des
informations, assurance, taxe…) devraient être assez faibles pour
ne pas limiter les arbitrages.
◊ Enfin la vérification de la PPA se heurte à l’existence dans tous les
pays des biens et services non échangeables à l’échelle internationale.
Plus la productivité du travail est forte, plus les salaires et les prix
de ces biens et services sont élevés. Le niveau des prix est plus élevé
dans les pays riches que dans les pays pauvres, la comparaison se
trouve biaisée par ce différentiel de productivité (ce problème est
connu sous le nom d’effet Balassa-Samuelson).

9782340-024007_001-264.indd 85 13/03/2018 13:13


Grandes questions d'économie du XXIe siècle

À partir du tableau ci-dessous, si l’on raisonne sur les PIB en dollars


courants (colonne 1), la Chine apparaît en 2015 comme la deuxième
puissance mondiale loin derrière les États-Unis (10 866 milliards
86 de dollars contre 17 947). L’Inde apparaît sur cette base comme la
septième puissance mondiale avec un PIB de 2 097 milliards de
dollars derrière le Japon, l’Allemagne, le Royaume-Uni et la France.

Si l’on raisonne sur des PIB convertis sur la base de la PPA (colonne 2),
la hiérarchie des puissances se trouve profondément modifiée. Pour les
deux pays les taux de change courants sont largement sous-évalués en
termes réels (par rapport au pouvoir d’achat du yuan et de la roupie
en marchandises et en services). Aussi la Chine apparaît comme
la première puissance avec un PIB de 18 372 milliards (nettement
devant les États-Unis, 16 890 milliards). Le pays est d’ailleurs présenté
parfois comme la nouvelle superpuissance, le nouveau leader sur la
scène mondiale, le successeur des États-Unis.

L’Inde, sur la base du classement corrigé de la PPA se hisse à la troisième


place (7 335 milliards de dollars) très loin devant le Japon (4 546
milliards de dollars) et l’Allemagne (3 612 milliards de dollars). Ceci
confirme l’importance du taux de change utilisé pour la comparaison
macroéconomique internationale.

9782340-024007_001-264.indd 86 13/03/2018 13:13


5. La montée en puissance de la Chine et de l’Inde

Tableau 5.1 – PIB global et PIB par habitant en 2015

PIB courant PIB PPA PIB courant PIB PPA


en milliards en milliards par habitant par habitant
de dollars de dollars en dollars en dollars 87
(1) (base 2011) (3) (base 2011)
(2) (4)
États-Unis 17 947 16 890 55 909 52 564
Chine 10 866 18 372 7 925 13 400
Japon 4 123 4 546 32 464 35 810
Inde 2 097 7 335 1 598 5 589
Brésil 1 772 3 004 8 519 14 459
Russie 1 214 3 272 8 430 22 751
Corée du Sud 1 377 1 740 27 000 34 368
Union
Européenne 16 230 18 075 31 823 35 442
à 28
Allemagne 3 356 3 612 40 926 44 273
France 2 422 2 491 36 149 37 460
Italie 1 815 2 043 29 754 33 302
Royaume-Uni 2 849 2 524 43 830 38 829

Source : à partir de L’économie mondiale 2017, CEPII, La Découverte, 2016.

Le PIB par tête mesure le niveau de vie moyen des populations (colonnes
3 et 4 dans le tableau). Avec un PIB par tête de 7 925 dollars et 1598
dollars, la Chine et l’Inde apparaissent très en retard vis-à-vis des pays
européens et plus encore des États-Unis (55 909 dollars). De ce point
de vue, ils présentent encore les caractéristiques d’économie en voie
de développement. Raisonner sur un PIB par tête corrigé de la PPA
(colonne 4) ne remet pas en cause cette analyse (13 400 dollars pour
la Chine et 5 589 pour l’Inde) et ne fait qu’atténuer l’écart. Les deux
pays doivent encore lutter contre des situations d’extrême pauvreté
dans certaines parties de leur territoire.

# L’insertion de deux pays émergents


dans l’économie mondiale :
similitudes et divergences
Jusqu’à la mort de Mao en 1976, la Chine était relativement
fermée comme le montre le graphique 2 ci-dessous. Son coefficient
d’ouverture restait très inférieur à 5 %. À partir de 1978, une stratégie
d’ouverture a été conduite sous l’impulsion de Deng Xiaoping, le grand

9782340-024007_001-264.indd 87 13/03/2018 13:13


Grandes questions d'économie du XXIe siècle

architecte de la modernisation de l’Empire du milieu. La conviction du


numéro 1 chinois est alors claire : « Pas un seul pays au monde, quel
que soit son système politique n’a réussi à se moderniser avec une
88 politique de porte fermée ».

Pour
la petite Deng Xiaoping (1904-1997) séjourne en France de 1920 à 1926
histoire dans le cadre d’un programme travail-étude pour apprendre de
l’Occident. Il travaille chez Schneider au Creusot, chez Hutchinson
à Châlette-sur-Loing, chez Renault à Billancourt, puis chez Kléber
à Colombes. Il se forge, en France, des convictions anti-capitalistes
et adhère au communisme.

Depuis 1980, le commerce extérieur chinois progresse beaucoup plus


vite que le PIB. L’ouverture chinoise repose au départ sur des Zones
Économiques Spéciales (ZES) dans les zones côtières (les premières
étant dans les provinces du Guangdong et du Fujian) qui offrent des
conditions favorables aux firmes multinationales et deviennent le
creuset d’un transfert des technologies occidentales. Dans un premier
temps sous l’effet d’importations de biens d’équipements, le solde
courant est déficitaire. Mais à partir des années 1990 des excédents
systématiques se font jour, la Chine devient le nouvel atelier du monde
et adhère à l’Organisation Mondiale du Commerce en 2001. Un modèle
de croissance extravertie est déployé comme par le passé au Japon et
en Corée du Sud. La Chine devient le premier exportateur mondial
de biens dès 2005. La part de la Chine dans le total des exportations
mondiales de marchandises est passée de 1,2 % en 1983 à 12,7 %
en 2014. Des excédents courants systématiques ont, pour partie,
fondé la croissance chinoise et par extension son développement.
En 2006, le ratio exportations / PIB culmine à 35,7 % soit un niveau
extrêmement élevé pour un pays de cette taille1. De fait, la Chine
apparaît très dépendante de la demande mondiale. Cette croissance
extravertie peut être considérée comme un facteur de fragilité.
Depuis la crise financière de 2008 et la mise en œuvre d’un plan de
soutien de la demande intérieure, la Chine met progressivement en

1. L’ouverture commerciale (rapport exportation/PIB ou importations/PIB est en principe inversement


proportionnelle à la taille de l’économie nationale (population et dimension). L’étendue de la demande
interne (taille du marché national) permet de concilier diversification de la production et compétitivité et
réduit le recours à l’échange international. Par ailleurs plus le pays est étendu, plus les distances internes
sont importantes, plus le relief est escarpé, plus les coûts internes du transport des biens importés
peuvent constituer un obstacle fatal à leur compétitivité prix et freiner le commerce international.

9782340-024007_001-264.indd 88 13/03/2018 13:13


5. La montée en puissance de la Chine et de l’Inde

place un nouveau modèle de développement plus autocentré au sein


duquel la consommation et l’investissement devraient se substituer
progressivement aux exportations comme moteur de la demande.
89
Graphique 5.2 – Exportations et importations
rapportées au PIB pour la Chine entre 1960 et 2015 (en %)

Source : Banque mondiale

Au sein d’un système « socialiste de marché » les politiques écono-


miques restent très actives. Les autorités contrôlent les flux d’impor-
tations et orientent largement les spécialisations industrielles via
une capacité à contrôler les investissements. La forte compétitivité
prix de la Chine est assise sur le faible coût de sa force de travail et
le maintien par les autorités monétaires d’une sous-évaluation réelle
du renminbi (la monnaie du peuple). Cet activisme lui a permis de
conquérir des positions commerciales fortes : la part de marché de
la Chine dans les exportations manufacturières mondiales est ainsi
passée de 1 % en 1978 à 17,7 % en 2013. L’ouverture financière a, elle
aussi, été contrôlée : les investissements directs étrangers entrants
sont réglementés (joint-venture avec des opérateurs chinois) et le
yuan n’est pas pleinement conversible au niveau international.

La trajectoire de l’ouverture commerciale indienne apparaît – à


première vue – voisine de celle de la Chine. Dans les années 1960-1980,
le pays est lui aussi relativement fermé et applique un protectionnisme
archaïque. L’Inde s’ouvre un peu plus tard que le Chine, à partir du
début des années 1990. Le pays amorce alors un vaste chantier de
réformes économiques (libéralisation des marchés internes) et une
stratégie d’ouverture contrôlée. De nouveaux secteurs d’activité
émergent et constituent des spécialisations fortes du pays : services
informatiques, services de communication, divers services dits de

9782340-024007_001-264.indd 89 13/03/2018 13:13


Grandes questions d'économie du XXIe siècle

bureaux. Du côté des articles manufacturés, l’Inde est un gros expor-


tateur de vêtements et de textiles. Le coefficient exportations/PIB
est passé de 7 % en 1990 à 13 % en 2000 et 25 % en 2013. Le pays
90 semble entamer, lui aussi, sur la période récente une dynamique de
repli, liée à la promotion de la demande interne et à l’émergence
d’une classe moyenne de consommateurs.

À la différence de la Chine, l’Inde est en position de déficit courant,


celui-ci s’est creusé depuis le milieu des années 2000. Le pays importe
notamment des produits pétroliers et miniers et bénéficie de moindres
revenus entrants. Ses principaux partenaires commerciaux sont
aujourd’hui la Chine, les États-Unis, les Émirats Arabes Unis, l’Arabie
Saoudite, l’Allemagne, Singapour, le Royaume-Uni.

Graphique 5.3 – Exportations et importations


rapportées au PIB pour l’Inde entre 1960 et 2015 (en %)

Source : Banque Mondiale.

# Les facteurs de fragilité


des deux géants asiatiques
La forte croissance chinoise résulte pour partie d’un phénomène
de rattrapage et d’une dynamique intersectorielle favorable. En
2010, la part de l’industrie dans le PIB chinois était de 47 %, celle
de l’agriculture avait chuté à seulement 9,6 %. Depuis les années
1980, en devenant un énorme producteur d’articles manufacturés,
l’Empire du milieu a opéré un mouvement de transfert massif de la
main-d’œuvre du secteur agricole où elle était peu productive, vers
le secteur industriel où elle a été associée aux technologies les plus
modernes. Ceci a eu des conséquences très positives sur la productivité

9782340-024007_001-264.indd 90 13/03/2018 13:13


5. La montée en puissance de la Chine et de l’Inde

globale de l’économie chinoise. Dans le futur, la tertiairisation de


l’économie chinoise sera inévitablement un facteur de ralentissement
du rythme de sa croissance (voir le chapitre sur la perspective d’une
stagnation séculaire). 91

L’intensité de la croissance a permis de réduire spectaculairement le


taux d’extrême pauvreté (moins de 1,25 dollar par jour pour vivre) :
selon la Banque Mondiale il est passé de 77,2 % en 1981 à 14,3 % en
2010. Mais, parallèlement, les inégalités de revenus ont beaucoup
progressé : en trente ans de 1985 à 2014, l’indice de Gini des revenus
est passé de 0,24 à 0,47. Les écarts de revenus entre les ménages
ruraux et urbains sont de l’ordre de 1 à 3. Ces inégalités croissantes
constituent une menace pour le dynamisme de la consommation
intérieure. Elles constituent aussi un facteur potentiel de crise
politique. Au plan local, la population associe inégalités de revenus
et corruption. Le contexte social apparaît potentiellement explosif,
les « incidents de masse » se multiplient.

Enfin plus que d’autres, le pays doit relever un défi écologique dans
le cadre d’un gigantesque développement urbain. La Chine fait face à
une énorme pollution atmosphérique (gaz à effet de serre, dioxyde de
soufre, pluies acides, produits de l’industrie minière). Elle connaît aussi
certaines pénuries d’eau, en particulier dans le nord, des pollutions
aquatiques due à des rejets non traités, une déforestation partielle.
Depuis 1949, on estime une perte d’un cinquième des terres agricoles
en raison l’érosion du sol et au développement économique.

9782340-024007_001-264.indd 91 13/03/2018 13:13


Grandes questions d'économie du XXIe siècle

Les pollutions causeraient chaque année près d’un million et demi


de décès prématurés. Devant ce « mur de l’environnement »1 les
administrations mettent en œuvre des mesures de protection de
92 l’environnement (restrictions de circulation, subventions pour les
véhicules électriques…) mais c’est une véritable révolution verte qui
devrait être déployée.

En dépit de réels progrès économiques, l’Inde reste sous de nombreux


aspects un pays en voie de développement. Le niveau du PIB par
habitant demeure faible (1 598 dollars par personne seulement en
moyenne en 2015) et, malgré l’émergence d’une classe moyenne
dynamique (environ 10 % de la population), une large partie de la
population vit sous le seuil de pauvreté, dans des conditions sanitaires
précaires (en particulier en milieu rural où vivent les deux tiers de
la population) : près d’un Indien sur trois vit toujours avec moins
de 2 dollars par jour. En termes d’indice de développement humain
(IDH) le pays se situe à l’indice 0,61 et occupe le 128e rang mondial
(sur 186 pays). L’espérance de vie à la naissance est de 68 ans et le
taux d’alphabétisation de 62,8 %.

Comme en Chine, depuis l’ouverture, l’Inde connaît des inégalités


croissantes : l’indice de Gini des revenus est ainsi passé de 0,325 en
2000 à 0,38 en 2008.

Des discriminations ethniques et religieuses paraissent se renforcer


à l’encontre par exemple des musulmans, victimes du nationalisme
hindou et laisser au bord du chemin de la nouvelle prospérité.

# Le mythe du leadership chinois


Des deux pays la Chine apparaît comme le plus puissant et l’Empire
du milieu est parfois présenté comme le nouveau leader sur la scène
mondiale, le successeur des États-Unis dans un contexte global de
déplacement du centre de gravité de l’économie mondiale vers l’Asie.
Cette perspective suscite des craintes et comme l’avait prophétisé Alain
Peyrefitte le monde tremble2. Le mythe d’un leadership économique
chinois3 s’est installé.

1. Voir Maréchal J.-P. (dir), La Chine face au mur de l’environnement, CNRS Editions, 2017.
2. Peyrefitte A., Quand la Chine s’éveillera…. Le monde tremblera, Paris, Fayard, 1973.
3. Blancheton B., Mythes économiques. En finir avec les idées reçues en économie. Paris, Ellipses, 2017.

9782340-024007_001-264.indd 92 13/03/2018 13:13


5. La montée en puissance de la Chine et de l’Inde

En réalité la Chine n’est pas capable aujourd’hui de supplanter


les États-Unis comme leader mondial. Pour exercer un leadership
mondial la Chine devrait présenter des caractéristiques qu’elle n’a
pas aujourd’hui : 93
◊ Avoir un poids économique significativement supérieur à celui des
États-Unis. La croissance du leader doit être assise sur un marché
intérieur profond. Rappelons qu’en 1871 le PIB américain est devenu
supérieur à celui de la Grande-Bretagne et qu’en 1913 il lui était
deux fois et demie supérieur sans que le leadership anglais ne soit
encore contesté.
◊ Être l’économie la plus inventive et produire les innovations qui
tirent la croissance mondiale. De ce point de vue les États-Unis
gardent plusieurs longueurs d’avance à travers l’excellence du
système universitaire, la capacité à attirer les meilleurs chercheurs…
◊ Être le pays émetteur de la monnaie internationale. Le yuan chinois
n’est pas candidat pour devenir une monnaie internationale faute
d’une pleine convertibilité internationale et de faible taille du
marché intérieur chinois.
De surcroît la Chine a besoin d’excédents courants pour soutenir
sa croissance et son développement et ne saurait être en position
déficitaire pour alimenter les pays tiers en monnaie internationale.
Pour chercher à imposer sa monnaie comme monnaie internationale,
la Chine devrait d’abord en faire une monnaie régionale mais ce
scénario se heurte aux antagonismes forts qui existent avec le Japon,
la Corée du Sud voire l’Inde.

Le leadership économique chinois apparaît sur ces bases comme un


mythe, le pays présente certains traits d’une économie en retard de
développement et des facteurs de grande fragilité.

# Conclusion
Par leur poids économique, la Chine et l’Inde sont déjà des grandes
puissances économiques du début du XXIe siècle. Ces pays pèsent
dans la gouvernance mondiale et sont appelés à structurer un monde
multipolaire dans les prochaines décennies. Leur voix est incontour-
nable sur des dossiers globaux comme la lutte contre le réchauffement
climatique, la préservation de la biodiversité. Leur forte croissance a
permis de réduire la pauvreté même si de nombreux chantiers restent
ouverts dans les domaines de l’accès à l’eau potable, de la mortalité
infantile… Les inégalités de revenus se sont envolées au sein des deux

9782340-024007_001-264.indd 93 13/03/2018 13:13


économies et le niveau de vie moyen y reste relativement faible. En
ce sens, la Chine et l’Inde présentent encore des fragilités sympto-
matiques de pays en retard de développement. Les deux pays ont en
commun de mettre en œuvre depuis quelques années une croissance
plus autocentrée fondée sur la consommation et l’investissement
internes. Pour les économies occidentales, une question clef est de
savoir dans quelle mesure elles pourront profiter du développement de
ces gigantesques marchés ? Ne risquent-elles pas d’en être écartées ?

9782340-024007_001-264.indd 94 13/03/2018 13:13


6 Le leadership
économique
des États-Unis

En histoire contemporaine, les États-Unis se sont imposés progres-


sivement comme le leader économique mondial. Au milieu du
XIXe siècle, cette jeune nation achève le déplacement de sa frontière
vers l’Ouest et commence à densifier son peuplement. Dès les
années 1870, son poids économique (mesuré par le PIB global)
est supérieur à celui de la Grande-Bretagne (premier foyer de la
Révolution industrielle). À la même époque, ce pays neuf manifeste
une grande capacité d’innovation. Conformément à la doctrine
énoncée par le Président Monroe en 1823 (« l’Amérique aux
Américains »), le pays n’a pas pour ambition d’exercer une influence
mondiale mais seulement régionale. C’est au XXe siècle que le pays
pèse dans les relations internationales, façonne la culture mondiale
et parvient à imposer le dollar comme monnaie internationale.
Malgré l’effondrement du système de Bretton Woods (incarnation
de leur hégémonie), les États-Unis ont conservé leur leadership
dans un contexte de fin de guerre froide et d’effondrement des
économies socialistes de type soviétique. La montée en puissance
spectaculaire de la Chine remet-elle aujourd’hui en question le
leadership américain ? Les États-Unis peuvent-ils compter sur
leurs atouts traditionnels pour maintenir leur domination ?

9782340-024007_001-264.indd 95 13/03/2018 13:13


Grandes questions d'économie du XXIe siècle

# Deux siècles de croissance


américaine
96 Les États-Unis fondent leur puissance économique dès avant la
Première Guerre mondiale. Le taux de croissance annuel moyen du
PIB y atteint, d’après les chiffres de Maddison, 4,2 % sur la période
1820-70 et 3,94 % sur la période 1870-1913. Une approche comparative
rend mieux compte de la fulgurance de la croissance américaine :
son rythme est deux fois plus élevé que celui du Royaume-Uni, pays
engagé le premier dans la Révolution industrielle, et presque trois
fois supérieur à celui de la France (voir le tableau ci-dessous).

L’intensité de la croissance des États-Unis entraîne son ascension


dans la hiérarchie des puissances. Sur la seule base du produit global,
les États-Unis apparaissent, dès les années 1870, comme la première
puissance économique mondiale. En 1913, la production américaine
est déjà 2,5 fois supérieure à celle de la Grande-Bretagne.

Tableau 6.1 – Taux de croissance annuel moyen du PIB réel en pourcentages

1820-1870 1870-1913 1913-1950 1950-1973 1973-1998 1999-2016


États-Unis 4,2 3,94 2,84 3,93 2,99 2,19
Royaume-Uni 2,05 1,9 1,19 2,93 2 2,03
France 1,27 1,63 1,15 5,05 2,1 1,47
Chine -0,37 0,56 -0,02 5,02 6,84 9,13

Source : Maddison A, L’économie mondiale. Une perspective millénaire,


OCDE, 2001, complété par l’auteur pour la période 1999-2016.

En termes de taux de croissance du PIB par habitant, indicateur de


niveau de vie, les performances américaines sont également excep-
tionnelles : 1,34 % entre 1820 et 1870 puis 1,82 % entre 1870 et
1913. Cet élément laisse apparaître que la croissance du PIB américain
n’est pas exclusivement fondée sur un accroissement quantitatif du
facteur travail. De telles performances permettent un dépassement
du niveau de vie anglais. Alors qu’en 1820 le PIB par tête américaine
est inférieur de plus d’un quart au PIB par tête britannique, en 1913
il lui est supérieur de 8 %. En 2015, le PIB par tête des États-Unis
atteint 55 909 dollars alors que celui du Royaume-Uni n’est que de
43 830 dollars, soit un écart de plus de 20 % (voir le tableau 6.2).

Sur la période 1913-1950, pourtant marquée par la Grande Dépression


et la crainte d’une stagnation séculaire (pour reprendre l’expression
d’Alvin Hansen), la croissance américaine reste forte (2,84 % par an),

9782340-024007_001-264.indd 96 13/03/2018 13:13


6. Le leadership économique des États-Unis

beaucoup plus dynamique qu’en Europe et en Chine. Son rythme


s’accélère encore entre 1950 et 1973 (3,93 %) même si à l’époque des
pays bénéficiant notamment d’un transfert de technologies venues
des États-Unis rattrapent une partie de leur retard (Japon, France, 97
Italie…). La croissance américaine est alors inférieure à celui des
économies d’Europe de l’Ouest mais aussi du Japon qui s’impose
comme la deuxième puissance économique mondiale au seuil des
années 1970. Depuis 1973, les États-Unis ont connu une décélération
à l’instar de toutes les économies avancées, engagées sur la voie
de la désindustrialisation. La croissance des gains de productivité
est devenue structurellement plus faible malgré le dynamisme de
l’innovation1. Le contraste avec les performances d’une Chine en
phase d’ouverture et d’industrialisation est frappant (2,99 % contre
6,84 % entre 1973 et 1998, 2,19 % contre 9,13 % entre 1999 et
2016). Cette décélération est, pour partie, à l’origine des débats sur
la stagnation séculaire aux États-Unis et de doutes exprimés quant
à la perpétuation du leadership américain.

# L’émergence du concurrent chinois


Le tableau ci-dessus montre clairement deux temps dans l’his-
toire longue de la croissance chinoise. Une véritable stagnation est
identifiable du début du XIXe jusqu’au milieu des années 1950 (un
taux de croissance annuel moyen de –0,37 % entre 1820 et 1870
et de –0,02 entre 1913 et 1950). Un décollage de la croissance se
fait jour après 1950, d’abord fondé sur le marché intérieur durant
les trois premières décennies de la République populaire, puis sur
une insertion réussie dans la mondialisation (6,84 % entre 1973 et
1998, 9,13 % sur la période 1999-2016). Dans un rapport, publié en
octobre 2014, le Fonds monétaire international annonçait que le PIB
chinois, « corrigé » de la parité des pouvoirs d’achat (PPA), dépassait
celui des États-Unis : 17 632 milliards de dollars pour le Chine contre
17 416 milliards pour les États-Unis. Le tableau ci-dessous montre que
l’écart s’est creusé en 2015 (16 891 pour les États-Unis contre 18 372
pour la Chine). Pour certains le phénomène était prévisible tant le
rythme de la croissance chinoise était, depuis longtemps, supérieur
à celui de la croissance américaine. Mais cette nouvelle a eu un fort
retentissement et à poser la question d’une perte de leadership des
États-Unis et d’une prochaine domination chinoise.

1. Gordon R., « Deux siècles de croissance économique : l’Europe à la poursuite des États-Unis », Revue de
l’OFCE, 84, 2003, pp. 9-45.

9782340-024007_001-264.indd 97 13/03/2018 13:13


Grandes questions d'économie du XXIe siècle

Qu’en est-il réellement ? La Chine n’est pas capable, aujourd’hui, de


supplanter les États-Unis comme leader mondial ! Elle est loin de
présenter tous les attributs d’une domination économique planétaire
98 (capacité à générer des innovations de rupture, rôle international
de la monnaie…). Le changement de leadership est un processus
lent comme le rappelle le passage de témoin, très progressif, entre
le Royaume-Uni et les États-Unis entre le milieu du XIXe siècle et la
Seconde Guerre mondiale.

Tableau 6.2 – PIB global et PIB par habitant en 2015 pour plusieurs zones

PIB courant PIB PPA PIB courant PIB PPA


en milliards en milliards par habitant par habitant
de dollars de dollars en dollars en dollars
(base 2011) (base 2011)
États-Unis 17 947 16 890 55 909 52 564
Chine 10 866 18 372 7 925 13 400
Japon 4 123 4 546 32 464 35 810
Inde 2 097 7 335 1 598 5 589
Russie 1 214 3 272 8 430 22 751
Norvège 388 335 74 924 64 690
Union Européenne
16 230 18 075 31 823 35 442
à 28
Allemagne 3 356 3 612 40 926 44 273
France 2 422 2 491 36 149 37 460
Royaume-Uni 2 849 2 524 43 830 38 829
Émirats Arabes Unis 345 610 36 844 65 146
Qatar 185 302 78 580 128 277

Source : à partir de L’économie mondiale 2017, CEPII, La Découverte, 2016.

Aujourd’hui le PIB des États-Unis s’élève à 17 947 milliards de


dollars alors que le PIB mondial est estimé à 73 172 milliards de
dollars (en dollars courants). La force des États-Unis s’exprime aussi
et surtout à travers son PIB par tête 55 909 dollars par personne en
dollar courant 52 564 dollars corrigés de la PPA. Sur ce critère, les
États-Unis sont très loin devant la Chine mais aussi loin devant le
Japon et les pays européens. On peut certes identifier des états avec
un PIB/tête supérieur à celui des États-Unis (Norvège, Émirats Arabes
Unis, Qatar dans le tableau) mais, à chaque fois, il y a une explication
singulière. L’exploitation des ressources naturelles est à l’origine de
la prospérité de ces pays, qui ne peuvent pas être érigés en modèle
à suivre ; au contraire des États-Unis dont les leviers de croissance
peuvent a priori être activés par d’autres pays.

9782340-024007_001-264.indd 98 13/03/2018 13:13


6. Le leadership économique des États-Unis

# Les facteurs explicatifs


de la croissance américaine
et leur permanence historique
99

* La population
Les États-Unis sont une grande puissance démographique, la
troisième mondiale derrière la Chine et l’Inde. La croissance
démographique américaine est extrêmement forte depuis le début
du XIXe et paraît pouvoir se poursuivre au regard de la faible densité
de population actuellement (environ 32 habitants par km2, soit
dix fois moins qu’au Japon ou en Inde).

Le pays compte :
◊ 9,9 millions d’habitants en 1820,
◊ 40,2 millions en 1870,
◊ 97,2 millions en 1913,
◊ 150 millions en 1950,
◊ 324 millions en 2016.

La croissance démographique s’élève à 2,83 % par an sur la période


1820-1870, elle est quatre fois supérieure à celle de l’Europe
occidentale alors en pleine révolution démographique du fait d’une
baisse de la mortalité. Sur 1870-1913, elle atteint encore 2,08 %
par an et reste trois fois supérieure à celle de l’Europe.

La croissance de la population active et du nombre d’heures


travaillées est forte : elle constitue une explication de la force de la
croissance économique conformément au modèle de Solow (1957).
Ce phénomène s’explique notamment par l’importance de l’immi-
gration : entre 1860 et 1910, le pays accueille environ 32 millions
d’immigrés en provenance du Royaume-Uni, de Scandinavie,
d’Europe centrale et d’Italie pour l’essentiel. L’Amérique du Nord
est à peupler et les autorités favorisent une immigration de masse.
L’idée que le pays constitue un creuset de populations, porteur d’un
esprit d’entreprise, se fonde alors, en même temps que l’image du
capitalisme sauvage américain, très bien peinte par le sociologue
U. Sinclair dans l’ouvrage The Jungle paru en 1906.

9782340-024007_001-264.indd 99 13/03/2018 13:13


Grandes questions d'économie du XXIe siècle

Au XXe siècle la croissance démographique reste forte : 1,21 % entre


1913 et 1950 et 1,45 % entre 1950 et 1973. Sur la période récente,
elle ne fait que décélérer (0,98 % entre 1973 et 1998, rythme trois
100 fois supérieur à l’Europe de l’Ouest). Au XXe siècle, les mouvements
migratoires ont été plus contrôlés, les autorités américaines ont
une approche sélective et privilégient une immigration à haut
niveau de capital humain.

* L’innovation
Une autre force de l’économie américaine réside depuis le XIXe siècle
dans sa capacité à innover plus que les autres et à avoir engendré
des innovations de rupture, qui ont – par la suite – tiré la crois-
sance mondiale.

À l’origine les contraintes territoriales (liées aux distances) et


la faible densité de population peuvent expliquer l’apparition
d’innovations importantes en matière de machinisme agricole et
de communication. Mais évidemment les innovations concernent
aussi, par la suite, de nombreux autres domaines comme le suggère
la liste ci-dessous et il convient d’avancer d’autres explications
pour rendre compte de cette capacité.

Aux États-Unis, l’esprit d’entreprise apparaît supérieur à la moyenne


sans doute du fait de la grande liberté d’entreprendre et de valori-
sation de la réussite professionnelle (autour du mythe du self-made
man) et aussi de l’émulation liée aux incessants mouvements
migratoires. Par ailleurs, les États-Unis ont su, très tôt, mettre
en place un écosystème, associant universités, entreprises, finan-
ceurs et institutions publiques, qui permet la transformation des
découvertes scientifiques en produits pour un marché intérieur
suffisamment grand pour permettre d’exploiter des économies
d’échelle, puis pour le marché mondial.

9782340-024007_001-264.indd 100 13/03/2018 13:13


6. Le leadership économique des États-Unis

Innovations emblématiques apparues aux États-Unis :


◊ moissonneuse-batteuse de Mac Cormick en 1831 (brevetée en
1834).
101
◊ alphabet Morse en 1838 puis télégraphe en 1844 par le même
Samuel Morse.
◊ procédé de la vulcanisation en 1840 par Goodyear.
◊ ascenseur par Otis en 1854.
◊ phonographe et la lampe à incandescence par Thomas Edison
en 1878.
◊ Téléphone en 1878 par G. Bell.
◊ Lave-vaisselle par Cochrane et ventilateur par Wheeler en
1886, qui marquent des premiers pas vers une « civilisation de
la maison ».
◊ Première automobile de grande série Ford T en 1908.
◊ Poste de radio à galène par Dunwoody et Pickard en 1910.
◊ Réfrigérateur par Domeire en 1913.
◊ Télévision par Farnsworth et Zworykin en 1926.
◊ Ordinateur en 1946.
◊ Laser par Towes en 1960.
◊ Microprocesseur par Boone et Hyatt en 1970.
◊ Téléphone mobile par Cooper en 1973.
◊ Ecran tactile par Zénith en 1985, Wi-Fi par la société NCR
Corporation et par AT&T en 1991.
◊ Smartphone, IBM en 1992.
◊ Facebook par Zuckerberg en 2004.
◊ Voiture sans conducteur, Google en 2010.

Le leadership technologique américain constitue une donnée


permanente même s’il peut être parfois contesté. Aujourd’hui, la
prééminence américaine est particulièrement forte en armements,
dans l’industrie pétrolière, en biotechnologies, dans l’Internet,
matériels et logiciels, dans le traitement des données, dans les
nanotechnologies et la pharmacie. Elle apparaît un peu plus partagée
en aéronautique, espace, nucléaire, cosmétiques, en ingénierie
industrielle et en chimie, mais aussi en robotique. L’écosystème
américain est le plus performant au monde pour transformer les
découvertes en entreprises à forte croissance. L’ambition de créer

9782340-024007_001-264.indd 101 13/03/2018 13:13


Grandes questions d'économie du XXIe siècle

des entreprises mondiales y est forte, comme les moyens : le capital-


risque américain est trente fois plus fort que le français. L’ascension
des géants américains de la nouvelle économie le montre : Amazon,
102 Google, Apple, Uber…

En 2012, les États-Unis consacrent 2,81 % de leur PIB à des dépenses


de R&D (publiques et privées) contre 1,98 % en Chine, 2,09 %
en zone euro, 2,23 % en France. Les États-Unis abritent environ
40 % des recherches mondiales et 50 % des brevets : le budget de
l’Institut national de santé en biotechnologies-santé (30 milliards
de dollars) est trente fois supérieur à celui des meilleures insti-
tutions européennes. Les États-Unis concentrent les prix Nobel.
Les Universités américaines trustent les premières places dans le
classement de Shanghai. En 2017, elles sont 16 dans le top 20, 47
dans le top 100 et 135 dans le top 500.

# Le statut de monnaie
internationale du dollar
Positionner sa monnaie en tant que monnaie internationale est
l’attribut d’un leader économique. Le statut d’émetteur de la monnaie
mondiale consacre une domination internationale et présente de
grands avantages, susceptibles d’avoir un caractère cumulatif. La lutte
pour le maintien du leadership passe par cette bataille monétaire.
Le mythe de la fin de dollar est ici l’expression fantasmée de la fin
de la puissance américaine.

* Les bénéfices de l’émission


de monnaie internationale
Une monnaie internationale (ou mondiale) est une unité monétaire
utilisée par des résidents de pays autres que le pays émetteur. Elle
remplit les trois fonctions traditionnelles d’une monnaie : moyen
de paiement, unité de compte et réserve de valeur :
◊ En tant que moyen de paiement, elle est utilisée par les opéra-
teurs privés comme instrument en tant que valeur intermédiaire
dans des opérations commerciales ou financières réalisées entre
deux devises de moindres importances. Elle est aussi utilisée
par les autorités monétaires à l’occasion d’interventions sur les
marchés étrangers.

9782340-024007_001-264.indd 102 13/03/2018 13:13


6. Le leadership économique des États-Unis

◊ En tant qu’unité de compte elle est utilisée pour la facturation,


l’émission d’obligations ou l’octroi d’un crédit bancaire. Les
autorités monétaires peuvent s’en servir d’unité de compte à
laquelle elles rattachent leur propre devise. 103
◊ En tant que monnaie de réserve sa liquidité, sa crédibilité et
la vitalité de son marché financier, permettent aux opérateurs
privés et publics de conserver la valeur de leurs actifs.
Le statut de monnaie international du dollar permet aux États-Unis
d’obtenir d’importants bénéfices qualifiés de « seigneuriage » :
financement aisé du déficit courant, plus faibles coûts de transac-
tions et gains de compétitivité pour les entreprises américaines
qui facturent et émettent des titres financiers dans leur propre
monnaie, taux d’intérêt plus bas toutes choses égales par ailleurs…

Les pénalités infligées depuis 2009 par les autorités américaines


à certaines banques étrangères au motif qu’elles avaient effectué
des transactions en dollars avec des pays sous embargo écono-
mique américain peuvent être interprétées comme une forme de
seigneuriage. Entre 2009 et 2015 les pénalités à l’encontre des
banques étrangères se sont élevées à près de 14 milliards de dollars
(dont 8,97 milliards pour la seule BNP1 en 2014 et 897 millions
pour le Crédit Agricole en 2015). Des banques se sont vu interdire
certaines transactions en dollars pour des durées limitées. La simple
et seule utilisation du dollar – passage obligé des transactions
internationales – semble soumettre, de facto, certains opérateurs
à l’autorité américaine.

1. La Banque BNP a été poursuivie pour ne pas avoir respecté l’’international emercency economic powers
act’, loi fédérale de 1977 qui permet aux Président des États-Unis de restreindre les relations avec certains
pays. BNP a été accusée d’avoir facilité des milliards de dollars de transactions avec le Soudan, l’Iran et
Cuba.

9782340-024007_001-264.indd 103 13/03/2018 13:13


Grandes questions d'économie du XXIe siècle

Depuis l’effondrement du système de Bretton Woods beaucoup


annoncent la fin de la domination du dollar américain en tant que
monnaie internationale. Les responsables politiques européens
104 et asiatiques appellent à la fin de cette suprématie au nom d’un
nécessaire rééquilibrage des relations internationales et du caractère
désuet de l’unilatéralisme américain. Ils imaginent un monde
multipolaire, invoquant les références aux devises composites dans
le prolongement du projet de bancor de J-M.Keynes1.

Tour à tour, différentes divises ont été désignées comme dauphines


de la monnaie américaine : le yen japonais, le mark allemand,
l’euro et aujourd’hui le yuan chinois. Mais toutes ont échoué à
le supplanter révélant à la fois les profondes inerties en matière
d’utilisation de la monnaie internationale et la très grande diffi-
culté à organiser un système multipolaire. La fin de la suprématie
du dollar apparaît comme un mythe de l’histoire économique des
quarante dernières années.

* L’émergence du dollar en tant


que monnaie internationale
Le dollar est l’unité monétaire officielle des États-Unis depuis 1792.
Son destin se confond avec la montée en puissance des États-Unis.
Au XIXe siècle le refus des autorités américaines de mettre en place
au niveau interne une véritable organisation monétaire retarde
l’émergence du dollar comme monnaie internationale alors que
pourtant la taille du marché intérieur américain s’accroît specta-
culairement. Après la création en 1913 du Federal Reserve System
(Fed), en charge de la politique monétaire, le dollar s’impose
comme une monnaie forte et conteste la primauté internationale
de la livre sterling. Selon Kindleberger, l’ampleur de la crise de
1929 résulte d’ailleurs d’une absence de leadership mondial : la

1. Le projet de Keynes envisage à l’époque la création d’un système international de compensation et


d’une monnaie supranationale appelée le bancor. Cette monnaie a vocation à servir d’unité de compte
aux échanges internationaux. La parité fi xe des devises nationales par rapport au bancor est révisable
chaque année afi n de pouvoir absorber des chocs spécifiques. Pour Keynes les Banques centrales
achèteront ou vendront leurs devises nationales pour régler le débit ou crédit de leur compte à la
chambre de compensation du système, auprès de laquelle chacune dispose d’un découvert exprimé en
bancors pour un montant initial équivalent à la somme moyenne des importations et exportations
du pays au cours des trois années antérieures à la mise en place du système. Chaque année, la balance
extérieure de chaque pays est évaluée et tout déséquilibre est fi nancièrement pénalisé selon un barème.
Si le déséquilibre dépasse une certaine limite la devise est réajustée : réévaluation si le pays est pays
exportateur net, dévaluation si il est importateur net. Le système se veut plus équitable en mettant
également une pression correctrice sur les pays excédentaires. Il était prévu, au départ, une parité fi xe
entre d’un côté le bancor et les devises et de l’’autre le bancor et l’or. La référence au métal jaune avait
vocation à s’effacer, Keynes considérant toujours l’or comme une « relique barbare ».

9782340-024007_001-264.indd 104 13/03/2018 13:13


6. Le leadership économique des États-Unis

Grande-Bretagne n’a plus les moyens de stabiliser les relations


financières internationales et les États-Unis ne jouent pas le rôle
de prêteur en dernier ressort au niveau international.
105
En 1944, la conférence de Bretton Woods consacre le leadership
des États-Unis au sein de l’ensemble des économies capitalistes et
clôt l’affrontement entre la livre et le dollar. Le projet américain
porté par Johnson traduit la volonté de domination des États-Unis.
Il place le dollar au centre du régime de changes fi xes qui est alors
instauré. Le dollar est seul convertible en or (à 35 dollars l’once).
Les autres pays s’engagent à ne pas autoriser d’opérations de
change qui s’éloignerait de + ou – 1 % de la parité ainsi définie.
Dans les faits, à partir de 1947, les États-Unis décident de vendre et
d’acheter de l’or contre tous les dollars qui lui seront présentés. De
fait ils s’exonèrent de l’obligation de défendre la parité et peuvent
s’installer dans une posture de douce négligence (selon la formule
de l’économiste G. Haberler « benign neglect ») même ils offrent la
possibilité aux n-1 autres pays du système d’obtenir de l’or.

Le FMI, créé lui aussi à Bretton Woods a pour principales missions


de faciliter le maintien des parités fi xes et d’assurer la continuité
internationale des paiements en portant assistance à des pays
qui ont des difficultés pour équilibrer leur balance des paiements.
L’institution est contrôlée par les États-Unis. Le mode de décision
du FMI est basé sur la répartition des droits de vote en fonction du
montant de la cotisation des États membres (principe « un dollar,
une voix »). Pour prendre des décisions une majorité qualifiée de
85 % des droits de vote est nécessaire. Les États-Unis disposent
depuis l’origine de l’équivalent d’un droit de veto dans la mesure
où ils disposent en permanence de plus de 15 % des droits.

Triffin dans l’ouvrage Gold and the Dollar Crisis : the Future of
Convertibility, publié en 1960, signale le dilemme dans lequel le
système de Bretton Woods se trouve enfermé. La forte croissance
mondiale est associée à une demande importante de monnaies
(en devises convertibles) à des fins de transaction internationale.
Chacune de ces monnaies d’échange voit sa valeur garantie par
une banque centrale dont la demande de dollars comme réserve
de change ne peut qu’augmenter avec la croissance mondiale. Les
États-Unis peuvent sans difficulté fournir ces dollars via leurs
déficits extérieurs. Mais comme l’évolution du stock d’or mondial
dépend de facteurs exogènes (découvertes de nouveaux gisements

9782340-024007_001-264.indd 105 13/03/2018 13:13


Grandes questions d'économie du XXIe siècle

ou amélioration des procédés d’extraction) et ne suit pas l’évolution


des échanges mondiaux un problème se fait jour. Le dilemme réside
dans une alternative a priori inextricable :
106
◊ soit les États-Unis n’approvisionnent plus l’économie mondiale
en liquidité au risque de la voir basculer dans la déflation.
◊ soit la crédibilité des autorités américaines va inévitablement
s’eff riter à mesure que le rapport dollars émis sur stock d’or
augmente et, à terme, le système est appelé à s’effondrer.
Les événements de la fin des années 1960 confirment finalement
les analyses de Triffin, le ratio réserves d’or/dollars ne cesse de se
détériorer et les États-Unis sont contraints de suspendre officiel-
lement la convertibilité or du dollar.

Dans une intervention télévisée le 15 août 1971 le Président Richard


Nixon proclame que les États-Unis ne sont plus tenus de vendre
de l’or à un prix fi xe aux banques centrales étrangères, il appelle
à une rectification des taux de change. Les représentants des pays
développés se réunissent au Smithsonian Institut, à Washington,
en décembre 1971 pour tenter de stabiliser les changes. Le dollar
est dévalué : l’once d’or passe de 35 à 38 dollars. Face aux Européens
qui s’inquiétaient des fluctuations du dollar, John Connally, alors
secrétaire au Trésor répliqua « le dollar est notre monnaie, mais
c’est votre problème ». Le 12 février 1973 une nouvelle dévaluation
du dollar intervient, l’once d’or vaut désormais 42 dollars.

* Le maintien du rôle dollar


dans un environnement de flottement
La rupture des engagements monétaires américains peut être
interprétée à la fois comme un signe de faiblesse au sens où la
crédibilité de l’ensemble des engagements américains est altérée
mais aussi comme un signe de puissance puisque les partenaires
des États-Unis ne peuvent pas prendre de mesure de rétorsion et
sont placés devant le fait accompli.

En mars 1973 le flottement généralisé des monnaies est finalement


décidé, les accords de la Jamaïque officialisent par la suite en 1976
la dé-monétarisation de l’or au niveau international. La rupture
par les États-Unis de leurs engagements internationaux pose les
questions de l’organisation du système monétaire internationale et
de la place du dollar en tant que monnaie internationale. Le dollar
se déprécie face à toutes les grandes monnaies (67 % entre 1971

9782340-024007_001-264.indd 106 13/03/2018 13:13


6. Le leadership économique des États-Unis

et fin 1978 face au mark) et beaucoup annoncent alors la fin de


sa suprématie au profit du yen et/ou du mark. L’effondrement du
système de Bretton Woods ne s’est pas accompagné de la recherche
de solution de remplacement du dollar. Au contraire, dans un 107
régime flottant impur où les autorités monétaires interviennent
sur le marché, son rôle de monnaie de réserve officielle s’accroît,
sa part dans les réserves des Banques centrales passe de 76,7 %
en 1973 à 79,4 % en 1977.

Au début des années 1980 la politique monétaire rigoureuse


de Volker et la souplesse budgétaire de Reagan (baisse d’impôt
et dépenses militaires) renforcent la rentabilité des capitaux
déposés aux États-Unis et affermissent le dollar. La profondeur
(et la liquidité) du marché financier américain attire des capitaux
internationaux devenus plus mobiles et entraîne une appréciation
forte (excessive) du dollar jusqu’en 1985. Le 22 septembre 1985 les
ministres des finances et les gouverneurs des banques centrales des
États-Unis, du Japon, de la RFA, de la France et du Royaume-Uni,
réunis à l’hôtel Plaza de New-York, décident d’intervenir de
manière concertée sur le marché des changes afin de mettre fin
au mouvement d’appréciation du dollar entamé depuis 1980. Pour
faire face au creusement de leur déficit commercial les États-Unis
rompent avec la politique du laisser-faire en matière de change et
posent les bases d’une coopération internationale qui se prolonge
à travers les Accords du Louvre de février 1987 qui, lui, fi xent
secrètement une grille d’intervention pour limiter les évolutions
des monnaies des pays membres du G7.

Au seuil des années 1990 le creusement des déficits jumeaux améri-


cains (budgétaire et courant) fait naître de, nouveau, des doutes
sur la suprématie du dollar. Le dollar s’apprécie ou se déprécie au
gré du caractère restrictif ou souple de la politique monétaire de
la Fed. Mais faute d’alternative crédible le billet vert conserve
son statut de monnaie internationale. Il reste une monnaie forte
indépendamment de la volatilité de son cours de change avec
le yen, le mark. Le dollar reste la monnaie de référence pour la
facturation dans le commerce mondial, la cotation sur les marchés
de matières premières, en tant que monnaie de réserve pour les
Banques centrales (70 % en 1997), la monnaie de dénomination des
obligations internationales (44 % en 1997), des crédits bancaires
internationaux (70 % en 1997) et un refuge pour les capitaux.

9782340-024007_001-264.indd 107 13/03/2018 13:13


Grandes questions d'économie du XXIe siècle

* Le dollar résiste au défi de l’euro


Le lancement de l’euro est ouvertement préparé dans le but de
concurrencer le dollar en tant que monnaie international. Des pays
108
qui souhaitent s’opposer à l’influence américaine appellent tour à
tour à davantage utiliser l’euro : l’Irak de S. Hussein, la Russie de
V. Poutine, la Libye du Colonel Kadhafi, le Venezuela de Chavez…
Lorsqu’au milieu des années 2000 le déficit courant américain
culminait entre 5 et 6 % du PIB et que le dollar se dépréciait
lourdement face à l’euro beaucoup prédisaient « The disappearing
dollar »1, « The failling dollar »2. L’euro gagne alors du terrain
notamment en tant qu’une monnaie de réserve.

Mais les conséquences de la crise financière de 2007-2008 ont révélé


ses faiblesses (défauts de l’intégration budgétaire et politique de la
zone euro, fragilité des systèmes nationaux d’État-providence…)
et, au contraire, renforçaient le dollar. La devise américaine est
apparue comme une valeur refuge au plus fort de la crise fin 2008
après la faillite de Lehman-Brothers.

Le dollar reste aujourd’hui la monnaie de cotation sur les marchés


de matières premières (énergie, minerais, produits agricoles). Le
dollar conserve une part prépondérante dans les transactions inter-
nationales. En 2013 81,1 % des lettres de crédit et de paiements
étaient libellés en dollar contre seulement 8,66 % en yuan et
6,66 % en euro. Un rapport de la BRI évolue le montant quotidien
des opérations sur le marché des changes à près de 5300 milliards
de dollars : le dollar est impliqué dans 87 % des opérations, l’euro
dans seulement 33 %.

La part du dollar dans les réserves de banques centrales ne diminue


que très légèrement sur la longue période. Elle dépasse encore les
64 % en 2015. La diminution de la part de l’euro dans les réserves
des Banques centrales est nette : 20,26 % seulement en 2015 contre
27,7 en 2009. Cette baisse suggère que l’euro n’inspire toujours
pas confiance aux opérateurs. La zone euro souff re de plusieurs
handicaps : une intégration politique bloquée, une faible capacité
à résoudre la crise de la dette et un manque de dynamisme de sa
croissance potentielle. Par ailleurs des devises telles que la livre, le
yen et le franc suisse semblent condamnés à jouer un rôle marginal
(4,5 % pour le livre et 4 % pour le yen en 2015).

1. The Economist, 4 décembre 2004.


2. The Economist, 2 décembre 2006.

9782340-024007_001-264.indd 108 13/03/2018 13:13


6. Le leadership économique des États-Unis

* Les inerties en matière d’utilisation


de la monnaie internationale
La montée en puissance de la Chine peut poser la question du rôle
international de sa devise. Le FMI a intégré le yuan dans le papier 109
de devises qui sert à fi xer les DTS (avec le dollar, l’euro, la livre et
le yen). Mais le yuan chinois (RMB) ne semble pas candidat pour
devenir une monnaie internationale faute d’une pleine converti-
bilité internationale. La Chine a besoin d’excédents courants pour
soutenir sa croissance et son développement et ne saurait être
en position déficitaire pour alimenter les pays tiers en monnaie
internationale. De plus la Chine n’off re pas d’actifs financiers aux
non-résidents.

Dans La Guerre des monnaies. La Chine et le nouvel ordre mondial,


Song Hongbing (2013) qui envisage « l’économie en termes de
guerres » souligne l’importance de la taille du marché intérieur
dans l’ascension d’un pays.

Même si la Chine a un PIB corrigé de la PPA comparable à celui des


États-Unis. La Chine souffre aujourd’hui, selon lui, d’un handicap
rédhibitoire : seule une relative faible part de son PIB vient de son
marché interne. Pour lui, seule une monnaie asiatique pourrait
faire contrepoids à l’influence américaine et changer la donne en
matière de monnaie internationale. Il conviendrait pour cela que
les États asiatiques soient capables de dépasser certains antago-
nismes (conflits sur la mer de l’Est et au Sud, contentieux liés à
la colonisation…). Et, pour l’auteur, les États-Unis ne souhaitent
pas que l’Asie s’unisse.

La mise en place d’une organisation multipolaire de type panier de


devises ne paraît pas plus crédible aujourd’hui que dans les années
1980-90. Organiser un tel système apparaît comme une gageure
et fondamentalement contraire aux intérêts des États-Unis.

De profondes inerties existent en matière d’utilisation de la monnaie


internationale. Elles tiennent à l’existence d’économies d’échelle
et d’effets de réseaux. L’internationalisation d’une monnaie élargie
son marché d’échange ce qui réduit les coûts de transaction et
d’information découlant de l’usage de cette monnaie. Des effets
d’entraînements poussent les opérateurs à utiliser la monnaie
dominante acceptée et recherchée par les autres agents. Le billet
vert profite aujourd’hui de ces forces d’inertie.

9782340-024007_001-264.indd 109 13/03/2018 13:13


Grandes questions d'économie du XXIe siècle

En histoire contemporaine seuls des chocs de grandes ampleurs


comme les guerres mondiales semblent faire évoluer significati-
vement les positions sur la question de la monnaie internationale.
110

# Marges de manœuvre
et pragmatisme dans la conduite
des politiques économiques
Le statut de leader économique mondial apporte une crédibilité, un
statut de zone refuge pour les capitaux internationaux qui off rent
aux États-Unis des marges de manœuvres de politiques économiques
supplémentaires. Par ailleurs loin d’être attachés à un libéralisme
doctrinaire en matière de politiques économiques les gouvernements
des États-Unis doivent être considérés comme très pragmatiques.
Cette approche constitue également une force pour faire face aux
perturbations et redonner force à la croissance.

* Politique monétaire
et central banking design
La politique monétaire des États-Unis apparaît très réactive et
innovante. Comparée par exemple à la BCE, la Fed est en mesure
de diminuer davantage ses taux d’intérêt et de les maintenir – si
nécessaire – longtemps à un bas niveau sans redouter les consé-
quences sur le cours du dollar et la capacité du pays à attirer des
capitaux pour financer l’investissement national ou le déficit
budgétaire. La politique monétaire américaine est très tournée
vers le soutien de l’activité économique.

Berceau intellectuel du modèle d’indépendance de la Banque centrale


qui s’est imposé à travers le monde à partir des années 1980, le pays
s’est bien gardé d’accordée une forte autonomie à la Fed. Beaucoup
de Banques centrales (dont la Banque Centrale Européenne) ont
pour seul objectif la stabilité des prix. Le mandat de la Fed est de
nature différente, plus large, puisqu’elle doit soutenir la croissance
économique et l’emploi et, en même temps, assurer la stabilité des

9782340-024007_001-264.indd 110 13/03/2018 13:13


6. Le leadership économique des États-Unis

prix. Dans les faits la Banque centrale américaine apparaît relati-


vement peu autonome. L’indice d’indépendance juridique calculé
par Crowe et Meade1 ne fait apparaître aucune évolution pour la
Fed depuis les années 1980, il s’établit à 0,48 soit un niveau relati- 111
vement faible. Les travaux plus récents de Dincer et Eichengreen2
confirment cette faible autonomie, sur un ensemble de 89 pays la
Fed apparaît au 82e rang en termes d’autonomie juridique. Le fait
que la Fed ait dans son mandat un objectif d’emploi qui puisse
entrer en conflit avec l’objectif de stabilité des prix explique pour
partie cette situation.

Depuis 2008, les turbulences financières et la progression de la


dette souveraine ont poussé la Banque centrale à assister le gouver-
nement américain pour amortir l’endettement public, quitte à
perdre le contrôle de l’off re de monnaie. Le bilan de la Fed a ainsi
gonflé de manière très spectaculaire. A. Meltzer3, spécialiste de
l’histoire de la Fed, montre qu’elle coopère de manière très étroite
avec le Trésor américain, selon lui le gouverneur de la Fed Ben
Bernanke est apparu fréquemment comme le bras armé du Trésor
américain. La collaboration de la Fed avec le gouvernement passe
par des rencontres et des discussions régulières. Le pragmatisme
américain a conduit le gouvernement à conserver une influence
forte sur la gestion des affaires monétaires du pays.

* Le pragmatisme face à la crise des subprimes


Récemment aussi, pour faire face à la crise financière des subprimes,
le gouvernement américain a fait montre d’un très fort activisme.
En 2008 environ 188 milliards de dollars ont été engagés pour
sauver les entreprises Fannie Mae et Freddie Mac, spécialistes du
refinancement immobilier emportées par le cyclone des subprimes.
Le programme TARP (Troubled Asset Relief Program) initié en 2008
vise à soutenir le système bancaire et le secteur automobile. 421
milliards de dollars ont été mobilisés pour soutenir près de 650

1. Crowe,C., Meade E., « Central Bank Independence and Transparency : Evolution and Effectiveness »,
IMF Working Paper, WP/08/119, 2008.
2. Dincer N., Eichengreen B., « Central Bank Transparency and Independence : Updates and New Measures »,
International Journal of Central Banking, 10 (1), 2014, pp. 189-253.
3. Meltzer A., A History of the Federal Reserve, vol.2 : 1951-1986, The University of Chicago Press, Chicago
and London, 2009.

9782340-024007_001-264.indd 111 13/03/2018 13:13


Grandes questions d'économie du XXIe siècle

banques et des constructeurs tels General Motors et Chrysler1. Ces


mesures de sauvetage et de soutien sectoriel peuvent apparaître
totalement contraires aux principes du libéralisme qui voient dans
112 la faillite des entreprises la sanction logique (voire saine) d’une
mauvaise stratégie. Toujours en novembre 2008 au plus fort de la
crise financière B. Obama, nouvellement élu, impulse une relance
budgétaire mondiale concernée dans le cadre du G20. Face à une
incertitude généralisée la figure de Keynes est alors réhabilitée.
Les grands pays (Chine, Japon, Allemagne…) mettent en œuvre
simultanément des mesures d’impulsions budgétaires (hausse
des dépenses publiques, baisses des impôts…). En mars 2009
les États-Unis déploient un gigantesque plan de relance de 787
milliards de dollars (soit 5,7 % du PIB). Les mesures concernent des
allègements fiscaux à hauteur de 287 milliards et pour le reste des
mesures de soutien à l’investissement public dans les domaines des
infrastructures, des sciences, de la formation… L’effet implicite du
plan de relance sur le PIB (les effets multiplicateurs) est évalué à
seulement 1,3 % en 2009 et 1,5 % en 2010 (hors effet de diff usion)
et les effets sur la création ou la préservation d’emplois sont difficiles
à quantifier. Mais le plan a eu le mérite d’ancrer les anticipations
des opérateurs, de rétablir la confiance.

* Une politique commerciale active


Historiquement la politique commerciale américaine a toujours
été très active. La guerre d’indépendance (1775-1783) a éclaté à la
suite de contentieux douaniers avec l’Angleterre. La création d’un
gouvernement fédéral s’est, pour partie, justifiée par la nécessité
de conduire une politique commerciale intégrée autour de deux
objectifs : favoriser le développement économique interne du pays
et activer un levier de politique étrangère.

Alexander Hamilton a posé les bases de l’approche en termes de


« protection des industries dans l’enfance » dans son Rapport sur
les manufactures de 1791. Des droits de douanes modérés (de 5 à
15 %) avaient alors vocation à protéger les nouvelles industries
nationales d’une concurrence étrangère (notamment britannique)
qui pouvaient les asphyxier. Par la suite cette politique a été durcie

1. Le sauvetage de grandes entreprises apparait comme une pratique courante aux États-Unis, loin de la
vision d’une faillite salvatrice qui sanctionnerait les erreurs de stratégie et permettrait à des nouveaux
opérateurs de mieux occuper le marché. La liste des sauvetages est longue : compagnie d’aviation
Lockheed Aircraft Corporation en 1971 pour 250 millions de dollars, société de chemin de fer Penn
Central Transportation Company en 1974 pour 676 millions de dollars, constructeur automobile Chrysler
en 1980 pour environ 1,5 milliard de dollars, la CINB en 1984 pour 1,8 milliard.

9782340-024007_001-264.indd 112 13/03/2018 13:13


6. Le leadership économique des États-Unis

comme en 1828 avec les tarifs dits des abominations sur les produits
manufacturés qui creusent le fossé entre les marchands de la
Nouvelle Angleterre et l’aristocratie des plantations du Sud. La
victoire du Nord dans la guerre civile de 1861-1865 est, aussi, celle 113
des tenants du protectionnisme industriel. Les tarifs MacKinley
de 1890, qui ne peuvent plus être justifiés par une protection des
industries naissantes, sont curieusement motivés par la volonté
de protéger le haut des salaires dans l’industrie américaine. Le
Dingley Act de 1897 est plus conforme à l’approche stratégique et
discriminatoire qui caractérise alors les politiques commerciales
puisqu’il instaure des droits compensateurs contre les importations
bénéficiant de subventions.

En juin 1930, le tarif dit « Smoot/Hawley » marque un tournant


vers un durcissement sans précédent du protectionniste au niveau
mondial. Autour du Président Hoover, les responsables politiques
américains voient dans la hausse des tarifs douaniers un moyen
d’augmenter les prix intérieurs (et ainsi de casser la déflation)
et de réorienter la demande vers les produits nationaux. Aux
États-Unis, les droits de douanes sont accrus sur 25 000 produits
et le tarif moyen sur les importations protégées passe de 39 % à
53 %. Cette mesure précipite l’économie mondiale vers une guerre
commerciale généralisée et des replis nationaux qui aggravent la
crise économique.

Afin d’éviter la répétition de tel conflit les États-Unis assurent la


promotion du multilatéralisme après 1945. Ils souhaitent alors
consolider le libre-échange. Mais cette volonté de libéralisation
comporte des ambiguïtés. Elle est fondamentalement au service
des intérêts américains. Elle apparaît alors comme la politique
commerciale la plus pertinente pour une économie de tête, très
innovante, dotée des meilleures spécialisations et confrontée à un
tassement relatif de la demande interne. Cette politique commer-
ciale obéit, aussi, à des objectifs de politique étrangère dans la
lignée des visions de Truman et Marshall.

Dès les années 1970, à la faveur du ralentissement de l’activité


économique, la doctrine mercantiliste resurgit. Le Trade Act
de 1974 instaure la « section 301 » qui permet au Président des
États-Unis ou à son représentant pour le commerce de prendre des
mesures à l’encontre des pays qui remettent en cause les intérêts
commerciaux des États-Unis. La loi de 1988 généralise et durcit
cette vision unilatérale américaine via la « section super 301 ». Lors

9782340-024007_001-264.indd 113 13/03/2018 13:13


du plan de relance budgétaire de 2009 le Buy American joue de
nouveau ; les marchandises achetées par le gouvernement fédéral
doivent être produites dans le pays.

Les États-Unis maintiennent aujourd’hui encore un unilatéralisme


motivé à la fois par l’attachement au Fair-Trade et le sentiment de
pouvoir maîtriser la libéralisation commerciale.

# Conclusion
Malgré une décélération de ses performances de croissance au cours
des dernières décennies, et par-delà les débats sur une stagnation
séculaire, l’économie américaine conserve son leadership. Sa crois-
sance démographique reste soutenue et son niveau de capital humain
élevé. L’Amérique reste attractive aux yeux des populations du monde
entier… qui continuent d’imaginer un rêve américain. Sa capacité
d’innovation reste forte. Elle a profondément structuré la nouvelle
économie numérique (réseaux sociaux, plateformes de service,
big data, marketing digital…). Elle continue d’attirer les meilleurs
chercheurs mondiaux, les capitaux asiatiques sensibles à la stabilité
qu’elle incarne… Le dollar reste la seule monnaie internationale
pleine et offre d’importants bénéfices de seigneuriage. L’économie
américaine conserve sa capacité à résister aux crises les plus violentes
et à trouver des réponses de politiques économiques pragmatiques
et novatrices.

9782340-024007_001-264.indd 114 13/03/2018 13:13


7 L’économie
japonaise,
laboratoire
du futur ?

L’économie japonaise incarne depuis longtemps déjà ce que


pourrait être l’avenir des économies les plus avancées. Le pays
se caractérise par une stagnation de l’activité à caractère défla-
tionniste, paradoxalement sans envolée du chômage, une dette
quasi abyssale héritée de relances budgétaires infructueuses et
un vieillissement de sa population. Grâce à son statut de pays
créancier net du reste du monde, le pays du soleil levant présente
un excédent structurel de sa balance des revenus qui contrebalance
le recul de sa compétitivité commerciale et lui permet de conserver
un excédent de sa balance courante. Ses échecs pour sortir de cette
situation sont, déjà, autant d’erreurs à ne pas commettre pour les
économies européennes, voire pour les États-Unis qui souhaitent
éviter le scénario à la japonaise.

# Du miracle des années 1960-1970


à la stagnation contemporaine
Le graphique 7.1 montre un contraste saisissant entre la force de la
croissance nippone entre les années 1960 à la fin des années 1980 et
l’atonie de l’activité depuis la crise financière de 1990-91.

Jusque dans les années 1960, le rattrapage japonais, souvent désigné


comme le miracle japonais, se fonde sur une industrialisation rapide :
la croissance de la production industrielle atteint, à ce moment-là, les
15 %. Compte tenu de son poids démographique ses performances
permettent au pays de se hisser au deuxième rang des puissances du
monde capitaliste vers 1973. Jusqu’à la fin des années 1980, bien qu’en
repli, les performances japonaises continuent d’être relativement
meilleures que celles des autres pays avancés.

9782340-024007_001-264.indd 115 13/03/2018 13:13


Grandes questions d'économie du XXIe siècle

L’industrialisation nippone se fonde alors sur un immense effort


national de formation de capital. Le taux d’épargne des ménages (de
l’ordre de 20 %) est plus élevé qu’aux États-Unis et que dans la plupart
116 des pays européens. Le taux d’investissement ne cesse de croître il
atteint 30 % du PIB vers 1960 puis 35 % vers 1970. L’investissement
productif dans l’industrie en est la composante la plus dynamique,
il permet l’absorption des technologies occidentales et le rattrapage
progressif des niveaux de productivité.

L’essor se fonde aussi sur le maintien d’une durée hebdomadaire


élevée du travail (environ 60 heures) et un fort taux d’activité des
personnes âgées : au total le nombre d’heures travaillées passe de
77 289 millions en 1950 à 107 389 millions en 1973. La population
totale progresse, elle passe de 83,5 millions en 1950 à 108,6 millions
en 1973.

La percée japonaise s’effectue d’abord sur des bases nationales même


si l’aide américaine favorise, comme en Europe de l’Ouest, le redres-
sement initial ainsi que les transferts de technologies. La taille du
marché intérieur permet au Japon d’acquérir une compétitivité dans
les secteurs de la mécanique, l’électroménager, l’automobile, puis
de l’électronique et de s’orienter vers une croissance plus ouverte à
partir des années 1960-1970. Jusqu’en 1985 la compétitivité prix est
soutenue de manière artificielle par une sous-évaluation réelle du
yen. Le pays est régulièrement dénoncé comme un manipulateur de
son cours de change. Par ailleurs la protection du marché intérieur
reste forte au moyen de mesures non tarifaires.

Graphique 7.1 – Taux de croissance du PIB réel du Japon entre 1961 et 2016

Source : Banque mondiale

9782340-024007_001-264.indd 116 13/03/2018 13:13


7. L’économie japonaise, laboratoire du futur ?

# Le toyotisme, grandeur
et déclin d’un modèle
d’organisation industrielle
117
Le toyotisme symbolise la capacité du pays du soleil levant à être
une référence industrielle à l’époque. Dans les années 1950 alors que
Toyota est un petit constructeur automobile sur un marché japonais
de taille réduite un ingénieur de la firme Taiichi Ohno imagine une
organisation nouvelle du travail et de la production qui permet à
l’entreprise d’accroître sa compétitivité. Ce système appelé toyotisme
se diff use aux États-Unis et en Europe dans les années 1980 à la suite
de la crise du modèle taylorien-fordien et propulse le Japon au rang
de modèle industriel à suivre.

Une innovation marquante de Toyota est, d’abord, la mise en place


du système de production appelé « kanban » ou « juste-à-temps ». Le
principe est de créer un flux tendu de production à toutes les étapes
du processus. L’objectif central est de diminuer les coûts liés aux
stocks entre les lignes de fabrication et les ateliers. Les lignes de
fabrication doivent être synchronisées au rythme du montage final.

Chez Toyota on inverse les méthodes de programmation de la


production en raisonnant de l’aval vers l’amont. L’ouvrier de « bout
de chaîne » muni de la commande du client fait remonter ses besoins
vers l’avant-dernier ouvrier et ainsi de suite jusqu’à la fonderie pour
le moteur et les autres « pièces de base ». Des « kanban », fiches de
papier indiquant le nombre de pièces à produire ou à livrer, sont
introduites en 1953 dans l’entreprise.

Ce « kanban » apparaît en réalité comme un système d’information


pour la gestion de la production qui vise à éviter toutes productions
excessives.

Le « kanban » est indissociable de trois grandes caractéristiques de


l’organisation productive de Toyota :
◊ l’autonomisation des lignes de fabrication qui doivent être en capacité
de s’interrompre en cas d’anomalies afin de limiter la production
de pièces défectueuses.
◊ un rythme de production régulier permettant la contraction des
stocks et un effectif stable sans surcapacité.
◊ la « production mixte » c’est-à-dire la capacité d’une même ligne à
produire des modèles différents, le volume de production commandé
pouvant varier.

9782340-024007_001-264.indd 117 13/03/2018 13:13


Grandes questions d'économie du XXIe siècle

À ses débuts, contrairement à ses concurrents américains, Toyota ne


pouvait pas réaliser d’économies d’échelle dans la production de ses
composants, ni se permettre d’être propriétaires de ses fabricants
118 de pièces détachées. L’entreprise a alors massivement opté pour des
fournisseurs extérieurs y compris pour des composants complexes.

Toyota noue des relations de long terme avec ses fournisseurs. Le


contrat de fourniture est conclu lors du lancement de la production du
modèle, le prix unitaire d’une pièce est fi xé à l’avance par négociation.
Si le modèle marche moins bien qu’anticipé et que la demande adressée
au fournisseur est inférieure à ce qui était prévu, Toyota lui offre des
compensations. Plus largement Toyota met en place des relations qui
conduisent à un partage des risques et des profits avec ses fournisseurs.

Par ailleurs le choix des fournisseurs se fait pour chaque modèle ce


qui maintient un certain degré de concurrence entre eux.

Toyota entretient également des relations de long terme avec ses


concessionnaires. Ces derniers vendent exclusivement la marque. Ils
notent les exigences de la clientèle et les font remonter chez Toyota
qui en tient compte dans l’élaboration des nouveaux modèles. Un
système de commande-production est en place : pour partie Toyota
produit ce que les concessionnaires ont promis de vendre. Ce système
est associé à une planification minutieuse de la production (tous les
dix jours) afin de la niveler.

Le kaizen – dit volontaire – réside dans un système de suggestions


qui remontent des agents et dans la participation à des cercles de
qualité qui ont vocation à améliorer les connaissances et l’implication
des individus.

Le kaizen – dit contrôlé – réside dans l’imposition aux ateliers d’une


réduction du temps standard comme norme de kaizen. Il passe par la
mise en concurrence des ateliers : lorsqu’un certain nombre d’ateliers
parviennent à améliorer significativement mise en concurrence des
ateliers l’efficacité productive, la norme est entendue à l’ensemble
de l’entreprise. La capacité à améliorer l’efficacité productive (à
faire mieux que la norme) est rémunérée, elle est une composante
substantielle du salaire.

La stratégie de réduction permanente des coûts à volumes constants


exige dans un cadre analytique régulationniste (Boyer) à la fois une
pertinence externe et une cohérence interne. Elle a été bien adaptée
au mode de croissance japonais fondé, dans les années 1970, sur

9782340-024007_001-264.indd 118 13/03/2018 13:13


7. L’économie japonaise, laboratoire du futur ?

le développement des exportations et la recherche d’une compéti-


tivité-prix facilitée à l’époque par la sous-évaluation réelle du yen.
Jusqu’en 1985 Toyota a pu accroître ses ventes. Au plan interne le
système repose sur un compromis de gouvernement d’entreprise 119
longtemps stable mais très dépendant du statut central du travail
dans la société japonaise. Ce compromis éclate à la fin des années
1980 lorsque les jeunes japonais se détournent d’emplois industriels
jugés trop pénibles et dangereux.

Toyota fait alors face à d’importantes difficultés de recrutements au


Japon. Les salariés refusent de plus en plus les heures supplémen-
taires, les contremaîtres refusent de suppléer les défaillances des
jeunes recrues dont le turn-over grandit.

Toyota remet en cause, en concertation avec les syndicats, trois


piliers de son système : le système de salaire et de promotion, les
heures supplémentaires journalières non programmées, les chaînes
de montage sans stock intermédiaire. Elle réduit la part des salaires
dépendant de la réduction des temps standard par les salariés
eux-mêmes. On met en place un système de deux équipes de jour sans
possibilité d’heure supplémentaire au-delà des huit heures, on baisse
la durée annuelle du travail, on découpage les chaînes de production
en tronçons séparés par des stocks tampons. Toyota adopte au Japon
le système qu’il avait mis en place en Occident. Beaucoup considèrent
que cette rupture marque la fin du toyotisme.

# La crise financière de 1989-1992


et ses conséquences
Les accords du Plaza1 en septembre 1985 commencent à entraver le
bel ordonnancement japonais. L’appréciation du yen imposé au pays
frappe durement les exportations déjà concurrencées par des pays
asiatiques comme la Corée et la Chine. Le gouvernement tente alors
de contrebalancer les effets d’un yen fort en adoptant une politique
monétaire souple qui a pour conséquence la formation de bulles
spéculatives dans l’immobilier et le secteur financier. Devant cet

1. Le 22 septembre 1985 les ministres des fi nances et les gouverneurs des banques centrales des États-Unis,
du Japon, de la RFA, de la France et du Royaume-Uni, réunis à l’hôtel Plaza de New-York, décident d’inter-
venir de manière concertée sur le marché des changes afi n de mettre fi n au mouvement d’appréciation
du dollar entamé depuis 1980. Pour faire face au creusement de leur déficit commercial les États-Unis
rompent avec la politique du laisser-faire en matière de change et posent les bases d’une coopération
internationale qui se prolonge à travers les Accords du Louvre de février 1987 qui fi xent secrètement
une grille d’intervention pour limiter les évolutions des monnaies des pays membres du G7.

9782340-024007_001-264.indd 119 13/03/2018 13:13


Grandes questions d'économie du XXIe siècle

emballement le gouvernement réagit en resserrant la politique du


crédit et les taux sont élevés à cinq reprises en 1989 et 1990 jusqu’à
atteindre les 6 %. Ces hausses accélèrent l’éclatement d’une crise
120 financière de grande ampleur. L’indice Nikkei chute de plus de 60 %,
passant d’un sommet de 40000 points à la fin de 1989 à 15000 points
en 1992. Les prix de l’immobilier s’effondrent également pendant la
récession, de 80 % entre 1991 et 1998. L’effondrement de la valeur
de certains patrimoines et la perte de confiance plongent le pays
dans la déflation.

Les années 1990 sont désignées comme une « décennie perdue »


pour le Japon selon la formule de Paul Krugman. La décélération
de la croissance est nette à partir de 1992-93. Les taux d’intérêt
sont portés à un très bas niveau et le pays entre dans une trappe à
la liquidité1. La politique budgétaire prend alors de puissants relais
à travers des plans de relance variés mais qui ne parviennent pas à
relancer l’activité. Le graphique ci-dessous illustre le changement de
régime budgétaire intervenu à partir de 1993. Le pays génère des flux
de déficits qui viennent alimenter son stock de dette (graphique 7.3,
p. 124).

Pour
mémoire
Déflation : la déflation est un concept polysémique. Dans sa
dimension monétaire la déflation désigne une baisse absolue
du niveau général des prix, un taux d’inflation négatif. Une
définition plus large, combinant aspects nominaux et réels, exige
la coexistence d’un recul des prix et de la production.

L’épisode montre la très grande difficulté à sortir de la déflation via les


outils conjoncturels traditionnels : politiques budgétaires, monétaire
et de change. La célèbre phrase de Ben Bernanke prend ici tout son
sens : « Rien n’est pire que l’inflation, sauf la déflation ».

Le cas japonais pose une question fondamentale : comment réenclencher


une dynamique inflationniste dans un contexte de demande globale
déprimée, d’attentisme, de perte de confiance dans l’avenir ?

1. La trappe à la liquidité désigne un niveau minimal du taux d’intérêt nominal en dessous duquel on ne
peut pas descendre, l’arme monétaire devient impuissante ; toutes les liquidités injectées dans l’économie
sont sans effet sur les taux d’intérêt.

9782340-024007_001-264.indd 120 13/03/2018 13:13


7. L’économie japonaise, laboratoire du futur ?

Dans les années 2000, les stratégies de dépréciation du yen ne


parviennent pas à dynamiser l’inflation via le renchérissement du
prix des importations1. De même, les relances budgétaires qu’elles
soient axées sur l’investissement public ou la consommation à travers 121
des baisses d’impôts ou des transferts échouent à casser la déflation
et ont pour conséquence un nouvel accroissement très spectaculaire
de la dette publique. Face à ces échecs, le Parti Libéral Démocrate s’est
résolu à mettre en œuvre des politiques structurelles d’inspiration
néolibérale. Le gouvernement Koizumi, en place entre 2001 et 2005,
a libéralisé le marché du travail et coupé dans les dépenses publiques
afin d’accroître la compétitivité-prix des exportations. Ce faisant, il
a remis en cause un côté protecteur du modèle japonais.

Graphique 7.2 – Solde budgétaire brut du Japon entre 1986 et 2016 (en % du PIB)

Source : reconstitution de l’auteur.

# Les « Abenomics »
La crise financière mondiale de 2008/2009 a lourdement touché
le Japon (–5,4 % de croissance en 2009), il a subi de plein fouet la
rétractation du commerce mondial (–12 %). Quatre plans de relance
budgétaire ont cherché à contrebalancer la baisse de la demande
externe. Mais la double catastrophe du 11 mars 2011 (tsunami et
accident nucléaire de Fukushima : 22 000 morts et disparus, 150 000
personnes évacuées des zones irradiées) a constitué un autre facteur

1. Les interventions de la Banque du Japon ont été nombreuses au début des années 2000 en particulier en
2003, elles visaient à endiguer l’appréciation du yen. A l’instar de l’action massive du 10 décembre 2003
(vente de 1 284 milliards de yens) ces interventions peuvent ne pas être stérilisées, elles ont alors pour
conséquence mécanique une expansion monétaire qui constitue le principal instrument de la Banque
du Japon. L’efficacité de ces actions est très discutable : elles n’ont pas eu les effets mécaniques attendus
et n’ont pas stoppé la tendance à l’appréciation du yen.

9782340-024007_001-264.indd 121 13/03/2018 13:13


Grandes questions d'économie du XXIe siècle

aggravant des difficultés de l’archipel. Elle a été vécue comme la


« troisième grande défaite » du pays, après l’incapacité à repousser les
Occidentaux au milieu du XIXe siècle et la défaite militaire de 1945.
122 Dans ce contexte, les « Abenomics » ont paru incarner un sursaut
national. Ce terme renvoie aux politiques économiques conduites par
le Premier Ministre Shinzo Abe, élu en décembre 2012 et toujours en
place en 2017 sur un programme économique s’articulant autour de
trois lignes de forces, désignées aussi sous le nom de « flèches » dans
un souci de pédagogie. Ces Abenomics devaient constituer un policy-
mix1 cohérent, permettant au Japon de sortir de la déflation et de
retrouver une plus forte activité économique. Shinzo Abe promettait
de sortir enfin le Japon de la stagnation et de pouvoir ainsi ramener la
dette publique sur une trajectoire soutenable. Les trois flèches sont :
une politique monétaire accommodante, une relance budgétaire et des
réformes structurelles. L’assouplissement monétaire apparaît assez
innovant. Sous l’impulsion de son gouverneur Haruhiko Kuroda, la
Banque du Japon adopte en avril 2013 un programme de facilités
quantitatives et qualitatives pour ramener l’inflation à 2 %, cible
répandue à l’échelle internationale.

La politique budgétaire a une nouvelle fois été utilisée de façon peu


pertinente : elle a été initialement expansionniste puis s’est resserrée
avec la hausse de la taxe de consommation de 5 % à 8 % en avril 2014.
Enfin, le dernier volet des Abenomics, en l’occurrence les réformes
structurelles, est resté assez obscur et imprécis.

La politique monétaire de la Banque du Japon a continué d’affaiblir


le yen et a poussé les cours boursiers à la hausse. Mais ses répercus-
sions sur les variables non financières semblent limitées. Les taux
d’inflation (global et sous-jacent) et les anticipations d’inflation sont
toujours en-deçà de 2 %. Cette faiblesse de l’inflation s’explique pour
partie par l’imparfaite crédibilité de la cible adoptée par la Banque
du Japon. Surtout, il semble que les effets réels aient été particuliè-
rement modestes. En effet, entre le quatrième trimestre de 2012 et
le deuxième trimestre de 2015, la croissance du PIB n’a atteint en
moyenne que 0,9 en rythme annuel. En janvier 2016 l’assouplissement
quantitatif a été complété pour la première fois de l’histoire de la
Banque centrale japonaise par la pratique de taux de dépôts négatifs
(qui s’applique aux réserves des banques sur leur compte à la Banque
centrale). Mais la politique monétaire accommodante a toujours

1. Le concept de policy mix doit être entendu au sens large comme l’ensemble des combinaisons possibles
entre politique budgétaire et politique monétaire, il renvoie à un dosage entre ces deux politiques
instruments de politiques conjoncturelles.

9782340-024007_001-264.indd 122 13/03/2018 13:13


7. L’économie japonaise, laboratoire du futur ?

aussi peu d’influence sur la consommation. Les projections du FMI


ne laissent pas entrevoir de reprise de la croissance au Japon mais,
au contraire, la poursuite de la stagnation.
123
Enfin, les exportations nettes ont faiblement réagi à la dépréciation
du yen. En fait, les importations nettes ont augmenté malgré la dépré-
ciation du yen et la stabilité de la consommation. Trois raisons ont
souvent été avancées pour expliquer cette situation : les prix relatifs
des importations ont diminué, la demande domestique d’énergie a
augmenté et la demande d’électronique étrangère a augmenté.

Si la situation de la balance commerciale s’est détériorée (en 2011 un


premier déficit est apparu après trente ans d’excédents), le solde de la
balance des transactions courantes reste largement excédentaire. En
raison de la force de l’épargne des ménages, le Japon est le premier
créancier mondial (premier détenteur de bons du Trésor américain,
gros pourvoyeur d’IDE à travers la planète…) et les revenus reçus du
reste du monde garantissent la pérennité de son excédent courant
(respectivement +3,1 % et +3,7 % de son PIB en 2015 et 2016).

# L’envolée de la dette publique


En raison de l’incohérence des plans de relance budgétaire, trop
fréquents pour ne pas creuser les déficits budgétaires, mais trop
rapidement avortés pour réellement parvenir à stimuler l’activité
la dette publique s’est envolée. En 1992, dernière année d’excédent
budgétaire, la dette japonaise était inférieure à 70 % et relativement
comparable à celle de l’ensemble de la zone euro et des États-Unis.
Les déficits budgétaires de la période 1993-2016 et deux décennies
de stagnation de la croissance et de l’inflation l’ont portée largement
au-delà des 200 %. La dette du Japon atteint un niveau record à
l’échelle mondiale, il représente 234 % de son PIB en 2016.

Pour autant, contrairement à la Grèce, le pays ne connaît pas de crise


de la dette et il est loin d’être au bord de la faillite. Le Japon a certes
perdu sa note AAA auprès des agences de notation dès 1998 alors que
le ratio atteignait 121 %, et celles-ci expriment régulièrement leur
inquiétude à propos de la situation financière nippone mais le pays
continue de soutenir la demande et de faire face au vieillissement de
sa population par le déficit budgétaire.

9782340-024007_001-264.indd 123 13/03/2018 13:13


Grandes questions d'économie du XXIe siècle

Graphique 7.3 – Dette publique/PIB au Japon entre 1980 et 2016

124

Source : Banque mondiale.

Une explication clef de cette capacité à avoir porté la dette aussi loin
réside dans le fait que celle-ci soit détenue en quasi-totalité par des
opérateurs nationaux (96 % en 2005 et à 92 % en 2013) en premier
lieu la Banque centrale du Japon. Les taux servis sont faibles mais
les opérateurs japonais (banques, ménages) continuent d’avoir
confiance dans la capacité de l’état à assurer le service de cette dette.
Les épargnants japonais sont attirés par la sécurité de ces titres, et
ont peu d’appétit pour une épargne plus risquée.

# Une population stagnante


et vieillissante
La population japonaise a reculé d’un million entre 2010 et 2015,
passant de 128,05 millions à 127,11 millions. Les avertissements sur
la décroissance démographique du Japon sont avérés : l’accumulation
du vieillissement, de la hausse de l’espérance de vie et de la faible
natalité ont finalement réduit la population. Le déclin démographique
semble inexorable en raison de la faiblesse durable du taux de natalité,
estimé aujourd’hui à 1,4 enfant par femme, bien loin des 2,1 néces-
saires au renouvellement démographique et également en raison de la
faiblesse de l’immigration au Japon (seulement 2 millions d’étrangers
étaient recensés dans le pays fin 2013). Le Premier ministre Shinzo
Abe a annoncé qu’il faisait une priorité du maintien de la population
au-dessus de la barre symbolique des 100 millions d’habitants.

9782340-024007_001-264.indd 124 13/03/2018 13:13


7. L’économie japonaise, laboratoire du futur ?

En 2016 la part des personnes âgées de plus de 65 ans atteint le


niveau record de 26,9 % alors qu’elle n’était que de 7 % en 1970 et
11,9 % en 1990. La proportion pourrait même atteindre 40 % en
2050. En faisant l’hypothèse toujours hasardeuse d’un maintien 125
des paramètres de natalité, d’immigration… En 2025, la population
pourrait être de 118 millions d’habitants et l’Institut national de la
démographie annonce la prévision catastrophique d’une population
de 42 millions d’habitants en 2110.

Ces évolutions démographiques en font clairement un laboratoire du


vieillissement de la population et des transformations qu’il implique.
Ce vieillissement peut être porteur d’innovations dans la prise en
charge du grand âge mais il est surtout susceptible de freiner le
potentiel de croissance, notamment en entraînant un déclin de la
population active. Il promet également de fortement détériorer les
finances publiques, dans la mesure où les pensions de retraite vont
s’accroître alors même que de moins en moins d’actifs contribueront
au financement du système de retraite.

Des tensions intergénérationnelles se font jour. Les plus âgés, dont la


participation électorale est plus active, semblent orienter les grands
choix économiques et sociaux du pays. Les plus jeunes n’ont pas de
difficulté pour trouver un emploi mais les conditions salariales sont
moins bonnes que par le passé et la nouvelle génération épargne moins.

Pour
la petite En 2011 Unicharm, le plus gros fabricant japonais de couches,
histoire avait constaté que ses ventes de modèles pour adultes avaient
dépassé celles ciblant les bébés. En 2014, à l’échelle du pays les
ventes de couches pour adultes ont dépassé les ventes de couches
pour enfants.

9782340-024007_001-264.indd 125 13/03/2018 13:13


Grandes questions d'économie du XXIe siècle

# La faiblesse du taux de chômage


La longue stagnation japonaise laisse imaginer le développement
126 d’un chômage structurel de masse. Au contraire le Japon continue
de se caractériser par un faible taux de chômage. Durant la période
faste, des années 1950 et la fin des années 1980, le taux de chômage
a toujours été inférieur à 3 %. La plongée dans la stagnation a certes
entraîné une hausse du taux de chômage de 2,1 % en 1992 à 5,4 % en
2002. Mais depuis par-delà les chocs (dont celui de la crise financière
de 2007-2009) le chômage a diminué et malgré la très faible activité le
pays se trouve confronté aujourd’hui à une pénurie de main-d’œuvre.
En juillet 2017, le taux de chômage n’est que de 3,1 %. Le taux de
chômage des jeunes n’est que de 4,4 % soit le taux le plus faible au sein
de l’OCDE. Il y a même aujourd’hui un ratio de 1,48 offre d’emploi
pour une demande, soit un chiffre sans précédent depuis 1974. La
pénurie d’emplois est forte dans plusieurs secteurs, tels que l’hos-
pitalier, l’hôtellerie-restauration ou la logistique. Les petits boulots
que les Japonais appellent « 3K » (Kitanai, Kiken et Kitsui pour sale,
dangereux et dégradant) sont de plus en plus difficiles à pourvoir.

Comment expliquer une telle situation a priori paradoxale ? Le vieillis-


sement de la population conduit-il à cette situation ? En présence
de faibles gains de productivité du travail, une structure démogra-
phique vieillissante favorise la réduction du chômage. Mais dans
le cas japonais un autre facteur joue. Le marché japonais du travail
apparaît très flexible. Plus de 40 % des emplois sont « irréguliers »
c’est-à-dire précaire et les politiques publiques découragent bruta-
lement l’inactivité. La précarité de l’emploi explique, pour partie, un
taux de pauvreté relativement élevé : 16,1 % en 2014.

Ces tensions sur le marché du travail ne se traduisent pas par des


hausses de salaires. Corrigés de l’inflation, les salaires n’ont progressé
qu’une seule année depuis 2011. Les syndicats semblent avoir renoncé
à créer un rapport de forces favorable aux salariés. Les entreprises
économisent les profits réalisés en prévision d’un avenir présumé
sombre. Ces anticipations pessimistes ont un caractère auto-validant
et contribuent à maintenir le pays dans le marasme. Le pays semble
ne pas avoir confiance dans son avenir.

9782340-024007_001-264.indd 126 13/03/2018 13:13


7. L’économie japonaise, laboratoire du futur ?

# Conclusion
L’économie japonaise incarne un laboratoire du futur pour les
économies les plus avancées. Le Japon est installé dans une longue 127
stagnation à caractère défl ationniste depuis le début des années
1990. Les politiques économiques n’ont pas permis de sortir de cette
situation. Le cas japonais rappelle combien il est difficile de sortir de la
déflation à l’aide les politiques conjoncturelles. Des politiques budgé-
taires désordonnées ont provoqué une envolée de la dette publique.
Par ailleurs, le vieillissement de la population freine la croissance
potentielle et pèse sur les finances publiques mais n’entraîne pas
un chômage structurel de masse. La faiblesse de la consommation
interne permet de maintenir une forte épargne des ménages. Ces
ressources financières permettent au Japon de rester créancier net
du reste de monde et de recevoir d’importants revenus : est-ce à dire
qu’un pays à la structure démographique défavorable doit chercher
à faire financer une partie de la charge de son vieillissement par le
reste du monde ?

9782340-024007_001-264.indd 127 13/03/2018 13:13


9782340-024007_001-264.indd 128 13/03/2018 13:13
8 L’Europe,
entre intégration
et désintégration

« Gagnant en extension, l’Europe perd en intensité »1, à travers


cette phrase François Perroux mettait en avant, dès 1974, l’anti-
nomie entre élargissement et intégration. À mesure que les
frontières se déplacent, les avancées institutionnelles se complexi-
fient lourdement. L’hétérogénéité croissante des structures et des
intérêts empêche l’affirmation d’une position européenne claire.

La question de l’intégration européenne peut être abordée très


simplement.

La construction européenne a contribué à pacifier depuis 70 ans, le


vieux continent. L’affaire n’est pas mince tant l’histoire européenne
est régulièrement scandée de conflits meurtriers.

Pris un à un aujourd’hui, les pays européens ne sont pas en mesure


de peser dans les relations internationales face à des géants
comme les États-Unis, la Chine, à la Russie ou encore l’Inde (voir
le chapitre sur la montée en puissance de la Chine et de l’Inde).
Les pays européens sont donc condamnés à coopérer. Mais sous
quelle forme, et à quel rythme ?

La construction européenne apparaît à la fois comme l’expérience


la plus précoce et la plus achevée d’intégration économique
régionale. Les avancées de plus de quarante ans d’intégration
réelle sont couronnées en 1999 par l’instauration d’une monnaie
unique. Le processus de construction semble très marqué par une
alternance entre phase d’approfondissement de l’intégration et
phase d’élargissement de l’union ainsi que par des moments de
profondes tensions.

1. Perroux F., « L’Europe fi n de siècle », Économie Appliquée, vol XL, n°2, 1974.

9782340-024007_001-264.indd 129 13/03/2018 13:13


Grandes questions d'économie du XXIe siècle

La récente crise de la dette a révélé les fragilités institutionnelles


de l’édifice européen. Elle a conduit à des avancées significatives
comme l’Union bancaire mais elle a accentué le mécontentement
130 d’une partie des populations qui voit dans l’Europe une techno-
cratie coupée des préoccupations quotidiennes, ne protégeant
pas assez les personnes et centrée avant tout sur des objectifs
financiers. À ce stade, l’absence d’intégration politique se fait
toujours cruellement sentir et l’Union est menacée. La séquence
du Brexit montre qu’une désintégration est possible. L’Europe est
donc à la croisée des chemins.

Nous mettons en perspective la construction européenne des


origines à nos jours afin de bien saisir la logique, les forces motrices
et les obstacles à ce projet historique.

# L’intégration régionale
et ses étapes
Selon Ernst Haas1, l’étude de l’intégration régionale consiste à
expliquer comment et pourquoi des États cessent d’être pleinement
souverains ; comment et pourquoi ils fusionnent, se fondent ou se
mélangent volontairement avec leurs voisins au point de perdre les
attributs de la souveraineté tout en acquérant de nouvelles techniques
pour résoudre les conflits entre eux.

Une typologie des étapes de l’intégration a été proposée par B. Balassa


dans l’ouvrage The Theory of Economic Integration (1961). En creux
l’efficacité économique y apparaît comme une force motrice de l’inté-
gration régionale. Les États se rapprochent afin d’améliorer, ensemble,
leur performance économique. Comme l’illustre le schéma suivant,
l’intensification des échanges commerciaux pose la question des coûts
de la pluralité des monnaies et appelle l’intégration monétaire. Par
la suite, la conduite des affaires monétaires et l’harmonisation des
politiques économiques appellent une intégration politique.

Intégraon Intégraon Intégraon


commerciale monétaire polique

1. Haas E.B., « The Study of Regional Integration : Reflections on the Joy and Anguish of Pretheorizing »,
International Organization, Vol. 24, No. 4, Regional Integration : Theory and Research, 1970.

9782340-024007_001-264.indd 130 13/03/2018 13:13


8. L’Europe, entre intégration et désintégration

Les étapes de l’intégration sont les suivantes chez Balassa :


◊ La zone d’échanges préférentiels peut constituer un premier stade :
les droits de douanes prélevés par les membres de la zone sont
moins élevés sur les importations des membres de la zone que sur 131
les importations d’autres pays non membres.
◊ Au sein d’une zone de libre-échange les droits de douanes sont
supprimés entre les pays membres de la zone mais chacun conserve
la liberté de fi xer le niveau de ses droits de douanes vis-à-vis des
pays non membres.
◊ En union douanière les pays membres ont un tarif extérieur
commun et les membres peuvent aussi céder leur souveraineté à
une administration douanière unique.
◊ Au sein du marché commun les facteurs de production (travailleurs
et capitaux) circulent librement à l’intérieur de la zone.
◊ L’union économique peut se définir comme un marché commun au
sein duquel une harmonisation des politiques économiques est à
l’œuvre. À ce stade, l’union peut conduire à une certaine stabilité
et peut promouvoir cohésion et convergence dans la zone.
◊ L’union économique et monétaire est associée soit à la création
d’une monnaie unique (considérée comme un optimum de premier
rang), soit à l’instauration de parités fi xes des cours de change
(optimum de second rang) afin de limiter certains effets négatifs
liés à l’intégration régionale (coûts de transaction sur le commerce
intra-zone).
◊ L’union politique, c’est-à-dire la mise en commun des souverainetés
nationales, peut couronner le processus d’intégration.

# La recherche d’une voie


de coopération en Europe
Au sortir de la guerre, l’union des pays européens apparaît comme le
meilleur moyen de garantir la paix et la prospérité de la partie Ouest
du continent. Mais comment rapprocher les États ?

Une grande Europe aurait pu naître sous l’impulsion des États-Unis si


l’URSS avait accepté que les pays de l’Est bénéficient du plan Marshall ;
c’est d’ailleurs pour gérer cette aide que l’Organisation Européenne
de Coopération Économique est créée en avril 1948. Cet organisme
de coopération rassemble alors 18 pays européens.

9782340-024007_001-264.indd 131 13/03/2018 13:13


Grandes questions d'économie du XXIe siècle

L’union européenne des paiements, établie en 1950, approfondie


cette coopération entre États de l’OECE via la mise en place d’un
système de clearing multilatéral en matière de règlement des échanges
132 internationaux. Ce dispositif relâche la contrainte externe des pays
membres et permet de dynamiser l’ouverture. Durant ces années
1950, l’Europe présente un déficit commercial vis-à-vis des États-Unis
mais il est plus que compensé par un excédent du poste services et
« autres invisibles » ce qui lui permet d’accroître assez rapidement
ses réserves monétaires. Les pays de l’OECE peuvent ainsi retrouver
la convertibilité de leur monnaie en 1959.

La création de la première institution européenne, le Conseil de


l’Europe, en mai 1949 révèle une première double exigence difficile
à concilier en matière de construction européenne : comment
promouvoir une organisation fédérative et préserver la souveraineté
des États. Ce Conseil de l’Europe est une assemblée qui réunit les
gouvernements et les parlements nationaux mais ne dispose que
d’un pouvoir consultatif, seul son Conseil des ministres possède des
pouvoirs dans le domaine très restreint de la protection des droits
de l’homme.

L’intégration aurait pu être immédiatement politique si une Europe de


la défense avait vu le jour. Le plan Pleven aboutit à la création d’une
Communauté Européenne de Défense (CED) afin notamment d’encadrer
le réarmement de l’Allemagne (Traité de Paris du 27 mai 1952). Mais
le refus du Parlement Français de ratifier ce Traité met fin à la CED.

Conformément à la philosophie de Jean Monnet, l’intégration


liminaire est de nature économique autour de réalisations très
concrètes.

Le plan Schuman (il est alors ministre français des Affaires étrangères)
de mai 1950 propose de créer de premières solidarités européennes
en mettant en commun la production dans le domaine de l’industrie
lourde. La France manque à l’époque de charbon pour sa sidérurgie et
souhaite obtenir du charbon allemand en toute sécurité, en créant un
marché libre de la houille et de l’acier entre six pays (Belgique, France,
Italie, Luxembourg, Pays-Bas, République Fédérale Allemande). Ce
projet est négocié par Schuman avec d’autres « pères de l’Europe »
l’allemand Adenauer et l’italien De Gasperi. Le Traité de Paris du
18 avril 1951 établit les institutions de la Communauté Européenne
du Charbon et de l’Acier (CECA).

9782340-024007_001-264.indd 132 13/03/2018 13:13


8. L’Europe, entre intégration et désintégration

La dimension économique de l’intégration est – par la suite – privi-


légiée. Le Traité de Rome, signé le 25 mars 1957, institue une
Communauté Économique Européenne, appelée également « marché
commun » des six. L’objectif est de libéraliser les échanges en créant 133
une union douanière.

# La politique agricole commune


Sur le volet agricole qui constitue à partir de 1955 une exception aux
grands principes du GATT1, la coopération est immédiate entre les
six. Elle se fonde sur les grands principes de l’intégration et connaît
un succès inespéré. Les objectifs généraux de la PAC sont définis dans
le Traité de Rome (25 mars 1957) et ses principes directeurs fi xés
lors de la conférence ministérielle de Stresa en juillet 1958. Pour
affronter le défi de l’indépendance alimentaire, l’Europe naissante met
en place une politique dont la particularité est d’être véritablement
intégrée. Le secteur agricole symbolise la réussite de la construction
européenne pendant plusieurs décennies.

* La modernisation de l’agriculture européenne


à travers un protectionnisme « offensif ».
Les mécanismes de base ont été établis par les six pays fondateurs
(Allemagne de l’Ouest, Belgique, France, Italie, Luxembourg et
Pays-Bas) en 1960 ce qui a permis à la PAC d’entrer en vigueur
dès 1962.

Cinq objectifs, difficilement conciliables, ont été mis en avant :


◊ Accroître la productivité de l’agriculture en développant le
progrès technique…
◊ Assurer un niveau de vie équitable à la population agricole ;
◊ Stabiliser les marchés ;
◊ Garantir la sécurité des approvisionnements ;
◊ Assurer des prix raisonnables dans les livraisons aux
consommateurs.

1. Lorsque dans les années 1950, les États-Unis ont mis en place une législation restreignant les impor-
tations de produits laitiers et n’ont pas donné suite aux demandes d’abrogation formulées par leurs
partenaires, à titre exceptionnel le GATT a autorisé ces mesures à partir de 1955. Cette dérogation n’est
pas étrangère à la pratique des subventions qui s’est par la suite répandue dans le secteur agricole.

9782340-024007_001-264.indd 133 13/03/2018 13:13


Grandes questions d'économie du XXIe siècle

Le fonctionnement de la politique agricole commune repose sur de


grands principes vecteurs d’intégration au sens strict du terme :
◊ la libre circulation des produits agricoles à l’intérieur de la
134 communauté européenne,
◊ l’harmonisation des règles sanitaires et des normes techniques,
◊ la mise en place d’une organisation commune de marché (OCM)
destinée à garantir l’unité de prix au sein de la zone,
◊ la préférence communautaire qui conduit à la taxation des
importations dont le prix est inférieur au prix intérieur européen,
◊ la solidarité financière des pays membres.

L’axe central de la politique agricole commune repose sur la


garantie des prix. Les marchés sont aménagés en OCM, chaque
produit ou groupe de produits fait l’objet d’un règlement de marché
destiné à orienter les productions et à stabiliser les prix (céréales,
oléagineux, porc, volailles en 1967, viande bovine, lait en 1968…).
Le financement est assuré par le fonds européen d’orientation et
de garantie agricole (FEOGA) dont les ressources sont constituées
de prélèvements obligatoires, de droits de douane…

La PAC accélère la modernisation de l’agriculture européenne. Sa


mécanisation s’est intensifiée, les exploitations ont été restructurées,
l’irrigation et le drainage se sont développés… Un bond en avant
spectaculaire des rendements a été réalisé. L’accélération des gains
de productivité a même placé l’agriculture en tête de la hiérarchie
intersectorielle des gains de productivité devant l’industrie ce qui
semblait impensable dans les années 1950.

La PAC a ainsi contribué à la reconquête du marché intérieur


européen. Dès les années 1970, l’autosuffisance est atteinte dans
de nombreuses productions et des excédents s’accumulent comme
dans le secteur laitier. Le mouvement s’amplifie par la suite : au
début des années 1980, un excédent apparaît dans le secteur clé
des céréales. Par le mécanisme des restitutions, les exportations
agricoles progressent et l’Europe conteste la domination américaine
sur les marchés mondiaux.

Les objectifs initiaux de la PAC ont été dépassés. Dès lors la nécessité
d’une réforme radicale est apparue tant cette politique a fait l’objet
de critiques à la fois internes et externes. Au plan interne les stocks
s’accumulent (500 000 tonnes de beurre, 15 millions de tonnes de
céréales en 1991…), le coût budgétaire du soutien des prix et de la
gestion des stocks est jugé excessif (la politique agricole absorbe

9782340-024007_001-264.indd 134 13/03/2018 13:13


8. L’Europe, entre intégration et désintégration

66 % du budget européen en 1989, soit 0,85 % du PIB de l’Union


Européenne). Par ailleurs l’orientation intensive et productiviste
de l’agriculture européenne commence à être dénoncée, l’utili-
sation abondante des pesticides et des engrais menace l’environ- 135
nement. Au plan international les effets de distorsion du soutien
des prix sont dénoncés dans le cadre des négociations du GATT,
les États-Unis mènent une offensive afin de réduire les parts de
marché de l’Europe dans le commerce agricole mondial.

* Les réformes de la PAC à partir


de 1992 : l’extension du découplage
et la protection de l’environnement
Les différentes réformes de la PAC ont en commun de chercher à
réduire le soutien par les prix en déconnectant progressivement
les aides des quantités produites.

La réforme de mai 1992, initiée par le commissaire européen


Mac Sharry, concerne les principes et le contenu de la politique
agricole commune. Elle substitue, pour partie, au soutien des prix
un système d’aides découplées des variations de production mais
liées aux niveaux antérieurs de production et de productivité. Par
ailleurs, la réforme étend le système des quotas de production et
promeut le gel d’une partie des terres pour les exploitations de
grandes tailles. Un volet de la réforme cherche aussi à promouvoir la
préservation de l’environnement et le potentiel de développement
des campagnes.

Ces mesures permettent de contrôler l’offre agricole et les dépenses


budgétaires mais elles ne font qu’atténuer les critiques adressées à
la PAC. En 1999, cette politique absorbe encore 42 % du budget de
l’Union Européenne. La répartition des aides est maintenant mise
en cause (30 % des exploitants captant près de 80 % des aides). Au
niveau international le principe du soutien des prix est dénoncé
par les grands pays exportateurs (Australie, Nouvelle-Zélande,
Brésil…) rejoints par les pays en voie de développement d’Afrique.

La réforme de la PAC de 2003 prolonge les précédentes en augmentant


le nombre de produits soumis à la discipline générale de la baisse
du soutien par les prix et la compensation des pertes induites de
revenus par des aides directes découplées des quantités produites
(premier pilier). Le deuxième pilier propose des aides additionnelles
conditionnées à des efforts qualitatifs supplémentaires en matière
d’environnement, de protection des ressources naturelles.

9782340-024007_001-264.indd 135 13/03/2018 13:13


Grandes questions d'économie du XXIe siècle

Un objectif de la réforme est de rendre compatible les aides


européennes à l’agriculture avec les pratiques en vigueur dans le
cadre de l’OMC. Le découplage de la politique de soutien devrait
136 permettre de classer une part des aides dans la boîte dite verte
autorisées du fait de leurs faibles effets « distorsifs ».

Le premier pilier de la nouvelle PAC transforme une majorité des


aides directes de soutien des revenus en un paiement unique par
exploitation déconnectée des choix et des niveaux de production.
Elle conditionne l’attribution du paiement unique, comme des
aides qui restent couplées aux surfaces et quantités, au respect de
normes environnementales, de bien-être des animaux, de santé
publique ou encore de maintien des terres dans de bonnes condi-
tions agronomiques et environnementales. En vertu du principe
de subsidiarité les États disposent de vraies marges de manœuvres
dans l’application de la réforme (choix de la date de mise en œuvre
entre 2005 et 2007, modalités d’application du paiement unique
sur une base historique individuelle c’est-à-dire en tenant compte
des aides reçues avec l’ancien système).

L’accord de 2013 instituant la nouvelle PAC a confirmé le décou-


plage d’aides – en diminution – et la mise en œuvre de variantes
nationales de la PAC jusqu’en 2020 afin de relever des défis environ-
nementaux et territoriaux.

# Le processus : approfondissement
versus élargissement
En 1960, un projet concurrent de coopération économique voit le jour
en Europe : l’Association Européenne de Libre Échange qui rassemble
sept pays (dont le Royaume-Uni, qui avait refusé de participer aux
négociations préparatoires au Traité de Rome). La CEE répond à cette
initiative par l’approfondissement de sa propre intégration. De 1959
à 1968 les tarifs douaniers sont abolis entre les six qui réalisent dès
juillet 1968 l’union douanière soit avec un an et demi d’avance. Un
tarif extérieur commun modéré est mis en place à cette époque. En
1967, la Commission Européenne est créée afin de faire avancer
l’harmonisation des structures des pays membres. L’intensification
des échanges commerciaux est forte au sein de la CEE et y apparaît
comme un puissant facteur de croissance économique.

9782340-024007_001-264.indd 136 13/03/2018 13:13


8. L’Europe, entre intégration et désintégration

Afin de favoriser plus encore le développement des échanges les six


pays décident en 1969 de préparer une union économique et monétaire.
Le rapport Werner propose en 1970 l’instauration d’une monnaie
commune qui coexisterait avec les monnaies nationales. Au sommet 137
de Paris, en octobre 1971, les chefs d’États et de gouvernement
décident de mettre en place une politique régionale et de réaliser
l’union européenne avant 1980.

En réalité, malgré ces grandes ambitions, les années 1970 sont


marquées par une stagnation relative de l’intégration. Jusqu’en
1986 la construction européenne passe par un élargissement. Trois
nouveaux membres rejoignent la CEE en 1972 : le Royaume-Uni,
l’Irlande et le Danemark. La dynamique d’intégration apparaît dès
lors réduite. Le serpent monétaire européen mis en place au printemps
1972 échoue à intégrer les monnaies en son sein et à garantir la
stabilité des cours de change. À partir de 1979, le SME connaît lui
aussi de très nombreux ajustements. Un contexte international
d’instabilité et de ralentissement du rythme de la croissance ne
favorise pas les concessions nationales. Le Royaume-Uni remet en
cause avec fracas la solidarité financière au sein de la CEE. En 1980
les anglais reçoivent 8 % des dépenses de la communauté, alors que
leur part dans le PNB est de 16 % et qu’ils contribuent au budget à
hauteur de 21 %. L’hétérogénéité structurelle de la zone apparaît
criante à la suite de l’intégration de la Grèce en janvier 1981 puis de
l’Espagne et du Portugal en janvier 1986. Il devient indispensable
de développer une politique régionale ambitieuse pour résorber les
écarts de développement et d’impulser une nouvelle dynamique
d’approfondissement de l’intégration.

Pour
la petite Le 30 novembre 1979, interrogée par un journaliste du Guardian
histoire à propos de ses attentes vis-à-vis de l’Europe, Margaret Thatcher
(1925-2013) Première Ministre Britannique répond « I want
my money back ». Elle constate que le Royaume-Uni contribue
plus qu’il ne reçoit de la CEE et rejette le principe de solidarité.

9782340-024007_001-264.indd 137 13/03/2018 13:13


Grandes questions d'économie du XXIe siècle

# L’intégration monétaire
pour préserver les acquis
de l’intégration réelle
138
L’acte unique européen, ratifié en 1986, est constitué d’une série
d’amendements et de compléments aux Traités portant création de
la CECA, de la CEE et d’Euratom, il prévoit la mise en place avant
le 31 décembre 1992 d’un espace sans frontière intérieure où les
marchandises, les capitaux et les personnes pourraient circuler
librement. Cette abolition est réalisée le 1er janvier 1993. Cette libéra-
lisation interne qui se double d’un mouvement d’intensification de la
mobilité internationale des capitaux paraît difficilement compatible
avec la préservation de la stabilité monétaire. Les crises de change
de 1992-1993 au sein du SME confirment ces craintes. L’ampleur
de l’attaque spéculative contre certaines monnaies impliquait un
resserrement monétaire dont les coûts internes auraient été trop
difficiles à supporter pour les autorités, d’où des sorties du système
pour la livre et la lire (septembre 1992), d’où l’élargissement des
bornes à +/–15 % début août 1993 à la suite d’une troisième attaque
contre le franc français.

En avril 1988 le Conseil européen confie à un comité, présidé par


Jacques Delors, la responsabilité « d’étudier et de proposer les étapes
concrètes devant mener à l’Union Économique et Monétaire ». Le rapport
Delors présenté en juin 1989 opte pour la solution d’une monnaie
unique européenne et définit trois étapes pour y parvenir :
◊ Une première étape instaurerait la liberté des mouvements de
capitaux et développerait la coordination des politiques économiques
dans le contexte institutionnel existant.
◊ Une deuxième étape prévoit le renforcement de la coordination des
politiques économiques et la mise en place de nouvelles institutions
préparant la monnaie unique.
◊ La troisième étape est constituée par le passage à des parités irrévo-
cablement fi xées, les États transféreraient alors leurs prérogatives
monétaires. Les réserves de change seraient mises en commun et
la monnaie unique se substituerait aux monnaies nationales.
Le projet ainsi définit suit largement la trajectoire de l’intégration
systématisée par Balassa l’intégration monétaire couronne l’inté-
gration réelle.

9782340-024007_001-264.indd 138 13/03/2018 13:13


8. L’Europe, entre intégration et désintégration

* Le Traité de Maastricht
Ce rapport Delors sert de base au Traité de Maastricht, signé en
février 1992, qui prévoit la création d’une monnaie unique (appelé
139
alors écu mais le sommet de Madrid en décembre 1995 opte
finalement pour le nom euro) et fi xe le 1er janvier 1999 comme
date butoir pour l’Union monétaire… Il définit un calendrier de
l’intégration monétaire. Le Traité retient la date du 1er janvier 1994
pour le passage à la deuxième étape. Il définit cinq critères de
convergence à respecter par les États dans les domaines monétaire
et financier.

* Critères de convergence de Maastricht


◊ Le déficit budgétaire brut ne doit pas être supérieur à 3 % du PIB ;
◊ La dette publique ne doit pas être supérieure à 60 % du PIB ;
◊ L’inflation ne doit pas être supérieure de plus de 1,5 point à la
moyenne des trois économies les moins inflationnistes ;
◊ Le taux d’intérêt à long terme ne doit pas être supérieur de plus
de 2 points à la moyenne des trois économies ayant les taux les
plus faibles ;
◊ En matière de change, le pays doit respecter les marges normales
de fluctuation prévues par le mécanisme de change du SME
pendant au moins deux ans sans dévaluation.
Le passage à la monnaie unique doit s’effectuer au plus tôt le
1er janvier 1997 si sept pays satisfont les critères de convergences.

* Le succès de l’installation de l’euro


Le 3 mai 1998 onze pays sont officiellement qualifiés parmi les
quinze d’une Union européenne qui s’est élargie depuis 1995 à la
suite de l’adhésion de la Suède, l’Autriche et la Finlande. Les pays
participant à l’euro sont l’Allemagne, la Belgique, l’Espagne, la
France, l’Italie, le Luxembourg, les Pays-Bas, le Portugal ainsi que
l’Autriche et la Finlande qui participent au mécanisme de change
alors que leurs monnaies ne font pas partie de la composition de
l’euro. Une interprétation politique du respect des critères de conver-
gence prévaut : la Belgique et l’Italie ont un ratio d’endettement
très supérieur à 60 %. Cette séquence montre que les avancées de
l’intégration reposent souvent plus sur un choix politique que sur
des strictes considérations en termes d'efficacités économiques.

9782340-024007_001-264.indd 139 13/03/2018 13:13


Grandes questions d'économie du XXIe siècle

Le 1er janvier 1999 des taux de conversion irrévocables sont


établis entre les onze monnaies (rejointe par la monnaie grecque
en janvier 2001) même si l’euro n’existe encore que sous sa forme
140 scripturale. Les billets et les pièces sont mis en circulation à partir
du 1er janvier 2002 et le 1er juillet 2002 les monnaies nationales
disparaissent totalement de la circulation. Depuis sept autres
économies ont adopté l’euro : la Slovénie en janvier 2007, Chypre
et Malte en janvier 2008, la Slovaquie en 2009, l’Estonie en 2011,
la Lettonie en 2014, la Lituanie en 2015.

L’euro est – en 2017 – l’unité monétaire de 19 pays de l’Union


Européenne. Sa mise en place reste un événement historique
majeur : jamais jusqu’alors des pays aussi puissants n’avaient
rassemblé leur souveraineté monétaire.

La Banque Centrale Européenne, instituée en juin 1998, est en


charge de la conduite de la politique monétaire. Son siège se situe à
Francfort. Dotée d’une forte autonomie, son mandat se concentre
sur un objectif de préservation de la stabilité des prix dans la zone
euro (autour de 2 % d’inflation en rythme annualisé sur le moyen
terme). De fait, elle a réussi à établir la confiance dans l’euro. Certes
l’euro n’a pas supplanté le dollar comme monnaie internationale
contrairement aux souhaits de Jacques Delors, mais l’euro est une
monnaie forte, c’est-à-dire une monnaie qui conserve son pouvoir
d’achat sur la longue période. L’objectif de stabilité des prix a, en
effet, été atteint depuis 1999 malgré les tensions inflationnistes
de la période 2007-2008 qui trouvent leur origine dans la hausse
des prix des ressources naturelles. De même, la Banque Centrale
Européenne a réussi à combattre le risque de déflation dans les
années 2010 grâce notamment à des mesures non conventionnelles
d’approvisionnement de l’économie en liquidités (LTRO…). La BCE
dispose d’une forte crédibilité aux yeux des yeux des marchés.

# La fausse question de la zone


monétaire optimale
La question de la pertinence de cette zone monétaire est en débat
depuis plusieurs décennies en mobilisant notamment la théorie des
zones monétaires optimales (ZMO). Cette approche étudie l’oppor-
tunité pour un groupe de pays de former une union monétaire. Elle
définit aussi, plus implicitement, des situations « idéales » permettant
de maximiser les bénéfices. La théorie des ZMO fait écho à la fois

9782340-024007_001-264.indd 140 13/03/2018 13:13


8. L’Europe, entre intégration et désintégration

aux débats des années 1950-60 sur les vertus de la flexibilité et de


la fi xité du change et aux problèmes posés alors par les avancées de
l’intégration réelle (réouverture commerciale des économies, projet
européen d’intégration avec le Traité de Rome en 1957…). 141

Cette théorie introduite, en 1961, par R. Mundell dans un article


intitulé « A Theory of Optimum Currency Areas », examine les circons-
tances dans lesquelles un groupe de pays a intérêt à former une union
monétaire. Le renoncement à la souveraineté monétaire présente à la
fois des coûts (perte d’autonomie de la politique monétaire et surtout
perte de la possibilité d’absorber un déséquilibre externe par le canal
du change) et des avantages (suppression des coûts de transaction
associée aux opérations de change, effet catalyseur de l’intensification
de la concurrence en matière de gains de productivité…). La problé-
matique de l’approche en termes de zones monétaires optimales a
trait, avant tout, à l’analyse des coûts et des bénéfices de l’intégration
monétaire : si les avantages l’emportent sur les inconvénients, les
pays ont intérêt à se rassembler pour former une union monétaire.

À la suite de Mundell de nombreux économistes ont contribué


à mettre au jour les critères à prendre en compte pour apprécier
l’intérêt du passage à l’union monétaire (homogénéité des structures,
ouverture commerciale « interne » forte, homogénéités de l’inflation
et des préférences de politiques économiques, existence d’un budget
commun…). Ces critères semblent pouvoir être rassemblé en trois
catégories. Les critères de convergence préalable qui minimise le
risque de choc asymétrique et accroissent les gains. Les critères
concernant l’existence de mécanismes se substituant au change pour
absorber un choc spécifique. Enfin une approche, plus récente, en
termes d’endogenéïsation des critères.

* Les critères de convergence préalable


Pour Mac Kinnon (1963), plus les économies présentent un degré
d’ouverture élevé (l’intensité de l’ouverture est mesurée par le
rapport entre biens échangeables et biens non échangeables) et
ont des échanges réciproques importants plus elles ont intérêt à
participer à un régime de changes fi xes. Dans ce cas, les variations
du change affectent fortement les termes de l’échange interne et
sont ainsi vecteur d’instabilité.

Pour Kenen (1969), plus les économies ont des structures de produc-
tions diversifiées, moins elles sont sensibles aux chocs asymétriques
et moins le coût du passage à la monnaie unique est élevé.

9782340-024007_001-264.indd 141 13/03/2018 13:13


Grandes questions d'économie du XXIe siècle

D’autres auteurs ont ensuite attirés l’attention sur l’importance


de certains éléments de convergence du point de vue du bon
fonctionnement de l’union monétaire (des préférences de politique
142 économique voisines (Kindleberger [1986]), l’homogénéité des taux
d’inflation (Fleming [1972]) les mêmes préférences pour les biens
collectifs (Cooper [1977]).

Si les structures des économies de la zone ne sont pas assez


homogènes pour les mettre à l’abri de chocs spécifiques, il se peut
que des mécanismes se substituent au change pour absorber ces
chocs, dans ce cas l’union monétaire peut toujours être réalisée.

* L’existence d’un substitut


à l’ajustement par le change
Pour Mundell, un critère décisif réside dans le degré de mobilité
des facteurs de production notamment la main-d’œuvre. Il prend
l’exemple de l’est du Canada et des États-Unis produisant des
voitures et de l’ouest des deux pays spécialisé dans le bois. Si la
demande de bois augmente brutalement, la flexibilité du change
entre dollars canadien et américain n’est d’aucune utilité pour
absorber ce choc asymétrique. Le transfert de main-d’œuvre lui
apparaît comme le moyen d’éviter le chômage et la récession à l’Est
et l’inflation à l’Ouest. Mundell en déduit que les ZMO corres-
pondent à des régions de production relativement homogène et
pas forcément à des pays.

Dans les faits aux États-Unis des chocs spécifiques à certaines


régions se traduisent plus par de rapides déplacements de population
que par un ajustement des prix et des salaires. Par contre, au sein
de l’Union Européenne la main-d’œuvre paraît relativement peu
mobile en raison de spécificités culturelles marquées.

Ingram (1969) propose de définir la zone monétaire optimale à partir


d’un critère de mobilité des capitaux. Les flux financiers peuvent
aider un pays à corriger un problème de déficit courant. En cas de
déséquilibre temporaire un financement à court terme (crédits
bancaires ou aide d’un autre pays) peut constituer un substitut
à l’ajustement par le change. Si le déséquilibre est structurel, des
mouvements de capitaux à plus long terme peuvent intervenir.

L’existence d’un budget fédéral peut aussi être un substitut à


l’ajustement par le change, l’intégration budgétaire (critère mis
en avant notamment par Johnson [1970]) permet d’engager une

9782340-024007_001-264.indd 142 13/03/2018 13:13


8. L’Europe, entre intégration et désintégration

action spécifiquement destinée à la zone touchée par le choc (trans-


ferts sociaux, dépenses d’infrastructure…). Ainsi aux États-Unis
le tremblement de terre en Californie de 1992 a été lissé en partie
grâce au fédéralisme fiscal. Au sein de l’Union Européenne, avec 143
un budget à peine supérieur à 1 % du PIB, une action correctrice
ne saurait être envisagée.

* Le passage par la dynamique,


l’endogénéisation des critères
Quels vont être les effets dynamiques de l’intégration monétaire ?
L’intégration monétaire entraîne-t-elle une intensification des
échanges et une intégration économique ?

Si l’on se réfère aux analyses de Krugman (1993) une intégration plus


poussée peut conduire les entreprises d’un secteur à se localiser dans
une seule zone (région, voire pays) pour y exploiter des synergies
(réseau de sous-traitants, proximité de centres de recherche…).
L’accentuation de l’agglomération sectorielle renforce le caractère
asymétrique des chocs macro-économiques. Par conséquent les
coûts liés au passage à la monnaie unique seraient croissants.

Au contraire pour Frankel et Rose (1998) l’union monétaire entraî-


nerait une intensification des échanges de marchandises et de
services et tendrait ainsi à renforcer la symétrie des chocs et, par
là même, à minimiser les coûts de l’union monétaire.

Si l’effet dynamisant sur l’ouverture commerciale semble relati-


vement intuitif, il convient de rappeler l’existence d’exceptions
notables (pays de la zone Franc en Afrique centrale et de l’Ouest)
où l’intégration monétaire s’accompagne d’une désintégration
réelle (faute d’infrastructure et de volonté politique).

Les travaux de Fontagné et Freudenberg (1999) font apparaître que


l’intégration des pays les plus avancés entraîne une spécialisation
intra-branche (c’est-à-dire des flux croisés de produits similaires)
qui n’est pas porteuse de choc asymétrique.

9782340-024007_001-264.indd 143 13/03/2018 13:13


Grandes questions d'économie du XXIe siècle

# Les défis de l’intégration


politique européenne
144 En mai 2004, dix nouveaux pays adhèrent à l’Union Européenne
(Chypre, Estonie, Hongrie, Malte, Lettonie, Lituanie, Pologne,
République Tchèque, Slovaquie, Slovénie), ils sont rejoints par la
Bulgarie et la Roumanie en 2007, puis la Croatie en 2013. Le PIB
de l’Union Européenne à 28 atteint, en 2015, 16 230 milliards de
dollars, soit 22 % du PIB mondial (73 172 milliards de dollars). Sur ces
bases, l’Union Européenne paraît en mesure de contester la puissance
économique des États-Unis et d’influencer davantage les relations
commerciales et financières internationales. Mais, pour l’heure,
l’absence d’intégration politique semble préjudiciable à l’affirmation
de l’euro en tant que monnaie internationale et, plus largement, à
l’affirmation d’une influence européenne dans le monde. Ce défaut a
été pointé par Henry Kissinger (ancien secrétaire d’État américain),
dès 1970, par une phrase restée célèbre « L’Europe, quel numéro de
téléphone ? ».

Le non-respect du Pacte de Stabilité et de Croissance par de nombreux


pays (dont l’Allemagne et la France) et finalement l’absence de sanction
illustrent la prégnance des préoccupations nationales et la difficulté
de voir émerger une véritable autorité politique supranationale.

L’échec du projet de Traité Constitutionnel en 2005 (le vote négatif


de la France et des Pays-Bas) stoppe la dynamique d’intégration.
L’entrée en vigueur du Traité de Lisbonne en 2009 n’a pas donné
de véritable dynamique en matière d’intégration politique. Cette
séquence reste conforme à l’histoire de la construction européenne
qui n’a pu associer véritablement approfondissement de l’intégration
et élargissement.

Une manifestation de ce défaut d’intégration réside dans l’hétérogé-


néité de la fiscalité au sein de l’Union Européenne. En 2017, les taux
de TVA sont toujours significativement différents, le « taux normal »
est par exemple respectivement de 19 % et 20 % en Allemagne et
en France et de 27 % en Hongrie. Les taux légaux de l’impôt sur les
sociétés varient dans un intervalle très large de 12,5 % en Irlande,
à 34 % en Belgique.

9782340-024007_001-264.indd 144 13/03/2018 13:13


8. L’Europe, entre intégration et désintégration

L’adhésion des treize nouveaux membres pose, de nouveau, avec


acuité la question de la résorption des écarts de développement et
de l’hétérogénéité structurelle de l’Union. Ce nouvel élargissement
amène aussi à une interrogation sur la définition des frontières 145
européennes (géographique, culturel…), sur la vitesse de l’intégration
réelle et sur l’horizon de l’intégration politique.

# La crise de la dette
À partir de la fin 2008 afin de pallier les conséquences de la crise
économique, les états ont mis en œuvre de manière coordonnée des
politiques budgétaires expansionnistes. Les déficits budgétaires de
2009 et 2010 ont provoqué, en Europe comme ailleurs, une hausse
importante des ratios d’endettement. Des doutes sont apparus chez
les créanciers quant à la capacité des états à assurer le service de leur
dette. Les problèmes se sont concentrés sur des pays de la périphérie
de l’Europe dont la Grèce. Le taux sur les emprunts d’état s’est
élevé, accentuant leurs difficultés financières. La Grèce, en proie à
des problèmes structurels de compétitivité et d’insolvabilité, a été
contrainte d’organiser une forme de défaut de paiement (restructu-
ration, décote) très problématique pour ses créanciers.

En 2010, en effet, les banques européennes ne sont pas tout à fait


remises de la faillite de Lehman Brothers en septembre 2008. Les
potentielles pertes que représente le non remboursement par la Grèce
d’une partie de sa dette font craindre de nouvelles faillites bancaires
dans la zone euro, en Grèce mais aussi en France et en Allemagne. Fin
2009, selon la Banque des Règlements Internationaux, les banques
françaises étaient celles qui détenaient le plus de dette grecque dans
leur portefeuille (57 milliards d’euros), devant les banques allemandes
(34 milliards d’euros). La crise grecque fait paniquer les marchés
financiers qui hésitent aussi à prêter à l’Espagne, l’Italie, le Portugal,
l’Irlande… les taux d’intérêt auxquels ces pays empruntent bondissent.

Un premier plan d’aide pour la Grèce a consisté à faire passer sa


dette des mains du privé à celles du public. Le FMI et les États de la
zone euro prêtent 110 milliards d’euros à la Grèce et la BCE se met
à racheter des titres de dette grecque pour éviter que leur prix ne
s’effondre (voir le chapitre 12 sur la dette publique).

9782340-024007_001-264.indd 145 13/03/2018 13:13


Grandes questions d'économie du XXIe siècle

Au final, les Européens n’ont pas été capables de résoudre, seuls, cette
crise qui a révélé les insuffisances de la solidarité financière de la
zone et plus largement ses fragilités institutionnelles. Ces carences
146 appelaient une réaction !

# L’Union bancaire
L’Union bancaire a été décidée par le Conseil européen en juin 2012,
sur proposition de la Commission européenne, en réponse à la crise
de la dette. Elle vise à éviter le danger des liens entre crise bancaire
et crise des dettes souveraines, en évitant que la faillite de grandes
banques n’oblige les États – et donc les contribuables – à les secourir
comme en 2008.

L’union bancaire repose sur trois piliers. Le premier, le mécanisme


de supervision unique (MSU), a confié la supervision directe des 130
principales banques de la zone euro à la Banque centrale européenne,
le 4 novembre 2014. Le deuxième pilier, le mécanisme de résolution
unique (MRU), est entré en vigueur le 1er janvier 2016, et prévoit
qu’une banque en difficulté doit d’abord solliciter ses actionnaires,
ses créanciers obligataires, ainsi que les déposants détenant plus de
100 000 euros dans ses livres, avant de se tourner éventuellement
vers le fond de résolution unique (FRU), abondé par le secteur
bancaire européen. L’État n’intervenant, lui, qu’en dernier ressort,
si nécessaire. Le fonds européen de garantie des dépôts constitue
le troisième pilier de l’union bancaire. Il vise à remplacer progressi-
vement les systèmes nationaux de protection des dépôts bancaires
par un système européen unique, jusqu’à 100 000 euros par compte
détenu. L’objectif est que les déposants des 6 000 banques de l’Union
européenne aient confiance dans la sécurité de leurs avoirs, et ne se
précipitent donc pas au guichet pour retirer leur argent si leur banque
rencontre des difficultés. Concrètement, à partir de 2017 et jusqu’en
2020, le fonds européen de garantie des dépôts ne sera utilisé que si le
système national de protection des dépôts n’était pas suffisant pour
indemniser les déposants d’une banque en faillite. Ensuite, de 2020
à 2024, le fonds national de garantie des dépôts et le fonds européen
seront appelés ensemble, dès le premier euro d’indemnisation. Enfin,
à partir de 2024, les systèmes nationaux n’existeront plus, et seront
remplacés par le fonds européen de garantie des dépôts. Ce dernier
sera alors en principe doté de 45 milliards d’euros, une somme qui
lui aura été progressivement apportée par les banques européennes,
sur la base d’une contribution représentant 0,8 % de leurs dépôts.

9782340-024007_001-264.indd 146 13/03/2018 13:13


8. L’Europe, entre intégration et désintégration

# Le Brexit
Le 23 juin 2016, les Britanniques ont voté à 51,9 % en faveur d’un
Brexit (Britain exit), une sortie de leur pays de l’Union européenne. 147
Cet événement marque une lourde défaite pour le Premier ministre
britannique David Cameron, organisateur du référendum qui militait
pourtant pour rester dans l’Union Européenne. Theresa May, qui lui
a succédé au 10 Downing Street, a activé le 30 mars 2017 l’article
50 du traité de Lisbonne, entamant officiellement un processus de
séparation avec les 27 autres pays de l’Union. Londres et Bruxelles
disposent en théorie de deux ans pour boucler ces négociations inédites
de sortie avant d’entamer celles de leur futur partenariat commercial.

Les Britanniques souhaiteraient rester intégrer sur les plans


commercial et financier mais rejettent le principe de la libre circu-
lation des personnes et souhaitent pouvoir contrôler les mouvements
migratoires en provenance notamment de l’Est de l’Europe.

Si le Brexit n’a pas été le séisme annoncé, il s’est traduit néanmoins


pour le Royaume-Uni par une moindre attractivité vis-à-vis des
investisseurs internationaux. Le pays ne peut plus conserver son
statut de centre financier de la zone. La livre sterling a connu une
forte dépréciation qui a permis de contrebalancer les effets récessifs
de la moindre attractivité et de la perte de confiance. La croissance qui
était de 2,9 % en 2014 et 2,4 % en 2015 connaît un simple tassement
(1,8 % en 2016 et autour de 2 % pour 2017 selon les prévisions du FMI).

Pour l’Europe, ce vote révèle les risques de désintégration et la fracture


qui s’est établie entre ses institutions et les populations. Une large
part de la population ne voit dans l’Europe qu’une technocratie
coupée des préoccupations quotidiennes, ne protégeant pas assez les
personnes face à la mondialisation. L’Europe a trop paru centrée sur
des objectifs financiers et pas sur la promotion d’un modèle social
européen ou d’un projet de civilisation fondé sur la protection de
l’environnement, la promotion d’une économie de la connaissance
et de la culture.

9782340-024007_001-264.indd 147 13/03/2018 13:13


Grandes questions d'économie du XXIe siècle

# Conclusion
L’histoire de la construction européenne montre les tensions perma-
148 nentes entre élargissement et approfondissement de l’intégration.
À mesure que les frontières se déplacent, les avancées institutionnelles
se complexifient lourdement. L’hétérogénéité croissante des structures
et des intérêts empêche l’affirmation d’une position européenne claire
et rend plus difficile les avancées vers plus d’intégration.

L’Europe souffre aujourd’hui à la fois d’un déficit d’intégration politique


et de ne pas avoir su promouvoir un modèle social. Elle cristallise le
mécontentement d’une partie des populations qui voit en elle une
technocratie, ne protégeant pas assez les personnes. Ce rejet peut se
traduire dans les urnes et entraîner une désintégration de la zone
comme le montre la séquence du Brexit en 2016.

L’Europe est à la croisée des chemins. Les pays de l’Union partagent-


ils assez de valeurs communes pour aller vers plus d’intégration
politique ? Peut-on aller vers une fédéralisation de la zone euro ?
Le projet européen a-t-il besoin d’une initiative forte du couple
franco-allemand ?

9782340-024007_001-264.indd 148 13/03/2018 13:13


9 Les déséquilibres
internationaux

Le système monétaire et financier international se caractérise,


depuis plusieurs décennies, par une forte mobilité des capitaux et
la prégnance de régimes de changes flottants. Le flottement est,
en principe, choisi par les pays dont la structure d’exportations
est diversifiée et la crédibilité internationale assez forte. Un
nombre plus restreint de pays choisi des régimes fi xes (ancrage
sur le dollar, parités fi xes glissantes…) qui garantissent mieux la
stabilité monétaire mais empêche d’utiliser la dépréciation du
change pour absorber des chocs. Au sein de ces régimes, le choix
des parités est un enjeu clé en matière de compétitivité et peut créer
des déséquilibres dans les relations économiques internationales.

En flottement, la profondeur du marché des changes et l’intensité


de la spéculation provoquent une volatilité des cours de change
et entraînent souvent les taux loin des équilibres théoriques (la
« fair value » en anglais de marché). Certains pays sont tentés de
manipuler les cours dans le cadre de ce que l’on appelle aujourd’hui
la guerre des monnaies. Ces désajustements monétaires peuvent
être associés à des déséquilibres des soldes intermédiaires de
la balance des paiements. Des pays présentent d’importants
déficits courants, d’autres d’importants excédents. Ces situations
amènent des questions. À l’instar de la Chine ou de l’Allemagne,
un pays peut-il fonder sa croissance et son développement sur
des excédents permanents de sa balance courante ? Ne met-il pas
certains partenaires en difficulté ? Faut-il imposer des normes
d’excédent à ne pas dépasser ? Le seuil de 6 %, évoqué, lors d’un
sommet international est-il pertinent ?

9782340-024007_001-264.indd 149 13/03/2018 13:13


Grandes questions d'économie du XXIe siècle

# Spéculation, volatilité
et désalignement
150
* Les taux de change d’équilibre
En régime de change flottant, à l’instant t, le cours observé est
un prix d’équilibre issu d’un rapport de forces entre off res et
demandes exprimées par les opérateurs (banques, fonds…) sur le
Forex (contraction de Foreign Exchange market). Ce prix souvent
très volatil est influencé par un flux continu d’informations
macroéconomiques (indice de prix, d’activité industrielle, immobi-
lière, chiffres d’emploi…), d’indices de confiance, de déclaration
de responsables monétaires et politiques mais aussi de rumeurs.
Ces nouvelles de nature économique servent de catalyseur aux
opérateurs, majoritairement des spéculateurs.

Pour
mémoire
Spéculer signifie, d’après la définition canonique de N. Kaldor,
acheter un actif non pas pour profiter de ses caractéristiques
mais dans le seul but de le revendre plus cher ultérieurement.

Certains gros opérateurs ont un pouvoir de marché et influencent les


cours. À court terme aussi les seuils techniques (appelés résistances
[plafonds ou planchers], range [bande de fluctuation]) participent
à la formation du prix. De ce fait, les cours peuvent s’éloigner des
valeurs d’équilibre définies par les théories ; parmi elles, nous
pouvons mentionner la parité des pouvoirs d’achats, le FEER et le
BEER. Que recouvrent ces équilibres théoriques ?

Le cours de PPA est un cours de change d’équilibre fondé sur le


pouvoir d’achat relatif de chacune des deux monnaies en marchan-
dises et en services. La PPA a été systématisée par l’économiste
suédois G. Cassel pendant la Première Guerre mondiale à un
moment où la définition de cours d’équilibre se posait du fait de
trajectoires inflationnistes nationales très différentes sous l’effet
du financement monétaire des dépenses de guerre. La force de la
PPA réside dans la clarté de ses fondements (la valeur est assise
sur la capacité de la monnaie à acheter des biens et services) et le
caractère très intuitif des mécanismes du retour vers l’équilibre
(la loi du prix unique, en l’occurrence le fait que si une monnaie est
sous-évaluée par rapport à sa PPA des opérateurs en profiteraient
pour acheter des biens dans le pays à monnaie faible, demandant sa

9782340-024007_001-264.indd 150 13/03/2018 13:13


9. Les déséquilibres internationaux

monnaie et provoquant ainsi son appréciation). Depuis les années


1990, il est admis qu’il existe une force de rappel du taux de change
réel vers une valeur stable, mais le processus de convergence vers
la PPA est lent. La parité des pouvoirs d’achats apparaît comme 151
un équilibre de très long terme.

L’approche FEER (Fundamental Equilibrium Exchange Rate ou taux


de change fondamental d’équilibre en français) a été développée
par J. Williamson en 1985. Le FEER est un taux de change effectif
assurant sur le moyen terme la réalisation simultanée d’un équilibre
interne (la croissance potentielle est atteinte) et d’un équilibre
externe (la position du solde courant est soutenable à long terme).
L’économie est donc supposée être « au plein emploi » (atteindre
son taux de chômage naturel) et le solde courant correspondre à
un flux de financement soutenable compte tenu des structures de
l’économie en question. En principe, la politique de change peut
soutenir l’activité interne et l’équilibre externe mais Williamson
propose que chaque pays utilise sa politique budgétaire pour
corriger la situation de l’emploi et le cours change pour corriger
la position extérieure. Dans cette approche la monnaie d’un pays
doit être surévalué par rapport à la PPA si ce pays a accumulé
une position extérieure nette positive afin de dégager un solde
commercial négatif qui contrebalance les intérêts nets reçus de
manière à ce que sa position extérieure nette reste la même en
terme de PIB. À l’inverse un pays doit « dévaluer » s’il présente
un déficit commercial excessif. L’horizon de cette approche est le
moyen terme, le temps que la position extérieure nette s’ajuste.

L’approche en termes de taux de change d’équilibre comporte-


mental (BEER) a été développée par Clark et Mac-Donald (1997).
Le Behavioural Equilibrium Exchange Rate (BEER) cherche à rendre
compte empiriquement de l’évolution des cours des changes. Des
variables fondamentales pouvant influencer le taux de change
réel de long terme sont retenues (prix du pétrole, productivité du
travail, taux de chômage, terme de l’échange…) puis on cherche
des relations de co-intégration entre le taux de change et ces
variables, c’est-à-dire à détecter des relations de long terme entre
les variables. Cette approche apparaît, de fait, ad-hoc c’est-à-dire
sans fondement théorique.

9782340-024007_001-264.indd 151 13/03/2018 13:13


Grandes questions d'économie du XXIe siècle

* Les écarts à l’équilibre en flottement :


le cas du cours euro/dollar
Le graphique 9.1 ci-dessous retrace l’évolution du cours euro
152 dollar entre janvier 1999, date de lancement de l’euro, et 2017. Il
montre la forte volatilité de ce cours à court et moyen termes. Il
fait apparaître aussi le désajustement du cours par rapport à l’équi-
libre théorique que représente la PPA. Les estimations de la PPA
divergent quelque peu les unes des autres. Pour l’OCDE, le cours
de PPA passe de 1,05 dollar en 1999 à 1,2 dollar en 2006 du fait
d’une inflation plus importante aux États-Unis qu’en zone euro.
Ce cours se situe en permanence entre 1,20 dollar et 1,30 dollar
de 2007 à 2016 (1,26 en 2016). Cette fourchette est confirmée
par d’autres estimations (celles de la Deutsche Bank par exemple)

Graphique 9.1 – Cours euro/dollar au certain1 entre 1999 et 2017

1.6

1.5

1.4

1.3

1.2

1.1

1.0

0.9

0.8

2000 2005 2010 2015

Comme le montre le graphique : le 1er janvier 1999 le cours


de lancement de l’euro a été fi xé à 1,17 dollar pour un euro.
Immédiatement une phase de dépréciation s’est enclenchée qui a
porté le cours à 0,83 dollar en octobre 2000 malgré l’intervention
concertée de la Banque Centrale Européenne, de la Fed et de la
Banque du Japon pour soutenir l’euro en septembre 2000. Cette
dépréciation a été interprétée par les analystes comme la manifes-
tation d’un manque de crédibilité du projet européen d’intégration
monétaire malgré le fait que la BCE réussisse à installer la confiance

1. La cotation au certain consiste à exprimer le nombre d’unité de monnaie étrangère qu’il faut pour
obtenir une unité de monnaie « domestique ». A l’incertain, le raisonnement est inversé, on détermine
le nombre d’unités monétaires domestiques à fournir pour obtenir une unité de monnaie étrangère.

9782340-024007_001-264.indd 152 13/03/2018 13:13


9. Les déséquilibres internationaux

dans l’euro. Entre fin 2000 et début 2002 une sous-évaluation


réelle de l’euro d’environ 15 % s’est maintenue, le cours oscillant
autour de 0,90 dollar.
153
À partir de début 2002, un mouvement d’appréciation de l’euro
s’est enclenché, le cours de lancement a été retrouvé en 2003, puis
dépassé. La phase d’appréciation de l’euro s’est poursuivie jusqu’à
fin 2004 début 2005, le cours a nettement dépassé les 1,30 dollars.
Comment rendre compte d’une appréciation de 50 % de l’euro alors
que les trajectoires inflationnistes étaient assez semblables, la
croissance américaine plus dynamique, les écarts de taux d’intérêt
faibles ? Une explication est souvent avancée : les autorités améri-
caines soucieuses de freiner le creusement du déficit courant auraient
envoyé des signaux au marché (via des déclarations du secrétaire
au Trésor et du patron de la Fed, à l’époque Alan Greenspan) ; elles
auraient réussi à ancrer les anticipations et à impulser une phase
de dépréciation du dollar.

Entre 2006 et le milieu de l’année 2008, le dollar s’est déprécié


spectaculairement vis-à-vis de l’euro : le cours est passé de 1,20
dollar pour un euro à près de 1,60 dollar pour un euro. Cette
évolution peut s’expliquer par le creusement du déficit courant
américain, le ralentissement de la croissance des États-Unis à la
suite du début de la crise des subprimes ainsi que le creusement
de l’écart de taux d’intérêt entre les deux zones du fait de la
réaction rapide et forte de la Fed. Cette dépréciation associée à
une surévaluation réelle d’environ 30 % entame la compétitivité
des exportations européennes vers la zone dollar mais donne un
grand pouvoir d’achat aux Européens sur le marché américain
pour, par exemple, y acheter des maisons. Pour les États-Unis, elle
constitue un facteur d’accentuation des tensions inflationnistes.

Entre 2008 et 2012, le creusement du déficit courant américain et la


souplesse de la politique monétaire de la Fed (programme de quanti-
tative easing notamment) ont constitué des facteurs permanents
de dépréciation du dollar. Mais comme le montre le graphique 9.1
en phase de fortes tensions financières (après la faillite de Lehman
Brothers ou durant la crise des dettes souveraines européennes)
le dollar s’est nettement apprécié : ces mouvements témoignent
du statut de valeur refuge associé à cette seule monnaie interna-
tionale pleine. La crise, au contraire, a révélé les fragilités de la
construction européenne, la crédibilité de l’euro en a été affectée.

9782340-024007_001-264.indd 153 13/03/2018 13:13


Grandes questions d'économie du XXIe siècle

Jusqu’au début de l’année 2017, le cours a été marqué par une


nette appréciation du dollar vers un plus haut autour de 1,05 sous
l’effet de l’anticipation d’un resserrement de la politique monétaire
154 américaine finalement intervenue en décembre 2015 et prolongée
depuis. Les stratégies d’arbitrage sur ces écarts de rendements
sont désignées sous le nom de « carry trade ». Le principe de base
consiste à s’endetter dans des devises à faible taux et à placer les
fonds sur une devise à taux d’intérêt plus fort. Si la rentabilité
anticipée des dépôts dans l’économie étrangère est supérieure à
celle des dépôts dans l’économie nationale, le cours de change de
l’économie étrangère doit s’apprécier. Les opérateurs vont demander
de la monnaie étrangère et vendre la monnaie nationale.

À l’avenir, le cours repassera très certainement par son niveau


de PPA à la faveur notamment d’une remontée des taux d’intérêt
au sein de la zone euro mais le retour vers cet équilibre sera lent.

* Un « déséquilibre permanent » : le maintien


de la sous-évaluation du yuan chinois
Les autorités chinoises sont régulièrement accusées de manipula-
tions monétaires. Qu’en est-il exactement ? Le graphique ci-dessous
retrace l’évolution du cours de change entre le yuan et le dollar
américain depuis le début des années 1980.

Graphique 9.2 – Cours de change entre le Yuan et le dollar entre 1981 et 2017

8.0000

7.0000

6.0000

5.0000

4.0000

3.0000

2.0000

1.0000

1er février Janvier Janvier Janvier Janvier Janvier Janvier Janvier


1981 1985 1990 1995 2000 2005 2010 2015

Dans le cadre d’un régime de parités fi xes glissantes, la Chine


maintient une importante sous-évaluation réelle de sa monnaie
afin de soutenir la compétitivité prix de ses exportations. Cette
stratégie lui a permis de gagner des parts de marché et de s’imposer

9782340-024007_001-264.indd 154 13/03/2018 13:13


9. Les déséquilibres internationaux

comme le premier exportateur mondial de biens dès 2005. Entre


2005 et 2013, les autorités chinoises ont réévalué graduellement le
yuan, le cours de 1 dollar pour six yuans a été tutoyé fin 2013. Ce
mouvement apparaissait en phase avec la montée en puissance de 155
l’économie chinoise et l’amélioration de ses performances macro-
économiques (excédents courants, forte croissance…). Mais depuis
2014, la Chine dévalue de nouveau sa monnaie pour préserver sa
compétitivité prix. Au cours de la période récente alors que le cours
officiel s’établit à 6,8 yuans pour un dollar, les estimations de PPA
oscillent autour de 4 yuans pour un dollar. La monnaie chinoise
est nettement sous-évaluée. La Chine contrôle les mouvements de
capitaux, la convertibilité du yuan n’est pas complète au niveau
international et le pays dispose de réserves de change de l’ordre
de 2 000 milliards de dollars afin d’assurer la contrepartie (offre
et demande de yuans des opérateurs).

# La guerre des monnaies


L’expression « guerre des monnaies » est entrée dans le langage
courant depuis l’intervention du ministre brésilien des Finances
Guido Montega, le 27 septembre 2010, qui dénonçait le niveau trop
élevé du real et le fait que son pays se trouvait alors « au milieu
d’une guerre des monnaies ». Depuis la formule a connu le succès
qui revient, a priori, à la nouveauté. Des ouvrages académiques et
de nombreux articles de presse ont été consacrés à la « guerre des
monnaies »1 définit comme un affrontement de pays qui cherchent
à manipuler le niveau de leur cours de change afin d’améliorer leur
compétitivité-prix.

Le succès de cette formule révèle les enjeux associés à la question des


cours de change dans un contexte de ralentissement de la croissance
mondiale. Cette expression cristallise des pratiques nouvelles et des
inquiétudes nées de la crise financière des subprimes. Les choix de
certains régimes de change sont dénoncés à l’instar bien entendu du
crawling peg (fi xité glissante) par la Chine. En régime de flottement,
certains pays cherchent à accroître leur compétitivité en intervenant
sur le change par divers canaux (déclarations…).

1. Parmi eux citons, Nonjon A. (dir), La guerre des monnaies, Paris, Ellipses, 2011 ; Hongbing S., La Guerre
des monnaies. La Chine et le nouvel ordre mondial, 2013 ; Mistral J., Guerre et paix entre les monnaies, Paris,
Fayard, 2012, ou encore un rapport du CAE « L’euro dans la “guerre des monnaies” », note n°11, 2014.

9782340-024007_001-264.indd 155 13/03/2018 13:13


Grandes questions d'économie du XXIe siècle

En réalité, le maniement de la politique de change et plus largement


l’utilisation de la politique économique pour influer sur les cours de
change n’est pas nouvelle. Les événements actuels s’inscrivent dans la
156 continuité de pratiques très répandues au XXe siècle et ne constituent
pas la rupture que certains voudraient y voir. Cette arme continuera
– sans conteste – d’être utilisée dans le futur.

* La résurgence de la compétition
monétaire après l’effondrement
de « l’ordre de Bretton Woods »
Au sein du système de Bretton Woods les dévaluations étaient
possibles mais effectuées en bon ordre. En cas de déséquilibres
« profonds et prolongés » des fondamentaux macro-économiques
un ajustement par le change est envisageable. Si la dévaluation
reste inférieure à 10 % le pays doit simplement en informer le
Fonds Monétaire International. Si elle est supérieure à 10 %, il
doit obtenir l’accord du Fonds. La période est scandée par des
dévaluations souvent réussies à l’instar de celle du franc français
en août 1969 qui se justifiait par la nécessité d’absorber le choc
des événements de 1968.

Avec l’effondrement du système de Bretton Woods, les désajus-


tements monétaires deviennent plus nombreux. Au cours des
années 1980 et 1990 la question de la sous-évaluation délibérée de
monnaies asiatiques est en débat. Les pays en cause sont nombreux
(Chine, Indonésie, Philippines, Taiwan, Malaisie, Corée du sud…).
Dans la presse Maurice Allais et beaucoup d’autres économistes les
accusent de déployer des stratégies mercantilistes en opérant un
dopage monétaire. À l’époque les travaux de Benaroya et Janci (« La
sous-évaluation des monnaies asiatiques », Économie Internationale,
n°66, 1996) quantifient pour l’année 1993 les rapports entre taux
de change de PPA et taux de change courant ; pour la Thaïlande, les
Philippines, l’Indonésie et la Chine, ils dépassent largement les 3
et ne sont pas uniquement imputables à des écarts de productivité
(effet Balassa-Samuelson). Mais les auteurs peinent à établir le
caractère délibéré de ces sous-évaluations à partir de l’existence
d’intervention sur le marché, de leur caractère stérilisé ou en raison
de contrôles de la mobilité des capitaux. Taiwan, Singapour et la
Corée du Sud peuvent néanmoins être mis en cause.

9782340-024007_001-264.indd 156 13/03/2018 13:13


9. Les déséquilibres internationaux

Ultérieurement il est apparu que la Chine maintenait une incom-


plétude de la convertibilité internationale du yuan et une sous-
évaluation réelle de sa monnaie afin de se hisser au rang de premier
exportateur mondial. 157

Ces épisodes montrent que les politiques de change agressives et


les manipulations de cours ne sont pas une nouveauté et caracté-
risent les dernières décennies.

* Singularités du contexte post-crise


de 2007-2008 et ampleur de l’actuelle
guerre des monnaies
Les enjeux en termes de compétitivité prix se concentrent, il est
vrai, aujourd’hui beaucoup plus qu’hier sur le change. Les coûts de
transports poursuivent leur diminution séculaire et ne représentent
aujourd’hui pour les articles manufacturés qu’environ 3 % de la
valeur des importations mondiales (CAF). Les notions de fragmen-
tation internationale de la production, de division internationale
des processus de production, l’optimisation des chaînes de valeurs à
l’échelle globale rappellent que le transport est de moins en moins
un obstacle à la compétitivité. Les difficultés pour mobiliser la
politique commerciale sont grandes du fait d’engagements inter-
nationaux contractés dans le cadre du GATT, puis de l’OMC (clause
de la nation la plus favorisée, principe de consolidation, difficultés
pour déployer de nouveaux instruments…) ou au sein de projets
d’intégration régionale (zones de libre-échange, union douanière…).
Depuis le milieu des années 1970, en régime de change flexible, les
variations du change ne sont pas encadrées par des organisations
internationales et la tentation de les manipuler est grande.

Même si elles sont moins efficaces que par le passé les interventions
directes sur le marché peuvent avoir un impact. Les responsables
multiplient les déclarations afin d’influencer les cours à l’instar de
Barack Obama (qui en marge du G7 en juin 2015 déplorait la force
du dollar) et d’Angela Merkel (qui quelques jours après répondait
en déplorant l’appréciation de l’euro).

Aujourd’hui les actions de politique monétaire non conventionnelle


(assouplissement du crédit (élargissement de liste des collatéraux,
allongement de la durée de prêt…), l’accroissement de la taille des
bilans des Banques centrales, la forward guidance (annonce du

9782340-024007_001-264.indd 157 13/03/2018 13:13


Grandes questions d'économie du XXIe siècle

maintien de politique expansionniste sur un horizon lointain)


sont présentés comme une modalité de la participation à la guerre
des monnaies. Ainsi toutes les grandes zones seraient impliquées.
158
Mais force est de constater d’emblée que ni les États-Unis, ni la
zone euro n’ont de stratégie offensive de manipulation de change.
Certes la Fed a déployé dès le début de la crise des mesures non
conventionnelles et l’actif total de son bilan dépassait en 2013
les 350 % du PIB mais les États-Unis, structurellement en déficit
courant, ont subi depuis 2014 une appréciation du dollar vis-à-vis
de l’ensemble des devises, le dollar fait vraisemblablement l’objet
d’une surévaluation réelle.

La zone euro, elle, n’a tout simplement pas de politique de change.


Au sein de la zone, depuis le traité de Maastricht, la responsabilité
de la politique de change fait l’objet d’un partage relativement flou
entre le Conseil des ministres des Finances et la BCE. La définition
des orientations générales de la politique de change et des accords
monétaires avec des pays tiers est de la responsabilité du Conseil
Ecofin. Mais l’article 109 du Traité précise que les accords de
change s’effectuent « après consultation de la BCE en vue de parvenir
à un consensus compatible avec l’objectif de stabilité des prix et après
consultation du Parlement européen ». La BCE gère les réserves de
change et conduit les opérations de marché. Ce partage des rôles
est potentiellement conflictuel et réduit la réactivité des autorités.
Depuis la création de l’euro, en 1999, il n’y a pas de politique de
change au sein de la zone. Le change est considéré comme un
canal de transmission de la politique monétaire et pas comme un
objectif intermédiaire de la Banque centrale en vue de soutenir
l’activité économique. Les interventions sur le marché ont été très
rares depuis le lancement de l’euro (septembre et novembre 2000,
septembre 2001). Le programme de quantitative easing de 2015
a pour objectif, non pas de provoquer une dépréciation de l’euro,
mais de combattre les pressions déflationnistes qui s’expriment
dans la zone.

À une échelle globale les travaux de Gagnon, Bergsten et Cline


pour Peterson Institute for International Economics (Policy Breif,
décembre 2012) reprennent les critères standards pour juger de la
réalité des manipulations de change : récurrences du solde courant
supérieurs à 3 % du PIB, taille des interventions sur le marché
des changes en liaison avec la variation du stock de réserves de
change, écart par rapport aux équilibres théoriques. Sur ces bases

9782340-024007_001-264.indd 158 13/03/2018 13:13


9. Les déséquilibres internationaux

ils identifient une vingtaine de pays qui manipulent ouvertement


le change aujourd’hui. Parmi eux toujours des pays asiatiques qui
étaient déjà mis en cause dans les années 1980-90 (Chine, Corée
du Sud, Hong Kong, Malaisie, Taiwan parfois le Japon) pour qui 159
historiquement la sous-évaluation réelle de la monnaie fait, bel et
bien, partie d’un modèle de développement fondé sur la promotion
des exportations. Parmi eux aussi le Danemark, la Suède, Israel
ou encore la Suisse qui freinait l’appréciation du franc face à l’euro
jusqu’à sa décision de cesser ses interventions en janvier 2015 et
de subir alors une forte appréciation de sa monnaie.

L’actuelle guerre des monnaies s’inscrit dans une continuité


historique née de l’instauration de régime de monnaie fiduciaire.
Historiquement, seul le retour à une définition métallique des
monnaies semble de nature à prévenir les manipulations de cours
de change. Le caractère très peu probable de ce scénario suggère
donc que la guerre des monnaies continuera d’être une réalité
durant les prochaines décennies.

# Les déséquilibres
des soldes courants
Chaque gouvernement doit prendre en compte la situation de sa
balance des paiements pour éviter d’avoir à affronter une situation
de crise (prendre des mesures drastiques d’urgence pour réduire les
importations et promouvoir les exportations). L’équilibre externe,
qui constitue l’un des grands objectifs de la politique économique,
peut se définir de manière faussement simple comme l’équilibre de
la balance des paiements.

La balance des paiements est un document comptable qui retrace


l’ensemble des flux entre une économie nationale et le reste du monde.
Par construction la balance des paiements est toujours présentée en
équilibre, puisque des flux financiers (le bas de la balance) assurent
la contrepartie de flux « réels » (le haut de la balance) et qu’un poste
« erreurs et omissions » permet d’assurer le cas échéant l’ajustement
comptable.

La contrainte extérieure se cristallise autour de la nécessité de réaliser


cet équilibre externe dans un contexte caractérisé par l’intensité de
l’ouverture commerciale de l’économie nationale, la nature de ses
spécialisations, le régime de change, le degré de mobilité internationale

9782340-024007_001-264.indd 159 13/03/2018 13:13


Grandes questions d'économie du XXIe siècle

des capitaux, le positionnement des firmes multinationales (FMN),


etc. Dit autrement la notion d’équilibre externe a trait à la capacité
d’une économie nationale à assurer la continuité des paiements au plan
160 international et à se procurer le cas échéant les moyens de financer
un déficit courant (si les importations de marchandises, de services…
sont supérieures aux exportations). À court terme l’équilibre externe
ne réside pas dans l’équilibre de la balance courante, une économie
peut accumuler des déficits courants sur plusieurs périodes à charge,
pour elle, de les financer. Deux solutions sont ici possibles :
◊ piocher dans l’épargne intérieure en mobilisant des crédits bancaires
pour payer les fournisseurs étrangers ou bien recourir à un endet-
tement externe. Mobiliser l’épargne interne réduit au final la
puissance financière du pays.
◊ Accroître la dette externe déplace la contrainte d’équilibre externe
vers un problème de soutenabilité de l’endettement externe et pose
une question de préservation de la souveraineté.
En cas de déficits courants prolongés, le pays peut ne pas être en
mesure de payer ses fournisseurs étrangers, d’assurer la continuité
internationale des paiements. Dans ce cas sous l’égide du FMI, un
programme d’ajustement serait mis en place destiné à retrouver des
excédents quelles qu’en soient les conséquences sociales (baisse des
salaires, réduction des dépenses publiques…).

Pour éviter de faire face à cet échec social, le pays doit être attentif
à l’évolution de sa compétitivité commerciale. Mais à l’inverse les
excédents démesurés – comme ceux de l’Allemagne (8,3 % de son
PIB en 2016) – sont aussi condamnables car ils mettent en difficultés
certains partenaires à travers le monde.

L’enjeu est donc de ne pas accumuler trop d’excédents courants,


ni trop de déficits ce qui pourrait obliger les autorités à mettre en
œuvre des politiques de rigueur (budgétaire, monétaire et salariale)
destinée à retrouver de la compétitivité et des excédents courants
à l’avenir mais aussi, à l’inverse, de ne pas accumuler des excédents
courants d’une ampleur telle que les partenaires commerciaux soient,

9782340-024007_001-264.indd 160 13/03/2018 13:13


9. Les déséquilibres internationaux

eux-mêmes, mis en difficultés. Une autre définition de l’équilibre


externe pourrait être, sur ces bases, l’équilibre de la balance courante
sur le moyen/long terme.
161
Le graphique 9.3 ci-dessous retrace la trajectoire des soldes courants
des grandes puissances mondiales.

Le maintien de positions déficitaires ou excédentaires au cours de


la dernière décennie est frappant. L’Allemagne, la Chine et le Japon
apparaissent structurellement excédentaires. Les États-Unis, le Brésil,
l’Inde et la France structurellement déficitaires.

Graphique 9.3 – Soldes courants en % du PIB


pour sept grandes puissances entre 2008 et 2016

Source : Banque mondiale.

Cette situation traduit des déséquilibres. En théorie lorsqu’un pays


est en excédent, des mécanismes doivent s’activer pour le résorber.
L’appréciation du cours de change réduit la compétitivité prix, les
exportations sont freinées, les importations dynamisées et l’excédent
doit disparaître.

La Chine, nous l’avons vu, maintient une forte sous-évaluation réelle


du yuan et bloque l’appréciation de son cours de change afin de
préserver une compétitivité prix érodées par la hausse des salaires.

L’excédent allemand atteint des niveaux très élevés : l’Allemagne


dispose certes d’une forte compétitivité hors-prix (fondée sur qualité
perçue des produits, un bon service après-vente, une excellente image
de marque…) mais son appartenance à la zone euro lui permet de

9782340-024007_001-264.indd 161 13/03/2018 13:13


Grandes questions d'économie du XXIe siècle

bénéficier d’un cours de change plus favorable que ce cours ne reflétait


que les seules performances de l’Allemagne : la valeur de l’euro est
« tirée vers le bas » par les pays du Sud (Grèce, Portugal). Il y a là un
162 déséquilibre qui pose la question d’une forme d’ajustement : l’Alle-
magne qui pourrait accroître ses dépenses publiques, sa consom-
mation intérieure pour accroître ses importations, l’Allemagne qui
pourrait opérer des transferts budgétaires vers les pays d’Europe du
Sud (notamment la Grèce).

L’imposition de normes en matière d’excédents à ne pas dépasser a


été étudiée au sein du G20 mais une telle approche a peu de sens.
Le chiff re de 6 % du PIB, évoqué, n’a aucun fondement théorique.
De plus des situations particulières peuvent expliquer à court et
moyen termes un creusement des déséquilibres courants : les guerres
accroissent la dispersion de la valeur absolue des soldes courants, les
belligérants sont en importants déficits, les pays neutres, fournisseurs
ont d’importants excédents.

# Conclusion
Les questions des déséquilibres des soldes courants et des sur ou
sous-évaluations des cours de change sont, bien entendu, très liées.
Des cours proches de « fair value » sont associés – en principe – à
de faibles déséquilibres des comptes courants comme à l’époque de
Bretton Woods. Dans une situation de flottement, la formation de
cours d’équilibre passe par l’absence d’intervention de toutes natures
par les autorités monétaires et l’existence d’une spéculation stabili-
sante. Ces deux conditions ne seront pas réunies dans les prochaines
années. Aussi les déséquilibres que nous connaissons actuellement
sont-ils appelés à se perpétuer.

9782340-024007_001-264.indd 162 13/03/2018 13:13


10 La récurrence des
crises financières

Le XXIe siècle sera marqué par la survenance de crises financières.


Les crises scandent l’actualité d’un système économique capitaliste
qui, depuis les années 1980, enchante la finance. Elle est supposée
être créatrice de valeur et capable de générer des profits à court
terme. Au sein d’un système déréglementé, largement dérégulé,
fortement concurrentiel et caractérisé par des asymétries d’infor-
mations entre des opérateurs concentrés à l’extrême sur le très
court terme, la survenance de crises financières semble fatale. Le
mouvement est appuyé par des technologies très sophistiquées
comme le trading algorithmique.

Aujourd’hui, pour les régulateurs, l’enjeu est davantage de tenter


de réduire l’ampleur des crises et leurs conséquences sur l’activité
économique que de chercher à les prévenir totalement.

Nous proposons ici de mettre au jour les principaux mécanismes


des crises financières, d’en éclairer la nature afin d’en faire ressortir
le caractère récurrent dans le contexte contemporain. Il s’agira de
montrer que le système économique actuel crée les conditions de
prochaines crises, comme par exemple dans le secteur de l’éco-
nomie numérique.

Notre démarche se déroule en trois temps. Une analyse de la nature


des crises financières est d’abord proposée via notamment une
perspective historique. Le modèle canonique de Minsky qui vise à
expliquer les crises est ensuite présenté. Enfin, la grave crise des
subprimes est décortiquée à titre d’illustration notamment pour
montrer les mécanismes par lesquels une crise peut provoquer un
effondrement de la croissance économique.

9782340-024007_001-264.indd 163 13/03/2018 13:13


Grandes questions d'économie du XXIe siècle

# Mise en perspective historique


des crises financières
164 Pour R. Goldsmith, une crise financière est une « détérioration
brutale, brève et extrêmement cyclique d’un ensemble d’indicateurs
financiers : taux d’intérêt à court terme, prix des actifs (action,
immobilier, foncier), cessation de paiement des entreprises et faillite
des institutions financières »1.

La crise financière prend corps autour des difficultés rencontrées par


des acteurs de poids du système financier pour assurer la continuité des
paiements, celles-ci sont révélées par le mouvement rapide de certaines
variables (hausse de taux d’intérêt à court terme, effondrement de
prix d’actifs…). La relation de crédit apparaît quasi systématiquement
au cœur de la crise financière et de ses explications. Des débiteurs en
difficultés menacent la stabilité du système économique.

Pour l’opinion publique, la crise financière est associée aux turbu-


lences boursières. En réalité, la notion de crise financière est plus
large que celle de crise boursière : le marché des capitaux n’est qu’une
des composantes du système financier. Si la crise boursière peut être
à l’origine de la crise financière2, elle ne provoque pas forcément son
déclenchement.

La « capacité de détonation » des turbulences boursières dépend


fondamentalement des structures du système financier (degré de
cloisonnement des marchés, place du financement direct…). Les
ingrédients des crises financières et des crises boursières tendent
largement à se ressembler : rôle central du crédit, mauvaise appré-
ciation des risques, existence de comportements grégaires sur les
marchés (très bien décrits par Keynes dans le chapitre 12 de la Théorie
Générale à travers l’analogie du concours de beauté).

Au sein d’un système capitalisme caractérisé par une libre formation


des prix sur les marchés, un appétit pour les profits rapides, un
enchantement de la finance et des asymétries d’informations entre

1. Goldsmith R., « Comment on Hyman P Minsky’s “The Financial Instability hypothesis : Capitalist
processes and the Behavior of the Economy” » in Kindleberger Ch. et Laffargue J.-P. (eds), Financial
Crises. Theory, History and Policy, Cambridge, Cambridge University Press, 1982. p. 42.
2. Mishkin F., Bordes Ch., Hautcoeur P.-C. et Lacoue-Labarthe D., Monnaie, banque et marchés financiers,
Paris, Pearson Éducation, 7e édition, 2004.

9782340-024007_001-264.indd 164 13/03/2018 13:13


10. La récurrence des crises financières

agents, les crises financières semblent inévitables. Dans un ouvrage


récent intitulé Pourquoi les crises financières reviennent toujours1, Paul
Krugman rend compte de cette fatalité.
165
L’histoire de la première mondialisation – aux structures économiques
déréglementées – est scandée d’épisodes de crises financières qu’il
est utile de resituer :
◊ panique bancaire aux États-Unis à la suite d’une perte de confiance
dans la monnaie-papier en 1819,
◊ panique bancaire anglaise de 1825, suite au développement d’acti-
vités spéculatives en Amérique Latine,
◊ panique bancaire américaine de 1837,
◊ éclatement de la bulle spéculative sur les chemins de fer en Angleterre
et en France en 1847,
◊ crise financière américaine de 1857 liée à un mouvement spéculatif
sur les chemins de fer et l’acier, crise à l’impact mondial,
◊ « Black Friday » de 1866 à Londres initié par la faillite d’Overend,
Gurney and Company et liée à une déréglementation financière,
◊ crise de 1873 après l’euphorie mobilière et immobilière en Autriche
et en Allemagne, qui marque le début d’une longue stagnation en
Europe,
◊ krach de l’Union Générale en France en 1882 (source d’inspi-
ration du roman de Zola L’Argent qui propose une description
très précise du fonctionnement des marchés financiers à la fin du
dix-neuvième siècle),
◊ crise Baring de 1890, en lien avec un défaut de paiement argentin,
◊ crise bancaire australienne de 1893,
◊ Roosevelt panic’s, panique bancaire américaine de 1907.

De même, depuis la libéralisation des années 1980 les crises finan-


cières sont redevenues plus fréquentes, portées par la mobilité inter-
nationale des capitaux :
◊ crise mexicaine de 1982,
◊ krach d’octobre 1987, associé à un processus de « financiarisation »
de l’économie, ses origines sont à rechercher du côté du dévelop-
pement d’innovations financières et techniques qui favorisent sa
propagation internationale.
◊ crises de change au sein du système monétaire européen en
1992-1993,

1. Krugman P., Pourquoi les crises financières reviennent toujours. Paris, Seuil, 2012.

9782340-024007_001-264.indd 165 13/03/2018 13:13


Grandes questions d'économie du XXIe siècle

◊ crise asiatique de 1997, perte de confiance dans le système financier


de la Thaïlande doublé d’une crise monétaire
◊ crise russe de 1998, réplique de la crise asiatique de 1997.
166
◊ éclatement de la bulle internet en 2000, l’émergence de nouvelles
technologies de l’information et de la communication fait naître
l’espoir d’importants gains de productivité et d’une redéfinition
des frontières entre secteurs de l’économie.
◊ crise des subprimes en 2007 prolongée par la crise des dettes
souveraines en Europe entre 2010 et 2012.
Il convient de souligner que les crises financières étaient relativement
beaucoup moins nombreuses dans le contexte plus contrôlé, plus
réglementé et plus centré sur le financement de la reconstruction
industrielle des années 1950-19601.

# Le modèle de Minsky
Au regard des faits stylisés des crises financières le modèle développé
par Hyman Minsky en 1986, dans l’ouvrage Stabilizing an Unstable
Economy2, constitue une grille de lecture particulièrement adaptée
pour rendre compte des crises. Ce « modèle de Minsky » a été défendu
et illustré historiquement par Charles Kindleberger dans son ouvrage
Manias, Panics and Crashes3.

Selon Minsky les événements débouchant sur une crise commencent


par un « choc » assez important pour entraîner un « déplacement »
du système économique, c’est-à-dire une modification des centres
de profits. Ce choc peut être constitué par le début ou la fin d’un
confl it militaire, une ou plusieurs récoltes hors normes bonnes
ou mauvaises, la découverte d’un nouveau marché, une invention
majeure, l’exploitation de nouveaux terrains, la déréglementation
financière. Cette transformation crée de nouvelles sources de profit et
en tarit d’autres. Si les opportunités nouvelles sont plus importantes
que les anciennes, un boum de l’activité globale peut s’enclencher.
Des agents initiés c’est-à-dire dotés d’une bonne connaissance des
1. Blancheton B., Bonin H., Le Bris D., « The French paradox : A fi nancial Crisis during the Golden Age of
the 1960’s », Business History, Taylor & Francis, vol 56, (3), pp. 391-413, 2014,
2. Minsky H., Stabilizing an Unstable Economy, New Haven, Yale University Press, 1986.
3. Kindleberger Ch., Manias, Panics and Crashes : A History of Financial Crises, Nex York, Basic Books, 1989.
Kindleberger Ch., Histoire mondiale de la spéculation financière, de 1700 à nos jours, Paris, Éditions P.A.U,
1997. Kindleberger Ch., Histoire mondiale de la spéculation financière, Hendaye, Valor Editions, 2004.
Cf. aussi : Goldgar A., Tulipmania. Money, Honor, and Knowledge on the Dutch Golden Age, Chicago, The
University of Chicago Press, 2007.

9782340-024007_001-264.indd 166 13/03/2018 13:13


10. La récurrence des crises financières

mécanismes économiques cherchent à déplacer leurs investissements


vers le nouveau secteur. La demande de marchandises ou d’actifs
financiers du secteur nouveau progresse, elle dépasse les capacités
productives ou l’off re d’actifs financiers. La progression des prix 167
révèle à un plus grand nombre d’agents les opportunités du nouveau
centre de profits. Cette hausse attire de nouvelles entreprises et de
nouveaux investisseurs.

Le boum est alimenté par l’expansion du crédit qui joue un rôle


central dans le « modèle de Minsky » – une filiation avec les analyses
de Irwin Fisher peut être mise en exergue à ce niveau. La progression
du crédit entraîne une hausse de l’offre de monnaie. Chez H. Minsky,
ce crédit est, par nature, porteur d’instabilité : le secteur monétaire et
financier cherchant à maximiser ses profits n’est pas spontanément
en équilibre avec le marché des biens et services.

À mesure que le secteur nouveau (épicentre de la prochaine crise)


se développe, la prise de risque des investisseurs s’accroît. Minsky
distingue trois comportements dans les processus de financement
des agents qui investissent dans le nouveau secteur :
◊ Un financement dit couvert (Hedge Finance) dans lequel le rendement
attendu du projet d’investissement couvre le paiement des intérêts
et du principal sur un horizon limité de temps.
◊ Le financement dit spéculatif (Speculative Finance) où le rendement
attendu couvre seulement le paiement des intérêts, la dette doit en
permanence être reconduite.
◊ Le financement de type Ponzi (du nom de l’escroc qui fournit,
dans les années 1920 aux États-Unis, un exemple d’escroquerie
à la cavalerie) : le rendement attendu ne permet plus de payer les
intérêts de manière régulière et pousse soit à la vente des actifs
soit à un endettement supplémentaire.
Dans cette phase ascendante du cycle, l’investissement provoque des
hausses de revenus qui, elles-mêmes, stimulent en retour l’investis-
sement et poussent à une plus forte prise de risque. L’économie entre,
selon H. Minsky, dans une période « d’euphorie ». Le système financier
passe d’un état de stabilité dominé par le financement couvert à un
état d’instabilité ou le financement spéculatif monte peu à peu en
puissance. L’économie se trouve alors, selon Charles Kindleberger,
dans une situation d’excès d’échanges. La spéculation conduit à
surestimer les rendements attendus de ces investissements, les PER
s’envolent (Price Earning Ratio).

9782340-024007_001-264.indd 167 13/03/2018 13:13


Grandes questions d'économie du XXIe siècle

Pour
mémoire
Le price earning ratio (multiple cours/bénéfice) d’une action
cotée en Bourse représente le rapport entre le cours boursier et le
bénéfice par action. Si ce ratio est égal à 15, on dit sur le marché
168 que l’action se paye 15 fois le bénéfice annuel. Plus le ratio est
grand, plus l’action est « chère » mais cela signifie en réalité que
le marché est optimiste quant aux perspectives de profit de la
société. En août 2017, le PER du S&P 500 américain atteint 30,
soit un niveau équivalent à l’avant crise de 1929.

Le cercle des spéculateurs s’élargit à des non-initiés qui entendent


profiter du mouvement haussier sans en considérer les mécanismes.
Le mouvement n’est pas collectivement rationnel même si la ratio-
nalité pousse l’individu à suivre le mouvement haussier. Tant que des
agents en voient d’autres réalisés des profits par des achats spéculatifs
et des ventes, ils sont tentés d’entrer dans le jeu. C. Kindleberger
tente d’en résumer les ressorts psychologiques : « Il n’y a rien de plus
dérangeant pour son confort et son jugement que de voir un ami
devenir riche. »1. Dans cette période, les fraudes et les escroqueries
se multiplient, attisées par un appât démesuré pour le gain. Le boum
spéculatif se poursuit accompagné d’une hausse des taux d’intérêt,
d’une progression de la vitesse de circulation de la monnaie et d’une
envolée des prix.

Graphique 10.1 Approche stylisée du modèle de Minsky

Paradoxe de la tranquilité

Financement de type Ponzi


Crédit

Financement spéculaf
Croissance

Financement couvert

Temps

Certains investisseurs avisés réaliseraient alors leur gain. Au plus


haut du marché le mouvement spéculatif semble hésiter : les prix se
stabilisent car les nouveaux spéculateurs ne vont que remplacer ceux
qui quittent le marché ; cette phase est désignée par H. Minsky par

1. Kindleberger Ch. , 2004, p. 18.

9782340-024007_001-264.indd 168 13/03/2018 13:13


10. La récurrence des crises financières

l’expression « le paradoxe de la tranquillité » (Minsky moment). Une


période de détresse financière peut dès lors s’enclencher. Les spécu-
lateurs s’aperçoivent que le marché ne peut aller plus haut et qu’il est
temps de se retirer. Les opérateurs cherchent à vendre leurs actifs. La 169
course à la liquidité peut tourner à une véritable débâcle. Le signal
de retournement peut être la faillite d’une entreprise asphyxiée par
l’endettement, la révélation d’un scandale, une baisse du prix de l’actif
objet de la vague de spéculation (diminution des prix de l’immobilier
aux États-Unis en 2007). Dès lors, un mouvement de baisse durable
des prix s’enclenche. Les faillites se multiplient. Les banques cessent
de prêter lorsque ces actifs sont proposés en garantie. La défiance
dans ces actifs est installée. C. Kindleberger qualifie cette phase de
« révulsion ». Le mouvement baissier se poursuit jusqu’à ce que l’un
des trois phénomènes suivants se produise : les prix tombent à un
niveau si bas que les agents reviennent à l’achat sur le marché ; les
marchés sont fermés ; un prêteur en dernier ressort intervient pour
satisfaire la demande de liquidités. La confiance peut alors être rétablie.

Même si le modèle de H. Minsky concerne un seul pays, le mouvement


spéculatif peut se transmettre à d’autres pays par le canal de la hausse
des prix des actifs sur les marchés internationaux, par le canal des
échanges commerciaux et par le canal des mouvements internationaux
de capitaux. Plus les économies sont ouvertes sur le plan commercial
et sur le plan financier plus la transmission internationale est facilitée.

Ce modèle constitue une grille de lecture opératoire pour rendre


compte de certaines crises, celles de l’entre-deux-guerres et celles
plus récentes qui touchent les marchés financiers depuis 1987.

# La crise financière des subprimes


La crise financière dite des subprimes éclate courant août 2007.
L’environnement ne semblait alors pas particulièrement incertain,
il était caractérisé par un relatif optimisme fondé sur une croyance
dans la capacité des pays émergents à tirer la croissance mondiale (un
rapprochement avec le « paradoxe de la tranquillité » de Minsky peut
être opéré ici immédiatement). Début août 2007 l’élément déclenchant
de la crise paraît être l’impossibilité de valoriser certains produits
financiers complexes intégrant des actifs immobiliers « subprimes ».
Les crédits subprimes sont des crédits hypothécaires accordés à des
emprunteurs à risques de défaut élevés, par opposition aux crédits
primes qui eux sont accordés à des emprunteurs offrant de bonnes

9782340-024007_001-264.indd 169 13/03/2018 13:13


Grandes questions d'économie du XXIe siècle

garanties. La taille de ce « marché des subprimes » était estimée


pour 2007 à environ 1 000 milliards de dollars. En 2000, 9 % des
emprunts immobiliers américains étaient des subprimes, en 2006
170 ils représentaient 20 % du total.

Depuis le début des années 2000 le développement de ce « marché


subprimes » est associé à la hausse des prix des actifs immobiliers.
La hausse des prix des logements garantissait l’endettement de
l’emprunteur mais le mouvement de hausse résultait pour partie de
crédits plus nombreux qui alimentaient la demande immobilière.
L’excès de crédit peut d’emblée être identifié comme l’une des causes
majeures de cette crise.

Le développement de ce système a été favorisé par un ensemble


large d’acteurs. Des lois en vigueur depuis les années 1970 dont
le Community reinvestment Act (1977) ont incité les institutions
financières à prêter dans des quartiers défavorisés et à se tourner
vers des publics toujours plus fragiles. En principe pour une banque
la hausse des crédits s’accompagne d’une hausse des besoins en fonds
propres, ce qui tend mécaniquement à en freiner la distribution.
Or ces créances ont été titrisées, transformées en titres financiers.
L’ingénierie financière a développé des produits dits complexes qui
intégraient des parts plus ou moins grandes de créances subprimes.
Ces titres, très attractifs, offraient un rendement relativement élevé
pour un risque considéré alors comme faible. Des opérateurs du
monde entier en étaient friands, banques, compagnies d’assurances,
fonds de pensions, etc.

La hausse des taux d’intérêt qui intervient au cours du premier


semestre 2007 met des ménages américains dans l’incapacité de
rembourser les prêts immobiliers. Aux États-Unis le taux des OAT
10 ans utilisé comme référence sur les crédits immobiliers qui n’avait
pratiquement pas cessé de baisser depuis 1991 (plus de 9 % en 1991)
est reparti à la hausse en 2007 passant de 3,96 % le 2 janvier 2007
à 4,74 % le 9 juillet 2007. Le taux de défauts des ménages subprimes
a augmenté (de 5 % en 2005 à 15 % en 2007). L’expulsion de leur
logement de plus d’un million de ménages américains marque l’échec
social de ce système fondé sur un endettement massif.

Le retournement du marché immobilier fait naître début 2007 des


doutes sur la valeur du sous-jacent (les maisons) et la valeur des
« créances subprimes ». Dès lors, le système de formation des prix
des produits financiers a été perturbé, les opérateurs constatent
qu’ils n’ont pas d’information sur le sous-jacent et les risques. De

9782340-024007_001-264.indd 170 13/03/2018 13:13


10. La récurrence des crises financières

surcroît un problème de traçabilité des risques se fait jour. À partir


d’août 2007 les prix des produits financiers complexes baissent de
manière rapide. Une crise de confiance affecte ces produits… La
défiance s’installe entre institutions financières elles-mêmes et, 171
plus largement, vis-à-vis de tous les acteurs soupçonnés de détenir
des actifs de ce genre.

Du fait de la défiance interbancaire, les liquidités se sont asséchées


sur certains marchés monétaires (marchés des capitaux à très courts
termes). Les banques ont manqué de fonds propres. De nombreuses
banques ont été contraintes de solliciter une recapitalisation fin 2007
et courant 2008 (Citigroup, Bank of America, Morgan Stanley, Merrill
Lynch aux États-Unis, UBS, Royal Bank of Scotland en Europe…).
Les Banques centrales ont cherché, dès le début du mois d’août 2007,
des solutions pour approvisionner le système en liquidités. Elles ont
entamé un combat incessant mais elles ne sont pas parvenues à éviter
que certaines institutions ne soient en grandes difficultés. L’année
2008 a été scandée par des actions de sauvetage. En Europe une ruée
bancaire se produit aux guichets de la Northern Rock en février 2008,
l’établissement est nationalisé temporairement. Aux États-Unis
en mars 2008 la banque d’affaires et de courtage Bear Stearns
(cinquième banque d’investissement américaine) a été renflouée par
sa concurrence JPMorgan Chase et par la Réserve Fédérale de New
York. En juillet 2008, Fannie Mae et Freddie Mac, des organismes de
refinancement hypothécaire (ils assurent les créances immobilières),
qui détenaient ou garantissaient plus de 40 % de l’encours de crédits
immobiliers aux États-Unis ont été en difficulté. Ils ont été mis par
la suite sous la tutelle du Trésor américain (en septembre 2008).

Le 15 Septembre 2008, Lehman Brothers (quatrième banque d’affaires


de Wall Street) est mise en faillite. La banque n’a pas trouvé de
repreneur et a été abandonnée. Cet événement a constitué un véritable
séisme financier. Ce choix a été analysé comme une erreur dans la
mesure où il a pu faire penser que d’autres institutions n’étaient pas
à l’abri d’une telle sanction. À la suite de cet épisode, le prêt inter-
bancaire a été jugé davantage risqué. Les taux d’intérêt sur le marché
monétaire se sont envolés ! Les prêts interbancaires semblent alors

9782340-024007_001-264.indd 171 13/03/2018 13:13


Grandes questions d'économie du XXIe siècle

paralysés, une défiance généralisée étant de mise entre banquiers


(pour une analyse plus poussée de la crise de liquidité bancaire et de
sa contagion, voir Blancheton et al1).
172
Les marchés financiers ont, eux, énormément reculé, les valeurs
financières étant d’abord plus particulièrement touchées : le Dow
Jones a chuté entre octobre 2007 et octobre 2008 de près de 40 %,
sur la même période, comme le montre le graphique ci-dessous, le
CAC a reculé de près de 50 %. La semaine du 6 octobre 2008 une
panique a frappé les marchés financiers qui ne percevaient pas de
solutions de sortie de crise… Les indices ont perdu près de 25 % sur
cette semaine. Le spectre de la crise de 1929 a alors resurgi incitant
les responsables à agir au plus vite et à ne pas reproduire les mêmes
erreurs que durant la Grande Dépression.

Graphique 10.2 – Évolution de l’indice CAC 40 entre 1999 et 2015

Source : Bonin H. et Blancheton B.,


Crises et batailles boursières en France au XXe et XXIe siècles, Genève, Droz, 2017

À la fin de l’été 2008 la politique monétaire a paru avoir épuisé l’arsenal


de ses instruments pour solutionner la crise. La politique budgétaire
a pris le relais d’abord avec le plan Paulson aux États-Unis. Dans sa
mouture liminaire, ce plan de près de 700 milliards de dollars prévoyait
un rachat de « créances toxiques » selon des modalités floues, il s’est
ensuite orienté vers une montée au capital des banques en difficultés.
L’Europe a, elle aussi, réagit d’abord de manière quelque peu dispersée
(divergences d’appréciation sur la gravité de la situation, élévation
différenciée des plafonds de garantie des dépôts…). Par la suite,
1. Blancheton B., Bordes Ch., Maveyraud S., Rous Ph., « Risk of liquidity and contagion of the crisis on the
US, UK and Euro Area money markets », International Journal of Finance and Economics, vol. 17 (2), pp.
124-146, 2012.

9782340-024007_001-264.indd 172 13/03/2018 13:13


10. La récurrence des crises financières

mi-octobre 2008, les Européens ont affiné un projet coordonné (sur


le modèle anglais) combinant garanti des crédits interbancaires et
entrée dans le capital de banques en difficultés. Toutes les banques
seraient secourues en cas de difficultés. Les Européens apportent 173
une garantie à hauteur d’un plafond de 1700 milliards d’euros et
s’engagent à ce que toutes les banques soient secourues. Ces plans ont
progressivement rétabli la confiance sur les marchés monétaires mais
le rationnement du crédit pendant plusieurs semaines a puissamment
entravé l’activité économique.

Un crédit crunch a frappé les économies occidentales à l’automne


2008. À la suite des tensions sur le marché interbancaire le crédit a
été rationné. Ces restrictions ont eu plusieurs effets : l’investissement
a été freiné, la consommation a stagné et les faillites d’entreprises
ont été plus nombreuses.

L’effondrement des marchés financiers à travers des effets de richesse


mais aussi et surtout via les détériorations des anticipations a provoqué
un recul de la confiance des ménages et un attentisme en matière
de consommation. De manière liée, la confiance des entrepreneurs
a été affectée.

La croissance a stagné au cours du deuxième semestre 2008 et durant


l’année 2009, la plupart des économies occidentales ont connu une
crise économique. Ce recul de la croissance, sans équivalent depuis
la Seconde Guerre mondiale, a entraîné une progression du chômage
dans l’ensemble de ces pays.

La crise financière a résulté de la rencontre de plusieurs facteurs


macroéconomiques et microéconomiques.

L’abondance de crédits est, comme à chaque fois, un facteur clef et


dans le cas des subprimes, plusieurs raisons l’expliquent :
◊ abondance de liquidités du fait des déséquilibres internationaux
(hausse des prix du pétrole, excédents courants des pays d’Asie en
particulier la Chine…) et de la poursuite du processus d’intégration
financière internationale.
◊ une politique monétaire américaine souple à la suite de la crise de
2000-2001 et le maintien de taux d’intérêt bas entre 2003 et 2005.
◊ des primes de risque très faibles sur les taux d’intérêt (environ-
nement de « grande modération ») qui résulte pour partie d’une
grande crédibilité de politiques monétaires conduites par des
banques centrales très indépendantes.

9782340-024007_001-264.indd 173 13/03/2018 13:13


Grandes questions d'économie du XXIe siècle

Cet endettement massif à faible coût permet aux institutions finan-


cières anciennes (banques d’investissement, banques commerciales)
et « nouvelles » (fonds d’investissement, hedge funds) de pratiquer
174 des opérations à gros effets de levier. Les organismes financiers
recherchent dès lors des niveaux de rentabilité trop élevés eu égard
aux performances réelles de l’économie. Cette course sans limite aux
profits engendre des prises de risques excessives.

Pour le courant de la Régulation (citons Michel Aglietta) la crise


financière révèle la crise du régime de croissance associé au capita-
lisme financier en vogue depuis les années 1980. Le pouvoir des
actionnaires conduit à un partage de la valeur ajoutée défavorable aux
salariés et à une montée des inégalités. L’endettement des ménages
américains pallie l’insuffisance de leur pouvoir d’achat jusqu’à la
limite du surendettement.

Des défauts de régulation ont été identifiés :


◊ L’organisation des systèmes de contrôle prudentiel (en particulier
l’organisation interne) et l’organisation de la supervision bancaire
ont été défaillantes.
◊ Les normes comptables qui s’appliquent aux organismes financiers
(valorisation des actifs à la valeur de marché) se sont révélées
déstabilisantes.
◊ Certaines innovations financières, les produits complexes les plus
difficiles à « pricer » au lieu de répartir les risques entre les agents
ont brouillé les repères des opérateurs. Le système n’a plus été en
mesure d’évaluer les risques, d’en assurer la traçabilité.
◊ L’incitation à la prise de risque dans les institutions financières
(rôle des bonus qui récompensent les comportements spéculatifs…)
a été excessive.
La crise des subprimes est dans ses mécanismes une crise comme
les autres qui mêle excès de crédits et euphorie autour d’un secteur,
elle charrie son lot d’opacité et d’escroquerie (affaire Madoff ). En
Europe, la gravité de la crise résulte du fait qu’elle a également révélé
une fragilité structurelle des institutions et la nécessité de réformer
des États providence qui ne pouvaient plus être financés par recours
à l’endettement.

9782340-024007_001-264.indd 174 13/03/2018 13:13


10. La récurrence des crises financières

# Conclusion : à quand
la prochaine crise ?
Au regard de cette mise en perspective empirique et théorique, il 175
apparaît clairement que le capitalisme engendre des crises financières
récurrentes. Au sein d’un système fortement concurrentiel, dérégle-
menté et dérégulé malgré certaines réformes sur les ratios de fonds
propres et la stabilité bancaire, la survenance de crises financières
semble fatale. Les asymétries d’information entre agents concentrés
à l’extrême sur la recherche du profit à court terme, le mimétisme
sont autant de facteurs qui conduisent à surestimer les rentabilités
futures des innovations et des secteurs émergents. Aujourd’hui (été
2017), un foyer de crise potentielle peut être identifié dans le secteur
de l’économie numérique qui fait l’objet d’un engouement sans doute
excessif depuis plusieurs années. Une manifestation de cette euphorie
a été, en 2014, le rachat de Snapchat par Facebook pour 19 milliards
de dollars alors que l’entreprise n’avait qu’un chiff re d’affaires de
quelques millions de dollars. Des plateformes de services comme
Airbnb, Uber, Deliveroo paraissent faire l’objet de valorisations
très incertaines au regard des possibles évolutions réglementaires
de leurs activités (voir le thème de l’ubérisation). Le phénomène ne
concerne pas que les États-Unis : en Asie, les valorisations d’Alibaba
(e-commerce en Chine), Didi (application de réservation de voiture
avec chauffeur en Chine) ou encore Flipkart (e-commerce en Inde)
s’envolent. La chute de l’un de ces acteurs pourrait déclencher une
crise d’envergure, l’éclatement de la bulle numérique.

9782340-024007_001-264.indd 175 13/03/2018 13:13


9782340-024007_001-264.indd 176 13/03/2018 13:13
11 Politiques
économiques
et mondialisation

Des années 1980 aux années 2000, l’intensification des échanges


internationaux de marchandises et de services et de la progression
de la mobilité internationale des capitaux ont contraint les autorités
dans la mise en place des instruments de politiques économiques
conjoncturelles. Depuis la crise financière de 2007-2009, la globa-
lisation connaît un tassement mais l’économie mondiale continue
de se caractériser par le maintien d’un haut niveau d’interdépen-
dance qui conditionne le déploiement des outils budgétaires et
monétaires. Par ailleurs, l’ampleur de la dette publique impose
aujourd’hui des programmes d’ajustements budgétaires et invite
à innover en matière de politique monétaire non conventionnelle.
L’environnement international pose toujours avec beaucoup
d’acuité la question de l’attractivité et de la compétitivité des
sites nationaux.

# Ouverture commerciale
et politique budgétaire
Dans sa dimension conjoncturelle, la politique budgétaire recouvre
l’utilisation des dépenses et des recettes des administrations publiques
pour la régulation du rythme de l’activité économique. Rappelons que
les administrations publiques regroupent trois principales compo-
santes : l’administration centrale, les collectivités territoriales et les
organismes de sécurité sociale.

Le budget des administrations peut soutenir l’activité de deux


manières : soit par le canal d’une impulsion budgétaire, les relances
traditionnelles d’inspiration keynésienne, soit par le jeu des stabili-
sateurs automatiques de la conjoncture.

9782340-024007_001-264.indd 177 13/03/2018 13:13


Grandes questions d'économie du XXIe siècle

Dans le contexte de forte ouverture commerciale des économies qui


caractérise le XXIe siècle les relances budgétaires à travers un soutien
des administrations à l’investissement ou à la consommation sont
178 très peu efficaces lorsqu’elles sont conduites de manière isolée au
niveau d’un pays. En effet, dans un cadre keynésien, plus l’ouverture
commerciale est grande, moins les multiplicateurs ont des valeurs
élevées. Ici la relance vient achopper sur la contrainte externe, elles
profitent trop largement aux importations. L’échec de la relance
française de 1981-1982 avait déjà démontré cela. À l’échelle des pays,
la valeur des multiplicateurs est aujourd’hui faible, souvent inférieure
à 1 pour les économies de petites et moyennes tailles.

Les relances budgétaires lorsqu’elles paraissent indispensables en


raison de l’ampleur du choc macroéconomique, comme à la suite de
la crise financière de 2008-2009, doivent être conduites de manière
concertée. Tous les pays doivent y participer (aucun ne doit jouer le
passager clandestin de la relance) au prorata de leurs marges : les
pays avec des soldes courants positifs ou avec une faible dette doivent
relancer plus afin d’éviter l’amplification des déséquilibres interna-
tionaux. Des pays très endettés ont moins de marges de manœuvre
pour mettre en œuvre des relances, en effet l’émission de nouveaux
titres pour les financer pose la question de soutenabilité de cette dette.
Ainsi en 2008, l’Italie a mis en œuvre une petite relance (de l’ordre
de 0,6 % du PIB) du fait d’un ratio d’endettement déjà haut (106 %).

Si les relances budgétaires sont devenues rares dans un environ-


nement mondialisé, les budgets nationaux continuent pour autant
à lisser l’activité à travers le jeu dit des stabilisateurs automatiques
de la conjoncture. La stabilisation automatique est l’effet exercé sur
la demande finale par la réaction spontanée du budget aux varia-
tions de la conjoncture. Ce dernier est sensible à une conjoncture
qui affecte beaucoup plus les recettes que les dépenses. Les recettes
fiscales sont très liées à l’activité (TVA proportionnelle, impôt sur le
revenu progressif, impôt sur les sociétés). Les dépenses sociales sont
sensibles à la conjoncture, elles augmentent mécaniquement en période
de récession et certaines peuvent diminuer en phase d’expansion.
Le solde budgétaire est donc positivement lié à l’activité : il est
amélioré par l’expansion et dégradé par la récession. Le budget limite
naturellement l’instabilité conjoncturelle. L’activation automatique
de nouvelles dépenses sociales – appelées parfois fi lets sociaux –
soutient la demande et réduit ainsi l’ampleur des chocs. L’intensité
de la stabilisation dépend de la part du budget des administrations
dans le PIB, de la progressivité de l’impôt et de la sensibilité de

9782340-024007_001-264.indd 178 13/03/2018 13:13


11. Politiques économiques et mondialisation

l’assiette fiscale à la conjoncture. La taille des stabilisateurs est ainsi


plus grande en Suède, au Danemark en France, en Belgique qu’aux
États-Unis et au Japon.
179
Pour
la petite John Maynard Keynes (1883-1946) a été désigné, plus de soixante
histoire ans après sa mort, homme de l’année 2008 par le New York Times.
Dans un contexte d’incertitude radicale, les gouvernements –
dans le cadre du G20 – se sont inspirés de ses idées en opérant
une relance budgétaire coordonnée.

# Quelle épaisseur pour


les administrations publiques
au XXIe siècle ?
Le XXe siècle a été celui de la montée de l’État. La Première Guerre
mondiale a vu émerger un système économique d’essence étatique :
le socialisme de type soviétique. Au sein des économies capitalistes,
l’intervention des administrations mesurée par le rapport dépenses
publiques sur PIB a augmenté de manière très importante. La hausse
des prélèvements a répondu avec retard afin de financer des actions
toujours plus nombreuses (éducation, redistribution, assurance
sociale, stabilisation de l’activité grâce au budget).

L’intensification de la mondialisation a entraîné des réflexions acadé-


miques et politiques sur le thème du désengagement des administra-
tions publiques. Le marché serait plus efficace que l’État pour assumer
un rôle d’assurance contre les risques de la vie. L’attractivité d’un
territoire passerait par une fiscalité faible et une administration légère.

Pour
mémoire
Le taux de prélèvement obligatoire est le rapport entre la somme
des cotisations sociales et des impôts et le PIB. Il constitue une
mesure du degré d’intervention des administrations au sein de
l’économie.

9782340-024007_001-264.indd 179 13/03/2018 13:13


Grandes questions d'économie du XXIe siècle

Force est de constater qu’en réalité l’intervention des administrations


n’a pas baissé significativement. En Zone Euro, les dépenses publiques
représentent 47,5 % du PIB en 2016 contre 45 % en 2007. En France,
180 elles représentent aujourd’hui 56,5 % contre 55,4 % en 1996. Si l’on
considère l’évolution du taux de prélèvements obligatoires (autre
indicateur d’interventionnisme) au sein d’un ensemble large de pays,
l’OCDE : il est passé de 25,8 % en 1965 à 35,1 % en 2004 et 34,3 %
en 2015. La période récente se caractérise plus par une stabilisation
sur « un plateau assez haut », plutôt que par un effondrement comme
certains le laissent entendre. Cette tendance peut-elle s’inverser ?

Les cadres théoriques qui rendent compte de la progression de l’inter-


vention publique n’identifient pas de limite à sa montée et invitent à
privilégier le scénario du maintien d’un haut niveau d’intervention
dans les prochaines décennies.

Peacock et Wiseman insistent sur l’importance de crise (comme les


guerres) dans la progression de l’intervention publique. La demande
d’intervention publique serait latente mais rationnée en raison du
refus d’en assumer le coût fiscal. Face à des circonstances excep-
tionnelles le financement d’une intervention croissante de l’État est
accepté par la population. Ce niveau d’intervention se pérennise par
la suite même si la nature des dépenses évolue (du militaire vers le
civil), la population étant habituée à un plus haut de prélèvement.
Ce cadre explicatif est associé à l’idée que l’on sort d’une crise par, et
avec, plus d’état. L’analyse des comptes publics de la France accrédite
cette thèse pour l’après 2008-2009.

Le courant du Public Choice rend compte de la progression des


dépenses et des prélèvements via un phénomène de concentration
inégale des bénéfices et des coûts de l’intervention publique. Les
groupes de pression sécrètent des demandes d’intervention auprès
des élus (infrastructures, règlements, embauches de proches, alloca-
tions diverses…) porteuses pour elles d’un gain net en termes de
bien-être. Le reste de la population qui subit la charge du financement
et une perte nette de bien-être ne peut s’opposer à ces demandes en
raison notamment de coûts de coordination trop élevés d’un contre
lobbying. Rien ne vient s’opposer à ce processus de gonflement de
l’administration, pas même les élections.

Pour W. Baumol la hausse relative de l’intervention étatique tient


à sa nature d’activité de service. Les services ont plus de difficultés
que l’industrie à réaliser des gains de productivité, or les salaires du
tertiaire doivent suivre ceux de l’industrie tiraient par de fort gain

9782340-024007_001-264.indd 180 13/03/2018 13:13


11. Politiques économiques et mondialisation

de productivité. La nécessité d’accroître les salaires dans l’adminis-


tration rendrait compte de la progression de dépenses essentiellement
concentrées sur le fonctionnement. Le contribuable accepterait ainsi
à travers le temps de payer relativement plus cher le même service 181
public.

Sur ces bases, la réduction du poids des administrations – dans les


prochaines années – ne nous paraît pas constituer un scénario crédible
malgré le contexte idéologique et le maintien d’un haut niveau de
mise en concurrence entre les économies nationales.

# La mobilité des capitaux


en tant que contrainte externe :
le triangle de Mundell
La notion de triangle des incompatibilités montre en quoi la globa-
lisation financière réduit les marges de manœuvres de politiques
économiques. La mobilité internationale des capitaux contraint les
États à un choix restreint entre la stabilité du change ou l’autonomie
dans la conduite de la politique monétaire.

Ce concept de triangle des incompatibilités met en exergue l’impos-


sibilité de la réalisation simultanée de certaines caractéristiques en
économie ouverte. Ce triangle est un système de représentation en
trois axes.

Le triangle des incompatibilités, développé par R. Mundell, puis


T. Padoa-Schioppa, stipule qu’en économie on ne peut pas avoir
simultanément :
◊ une parfaite intégration financière internationale.
◊ une parfaite stabilité des cours de change.
◊ une parfaite autonomie de la politique monétaire.

Ainsi dans un environnement de parfaite mobilité internationale des


capitaux, le maintien de la stabilité du change contraint les respon-
sables à sacrifier l’autonomie monétaire, ils doivent se tenir prêts à
relever les taux d’intérêt pour attirer les capitaux et préserver les

9782340-024007_001-264.indd 181 13/03/2018 13:13


Grandes questions d'économie du XXIe siècle

cours de change. À l’inverse, un gouvernement qui souhaite concilier


stabilité du change et marge de manœuvre de politique monétaire
doit tenter de contrôler les mouvements internationaux de capitaux.
182
Seules les combinaisons de régime de change, de mobilité des capitaux
et de politique monétaire situées à l’intérieur du triangle ACF sont
viables.

Graphique 11.1 – Triangle des incompatibilités de Mundell

Au
ton
e
ng

om
ha
ec

ie d
rs d

e la
ou

po
sc

li
de

qu
ité

em
bil

on
Sta

éta
ire

C F
Intégraon financière internaonale parfaite

En tout point de la droite CF l’intégration financière est parfaite. Plus


on avance à l’intérieur du triangle moins les capitaux sont mobiles
jusqu’au point A qui représente une situation d’autarcie financière.

En tout point de la droite AC la stabilité du change est totale. Plus


on avance à l’intérieur du triangle moins la fi xité est forte jusqu’au
point F qui représente une situation de flottement pur.

En tout point de la droite AF l’autonomie de la politique monétaire est


pleine et entière, plus on avance dans le triangle moins l’autonomie est
grande jusqu’au point C qui traduit un renoncement à toute marge de
manœuvre de politique monétaire (comme en cas de currency board).

9782340-024007_001-264.indd 182 13/03/2018 13:13


11. Politiques économiques et mondialisation

# Le choix d’un régime de change :


vers les solutions de coin
D’après Eichengreen, Dornbusch et Summers si l’on choisit de 183
maintenir une totale mobilité des capitaux, seules les solutions de
coin sont viables sur le triangle : la complète fi xité (point C) ou le
flottement pur (point F). Le choix entre les deux solutions est crucial
pour un pays. Pour caricaturer à l’extrême, en régime de flottement,
le change constitue une variable d’ajustement pour absorber des
chocs internes (dépréciation de la livre à la suite du Brexit en 2016,
par exemple). En changes fi xes, si le régime est crédible en cas de
choc, l’ajustement se fait sur des variables internes : il convient en
principe de conduire une politique de déflation qui ramène les prix
à leur niveau d’avant le choc, l’activité nationale est réduite (cas de
la Grèce dans les années 2010).

* La fragilité des régimes intermédiaires


Le problème des stratégies intermédiaires est leur déficit de crédi-
bilité, les régimes de changes fi xes ajustables de type SME (Système
Monétaire Européen 1979-1998) étant fragiles, les régimes de
flottement impurs très difficiles à contrôler.

À travers l’histoire du SME, la spéculation a fait montre de sa


capacité à déstabiliser ce type de système. Au début des années
1990, les attaques spéculatives par leurs ampleurs impliquaient
des resserrements monétaires dont les coûts internes étaient trop
difficiles à supporter, d’où des sorties du système pour la livre
sterling ou la peseta.

Il est difficile aujourd’hui d’administrer le flottement monétaire.


Le maintien d’un régime de parités fi xes glissantes, choisi par la
Chine, se fait au prix du contrôle des mouvements de capitaux et
à l’aide d’importantes réserves de change que très peu de pays
peuvent rassembler. Les interventions directes sur le marché ont
énormément de difficultés pour être efficace comme le montre le
cas japonais dans les années 2000. Une intervention a d’autant
plus de chances d’être efficace qu’elle est crédible (les données
fondamentales de l’économie sont bonnes), coordonnée (plusieurs
banques centrales agissent) et qu’elle a lieu dans le bon timing, mais

9782340-024007_001-264.indd 183 13/03/2018 13:13


Grandes questions d'économie du XXIe siècle

le succès est loin d’être garanti. On considère qu’elle peut tout au


plus envoyer un signal aux opérateurs de marché pour attirer leur
attention sur le « mésalignement » flagrant d’une devise.
184
* La fixité : la stabilité au prix
d’un renoncement aux outils monétaires
L’intensification de la mondialisation semble appeler la stabilité
des cours de change. Cette fi xité favorise le développement des
échanges commerciaux et des flux de capitaux (investissements
directs étrangers et investissements de portefeuille). Le jugement
de l’histoire paraît a priori assez favorable à la fi xité. Au sein de
l’Etalon-or classique (1880-1913) un environnement de stabilité a
été créé, une croissance économique lente et assez régulière était
à l’œuvre.

Le Currency Board (caisse d’émission) constitue la forme moderne


de l’absolue fi xité. Quelles sont ses caractéristiques ?.1. Les autorités
nationales (Bulgarie 1998, Estonie 1992, Hong-Kong, Kosovo,
Lituanie 1997) décrètent la fi xité du cours de leur monnaie vis-à-vis
d’une monnaie internationale (dollar ou euro) et s’engagent à la
maintenir.2. L’émission de monnaie est entièrement « gagée »
par des devises obtenues soit par des crédits internationaux, soit
par un excédent courant.3. Les agents privés peuvent convertir la
monnaie nationale en devises.

La caisse d’émission est assez efficace pour rétablir la confiance


dans une monnaie en proie auparavant à une infl ation galopante
comme en Argentine au seuil des années 1990. Elle peut garantir
une stabilité interne. En revanche, elle n’autorise pas la pratique
de politique conjoncturelle. Elle créait également une situation
de dépendance financière, il faut s’endetter pour constituer les
contreparties de la base monétaire.

Un régime de parfaite fi xité assure en principe la stabilité interne


(faible inflation) et externe (équilibre du solde courant à moyen
terme), mais prive en revanche les autorités d’instruments de
soutien de croissance à court terme (pas d’activisme monétaire,
très peu au niveau budgétaire, pas d’ajustement possible par le
change), l’ajustement doit passer par les variables internes quitte
à devoir pratiquer la déflation.

9782340-024007_001-264.indd 184 13/03/2018 13:13


11. Politiques économiques et mondialisation

* La flexibilité : une capacité


d’ajustement aux chocs, au prix de risques
de mésalignement et de forte volatilité
Les monétaristes dont Milton Friedman prônent le flottement 185
complet des monnaies, ils ont confiance dans la capacité d’ajus-
tement du marché. Le flottement assurerait un rétablissement
automatique de l’équilibre externe : un déficit courant impliquant
une dépréciation immédiate du change. Le marché déterminerait les
« vrais » cours de change, la spéculation étant stabilisante. Toujours
pour les monétaristes, le flottement autorise la possibilité d’une
politique monétaire active pour faire face à des chocs asymétriques.

Dans les faits, le flottement qui s’est généralisé depuis les années
1970 n’a pas tenu ses promesses, les cours de change sont volatils
et surtout des mésalignements importants sont apparus. De facto
le marché des changes est en proie à des bulles spéculatives et à
des comportements mimétiques des opérateurs. Ces phénomènes
ont des répercussions internes difficiles à gérer.

# Mondialisation, dette publique


et évolution de l’indépendance
des Banques centrales

* Le modèle de l’indépendance
de la Banque centrale
Dans un contexte d’internationalisation croissante, la stagflation
des années 1970 accrédite l’idée qu’une inflation forte (à deux
chiff res) peut se retourner contre la croissance. Un différentiel
d’inflation défavorable érode la compétitivité-prix d’une économie
nationale et accroît l’incertitude chez les opérateurs qui ont plus de
difficultés à faire des projections. Dans le même temps, du fait d’une
plus grande ouverture commerciale et d’une plus grande réactivité
des agents économiques, l’efficacité des politiques conjoncturelles
d’inspiration keynésienne devient moindre.

Sur ces bases, un changement de paradigme économique se produit.


Lors du sommet du G7 de Tokyo en 1979, les grandes puissances
actent l’idée de promouvoir la mobilité internationale des capitaux
et, son corolaire, la lutte contre l’inflation. La stabilité des prix est
un facteur d’attractivité pour les investissements directs étrangers
afin d’en garantir le rendement réel. Le contrôle des changes est

9782340-024007_001-264.indd 185 13/03/2018 13:13


Grandes questions d'économie du XXIe siècle

relâché dans plusieurs pays (RU, EU…). Aux États-Unis, la Fed –


pourtant peu autonome comme le souligne Meltzer1 – impulse un
cycle de resserrement monétaire qui amplifie la récession provoquée
186 par le deuxième choc pétrolier et rend toute initiative de relance
nationale isolée beaucoup plus risquée.

Dans les cercles académiques, la réflexion se déplace vers la capacité


des institutions à garantir la stabilité des prix. Les travaux de
Kydland et Presscott2 comparent l’efficacité de deux types de
politiques économiques. Les autorités peuvent suivre des règles
préétablies ou bien conduire une politique discrétionnaire qui
s’adapte aux évolutions de l’environnement. Dans ce cas, elle se
heurte à un problème d’incohérence temporelle : face au même
problème l’autorité peut prendre des décisions différentes. Ce
faisant les agents ne peuvent pas anticiper les conséquences des
politiques, or les effets anticipés font partie intégrante de leurs
mécanismes d’action.

Dans un article célèbre, Barro et Gordon3 appliquent le « modèle de


l’incohérence temporelle » à la politique monétaire. Elle constituerait
un jeu ou les autorités ont intérêt à tricher, en prenant les opéra-
teurs par surprise. Une inflation plus importante que prévu peut
avoir pour effet une baisse du salaire réel (les salaires nominaux
étant fi xés contractuellement sur la base de l’inflation prévue) et
des effets transitoires positifs (sur l’emploi). Mais ce « biais infla-
tionniste » fait perdre de la crédibilité aux autorités monétaires
qui dorénavant ne seront pas crues dans leurs annonces par les
agents. Selon le modèle de l’incohérence temporelle, les banques
centrales non indépendantes sont soumises à l’aléa moral4 né du
cycle électoral. Pour résoudre ce problème, il convient d’accorder
une indépendance à la Banque centrale et de lui confier pour seul
objectif une inflation faible.

1. Meltzer A., A History of the Federal Reserve, vol.2 : 1951-1986, Chicago and London,The University of
Chicago Press, 2009.
2. Kydland F., Prescott E., « Rules rather than discrétion : the inconsistency of optimal plans ». Journal of
Political Economy, 85 (3), 1977, p.473-492.
3. Barro R., Gordon R., « Rules, discretion, and reputation in a positive model of monetary policy ». Journal
of Monetary Economics, 12, 1983, p.101-121.
4. En théorie économique (en économie de l’assurance, en économie bancaire), l’aléa moral désigne le fait
qu’un contractant (l’agent, l’assuré) ne tienne pas ses engagements, ait un comportement différent de
ce qui était prévu. Ainsi le ménage qui a emprunté auprès de la banque peut utiliser différemment le
crédit, ainsi l’agent qui vient de signer un contrat d’assurance peut prendre plus de risque sachant qu’il
est assuré (laisser sa voiture sur un parking avec les vitres ouvertes).

9782340-024007_001-264.indd 186 13/03/2018 13:13


11. Politiques économiques et mondialisation

En Europe, l’indépendance de la Banque centrale apparaît comme


la contrepartie à accorder à l’Allemagne pour qu’elle renonce au
pouvoir du Mark. Elle est actée par le rapport Delors dont la
recommandation 52 propose « d’étendre la portée de l’autonomie 187
des banques centrales ». Dans le Traité de Maastricht sur l’Union
Européenne (7 février 1992) le protocole des statuts du système
européen des banques centrales et la BCE prévoient une convergence
des statuts des banques centrales nationales. Les États sont tenus,
en vertu de l’article 14 du protocole et de l’article 108 du Traité, de
veiller à la compatibilité de la législation nationale avec le Traité
notamment sur la question des statuts des banques centrales
nationales avant l’entrée en vigueur du SEBC. Les États membres
octroient tour à tour l’indépendance à leur banque centrale (France
1993, Italie 1993…). L’indépendance des banques centrales apparaît
en fait à cette époque comme une attente, voire une injonction des
marchés financiers. Les marchés considèrent alors que le statut de
la banque centrale indépendante donne à la politique monétaire
une crédibilité et un gage de permanence accrus.

Le modèle de la Banque centrale indépendante triomphe à la fin des


années 1990 lorsque la Bank of England (1997), la Bank of Japan
(1998) acquièrent leur indépendance et lorsque la BCE – l’une des
plus indépendante du monde – met en place avec succès l’euro. Au
seuil des années 2000 l’ère de la grande modération (une croissance
stable et non inflationniste) semble couronner ce mouvement.

* Progression de la dette publique


et nouveau modèle de central banking.
L’indépendance tacite faible
Même si actuellement en matière d’indépendance des banques
centrales les législations n’évoluent pas, une nouvelle ère s’est
pourtant ouverte depuis la crise financière de la fin des années
2000. Les turbulences financières et la progression de la dette
souveraine ont poussé les Banques centrales à assister les États
pour amortir l’endettement, quitte à perdre le contrôle de l’offre
de monnaie. Sous l’écume de la chronique de la dégradation de la
note souveraine des États, des mouvements tectoniques affectent
le central banking et esquissent la définition d’un nouveau modèle,
qui pourrait être qualifié « d’indépendance tacite faible »1. Les

1. Pour une présentation plus complète de ce modèle de Central Banking voir Blancheton. B., « Central
Bank Independence in Historical Perspective : Myth, Lessons and New Model », Economic Modelling,
vol.52, pp. 101-107, 2016.

9782340-024007_001-264.indd 187 13/03/2018 13:13


Grandes questions d'économie du XXIe siècle

Banques centrales ont intégré le fait qu’elles devaient assister les


états si elles ne voulaient pas subir une reprise en mains sur le plan
juridique. Cette capacité des grandes Banques centrales a devancé
188 les attentes des gouvernements peut apparaître comme le fruit de
progrès en matière de transparence qui ont développé une capacité
d’écoute de la représentation politique et de l’opinion mais aussi
comme une capacité à avoir assimilé les leçons de l’histoire du
central banking.

La crise a révélé les difficultés de la soutenabilité de la dette. Elle a


poussé les Banques centrales à prendre des mesures non conven-
tionnelles et conduit à la fin de l’inflation targeting. Les Banques
centrales sont entrées dans une ère nouvelle et doivent participer
à l’amortissement de la dette publique. Soit elles anticipent cette
nécessité à l’instar de la Fed ou de la BCE, elles la devancent, soit elles
seront contraintes de la faire à terme. En Europe les programmes
de LTRO (Long term Refinancing Operation), déployés notamment
pour réduire les taux d’intérêt sur les dettes souveraines semblent
avoir été mis en œuvre sans pression politique explicite. La décla-
ration de M. Draghi de 6 septembre 2012 malgré les réactions
contrastées qu’elle a suscité paraît, là encore, antérieure aux
pressions : sortant de son mandat il évoque la possibilité pour la
BCE de racheter sans limite quantitative des obligations d’état de 1
à 3 ans de maturité contribuant à apaiser les tensions sur les taux.

Sur ces bases, le débat sur l’indépendance de la BCE a parfois lieu


à front renversé. Ainsi au printemps 2016, de nombreuses voix se
sont élevées en Allemagne – dont celle du ministre des finances
Wolfgang Schauble – pour dénoncer le caractère beaucoup trop
accommodant de la politique monétaire de la BCE. Cette politique
menacerait les intérêts des épargnants allemands.

À la suite de la crise financière de 2007-2009 et de la montée de


la dette publique, les banques centrales sont intervenues par des
mesures inédites notamment non conventionnelles afin d’aider les
états à contenir la hausse de l’endettement. Elles perdent ainsi le
contrôle de l’offre de monnaie et renoncent à l’inflation targeting.
L’indépendance de facto a reculé. La nouveauté historique réside
dans le fait que les Banques centrales ont devancé les attentes
des gouvernements. Elles ont intégré la nécessité de participer à
l’amortissement de la dette. Il faut y voir à la fois les fruits d’une
plus grande transparence qui a développé les capacités d’écoute

9782340-024007_001-264.indd 188 13/03/2018 13:13


11. Politiques économiques et mondialisation

des Banques centrales et l’assimilation de l’histoire du central


banking qui montre que le rapport de forces avec les gouverne-
ments est inévitablement défavorable dans de telles circonstances.
189
Dans les prochaines années les Banques centrales vont devoir
continuer d’intégrer l’évolution du niveau de la dette publique dans
la conduite de la politique monétaire. Il s’agira toujours d’essayer
d’offrir aux gouvernements des taux d’intérêt réels faibles sur les
bons de Trésor, soit en faisant évoluer l’objectif d’inflation (mais
le 2 % fait l’objet d’un assez large consensus et la cible est fi xée par
les responsables politiques), soit – plus surement – en maintenant
des taux d’intérêt nominaux bas comme depuis 2012.

# Conclusion
Le maintien probable d’un haut niveau de mondialisation (voir chapitre
2) dans les prochaines années constituera toujours une contrainte forte
pour la conduite des politiques économiques. La mobilité du capital
laisse intact l’arbitrage entre stabilité du change et autonomie de la
politique monétaire et le positionnement des régimes de change dans
les coins du triangle de Mundell. Les autorités pourront continuer
d’utiliser le budget pour stabiliser la conjoncture mais le haut niveau
de dette réduit les marges de manœuvre. Cette dette constituera une
contrainte forte pour les autorités monétaires, elles devront maintenir
des taux d’intérêt réels bas afin de participer à son amortissement.

9782340-024007_001-264.indd 189 13/03/2018 13:13


9782340-024007_001-264.indd 190 13/03/2018 13:13
12 La dette publique

La dette publique constitue l’une des grandes questions du début du


XXIe siècle. Une crise de la dette a révélé en 2010-2011 les fragilités
institutionnelles de la construction européenne et entraîné une
profonde dépression en Grèce. D’autres pays (Espagne, Portugal,
Italie…) ont mis en œuvre des programmes d’ajustement budgétaire
qui ont eu des effets récessifs sans parvenir à régler la question.
Dans beaucoup de pays la dette publique continue de progresser
et la question de son amortissement reste entière.

Par son ampleur la dette réduit aujourd’hui les marges de manœuvre


de politique budgétaire et contraint la politique monétaire. Depuis
la crise financière les politiques monétaires dites non convention-
nelles ont contribué à baisser le niveau des taux sur les obligations
d’État. À l’avenir l’amortissement de la dette pourrait passer par
plus d’inflation. Les autorités vont devoir en permanence rassurer
les créanciers et faire inévitablement face à des épisodes de tension.

Nous proposons d’analyser les grands enjeux de la dette publique :


sa définition, sa mesure, les raisons de sa progression particu-
lièrement à travers le cas français, sa soutenabilité, les voies
d’amortissement qui s’off re aux autorités. Au final, il s’agira de
savoir qui va payer la dette !

# Définition, mesure et enjeux


de la dette publique

* Premiers éléments de caractérisation


La dette publique naît de l’adoption de budgets des administrations
publiques en déficit. L’émission de titres financiers (essentiellement
des obligations) sur les marchés financiers ou auprès du grand public
permet alors d’assurer la continuité des paiements et l’exécution
budgétaire. Les flux de déficits alimentent, année après année, le
stock de dette. Les administrations doivent rembourser le capital
qui arrive à échéance et les intérêts.

9782340-024007_001-264.indd 191 13/03/2018 13:13


Grandes questions d'économie du XXIe siècle

Comment, pour la France, le montant de la dette est-il calculé « au


sens de Maastricht » c’est-à-dire dans le cadre d’une convention
établie au sein de l’Union Européenne1 ? Dans quelle mesure le calcul
192 est-il discutable ? D’autres approches sont-elles envisageables ? En
quoi la dette publique, dite aussi souveraine, est-elle singulière
comparée à celle d’un ménage ou à celle d’une entreprise ?

La dette publique représente l’ensemble des engagements finan-


ciers des administrations publiques, le total des sommes dues aux
créanciers. Les administrations – de ce point de vue ne sont pas
différentes – des ménages ou des entreprises qui doivent honorer
un échéancier de remboursement, qui permet de calculer leur
endettement.

Les administrations publiques sont un ensemble d’unités institu-


tionnelles dont la fonction principale est de produire des services
non marchands ou d’effectuer des opérations de redistribution entre
les agents économiques. En France, les administrations publiques
se composent de l’État « dit central » (ministères régaliens [défense,
police, justice, diplomatie], missions publiques d’enseignement, de
recherche, de culture…), des organismes de sécurité sociale (santé,
retraites, famille, accidents du travail), des collectivités territo-
riales (régions, départements, intercommunalités, communes)
et d’un ensemble plus diff us les organismes divers d’administra-
tions centrales (les ODAC rassemblent environ 700 structures qui
prolongent l’action de l’État dans le domaine social [Pôle emploi…],
la santé [INSERM, ARS…], la culture [Louvre, Orsay, Opéra de
Paris…], l’action économique [AMF, CEA…], l’enseignement et
la recherche [CNRS, ENA, etc.]). La dette publique représente la
valeur de l’ensemble des emprunts émis par ces institutions et, au
final, garantis par l’État Français.

Il s’agit d’une dette dite consolidée : sont exclus du calcul les éléments
de dette d’une administration vis-à-vis d’une autre. Par ailleurs, les
engagements financiers futurs (notamment les retraites futures
des fonctionnaires ne sont pas intégrées dans ce chiffrage)2. C’est
sur ces bases que la France notifie chaque année aux instances

1. Il y a souvent derrière un chiff re une convention qui lui donne une dimension politique et sociale et un
problème de mesure, plus technique et opérationnel. Voir Desrosières A., La politique des grands nombres :
Histoire de la raison statistique, Paris, La Découverte, 1993.
2. Le rapport Rompre avec la facilité de la dette publique, dit rapport Pébereau, insistait sur le fait que l’appli-
cation des normes comptables privées aboutirait à inclure des engagements fi nanciers supplémentaires
très significatifs (compris à l’époque entre 790 et 1000 milliards d’euros).

9782340-024007_001-264.indd 192 13/03/2018 13:13


12. La dette publique

européennes la situation de sa dette (au sens de Maastricht) et


que des comparaisons internationales peuvent être réalisées au
sein de l’Union Européenne.
193
* Ordre de grandeurs des masses
budgétaires et de la dette
Avant d’en venir à la mesure de la dette, il est utile de rappeler
l’ampleur de l’intervention des administrations publiques en France.
En 2015, les dépenses des administrations représentent 1242,8
milliards d’euros, soit 57 % du PIB. Les prélèvements obligatoires
(impôts et cotisations sociales) s’élèvent à 1042 milliards, soit
45 % du PIB. Les 200 milliards d’écart ne constituent pas le déficit
budgétaire car les administrations disposent d’autres ressources
(revenus de la propriété, recettes de production…) pour environ
124 milliards d’euros.

Tableau 12.1 – Dépenses et recettes des administrations publiques


en 2015 en milliards d’euros

Dépenses totales 1242,8


Recettes totales 1166,3
Dont :
impôts et cotisations sociales 1042
recettes de production 88,2
revenus de la propriété 15,4
autres 20,8
Besoin de financement (–76,5)

Source : Insee

Sur la base du tableau ci-dessus, pour 2015, les administrations


expriment un besoin de financement de 76,5 milliards qui consti-
tuent le solde budgétaire, dit brut. C’est ce déficit qui doit être
couvert par recours à l’endettement.

Si, dans le total des dépenses, on exclut les intérêts servis sur la
dette on obtient le solde budgétaire dit primaire. Il exprime le
besoin de financement de l’année indépendamment de l’héritage
lié aux intérêts sur le stock de dette. En 2015, les intérêts de la
dette représentent 43,8 milliards d’euros. Le déficit budgétaire
primaire est, par conséquent, de 32,7 milliards d’euros.

9782340-024007_001-264.indd 193 13/03/2018 13:13


Grandes questions d'économie du XXIe siècle

Ces chiff res illustrent l’importance des masses budgétaires en


France. La France est l’un des pays du monde où en termes relatifs
les dépenses publiques et les prélèvements obligatoires sont les
194 plus élevés.

* Chiffres de dette publique


Des chiffres officiels de la dette sont publiés pour la fin de chaque
trimestre. Des compteurs de la dette existent sur internet et
proposent une évolution permanente sur des hypothèses de linéa-
rités. Ils apportent en définitive aucune valeur ajoutée, et donnent
l’impression d’un emballement de la dette, inutilement anxiogène.

Tableau 12.2 – Dette de la France à la fin de chaque trimestre.

T3 2015 T4 2015 T1 2016 T2 2016 T3 2016 T4 2016


2103,7 2097,4 2138,9 2170,6 2160,4 2147,2

Source : INSEE

La valeur nominale de la dette doit être mise en rapport avec d’autres


grandeurs économiques afin de mieux en prendre la mesure. La dette
peut être rapportée aux recettes budgétaires annuelles (ou au total
des prélèvements annuels), ce chiffre montre le nombre d’années
(ou de mois) de prélèvements qu’il conviendrait de consacrer au
remboursement de la dette. Le plus souvent la dette est mise en
rapport avec le PIB du pays, approximation de la richesse créée
annuellement. Le rapport dette publique/PIB est appelé ratio
d’endettement, il est très commenté.

La dette de chaque composante des administrations publiques


peut être détaillée. Elle émane essentiellement de l’État (1722
milliards) mais la dette des collectivités locales (193 milliards) et
de la sécurité sociale (228 milliards) est loin d’être négligeable.

Tableau 12.3 – Décomposition de la dette au T3 2016 par composantes

En milliards d’euros
État 1722,6
Administration Publiques Locales 192,9
Sécurité Sociale 228,5
ODAC 16,5

Source : INSEE

9782340-024007_001-264.indd 194 13/03/2018 13:13


12. La dette publique

Une décomposition par instruments montre que l’essentielle de la


dette se compose de titres négociables, c’est-à-dire liquides.

Tableau 12.4 – Dette publique par instruments T3 2016 195

Dépôts 38,2
Titres négociables 1836,9
Court terme 179,5
Long terme 1657,4
Crédits 285,3
Court terme 12,7
Long terme 272,6

La dette représente en peu plus de 35 000 euros par Français.


Exprimer ainsi la question de l’endettement public peut faire peur.
Mais la question ne se pose pas en termes d’un remboursement
immédiat par chaque citoyen. La dette est appelée à être remboursée
sur un horizon de long terme. Poser la question ainsi, c’est aussi
occulter que la France dispose d’un actif.

* Ne pas oublier l’actif de la France


La dette est calculée de manière brute c’est-à-dire sans tenir
compte de l’existence d’un actif des administrations publiques. Il
est assez diversifié à travers des participations financières dans de
grandes entreprises, des actifs immobiliers, du foncier ou encore
les domaines… L’État reste actionnaire d’un grand nombre d’entre-
prises dans les secteurs des transports, de l’industrie, de l’énergie,
ou encore de la finance (Air France-KLM, Airbus, Thales, Safran,
Areva, Alstom, Renault, Engie, Orange…). Les actifs publics sont
difficiles à évaluer, car si les titres financiers ont une valeur de
marché facile à calculer, les actifs physiques ont une valeur liqui-
dative incertaine (terrains, actifs immobiliers…) voire purement
virtuelle (grands musées et monuments nationaux). Pour beaucoup
d’entre eux, ses actifs appartiennent aux collectivités et aux ODAC.
La gestion politique de leur liquidation serait très délicate. Malgré
cela, en 2015, une étude de l’INSEE évaluait l’actif de la France à
2 683 milliards d’euros, soit 125 % de son PIB.

9782340-024007_001-264.indd 195 13/03/2018 13:13


Grandes questions d'économie du XXIe siècle

* Zone d’ombre autour de la dette


L’État cherche à sous-estimer son endettement en développant
des structures de portage qui n’entrent pas dans le périmètre de la
196
dette au sens de Maastricht. Entre 1991 et 2007, une structure, le
SAAD (service annexe d’amortissement de la dette) a ainsi porté
artificiellement plusieurs milliards de dette de la SNCF jusqu’à
ce que l’Union Européenne exige leur réintégration dans la dette
au sens de Maastricht. La dette de RFF (Réseau Ferré de France,
gestionnaire du réseau des voies de la SNCF) ne figure pas dans le
périmètre de la dette au sens de Maastricht. Pour avoir le statut
d’ODAC, l’État doit être présent à plus de 50 % dans le capital de
celle-ci. Rester sous ce seuil permet de ne pas avoir à comptabiliser
la dette dans celle des administrations publiques. Par ailleurs, le
passif de certains ODAC peut être sous-estimé.

Un partenariat public-privé (PPP) est une structure juridique qui


associe une administration et des entreprises partenaires. Il s’agit
d’un mode de financement par lequel la puissance publique fait
appel à des prestataires privés pour financer et gérer un équipement
(hôpital, laboratoire universitaire, ligne ferroviaire à grande
vitesse, prison, stade…) Dans les faits, l’entreprise de BTP construit
en grande partie à ses frais l’équipement. Mais en contrepartie,
elle perçoit sur une très longue durée (jusqu’à plusieurs dizaines
d’années) un loyer payé par les administrations pour entretenir
l’ouvrage. Le budget d’un PPP peut atteindre des sommes très
importantes comme pour la ligne ferroviaire à grande vitesse
Tours-Bordeaux inaugurée en 2017. Le modèle autoroutier du PPP
et, plus précisément, de la concession, a prévalu dans le montage
d’un projet au coût global de 9 milliards d’euros, 7,8 milliards pour
la LGV proprement dite et 1,2 milliard pour les aménagements. La
société concessionnaire Lisea, désignée en 2011 pour une durée
de cinquante ans, a pris en charge la conception et la construction
de la ligne. L’entreprise contrôlée par la société Vinci en assurera
l’exploitation, la maintenance et touchera les péages. Lisea a apporté
près de la moitié des 7,8 milliards nécessaires à la construction de
la LGV, les administrations ont financé les 4 milliards restants.
Les PPP sont un moyen pour les administrations de financer des
projets d’investissement sans avoir à porter la dette à long terme
et ainsi gonfler le chiffre de la dette publique de la France.

9782340-024007_001-264.indd 196 13/03/2018 13:13


12. La dette publique

* L’État n’est pas un agent


économique comme les autres
Si le problème de la dette des administrations se pose dans un
premier temps comme celui de la dette d’un individu ou d’une 197
entreprise, il faut vite rappeler que l’État a un statut singulier qui
rend la dette souveraine plus facile à gérer. L’État dispose d’un
pouvoir de contrainte sur les autres agents qui lui permet de les
ponctionner si besoin. D’une année à l’autre – en respectant les
règles de l’État de droit – les administrations peuvent augmenter
leurs prélèvements afin éventuellement de rembourser en urgence
la dette. Le cas de Chypre illustre cette possibilité : pour faire face
à la dette du pays, les dépôts bancaires supérieurs à 100 000 euros
ont subi une ponction. Bien entendu, l’État doit veiller à ce que ces
prélèvements ne soient pas contreproductifs, n’entravent pas l’élan
de la croissance, ne brisent pas la confiance dans les institutions,
n’entraînent pas de fuites massives de capitaux hors du pays.

Une croissance plus forte à travers les recettes supplémentaires


qu’elle engendre aide aussi l’État à gérer sa dette. Ces recettes
supplémentaires peuvent aider les administrations à dégager un
excédent et rembourser la dette aisément. L’État central et les
collectivités sont en charge de renforcer la croissance, en soutenant
l’innovation à l’échelle des territoires et au plan national, en
renforçant la qualité de l’éducation, en développant les synergies
entre acteurs de l’économie (clusters, pôles de compétitivité…).

Enfin, l’État peut – plus que les autres agents – influencer le coût
de sa dette (le taux d’intérêt) via la politique monétaire sous
réserve qu’il ait conservé sa souveraineté monétaire. Un État peut
aussi rassurer les créanciers sur sa capacité à rembourser dans les
conditions prévues, sur sa capacité à accroître sa prospérité, sur
l’efficacité de son système de prélèvement, le consentement de sa
population à payer l’impôt.

9782340-024007_001-264.indd 197 13/03/2018 13:13


Grandes questions d'économie du XXIe siècle

* Une dette ni odieuse, ni illégitime


La dette publique de la France est parfois qualifiée de dette odieuse
et/ou de dette illégitime. François Chesnais pour qui « la montée
198
de la dette a épousé le mouvement libéralisation financière »1
suggère qu’elle a d’abord été une bonne affaire pour les banques
créancières. En creux, git l’idée d’une conspiration de la finance
en vue de profiter des intérêts de la dette. C’est à elle que « profite
le système » à en croire A-J Holbecq et Ph Derudder2. Son origine
résidant dans la loi de janvier 1973 sur l’indépendance de la Banque
de France qui l’aurait empêché de monétiser la dette en accordant
des avances à taux zéro au Trésor public. La dette n’aurait pas été
contractée dans l’intérêt des citoyens mais dans celui du système
financier, un système naturellement désincarné et coupé de liens
avec les petits épargnants (par exemple par le canal de l’assurance-
vie). Durant la campagne présidentielle 2017, le candidat Jacques
Cheminade était partisan de sa légitime annulation au motif que
des intérêts abondants avaient déjà été payés par le contribuable
français.

Une dette « odieuse » est une dette contractée par un régime


despotique pour des objectifs éloignés des intérêts des citoyens
et de l’État-nation. Si le qualificatif peut convenir à la dette
contractée par certains régimes africains, il ne colle pas du tout
au cas français. Quant à la légitimité de cette dette, il faut, selon
nous, en rester à sa conformité avec les règles de l’État de droit
sous peine de laisser libre cours à toutes les contestations, comme
celles de la jeune génération qui pourrait trouver illégitime qu’une
partie des dépenses de protection sociale de l’ancienne génération
ait été financée par une dette dont ils héritent.

La dette publique de la France est la conséquence des politiques


économiques conduites depuis plus de quarante ans. Le personnel
politique a été choisi par les Français de manière démocratique.
Cette dette ne peut pas être opposée à la démocratie comme le
suggère ATTAC3 (Leur dette, notre démocratie). Les Français ont
choisi l’option des promesses de dépenses nouvelles et de baisses
d’impôts au détriment des propositions de rigueur budgétaire

1. Chesnais F., Les dettes illégitimes. Quand les banques font main basse sur les politiques publiques, Raison
d’Agir Editions, 2011, p.109.
2. Holbecq A.-J. et Derudder Ph., La dette publique, une affaire rentable. À qui profite le système ?, Éditions
Yves Michel, 3e éditions, 2015.
3. ATTAC est une Association pour la Taxation des Transactions fi nancières et pour l’Action Citoyenne,
elle a été fondée en 1988.

9782340-024007_001-264.indd 198 13/03/2018 13:13


12. La dette publique

portées par des responsables lors d’élections majeures (R. Barre,


F. Bayrou…). Comme le rappelle E. de La Boetie, on a le personnel
politique que l’on mérite.
199
* Bonne dette et mauvaise dette,
que dit la théorie ?
Le principe de l’endettement d’un État ne saurait être rejeté. Des
chocs comme les guerres, comme les crises financières peuvent
nécessiter des interventions d’urgence, financées par la dette.
En régime plus ordinaire, l’endettement se justifie également,
en théorie, pour financer des projets d’investissement destinés à
améliorer la productivité globale de l’économie.

En théorie économique en effet, l’endettement doit être réservé


au financement de dépenses d’investissement pour lesquelles un
effet de levier (selon l’expression de Wicksell) peut être attendu.
La rentabilité du projet d’investissement pour la collectivité est
supérieure à son coût (les intérêts versés). Les projets d’infrastruc-
tures (routes, voies ferrées, infrastructures de télécommunications,
équipements liés à l’énergie…), les dépenses d’enseignements, de
recherches sont ici concernées. Des démonstrations théoriques
de l’efficacité de ces dépenses sont fournies par exemple par les
théories de la croissance endogène. Ces théories mettent l’accent
sur le stock de capital technique et humain, alimenté par des
dépenses publiques et également, sur le fait, que les externalités
positives issues de la formation (modèle de Lucas de 1988) et de
la recherche (modèle d’Aghion et Howitt de 1991) sont à l’origine
de la croissance économique.

Au contraire, en théorie économique, le financement des dépenses


sociales par la dette n’est pas justifié faute d’un retour sur investis-
sement pour la génération future. Elles ont vocation à être financé
uniquement par les prélèvements obligatoires. La France déroge
depuis plusieurs années à cette règle en finançant une partie de ses
dépenses de sécurité sociale par la dette. Il s’agit là, très clairement,
d’une mauvaise dette.

9782340-024007_001-264.indd 199 13/03/2018 13:13


Grandes questions d'économie du XXIe siècle

# Mise en perspective de la montée


de la dette de la France depuis 1973
200
* Les relances budgétaires
La dette publique héritée de la Seconde Guerre mondiale a été
amortie par la combinaison d’une forte croissance et d’une inflation
soutenue. Sous la Cinquième République, la dette atteint un point
bas en 1972 à 8,8 % du PIB (voir graphique 12-2). À partir de 1973,
le ratio entame une hausse qui, par-delà de courtes phases de stabi-
lisation, se poursuit jusqu’à nos jours. Le facteur déclenchant des
difficultés intervient en octobre 1973 à travers les conséquences
durables du premier choc pétrolier1. Le ralentissement du rythme
de la croissance est à l’origine d’une montée du chômage que
l’on croit à l’époque conjoncturelle. Les autorités apportent une
réponse via le déficit budgétaire. En 1975, sous l’autorité du Premier
ministre Jacques Chirac, les dépenses budgétaires progressent en
valeur nominale de 27,7 % (252,38 milliards en 1974 à 322,39 en
1975) alors que les recettes n’augmentent – toujours en valeurs
nominales – que de 4,6 %.

Graphique 12.1 – Solde budgétaire brut


des administrations publiques en France entre 1958 et 2016

Source : INSEE.

1. Le 6 octobre 1973 l’Egypte et la Syrie déclenchent simultanément une offensive militaire surprise contre
Israël dans le but de reprendre les territoires occupés par l’État hébreu depuis la guerre des Six Jours de
1967. Ils ont pris pour date le jour du Yom Kippour la plus grande fête religieuse juive. Quelques jours
plus tard pour accroître la pression sur l’Occident l’OPAEP décide de réduire ses exportations de pétrole
de 5 % par mois jusqu’au retrait d’Israël des territoires palestiniens. L’organisation décrète par ailleurs
un embargo pétrolier envers Israël et les pays considérés comme ses alliés. La tension monte sur les
marchés, les cours du marché libre s’envolent littéralement. En décembre 1973 à Téhéran l’Organisation
des pays exportateurs de pétrole porte le prix du baril de référence à 11,65 dollars.

9782340-024007_001-264.indd 200 13/03/2018 13:13


12. La dette publique

Le graphique 12.1 ci-dessus montre aussi un creusement du déficit


budgétaire à partir de 1981. Il résulte de l’application d’une relance
budgétaire par le gouvernement socialiste de P. Mauroy. Plusieurs
mesures emblématiques ont des conséquences budgétaires signi- 201
ficatives : l’augmentation de 25 % des allocations familiales le
1er juillet et l’élévation le même jour du minimum vieillesse de
20 % ; des réformes fiscales favorables aux bas revenus (accrois-
sement de la progressivité de l’impôt sur le revenu, institution de
l’impôt sur les grandes fortunes, baisse de la TVA sur les produits
de première nécessité [de 7 % à 5,5 %]) ; des créations d’emplois
dans les administrations et les hôpitaux (50 000 en 1981, plus du
double en 1982), etc.

Le tournant de la rigueur est associé, en mars 1983, au déploiement


d’une politique monétaire rigoureuse et d’une politique de désin-
dexation salariale afin d’opérer une désinflation compétitive. Si les
dévaluations compétitives n’ont plus cours (à l’exception de celle
de 1986), en revanche la pratique du déficit budgétaire perdure
dans les années 1980.

* Rigueur monétaire, souplesse budgétaire


et nouvelle progression de la dette publique
À partir du début des années 1980, la pratique d’un déficit struc-
turel s’impose dans le contexte international de libéralisation. Le
choix de la désinflation compétitive s’accompagne d’un contrôle
plus strict de l’offre de monnaie par la Banque de France. Dès lors
– conformément à la grille de lecture de Sargent et Wallace1 – les
autorités n’ont pas d’autres solutions que la dette pour financer le
déficit budgétaire. Pour ces auteurs, en présence d’une politique
budgétaire accommodante, l’indépendance de la Banque centrale
et la discipline monétaire qui lui est associée débouchent sur un
accroissement de la dette. La politique budgétaire apparaît alors
comme le dernier instrument efficace de soutien de la demande.

L’accumulation de déficits financés par l’endettement n’a pas les


effets redoutés par les théories d’inspiration libérale. À la fin des
années 1980, elle n’a pas entraîné une hausse des taux d’intérêt
(effets d’éviction). Au contraire, la période a été marquée par une
réduction assez forte des taux. Pas de trace, non plus, d’un freinage

1. Sargent T., Wallace N., 1981. « Some unpleasant monetarist arithmetic », Federal Reserve Bank of
Minneapolis Quarterly Review, 5, pp. 1-17.

9782340-024007_001-264.indd 201 13/03/2018 13:13


Grandes questions d'économie du XXIe siècle

de la consommation tel que le redoute Barro (raisonnement en


termes d’équivalence ricardienne1). Quant aux risques d’un excès
de dette publique, ils sont – à l’époque – très peu évoqués.
202
La rigueur dans le contrôle de l’off re de monnaie est renforcée de
la loi sur l’indépendance de la Banque de France d’août 1993. Le
déficit budgétaire persistant est toujours financé par la progression
de l’endettement. Les gouvernements ne réforment pas suffi-
samment un système d’État providence qui devait tenir compte
de l’accroissement de l’espérance de vie.

Au début des années 1990, la hausse de la dette s’accélère en


raison du net ralentissement de la croissance. Les gouvernements
Bérégovoy et Balladur laissent jouer les stabilisateurs automa-
tiques de la conjoncture. Par la suite, de 1996 à 2002, le ratio reste
curieusement stable à la limite de 60 %, norme à respecter dans le
cadre de la marche vers la monnaie unique européenne. La relance
des privatisations par le gouvernement Balladur à partir de 1993,
si elle est officiellement justifiée par un « nécessaire » désenga-
gement de l’État de la sphère productive dans un environnement
de mobilité financière internationale croissante, soulage de fait
les finances publiques. Les privatisations se poursuivent à un
rythme relativement régulier par-delà les alternances politiques :
BNP, Rhône-Poulenc (1993) ; Usinor-Sacilor, Péchiney (1995) ;
AGF, Renault (1996) ; Thomson-CSF, Bull (1997) ; GAN (1998) ;
Air France (2002) ; Gaz de France (privatisation partielle), EDF
(privatisation partielle) (2005) ; SNCM, ASF, APPR, Sanef (2006).

Pendant la crise des subprimes les stabilisateurs automatiques de


la conjoncture sont de nouveau à l’œuvre et creusent un déficit qui
dépasse les 7 % en 2009 et 2010 et n’est ensuite réduit que très
graduellement. Ce déficit a été financé par l’endettement, ce qui a
entraîné une nouvelle progression rapide du ratio d’endettement
comme le montre le graphique ci-dessous.

1. Dans un régime budgétaire dit ricardien (les opérateurs pensent que le déficit budgétaire sera compensé
par un excédent équivalent à l’avenir), les ménages peuvent, sous certaines hypothèses, répondre
immédiatement au déficit par le développement d’une épargne supplémentaire, destinée à compenser
une future hausse des impôts. La démonstration de Barro (1974) repose sur des hypothèses particu-
lièrement restrictives : anticipations rationnelles, altruisme intergénérationnel et équilibre initial de
plein emploi (ce qui pose un gros problème de cohérence par rapport à la justification du déficit).

9782340-024007_001-264.indd 202 13/03/2018 13:13


12. La dette publique

Graphique 12.2 – Dette/PIB entre 1958 et 2016

203

Source : INSEE.

* La construction européenne et les


discussions sur la pertinence des normes
de bonne gestion des finances publiques
En Europe la réflexion autour de l’équilibre budgétaire et le contrôle
de la dette débute véritablement avec le projet de création d’une
monnaie unique dont la gestion pose d’emblée la question de la
coordination des politiques budgétaires nationales. Le Traité de
Maastricht, signé le 7 février 1992, après un accord conclu lors
du Conseil européen de décembre 1991, contient des critères de
convergence vers l’euro qui se réfèrent aux finances publiques
et expriment l’attachement des responsables européens à leur
équilibre. Deux normes sont mises en avant : le déficit budgétaire
brut ne doit pas être supérieur à 3 % du PIB et la dette publique
ne doit pas être supérieure à 60 % du PIB.

La règle des 3 % a été reprise dans le Pacte de Stabilité et de Croissance


(Traité d’Amsterdam 1997). Un dispositif de sanctions était censé la
crédibiliser (dépôts non productifs d’intérêt voire amendes jamais
prononcées même lorsqu’elles paraissaient s’imposer).

Le 3 mai 1998, lorsque onze pays sont officiellement qualifiés


pour l’euro parmi les quinze de l’Union européenne on observe
que l’Italie et la Belgique sont retenues alors que ces États avaient
un ratio d’endettement très supérieur à 60 %. Une interprétation
politique du respect des critères de convergence prévaut (garder deux
membres fondateurs de la Communauté Économique Européenne).
D’emblée la crédibilité des normes est entamée ! Au début des
années 2000 – dans un contexte récessif né de l’éclatement de la

9782340-024007_001-264.indd 203 13/03/2018 13:13


Grandes questions d'économie du XXIe siècle

bulle des nouvelles technologies – l’Allemagne, la France et d’autres


pays européens plus petits, ont présenté des déficits supérieurs au
3 % sans qu’aucune sanction prévue par le Traité ne soit appliquée.
204
Par la suite la norme de 3 % a été relâchée. Les termes de l’assou-
plissement intervenu au printemps 2005 illustrent les ambiguïtés
du sujet. Dans un souci de crédibilité, le chiff re de 3 % a été
conservé comme référence mais les possibilités de dépassement
« exceptionnel et temporaire » ont été élargies (interprétation plus
souple de la récession, prise en compte de « facteurs pertinents »
comme le fait que le déficit puisse résulter pour partie de dépenses
d’investissement ou de dépenses liées à la réforme du système des
pensions de retraite).

Depuis le dialogue engagé par la France (ou d’autres pays) avec


Bruxelles, les mêmes scènes sont rejouées. L’attachement à la
norme de 3 % de déficit est rappelé par tous les acteurs avec insis-
tance. Un objectif ambitieux de retour à l’équilibre est d’abord
fi xé, souvent fondé sur des hypothèses de croissance irréaliste.
L’objectif est – peu à peu relâché – par les responsables gouverne-
mentaux arguant d’un contexte macroéconomique défavorable.
Les instances européennes manifestent leur inquiétude puis se
satisfont de nouveaux engagements pour le futur.

# Comparaisons internationales
La France se situe dans la moyenne haute pour la dette mais n’a pas
réussi à réduire son ratio sur la période récente contrairement à d’autres
économies auxquelles elle peut être raisonnablement comparée, en
particulier sa voisine l’Allemagne.

* La France, dans la « moyenne haute »


pour la dette publique
Le graphique ci-dessous compare l’évolution du ratio d’endettement
de la France à celui de la moyenne des pays de la zone euro, des
États-Unis et du Japon entre 2000 et 2016. Le ratio français était
inférieur à la moyenne de la zone euro jusqu’en 2010, depuis il lui
est nettement supérieur. La France a, moins que d’autres pays de
la zone, profité du répit offert par la politique monétaire de la BCE
pour rééquilibrer ses finances publiques depuis 2011. La politique

9782340-024007_001-264.indd 204 13/03/2018 13:13


12. La dette publique

monétaire dite de « quantative easing » a permis de baisser les


taux d’intérêt sur les titres de la dette des pays de la zone euro et
de réduire la charge du service de la dette.
205
Graphique 12.3 – Ratio d’endettement en France, du Japon,
des États-Unis et dans la zone euro entre 2000 et 2016

Source : INSEE et reconstitution de l'auteur.

Le ratio français est inférieur à celui de pays du sud de la zone


euro parfois pris dans la tourmente de la crise de la dette de
2010-2011(Grèce, Portugal) mais supérieur à celui de pays du nord
de la zone (Allemagne, Pays-Bas, Irlande, Suède) à l’exception de
la Belgique qui vit avec un haut niveau de dette depuis plusieurs
décennies.

Graphique 12.4 – Ratio d’endettement


dans plusieurs pays de la zone euro entre 1995 et 2016

Source : INSEE et reconstitution de l'auteur.

9782340-024007_001-264.indd 205 13/03/2018 13:13


Grandes questions d'économie du XXIe siècle

Graphique 12.5 – Ratio d’endettement


dans plusieurs pays de la zone euro entre 2008 et 2016

206

Source : INSEE et reconstitution de l'auteur.

* Le cas des États-Unis, un plafonnement


de la dette inefficace
La trajectoire de la dette américaine se confond assez largement
avec celle de la France. Au début des années 2000, le ratio d’endet-
tement reste contenu (en 2001 il est de 53,7 %). Le déficit fédéral
avait été réduit par le gouvernement Clinton et des excédents
étaient même apparus à la fin du second mandat, portés par le cycle
de croissance des NTIC. Dans les années 2000, les États-Unis ont
financé par la dette publique un grand programme de dépenses
militaires en liaison avec la guerre en Irak et la sécurité nationale.
Mais l’endettement américain s’est surtout accéléré pour répondre
aux conséquences de la crise des subprimes. Le gouvernement
Obama a mis en œuvre une relance budgétaire de grande ampleur,
équivalant à 5,7 % du PIB de 2009 (baisses d’impôts, infrastruc-
tures…). La dette a, par la suite, progressé légèrement jusqu’à
atteindre 104 % du PIB.

Aux États-Unis, la hausse du plafond de la dette doit être votée


par le Congrès. Ce système (qui existe depuis 1917) ne conduit pas,
pour autant, les gouvernements américains à plus de discipline
budgétaire. Le pays vit ainsi au rythme des débats sur l’élévation du
plafond, il se trouve alors au bord de « la falaise fiscale ». Les débats
permettent à chaque fois de prendre conscience de l’ampleur de la
dette, donnent lieu à certains marchandages – baisses de dépenses
fédérales en contrepartie d’une élévation de plafond – mais au final
la dette progresse car l’ensemble des protagonistes savent bien que
la continuité des paiements ne saurait être entravée.

9782340-024007_001-264.indd 206 13/03/2018 13:13


12. La dette publique

Aux regards de ses caractéristiques structurelles, le pays conserve,


selon nous, une importante capacité d’endettement. Les marchés
de capitaux américains sont profonds et liquides, le pays reste
émetteur de la monnaie internationale et conserve son leadership 207
économique. Les actifs en dollars ont toujours un statut de valeur
refuge à l’échelle planétaire.

* La crise grecque
À la suite de son entrée dans l’euro en 2001, la Grèce a connu un
fort dynamisme, porté par une baisse des taux d’intérêt. Elle avait
l’une des plus fortes croissances au sein de la zone euro : 4,7 %
en moyenne entre 2000 et 2007. Mais le pays a été le premier à
plonger dans la crise de la dette souveraine fin 2009-début 2010.
Que s’est-il passé ?

Le modèle social adopté par la Grèce après la chute de la dictature


des colonels, en 1974, était fondé sur le maintien d’un secteur public
au large périmètre. Le pays compte quelque 800 000 fonctionnaires
civils sur une population active de 5 millions de personnes. Les
années fastes, jusqu’en 2007, n’ont pas permis de résorber la dette
publique et, surtout, n’ont pas empêché que l’économie souterraine
continue de prospérer, notamment dans les services et le tourisme.
On estime entre 20 % et 30 % du PIB du pays le poids de l’économie
grise. L’État n’a pas su imposer ses prérogatives fiscales.

En octobre 2009, peu après les élections, le nouveau premier ministre


Georges Papandréou (PASOK) fait la lumière sur les chiffres du
déficit budgétaire grec. Il n’est pas de 6 %, comme annoncé par
le précédent gouvernement, mais de 12,7 % du PIB pour 2009.
Ces nouveaux chiffres obligent les agences de notation à abaisser
la note qu’elles attribuent à la Grèce. Sur les marchés financiers
certains opérateurs paniquent, d’autres en profitent pour spéculer
sur le défaut grec via des produits financiers complexes (les CDS à
nu, interdits depuis en Europe). Les détenteurs de titres de dette,
eux, cherchent à les revendre. Les prix de ces bons s’effondrent,
montrant le peu de confiance qu’inspire alors la Grèce. Le pays a
de plus en plus de difficulté pour se refinancer. Et finalement, le
23 avril 2010, la Grèce déclare qu’elle n’a plus les moyens d’honorer
ses engagements. Elle fait appel à une aide internationale.

En 2010, les banques européennes ne sont pas tout à fait remises de


la faillite de Lehman Brothers en septembre 2008. Les potentielles
pertes que représente le non-remboursement par la Grèce d’une

9782340-024007_001-264.indd 207 13/03/2018 13:13


Grandes questions d'économie du XXIe siècle

partie de sa dette font craindre de nouvelles faillites bancaires dans


la zone euro, en Grèce mais aussi en France et en Allemagne. Fin
2009, selon la Banque des règlements internationaux (BRI), les
208 banques françaises étaient celles qui détenaient le plus de dette
grecque dans leur portefeuille (57 milliards d’euros), devant les
banques allemandes (34 milliards d’euros). La crise grecque fait
paniquer les marchés financiers qui, par ricochet, doutent aussi
de pays comme l’Espagne, l’Italie, le Portugal, l’Irlande… Les taux
souverains augmentent au sein de l’ensemble de la zone.

Le premier plan d’aide a cherché à transférer la dette grecque des


mains du privé à celles du public. Le FMI et les États de la zone euro
prêtent 110 milliards d’euros à la Grèce et la BCE se met à racheter
des titres de dette grecque pour éviter que leur prix ne s’effondre.
Le deuxième plan d’aide (octobre 2011) prévoit une nouvelle aide
de 130 milliards d’euros, une annulation de 107 milliards d’euros
de ce que doit la Grèce aux créanciers privés (banques, fonds,
etc.), et une recapitalisation des banques grecques. À la suite de
ces deux plans, la dette grecque a donc changé de structure. Elle
était constituée à 80 % par des bons du trésor échangeables sur les
marchés financiers. Aujourd’hui, ils ne représentent que 29 % de la
dette (soit 91.6 milliards d’euros, dont 27 milliards détenus par la
BCE) le reste (221,05 milliards d’euros) est constitué de prêts. Par
cette transformation, ce sont des entités publiques (FMI, BCE, FESF,
États de la zone euro) qui ont remplacé les investisseurs privés,
puisqu’ils détiennent maintenant 75 % de la dette grecque. Ainsi,
la dette grecque a été collectivisée, et le marché des obligations
souveraines grecques « exfiltré » des marchés financiers classiques.
Depuis la question de la dette grecque a encore plus une dimension
politique puisque les institutions internationales conditionnent
les nouvelles aides (tranches) à la réalisation de certains objectifs
macro-économiques. La dette grecque atteint aujourd’hui 177 %
de son PIB : ce niveau élevé rend inévitable de nouveau épisode de
tensions entre le gouvernement grec et ses payeurs institutionnels.

9782340-024007_001-264.indd 208 13/03/2018 13:13


12. La dette publique

# La soutenabilité de la dette :
peut-on définir un seuil de danger
en matière de dette publique ?
209

* Le 60 % du Traité de Maastricht
Le Traité de Maastricht, signé en février 1992, définit un calen-
drier de l’intégration monétaire européenne et cinq critères de
convergence à respecter par les États qui souhaitent intégrer l’euro.
Parmi ces critères, deux concernent les finances publiques. Le solde
budgétaire brut des administrations doit être inférieur à 3 % du
PIB. La dette publique ne doit pas être supérieure à 60 % du PIB.
Ce chiff re a dès lors été érigé en totem ! Certains pays ont fait
beaucoup d’efforts, voire de contorsions comptables pour rester
sous ce seuil, en premier lieu la France et l’Allemagne.

Il a été dit très tôt, à juste titre, que le 60 % n’avait pas le moindre
fondement théorique. Dans le contexte de l’époque ce ratio paraissait
raisonnable et accessible aux pays pressentis. Lorsqu’en 1998 il a
été constaté que la Belgique et l’Italie, pays fondateurs de la CEE
ne respectaient ce critère de dette (117 % pour le Belgique, 115 %
pour l’Italie), une logique politique a immédiatement prévalu pour
maintenir ces pays dans le projet de monnaie unique. Le critère
était, de fait, décrédibilisé. En 1999 au moment du passage à l’euro,
au sein de la zone, le ratio atteignait en moyenne 71,8 %. En 2001,
la Grèce a rejoint l’euro avec un ratio de 103,7 %.

Ce chiffre de 60 % n’avait ni justification théorique, ni justification


empirique. Il n’avait d’ailleurs pas été repris dans le Traité d’Ams-
terdam (Pacte de Stabilité et de Croissance, signé en octobre 1997).

* Le 90 % de Reinhart et Rogoff
Dans un article célébré, puis contesté, C. Reinhart et K. Rogoff1
étudient les conséquences de la dette publique sur l’activité pour
un échantillon de 20 pays développés2 entre 1946 et 2009. En deçà
de 90 %, la dette publique n’a aucune influence significative sur
les performances d’inflation et de croissance. Par contre au-delà
de 90 % le taux de croissance médian deviendrait inférieur de 1 %
à ce qu’il est pour un endettement plus faible. Au-delà de 90 %,

1. Reinhart C., Rogoff K., « Growth in a Time of Debt », American Economic Review, 100 (2), 2010, pp. 573-578.
2. Les pays pris en compte sont les suivants, Australie, Autriche, Belgique, Canada, Danemark, Finlande,
France, Allemagne, Grèce, Irlande, Italie, Japon, Pays-Bas, Nouvelle-Zélande, Norvège, Portugal, Espagne,
Suède, Royaume-Uni, États-Unis.

9782340-024007_001-264.indd 209 13/03/2018 13:13


Grandes questions d'économie du XXIe siècle

la croissance moyenne des pays observés passerait de près de 3 %


à seulement –0,1 %. Ces auteurs ont ainsi porté l’idée que 90 %
pouvait constituer une limite à ne pas dépasser.
210
Sur la période 1945-2009, A. Minea et A. Parent1 confirment le
« statut critique » des 90 % de dette. Quand le ratio d’endettement
passe au-dessus de ce seuil, ils observent une baisse de la croissance
moyenne mais de moindre ampleur que Reinhart et Rogoff (la chute
n’est pas de 3 % mais seulement de 0,5 %). L’étude des chercheurs
français montre que la relation entre le niveau de dette publique et
la croissance d’une économie n’est pas linéaire. À certains moments,
un accroissement de dette publique est associé à moins de crois-
sance, mais à d’autres moments, davantage de dette publique est
associé à plus de croissance économique. Ils montrent que, sur la
période 1945-2009, les pays qui dépassent un ratio de 115 % de
dette sur PIB n’ont pas en moyenne un taux de croissance inférieur
à ceux qui sont entre 60 et 90 %. Ils rappellent aussi que sur la
période 1880-2009, des pays comme la France, l’Italie, le Canada
ou le Royaume-Uni ont connu des périodes d’endettements publics
supérieures à 130 % et une croissance économique soutenue.

* L’éclairage de l’équation
de soutenabilité de la dette
L’équation de soutenabilité de la dette est établie à partir de
la contrainte budgétaire inter-temporelle des administrations
publiques, c’est-à-dire la nécessité d’assurer la continuité des
paiements. Elle met clairement en exergue les facteurs qui
influencent l’évolution du ratio d’endettement (dette/PIB). Il
dépend de quatre facteurs.

Un solde budgétaire primaire2 (SBP) négatif accroît le ratio. Les


administrations expriment alors de nouveaux besoins, indépen-
damment du service des intérêts de la dette.

Le fait que le taux d’intérêt nominal moyen servi sur la dette (i)
progresse, accroît le ratio d’endettement. Ici, en régime de basse
inflation, le seuil de 5 % est considéré comme dangereux, il préci-
piterait l’économie vers des difficultés de paiements.

1. Minea A., Parent A., « Is high debt always harmful to economic growth ? Reinhart and Rogoff and some
complexe nonlinearities. », Working Paper, CERDI, 2012.
2. Le calcul du solde budgétaire primaire n’intègre pas les intérêts de la dette dans les dépenses des
administrations publiques (soit environ 40 milliards d’euros pour 2015)

9782340-024007_001-264.indd 210 13/03/2018 13:13


12. La dette publique

Par contre deux variables réduisent le ratio d’endettement : le taux


de croissance du PIB réel de l’économie (noté g dans l’équation) et
le taux d’inflation (noté p). L’inflation joue donc un rôle important
dans la dynamique du ratio, elle est susceptible d’amortir la dette. 211

§ Dette · t § SBP · t  1  i . § Dette · t  1


¨ ¸ ¨ ¸ ¨ ¸
© PIB ¹ © PIB ¹ 1  g  p © PIB ¹

Si l’équation permet d’expliciter les facteurs qui influencent la


dynamique du ratio, son message sur la soutenabilité est relati-
vement pauvre. Elle ne permet pas d’identifier un seuil de danger,
ni de fonder une norme à ne pas dépasser. Selon cette équation,
dès lors que le ratio d’endettement progresse (même s’il est faible
en niveau) et que rien ne change au sein de l’économie (les quatre
variables conservent les mêmes valeurs), la dette est sur une trajec-
toire insoutenable et le pays sera, à terme, en défaut de paiement.
Dans cette perspective, on évoque une soutenabilité forte lorsqu’à
long terme les recettes s’ajustent pleinement aux dépenses ce qui
implique une évolution stable du ratio déficit/PIB et un excédent
primaire en hausse pour compenser l’accroissement de la charge
de la dette. On évoque une soutenabilité faible lorsque les recettes
s’ajustent partiellement aux dépenses, le ratio déficit/PIB n’est pas
stable. La gestion de la dette consiste justement à faire évoluer les
facteurs afin de la stabiliser ou de la réduire. L’État a, en théorie,
prise sur ces quatre variables qui sont autant de voies d’ajustements.

Si l’on pose que le taux d’intérêt réel (r) est égal au taux d’intérêt
nominal moins le taux d’inflation constaté ou anticipé (r =i-p) et
si le solde budgétaire primaire est équilibré, le fait que le taux de
croissance g soit supérieur au taux d’intérêt réel servi sur la dette
amorti celle-ci. Cette condition n’est pas très exigeante, elle est en
tout cas remplie, pour la France, en 2016.

§ Dette · t § SBP · t  r . § Dette · t  1


¨ ¸ ¨ ¸ ¨ ¸
© PIB ¹ © PIB ¹ g © PIB ¹

En principe, l’État peut rétablir l’équilibre budgétaire, soit en


augmentant les prélèvements soit en réduisant les dépenses.
L’État peut aussi chercher à rassurer ses créanciers pour obtenir
de meilleurs taux, l’état peut dynamiser la croissance potentielle
ou revoir ses objectifs d’inflation.

9782340-024007_001-264.indd 211 13/03/2018 13:13


Grandes questions d'économie du XXIe siècle

Quelles prises la France a-t-elle sur ces variables macro-économiques ?

La France a renoncé à sa souveraineté monétaire depuis qu’elle


212 fait partie de la zone euro. La Banque Centrale Européenne a pour
objectif une stabilité des prix définie comme une hausse de l’indice
harmonisé des prix à la consommation proche de 2 % par an sur
le moyen terme.

La France présente les caractéristiques structurelles d’une économie


qui peine à accroître sa croissance potentielle (forte part des
services dans la valeur ajoutée, concurrence des pays émergents,
vieillissement de la population…). Les innovations dans le domaine
du numérique sont nombreuses mais ont peu d’effets sur la crois-
sance du PIB.

Les conditions de taux sont liées à l’environnement monétaire


international (une situation de surliquidité contribue ainsi à abaisser
les taux…) et à la conduite de la politique budgétaire nationale. Des
annonces d’attachement à l’équilibre budgétaire, de réduction de
dépenses sont de nature à rassurer les créanciers. Mais rétablir la
situation budgétaire est délicat, revenir trop brutalement à l’équi-
libre, ou faire émerger un excédent, peut entraver la croissance en
provoquant un effondrement de la demande globale. Il s’agit pour
les responsables d’emprunter un chemin de crête.

* Des signaux de marché totalement bruités


Une façon d’aborder la question de la soutenabilité est aussi de
rappeler que c’est aux créanciers de dire le vrai en matière d’éva-
luation du risque. Les marchés financiers analysent le risque
souverain par plusieurs canaux. Le diagnostic des agences de
notation qui par une analyse macroéconomique (croissance, stabilité
institutionnelle, efficacité des systèmes fiscaux…) évaluent ce
risque. Le prix des assurances contre le risque de défaut des états
(CDS) renseigne aussi sur l’intensité du risque. Plus la prime est
grande plus le risque de défaut est censé être élevé. Enfin le niveau
des taux des bons du Trésor renseigne sur le risque souverain.

Au cours des dernières années ces informations de marché ont


été bruitées. La qualité du travail des agences de notation a été
contestée. Tour à tour des conflits d’intérêts et des erreurs d’analyse
ont été pointés. La formation des prix sur le marché des CDS
a été perturbée par l’épisode du défaut partiel de la Grèce. Les
assurances ne se sont pas activées alors qu’une annulation de la

9782340-024007_001-264.indd 212 13/03/2018 13:13


12. La dette publique

dette à hauteur de 75 % a eu lieu… Dès lors quel est l’intérêt de ce


type d’assurance ? Enfin à travers les politiques monétaires non
conventionnelles, le gonflement des bilans des Banques centrales
a eu pour effet de réduire artificiellement les taux sur les dettes 213
souveraines afin d’aider les États à gérer un niveau de dette élevé.
Une bulle obligataire s’est ainsi formée.

# Voies d’amortissement
de la dette publique

* Qui va payer ?
Les ménages devinent que la dette publique devra être payée…
mais par qui ?

On comprend que certains veuillent se raccrocher à l’idée, a priori


simple et pratique, d’une annulation de la dette. L’idée, en réalité,
est simpliste car même si elle est répudiée, la dette continue de peser
sur l’économie. Elle devrait alors être absorbée par les créanciers
des États. Les compagnies d’assurances, les banques, les fonds de
pensions qui détiennent ses titres seraient alors dans l’incapacité
d’assurer la continuité des paiements en matière d’assurance vie,
de produits d’épargne, de compléments de retraite… L’économie
serait précipitée vers une crise financière de grande ampleur dont
tous les agents seraient – au final – victimes.

La dette est forcément – en toutes circonstances – payée ! Reste


à savoir par qui ?

Par les contribuables si l’État décide d’instaurer un impôt spécial


dette ! Mais quels contribuables ? Quelle est l’assiette de ce prélè-
vement exceptionnel ?

Par les contribuables toujours, et les bénéficiaires de dépenses des


administrations si un ajustement budgétaire est recherché pour
rembourser la dette dans les conditions prévues. Les administra-
tions cherchent alors à faire apparaître un excédent budgétaire,
leurs recettes sont supérieures à leurs dépenses. Là encore, quels
agents sont sollicités pour faire un effort ? Les entreprises à travers
les cotisations sociales patronales ou l’impôt sur les sociétés ? Les
ménages à travers la CSG, l’impôt sur le revenu ou la TVA ? Quelles
dépenses se trouvent diminuées, les dépenses sociales, celles des
collectivités… ?

9782340-024007_001-264.indd 213 13/03/2018 13:13


Grandes questions d'économie du XXIe siècle

Par les victimes de l’inflation si la dette est monétisée (financée


par une création de monnaie qui tire le niveau des prix à la hausse).
La dette est remboursée par l’émission d’une monnaie supplé-
214 mentaire, dont le pouvoir d’achat en marchandises et en services
baisse car le niveau de la production reste le même, tous les prix
progressent, l’inflation est à l’œuvre. Tous ceux qui ne parviennent
pas à obtenir une indexation de leurs revenus (retraite, salaire…)
voient leur pouvoir d’achat baisser. Les créanciers sont eux aussi
au rang des victimes puisqu’ils se voient servis un taux d’intérêt
réel négatif, ils sont remboursés avec une monnaie qui a perdu une
partie de son pouvoir d’achat.

* Les intérêts de la dette publique


La question du paiement des intérêts de la dette publique est
polémique. Lors de la campagne pour les élections présidentielles de
2017, Jacques Cheminade mettait en avant le fait que la somme des
intérêts servis depuis les années 1980 dépassait les 1000 milliards.
Il alimentait l’idée, assez répandue, qu’une partie de la dette avait
déjà été payée, déjà été remboursée et que – par conséquent – la
France pouvait répudier sa dette.

Entre 1980 et 2015, en effet, les intérêts versés représentent 1290


milliards d’euros. Mais pourquoi ne pas aller plus loin et faire
la somme des intérêts versés depuis le XIXe siècle ? Le total des
remboursements d’un prêt à long terme représente le double de
la somme perçue au départ. Ceci est vrai pour toute relation de
crédit, en particulier des crédits immobiliers des ménages. On peut
malgré tout convenir que la dette publique française a contribué
à alimenter les profits d’institutions financières qui devraient, le
moment venu, contribuer à l’effort d’amortissement de la dette
de la France.

Le graphique ci-dessous fait apparaître le montant annuel des


intérêts versés sous la Cinquième République. La valeur nominale
a progressé depuis le milieu des années 1970 jusqu’à atteindre 56
milliards d’euros en 2008. Depuis à la faveur d’un mouvement
prolongé de baisse des taux d’intérêt sur les titres publics, elle baisse
assez nettement. En 2015, les intérêts de la dette représentaient
43,8 milliards d’euros.

9782340-024007_001-264.indd 214 13/03/2018 13:13


12. La dette publique

Graphique 12.6 – Montant annuel des intérêts servis


sur la dette publique de la France entre 1959 et 2015

215

Source : Insee.

Considérer la part des intérêts dans le total des dépenses donne


une autre perspective. La part a baissé de 3,4 % en 1959 à 1,25 %
en 1973, puis progressé assez régulièrement jusqu’à 6,24 % en
1997. Depuis du fait de la baisse du niveau des taux d’intérêt, elle
baisse et n’atteint plus que 3,5 % en 2015.

Graphique 12.7 – Part des intérêts de la dette dans le total des dépenses
des administrations publiques en France entre 1959 et 2015

Source : Insee

Ces données sur les taux d’intérêt permettent de bien comprendre


en quoi la politique monétaire de la BCE à aider les États à gérer
leur endettement depuis 2012.

9782340-024007_001-264.indd 215 13/03/2018 13:13


Grandes questions d'économie du XXIe siècle

* Rééquilibrer le solde primaire


Depuis 2012, le bas niveau des taux d’intérêt a permis d’aider la
France à contenir la hausse de son ratio d’endettement. Le taux
216
d’intérêt réel servi sur la dette est voisin de zéro alors que la crois-
sance économique est positive (1,2 % en 2015, 1,1 % en 2016, 1,9 %
en 2017). Ce rapport est favorable à l’amortissement de la dette si
l’on se réfère à l’équation de soutenabilité. L’enjeu est ici pour la
France de chercher à maintenir des taux bas en rassurant les créan-
ciers sur son attachement de long terme à l’équilibre des finances
publiques (la barre des 3 % déficit, le sérieux budgétaire…). Il lui
faut espérer que la BCE n’aura pas une stratégie de normalisation
de sa politique monétaire trop rapide. Et bien entendu le pays doit
chercher à soutenir sa croissance par des mesures structurelles
(R&D, éducation…). La question de la compétitivité mérite aussi
d’être posée, une croissance des exportations serait de nature à
soutenir la demande globale.

Le problème français réside dans la permanence d’un solde primaire


négatif : le solde budgétaire brut est de –76,5 milliards d’euros et
les intérêts de la dette sont de 43,8 milliards. Indépendamment
du paiement des intérêts la France génère de nouveaux besoins
de financement à hauteur de 32,7 milliards. La mère de toutes
les batailles est ici ! Si le solde primaire était à l’équilibre le ratio
d’endettement diminuerait assez rapidement (avec les mêmes
niveaux de croissance et de taux d’intérêt réels), à un rythme voisin
de la baisse observée en Allemagne (voir graphique 12-4). Aussi ce
rééquilibrage est-il crucial.

Il y a différentes façons de l’obtenir mais qui posent toutes la


question de la capacité du pays à accepter des réformes :
◊ Identifier des réductions de dépenses publiques qui freinent
le moins possible la croissance (poursuite des réformes de la
politique du logement, accentuation des restructurations des
administrations publiques, etc.).
◊ Accroître les prélèvements (en supprimant certaines niches
fiscales peu efficaces, en fiscalisant les firmes multinationales
(dix milliards de manque à gagner par an, etc.).

9782340-024007_001-264.indd 216 13/03/2018 13:13


12. La dette publique

# Conclusion
Dans un contexte de ralentissement durable de la croissance, la gestion
de la dette publique va constituer – pour les économies avancées – une 217
contrainte forte durant les prochaines années. Elle est porteuse de
tensions fortes en matière de redistribution de la richesse, entre les
générations et entre les « catégories sociales ». La politique monétaire
des années 2010 à travers des mesures non conventionnelles a abaissé
artificiellement les taux nominaux sur les bons du Trésor. La question
d’un accompagnement monétaire de la dette publique continuera à
se poser soit par le biais de taux nominaux bas, soit par le biais d’une
sortie inflationniste qui réduirait les taux d’intérêt réels sur la dette.
La politique monétaire est en mesure de donner du temps aux États
pour opérer des réformes structurelles visant à équilibrer les soldes
primaires et accroître à long terme la croissance potentielle.

9782340-024007_001-264.indd 217 13/03/2018 13:13


9782340-024007_001-264.indd 218 13/03/2018 13:13
13 L’ubérisation

Le terme « ubérisation » est un néologisme apparu, depuis 2015,


dans la francophonie. Le terme fait référence à l’entreprise Uber,
basée à San Francisco, qui a porté aux États-Unis depuis 2009 un
service disruptif de voiture de tourisme avec chauffeur entrant
directement en concurrence avec les taxis. Par extension, le
terme « ubérisation » renvoie au développement des plateformes
de services, symbole de l’économie numérique et d’un nouveau
rapport à l’activité professionnelle.

En décembre 2016, le conflit entre la plateforme Uber et « ses »


chauffeurs français a attiré l’attention sur des bouleversements
récents des frontières du salariat. Certains entrevoient sa dispa-
rition programmée, d’autres la possible émergence de formes
hybrides de salariat. Par extension, l’économie numérique pourrait
aussi déplacer les frontières de la firme en modifiant les équilibres
entre internalisation et externalisation des activités, les rapports
des travailleurs à l’opportunisme et à la hiérarchie.

Les débats contemporains associent l’ubérisation au développement


du travail indépendant et du free-lance ainsi qu’à la montée en
puissance du secteur collaboratif. Pour certains, l’ubérisation
annoncerait une façon différente de vivre son activité profession-
nelle en termes de rythme et de sens. Ces débats mettent aussi
en avant l’extraordinaire dynamisme de l’innovation dans le
numérique. Ils suggèrent la promesse de nouveaux gisements de
croissance économique portés par les plateformes. Cette destruction
créatrice serait porteuse d’une expansion de la création de valeur
et d’un nouveau cycle de prospérité.

L’ubérisation est à l’œuvre dans de nombreux secteurs de l’éco-


nomie. En 2016, 20 % des Français étaient déjà clients1 d’une
ou plusieurs de ces plateformes. Les domaines pionniers ont
été l’hôtellerie (Airbnb, Booking.com…) et les transports de
personnes (Uber, BlaBlaCar, Drivy…). Les secteurs des petits travaux

1. Selon un sondage OpinionWay réalisé pour Capgemini Consulting.

9782340-024007_001-264.indd 219 13/03/2018 13:13


Grandes questions d'économie du XXIe siècle

de rénovation et du dépannage en bâtiment sont maintenant


concernés : en France, ce sont en 2016 des plateformes spéci-
fiques – Hellocasa, Mesdépanneurs, AlloMarcel, mon-bricoleur-
220 a-domicile, allovoisins – mais l’on pressent l’arrivée proche de
grands groupes, par exemple une version française d’Amazon
Home Services. La garde d’enfants (Kinougarde, Maminou…), la
garde d’animaux, le nettoyage, le marketing (Creads, Doz, eYeka),
l’éducation (SuperProf…) sont aussi concernés par le phénomène.
L’ubérisation commence aussi à toucher les secteurs économiques
les plus traditionnels, et réputés intouchables, comme le droit, où
certaines plateformes comme Cma-Justice et Weclaim proposent
la mise en relation entre « experts en droit » et justiciables.

L’objectif de ce chapitre est d’offrir une analyse exploratoire des


enjeux économiques de l’ubérisation. Nous mobiliserons comme
fil conducteur la théorie des coûts de transactions de Coase1 et
Williamson2 afin d’analyser dans quelle mesure les nouvelles
technologies pourraient déplacer les frontières de la firme. Nous
éclairons aussi le modèle économique des plateformes. La course
à la taille, l’incertitude sur les profits futurs et l’euphorie autour
de l’ubérisation font planer la menace d’une crise financière dont
les plateformes seraient l’épicentre. La référence au modèle de
Minsky et la prise en compte du déroulement des précédentes
crises financières rendent ce scénario prévisible. Nous exprimerons
enfin des doutes quant à la force de l’impact de l’ubérisation sur
la croissance du PIB.

# Le retour en force
du travail non salarié
Le fonctionnement d’un service ubérisé comprend généralement des
éléments communs caractéristiques qui permettent de le distinguer
du reste de l’économie numérique :
◊ existence d’une plateforme numérique de mise en relation entre
client et prestataire de services ;
◊ réactivité maximisée par la mise en relation immédiate du client
et du prestataire en raison d’une proximité des localisations
géographiques ;

1. Coase R., « The Nature of the Firm », Economica, vol.4, 16, 1937, pp. 386-405.
2. Williamson O., Market and Hierarchies. Analysis and Antitrust Implications ; New York, The Free Press,
1975.

9782340-024007_001-264.indd 220 13/03/2018 13:13


13. L’ubérisation

◊ paiement du client à la plateforme qui prélève en générale une


commission mais la rémunération peut être différente (% des
sommes perçues en cas d’accord amiable sur la plateforme de
services juridiques Weclaim par exemple) ; 221
◊ paiement du prestataire par la plateforme ;
◊ existence d’un système d’évaluation croisée de la qualité des parties
prenantes : le client évalue la qualité du service reçu et le prestataire
évalue le comportement du client.
Ce système de plateforme numérique est innovant à plusieurs titres.
Il off re notamment la possibilité de repenser la place du travail
dans la vie de certaines personnes. Les prestataires de service sur
les plateformes numériques sont des travailleurs indépendants. Ils
sont attachés à une organisation libre de leur temps de travail. Ils se
rendent disponibles par voie numérique, sur une zone géographique
bien précise, a priori aux moments qui leur conviennent, limitent leur
engagement à ce qui leur paraît nécessaire ou opportun.

Au départ, ces prestations apportent un complément de rémunération.


Les individus semblent avoir fait le choix d’un mode de vie innovant,
ils peuvent être attachés à des valeurs collaboratives. Sur le thème du
transport de personnes par exemple, une application comme BlaBlaCar
vise aussi à intensifier les liens sociaux et à réduire les émissions de
CO2. Certaines prestations de service sont radicalement innovantes
(livraison de repas concoctés par des restaurants) alors que d’autres
constituaient auparavant un travail informel (dissimulé ou délivré
dans le cadre de relations de bon voisinage à l’instar des services de
garderie ou de petit artisanat).

Quoi qu’il en soit, l’ubérisation marque officiellement le grand retour


du travail non salarié dont la part dans l’emploi total diminuait
depuis de longues décennies. En effet, le travail non salarié a connu
un déclin régulier jusqu’en 2008 en France à la faveur notamment de
la baisse de l’emploi agricole : 20 % des emplois étaient non salariés
en 1970, 9 % en 2003 et 8 % en 2008.

Depuis 2008, la part de l’emploi salarié progresse, de nouveau, jusqu’à


atteindre 11,5 % en 2015, et près de 12 % en 2016. La progression
s’explique par le développement des autoentreprises et par l’appa-
rition de prestataires de services d’un nouveau type… Les indépen-
dants sont aujourd’hui un peu plus de 3 millions en France. Parmi
ces 3 millions environ 800 000 sont des free-lance c’est parmi eux

9782340-024007_001-264.indd 221 13/03/2018 13:13


Grandes questions d'économie du XXIe siècle

que l’on trouve les prestataires Uber. En France, le nombre d’actifs


employés est d’environ 25 millions et la population active d’environ
28,5 millions de personnes.
222

# Un salariat déguisé ?
Le conflit entre la plateforme Uber et « ses » chauffeurs français, en
décembre 2016, a montré que le modèle initial d’un revenu d’appoint
avait été détourné dans certains secteurs surtout le transport et
la livraison. Certains individus travaillent à temps plein pour une
plateforme. Une dépendance économique vis-à-vis de l’application
mobile a pu être identifiée. Les chauffeurs apparaissaient engagés
dans une « lutte sociale » très habituelle pour leurs rémunérations
et leurs conditions de travail. Mais le conflit a porté dans le débat
politique des enjeux spécifiques de « l’ubérisation » du travail, liés
à la flexibilité et a permis de mieux caractériser un travailleur de
type Uber. Le conflit a, aussi, mis en lumière les conséquences de
l’ubérisation sur les secteurs traditionnels de l’économie soumis à
une concurrence déloyale par beaucoup d’aspects.

Les caractéristiques de ce service sont, en premier lieu, les gains finan-


ciers importants liés à l’évitement des contraintes réglementaires et
législatives de la concurrence classique (l’acquisition d’une licence de
taxi dans le cadre d’Uber, les cotisations sociales pour l’artisanat…),
mais aussi la quasi-instantanéité, la mutualisation de ressources et
la faible part d’infrastructures lourdes (bureaux, services supports,
outillage) dans le coût du service, ainsi que la maîtrise des outils
numériques.

Ici se pose la question d’une concurrence perçue comme déloyale par


les opérateurs traditionnels. Certains pays ont choisi de protéger
les secteurs traditionnels : Uber a ainsi été interdit en Espagne, aux
Pays-Bas ou encore en Inde. Un réel vide apparaît en matière de
couverture sociale en cas d’accident pour le livreur à vélo par exemple.
Le même vide apparaît en matière de protections du « consommateur »
et de contrôles de la qualité pour des prestations porteuses de dangers
(travaux d’électricité…).

Dans le domaine des sciences juridiques, une question clé est de


savoir si l’ubérisation déplace les frontières du salariat. Peut-on,
ou non, établir l’existence d’une relation salariée entre certaines
plateformes et les prestataires de services ? Dans certains secteurs

9782340-024007_001-264.indd 222 13/03/2018 13:13


13. L’ubérisation

l’approche collaborative et la prestation ponctuelle en complément


de revenus ont fait place à un travail régulier, parfois à plein temps
et à une relation d’exclusivité avec la plateforme (Uber, Deliveroo,
Alloresto…). Une forme de travail hybride apparaît ici. 223

Un point clé est aujourd’hui pour les secteurs du transport de personnes


et de la livraison, l’établissement d’une relation salarié, c’est-à-dire
un salariat déguisé. La définition du contrat de travail pose qu’il
s’agit d’une convention par laquelle une personne physique met à la
disposition d’une autre personne son activité dans certaines condi-
tions, en contrepartie d’une rémunération. Le lien de subordination
apparaît comme le principal critère du contrat de travail, il implique
de donner des ordres dans le cadre d’un rapport hiérarchique, de
préciser un dispositif de sanctions.

Dans le cas de la livraison, la réalité du salariat déguisé apparaît.


Un contrat d’exclusivité peut être signé, des ordres sont donnés
concernant les périmètres d’activité, les zones géographiques. Des
dispositifs de sanctions existent : ils peuvent conduire à une radiation
de la plateforme. Les contrats impliquent des obligations de tenues
vestimentaires et disponibilités sectorielles.

La question du traitement de certaines externalités mérite aussi


d’être abordée. Le livreur en mouvement, en tenue et disponible, est
en action même s’il ne réalise pas une course. Il fait de la publicité
et participe de la capacité de la plateforme à pouvoir off rir un délai
de livraison rapide. Quelle contrepartie lui est accordée pour cette
disponibilité ?

Établir la réalité d’une relation salariée est délicat en droit. La démons-


tration doit s’appuyer sur un faisceau d’indices (subordination, tenue
de travail, ordres donnés, sanctions de la plateforme…) qui semble
clairement réunis dans le cas des plateformes de livraison. Bien
entendu, tous les domaines ne sont pas concernés.

9782340-024007_001-264.indd 223 13/03/2018 13:13


Grandes questions d'économie du XXIe siècle

# Vers un déplacement
des frontières de la firme ?
224 Les plateformes de services questionnent incontestablement la
frontière de la firme et permettent d’imaginer une firme qui exter-
naliserait beaucoup plus d’activités non stratégiques à une myriade
de prestataires qui seraient dans son environnement (livraison,
nettoyage, marketing, analyse juridique de base…). La technique
permet d’imaginer une firme plus agile, connectée – à faible coût – à
des réseaux de prestataires.

En 1937, dans une contribution célèbre « The Nature of the Firm »,


Ronald Coase analyse la firme comme un mode de coordination
alternatif au marché pour assurer la coordination économique. Au
sein du marché, la coordination des comportements individuels se
réalise à travers le système de prix, dans la firme la coordination est de
nature administrative. La « frontière de la firme » – le partage marché-
firme – est déterminée par l’importance des coûts de transaction. La
coordination par les prix entraîne en effet des coûts (de négociation
des contrats pour chaque transaction). La firme se caractérise par
une coordination hiérarchique, elle supprime le système de prix pour
allouer les ressources. La question est ici de savoir quels impacts
les nouvelles technologies et notamment les plateformes ont sur
les coûts de transaction ? Dans quelle mesure les réduisent-elles et
permettent-elles d’imaginer une firme au périmètre restreint ? Par
extension, les nouvelles technologies peuvent avoir un impact chez
Williamson. Dans les années 1970, Oliver Williamson, chef de file
du courant néo-institutionnaliste, prolonge les travaux de Coase
en systématisant l’analyse de ces coûts de transaction. L’existence
d’institutions comme la firme se justifie lorsque le marché présente
une efficience insuffisante en raison de l’importance des coûts de
transaction ou de comportements opportunistes. L’opportunisme
consiste à ne pas respecter les engagements pris dans le cadre d’une
relation marchande. Les nouvelles technologies immunisent-elles
pour partie la firme contre l’opportunisme en raison de la possibilité
de retrouver quasi immédiatement de nouveaux prestataires ?

L’histoire économique montre que les frontières de la firme peuvent


évoluer à travers le temps. De ce point de vue, l’ubérisation présente
des caractéristiques communes avec le putting-out system qui carac-
térise les débuts du capitalisme industriel à partir du XVIe siècle

9782340-024007_001-264.indd 224 13/03/2018 13:13


13. L’ubérisation

(Mantoux, 1906). La proto-industrialisation se fonde sur deux


systèmes légèrement différents : les Domestic System et Putting-out
System.
225
Du XVIe siècle à la première Révolution industrielle, le Domestic System
est une relation commerciale entre les agriculteurs et les négociants.
Les paysans fournissaient un travail ouvrier lors de périodes de faible
activité agricole. Les négociants leur passaient des commandes (de
tissus ou de petits objets) que les paysans réalisaient à domicile, le
plus souvent avec leurs propres outils. Dans le modèle du putting-
out, le négociant apporte les consommations intermédiaires. Dans le
secteur textile, les individus (les familles) travaillent à la maison en
tant que sous-traitants pour une entreprise qui apporte les matières
premières (fil, boutons…) et le débouché. Le négociant met en œuvre
une stratégie d’externalisation. La même grande liberté apparente
d’organisation du travail est laissée aux prestataires mais leur dépen-
dance vis-à-vis des négociants apparaît grande.

Le choix de l’internalisation a été fait par la suite durant la Révolution


industrielle pour mieux contrôler la force de travail (selon les marxistes)
et de gagner en efficacité (pour les institutionnalistes dans la lignée
de R. Coase). L’entrepreneur ne pouvait plus prendre certains risques
liés à l’irrégularité du travail et au pouvoir de négociation grandissant
des travailleurs.

# La course à la taille, les dangers du


modèle économiques des plateformes
Dans le domaine des plateformes numériques de services les barrières
à l’entrée résident moins dans la technologie que dans les externalités
de réseaux associées à une diff usion et une utilisation massive de
la plateforme. L’enjeu est d’acquérir, le plus vite possible, un grand
nombre de prestataires et d’utilisateurs afin d’accroître l’attractivité
de la marque, de tendre vers un service plus rapide. Sur ces bases, de
gros investissements doivent être réalisés en marketing en particulier
digital (référencement, bandeaux, leads…). Il faut accroître la visibilité
et la notoriété de la plateforme, coûte que coûte ! Ces dépenses ont été
fatales à la startup belge Take Eat Easy qui proposait des livraisons
de repas à domicile. L’entreprise, pourtant en croissance, n’a pas pu
lever de fonds pour poursuivre sa course en avant. Le pari risqué, pour

9782340-024007_001-264.indd 225 13/03/2018 13:13


Grandes questions d'économie du XXIe siècle

les investisseurs, réside dans l’acquisition d’une position dominante


qui permettra plus tard de passer des hausses de prix et d’accroître
les marges.
226
Nous mettons en avant deux cas pour illustrer le modèle économique
des grandes plateformes et la stratégie de course à la taille ; celui bien
connu en France de BlaBlaCar et celui de Didi, le discret concurrent
chinois d’Uber.

* Une réussite française dans


la mondialisation : BlaBlaCar
BlaBlaCar apparaît aujourd’hui comme le premier site de covoi-
turage longue distance au monde, l’entreprise peut revendiquer
près de 40 millions de « covoitureurs » à l’échelle planétaire. Cette
aventure entrepreneuriale débute en 2004 lorsque Vincent Caron
achète le nom de domaine Covoiturage.fr et met en ligne la première
version du site Covoiturage.fr. L’application conserve d’ailleurs ce
nom jusqu’en avril 2013. Covoiturage.fr est un service qui met en
relation des conducteurs et des passagers souhaitant partager un
trajet et les frais associés. Les conducteurs publient leurs places
disponibles et les passagers les achètent en ligne, sur des trajets
dont la distance moyenne est de 330 kilomètres.

En 2006, le nom de domaine Covoiturage.fr est revendu à Frédéric


Mazzella (formé à l’ENS-physique, passionné d’informatique et
passé par l’Université de Stanford). Il fonde alors la société Comuto,
éditrice de tous les sites du réseau Covoiturage. En août 2008,
Comuto lance la version web 2.0 communautaire de Covoiturage.
fr qui ajoute un système d’avis communautaire caractéristique de
l’ubérisation contemporaine (portraits, biographies…). Covoiturage.
fr se positionne alors comme un site communautaire fondé sur des
valeurs collaboratives de socialisation et de protection de l’environ-
nement. Dès 2008, Covoiturage.fr devient le site de covoiturage le
plus utilisé en France et multiplie les initiatives afin de renforcer
sa visibilité. En 2009, Comuto lance une version espagnole du site,
sous le nom Comuto.es (rebaptisée BlaBlaCar.es en 2012). Durant
toute l’année 2009, Comuto a inauguré de nombreux nouveaux
services innovants de covoiturage pour plusieurs sociétés et
mairies : la MAIF, IKEA, Vinci Park, RATP, Carrefour, la ville de
Montrouge et une trentaine d’autres services de covoiturage. La
société lance une application mobile sur iPhone en décembre 2009
et sur Android en février 2010.

9782340-024007_001-264.indd 226 13/03/2018 13:13


13. L’ubérisation

En juin 2010, Comuto lève 1,25 million d’euros auprès du fonds


ISAI (spécialisé dans l’internet) pour renforcer son développement
en Europe. En juin 2011, une nouvelle levée de 7,5 millions d’euros
soutien une rapide expansion internationale. Entre juillet 2012 et 227
novembre 2012, Comuto lance BlaBlaCar en Italie, au Portugal, en
Pologne, aux Pays-Bas, au Luxembourg et en Belgique. En avril 2013,
BlaBlaCar se lance en Allemagne.

Outre ses « investissements horizontaux » à l’international, l’entre-


prise cherche à innover. En juin 2012, Covoiturage.fr lance un
service de réservation en ligne : les passagers achètent désormais
leur trajet en ligne et le site reverse l’argent au conducteur après
le trajet. Le service avait été testé depuis 2011 dans l’Ouest de la
France. Covoiturage.fr cherche ainsi à réduire l’opportunisme, à
fiabiliser la pratique du covoiturage en renforçant l’engagement
entre les conducteurs et les passagers. Le service de réservation
en ligne permet ainsi à Covoiturage.fr de faire évoluer son modèle
économique et de dégager des revenus sur les transactions effec-
tuées entre conducteurs et passagers. Pour donner des ordres de
grandeurs, en 2016, les frais facturés par BlaBlaCar, à la charge du
passager, sont de 1,60 euro par trajet pour les trajets de 8 euros
et moins, de 20 % pour les trajets entre 8 euros et 20,80 euros et
dégressifs au-delà.

Le service français Covoiturage.fr a été renommé BlaBlaCar le


29 avril 2013 afin d’uniformiser le réseau. Fin 2013, BlaBlaCar
réunit 5 millions de membres et affirme transporter un million
de personnes par mois, sur un total de 10 pays. En janvier 2014,
BlaBlaCar devient également présent en Ukraine et en Russie qui
tend à devenir un marché très significatif pour l’entreprise mais
où la concurrence émerge à travers le site russe BeepCar. Début
juillet 2014, BlaBlaCar lève 100 millions de dollars auprès d’Index
Ventures avec, cette fois, pour objectif de devenir leader mondial
du covoiturage. En 2015, la société revendique déjà 20 millions
d’utilisateurs. En janvier 2015, BlaBlaCar s’ouvre vers l’Inde. En
avril 2015, la société poursuit son expansion internationale avec le
rachat de son concurrent allemand Carpooling et de Autohop, une
société hongroise présente aussi en Roumanie et dans les Balkans.
Le même mois, BlaBlaCar rachète Rides, une startup mexicaine.
Cela lui permet de s’implanter aussi au Mexique, d’employer 290
personnes sur 3 continents et de compter 20 millions d’utilisateurs

9782340-024007_001-264.indd 227 13/03/2018 13:13


Grandes questions d'économie du XXIe siècle

membres dans 19 pays. Le 18 mai 2015, BlaBlaCar signe un accord


d’assistance avec la société Axa pour assurer ses utilisateurs lors
de leur déplacement. En septembre 2015, BlaBlaCar annonce une
228 nouvelle levée de fonds de 200 millions de dollars dans le but
d’accélérer son déploiement dans les pays d’Amérique latine et
d’Asie. En octobre 2016, BlablaCar signe un partenariat en France
avec la compagnie GoEuro basée sur une rémunération à la mise
en relation. En avril 2017, le service de covoiturage annonce le
lancement d’un nouveau service : la location de voiture sur la
longue durée.

* Le cas du chinois Didi, concurrent d’Uber


L’entreprise chinoise Didi apparaît aujourd’hui comme le grand
concurrent mondial d’Uber. Didi Chuxing est la principale appli-
cation de réservation de véhicules de transport avec chauffeur en
Chine. Née à Pékin en 2012, l’entreprise a très vite tissé sa toile et
diversifié ses activités à travers son système de covoiturage (Hitch),
ses bus privés (Didi Bus, Didi Minibus), la location de voiture (Didi
car rental) et un nouveau service de vélo partagés.

Didi a réussi à éliminer la concurrence en fusionnant avec l’appli-


cation chinoise concurrente Kuaidi Dache et surtout en rachetant
les activités chinoises d’Uber durant l’été 2016 mettant ainsi un
terme à une féroce bataille. L’affrontement avait coûté cher aux
deux entreprises, qui en réalité subventionnaient les courses des
usagers et les chauffeurs. De guerre lasse, Uber – qui brûlait un
milliard de dollars par an en Chine – décide d’arrêter les frais.

Didi affirme contrôler, en 2016, 90 % du marché des VTC dans le


pays. L’entreprise assure également compter 400 millions d’usagers.
Didi a depuis encore renforcé son monopole en Chine, ses applica-
tions enregistrant 20 millions de courses quotidiennes.

Didi a levé près de 5,5 milliards de dollars en avril 2017 pour


financer son développement international. D’après une étude du
Wall Street Journal cette opération en fait la startup la mieux
valorisée d’Asie (50 milliards de dollars), devant le fabricant chinois
de smartphones Xiaomi (46 milliards de dollars), alors qu’Uber
(qui n’est pas coté en Bourse) est valorisée 68 milliards de dollars.

Cependant, comme Uber, son objectif est, à terme, de dominer


le marché mondial. Didi ne s’en cache pas. Et l’entreprise avait
ainsi pris en 2015 des participations dans l’application indienne

9782340-024007_001-264.indd 228 13/03/2018 13:13


13. L’ubérisation

de réservation de taxis Ola, ainsi que dans l’américain Lyft, rival


d’Uber aux États-Unis. Mais Didi vise également l’Amérique du
Sud, avec un investissement de 100 millions de dollars réalisé en
janvier dans le service brésilien de VTC «99». 229

Didi est confronté au durcissement des réglementations dans les


plus grandes métropoles, dont Pékin et Shanghai, qui tendent à
limiter le nombre de chauffeurs potentiels. Une problématique
de contingentement des professions de taxi et de VTC que l’on
retrouve en France. Cette sensibilité aux normes constitue une
vraie fragilité du business modèle.

Par ailleurs, Didi Chuxing, comme ses concurrents, mise sur


l’intelligence artificielle, qui pourrait à terme permettre le dévelop-
pement de voitures autonomes : l’entreprise a inauguré début mars
un laboratoire de recherche consacré à ces technologies en pleine
Silicon Valley aux États-Unis. Didi va aff ronter la concurrence
des GAFA, des constructeurs automobiles en et des transporteurs
car tous les acteurs de l’écosystème de la mobilité planchent sur
l’intelligence artificielle et la mise au point de véhicules autonomes
avec l’objectif remporter cette course technologique.

Le modèle économique des plateformes est fondé sur une course à


la taille et présente des risques illustrés par nos deux cas. L’enjeu
est d’acquérir, le plus vite possible, un grand nombre de prestataires
et d’utilisateurs afin d’accroître l’attractivité de la plateforme et
la notoriété de la marque. Le modèle absorbe beaucoup de cash
et nécessite des levées de fonds significatives pour financer une
croissance externe et des dépenses de marketing. Les barrières à
l’entrée résident dans les externalités de réseaux liées aux nombres
d’utilisateurs. Acquérir une position dominante sur un marché
laisse entrevoir une forte profitabilité future. Les années 2010 sont
marquées une euphorie autour des plateformes et plus largement
du numérique. Le modèle canonique de Minsky d’analyse des crises
financières et le déroulement des précédentes crises financières
présentés par Kindleberger ou encore Bonin et Blancheton1 rendent
le scénario d’une crise financière dans le numérique plausible. Les
risques politiques liés à l’interdiction ou l’encadrement de l’activité
des plateformes montrent la réalité d’une incertitude sur leurs
profits futurs.

1. Bonin H., Blancheton B., Crises et batailles boursières en France aux XXe et XXIe siècles, Genève, Droz, 2017.

9782340-024007_001-264.indd 229 13/03/2018 13:13


Grandes questions d'économie du XXIe siècle

# Ubérisation et freinage
de la croissance potentielle
des économies
230
L’impact des plateformes sur la croissance potentielle de l’économie
s’inscrit tout d’abord dans des débats plus larges sur les liens entre
tertiarisation et croissance ainsi que sur l’existence d’une stagnation
séculaire. Les activités de services sont régulièrement désignées
comme vecteur d’une forte croissance future. Dans les années 1990
les Nouvelles Technologies de l’Information et de la Communication
(NTIC) incarnaient les mêmes promesses d’une nouvelle économie
plus dynamique. Aujourd’hui, l’économie numérique continue d’être
loué pour son caractère innovant source de croissance et de création
d’emplois.

Cette capacité des services à délivrer une croissance forte apparaît


comme un mythe. Au contraire leur contribution aux gains de
productivité paraît réduite et leur développement est un facteur
explicatif du ralentissement du rythme de l’activité dans les pays
les plus prospères.

Cette idée a pourtant des racines historiques profondes. Pour les


fondateurs de l’économie classique, les services – qu’il s’agisse de
ceux du comédien, du domestique, du médecin… – ont en commun
d’être exclus de la sphère de la production, et le développement de ces
activités qualifiées d’« improductives » (quelle que soit au demeurant
leur contribution au progrès de la civilisation) s’inscrit dans le chemi-
nement inéluctable vers l’état stationnaire, qui constitue à leurs yeux
l’aboutissement ultime du processus d’industrialisation. Plus tard
l’approche néo-classique, au contraire, récuse ce clivage brutal entre
« productif » et « improductif » (réintégrant de plein droit les services
au même titre que les produits dans la sphère productive). Mais elle
rejoint par une voie différente la thèse d’un tarissement progressif
des sources de la croissance au fur et à mesure de la tertiarisation des
économies avancées, en plaçant au centre de l’analyse la question de
la dynamique sectorielle des gains de productivité. Cette vision est
partagée par des auteurs aussi différents que William Baumol, Daniel
Bell, Jean Fourastié, qui évoque « l’envahissement » de l’économie
par le tertiaire et dénonce comme « une erreur particulièrement
pernicieuse » toute notion d’un développement fondé sur le tertiaire.

9782340-024007_001-264.indd 230 13/03/2018 13:13


13. L’ubérisation

Le modèle commun à ces auteurs tire toute sa force de sa simplicité.


Il repose sur deux prémisses. Premièrement les gains de productivité
dans le secteur tertiaire sont faibles ou nuls, et en tout cas négligeables
au regard de ceux de l’industrie et même de l’agriculture. L’exemple 231
préféré de Baumol est celui du quintette de musiciens (qui ne va
évidemment pas accroître sa productivité en forçant le tempo !),
et celui de Fourastié la coupe de cheveux. Le coiffeur d’aujourd’hui
ne tond pas plus vite qu’il y a un siècle, et le coiffeur de Chicago
n’est pas plus productif que celui de Calcutta. Deuxièmement la
demande de services tend à augmenter à long terme, sous l’effet de
la progression des revenus et de la saturation progressive des besoins
en biens alimentaires, puis en biens industriels, conformément aux
lois d’Engel. De là découlent directement plusieurs implications
majeures. D’abord, le prix relatif des services par rapport à celui des
biens industriels est appelé à augmenter indéfiniment, puisqu’il
reflète nécessairement à long terme l’écart des gains de productivité
respectifs entre les deux secteurs. En second lieu, la part des services
dans la valeur de la consommation totale ne peut que s’accroître à
long terme, puisque l’effet prix et l’effet volume jouent simultanément
dans le même sens, et, du même coup, la part des services ne peut
qu’augmenter au sein de la valeur totale du PIB et surtout au sein de
l’emploi total. Enfin, l’alourdissement du poids relatif du secteur à
faibles gains de productivité ne peut que freiner mécaniquement le
rythme de la croissance globale, par un effet de structure, c’est-à-dire
indépendamment de tout fléchissement des gains de productivité au
sein de chaque secteur envisagé séparément.

Aujourd’hui, le numérique et l’ubérisation présentent un caractère


radicalement innovant au sens de J. Schumpeter1 (1939). Ces plate-
formes améliorent incontestablement la qualité de vie des agents
économiques en offrant un service presque en temps réel (des livraisons
plus rapides, plus diversifiées…), en ôtant certaines contraintes liées
au déplacement (le chauffeur BlaBlaCar qui passe devant le domicile
au lieu d’avoir à rejoindre une gare), en permettant une élévation de
la qualité du service grâce à l’historique de l’évaluation du prestataire
sur la plateforme.

1. Schumpeter J.-A., Business Cycles : A Theoretical, Historical, and Statistical Analysis of the Capitalist Process ;
New York and London, McGraw-Hill Book Company, 1939.

9782340-024007_001-264.indd 231 13/03/2018 13:13


Grandes questions d'économie du XXIe siècle

Mais les conséquences de l’ubérisation sur la croissance du PIB


paraissent faibles (Artus et Virard1). Ce processus de destruction
créatrice engendre bien sûr une création de valeur mais celle-ci est
232 limitée. Ainsi l’entreprise BlaBlaCar avait un chiff re d’affaires de
seulement 10 millions d’euros en 2014 et compte 450 salariés, ce
qui est peu au regard de sa notoriété et de la rupture qu’elle incarne.

Beaucoup de plateformes concernent l’économie collaborative, elle


offre à l’individu qui n’est pas un centre de profit un supplément de
rémunération qui peut avoir des effets d’entraînement mais elle en
détruit par ailleurs en réduisant l’activité des opérateurs traditionnels
(SNCF, taxi, artisanat…) dont la contribution à la création de valeur
ajoutée est freinée.

# Conclusion
L’ubérisation va connaître un développement dans les prochaines
années. Nous avons mobilisé la théorie des coûts de transaction de
R. Coase et O. Williamson afin de voir dans quelle mesure les plate-
formes de services pourraient incarner une rupture historique en
matière de frontière du salariat et pourraient déplacer les frontières de
la firme. Nous éclairons aussi le modèle économique des plateformes
à travers les cas de deux entreprises (BlaBlaCar et Didi). L’enjeu est
d’acquérir, le plus vite possible, un grand nombre de prestataires et
d’utilisateurs afin d’accroître l’attractivité de la marque et de tendre
vers un service plus rapide. Cette course à la taille, l’incertitude sur les
profits futurs des plateformes et l’euphorie qui entoure l’ubérisation
font planer la menace d’une crise financière dont les plateformes
seraient l’épicentre. Nous mettons enfin en avant le faible impact
de l’ubérisation sur la croissance potentielle des économies dans la
lignée des travaux de Baumol2 sur la faible productivité des services.

1. Artus P., Virard M.-P., Croissance zéro. Comment éviter le chaos ?, Paris, Fayard, 2015.
2. Baumol W., « Macroeconomics of Unbalanced Growth : The Anatomy of Urban Crisis », The American
Economic Review, vol.57, n°3, 1967, pp. 415-426.

9782340-024007_001-264.indd 232 13/03/2018 13:13


Questions à Choix
Multiples, reçu
cinq sur cinq

1. La perspective d’une stagnation


séculaire

1.1. Chez Ricardo, l’horizon de l’état stationnaire peut être


repoussé grâce :
o Au libre échange
o À la hausse des salaires
o Au progrès technique
o Au soutien de la demande par l’État

1.2. Quels économistes partagent l’idée d’une possible


stagnation séculaire ?
o Frédéric Bastiat
o Joseph Schumpeter
o Alvin Hansen
o Robert Solow

1.3. Pour Robert Gordon, quels arguments expliquent la


stagnation de l’activité aux États-Unis ?
o L’essoufflement de l’innovation
o La hausse des inégalités de revenus
o L’instabilité institutionnelle

1.4. La contribution du secteur des services à la croissance


de la productivité globale est à long terme plus forte que
celle du secteur de l’industrie :
o Vrai
o Faux

9782340-024007_001-264.indd 233 13/03/2018 13:13


Grandes questions d'économie du XXIe siècle

1.5. Quelle période désigne l’expression « la longue stagnation »


désigne-t-elle ?
o 1846-1879
234 o 1873-1892
o 1945-1975

2. La mondialisation et son avenir

2.1. Quels arguments théoriques militent en faveur de la


libéralisation du commerce international :
o L’exploitation d’économies d’échelle
o Les vertus de la division internationale du travail
o La préservation de l’indépendance nationale

2.2. Dans quelles situations le protectionnisme est-il théori-


quement justifié ?
o La protection des industries naissantes
o La protection des services financiers
o La protection de l’agriculture biologique

2.3. La mobilité internationale des capitaux :


o Permet une plus large diversification des portefeuilles
o Réduit la vitesse de transmission des crises financières
o Améliore la liquidité des marchés financiers
o Accroît la volatilité des cours de change

2.4. D’après le trilemme de Rodrik, on ne peut observer


simultanément :
o Une hyper-mondialisation, un effacement des États-nations et
la démocratie politique
o Une hyper-mondialisation, des États-nations souverains et la
démocratie politique
o Une hyper-mondialisation, des États-nations souverains et un
effacement de la démocratie politique

2.5. Quels facteurs favorisent l’ouverture commerciale des


économies ?
o La hausse des droits de douanes
o Le développement du secteur des services
o La baisse des droits de douanes
o La baisse des coûts de transport

9782340-024007_001-264.indd 234 13/03/2018 13:13


Questions à Choix Multiples, reçu cinq sur cinq

3. Population mondiale et environnement


au XXIe siècle

3.1. Quelle est la population mondiale en 2017 ? 235


o 4,1 milliards
o 11,7 milliards
o 7,5 milliards
o 5,3 milliards

3.2. Quelle part de la population mondiale vit, aujourd’hui,


en zone urbaine ?
o 30 %
o 54 %
o 67 %

3.3. Selon Thomas Malthus, la population croît :


o De manière arithmétique
o De manière géométrique
o De manière algorithmique

3.4. Quelles difficultés pose le vieillissement de la population ?


o Le financement du risque de dépendance
o Un risque de ralentissement de la productivité globale de
l’économie
o Un risque de hausse du taux d’investissement

3.5. Quelle est aujourd’hui la plus grande agglomération


mondiale selon l’ONU ?
o Mexico
o Tokyo
o New York
o New Delhi

9782340-024007_001-264.indd 235 13/03/2018 13:13


Grandes questions d'économie du XXIe siècle

4. Les inégalités

4.1. En France le niveau de revenus qui définit la pauvreté


236 au seuil de 50 % était en 2014, pour une personne seule,
de :
o 567 euros
o 840 euros
o 1066 euros

4.2. La courbe de Kuznets met en relation :


o Les recettes fiscales et le taux de prélèvement
o Les inégalités de revenu et le niveau de pauvreté
o Les inégalités de revenu et le niveau de développement
o Les inégalités de patrimoine et le produit global

4.3. Par quels mécanismes la hausse des inégalités de revenus


freine-t-elle la croissance ?
o Un investissement insuffisant des ménages pauvres dans
l’éducation
o Une hausse des taux d’intérêt
o Un tassement de la consommation

4.4. Pour John Rawls, les inégalités de revenus se justifient


si :
o Elles soutiennent l’épargne intérieure
o Elles sont associées à des fonctions ouvertes au sein de l’économie
o Elles s’accompagnent d’une amélioration de la situation des
plus pauvres
o Elles contribuent à la stabilité sociale

4.5. Un impôt progressif est un impôt dont le taux marginal


est :
o Décroissant
o Croissant
o Constant

9782340-024007_001-264.indd 236 13/03/2018 13:13


Questions à Choix Multiples, reçu cinq sur cinq

5. La montée en puissance
de la Chine et de l’Inde

5.1. Quelles sont les fragilités actuelles de l’économie 237


chinoise ?
o Une monnaie surévaluée
o De fortes inégalités de revenus qui peuvent freiner la
consommation
o Un haut niveau de corruption

5.2. Quel PIB chinois est actuellement supérieur à celui des


États-Unis ?
o Le PIB global converti au taux de change courant
o Le PIB par habitant corrigé de la PPA
o Le PIB global converti au taux de change de PPA
o Le PIB par habitant en dollars courants

5.3. Quelles sont actuellement les fragilités de l’économie


indienne ?
o Une croissance forte
o De fortes inégalités de revenus
o Un haut niveau de pauvreté
o Une grande instabilité politique

5.4. En quelle année la stratégie d’ouverture de l’économie


chinoise a-t-elle débuté ?
o 1949
o 1978
o 2001
o 2008

5.5. Quels sont les points communs entre les économies


chinoise et indienne ?
o Un excédent courant
o Une croissance forte
o De fortes inégalités de revenus
o Un déficit courant

9782340-024007_001-264.indd 237 13/03/2018 13:13


Grandes questions d'économie du XXIe siècle

6. Le leadership des États-Unis

6.1. Quel est le rang mondial des États-Unis en termes de


238 population ?
o Premier rang
o Troisième rang
o Septième rang
o Neuvième rang

6.2. Quelles innovations ont été réalisées aux États-Unis ?


o L’ordinateur
o Le téléphone
o La vaccination
o L’imprimerie

6.3. Sur quels facteurs se fonde le leadership économique


des États-Unis ?
o L’innovation
o Un taux d’épargne des ménages élevé
o L’émission de la monnaie internationale

6.4. En quelle année la Fed (Banque centrale des États-Unis)


a-t-elle été fondée ?
o 1776
o 1792
o 1865
o 1913

6.5. Pour un pays, quels avantages offre le statut d’émetteur


de monnaie internationale ?
o Un relâchement de la contrainte de rééquilibrage du solde courant
o La quasi-absence de risque de change pour les entreprises
nationales
o Une plus forte épargne pour les ménages nationaux

9782340-024007_001-264.indd 238 13/03/2018 13:13


Questions à Choix Multiples, reçu cinq sur cinq

7. L’économie japonaise,
laboratoire du futur ?

7.1. Quelles sont les « trois flèches » constitutives des 239


Abenomics ?
o Une relance budgétaire
o Une réévaluation du yen
o Une politique monétaire accommodante
o Des réformes structurelles

7.2. En 2016, quelle part de la population japonaise avait


plus de 65 ans ?
o 11,9 %
o 19,1 %
o 26,9 %
o 34,3 %

7.3. À quel niveau s’élève le ratio d’endettement (Dette


publique/PIB) du Japon en 2016 ?
o 97 %
o 150 %
o 234 %
o 275 %

7.4. Au sein du toyotisme, que désigne le « Kanban » ?


o Un cercle de qualité
o un système d’information pour la gestion de la production afin
d’éviter toutes productions excessives
o Des petits boulots, mal payés

7.5. Quels facteurs ont précipité le Japon vers la stagnation


dans les années 1990 ?
o L’appréciation du yen
o La montée de protectionnisme
o Une crise financière d’envergure
o La baisse du taux d’épargne des ménages

9782340-024007_001-264.indd 239 13/03/2018 13:13


Grandes questions d'économie du XXIe siècle

8. L’Europe, entre intégration


et désintégration

240 8.1. Quels sont les coûts associés à un renoncement à la


souveraineté monétaire ?
o perte d’autonomie de la politique monétaire
o suppression des coûts de transaction associée aux opérations
de change
o perte de la possibilité d’absorber un déséquilibre externe par
le canal du change

8.2. Lequel de ces critères ne figure pas dans les critères de


convergence du Traité de Maastricht ?
o un solde budgétaire brut inférieur à 3 % du PIB
o un taux de chômage inférieur à 8 %
o un ratio d’endettement inférieur à 60 % du PIB

8.3. Sur quels principes la politique agricole commune


reposait-elle à l’origine ?
o la libre circulation des produits agricoles à l’intérieur de la
communauté européenne
o l’harmonisation des règles sanitaires et des normes techniques
o la définition de standards de qualité
o la mise en place d’une organisation commune de marché destinée
à garantir l’unité de prix au sein de la zone

8.4. Combien de pays sont actuellement (en 2018) membres


de la zone euro ?
o 15
o 19
o 27
o 28

8.5. La théorie des zones monétaires optimales étudie :


o l’opportunité pour un groupe de pays de former une union
monétaire
o l’opportunité pour un groupe de pays de former une union
politique
o l’opportunité pour un pays d’opérer une stabilisation monétaire

9782340-024007_001-264.indd 240 13/03/2018 13:13


Questions à Choix Multiples, reçu cinq sur cinq

9. Les déséquilibres internationaux

9.1. Le FEER est un taux de change effectif assurant :


o L’égalité des rendements des dépôts bancaires dans deux pays 241
différents
o La réalisation simultanée à moyen terme d’un équilibre interne
(la croissance potentielle) et d’un équilibre externe (la position
du solde courant est soutenable)
o L’égalisation du pouvoir d’achat relatif des deux monnaies en
marchandises et en services
o La réalisation simultanée de la PTI et de l’équilibre commercial

9.2. Une stratégie de « carry trade » consiste :


o à s’endetter dans des devises à faible taux et à placer les fonds
sur une devise à taux d’intérêt plus fort.
o à s’endetter dans des devises à fort taux et à placer les fonds
sur une devise à taux d’intérêt plus faible.
o À arbitrer des écarts à la PPA.

9.3. Un « crawling peg » désigne


o Un régime de change totalement fixe
o Un régime de parités fixes glissantes
o Un régime de flottement impur

9.4. Comment, pour un pays, financer un déficit courant ?


o Opérer une relance budgétaire
o Mobiliser l’épargne intérieure
o Mobiliser l’endettement externe

9.5. Pour quelles raisons l’Allemagne dégage-t-elle d’impor-


tants excédents courants ?
o Un euro sous-évalué par rapport à ses performances économiques
o Une forte compétitivité hors-prix
o Un faible coût du travail

9782340-024007_001-264.indd 241 13/03/2018 13:13


Grandes questions d'économie du XXIe siècle

10. La récurrence des crises financières

10.1. Quelles caractéristiques structurelles favorisent la


242 survenance de crise financière ?
o Un système peu concurrentiel, réglementé et régulé
o Les asymétries d’information entre agents
o Les comportements mimétiques
o La segmentation des marchés financiers

10.2. Dans le modèle de Minsky quel comportement dans les


processus de financement des agents est le plus risqué ?
o Le financement spéculatif
o Le financement couvert
o Le financement de type Ponzi

10.3. Qu’est-ce que le Price Earning Ratio (PER) d’une action ?


o Le rapport entre la capitalisation boursière et le chiff re d’affaires
o Le rapport entre le cours boursier et le bénéfice par action
o Le rapport entre la marge brute et le bénéfice par action
o Le cours boursier corrigé des variations saisonnières

10.4. Quelle banque a fait faillite en septembre 2008 ?


o Goldman Sachs
o JPMorgan Chase
o Morgan Stanley
o Lehman Brothers

10.5. Qu’est ce qu’un « credit crunch » ?


o Une expansion rapide des crédits bancaires
o Une interruption de la chaîne du crédit
o Une ruée bancaire

9782340-024007_001-264.indd 242 13/03/2018 13:13


Questions à Choix Multiples, reçu cinq sur cinq

11. Politiques économiques et mondialisation

11.1. Les marges de manœuvre de politique budgétaire sont


d’autant plus grandes que : 243
o L’économie est très ouverte sur le plan commercial
o L’économie est peu endettée
o L’économie est peu ouverte sur le plan commercial
o L’économie est très endettée

11.2. Un régime de change fi xe est bien adapté à une économie :


o Peu ouverte commercialement sur le reste du monde
o Avec une structure d’exportation peu diversifiée
o Peu crédible aux yeux des investisseurs internationaux

11.3. D’après le triangle des incompatibilités on ne peut pas


avoir en même temps :
o Une parfaite mobilité internationale des capitaux, une parfaite
stabilité du change et une parfaite autonomie de la politique
budgétaire.
o Une parfaite mobilité internationale des capitaux, une parfaite
stabilité du change et une parfaite autonomie de la politique
monétaire.
o Une parfaite flexibilité du change, une parfaite autonomie de la
politique commerciale et une parfaite mobilité internationale
des capitaux.
o Une parfaite fixité du change, une parfaite autonomie de la
politique commerciale et une parfaite mobilité internationale
des capitaux.

11.4. En théorie, la politique budgétaire peut stabiliser l’activité


à travers :
o Le jeu des stabilisateurs automatiques de la conjoncture
o Son influence majeure sur les taux d’intérêt
o Les relances budgétaires, dites discrétionnaires.

11.5. Touteschoses égales par ailleurs la hausse de la dette


publique réduit les marges de manœuvre de politique
budgétaire ?
o Faux
o Vrai

9782340-024007_001-264.indd 243 13/03/2018 13:13


Grandes questions d'économie du XXIe siècle

12. La dette publique

12.1. Quelles variables expliquent l’évolution du ratio d’endet-


244 tement des États ?
o Le taux de croissance du PIB
o Le taux d’épargne des ménages
o Le taux d’intérêt réel servi sur la dette
o Le solde courant

12.2. Quelles normes concernant les finances publiques sont


incluses dans le Traité de Maastricht, signé en 1992 ?
o Le déficit budgétaire brut ne doit pas être supérieur à 3 % du PIB
o Le déficit budgétaire primaire ne doit pas être supérieur à 3 %
du PIB
o La dette publique ne doit pas être supérieure à 60 % du PIB
o La dette publique ne doit pas être supérieure à 90 % du PIB

12.3. En France quelle part des dépenses des administrations,


les intérêts servis sur la dette représentent-ils ?
o 2,2 %
o 3,5 %
o 6,1 %
o 7,8 %

12.4 En théorie économique, l’endettement doit être réservé :


o Au financement de dépenses de fonctionnement
o Au financement de dépenses sociales
o Au financement de dépenses d’investissement

12.5. En quoi, du point de vue de l’endettement, l’État n’est


pas un agent économique comme les autres ?
o Il peut influencer la croissance du PIB
o Il dispose d’un pouvoir de contrainte sur les autres agents
économiques
o Il a une durée de vie supposée infinie

9782340-024007_001-264.indd 244 13/03/2018 13:13


Questions à Choix Multiples, reçu cinq sur cinq

13. L’ubérisation

13.1. Lefonctionnement d’un service ubérisé se caractérise


généralement par : 245
o L’existence d’une plateforme numérique de mise en relation
entre client et prestataire
o Un paiement facultatif, seulement si le client est satisfait
o Une réactivité forte dans la mise en relation entre client et
prestataire grâce à une proximité des localisations géographiques
o Un système d’évaluation croisée de la qualité des parties
prenantes (client et prestataire).

13.2. La population active de la France s’élève à :


o 66,5 millions de personnes
o 28,5 millions de personnes
o 19,5 millions de personnes
o 3 millions de personnes

13.3. Dans la théorie de R. Coase, la « frontière de la fi rme »,


c’est-à-dire le partage entre coordination hiérarchique et
coordination par le marché est déterminé par l’impor-
tance des coûts de transaction ?
o Vrai
o Faux

13.4. Quel est le principal critère caractérisant un contrat de


travail :
o Un lien de prestation
o Un lien de subordination
o Une clé de répartition de la valeur ajoutée

13.5. En 2016, parmi les Français, quel pourcentage était


client des plateformes de type Uber ?
o 20 %
o 40 %
o 60 %

9782340-024007_001-264.indd 245 13/03/2018 13:13


9782340-024007_001-264.indd 246 13/03/2018 13:13
Réponses aux QCM

1. La perspective d’une stagnation séculaire


1.1. ’ 1 et 3
1.2. ’ 2 et 3

1.3. ’ 1 et 2
1.4. ’ 2

1.5. ’2

2. La mondialisation et son avenir


2.1. ’ 1 et 2
2.2. ’ 1

2.3. ’ 1, 3 et 4
2.4. ’ 2

2.5. ’ 3 et 4

3. Population mondiale
et environnement au XXIe siècle
3.1. ’3
3.2. ’ 2

3.3. ’2
3.4. ’ 1 et 2

3.5. ’2

4. Les inégalités
4.1. ’2
4.2. ’ 3

4.3. ’ 1 et 3
4.4. ’ 2 et 3

4.5. ’2

9782340-024007_001-264.indd 247 13/03/2018 13:13


Grandes questions d'économie du XXIe siècle

5. La montée en puissance
de la Chine et de l’Inde
5.1. ’ 2 et 3
248
5.2. ’ 3

5.3. ’ 2 et 3
5.4. ’ 2

5.5. ’ 2 et 3

6. Le leadership des États-Unis


6.1. ’2
6.2. ’ 1 et 2

6.3. ’ 1 et 3
6.4. ’ 4

6.5. ’ 1 et 2

7. L’économie japonaise,
laboratoire du futur ?
7.1. ’ 1, 3 et 4
7.2. ’ 3

7.3. ’3
7.4. ’ 2

7.5. ’ 1 et 3

8. L’Europe, entre intégration


et désintégration
8.1. ’ 1 et 3
8.2. ’ 2

8.3. ’ 1, 2 et 4
8.4. ’ 2

8.5. ’1

9782340-024007_001-264.indd 248 13/03/2018 13:13


Réponses aux QCM

9. Les déséquilibres internationaux


9.1. ’2
9.2. ’ 1
249
9.3. ’2
9.4. ’ 2 et 3

9.5. ’ 1 et 2

10. La récurrence des crises financières


10.1. ’ 2 et 3
10.2. ’ 3

10.3. ’2
10.4. ’ 4

10.5. ’2

11. Politiques économiques


et mondialisation
11.1. ’ 2 et 3
11.2. ’ 2 et 3

11.3. ’2
11.4. ’ 1 et 3

11.5. ’2

12. La dette publique


12.1. ’ 1 et 3
12.2. ’ 1 et 3

12.3. ’2
12.4. ’ 3

12.5. ’ 1,2 et 3

13. L’ubérisation
13.1. ’ 1, 3 et 4
13.2. ’ 2

13.3. ’1
13.4. ’ 2

13.5. ’1

9782340-024007_001-264.indd 249 13/03/2018 13:13


9782340-024007_001-264.indd 250 13/03/2018 13:13
L’auteur.
Bertrand Blancheton 251

Docteur ès sciences économiques en 1999, Agrégé de Sciences


économiques en 2002, Bertrand Blancheton est professeur à
l’Université de Bordeaux. Il a été responsable de l’UFR sciences
économiques et de gestion entre 2006 et 2010. Il dirige la Faculté
d’Économie, Gestion et AES depuis 2010. Il est chercheur au
GRETh A UMR CNRS 5113. Ses travaux concernent l’histoire écono-
mique et l’économie internationale. Ils portent sur les stratégies
d’insertion des économies nationales dans la mondialisation,
l'économie du luxe, les mécanismes des crises financières et le
Central Banking Design. Il publie régulièrement dans des revues
internationales de référence sur ces questions (Financial History
Review, Economic Modelling, Business History, Revue d’Économie
Politique, Revue Économique, Revue d’Économie Financière, Bankers,
Markets and Investors…). Il publie également des ouvrages sur ces
mêmes thèmes, parmi les plus récents : Pour une histoire globale des
réseaux de pouvoir, Bruxelles, Peter Lang, 2017 (avec F-C Mougel
et F Taliano-des Garets) ; Crises et batailles boursières en France
XXe-XXIe siècle, Genève, Droz, 2017 (avec H. Bonin).

Il a été chargé de conférences à Sciences-Po Paris entre 2001 et


2008. Il a été responsable du jury d’entrée à HEC pour l’épreuve
d’Analyse Économique et Historique des Sociétés Contemporaines
entre 2009 et 2014. Il a participé à de nombreuses reprises à des
jurys de concours (Agrégation d’Économie et de Gestion, CAMES,
ESSEC…). Il est membre du comité scientifique de la Mission
Historique de la Banque de France, membre du CHEFF à l’IGPDE
au ministère de l’économie. Il est régulièrement invité dans des
Universités étrangères (Allemagne, Chine, Iran, etc.)

Il publie des ouvrages de vulgarisation avec pour ambition de


montrer la capacité de l’histoire économique à éclairer les débats de
politiques économiques du moment mais aussi les enjeux du futur :
Politiques économiques, Dunod, 2006 ; Histoire des faits économiques,
Dunod, 2007 ; Histoire de la mondialisation, De Boeck, 2008 ; Sciences
économiques, Dunod, 2009 ; Mythes Économiques, Ellipses, 2017.

9782340-024007_001-264.indd 251 13/03/2018 13:13


9782340-024007_001-264.indd 252 13/03/2018 13:13
Table des matières

Introduction ................................................................................................ 7

1. La perspective d’une stagnation séculaire ...... 9

# La crainte récurrente d'une stagnation .............................................. 9


# Le ralentissement de la croissance, quelle ampleur ? Quelle
réalité ? ..................................................................................................... 16
# La stagnation japonaise........................................................................ 18
# Le débat contemporain sur la stagnation séculaire ...................... 19
# Développement des services et freinage de la croissance ............ 24
# Conclusion ............................................................................................... 28

2. La mondialisation et son avenir .................................. 29

# La contestation de la mondialisation................................................ 29
# Les dimensions de la mondialisation................................................ 32
# Ouverture commerciale et croissance,
l’éclairage de la théorie économique ................................................. 38
# Les niches restreintes des justifications théoriques
du protectionnisme ............................................................................... 41
# Mobilité internationale des capitaux : une croissance
plus soutenue mais plus instable ....................................................... 42
# Les forces motrices de la mondialisation .........................................44
# Le trilemme de Rodrik.......................................................................... 46
# Conclusion ............................................................................................... 49

9782340-024007_001-264.indd 253 13/03/2018 13:13


Grandes questions d'économie du XXIe siècle

3. Population mondiale et environnement


au XXIe siècle ................................................................................... 51

# Perspective historique et projection ................................................. 51


254
# Une population plus urbaine............................................................... 55
# Le cas de la vieille Europe .................................................................... 56
# Le mirage de la « Silver Economy » .................................................... 58
# Hausse de la population et dégradation de l’environnement ..... 60
# La question vitale de l’eau .................................................................... 61
# Conclusion ............................................................................................... 63

4. Les inégalités................................................................................. 65

# Une notion multidimensionnelle ....................................................... 66


# La focalisation sur les revenus............................................................ 67
# La mesure des inégalités de revenus et de la pauvreté ................. 68
# La difficulté à définir des normes d’équité ...................................... 70
# La courbe de Kuznets ............................................................................ 72
# Le recul de la pauvreté extrême.......................................................... 73
# Mondialisation et progression des inégalités de revenus ............ 74
# Les inégalités freinent-elles aujourd’hui la croissance ? .............. 76
# La progression des inégalités en France :
entre mythe et réalités.......................................................................... 78
# Conclusion ............................................................................................... 80

5. La montée en puissance
de la Chine et de l’Inde ........................................................ 81

# La « plus grande démocratie du monde »


et le pays du parti unique ..................................................................... 81
# Deux grandes puissances démographiques
en forte croissance ................................................................................. 83
# L’ascension dans la hiérarchie des puissances ................................ 84
# L’insertion de deux pays émergents
dans l’économie mondiale : similitudes et divergences ............... 87
# Les facteurs de fragilité des deux géants asiatiques ..................... 90
# Le mythe du leadership chinois .......................................................... 92
# Conclusion ............................................................................................... 93

9782340-024007_001-264.indd 254 13/03/2018 13:13


Table des matières

6. Le leadership économique des États-Unis ......... 95

# Deux siècles de croissance américaine ............................................. 96


# L’émergence du concurrent chinois ................................................... 97
255
# Les facteurs explicatifs de la croissance américaine et leur
permanence historique......................................................................... 99
# Le statut de monnaie internationale du dollar ............................ 102
# Marges de manœuvre et pragmatisme dans la conduite
des politiques économiques ............................................................... 110
# Conclusion ............................................................................................. 114

7. L’économie japonaise,
laboratoire du futur ? .........................................................115

# Du miracle des années 1960-1970 à la stagnation contemporaine


115
# Le toyotisme, grandeur et déclin d’un modèle d’organisation
industrielle ............................................................................................ 117
# La crise financière de 1989-1992 et ses conséquences ............... 119
# Les « Abenomics » ................................................................................121
# L’envolée de la dette publique ...........................................................123
# Une population stagnante et vieillissante..................................... 124
# La faiblesse du taux de chômage ......................................................126
# Conclusion .............................................................................................127

8. L’Europe, entre intégration


et désintégration .....................................................................129

# L’intégration régionale et ses étapes ...............................................130


# La recherche d’une voie de coopération en Europe ..................... 131
# La politique agricole commune.........................................................133
# Le processus : approfondissement versus élargissement ..........136
# L’intégration monétaire pour préserver les acquis
de l’intégration réelle ..........................................................................138
# La fausse question de la zone monétaire optimale...................... 140
# Les défis de l’intégration politique européenne ........................... 144
# La crise de la dette ............................................................................... 145
# L’Union bancaire .................................................................................. 146
# Le Brexit ................................................................................................. 147
# Conclusion ............................................................................................. 148

9782340-024007_001-264.indd 255 13/03/2018 13:13


Grandes questions d'économie du XXIe siècle

9. Les déséquilibres internationaux ........................... 149

# Spéculation, volatilité et désalignement........................................150


# La guerre des monnaies ......................................................................155
256
# Les déséquilibres des soldes courants ............................................. 159
# Conclusion ............................................................................................. 162

10.La récurrence des crises financières ................ 163

# Mise en perspective historique des crises financières ................164


# Le modèle de Minsky .......................................................................... 166
# La crise financière des subprimes .................................................... 169
# Conclusion : à quand la prochaine crise ? ...................................... 175

11. Politiques économiques


et mondialisation ...................................................................... 177

# Ouverture commerciale et politique budgétaire .......................... 177


# Quelle épaisseur pour les administrations publiques
au XXIe siècle ? ...................................................................................... 179
# La mobilité des capitaux en tant que contrainte externe :
le triangle de Mundell ......................................................................... 181
# Le choix d’un régime de change : vers les solutions de coin ......183
# Mondialisation, dette publique et évolution
de l’indépendance des Banques centrales ......................................185
# Conclusion .............................................................................................189

12. La dette publique ....................................................................... 191

# Définition, mesure et enjeux de la dette publique ....................... 191


# Mise en perspective de la montée de la dette
de la France depuis 1973 ....................................................................200
# Comparaisons internationales .........................................................204
# La soutenabilité de la dette : peut-on définir
un seuil de danger en matière de dette publique ? ......................209
# Voies d’amortissement de la dette publique..................................213
# Conclusion ............................................................................................. 217

9782340-024007_001-264.indd 256 13/03/2018 13:13


Table des matières

13. L’ubérisation ................................................................................. 219

# Le retour en force du travail non salarié ........................................220


# Un salariat déguisé ? ...........................................................................222
257
# Vers un déplacement des frontières de la firme ? ........................ 224
# La course à la taille, les dangers du modèle économiques des
plateformes............................................................................................225
# Ubérisation et freinage de la croissance potentielle des
économies ..............................................................................................230
# Conclusion .............................................................................................232

Questions à Choix Multiples,


reçu cinq sur cinq ..............................................................................233

Réponses aux QCM .................................................................................. 247

L’auteur. Bertrand Blancheton ............................................. 251

9782340-024007_001-264.indd 257 13/03/2018 13:13

Vous aimerez peut-être aussi