Vous êtes sur la page 1sur 73

Quentin Soubrane, KE1

Paragraphes d’éco à apprendre par cœur

TD1 : Causes et limites de la croissance


1. La croissance s’explique par l’innovation

Pour Schumpeter, Théorie de l’évolution économique, 1911, le rôle de l’entrepreneur est


indispensable à l’innovation et donc à la croissance. Dès 1733, John Kay invente la navette
volante qui améliore les rendements du métier à tisser (pièces plus larges, vitesse
d’exécution plus importante). Elle introduit une rupture d’équilibre dans le tissage et la
filature en accroissant la productivité qui engendrera 30 ans plus tard une révolution
technique avec la « spinning jenny » d’Hargreaves, qui permet de tisser 8 fils en même
temps, et en 1768, avec le « water frame » de Richard Arkwright, puis la « mule jenny »de
Samuel Crompton en 1779.

2. Faits stylisés de Kaldor sur l’augmentation de la productivité du travail

Selon les faits stylisés de Kaldor, 1957, l’augmentation de la productivité du travail explique
pourquoi le coefficient de capital (donc la productivité du capital) reste constant malgré
l’augmentation de l’intensité capitalistique. Cad qu’elle permet d’échapper de la perte
d’efficacité à long terme du capital, donc aux rendements décroissants.

3. Importance de la croissance inexpliquée et du résidu

Se manifeste chez Solow (87,5%) puis chez CDM, La croissance française, 1972, 50% de la
croissance est inexpliquée, ce résidu statistique mesure la productivité globale des facteurs.
M. Abramovitz : le résidu est la mesure de notre ignorance dans Thinking About Growth,
1986. Edward Denison, Why do Growth rates differ ? 1967, a réalisé des travaux entre 1955
à 1962, et estimait la PGF à 1,06 pts de croissance sur 3,01 aux US et 2,63 pts sur 4,82 pts en
France. Plus récemment selon D Cohen et M Debonneuil PGF représenterait 1,6 pts de
croissance sur 2,58 en France entre 1975 e 1999, puis 0,76 sur 1,6 entre 1990 et 1998.

4. La division du travail

Adam Smith fait de la division du travail la cause principale des gains de productivité :
« l’opulence naît de la division du travail ». Ils permettent la baisse de prix et
l’élargissement du marché qui lui-même conduit à approfondir la division du travail
(productivité multipliée par 240 dans la manufacture d’épingle). Cet élargissement provoque
l’invention de nouvelles machines qui font naître et diffuse du PT, et qui est donc partie
prenante dans la croissance smithienne en tant que conséquence de la croissance elle-
même. En 1928, Allyn Young adaptera la théorie de la division du travail au secteur des
biens d’équipements, expliquant la baisse de leur prix comme facteur favorable à
l’accumulation du capital et à son rajeunissement, donc au PT. La croissance anglaise aurait
été une croissance smithienne selon les propos de P. Verley, amorcée par la révolution des
indiennes en 1750. + possibilité loi Kaldor-Verdoorn.

5. Le rôle des institutions comme complément au marché

R. Boyer insistait sur l’importance de la complémentarité Etat-marché. D. North, Economic


performance through time, 1994, expliquait que les institutions devaient être des
incitations, et que se sont elles qui participent à la réussite d’un pays, en prenant l’exemple
de la différence d’institutions entre la GB et l’Espagne pendant la colonisation. Pour D.
North, les institutions permettent de réduire les coûts de transaction, en prenant comme
exemple la reconnaissance des droits de propriété avec le mouvement des Enclosures, au
19ème. E. Malinvaud expliquait que la bonne coordination des facteurs de production
dépendait de l’Etat et donc des institutions ainsi que du PT. T. Veblen critique l’hypothèse de
rationalité des comportements, et légitiment alors le rôle des institutions.
+voir TD10, pg. 3, avec le rôle des instituions pour corriger les défaillances de marché (Smith,
Ostrom, Dales, Pigou, Hardin, Rosanvallon, Cohen)
+Théories de la croissance endogène TD2

6. Laisser faire le marché

Pour A. Smith, 1776, le marché explique la croissance par la division du travail : il faut laisser
faire le marché, et il prône l’autorégulation et la main invisible. Selon Hayek, Droit,
législation et liberté, 1973, le marché est issu d’un processus de sélection par l’efficacité. Il
suit un ordre spontané, et légitime dès lors la non-intervention. En France, le décret
d’Allarde et la loi Le Chapelier en 1791. En GB, abrogation du Bubble Act (1825) et des Poor
Laws (1834) (fin aide aux pauvres) et des Corn Laws (1846) (fin protectionnisme). On
comprend alors pourquoi le XIXème a été le théâtre d’un « désencastrement du marché »
selon K. Polanyi, La Grande Transformation 1944) qui commencera dès 1834 avec l’abolition
des Old Poor Laws en vigueur depuis 1601. Pour Arnold Toynbee, dans L’Histoire, en 1934, :
« l’essence même de la RI est la substitution de la libre concurrence aux réglementations qui,
depuis le Moyen Âge, étaient imposées à la production ».
V. Pareto, néoclassique, critique l’approche utilitariste car trop de sacrifice : pour maximiser
le bien-être, il faut laisser faire le marché pour atteindre l’optimum de Pareto. J. Bates Clark,
néoclassique, explique de même que « chacun reçoit ce qu’il mérite, et chacun mérite ce
qu’il produit » : il faut laisser faire le marché.
TD2 : Expliquer la croissance : les enjeux des théories de la
croissance
1. Les théories de la croissance endogène : endogénéiser le PT

Paul Romer dans Increasing Returns and Long-Run Growth, 1986, explique que si plusieurs
firmes augmentent en même temps leurs investissements, elles vont connaître une
croissance plus forte que celle qui résulterait pour chacune de leur propre investissement.
Chacune profite du développement des autres, et chacune acquiert des connaissances qui
bénéficient aux autres firmes : learning by doing (de Kenneth Arrow) et la diffusion du
savoir éliminent la décroissance des rendements par leur effet externe positif. Robert Lucas,
On the Mechanics of Economic Development, 1988, puis Robert Barro, Government
Spending in a Simple Model of Endogenous Growth, 1991, produiront un raisonnement
sensiblement analogue en mobilisant le capital humain et le capital public.

2. Théorie de la croissance endogène : les institutions

Paul Romer met en évidence le rôle des connaissances comme facteur de production en
tant que bien non rival qui peut donc s’accumuler sans limite. Robert Lucas insiste sur
l’utilisation du capital humain qui serait d’autant plus efficace pour produire des externalités
que son niveau moyen augmente. Il existerait en quelques sortes une compétence
collective.
Aussi pour Romer, la protection des brevets (droits de propriété) est essentielle, alors que
dans le modèle d’Aghion et Howitt, Endogenous growth Theory, 1992 c’est l’absence de
barrière à l’entrée sur le marché avantageant la création et le développement des PME qui
explique la croissance. Pour Barro, 1991, c’est la quantité de capital public mis à disposition
par les institutions qui augmente la productivité.
G. Becker, Human capital, 1960, il peut y avoir une incitation à augmenter son capital
humain si les institutions proposent des bourses.

3. Le capital humain (avec les TCE et autres)

TCE explique que résidu est dû à des externalités produites par l’accumulation du capital
(technique, humain, public), qui permet de reconnaître l’existence de rendements
d’échelles croissants. Le rôle plus spécifique du capital humain est envisagé par Paul Romer,
pcq d’une part la mobilité des travailleurs et le learning by doing (Arrow) expliquent
pourquoi la productivité des investissements privés est fonction du niveau de capital
technique dans l’économie ; et pcq la production de connaissances en tant que bien non
rival, dépend d’autre part de la quantité de capital humain affecté à la production : la
croissance est d’autant plus importante que la part de capital humain affectée à la
production est importante. Robert Lucas insiste lui sur l’utilisation du capital humain qui
serait d’autant plus efficace pour produire des externalités que son niveau moyen augmente.
Les compétences collectives sont donc à l’origine des rendements croissants.
T. Schultz et les 5 sources de production et amélioration du capital humain (système
éducatif, santé, formation pro, formation adultes, mobilité travailleurs). « ce que les
économistes n’ont pas relevé est une simple vérité : les gens investissent en eux-mêmes et
ces investissements sont très importants ». P. Aghion, Eve Caroli, Cecilia Garcia-Penalosa,
Inégalité et croissance, 1999, ont montré que l’intervention de l’Etat favorise l’éducation la
santé, et donc le stock de capital humain. Or les individus avec peu de capital humain
génèrent peu d’externalités positives.
Puis paragraphe sur institutions et théorie de la croissance endogène. + Garry Becker sur le
calcul coût avantage du capital humain.

4. Graphique de Solow : état stationnaire

Solow veut s’opposer aux conclusions d’Harrod et Domar, et concède l’existence d’un état
stationnaire caractérisé par la stagnation du revenu par tête comme l’atteste le graphique.
On constate que le revenu par tête (Y/L) augmente au fur et à mesure que l’intensité
capitalistique (K/L) s’élève. En raison de l’hypothèse de rendements décroissants, cette
croissance s’affaiblit progressivement et vient buter sur un état stationnaire. Or, par
construction, la croissance est équilibrée quand le besoin en capital fixe, proportionnelle à la
croissance démographique (n. K/L) est égal à l’épargne par tête (s. Y/L). On échappe à l’état
stationnaire avec la fonction de production Cobb-Douglass mise en avant par Solow dans
Technical Change and the Aggregate Production Function, 1957.
∆Y/Y= @. ∆K/K +(1-@)d-∆L/L +∆A/A

5. Graphique de Solow : le rattrapage

Dans le modèle de Solow, le rattrapage est possible pcq la productivité marginale du capital
est décroissante ce qui revient à dire que le taux de croissance diminue au fur et à mesure
que le capital par tête s’élève. Cette augmentation du capital par tête n’est possible que
dans la mesure où l’épargne par tête est supérieure à n.K/L l’accroissement du capital
nécessaire à cause de la croissance démographique. Abramovitz et Baumol : club de
convergence, nécessité d’un même sentier technologique.

6. La croissance démographique peut être un handicap

P. Romer, Increasing Returns and Long Run Growth, 1986, dans son 2ème fait stylisé
expliquent que la croissance démographique est un handicap car fait baisser le revenu par
tête. Solow, A Contribution to the Theory of Economic Growth, 1956, soutenait également
dans son modèle que la croissance démographique ne doit pas être trop importante pour
qu’il puisse y avoir rattrapage : pour les PED, une croissance démographique importante nuit
au revenu par tête ce qui est nocif à la croissance et au rattrapage. Néanmoins pour les pays
ayant atteint l’état stationnaire du stock de capital par tête, la croissance démographique est
indispensable à la croissance économique. Ragnar Nurske dans son cercle vicieux de la
pauvreté en 1953 explique en partie le cercle vicieux par la croissance démographique mais
aussi par la faiblesse du revenu donc de l’épargne donc de l’investissement.
7. Les limites du rôle des institutions dans le capital humain

M. Spence en 1974 critique la capacité des écoles à former, et développe la théorie du signal
et du filtre. Le diplôme ne forme pas, il est un simple signal, qui sélectionne les individus
pour les employeurs. A. Sen, Un nouveau modèle économique, 2000, explique que le capital
humain est insuffisant pour montrer les effets de l’éducation, puisqu’il néglige les
dimensions éthiques et sociales. Il insiste sur les capabilités des individus.

TD3 : Les limites de la croissance


1. Les techno-optimistes

Pour l’historien Joel Mokyr (2013), les conclusions de Robert Gordon (2012) doivent être
rejetées en affirmant qu’il est impossible pour le cerveau humain de prévoir les futures
innovations, et rejoint le pdv d’Aghion qui affirme qu’on ne peut anticiper le PT (Les énigmes
de la croissance, 2015). Des technos-optimistes comme Andrew McAfee (2014) suggèrent
que nous sommes à un « point d’inflexion », cad sur le point de voir le PT s’accélérer
significativement. Pour les schumpétériens, dont fait partie P. Aghion, il y a deux raisons de
repousser l’hypothèse : premièrement, la révolution dans les technologies de l’information a
amélioré la façon de produire des idées dropbox, Skype… Deuxièmement, la mondialisation
augmente les gains potentiels d’innovations. Solow, techno-optimiste aussi, apportait une
solution à son état stationnaire dans son modèle en indiquant que le PT exogène permet de
repousser l’état stationnaire ; de plus, selon lui, le capital naturel et technique sont
parfaitement substituables.
Gene Grossman et Alan Krueger, développent la courbe de Kuznets appliquée à
l’environnement : les émissions polluantes croissent en fonction du revenu jusqu’à un
certain seuil, avant de baisser. Inglehart, société post-matérialiste.
P. David estime à 40 ans après l’invention de la dynamo le moment où les gains de
productivité liés à cette innovation commencent à se faire ressentir : à l’aube du
ralentissement de la croissance, il s’agit de relativiser. Relativiser aussi avec les prévisions de
Jevons dans The Coal Question, 1865, qui se sont avérées être fausses.
+ est-ce que les comptables arrivent à comptabiliser tous les effets des TIC (voir pg 4.)

2. Les techno-pessimistes

Depuis les années 70, ralentissement de la PGF malgré les transformations technologiques
considérables. Selon Cohen , PGF représenterait 1,6 pts de croissance sur 2,58 en France
entre 1975 e 1999, puis 0,76 sur 1,6 entre 1990 et 1998 : baisse de la productivité des
facteurs qui entrainent un résidu de plus en plus faible. Robert Gordon dans Is US Economic
Growth over ? en 2012, insistait sur le ralentissement durable de la croissance américaine
faisant ressurgir le spectre de l’état stationnaire. Il met en avant les 6 vents contraires. « la
croissance rapide observée au cours des 250 dernières années pourrait bien être un épisode
unique dans l’histoire de l’humanité en raison du ralentissement de la croissance de la
PGF ». On tend vers une stagnation séculaire (A. Hansen, 1938). P. Artus et MP Virard dans
Croissance zéro, comment éviter le chaos ? (2015) insiste sur la décroissance de la R et D :
2,8 milliards€ ont été investi en France entre 2002 et 2006 pour ne découvrir qu’une simple
molécule, puis 4,2 milliards entre 2007 et 2011. + Larry Summers taux d’intérêt négatifs
nécessaire pour croissance équilibrée de plein emploi. Dani Rodrick a aussi publié
L’innovation ne fait plus la croissance, 2018, en montrant que la particularité des innovations
aujourd’hui sont qu’elles ne sont pas toujours sources de productivité.
L’effet rebond de Stanley Jevons, contredit la courbe environnementale de Kuznets.

3. Techno-optimistes… sous conditions

La règle d’Hartwick, 1977, expliquait que la rente élevée d’exploitation ressources naturelles
doit être investie dans le capital physique et les connaissances pour assurer une croissance
durable. H. Daly, 1994, énonçait 3 conditions de durabilité : il prônait une consommation
inférieure au temps de régénération, une consommation de biens renouvelables qui ne
dépasse pas le temps de trouver un substitut, et que l’émission de pollution n’excède pas la
capacité de l’environnement à pouvoir l’absorber.

4. L’éthique impose de renoncer à la croissance à long terme : les moralistes

Jean Baudrillard critiquait la société de consommation des 30 Glorieuses au cours des


années 60, dans La société de consommation, 1970, en dénonçant la société de gaspillage, et
le fait que l’objet n’existe plus que comme un signe. JS Mill expliquait qu’il était
« indispensable d’avoir des valeurs derrière la richesse ». L’état stationnaire chez les
économistes « moralistes », voient l’état stationnaire non comme une fatalité, mais comme
une nécessité pour le bien de l’humanité. Dominique Méda, Qu’est-ce que la richesse ?,
1999, dénonçait aussi le « désir individuel subjectif », et la société de consommation
actuelle : le bonheur individuel ou collectif ne se réduit pas à un taux de croissance et que
l’augmentation de la consommation n’est pas le progrès de la civilisation. Elle est donc assez
proche d’Easterlin.
JS Mill dans Principes d’économie politique, 1848, explique que le bonheur des Hommes
sera supérieur durant l’état stationnaire. : loisirs, culture… JM Keynes, dans Perspectives
Economiques pour Nos Petits Enfants, 1928, explique que « les besoins économiques seront
résolus dans 100 ans », cad que les besoins essentiels seront tous satisfaits. La croissance
s’arrêtera à cause de la volonté des Hommes de pratiquer des activités qui ne visent pas à
augmenter les richesses, et non pas à cause de mécanismes économiques. + Richard
Easterlin (1974) : la hausse du revenu ne soulève pas le bien-être, la politique devrait se
concentrer sur d’autres objectifs que la croissance économique. Selon D. Cohen, il est
nécessaire de « désintoxiquer la société de la croissance » expliquait-il dans Le Monde est
clos et le désir infini (2015). Pour Ruut Veenhoven, 1997, le niveau subjectif de bien-être est
resté stable de 1973 à 1988 en UE.

5. La croissance et la PGF sont sous évalués : tertiarisation, effet des innovations.

P. Aghion dans Missing Growth From Creative Destruction, 2018, explique que les gains de
prod des nouvelles technologies échappent à la mesure : le PIB en valeur est correctement
mesuré, mais les indices de prix surévaluent l’inflation, pcq ils ne prennent pas
suffisamment en compte les effets de l’innovation sur la qualité des produits. Selon une
étude de Les Echos, de juin 2020, entre 2006 et 2013, la croissance française aurait été de
0,99% par an si le PT avait été correctement pris en compte, au lieu de 0,42% par an,
d’après l’INSEE.
Cette analyse se rapproche fortement du rapport Boskin, publié en 1996, qui affirmait que la
croissance américaine avait été sous-évalué de 1 à 1,5%, en raison de la surestimation de la
hausse des prix, ou encore la sous-estimation de la qualité des produits intégrant des
nouvelles technologies. Jean Gadrey dans L’économie des services, 1992, explique que le
déclin des gains de prod s’explique par l’incapacité de mesurer correctement les progrès de
la productivité dans les services : les effets de la productivité ont lieu à long terme.
Pour R. Gordon, le PT est un leurre, il n’y a pas eu de PT depuis des décennies, on tendrait
vers un nouveau « paradoxe de Gordon » ?

6. La stagnation séculaire

On tend vers une stagnation séculaire selon les propos d’A. Hansen, 1938.Il analyse ainsi
une stagnation séculaire par la demande en raison de la création monétaire. Larry Summers
rejoint ses propos, et prône un taux d’intérêt négatifs qui est nécessaire pour avoir une
croissance équilibrée de plein emploi : il évoque en effet une croissance sans demande : il y
aurait trop d’épargne, pas assez de consommation. Larry Summers ou P. Krugman
identifient le vieillissement démographique comme l’une des causes. Pour K. Wicksell, en
effet, dans Interest and Prices, 1898, le taux d’intérêt naturel est négatif. Bernanke évoque
même un « saving glut », un excès d’épargne.
P. Artus et MP. Virard, Croissance zéro, comment évité le chaos ?, 2015, ont synthétiser les
explications de la stagnation séculaire : perte efficacité de la R et D, augmentation de
l’intensité capitalistique, déclin de l’industrie, niveau de qualification insuffisant.
Michel Aglietta et Natacha Vala, Taux d’intérêt négatif et stagnation séculaire, 2016, la
stagnation séculaire se définit comme un fléchissement persistant de la croissance
potentielle. Ils considèrent que l’endettement, la faiblesse des gains de productivité, et
l’expansion monétaire des BC comme les principaux facteurs.
R. Gordon, The Rise and the Fall of American Growth, 2016, développe quant à lui l’idée de
stagnation séculaire par l’offre : ralentissement du PT car les NTIC ne sont pas porteurs
d’innovations, ce qui entraîne de la stagnation séculaire, + relier avec D. Rodrick,
L’innovation ne fait plus la croissance, 2018.

7. La croissance zéro ou moins que zéro


Richard Easterlin (1974) : la hausse du revenu ne soulève pas le bien-être, la politique
devrait se concentrer sur d’autres objectifs que la croissance économique.
Le coût écologique de la croissance nous oblige alors pour des raisons éthiques à renoncer à
la croissance, comme l’indiquait le rapport Meadows, en 1972, dans Halte à la croissance, en
montrant que la croissance ne peut se prolonger indéfiniment : « nous n’avons pas mis fin à
la croissance la nature va s’en charger ». S. Latouche prône la décroissance, puisque selon lui
le bon niveau de vie était celui de 1960. N. Georgescu-Roegen, Demain la décroissance,
1979, « on ne peut concevoir une croissance infinie dans un monde fini ».
Le bon taux de croissance est un taux de croissance zéro, terme inventé en 1973 par A.
Sauvy.
W. Rees, évoque l’empreinte écologique mondiale qui est de 1,8 terres dont 7 pour les US et
entre 5 et 6 pour l’UE : le bon taux de croissance est négatif.

8. Equité intergénérationnelle

« Nous n’héritons pas la terre de nos ancêtres nous l’empruntons à nos enfants », Antoine
de Saint-Exupéry. « vivre plus simplement, pour que les autres puissent tout simplement
vivre », Gandhi. Le rapport Bruntland, énonce le principe de DD en 1987 afin de favoriser
une équité intergénérationnelle.
+ pg. 3 : techno-optimiste sous condition (H. Daly, règle d’Hartwick)

9. Protéger l’environnement du PT

En 1969, R. Carson publiait l’ouvrage Silent Sping, en montrant l’effet nocifs des pesticides
qui tuaient les oiseaux : elle lance le mouvement écologique. W. Rees, évoque l’empreinte
écologique mondiale qui est de 1,8 terres dont 9 pour les US et entre 5 et 6 pour l’UE. V.
Hugo : « c’est une triste chose de penser que la nature parle mais que le genre humain ne
l’écoute pas » disait-t-il dans Carnets, 1870. Cette phrase se rapproche de celle de J. Chirac
« notre maison brûle et nous regardons ailleurs »
Les catastrophes Tchernobyl, 1986, et Bhopal, 1987, ont souligné cette menace du PT sur
l’environnement. C. Pigou, The Economics of Welfare, 1920, instaure le principe de pollueur
payeur, quand J. Dales prône le principe d’un marché de droit à polluer.

TD4 : Cycles et crises


1. Les cycles endogènes
Selon JAS, les innovations apparaissent en grappes, en tant qu’ensemble d’innovations
interdépendantes. Clément Juglar a montré que le financement des innovations était porté
par une spéculation sur la rentabilité favorable à la constitution de bulles qui apparaissent
comme des purges. Les crises du XIXème étaient ainsi des crises du chemin de fer qui se sont
transmises à l’économie réelle. Le mécanisme souvent à l’œuvre est celui de déflation par la
dette d’Irving Fischer. « Le chemin de fer a joué un rôle primordial dans les cycles longs et
courts de l’économie française » disait François Caron.
Chez Schumpeter, les cycles sont aussi endogènes
L’économiste Paul Samuelson a démontré l’existence d’un cycle endogène grâce à son
modèle d’oscillateur dans lequel il associe le multiplicateur et l’accélérateur : le cycle est
endogène, l’économie de marché est déséquilibrée. Si l’investissement est à l’origine du
cycle c’est parce que la décision d’investir est fonction des variations de la demande
anticipée selon le mécanisme de l’accélérateur. J. Hicks, introduit le concept de butoir de la
croissance, cad qu’il légitime le rôle d’un état pour contrôler ses fluctuations grâce à une
politique contracyclique. L’économie rebondit entre deux butoirs qui se déplacent vers le
haut avec la croissance, un plafond déterminé par l’évolution de la population active et le
progrès technique et un plancher déterminé par la croissance de l’investissement.
Pour P. Boccara, Capitalisme monopolistique de l’Etat, 1974, c’est la baisse tendancielle du
taux de profit qui forme un cycle endogène (cycle de long terme). Pour Freeman, néo
schumpétérien, ce sont les nouvelles technologies qui affectent le système économique et
social : paradigme sociotechnique.
Minsky, 1982, les cycles endogènes proviennent d’une variation du crédit selon les phases
d’expansion ou de dépression. Les théoriciens de le régulation B. Rosier et P. Dockes, Les
rythmes économiques, 1983, développent des cycles endogènes par l’ordre productif
(manière dont sont organisés les entreprises…) qui sont les caractères majeurs de
l’accumulation du capital : la phase A passe par un épanouissement de l’ordre productif.

2. Les cycles exogènes

Pour Lucas (NEC), le cycle résulte d’une réaction optimale des agents économiques à une
politique monétaire non-anticipée, ce qu’il nomme « anticipation rationnelle des agents
économiques ». Il développe la théorie des cycles à l’équilibre : les fluctuations de l’activité
ne conduisent pas à des déséquilibres, mais sont la réaction du système économique qui
reste en équilibre. L’offre de monnaie (de la part de la banque centrale) fait subir à
l’économie un choc engendrant des fluctuations Kydland et Prescott avec la théorie des
cycles à l’équilibre, et ont fait valoir que les variations de l’offre induites par les
changements et les améliorations de la technologie expliquaient les fluctuations des cycles
économiques. Les cycles conjoncturels ne sont pas toujours dictés par des variations de la
demande, mais plutôt par des chocs de l'offre comme la flambée des prix du pétrole ou les
innovations technologiques. Pour Friedman, les cycles exogènes résultent de politiques
économiques non-anticipées par les agents. Solow expliquait que le PT est exogène, une
manne tombée du ciel, provoquant des cycles exogènes.
G. Cassel et C. Rist insiste sur le rôle de la découverte d’or qui influe les cycles, Jean Sirol en
1942 insiste sur le rôle de l’agriculture, et A. Hansen sur le rôle des guerres.
3. Les crises endogènes

« Chaque société a les crises de sa structure », E. Labrousse


« Il n’y a pas de capitalisme sans crise » C. Kindleberger, Histoire mondiale de la Spéculation
financière, 2002.
Freeman, paradigme sociotechnique, Perez qui prolonge avec institutions

TD5 : Croissance et changement structurel


1. La tertiarisation : une conséquence des gains de productivité

Part d’emplois dans le tertiaire : 14% en 1800, 33% en 1930, et 75% ajd. Alfred Sauvy, Les
Machines et le chômage, 1980, explique que c’est un processus de déversement des
emplois du secteur primaire et secondaire dans le tertiaire consécutif à la croissance de la
productivité du travail. Jean Fourastié dans Le Grand Espoir du 20ème siècle, 1949 explique
que l’évolution de l’emploi dans un secteur est égale à l’évolution de la demande moins
l’évolution de la productivité du travail dans ce secteur. La saturation de certains besoins
entraîne une destruction d’emplois dans le secteur concerné. L. Demmou, La
désindustrialisation en France, 2010, explique que 30% des emplois détruits dans l’industrie
ont pout cause les gains de productivité.

2. La tertiarisation et la fracture sociale

Instabilité et hétérogénéité des emplois de services (Kremer) : il existe une séparation entre
les travailleurs qualifiés et non-qualifiés. On distingue les services de relation et les services
industrialisables pouvant être soumis à des normes de productivité (NFOT) décrites par
Philippe Askénazy, Les Désordres du Travail, 2004, néo-taylorisme avec chronométrage et
parcellisation des tâches. Pour Lefèvre, La Révolution tertiaire, 1994, il apparaît ainsi que le
secteur tertiaire est « le lieu d’expérimentation des nouvelles pratiques de gestion de la
main d’œuvre : individualisation des salaires, multiplication des formes particulières
d’emploi ». André Gorz en 1993 soulignait également les sacrifices nécessaires pour occuper
un emploi avec le développement des petits boulots, qui est une conséquence de la
tertiarisation. « Le stress devient le mode régulation de la société post-fordiste » écrit Daniel
Cohen. Jean Gadrey, Société de services ou de serviteurs, 1990, explique que les services
amènent une société de serviteurs qui accroit les inégalités entre les Hommes.

3. La tertiarisation comme nouveau modèle de croissance


Il existe une véritable complémentarité entre secteurs. P. Veltz, dans La Société Hyper-
industrielle, 2017, explique qu’il existe une distinction entre industrie et service parfois
difficile à établir : il relativise la désindustrialisation car pour lui il ne s’agit que d’une simple
transformation. Pour L. Fontagné, Wolff, Mohnen la frontière entre secteur secondaire et
tertiaire est poreuse, et les deux secteurs sont imbriqués l’un dans l’autre. D. Cohen dans 3
Leçons sur la société post industrielle, 2006, prend l’exemple de la décomposition du prix de
la chaussure Nike air Pégasus pour montrer la complémentarité entre les 2 secteurs : 16
dollars pour produire l’objet physique, et 19 dollars pour faire de cet objet un objet social
(publicité…). Plutôt que d’associer le tertiaire au déclin de l’industrie, il s’agit de penser leurs
relations dans le cadre d’une « société hyper industrielle » selon les termes employés par
Christian Stoffaes (Fin de Monde, 1987) société où la qualité des produits est liée à
l’intégration d’un couple produits-services. Il y a aussi une dépendance des produits
industriels à l’égard des services qui vaut aussi pour la consommation, ce que Jonathan
Gershuny, The Self-Service Economy, 1977, qualifie de société de self-service plutôt que de
société de service. D. Cohen, Nos temps modernes, 2000, explique aussi qu’on a une
inversion de « la production de l’homme par la terre à une production de l’Homme par
l’Homme », signe qu’ajd c’est le travail qui coûte le plus cher. A. Maslow, A Theory of
Human Motivation, 1943, explique que la satisfaction des besoins physiologiques est la
condition requise pour que d’autres formes de besoins se développent.

4. Ralentissement de la productivité liée à la tertiarisation

Smith considérait déjà que les services étaient improductifs, tandis que Marx affirmait que
seul le travail était productif. Solow réalisait le même constat dans le secteur des nouvelles
technologies affirmant que « les ordinateurs sont partout sauf dans les statistiques de la
productivité ».
« Pourquoi nos temps modernes sont-ils si décevants ? » se demandait Daniel Cohen en1999
dans Nos temps Modernes, qui constatait d’une part la condition de l’homme d’aujourd’hui
confronté au mythe de la « fin du travail » et d’autre part sa déception de l’évolution de la
société post-industrielle. Le secteur tertiaire qui occupe 3 actifs sur 4, est très hétérogène. Il
est donc compatible avec des conditions de travail tout à fait pénibles qui contrastent avec
le mythe d’une société post-industrielle en tant que sociétés de loisirs. W. Baumol a
développé la théorie de la productivité différentielle, 1967, en montrant que la productivité
du secteur tertiaire est très faible. Il évoque ainsi la maladie des coûts, plus le secteur
tertiaire augmente, plus la croissance est faible. P. Artus et MP Virard, rappellent que parmi
les grandes raisons pour lesquelles le PT a tendance à ralentir dans nos économies est la
réduction du poids des secteurs où les gains de productivité sont élevés. « Croissance anti-
schumpétérienne » pour caractériser le phénomène de ralentissement de la croissance
future de nos économies.

5. L’ubérisation de l’économie

Ces travailleurs sont des auto-entrepreneurs, cad qu’ils ne sont pas salariés et n’ont pas de
contrat de travail, pas d’assurance chômage, pas de congés payés… il n’y a donc pas de
sécurité de l’emploi. Les pouvoirs publics peinent à s’adapter à ces nouveaux emplois qui
remettent en cause le schéma traditionnel. Représente 14% de l’emploi total en France.
Bruno Teboul en 2015, Ubérisation : économie déchirée ?, montre que l’ubérisation est un
processus de « disruption créatrice », cad qu’il fait émerger de nouveaux enjeux sociaux,
juridiques, fiscaux et économiques. Après une longue bataille judiciaire, les chauffeurs Uber
du Royaume-Uni ont obtenu le statut hybride « worker » entre travailleur et indépendant.
Le gouvernement espagnol et les partenaires sociaux sont parvenus à un accord le 11 mars
2021, pour introduire dans le code du travail une "présomption de salariat" pour les livreurs
à domicile de repas travaillant pour des plateformes comme Deliveroo ou UberEats, une
première européenne.

6. Structure de la consommation actuelle

Aujourd’hui, l’alimentation représente 13% de la consommation effective, l’habillement 3%,


l’équipement et le logement 4%. Ces secteurs ont vu leur part dans la consommation des
ménages diminuer drastiquement, permise grâce aux gains de productivité dans
l’agriculture, le textile, le logement. A l’inverse, les dépenses dans le logement représentent
20%, dans les transports 12%, et loisirs 6% : ils ont connu une évolution positive.
Les services représentent aujourd’hui 63% de la consommation effective des ménages.
De même, les dépenses pré-engagés ont augmenté : elles étaient e 15% en 1880, contre
29,2% de la consommation totale aujourd’hui.

7. Intro de sujet avec « classe moyenne »

L’expression classe moyenne a été inventée par les sciences sociales allemandes dans les
années 1870.
Gustave Schmoller se penche sur la diversité interne de classe moyenne. Elle n’est pas
vraiment une classe au sens fort du terme et on peine à lui trouver une unité. Il existe un
véritable débat autour de la notion de classe sociale, une certaine ambiguïté : aujourd’hui en
France, selon les bornes de l’INSEE on y trouve les 2/3 de la population dont le revenu est
situé entre 0,66 et 2 fois le revenu médian. Elle s’est fortement développée au XXème en
raison de la croissance économique. Dès lors, le retour de l’idée d’une stagnation séculaire
après les travaux de Robert Gordon (2012) ne peut qu’inquiéter quant à l’avenir de la classe.
Le thème du déclassement s’est alors imposé (Camille Peugny, 2009). Dès lors, espérer que
les classes moyennes y échappent revient donc à espérer le retour d’une croissance forte.
Il s’agit aussi de distinguer la classe en soi de la classe pour soi, distinction établie par K.
Marx dans Le Manifeste du Parti communiste, 1848, qui soulève la définition de classe
sociale. La classe en soi existe de fait cad objectivement : les individus ont des interactions
entre eux, mais n'ont pas conscience d'une appartenance commune. Les classes pour soi
correspondent à des groupes ayant des conditions et un style de vie très proches, mais ont
en revanche une conscience d'une appartenance commune. La lutte contre la fracture
sociale est l'un des principaux thèmes de campagne de Jacques Chirac pour l'élection
présidentielle française de 1995 : « Une fracture sociale se creuse dont l'ensemble de la
Nation supporte la charge. »
« La lutte des classes est le moteur de l’histoire », K. Marx et Engels, Le manifeste du parti
communiste, 1848.

8. La moyennisation

H. Mendras, La Seconde Révolution française, 1988, insiste sur la moyennisation de la


société, dans son modèle de la toupie, c’est la constellation centrale qui diffuse le
changement social comme le barbecue, ou le week-end. C’est la croissance qui a permis la
fin des modes de vie spécifiques, et un émiettement des classes qui a permis une mobilité
sociale forte. Le 20ème rime aussi avec une société de consommation, un enseignement
massifié, un chômage faible, la protection sociale (assurance chômage 1958, allocation
familiale 1932) qui ont permis la moyennisation.

9. Relativiser la moyennisation

P. Bourdieu, dans La Distinction, en 1979, relativise la moyennisation de la société puisqu’il y


aurait toujours selon lui domination : il évoque ainsi le fait que les classes moyennes sont
une petite bourgeoisie, « une classe dominée qui s’ignore ». Dans La Reproduction, 1970, il
insiste sur le rôle du capital culturel, en montrant que la classe moyenne est toujours
dominée dans le système scolaire. Éric Maurin, Les Nouvelles classes moyennes, 2012,
expliquaient que les classes moyennes sont de plus en plus centrales, sans qu’on puisse
parler de moyennisation car la société est structurée en positions distinctes.

10. Les classes moyennes sont en crise, disparaissent

A. Le ralentissement de la croissance nuit aux classes moyennes


La fin de la réduction des inégalités qui va de pair avec un ralentissement de la croissance,
observée par Piketty ou Landais, a des conséquences sur les classes moyennes : depuis
2000, ils ont vu leur salaire médian baisser de 4%, leur patrimoine moyen baisser de 23%, et
on constate un transfert de richesse de la classe moyenne vers la classe supérieure de
l’ordre de 19% du PIB. Tyler Cowen, Average is Over, 2014, lors des dernières crises,
l’économie américaine a perdu beaucoup d’emplois occupés traditionnellement par la classe
moyenne. B. Milanovic, la courbe de l’éléphant : inégalités élevées au niveau mondial, déclin
classe moyenne.

B. Vers la fin des classes sociales


Pour Tocqueville, De la démocratie en Amérique, 1835, l’avènement de la démocratie a fait
éclater les structures sociales traditionnelles. La notion de stratification de Warner apparait
alors plus adaptée. Max Weber expliquait qu’on peut obtenir une pluralité de hiérarchie en
fonction de la richesse, du prestige et du pouvoir.
Robert Nisbet a publié un article intitulé Le déclin et la chute des classes sociales, en 1959 : 3
origines au déclin des classes sociales : 1. Recul des inégalités politiques, 2. Recul des
inégalités du travail, 3. Recul des inégalités de niveau de vie.
Alain Touraine, La Fin de la Société, 2013, insiste sur le fait qu’il n’existe plus de classe
sociale, mais une société d’individus, avec une émergence de l’individualisme. F. Dubet, Le
temps des passions tristes, 2008, évoque les conséquences négatives de la fin des classes
sociales, comme pour les gilets jaunes qui ont des revendications contradictoires.
Michel Pinçon et Monique Pinçon-Charlot, Sociologie de la bourgeoisie, 2000, défendent
l’idée que la haute bourgeoisie est ajd le seul groupe que l’on peut considérer comme une
classe sociale.

11. Pas de fin des classes sociales

Louis Chauvel, Les classes Moyennes à la dérive, 2007, considère que les classes moyennes
sont de plus en plus écartelées, disparition de la classe pour soi, mais recomposition des
classes sociales. Dans Classes et générations, 2002, il montre que l’hypothèse de la fin des
classes sociales est insuffisante : pas de disparition des catégories populaires mais
tertiarisation et expansion des sans-emplois. Éric Maurin, Les Nouvelles classes moyennes,
2012, « la classe ouvrière est désormais disséminée dans les rouages de la société de
service ».
Pour Maurin, les nouvelles inégalités rendent impossible un sentiment de classe, sans pour
autant qu’on puisse parler de fin des classes sociales car elles existent toujours.

12. Le déclassement

A. Un fait
Pierre Bourdieu introduit la notion de déclassement. On assiste en effet à une véritable
inflation des diplômes, selon l’ouvrage éponyme de Marie Durut-Bellat, 2006.
Camille Peugny, Le déclassement, 2009, montre que la mobilité ascendante est de plus en
plus difficile. Pour Louis Chauvel, La spirale du déclassement, 2016, les difficultés que
rencontrent les jeunes en début de carrière à cause d’un contexte économique moins
favorable influencent l’ensemble de leur parcours professionnel. Thomas Piketty insiste
quant à lui sur le dilemme de Rastignac : pour espérer progresser dans l’échelle sociale, il
faut espérer se reposer sur les bénéfices du mariage.

B. Une peur
Pour Éric Maurin, La peur du déclassement, 2009, la peur du déclassement est la perception
du risque de déclassement, bien que les individus ne le subiront peut-être pas.

TD6 : L’entreprise
1. L’émergence de la concentration
Pour F. Perroux, L’économie du 20ème siècle, avant 1880 on avait un capitalisme à structure
atomique avec peu de concentrations (à part quelques-unes comme Dolfuso-Mieg ou
Schneider), et quelques grandes entreprises qu’il oppose au capitalisme moléculaire à partir
de 1960 avec des entreprises très concentrés. A partir de 1880, on assiste à une
concentration naturelle, avec la RI, et la hausse de la concurrence avec l’Allemagne, et
apparait comme une nécessité pour les pays en rattrapage, ce que montre Gershenkron,
Economical Backwardness in Historical Perspective, 1962, le rattrapage passe par l’industrie
lourde donc la concentration. Au Japon, phénomène des Zaibatsu avec une concentration
conglomérale, tandis qu’on parle de Trusts aux US et de Konzerns en Allemagne. Patrick
Verley évoque quant à lui dans La Révolution Industrielle, 1985 « un changement d’échelle
du monde qui rend nécessaire la concentration ».
Lier avec le chapitre sur la mondialisation

2. Se concentrer est bénéfique pour la croissance et nécessaire

Pour Baumol, de l’école de Chicago, il ne faut pas lutter contre la concentration du fait de la
théorie des marchés contestables (Panzar, Willig, Baumol, Contestable Markets and the
Theory of Industry Structure, 1982). Coase et Williamson : résulte d’un choix de la firme,
d’un calcul coût avantage. Grande taille= baisse du coût moyen, économie d’échelle, hausse
de la productivité. Constitution de champions nationaux. Gershenkron, Economical
Backwardness in Historical Perspective, 1962, le rattrapage passe par l’industrie lourde donc
la concentration. Le 21 mars 2021, Veolia et Engie, entreprises françaises de gestion de
services collectifs, ont annoncé être parvenu à un accord de principe dans le cadre d’une
fusion acquisition des entreprises afin de former un mastodonte du secteur. En novembre
dernier, LVMH a racheté le joaillier new-yorkais Tiffany à hauteur de 15,7 milliards de
dollars.
La concentration est aussi nécessaire dans une situation de « winner takes all » mais aussi
de monopole naturel.
En 2050, le PIB des PED actuels représentera 60% du PIB mondial selon l’OCDE, les PDEM
doivent ainsi nécessairement constituer des champions nationaux.

3. Il faut lutter contre la concentration

E. Chamberlain de l’école d’Harvard prônait à l’inverse de Baumol qu’il fallait lutter contre la
concentration. Concentration favorise les ententes et cartels : laboratoires Roche et
Novartis 2015, ou SFR-Bouygues-Orange de 97 à 2003.
Schumacher, Small is Beautiful, 1973, prône la petite taille des entreprises qui sont plus
réactives, ont plus de créativité. Aghion et Howitt, Endogenous Growth Theory, 1992 : la
croissance vient de la capacité des petites entreprises à entrer sur le marché.
En monopole, le producteur est price-maker selon A. Marshall ce qui nuit au surplus
(graphique)
Les autorités européennes ont annulé en 2019 le projet de fusion entre deux géants
industriels européens : Alstom (France) et Siemens (Allemagne) pour favoriser la
concurrence.
E. Farhi, L’essor des rentes de monopoles nuit à la croissance, 2017, met en exergue qu’aux
US la part du travail dans la valeur ajoutée est passée de 65% à 58% en 20 ans à cause de
l’augmentation du pouvoir de marché des entreprises et des rentes de monopoles.
Leibenstein, Allocative efficiency vs X-efficency, 1966, la situation de monopole est sous-
optimale car conduit à une inflation par les coûts et à un retard dans l’innovation
organisationnelle. En concurrence, les entreprises peuvent observer l’organisation de ses
concurrents, alors qu’en monopole, cette possibilité est perdue.
+ graphique du surplus avec le rectangle de Tullock utilisé dans la recherche d’une rente, et
triangle d’Harberger qui représente une perte sèche, une perte du surplus global. P. Aghion,
Les énigmes de la croissance, 2015, a montré que si le monopole est indispensable dans un
premier temps, il est nocif dans un deuxième temps, pour les mêmes raisons que le schéma.

4. La situation de monopole et de concentration nuit à l’innovation

T. Philippon, Le Grand Renversement, 2019, baisse du nombre de brevets (59 pour 100 000
habitants en 2005 contre 43 en 2012), moins d’innovations (entre 2000 et 2010 et 2010 et
2020, le nombre de brevets triadiques déposés à baisser de 20%). Nuit à l’émergence de
petites entreprises plus innovantes comme Microsoft qui a empêché le navigateur Netscape
d’émerger. Nécessité d’une complémentarité entre les PME et les grandes entreprises pour
favoriser l’innovation. Les PME innovantes sont indispensables pour le développement des
grandes entreprises comme le souligne Baumol dans The Free-Market Innovation Machine,
2004, lorsqu’il écrit « Goliath a besoin de David pour grandir » (à lier avec Schumacher,
Aghion-Howitt). Pour Joseph Aloys Schumpeter, c’est la concurrence, la volonté de
puissance qui incite l’innovateur à innover. Et c’est l’innovation qui fait de la croissance un
processus de destruction créatrice. F. Bastiat : « détruire la concurrence, c’est détruire
l’intelligence ». Schumacher, Small is Beautiful, 1973, prône la petite taille des entreprises
qui sont plus réactives, ont plus de créativité.

5. Nécessiter d’encadrer les monopoles et la concentration par institutions

E. Farhi, L’essor des rentes de monopoles nuit à la croissance, 2017, met en exergue qu’aux
US, les marchés où 4 entreprises contrôlent plus de 30% du marché a augmenté d’un tiers de
1997 à 2017 : il s’agit d’encadrer car peut être nuisible. E. Liu, A. Miam et A. Sufi vont dans
le même sens dans Et si les taux d’intérêts ultra faibles pénalisaient l’activité, 2019 : dettes
privées des entreprises sert au rachat de start up et consolide leur rente à défaut d’investir.
Anne Krueger, dans The Economic Theory of the Rent Seeking Society, 1974, a montré que
les dépenses en recherche de rente représentaient 7% du PIB en Inde et 17% en Turquie. Les
institutions doivent intervenir pour éviter un gaspillage en recherche de rente.
Sherman Act (1890) aux US a pour but de lutter contre les abus de positions dominantes
puis le Clayton Act (1913) qui a pour but d’empêcher d’arriver à une position dominante. Par
exemple Microsoft puni pour abus de position dominante sur Netscape. En Europe,
l’Autorité de la Concurrence lutte aussi contre. Ils affichaient en 2010 près de 19,6 milliards
d’euros de pénalités infligées aux entreprises pour entente, cartel, abus de position
dominante. Mars 2006, elle a condamné 13 marques de parfums de luxe pour entente sur
les prix à hauteur de 43 millions d’euros chacune + constructeurs de camions européens
amende record de 2,3 milliards d’euros pour entente sur les prix.
Mais G. Stigler, théorie de la capture selon laquelle l’activité de contrôle des pouvoirs
publiques est défaillante car capturée par les intérêts privés.

6. Le rôle des institutions dans l’innovation

Augustin Landier et D. Thesmar, Les 10 idées qui coulent la France, L’Etat est le seul à
pouvoir aider au financement des innovations si prise de risque est trop grande. « L’Etat doit
concentrer ses moyens sur les cas où les intérêts publics et privés ne coïncident pas ».
Pour Sophie Boutiller et Dimitri Uznidis, La légende de l’entrepreneur, 1999, la réussite des
entrepreneurs est souvent dépendante de l’Etat. L’innovation dépend donc de l’Etat. Le
rapport Gallois, 2012, prône un choc de compétitivité de 30 Milliards pour faire face aux
difficultés à CT. Le coût du Crédit d’Impôts en faveur de la recherche (CIR) pour l'État a
atteint 5,56 milliards d’€ en 2013. Cette somme équivalait cette année-là à 72 % du budget
de la recherche publique de 7,76 milliards d'euros. Philippe Aghion, Gilbert Cette et Elie
Cohen, Changer de modèle, 2014, plaident pour un nouveau modèle de croissance fondé sur
l’innovation, à la faveur duquel de nouvelles entreprises et activités viennent de manière
incessante concurrencer et remplacer les entreprises et activités existantes

7. Le pouvoir du manager dans l’entreprise

Chandler, La Main Visibles des Managers, 1977, le manager surmonte les obstacles, il
souligne son importance. Il prend l’exemple de Rockefeller (Standard Oil) ou Alfred Sloane
(GM). Berle et Means, 1932, ont montré que dans les 200 plus grandes entreprises aux
Etats-Unis, il y avait un contrôle interne des managers, cad que les managers détenaient le
pouvoir. J. Burnham, 1941, La Révolution Managériale, explique que l’on est passé d’une
tyrannie du capitalisme à une tyrannie des managers qui détiennent le pouvoir. D’après le
graphique de Williamson et Baumol, les managers poursuivent des buts qui leur sont
propres, cherchent à maximiser le CA plus que le profit. JK. Galbraith, Le Nouvel Etat
industriel, 1967, soutient que le pouvoir appartient aux éléments composant la
technostructure : hausse du pouvoir collectif des techniciens et des cadres au détriment des
actionnaires.

8. Le rôle de l’entrepreneur

R. Cantillon, 1730, l’entrepreneur est celui qui prend des risques. Pour JB Say,
l’entrepreneur est celui qui recherche le PT. P. Verley, Entreprises et Entrepreneurs en
France, 1999, 3 périodes d’évolution de l’entrepreneur. D’abord dominé par les marchands
jusque 1850, puis par techniciens jusque 1960, et enfin par l’entrepreneur-organisateur.
Schumpeter, Théorie de l’évolution économique, 1911, explique lui aussi qu’il existe
différentes figures d’entrepreneurs. Le fabricant-commerçant, le capitaine d’industrie ou le
directeur. Il dresse le portrait de l’entrepreneur comme un individu mû par des mobiles
psychologiques « irrationnels » sans pour autant rechercher le profit : « l’entrepreneur est
mû par une rationalité d’une autre espèce », « personnage le plus haut en couleur du
processus capitaliste ». A. Krupp, dans le secteur de l’acier allemand en est un bon exemple :
devient entrepreneur par la concentration de ses usines et l’innovation. Pour Marshall,
l’entrepreneur est « l’organisateur du travail des autres ».
Sophie Boutiller et Dimitri Uznidis, La légende de l’entrepreneur, 1999, la réussite des
entrepreneurs est souvent dépendante de l’Etat.

9. Toutes les PME n’innovent pas ou n’innovent pas seul

En 1979, Birch utilise le terme de « gazelle » pour montrer que l’essentiel des créations
d’emplois aux US provient d’entreprises de taille moyenne à forte croissance, mais c’est
aussi pour les opposer à des PME à croissance lente qui justement n’innovent pas et qu’il
nomme « souris ». Pour Marshall, la PME n’est viable que pour une période transitoire en
début de cycle de vie d’un produit : d’abord une grande diversité d’entreprises puis à
mesure que le marché grandit, il faut baisser les coûts, ce qui impose une concentration de
type économique. Ajd les PME innovantes sont de moins en moins indépendantes et sont
souvent le produit d’une action concertée de l’Etat, de grands groupes et des sociétés
financières. David Thesmar et Augustin Landier

10. La concentration en Europe

Retour de la concentration industrielle ne serait plus à craindre si celle-ci était coordonnée


par l’UE. Emmanuel Combe et Mucchielli affirment que la France ne gagnerait en
compétitivité que par la qualité. Une nouvelle politique industrielle en UE consisterait à
favoriser les investissements en R et D afin d’innover et de gagner en qualité. En 2012, M.
Aglietta a de même soutenu qu’il fallait mettre en place une vaste politique
d’investissements industriels à l’échelle de l’union afin de renouer avec une politique
industrielle efficace et favorable à tous.
En décembre 2019, la Commission Européenne a accepté de financer pour 3,2 MM
d’investissements en R et D sur les batteries automobiles qui représentent 70% de la valeur
ajouté d’une voiture. C’est un enjeu de taille car en 2050, le PIB des PED actuels
représentera 60% du PIB mondial selon l’OCDE, les PDEM doivent ainsi nécessairement
constituer des champions nationaux.

11. L’évolution nocive de l’organisation du travail

P. Askénazy, Les Désordre du Travail, 2004, le productivisme réactif (réagir à la demande),


et le développement des NTIC ont intensifié le travail : le coût annuel des accidents du L est
de 3% du PIB par an. D. Linhart, De la Déshumanisation taylorienne à la surhumanisation
managériale, 2015, parle de déshumanisation taylorienne pour évoquer le fait que les
individus sont désormais perpétuellement face à une machine (ordi…) et dénonce l’absence
de collègue. Surhumanisation managériale car toujours des relations hiérarchiques, toujours
plus de contrôles, les managers poussent les individus à se sentir indispensable à
l’entreprise : burn-out. D. Cohen, 3 Leçons sur la Société Post industrielle, 2006, évalue le
risque de la disparition de l’usine. Pour lui le travail est un grand intégrateur, et sans usine,
devient le travail qui segmente et précarise à partir des 80’S. Plus encore, T. Philippon dans
Le Capitalisme d’héritiers, la crise française du travail, 2006, montre que les relations
sociales sont importantes et que la France est le pays développé où la part de gens satisfait
de leur travail est la plus faible. Comme le fait remarquer Robert Castel Les Métamorphoses
de la société salariale, 1995, « il faut que tout le monde travaille et ce n’est ni la qualité, ni la
rémunération qui compte mais le travail pour le travail » : le travail est intégrateur,
l’omniprésence du chômage est nocive. Adam Smith anticipait « qu’un homme qui passe
toute sa vie à remplir un petit nombre d’opérations simples n’a pas lieu de développer son
intelligence ni d’exercer son imagination ».

12. Les autres formes de monopoles

E. Chamberlain et J. Robinson, Theory of Monopolistic Competition, 1933 ont développé le


terme de concurrence monopolistique, cad une stratégie de différenciation des produits,
mais qui restent en concurrence car les produits sont substituables : il s’agit d’une
différenciation verticale. H. Hotelling a appliqué cette théorie en mettant en avant la
différenciation horizontale, en montrant que la différenciation horizontale a un impact sur le
prix.
A. Cournot, 1838, s’est quant à lui intéressé à la situation de duopole : l’entreprise
détermine la production en fonction du concurrent : c’est l’équilibre de Cournot. H. von
Stackelberg, 1935, a rajouté que c’est l’entreprise qui domine l’autre qui détermine la
production. Mais pour J. Bertrand, le duopole ne peut aboutir qu’à une guerre des prix, où
les deux entreprises se comportent en dominant. On aboutit alors à un équilibre de Nash, où
les deux firmes proposent un prix égal au prix compétitif.
Le dilemme du prisonnier, énoncé en 1950 par Albert W. Tucker montre que les deux
entreprises sont dans une situation où elles auraient intérêt à coopérer, mais où, en
l'absence de communication, chacun choisira de trahir l'autre. La raison est que si l'un
coopère et que l'autre trahit, le coopérateur est fortement pénalisé.

13. Les nouveaux buts des entreprises

La notion de responsabilité sociale a été introduite par Howard Bowen, 1953, The Social
Responsibility Service. Michel Capron et François Quairel, La responsabilité sociale
d’entreprise, 2010, la responsabilité sociale est « susceptible d’apporter ce « supplément
d’âme », cette justification qui rend l’entreprise acceptable aux yeux de la société ».
Segrestin et Hatchuel proposaient un « Statut à Objet Social Etendu », pour éviter les
intérêts des actionnaires seulement.
Loi PACTE, en France 2019, mise en place par Bruno Lemaire, accorde un statut de « société
à mission » pour les entreprises qui adoptent des raisons d’être : SOSE (Société à Objet
Social Etendu).
Sur le plan environnemental par exemple l’entreprise Lafarge s’engage par exemple à
réduire les émissions de CO2 et de poussières liée à son activité de production de ciment, ou
encore, Adidas : l'icônique Stan Smith désormais éco-responsable. Microsoft a annoncé qu’il
serait "carbon negative" d’ici à 2030, tandis que Jeff Bezos a créé « Bezos Earth Fund » et
investi 10 milliards d’euros pour lutter contre le changement climatique. Cela s’oppose à la
vision de Friedman qui considérait que la mission de l’entreprise était le profit uniquement
(« raison d’avoir »).

TD7 : le financement

1. La récurrence des crises : des raisons endogènes

Clément Juglar concluait dès 1862 que le cycle économique était un cycle du crédit, inflexion
lorsque le « goût du risque » l’emporte, cad les comportements spéculatifs. Au 19ème, les
crises périodiques s’expliquaient par le financement des chemins de fer dont on surestimait
la rentabilité. +Hyman Minsky : paradoxe de la tranquillité dans Stabilizing an Unstable
Economy, 1986. Pour André Orléan, il n’y a pas de valeurs fondamentales pour le prix des
actifs, ceux-ci ne peuvent reposer que sur des anticipations : spéculation (def de Keynes :
« prédire la psychologie du marché »).
Minsky expliquait aussi qu’il y a toujours une innovation de rupture permettant de croire
que « cette fois c’est différent », conduisant à un excès d’optimisme (exemple : le Currency
Board argentin, un dollar=un peso). Kindleberger, dans Histoire Mondiale de la Spéculation
Financière (2002), évoque quant à lui le moment où il y a un « effet de déplacement »,
moment où la situation économique se dégrade à cause d’une perte de compétitivité.

2. La formation d’une bulle spéculative : marché déstabilisé

Pour Keynes, la spéculation se définit par « l’action qui prédit la psychologie des marchés ».
Keynes, dans la métaphore du concours de beauté (1936), contredit l’hypothèse d’efficience
des marchés de Fama : « la sagesse universelle enseigne qu’il vaut mieux, pour sa
réputation, échouer avec les conventions que réussir contre elles ». Selon cette théorie les
prix seraient liés à des conventions, et les prix des titres ne varient pas tant selon des critères
objectifs mais plutôt selon la croyance générale sur l’évolution du titre en question. N.
Kaldor, Review of Economic Studies (1987) contredit aussi le pdv des néoclassiques : le
spéculateur a une préférence pour le risque, et joue ainsi le rôle d’assureur, ce qui
déstabilise le marché. Minsky quant à lui distingue 2 types d’actifs financiers : les actifs
patrimoniaux (dont le but est d’en tirer un revenu) et les actifs négociables (substituts à la
liquidité). La bulle spéculative se forme à cause du deuxième type d’actif, qui est un substitut
à la liquidité. O. Blanchard et J. Tirole (1985) développe quant à eux la théorie des bulles
rationnelles. Le paradoxe Stiglitz-Grossman énonce que les individus agissent de manière
rationnelle mais ne disposent pas de toute l’information ce qui participe à déstabiliser le
marché. + PN Giraud, les mistigris
A cela s’ajoute l’existence d’asymétries d’informations entre les prêteurs et les emprunteurs
selon Joseph Stiglitz et Andrew Weiss (Credit rationing in markets with imperfect
information, 1981) qui conduit à une hausse des taux d’intérêts et finalement à un risque
systémique comme le définit Aglietta : « éventualité qu’apparaisse des états éco dans
lesquelles les réponses rationnelles des agents indiv aux risques qu’ils perçoivent amènent à
augmenter l’insécurité générale ».

3. La formation d’une bulle spéculative : les spéculateurs irrationnels

A. Shleifer et L. Summers dans The Noise Traders Approach to Finance (1990) distingue les
spéculateurs rationnels de ce qu’ils appellent Noise Traders, les spéculateurs irrationnels qui
réagissent aux rumeurs, mais pas aux informations. Pour Friedman, dans Essay in Positive
Economies, 1953, si le nombre de Noise Traders (spéculateurs irrationnels) est trop
important, se forme alors une bulle spéculative. Selon Merton, peut alors avoir lieu une
« anticipation autoréalisatrice », ou prophétie autoréalisatrice.
V. Smith et D. Kahneman insiste quant à eux sur le rôle des émotions dans la prise de
décisions, et parle d’une « aversion pour le risque », alors que Shiller évoque quant à lui une
« exubérance irrationnelle des individus ».

4. Le spéculateur stabilise le marché

Pour M. Friedman dans Essay in Positive Economies, 1953, la spéculation permet de


stabiliser le marché. Les spéculateurs sont utiles pcq ils offrent un service aux individus
risquophobes et jouent le rôle d’assureur. Selon H. Markowitz, la théorie du portefeuille,
qui cherche à mutualiser les différents produits financiers de risques différents, permet de
diluer le risque, et de stabiliser le marché. + Fama, dans Efficient K. Markets, 1970, qui parle
de la triple efficience du marché (allocative, informationnelle, opérationnelle). Dans sa
théorie du reflet, il montre que l’évaluation financière est le reflet fidèle de l’économie
productive. RG King et R. Lévine, Finance et croissance 1993, étude empirique 77 pays, 1960
à 89 : marché fi efficient. Plus encore, les théories néoclassiques insistent sur le fait que la
mondialisation financière assure l’allocation optimale des capitaux (rejoignent Solow).

5. Encadrer l’activité des banques pour espérer réduire le risque de crise fi

Dès 1882, suite à la faillite de l’Union Générale, H. Germain a prôné la mise en place d’une
règle prudentielle : prémisses de la réglementation prudentielle. La réglementation
prudentielle dans le cadre du comité de Bâle, créé en 1974, mise en place autour de 2 types
de ratios (liquidité et solvabilité), et en identifiant 3 types de risques (crédit, marché,
opérationnel) réduit le risque fi. Mais il y a une difficulté à appliquer les mesures que l’on
prend. Au plan micro-prudentiel, selon Jean Tirole, dans Les leçons d’une crise (2008), toute
la question de la réglementation bancaire porte sur le degré de liberté qu’il faut laisser aux
acteurs. M. Allais propose en 1998 dans La crise mondiale d’ajd, un découpage en 3 types de
banques : banque de dépôts, de prêt et d’acheteur de titres. J. Kwak et S. Johnson, dans 13
Bankers, 2010, prônent la nécessité de « casser les grandes banques » pour minimiser les
risques, avec des lois du type Glass Steagall Act. Stiglitz va dans ce sens également puisqu’il
préconise dans son ouvrage Le triomphe de la cupidité (2010) un retour au Glass Steagal
Act. Pour Michel Aglietta (Macroéconomie financière, 1995), il faudrait revoir les politiques
monétaires mises en place par la banque centrale, en mettant en place une approche macro-
prudentielle, ce qui revient à surveiller la dette des agents éco à travers la stabilité du
système fi.

6. Les effets pervers et inefficaces de la réglementation

La réglementation financière est une incitation à l’innovation financière qui peut être
nocive : les filiales créées par les banques qui permettent de contourner la règle et favorise
un risque systémique en est un exemple.
En 1993, Georges Akerlof et Paul Romer publient Brooking Papers on Economic Activity
dans lequel ils montrent que la fraude peut relever d’un comportement rationnel selon la
réglementation en vigueur. En effet, si des banques peuvent s’endetter en bénéficiant de la
garantie de l’Etat, elles prendront des risques excessifs en ne prenant en compte que les
gains potentiels : aléa moral. J. Tirole et M. Dewatripont, La réglementation prudentielle des
banques, 1994, expliquent qu’au niveau micro-prudentiel, il existe un risque de collusion
entre superviseurs et banques. M. Aglietta, Macroéconomie financière (1995), il existe deux
difficultés au niveau macro prudentielle : la situation d’aléa morale, mais aussi le Shadow
Banking. Plus encore, L. Scialom dans La fascination de l’ogre, 2019, on assiste à une
« capture » des autorités de supervisions par les banques, capture qui aurait « une
dimension cognitive ». J. Couppey-Soubeyran, Bâle 3 : des Economies pas de Révolution ,
2011, a expliqué que le comité de Bâle était sensible au lobbying des banques, ce qui rend
la réglementation inefficiente. Plus tard, il expliquera aussi en 2015 dans son ouvrage Blabla
Banques que le coussin contracyclique et la surcharge systémique prévu dans Bâle 3 restent
très insuffisant.

7. Rôle néfaste des politiques monétaires dans les crises

L’excès de dettes trouve son origine dans une politique monétaire trop accommodante.
Milton Friedman et Anna Schwartz dans L’Histoire monétaire des US (1867 à 1960), 1963,
ont montré que les politiques monétaires peuvent elles-mêmes être responsable de la
formation et de l’éclatement des bulles fi. Plus récemment la politique d’Alan Greenspan,
président de la FED entre 1987 et 2006, louée puis décriée après la crise des subprimes, en
est le parfait exemple.
Barro et Lucas, tenant de la croissance endogène, prône quant à eux, tout comme les
classiques, que la monnaie est neutre, et que les politiques monétaires ne peuvent qu’être
néfaste et renforcer les crises. Kydland et Prescott critique dans Rules Rather than
Discretion (1977) les politiques discrétionnaires qui serait pour eux un changement d’objectif
qui entrainerait une perte de confiance. Ils évoquent ainsi une « incohérence temporelle »
des choix politiques, et prône une politique de règle.
F. von Hayek a expliqué que si le taux d’intérêt nominal était inférieur au taux naturel (défini
par K. Wicksell dans Interest and Prices, 1898), alors cela entrainait un risque de
déséquilibre par la surcapitalisation : la baisse des taux d’intérêt par la BC peut présenter un
risque, et dégénérer en coup d’accordéon. Hayek se prononce contre toute mesure visant à
relancer la consommation, qui ne ferait selon lui qu’aggraver le mal : insuffisance d’épargne
pas d’excès. La crise économique est provoquée par la politique monétaire expansionniste
de la BC qui fausse le système de prix relatifs dans la structure de production.
Michel Aglietta et Natacha Vala, Taux d’intérêt négatif et stagnation séculaire, 2016,
l’expansion monétaire des BC comme le principal facteur de la stagnation séculaire. Pour R.
Lucas, l’offre de monnaie (de la part de la banque centrale) fait subir à l’économie un choc
engendrant des fluctuations.

8. Rôle positif des politiques monétaires dans les crises

L’intervention des BC permet d’éviter le pire. Les politiques de Zero Interest Rate Policy
menées à partir de 2001 ont permis la reprise de l’économie américaine après le choc des
attentats et la bulle internet. P. Artus et MP Virard, dans La folie des BC (2016), « la politique
monétaire a évité un désastre encore plus grave que 1929 ».
De plus, l’action de la BC explique largement les conséquences différentes de la crise de
1929 et de la crise de 2008 : en 1929, la FED a laissé faire la crise et a favorisé la mise en
place de la déflation. En 2008, elle a fait preuve de réactivité en abaissant fortement le taux
directeur : de 5,25% à 2% entre septembre 2007 et avril 2008 puis à 0 fin 2008. Elle injecte
aussi massivement de la liquidité par l’open-market : 50 MM en septembre 2008 puis 60
MM en décembre et 80 MM en février 2009. Elle se tourne ensuite vers des politiques
monétaires non conventionnelles par l’intermédiaire de Bernanke Monetary Policy
Alternatives at the Zero Bound, 2004 qui porteront leur fruit, puisque les US retrouveront
une stabilité économique en 2015.
Dans une économie d’endettement, les BC ont un rôle face aux crises de changes, qui sont
des crises de 1ère génération (Paul Krugman, A model of Balance Payements Crisis, 1979), qui
doivent utiliser leurs réserves de change pour éviter la dépréciation, ou dévaluation.

9. Crédibilité de la BC

Pour M. Friedman dans Inflation et Système monétaire, 1986, « la monnaie est une chose
beaucoup trop importante pour être laissée aux mains des banquiers centraux » : il s’agit
alors de trouver un moyen de rendre crédible l’action de la BC.
En effet, pour R. Barro, Inflation et croissance, 1997, l’indépendance de la BC est un facteur
de crédibilité, et se manifeste par une préférence pour une faible inflation. Alesina et
Summers dans Central Bank Independence and Macroeco Performance, 1995, appuient ces
propos à travers une analyse empirique menée entre 1955 et 1988 sur 16 pays développés :
plus la BC est indépendante plus les taux d’inflation sont faibles. M. Aglietta, 1995,
L’indépendance de BC explique que la BCE = crédibilité par la stabilité des prix (crédibilité
constitutionnelle), alors que FED = crédibilité procédurale. Mario Draghi : « la BCE fera tout
ce qu’il faut pour préserver l’euro ». Le forward guidance mis en avant par Bernanke permet
de légitimer l’expansion monétaire et les politiques mises en place. Selon Jean-Claude
Trichet : « La confiance est aujourd’hui le facteur déterminant ».

10. Les conséquences de l’expansion monétaire (stats)

Les politiques de quantitative easing mises en place pendant la crise des subprimes par Ben
Bernanke ont porté le bilan de la FED de 600 à 4500 milliards fin 2014. Elle injecte aussi
massivement de la liquidité par l’open-market : 50 MM en septembre puis 60 MM en
décembre et 80 MM en février 2009. En 2008, le plan Paulson propose aux US de racheter
des titres invendables. La zone euro a appliqué cette politique entre 2012 et 2018, et son
bilan est passé de 1500 à 4500 milliards de dollars. L’endettement public des pays
développés était de 70% en 2000, il est 20 ans plus tard, avant la crise du Covid de 105%.
« Le total du bilan des BC des pays de l’OCDE passe de 1700 milliards de $ en 1996 à 14000
milliards de dollars au début de 2020 et probablement 25000 milliards de $ à la fin 2020
avec la crise sanitaire », P. Artus et O. Pastré, L’économie post-covid, 2020.
Le bilan de BC du Japon est de 130 % du PIB du Japon, lancée dans des achats de titres
massifs depuis plus longtemps et dont l’activité a été multipliée par six.
Le bilan de la BCE avoisinait déjà les 7000 milliards d’euros fin 2020, contre 9000 milliards de
dollars pour la FED. La BCE détenait déjà 20% de la dette publique de la zone euro au début
de 2020, et en possède désormais plus de 30%. Jusqu’où peut-elle aller ?

11. L’expansion monétaire est indispensable dans un contexte de crise

Il y a aujourd’hui selon le FMI 29 banques « too big to fail » dans le monde. W. Bagehot a en
effet théorisé le phénomène de prêteur en dernier ressort dans Lombart Street, 1873,
notion qui émerge avec le New Deal de Roosevelt et qui sera institutionnalisé par le Banking
Act de 1935. Ainsi lors de la crise des subprimes, le RU a sauvé la Northern Rock Bank. Il faut
à tout prix éviter un phénomène de déflation par la dette tel que théorisé par I. Fisher dans
The Debt Deflation Theory, 1933, légitimant l’expansion monétaire : « la déflation
transforme la nature de la dette en l’alourdissant » + stats de Bernanke expansion
monétaire.

12. La crise est une destruction créatrice qui apporte de nouvelles réglementations

La crise de 1907 aux US est à l’origine de la naissance de la FED en 1907. La crise de 1929 est
à l’origine du prêteur en dernier ressort (Bagehot, Lombart Street, 1876) par le Banking Act
de 1935, et est accompagné de la création de la SEC (Securities Exchange Comitee) en 1934
et du Glass Steagal Act de 1933. Robert Barro explique en effet que « l’Etat doit se lier lui-
même les mains ».

13. La monnaie n’a aucun impact sur l’économie, mais émission excessive=inflation
La théorie quantitative de la monnaie a été théorisée par J. Bodin, en 1568 : la quantité de
monnaie en circulation n’affecte pas l’économie réelle, ou D. Hume 1752.
Les économistes classiques prônaient tout d’abord que la monnaie n’a aucun impact sur
l’économie, et s’opposent à la vision mercantiliste de l’échange, et vont mettre en avant la
TQM. « La monnaie est un ustensile au même titre que les ustensiles de cuisine » expliquait
A. Smith. Plus encore, JB Say affirmait que « la monnaie est un voile qui recouvre un troc »,
« il n’est pas dans l’économie quelque chose de plus insignifiant que la monnaie » expliquait
JS Mill. Ceci implique donc la neutralité de la monnaie. I. Fisher, The Purchasing Power of
Money, 1911, a quant à lui théorisé l’équation des transactions pour montrer que la
monnaie est neutre dans une économie : MV=PT qui montre que la masse monétaire (M),
multipliée par la vitesse de circulation de la monnaie (V, constant) est égale au prix (P),
multipliée par les transactions (T, constant). M. Friedman en 1969 est même allé jusqu’à
évoquer l’idée d’un hélicoptère monétaire, sans pour autant en prôner la pratique.
Ricardo dans la première moitié du 19 ème siècle était quant à lui un fervent partisan de la
Currency School (qui s’oppose à la Banking School), dont le Bullion Report de 1810 fut l’acte
fondateur de cette école, et qui prône une analyse quantitativiste de la monnaie également.
Ainsi, préserver la valeur de la monnaie suppose de fixer une limite à l’expansion
monétaire afin d’éviter que l’inflation vienne la réduire. « L’inflation est comme
l’alcoolisme. Lorsqu’un homme se livre à une beuverie, le soir même cela lui fait du bien. Ce
n’est que le lendemain qu’il se sent mal » Friedman.

14. La monnaie a un impact sur l’économie

Le Bullion Report et la TQM furent vivement contestés par les économistes de la Banking
School (Thomas Tooke et John Fullarton) qui considère que la monnaie est endogène.
Keynes, 1936, s’inscrit aussi dans cette tradition, et surtout les économistes qui ont
développé le modèle ISLM (J. Hicks).
Keynes a ainsi mis en avant le phénomène de trappe à liquidité : préférence pour la liquidité
des individus.
Les économistes autrichiens, comme von Hayek, adhère à la loi des débouchés mais pas à la
TQM. Selon eux, la TQM prend en compte l’économie dans sa globalité sans voir qu’une
augmentation de la masse monétaire affecte la structure de l’économie. La monnaie a un
impact sur les prix relatifs.

15. Mots importants à utiliser (defs)

Credit Crunch : resserrement du crédit par les banques. C'est à dire que celles-ci sont plus
frileuses à l'idée d'accorder des crédits aux entreprises ainsi qu'aux ménages
Effet de levier : utilisation de l’endettement pour augmenter la capacité d’investissement
d’une entreprise, d’un organisme financier ou d’un particulier et l’impact de cette utilisation
sur la rentabilité des capitaux propres investis.
Open market : interventions de la banque centrale sur le marché monétaire consistant à
fournir ou retirer des liquidités aux établissements financiers via des achats ou des ventes de
titres et ainsi influencer à la baisse ou à la hausse le taux du marché monétaire.
Politique de règle : Lorsqu’une institution suit une politique de règle, son champ d’action,
ses leviers et ses objectifs sont déterminés ex ante. Par exemple : la BCE et le taux d’inflation
à 2%.
Politique discrétionnaire : une politique qui dépend des circonstances et qui est laissée « à
la discrétion » des pouvoirs publics, s’adapte au contexte économique.
Politique non conventionnelle : politique qui ne passe pas par la liquidité bancaire et le
crédit bancaire (quantitative easing, qualitative easing, forward guidance).
Politique conventionnelle : politique qui passe par le taux directeur, les réserves
obligatoires, l’open market.
Quantitative easing : désigne un type de politique monétaire par laquelle une banque
centrale rachète massivement de la dette publique ou d'autres actifs financiers afin
d'injecter de l'argent dans l'économie et de stimuler la croissance : augmentation du bilan de
la BC, gonflement de son passif monétaire. (très important)
Qualitative easing : désigne un changement dans la composition des actifs de la banque
centrale qui se traduit par une moindre détention en actifs sûrs et liquides, la taille du bilan
restant inchangée.
Forward Guidance : outil utilisé par une banque centrale pour exercer son pouvoir dans la
politique monétaire dans le but d'influencer, avec ses propres prévisions, les anticipations du
marché quant aux niveaux futurs des taux d'intérêt.

TD8 : L’internationalisation des économies

1. Eléments d’intro

Les Corn Laws étaient une série de textes réglementaires adoptés au Royaume-Uni entre
1773 et 1815 pour encadrer le commerce des céréales avec l'étranger. Celui de 1815
interdisait toute importation de céréales lorsque les cours passaient en dessous d'un certain
seuil, mais il fut abrogé en 1846 avec par Robert Peel pour se diriger vers le LE. En 1786, le
traité Eden-Rayneval entre la France et la GB, est un premier pas vers le LE, et modernise les
politiques commerciales (les droits de douane sont baissés à 10% pour les produits
métalliques, à 12% pour le coton ou la laine). Mais c’est le traité de Cobden-Chevalier de
1860, qui est le plus important en faveur du LE. Il est l’aboutissement d’une baisse des droits
de douane commencée en 1828, prôné par Robert Peel et qui transformera
progressivement l’Europe en zone de LE.
Aujourd’hui, le taux d’ouverture de l’économie mondiale (exportations +
importations/2*PIB) se situe ces dernières années entre 25 et 30%, bien au-delà du
maximum atteint dans le passé (il était de 12% en 1914 par exemple).
Volume des échanges X6,5 entre 1980 et 2010 ; X3,9 produits agri ; X4 matière première ;
X7,7 produits manufacturés ; X9,2 services.
1913 : 5 pays=50% du CI, 1960 : 65,5%, ajd : 43,2%.
Commerce mondial X25 de 1948 à 2020.
De 1800 à 1913, production mondiale par tête a été multipliée par 2,2.
Le volume du commerce international a autant progressé entre 1974 et 1996 qu’entre 1880
et 1980.

2. Le LE permet une plus grande efficacité des facteurs de production

Ricardo, 1817, Des principes de l’économie politique et de l’impôt : théorie des avantages
comparatifs. HOS 1948, dotation factorielle explique les avantages comparatifs. « Un pays a
un avantage comparatif dans le bien dont la production est intensive dans le facteur
relativement abondant dans ce pays ».
Selon B. Lassudrie-Duchêne (La demande de différence et l’échange international, 1971), on
exporte ce qu’on fait de différents des autres. « L’échange ne peut s’expliquer que par une
différence quelconque ». Helpman et Krugman : Market Structure and foreign trade, 1985,
CI=hausse de la taille des marchés qui entraine une hausse du nombre d’entreprises et qui
font baisser les prix par les économies d’échelle. J. Hicks explique de plus qu’une hausse de
la productivité dans un pays bénéficie à son partenaire commercial.

3. Le LE favorise l’élargissement de la taille des marchés, et accélère les échanges

S. Linder, An essay on trade and transformation, 1961, le marché extérieur est un


prolongement du marché intérieur. M. Posner, International Trade and Technological
Change, 1961, développe la théorie de l’écart technologique : le LE permet la diffusion de la
norme technologique du pays leader. R. Vernon, International Invest and Trade in the
Product Cycle, 1966, met quant à lui en lumière la théorie du cycle de vie du produit :
transmission internationale de la technologie.
Le volume du commerce international a autant progressé entre 1974 et 1996 qu’entre 1880
et 1980. Il a été multiplié par 25 entre 1948 et 2007.
J. Sachs et alii dans Brooking Papers on Eco Activity, 1995, montre en comparant la
croissance de pays ouverts et fermés que le libre-échange favorise la croissance.

4. La mondialisation est partielle

P. Artus et MP Virard, On comprend mieux le monde à travers l’économie, 2008, « la


mondialisation est une vérité globale, mais un mensonge local ». Pour reprendre les termes
de Jacob Viner, la mondialisation s’appuie sur des « zones naturelles d’échange » expliquait-
il dans The Customs union Issue, 1950, qui excluent donc certains pays. CA. Michalet, Le
Capitalisme mondial, 1996, explique que l’économie mondiale est « une réalité en
formation ». A. Emmanuel, en 1969, dans L’Echange inégal, explique qu’être à l’écart de la
mondialisation condamne le pays à y rester : « Ce n’est pas parce que les FMN investissent
en Afrique que le continent est sous-développé, mais parce qu’elles n’y sont pas assez
présentes ! ». Suzanne Berger - Notre première mondialisation : leçons d’un échec oublié,
2003 – dénonce l’idée selon laquelle « nous serions sur le point d’entrer dans un monde
radicalement nouveau ». Krugman, 1991, Geography and Trade, les activités se concentrent
sur des petits territoires : il existe une concentration spatiale des activités. O. Bouba-Olga,
Les nouvelles Géographies du Capitalisme, 2006, confirment ce risque : concentration
spatiale. Pareil pour Bairoch « tyrannie de l’espace ».

5. La mondialisation fait progresser les inégalités au niveau mondial

A. Maddison, L’économie mondiale, 1995, a montré qu’il y avait eu un développement des


inégalités à l’échelle mondiale provoqué par la mondialisation depuis la RI. 1820 : écart
revenu Afrique-GB : X3,2 ; 1910 : X7,2 ; 1992 : X17.
B. Milanovic, Inégalités mondiales, 2016, la courbe de l’éléphant : inégalités élevées au
niveau mondial, déclin classe moyenne des PDEM. Pour PN Giraud, L’inégalité du monde,
1996, le PT associé à la mondialisation fait augmenter les inégalités.

6. La mondialisation est inégale

A. A l’échelle globale
Les hypothèses de Ricardo sont irréalistes (immobilité externe des facteurs de prod, CPP,
rendements d’échelles constants). F. Graham a montré en 1923 que toutes les
spécialisations ne se valent pas : certaines propices aux rendements croissants d’autres
décroissants. J. Bhagwati (1958, Immiserizing growth : a geometrical note) étudie lui
l’hypothèse de la « croissance appauvrissante ».
Pour Marx, un pays pauvre ne peut pas être gagnant s’il participe à l’échange international.
Les théories de l’échange inégal de S. Amin et A. Emmanuel en (1969, L’échange inégal)
prolonge les propos de Marx. Théorie centre périphérie. Théorie impérialiste (Lénine, 1916).
Selon le FMI, l’Afrique ne concernait en 2016 qu’1% des flux d’IDE mondiaux. I. Wallerstein
dans Capitalisme et Economie-monde, 1980, insiste sur le fait que la périphérie produit sous
le contrôle politique du centre de l’économie monde. R. Prebish et H. Singer dans The
Distribution of Gains Between Investing and Borrowing Countries 1950, évoque la
dégradation des termes de l’échange pour évoquer le fait que les prix n’évoluent pas de
manière parallèle dans PED et PDEM : la demande de produits primaires augmente moins
vite que la demande de produits manufacturés.
Le théorème Stolper-Samuelson expliquera que l’on assiste à une baisse des inégalités dans
les PED avec la mondialisation et qu’à l’inverse, on constate une hausse des inégalités des
PDEM. Bourguignon, L’économie des Inégalités, 2012 rejoint ce pdv : baisse des inégalités
globales, mais hausse des inégalités internes. Dans le cadre de la réunion de l’OMC au
Mexique en 2004, véritable résistance des PED face aux demandes d’ouverture de leurs
économies exprimées par les PDEM.

B. A l’échelle locale
P. Artus et MP Virard, en 2008, dans On comprend mieux le monde à travers l’économie,
explique que « la mondialisation est une vérité globale mais un mensonge locale ».
CA. Michalet, Le Capitalisme mondial, 1996, explique que l’économie mondiale est « une
réalité en formation ». En dehors des FMN, petites entreprises ont un horizon économique
qui reste « délimité par les frontières nationales ». + concentration dans espaces précis :
« effet d’agglomération » Marshall, Krugman 1991, Bairoch « tyrannie de l’espace ».

7. Le protectionnisme est un préalable indispensable

La concurrence entre les pays précoces et pays tardifs donnera toujours l’avantage aux
premiers, enfermant les seconds dans une spécialisation défavorable. Les avantages ne sont
pas réciproques, les hypothèses de Ricardo sont irréalistes. En 1841, Frédéric List, Système
national d’économie politique, proposait le protectionnisme éducateur en affirmant « il faut
protéger les industries dans l’enfance ». « Le libre-échange est notre but, le protectionnisme
notre voix ». A. Hamilton l’appliquait dès 1791 au cas des US, et instaura une théorie
moderne du protectionnisme, en expliquant que l’industrie nécessite des droits de douane.
C’est la politique qui a été suivi par l’Allemagne (protectionnisme tarifaire et sélectif) dans le
cadre du Zollverein (1834), mais aussi par les économies asiatiques. On retrouve une
parenté avec le modèle d’Akamatsu de la théorie du vol d’oie sauvage dans les années 30.
Brander et Spencer, ont mis en avant le fait qu’il peut s’avérer utile de subventionner par
l’intermédiaire de l’Etat certains secteurs en mettant en place une politique commerciales
stratégiques (Krugman-Baldwin, Market Access and Competition, 1988) : étude sur le
protectionnisme sur les microprocesseurs au Japon. Paradoxe Goddley-Cripps : c’est par le
protectionnisme que croissance des échanges internationaux.

8. Le protectionnisme favorise la croissance

Entre les 16ème et 19ème siècle, les économistes mercantilistes prônaient le protectionnisme
afin d’augmenter son excédent commercial qui permet d’augmenter son stock d’or. A.
Montchrestien, mercantiliste disait en effet que « nul ne gagne ce que d’autres ne
perdent » : le CI est un jeu à somme nulle. C’est A. Hamilton qui en 1791 instaura une
théorie moderne du protectionnisme, en expliquant que l’industrie nécessite des droits de
douane.
Keynes, 1936, est quant à lui aussi proche de l’idéologie mercantiliste puisqu’il pense que le
protectionnisme renforce l’efficacité du multiplicateur keynésien, ce qui favorise ainsi la
croissance. Il prône aussi deux séries de mesures protectionnistes qui permettent de
renforcer la compétitivité : une politique non coopérative et le rétablissement de la balance
commerciale au détriment des autres pays.
Paul Bairoch, Mythes et paradoxes de l’histoire éco, 2001, croissance plus forte dans les
pays protectionnistes (Allemagne, US). « Le protectionnisme est la règle, le libre-échange
l’exception », ou « le LE est une théorie sans réalité, et le protectionnisme est une réalité
sans théorie ». La France renoue avec la croissance à la suite des lois Méline (1892), lois
protectionnistes qui permettent l’entrée dans la Belle-Epoque (1892). Kaldor dans Conflicts
in National Economic Objective, 1970, affirmait quant à lui qu’« il faut protéger les industries
dans la vieillesse ». Exemple de Krugman et des montres suisses et thaïlandaises : en
l’absence de mesures protectionnistes, avantage du first player (la Suisse). Les thaïlandais ne
peuvent alors être gagnant que s’ils ferment leurs frontières. Krugman prône aussi un
« mercantilisme éclairé ».

9. Le protectionnisme nuit à la croissance

Le protectionnisme aggrave les crises : 29 à 33 chute du CI spectaculaire (27% en volume,


59% en valeur). Valeur du commerce de 1939 est égale à 42% de la valeur de 1929.
Import Duty Act en 1932 en GB autorise les droits de douane jusqu’à 100% si importations
sont abusives. Tarif Smoot-Hawley en 1930 aux US : augmente les droits de douane à
l’importation de 20000 types de biens, puis le Buy American Act en 1933 qui impose l’achat
de produits américains par l’Etat. New Deal de Roosevelt est un échec.
« Nul n’est économiste s’il est protectionniste » expliquait Nassau William Senior, 1825. Il
faut alors bien s’en tenir aux propos de List : « le LE est notre but, le protectionnisme notre
voie ».
P. Messerlin estime à 39 milliards d’€ la perte de surplus en Europe à cause des barrières
tarifaires. S. Jean et alii dans La Lettre du Cepii, numéro 388, de mai 2018, analyse les effets
des sanctions douanières de Trump sur acier et l’aluminium à la Chine et l’UE, qui revient à
taxer 900 millions de $ de valeurs ajoutées provenant des US eux-mêmes. À court terme,
leur impact sur les coûts de production et les prix des biens aux États-Unis serait non
négligeable, de l’ordre de 0,5%. À plus long terme, les mesures affectant l’acier et
l’aluminium pourraient coûter environ 4 milliards de dollars d’exportations et de production
aux Européens, un montant relativement modeste. En revanche, les mesures annoncées
visant le commerce entre les États-Unis et la Chine pourraient avoir des conséquences
nettement plus lourdes, de l’ordre de 25 milliards de dollars pour chacun de ces deux pays.
Le protectionnisme fait baisser le surplus global (graphique).
10. Le développement des échanges internationaux, et du LE (stats)

La valeur des exportations mondiales de marchandises est passée de 2000 milliards de $ en


1980 à 18000 milliards de $ en 2013, connaissant une croissance de 6,8% par an.
Le taux d’ouverture de l’économie mondial se situe ces 10 dernières années entre 25 et 30%,
alors que seulement de 12% en 1914. Les échanges internationaux ont connu une nouvelle
répartition, notamment entre pays riches et pauvres. 1980, les PDEM représentaient 73%
des exportations mondiales de biens contre 57% ajd. La Chine réalisait 12% des exportations
de biens mondiales de biens en 2013, contre 1% en 1980.
De plus coûts des transports aériens ont été divisés par 3 entre 1980 et 2015, par 2 pour les
voies maritimes. Entre 1948 et 2007, les échanges internationaux se sont multipliés par 25,
ce qui témoigne du fait que le libre-échange reste un atout majeur de la mondialisation.
DIPP et commerce intra-firmes représentent un tiers du commerce mondial.
+B. Lassudrie-Duchêne : demande de différence, 1971, on exporte ce qu’on fait de différents
des autres.
+possibilité de Posner 1961 pour diffusion technologie, et List 1841 pour le protectionnisme
qui a permis LE.

11. Les PED ne sont pas une menace pour PDEM dans le cadre du LE

P. Krugman dans La mondialisation n’est pas coupable, 1996, remet en cause les guerres
commerciales entre les puissances nationales. PDEM ne doivent pas craindre PED, ils sont
une opportunité pour entreprises des PDEM car crées des débouchés. « C’est la peur de la
réussite du tiers monde, pas sa réussite elle-même qui représente un réel danger pour
l’économie mondiale ». En effet, 31% du chiffre d’affaires du groupe LVMH se fait en Asie.
P. Hugon, Les économies en développement à l’heure de la mondialisation, 2003, distingue
la régionalisation horizontale et verticale, et insiste sur le fait que se développe la
régionalisation verticale cad des accord Nord-Sud (Mercosur-UE, 15 novembre 2020). F.
Braudel, La dynamique du Capitalisme, 1985, le Capitalisme s’est développé pour
contourner les règles et volonté d’obtenir profits en exploitant les différences entre les
territoires : PED est un bénef pas menace. + graphique de la courbe de J. Shih, pour la valeur
ajoutée : les PDEM produisent là où la VA est la plus élevée.
12. Le protectionnisme doit être géré collectivement, il apparait naturellement

Pour JN Jeanneney, Pour un nouveau protectionnisme, 1978, le protectionnisme serait « le


fruit du dogmatisme libre-échangiste ». Il s’agit alors de le gérer collectivement.
Avec Maîtriser le libre-échange en 1994 Gérard Lafay et Jean Marc Siroen, la recherche d’un
libre-échange intégral est illusoire au niveau mondial en raison des différences entre les
pays, et ne fait que renforcer le protectionnisme. Dans le même esprit, Maurice Allais (1992-
93) considérait que le retour à des tarifs extérieurs communs en Europe est le moyen de
maintenir le libéralisme interne.

13. Nécessité de réguler la mondialisation

La mondialisation renforce la responsabilité des Etats. Wladimir Andreff - Les


multinationales globales, 1996 - écrit par exemple que « les Etats ne sont pas des
subordonnées passives des multinationales ». Ces FMN testent leur capacité à adapter leurs
politiques et conduisent ainsi parfois les gouvernements à promouvoir une idéologie anti-
mondialiste. Jean Noël Jeanneney Pour un nouveau protectionnisme, 1978, écrivait que « le
protectionnisme est le fruit du dogmatisme libre-échangiste » : considérer sans nuances les
conclusions issues des analyses du libre-échange par David Ricardo, c’est s’exposer à un
engrenage protectionniste (cf Lafay Siroen).
Il est nécessaire que la main d’œuvre soit qualifiée. Ainsi faut-il mettre en œuvre des
politiques de formations et de santé publique comme l’ont fait les NPI asiatiques. La
mondialisation ne peut être un atout que si elle est accompagnée d’une régulation publique.
Entité supranationale : JM Siroen, L’OMC et la mondialisation des économies, 1998, le GATT
est le gardien des règles du jeu (dumping, clause de la nation la plus favorisée, interdiction
de subventions). L’ORD (Organe de règlement des différends) dans le cadre de l’OMC est
chargé de régler les différends : ex des bœufs entre les US et l’Europe qui imposait des
normes sur l’importation des bœufs, et qui s’est soldé par une victoire de l’Europe. L’acte de
Marrakech du 15 avril 1994 a étendu les principes du libre-échange aux services par la
signature du GATS (General agreement on Trade and Services) et renforcée par le TRIPS
(Trade Related Investment Property), et consacrait la naissance de l’OMC qui compte ajd
plus de 150 membres. Le FMI, créé après Bretton-Woods en 1944, s’est transformé après la
crise de la dette de 1982, en gestionnaire de la finance mondialisée.

14. Effets de la mondialisation sur l’emploi

A. Effets négatifs sur PDEM


Le rapport Arthuis, 1993, analysait les conséquences de la délocalisation vers les PBSCT :
impact négatif « la mondialisation loin d’être comme ailleurs un accélérateur de croissance,
agit en France comme une pompe aspirant des emplois de plus en plus qualifiés vers les pays
émergents ». Plus encore, selon une étude de l’INSEE, réalisée entre 2009 et 2011, à la suite
du traité de Lisbonne, a montré les conséquences de la réorganisation des chaînes de
valeurs des entreprises avec l’élargissement de l’Europe, qui aurait entraîné la suppression
de 20000 postes en France. Selon le Ministère de l’économie, 45% des 2 millions d’emplois
industriels détruits en France entre 1980 et 2007 sont imputables à la mondialisation, dont
17% à cause de la concurrence des PED.
PN Giraud, L’inégalité du monde, 1996, analyse l’emploi en France et distingue les emplois
nomades (soumis à la concurrence internationale) des emplois sédentaires. En France, 28%
des emplois sont des emplois nomades : il évoque un « terrible constat : plus les sédentaires
d’un territoire sont pauvres, plus les nomades présents sur ce territoire sont compétitifs
dans l’arène mondiale ». B. Cagnat, Les cols blancs aussi, 2004, expliquait que plus de 3
millions d’emplois américains seront délocalisés dans des pays émergents entre 2004 et
2015, dont près de 500 000 dans les seules technologies de l’information.

B. Nouvelles stratégies des entreprises face à l’emploi


JL. Mucchielli, Les firmes multinationales, 1985, affirmait que les nouvelles logiques de
l’entreprise expliquent que les entreprises établissent une liste restreinte des localisations
potentielles remplissant critères économiques, sociaux, politiques et techniques. Combinent
avantages concurrentiels et comparatifs des territoires. Le rapport Charzat en 2004,
expliquait dans ce cadre que l’UE dispose d’atouts en termes de qualité de vie mais reste
faible sur le plan de la fiscalité et de l’environnement juridique, ce qui n’incite pas toujours
les entreprises à s’implanter. Le paradigme OLI de J. Dunning, The Eclectic Paradigm of
International Production, insiste sur les 3 stratégies de la firme (Ownership, Location,
Internalisation), la Location prenant en compte cette nouvelle stratégie de la firme. Pour CA
Michalet, La mondialisation, la grande rupture, 2007, « les avantages comparatifs sont
devenus des avantages de localisation » : ils ne se limitent pas au prix relatif des facteurs et à
la dotation factorielle mais comprennent aussi la fiscalité, la protection sociale, la qualité
des infrastructures.

15. Le rôle de l’Etat dans la mondialisation

Les Etats ont tout intérêt a attiré des IDE. En effet, W. Andreff affirmait dans Les
multinationales globales, 1996, que « les politiques d’attraction des IDE est une politique de
long terme, stratégique et globale des Etats. Les Etats ne sont pas des subordonnés passifs
des FMN ». Pour PN Giraud, Les globalisations. Emergences et fragmentations, 2008, les
pays doivent essayer de protéger les emplois nomades afin qu’ils ne soient pas substituables
car un pays est d’autant plus riche que la part d’emplois nomades est importante. CA.
Michalet affirme dans Mondialisation, la grande rupture, 2007, que « l’économie mondiale
reproduit les Etats mais efface les nations », insistant sur le rôle prépondérant des Etats dans
la mondialisation, puisqu’il permet par les lois la singularité du territoire. Pour JL Mucchielli,
dans La mondialisation, Chocs et mesures, 2008, les ouvertures des marchés, des
entreprises, du système financier résulte de politiques publiques des Etats qui ont été les
déterminants majeurs des changements intervenus. Politique commerciale stratégique
(Krugman et Baldwin, 1988, Market access and competition) a lié avec Brander et Spencer,
et Boeing-Airbus. Néanmoins, selon le triangle d’incompatibilité de Dani Rodrick, dans une
démocratie, l’intervention de l’Etat et la mondialisation sont incompatibles.

16. Les conséquences sociales positives de la mondialisation

J. Bhagwati dans Plaidoyer pour la mondialisation, 2004, soutient le fait que la


mondialisation favorise la démocratie grâce à l’économie de marché et les demandes des
populations qui sont favorables à l’éducation, comme en Corée du Sud. Elle permet aussi de
faire baisser la pauvreté dans le monde : en effet en Inde le taux de pauvreté est passé de 51
à 26 % en Inde entre 1978 et 2000 selon Bhagwati, et en Chine de 28% à 9%. L’Inde comptait
en 1991 un tiers de la population pauvre du monde. Il rejoint dès lors le pdv d’Amartya Sen
qui insiste lui sur la drastique réduction du nombre de famine grâce à l’émergence de la
démocratie. P. Krugman insiste sur le caractère coopératif du LE dont la première vertu est
d’éviter l’affrontement entre les nations : il rejoint le pdv de Montesquieu avec « le doux-
commerce »
Selon F. Bourguignon, dans La mondialisation de l’inégalité, 2012, les inégalités globales ont
diminué avec la mondialisation (à relativiser avec inégalités internes néanmoins). J. Sachs et
alii dans Brooking Papers on Eco Activity, 1995, montre en comparant la croissance de pays
ouverts et fermés que le libre-échange favorise la croissance, et la croissance entraîne des
progrès sociaux.
Le taux d’alphabétisation des femmes de 15 à 24 ans, il était de 89% en 2016 contre 70% en
1975 : grâce à la mondialisation.

17. Les idées de grand III. pour ce chapitre et intro + vocab+Ouverture

Doit-on réguler la mondialisation ? (A. Contester la mondialisation, c’est contester le


Capitalisme ; B. La mondialisation doit être régulée)
Les Unions régionales permettent de contourner le protectionnisme
La mondialisation est déséquilibrante plus que créatrice d’inégalité
Intervention de l’Etat et d’entités supranationales dans la mondialisation
Mettre les 3 citations de Bairoch, List et Nassau sur le protectionnisme pour montrer que
les avis sur le protectionnisme divergent (intro ?)
Onshoring : processus qui consiste à relocaliser dans le pays d’origine une activité
opérationnelle qui avait été délocalisée à l’étranger.
P. Lamy, ancien directeur de l’OMC, « le Covid 19 va accélérer le passage du protectionnisme
au précautionnisme », cad la protection des citoyens et du consommateur.

18. Auteurs et théories à lier avec entreprises

CA. Michalet, Le Capitalisme mondial, 1996, explique que l’économie mondiale est « une
réalité en formation ». En dehors des FMN, petites entreprises ont un horizon économique
qui reste « délimité par les frontières nationales ». Posner + Vernon.
Helpman et Krugman : Market Structure and foreign trade, 1985, CI=hausse de la taille des
marchés qui entraine une hausse du nombre d’entreprises et qui font baisser les prix par les
économies d’échelles. + pg sur la délocalisation. W. Andreff, Les Multinationales
Globales,1996, « Les Etats ne sont pas des subordonnés passifs des FMN » : les Etats peuvent
promouvoir des idéologies anti-mondialistes pour protéger les FMN.
J.L. Muchielli, Les firmes multinationales, 1985, les nouvelles logiques et stratégies des
entreprises expliquent qu’elles établissent une liste restreinte des localisations potentielles,
remplissant des critères sociaux, économiques, politiques et techniques : combinent les
avantages concurrentiels et comparatifs des territoires.

19. La relocalisation

Selon E.M. Mouhoud, Mondialisation et délocalisation des entreprises, 2008, on peut définir
les relocalisations économiques de deux manières : au sens strict, c'est le retour dans leur
pays d'origine d'unités productives, antérieurement délocalisées dans les pays à faibles
coûts salariaux. Par extension, la relocalisation apparaît comme le ralentissement du
processus de délocalisation des activités économiques vers les pays à bas salaire, ou bien
la remise en cause des décisions de délocalisation ou la non-délocalisation dans les secteurs
sensibles à la compétition par les coûts.
En 2004, un crédit d'impôt a été mis en place en faveur des entreprises qui après avoir
délocalisé tout ou partie de leur activité hors de l'Espace économique européen, la
relocalisent en France pour la période 2005-2007. Atol s’est par exemple relocalisé en
France en 2005 pour s’implanter dans le Jura, l’opticien expliquant que la Chine était un
atout pour la production de masse, mais bien moins quand il s’agit de la finition et la qualité
du produit. Bruno Le Maire l'a affirmé lors de la présentation du Plan de Relance le 3
septembre 2020 : « Relocaliser c'est possible ».

20. Faut-il craindre la régionalisation ?

La régionalisation est une entorse à la clause de la nation la plus favorisée, mais est autorisé
par le GATT dans l’article 24.
J. Viner, The Customs Union Issue, 1950, explique que la régionalisation peut être positif car
aboutit à une création de trafic (voir graphique), mais peut aussi aboutir à un détournement
de trafic qui souligne la discrimination des accords régionaux. La régionalisation n’est qu’un
optimum de second rang. JM Siroen, explique que la régionalisation provoque de
nombreuses craintes : nationalisme, détournement de trafic et dégradation des termes de
l’échange. Néanmoins, il s’agit selon lui de relativiser ces craintes car les effets de
détournement sont réduits par les zones naturelles d’échange, et le fait que la
régionalisation est ouverte à la mondialisation. P. Krugman explique les effets ambivalents
de la régionalisation. Elle bénéficie en effet aux pays signataires car facilite les négociations
et sont signés dans des zones naturels d’échange, mais, en bénéficiant aux entreprises de
l’accord, elle peut entrainer une concurrence déloyale. P. Hugon, Les économies en
développement à l’heure de la mondialisation, 2003, explique qu’il s’agit de relativiser : on
assiste à un développement de le régionalisation Nord-Sud comme en témoigne le récent
accord Mercosur-UE.
La tendance à la régionalisation s’explique, selon JM Siroen par la réduction du nombre de
joueurs, répond à la demande de loyauté, et permet que les discussions portent sur les
règles du jeu. Les flux intra-régionaux représentent ainsi 50% du commerce international.

21. L’Europe def stat évènements

Conseil de l’Union européenne : organe institutionnel exécutif mais aussi législatif de l'UE, et
décide des actes législatifs et budgétaire.
Le Conseil européen : institution qui réunit les chefs d'État des 27 États membres de l'Union
européenne, sous la tutelle d'un président chargé de faciliter l'apparition d'un compromis.
Commission européenne : Instituée par le traité de Rome de 1957 elle est composée d'un
commissaire européen par État membre, soit 27 commissaires. Elle a pour but de proposer
et de mettre en œuvre les politiques communautaires. « Gardienne des traités », elle veille
à leur application. Présidente : Ursula von der Leyen.
Le Parlement européen : organe parlementaire de l'Union européenne élu au suffrage
universel direct, tous les 5 ans. Il partage avec le Conseil de l'Union européenne le pouvoir
législatif de l'Union européenne.
L’acte Unique Européen, 1986 : mise en place de dispositions communautaires
(supranational) et des dispositions intergouvernementales (international), permis par J.
Delors qui a souhaité relancer le processus d'intégration européenne après la période d'«
euroscepticisme » qui avait suivi les chocs pétroliers des années 1970.
Le Fonds social européen (FSE, 1957) : un des instruments financiers de l’Union européenne.
Il vise à soutenir l’emploi dans les États membres, mais aussi à promouvoir la cohésion
économique et sociale.
L’Union européenne fait partie des 303 accords commerciaux régionaux recensé par l’OMC
en 2020. Définie en 1993 lors du Traité de Maastricht, elle fait suite à la Communauté
économique européenne instauré lors du Traité de Rome en 1957 par les 6 Etats fondateurs.
L’UE est l’espace régional le plus intégré de la planète et rassemblent le plus de pays (27
depuis le Brexit). L’UE est au 4 ème stade d’intégration régional (Union économique) de la
typologie de Balassa : The Theory of Economic integration, 1961. Parmi ses 27, 19 forment
aujourd’hui une Union Economique et Monétaire (zone euro) avec l’adoption de la monnaie
unique dès 1999 avec la création de la BCE. 70% du commerce est un commerce intra-
européen. UE est la première destination d’IDE du monde. J. Monnet : « une cause la paix,
un chemin : l’économie, une visée : un fédéralisme européen ».
22. L’Europe social

A. Les faits
L'Union européenne mène une politique de lutte contre le chômage et l’exclusion sociale.
En avril 2012, la Commission européenne adopte des mesures visant à encourager l’emploi
notamment celui des jeunes. Un autre objectif annoncé est de sortir au moins vingt millions
de personnes de la pauvreté avant 2020. Dès la déclaration Schuman, dans le traité de la
CECA, il existait une volonté de « promouvoir l'amélioration des conditions de vie et de
travail de la main-d’œuvre », article 3 du traité de CECA (1952). En 1957, traité de Rome,
article 117, « l’harmonisation des niveaux de vie résultera du fonctionnement du marché
commun qui favorisera l’harmonisation des systèmes sociaux ». Le Fonds social européen
est l'un des instruments budgétaires les plus anciens de l'Union : il a été créé en 1957 par le
traité de Rome.
Avec l’acte unique de 1986, l’emploi devient pour la première fois un sujet de
préoccupation.
En 1989, charte sociale, sur le droit des travailleurs, qui sera annexé au traité de Maastricht
de 1992. Le traité d’Amsterdam, 1997, marque un changement profond dans l’approche
communautaire des questions de l’emploi et du chômage, et devient la préoccupation
prioritaire. Le traité de Nice de 2000, a été l’occasion de la signature de la Charte des Droits
Fondamentaux de l’UE, et prônait un objectif plein-emploi pour 2010.
Le traité de Lisbonne de 2007 a renforcé la dimension sociale au sein de l’UE en combattant
l'exclusion sociale, les discriminations, et promeut la justice et la protection sociale,
l'égalité entre les femmes et les hommes, la solidarité entre les générations et la
protection des droits de l'enfant.
Pour la programmation budgétaire 2014-2020, il était doté à hauteur de 80 milliards d'euros

B. Une Europe sociale qui reste insuffisante


La construction européenne n’a été globalement qu’économique et monétaire et très peu
sociale. Selon G. Esping-Andersen : Les Trois mondes de l’Etat Providence, 1990, il y a des
Europes sociales, cad hétérogènes, mais pas à proprement dit d’Europe Social. Tous les pays
n’appartiennent pas au même monde de l’Etat Providence car ils n’ont pas effectué la même
« démarchandisation ». Le modèle social européen a aussi été concurrencé par les besoins
économiques de la zone notamment vis-à-vis de l’intégration des PECO. Plus encore, 4 des 5
formes de capitalisme, distingués par B. Amable dans Les 5 capitalismes, 2005, sont
européens. Stiglitz, L'Euro : comment la monnaie unique menace l'avenir de l'Europe , 2016
indique que les défaillances de la zone euro sont attribuables à deux facteurs : 1. l’échec de
ce qu’il appelle une « idéologie erronée », soit les théories économiques et la conception
générale de l’économie qui ont guidé les choix de politique économique jusqu’à présent, et
2. l’absence de solidarité politique profonde entre les pays membres. E. Cohen, La stratégie
de Lisbonne une bonne idée pervertie, 2007, remet en cause la stratégie de Lisbonne, qui
voulait faire de l’Europe, « l’économie de la connaissance la plus compétitive », qui a été un
échec car pluralité des objectifs, et l’UE n’a pas de compétences sur enseignement
supérieur ou n’envisage pas de réformes des modèles sociaux.
23. Les bénéfices de l’union douanière en UE

A. Les faits
Selon J. Meade, l’intégration économique européenne a été favorable à la croissance des
pays membres : dans les 60’s, les 6 pays membres fondateurs ont connu une croissance plus
forte que celle de la GB. Grâce au traité de Rome, les échanges commerciaux au sein de l’UE
passent de 27% des échanges extérieurs à plus de 50% une décennie plus tard. Les flux
d’IDE intrazone se sont renforcés de 15% entre 1998 et 2007.
Pour J. Viner, The Customs Union Issue, 1950, la régionalisation permet une création de
trafic, et même si elle a des effets incertains avec le détournement de trafic, la création de
trafic a d’autant plus de chance de l’emporter que le pays est compétitif. Pour Corden,
Economies of scale and customs union theory, 1972, on assiste à « un effet de réduction des
coûts », qui permet une création de trafic. Selon J. Pisani-Ferry, Le réveil des démons 2011,
l’intégration européenne a finalement servi « d’aiguillon et de paravent » en accélérant les
mutations sectorielles nécessaires et en protégeant les agents du choc brutal de l’insertion
dans la mondialisation. Pour les pays Baltes et la Bulgarie, le PIB par tête exprimé en PPA a
augmenté de 100% entre 1999 et 2008 contre 30% pour celui des Etats membres de la zone
euro. On retrouve ainsi les conclusions du modèle de Solow sur la convergence économique.
60% des IDE reçus par la France viennent des autres membres de l’UE.

B. A relativiser
Ecart de richesse important : PIB 7X plus élevé au Luxembourg qu’en Bulgarie. Crise de l’UE
à partir de 2008 qui impact la politique de cohésion. Des inégalités sociales qui restent
fortes : espérance de vie des Hommes en Italie 80 ans vs Lituanie 65 ans. Différence entre
les taux de chômage : Espagne 23% vs Allemagne 5%. La mobilité des travailleurs en période
de chômage élevé apparaît comme un facteur aggravant de sous-emploi.
Des politiques non coopératives menacent la région : dumping fiscal au Luxembourg qui
compte 100.000 entreprises pour 500.000 habitants.

TD9 : le SMI
1. Les avantages du taux de change fixe

R. Mundell, A theory of Optimum Area, 1961, un système de change fixe est préférable
entre deux pays où la mobilité des facteurs de production est parfaite car ajustement par le
transfert de capitaux, ou de main d’œuvre. (En référence au triangle de Mundell).
Les changes fixes, d’autant plus s’ils reposent sur un étalon or, permettent de réduire les
déséquilibres commerciaux au travers d’ajustement automatique. Hume : De la Balance du
commerce, 1752, équilibre en théorie les balances commerciales, et limite l’inflation.
Le taux de change fixe favorise aussi le commerce international par la stabilité des prix.
Le système de l’étalon-or permet de lier les mains des gouvernements par des « menottes
en or », selon les termes d’Eichengreen (Golden Fetters : The Gold Standard and the Great
Depression, 1992). En adhérant à l’étalon-or, les pays s’engagent à respecter les strictes
règles du jeu : crédibilité.
Selon l’historien Bairoch : Victoires et déboires, 1997 : « Le système de l'étalon-or a
impliqué une stabilité monétaire quasi parfaite qui n'a pas été étrangère à la croissance
rapide à la fois du commerce extérieur et des investissements internationaux. »
Les changes fixes renforcent la souveraineté monétaire ce qui permet de réduire les coûts
de transactions en augmentant la confiance dans l’échange par l’encadrement institutionnel
(North : Changement institutionnel et Performances économiques,1971).

2. Les désavantages et limites du taux de change fixe

A. Limites des taux de changes fixes


Les accords de Bretton Woods abandonné en 1971 suite aux accords du Smithonian de
décembre 1971, lorsque Nixon déclare que le dollar est inconvertible en or, car le système
était devenu insoutenable, notamment à cause du dilemme de Triffin L’Or et la crise du
dollar : le futur de la convertibilité (1960). Témoigne des limites des taux de changes fixes. La
conférence de Kingston de 1976 mettra un terme au système monétaire international de
change fixe.
Principe de la courbe en J d’Abba Lerner qui favorise la non-coopération : la dévaluation
(baisse de la valeur du taux de change) favorise la compétitivité des entreprises
exportatrices. Néanmoins l’utilisation de la politique de change se fait nécessairement au
détriment d’une autre monnaie qui s’apprécie et dont le solde commercial se détériore
inévitablement (d’où la non-coopération). Théorème de Marshall-Lerner théorise les 4
conditions pour que la courbe soit en J : des capacités productives inemployée ; pas que
d’importations incompressible (comme pétrole pour la France) ; il ne faut pas que les autres
pays dévaluent aussi ; compétitivité prix et pas hors-prix. Par exemple : en 1928, la France
dévalue de 80% le franc avec le passage au franc Poincaré, le RU répond en abandonnant la
convertibilité or de la livre de 1925 en 1931, dans le contexte de la crise de 29, avec comme
résultat une dépréciation d’1/3 de sa valeur. Ses principaux partenaires commerciaux
dévaluent leur monnaie d’un pourcentage identique puis dévaluation du dollar en 1934 de
41 % (Gold Reserve Act) : chaque pays tente d’échapper à la crise des années 1930 par des
mesures non coopératives, renforçant la dépression mondiale et la remise en cause du SMI
instauré par la Conférence de Gênes de 1922.
M. Friedman a mis en avant le fait qu’en parité fixe, il peut y avoir des phénomènes de
spéculations, faisant chuter le cours de la monnaie attaquée, forçant les autorités
monétaires à dévaluer. Maurice Obstfeld a mis en évidence en 1994, les crises de change de
2ème génération, avec la crise du SME, qui était fondé sur la parité fixe des monnaies
européennes.

B. Contraintes des taux de change fixes


Premièrement, la globalisation financière mise en avant par Bourguinat : Finance
internationale, 1992 vient remettre en question le SMI de BW. En effet, la globalisation
financière s’est manifestée par une augmentation de la mobilité des capitaux qui a rendu
nécessaire le choix entre la fixité des changes et l’indépendance des politiques monétaires
(Mundell, Flexible Exchange Rates and Employment Policy, 1961) : d’après le triangle
d’incompatibilité, le tdc fixe est une contrainte.
Dilemme de Triffin : rôle national et international du dollar est une contrainte. Les besoins
importants de l'économie mondiale en une devise fiable, le dollar, contribuent
paradoxalement à la perte de confiance en la fiabilité de cette monnaie.
Taux de change fixe possèdent une contrainte extérieure importante. En 1997, la
dévaluation du réal brésilien de 30% a ainsi directement mené à la dévaluation du peso
argentin.

C. Taux de change fixe doit pouvoir varier


En effet, la variation des taux de changes fixes autour du cours pivot permet aux banques
centrales de lutter plus aisément contre la spéculation. Ainsi, le Serpent Monétaire
européen de 1972 à 1978, qui est un dispositif économique qui limitait les fluctuations du
taux de change entre les pays Membres de la communauté européenne, mais est un échec.
Ainsi, une monnaie ne pouvait pas fluctuer par rapport à une autre de plus ou moins 2,25 %
autour de son cours pivot.

3. Les avantages du taux de change variable

A. Des avantages…
M. Friedman, 1969, Inflation et Système Monétaire, défend le flottement et insiste sur une
quadruple vertu des changes flottants : ils permettent une autonomie des politiques
monétaires, une symétrie du système monétaire international, et une stabilité
automatique des balances commerciales et mettent fin à la spéculation. Plus encore, les
changes flexibles peuvent permettre d’atteindre le taux de change d’équilibre de toutes les
monnaies, y compris du dollar. 1973 à 1986, développement spectaculaire du flottement des
monnaies.
M. Friedman, The Case For Flexible Exchange Rate, 1953, indiquait que la monnaie est un
bien comme un autre et que sa valeur devait s'établir sur un marché (rejoint les classiques).
« Seul le marché sait quel est le bon prix d'une monnaie ». Ainsi, l’établissement des changes
flottants permettra que le taux de change soit équilibré à LT, permettant alors une
meilleure allocation des capitaux et de l’épargne. En changes flottants aucun déséquilibre
n’est durable.
G. Cassel : La Monnaie et le Change après 1914, 1922, qui met en avant le principe de PPA
(Parité de Pouvoir d’Achat) de telle manière que spontanément le taux de change
s’équilibrerait de façon à égaliser les pouvoirs d’achats des deux devises. Keynes, 1923,
Traité sur la réforme monétaire, la variation du taux de change est déterminée par le
différentiel des taux d’intérêts sur les marchés : équilibrage automatique.
Dornbusch, Expectations and Exchange Rates Dynamic, 1976, tente de réconcilier les deux
approches en indiquant qu’à long terme le change est déterminé par la PPA, à CT par la
parité des taux d’intérêt.

B. …sous réserve d’être encadrés : taux de changes variables relatifs


Eichengreen : Un Privilège Exorbitant, 2011, indique que cette domination monétaire donne
des avantages considérables aux EU. Le dollar ne se déprécie pas, au contraire, il s’est
apprécié de 50% par rapport aux quatre grandes monnaies européennes entre 1980 et 1985.
Ceci explique la volonté de stabiliser et encadrer le flottement des monnaies. Les accords de
Plaza de 1985 (baisse concertée du dollar) puis du Louvre 1987 témoigne de cette volonté
d’encadrer le flottement. J. Williamson, - The exchange rate system, 1985, développe la
théorie des zones cibles, afin d’instaurer un intervalle de fluctuation. Seulement, cet
intervalle n'es pas non communiqué afin de renverser l’asymétrie mais on l’estime à + ou -
10% pour la période 1987-1993

4. Les désavantages et limites du taux de change variable

Comme le concéda Volcker (Président de la FED de 1979 à 1987), « on ne saurait contester


qu'il y a un lien entre l'abandon de la stabilité monétaire de Bretton Woods et les moins
bonnes performances en matière de croissance depuis vingt-cinq ans ». Le passage au taux
de change variable semble avoir été négatif. Les déséquilibres commerciaux n’ont pas été
corrigés notamment aux EU. En fait, l'évolution des années 80 va largement démentir cette
analyse : les déséquilibres persistent et deviennent structurels.
M. Allais : La crise mondiale aujourd’hui, 1999, indique que depuis 1974, cad la fin des
changes fixes, une spéculation effrénée et massive s'est développée sur les taux de change
relatifs des principales monnaies. Des phénomènes de surréaction accentue cette
spéculation (Dornbusch : Expectations and Exchange Rates Dynamic, 1976). De nouvelles
crises de changes (3ème génération) apparaissent Aglietta et Brender, Globalisation
financière et risque de système, 1990, comme la crise asiatique de 1997.
Meese et Rogoff : Empirical Exchange Rate Models of the Seventies, 1983, montre
l’invalidité pratique des modèles de prévisions et de détermination des taux de change :
subissent des variations aléatoires. Le développement des bulles financières sur le marché
des changes a rendu encore plus complexe la question dès lors que la valeur du change se
déconnecte de ses fondamentaux. J. Frankel, International Capital Mobility, 1986,
convergence vers la PPA est un processus très lent selon les tests qu’il réalise sur la parité du
dollar et de la livre entre et 1896, et 1984 : 4 à 5ans pour éliminer une déviation du tdc en
raison d’un choc financier.
Eichengreen : Un Privilège Exorbitant, 2011, indique que cette domination monétaire donne
des avantages considérables aux EU. Le dollar ne se déprécie pas, au contraire, il s’est
apprécié de 50% par rapport aux quatre grandes monnaies européennes entre 1980 et 1985.

5. Le rôle de l’or

A. Les limites de la convertibilité or


Rôles nationaux et internationaux incompatibles.
Paradoxe de Triffin : L’Or et la crise du dollar (1960) : convertibilité or crée une contrainte de
rareté du dollar mais aussi une nécessité d’abondance du fait de son rôle de monnaie
international qui doit irriguer le monde entier en dollar.
Zoellick (Président de la Banque Mondial de 2007 à 2012) a mis en avant l’idée d’un retour à
un SMI de type BW aux chefs d’Etats du G20 en 2010 (« The G20 must look beyond Bretton
Woods II ») en rendant à l’or sa place importante. Néanmoins, plusieurs obstacles
apparaissent : avec l’étalon-or, une économie doit pouvoir absorber sans dommages une
contraction de la masse monétaire, la volatilité actuelle du cours de l’or poserait également
problème. Pool de l’or à partir de 1961, dans le cadre du plan Kennedy, qui a été un
véritable échec. Il consistait à maintenir la parité or à 35 dollars l’once. Il consistait à
coordonner leurs actions en intervenant sur les marchés, comme le voulait le système de
Gold Exchange Standard tel que pratiqué dans le régime de Bretton Woods, mais fut
abandonner dès 1968 du fait d’une spéculation trop importante.

B. Le rôle clé de l’or

Il remplit presque toutes les conditions d’une monnaie qu’évoque Smith : parfaite
indivisibilité, inaltérabilité, la crédibilité mais pas la transportabilité.
« L’or représente encore l’ultime forme de paiement dans le monde. Dans le pire des cas, la
monnaie fiduciaire ne sera plus acceptée par personne, alors que l’or le sera encore. » - Alan
Greenspan.
Selon l’historien Bairoch : Victoires et déboires, 1997 : « Le système de l'étalon-or a
impliqué une stabilité monétaire quasi parfaite qui n'a pas été étrangère à la croissance
rapide à la fois du commerce extérieur et des investissements internationaux. »
Le système de l’étalon-or permet de lier les mains des gouvernements par des « menottes
en or », selon les termes d’Eichengreen (Golden Fetters : The Gold Standard and the Great
Depression, 1992). En adhérant à l’étalon-or, les pays s’engagent à respecter les strictes
règles du jeu : crédibilité.

6. L’hégémonie du dollar

A. Les avantages du dollar monnaie international


Dès 1964, VGE, alors minsitre de l’économie française évoquait le « privilège exorbitant du
dollar », puis popularisé par De Gaule, qui décide à partir de 1966 de convertir en or les
excédents en dollar de la balance des paiements françaises.
Einchengreen, Un privilège exorbitant, 2011, insiste sur le double privilège du dollar : les
entreprises américaines n’ont pas à se couvrir contre les risques de fluctuations du taux de
change, et privilège du seigneuriage monétaire en tant que pays émetteur du moyen de
paiements ce qui conduit à des coûts plus faibles. Pour C. Kindleberger, La grande crise
mondiale, 1973, l’hégémonie d’une devise est stabilisatrice.
Le dollar est la seule monnaie qui peut inspirer la confiance nécessaire à toute monnaie tel
que présenté par Aglietta et Orléan, en 2016, dans La monnaie entre dette et souveraineté,
avec la confiance hiérarchique, éthique et méthodique.
Rueff Le Gold Exchange Standard,1961 : les EU jouissent de privilèges colossaux : « le
merveilleux secret du déficit sans pleurs qui permet de donner en dollars sans les prendre
dans les caisses, de prêter sans emprunter et d'acquérir sans payer. »
« Le dollar, notre monnaie, votre problème » selon John Bowden Connally, secrétaire du
Trésor sous Nixon, avait interpellé les européens
H. Bourguinat, 1987, Les vertiges de la finance internationale, « le dollar de 1944 est le soleil
autour duquel s’organisent les autres monnaies satellites »

B. Et ses limites
R. Triffin, dans L’or et la crise du dollar, 1960, explique que les US ne pouvait assurer à la fois
la liquidité en dollar nécessaire à la croissance et la convertibilité or du dollar.

C. Une domination toujours écrasante


Il est certain que le dollar à la fin de la SGM domine le monde. Pour Aglietta et Orléan, en
1944, les US ont imposé leur souveraineté aux autres pays qui se voient contraints d’adopter
le plan White. En effet, en 44, les US possédaient 70% du stock d’or mondial, et ont imposé
aux autres monnaies une convertibilité dollar.
La place du dollar dans le SMI reste encore dominante ajd (85% des opérations de change ;
50% des obligations internationales et 61% des réserves en devises). Selon Aglietta : Le
Dollar et le système monétaire international, 2014, le dollar continue d’être hégémonique.
L’histoire du dollar reste encore un vecteur de crédibilité au moins perçu. Néanmoins cette
crédibilité est une illusion dès lors que l’économie américaine est déséquilibrée.
Aglietta évoquait également « l’étalon dollar dégénéré » pour évoquer l’hégémonie du
dollar. En effet, les firmes américaines n’exportent qu’en dollars alors que les firmes
allemandes exportent hors UE à 65% en €. Par ailleurs avec 17% des voix au FMI, les USA
sont à même d’empêcher la formation d’une majorité absolue (86% des voix sont
nécessaires).

D. Qui pourrait tendre à diminuer


Selon Einchengreen : Un Privilège exorbitant, 2011, en raison du laxisme budgétaire
américain permis par les « privilèges exorbitants » proférés au dollar, celui-ci est en passe
de perdre son rôle hégémonique. Néanmoins, le déclin du dollar ne fait aucun doute mais
celui-ci sera somme toute relatif, faute de concurrents sérieux ; en effet, ni l’euro, ni le
renminbi (nom officiel du yuan), ni les droits de tirage spéciaux du FMI ne sont en mesure de
prendre la place de la monnaie américaine.
L’euro ou le renminbi pourrait dans un avenir plus ou moins proche étendre leur sphère
d’influence. Le Monténégro, bien qu’en dehors de l’UE utilise l’euro, tandis que le Nigéria a
introduit le yuan comme deuxième devise.
Ronald McKinnon, The Unloved Dollar Standard, 2013, reproche aux autorités américaines
successives les échecs répétés du SMI, qui ont de manière systématique critiqué les pays qui
maintenaient des taux de change soi-disant sous-évalués avec le dollar. Les autorités
monétaires auraient dû reconnaitre que les déséquilibres globaux venaient de leurs
insuffisances monétaires et budgétaires et non des autres.
M. Aglietta, 4 novembre 2016, dans Le Monde, disait que « le renminbi candidat à une
devise largement utilisée, mais non dominante » : un nouvel ordre monétaire est selon lui
indispensable, le dollar étant de plus en plus contesté comme devise clé des échanges
internationaux.
La part du PIB américain dans le PIB mondial est de 15% ajd contre 40% en 1950. Erosion de
la part du dollar dans les réserves de change (61% en 2019 contre 70% en 2000).

7. Le SMI

A. Ses fonctions
-permettre des échanges de B et S et de K malgré les divergences entre les économies
nationales qui le composent.
-corriger les déséquilibres inhérents à ces divergences
-assurer une équité entre les nations quant aux efforts d’ajustement à fournir pour cette
correction

B. Nécessité de le réformer
P. Artus dans Les Mutations du Système Monétaire International , 2020, évoque les 3
dysfonctionnements du SMI aujourd’hui : 1. Les différences de revenus des régions du
monde, 2. La situation européenne en excédent commercial, qui induit peu de croissance, 3.
La perspective démographique.
Guido Mantega a évoqué en 2010, « la guerre monétaire » qui touche le monde, qui nuit à
la compétitivité du Brésil et des PED. J. Mistral, Guerres et Paix entre les monnaies, 2014,
évoque une nouvelle guerre monétaire qui n’en serait qu’à ses débuts.
Guerre monétaire US-Chine : la Chine sous-évalue et déprécie sa monnaie. Le but de cette
dépréciation du yuan, qui est poussée à un niveau inédit depuis 2008 : favoriser ses
exportations de l'autre côté du Pacifique pour compenser l'impact de l'augmentation des
taxes sur des centaines de milliards de dollars de produits chinois.
Mais peu d’actions pour le réformer à l’image du G20 de 2011 à Cannes, qui devait évoquer
la question d’une réforme du SMI, qui n’a finalement pas eu lieu.
La taille de l’économie mondiale ne permet plus à cette confiance de se construire. Il faut
trouver les principes d’un système multipolaire : Bénassy-Quéré et Pisani Ferry soutiennent
la reconnaissance de plusieurs devises clés par une extension du mandat du SMI.
Nouveau dilemme de Triffin apparaît aujourd’hui, la Chine espérant à la fois un dollar faible
signe d’une croissance forte outre Atlantique et un dollar fort pour préserver la valeur de ses
avoirs en dollar. En effet au déficit américain répond l’excédent chinois : « il faut être deux
pour danser le tango » expliquait Bernanke.

C. Le SMI : un échec
Les objectifs du SMI en change flottant prônés par Friedman n’ont pas été atteint : asymétrie
du système monétaire avec « l’étalon dollar dégénéré » de M. Aglietta, Le système
monétaire international, 1994, et rééquilibrage automatique qui est un échec car cercle
vertueux et vicieux. Seul l’autonomie de la politique monétaire a été plus ou moins atteinte.

D. Le SMI de demain : vers une monnaie internationale ?


Retour à l’étalon or dans un Bretton Woods 2.0 ? Dooley, Folkerts & Garber : An essay on
the Revived Bretton Woods System, 2003, ont développé le cadre théorique de « Bretton
Woods II » pour appréhender le système monétaire international (SMI). Zoellick (Président
de la Banque Mondial de 2007 à 2012) a mis en avant l’idée d’un retour à un SMI de type BW
aux chefs d’Etats du G20 en 2010 (« The G20 must look beyond Bretton Woods II ») en
rendant à l’or sa place importante. Néanmoins, plusieurs obstacles apparaissent : avec
l’étalon-or, une économie doit pouvoir absorber sans dommages une contraction de la
masse monétaire, la volatilité actuelle du cours de l’or poserait également problème.
Keynes avait proposé le bancor lors des négociations de Bretton Woods en 1944. L’idée de
Keynes était de créer une monnaie sans nation pour éviter tout dilemme entre monnaie
nationale et internationale : le bancor. Le bancor est une proposition d'étalon monétaire
international. Une telle solution semblait enfin trouvée lorsqu’en 1967, à la conférence de
Rio, le FMI créa les droits de tirage spéciaux (DTS) destinés dans un premier temps à éviter la
pénurie des liquidités au plan mondial, puis à se substituer au dollar comme monnaie
international. Dans les faits, les DTS ne sont restés qu’un palliatif sans importance. En faire
une véritable monnaie apporterait plusieurs avantages à l’économie mondiale et au système
monétaire international.

E. Les limites d’une monnaie internationale


Mais limites : 1. pour qu’une monnaie devienne internationale, il faut que celle-ci soit
utilisée majoritairement dans les 3 fonctions de la monnaie, ce qui n’est pas le cas pour les
DTS pour l’instant. 2. Une monnaie doit être crédible pour garantir sa fonction de devise clé
ce qui requiert de construire un organisme qui puisse acquérir cette légitimité. Le FMI ne
semble pas être un candidat actuellement depuis les échecs des PAS notée notamment par
Stiglitz dans La Grande Désillusion, 2002. 3. La mise en place d’un tel SMI demande une
coopération mondiale notamment entre la Chine et les Etats Unis.

13. La cryptomonnaie

La société américaine Coinbase, plateforme d'achats et de ventes de cryptomonnaies


comme le bitcoin, a annoncé qu'elle fera ses premiers pas à la Bourse de New York le 14
avril. L'entrée de Coinbase à Wall Street sur la plateforme Nasdaq sera une première pour
une entreprise de devises virtuelles. La popularité des cryptomonnaies, comme le Bitcoin,
inquiète les banques centrales, qui voient de plus en plus de transactions leur échapper.
Pour contrer cette tendance, la FED travaille actuellement en collaboration avec le
Massachusetts Institute of Technology (MIT) sur un « digital dollar », une version numérique
de la monnaie américaine aussi surnommée « Fedcoin ». La Chine expérimente déjà un yuan
numérique dans plusieurs villes, et la Suède teste actuellement l'e-krona.

14. La zone monétaire optimale

A. Définition
Mundell : A Theory of Optimum Currency Areas, 1961, définit le concept de zone monétaire
optimale. Une zone est dite optimale si la zone est apte à adopter une monnaie commune
(la forme la plus poussée des changes fixes). Les critères traditionnels d’optimalité sont la
mobilité des facteurs de productions au sein de la zone (Mundell), l’ouverture internationale
(McKinnon : Optimum Currency Areas 1963), la diversification de l’économie (production
multi-sectorielle) (Kenen : The Theory of Optimum Currency Areas 1969) et la convergence
des préférences sur le dilemme inflation/chômage et les niveaux d’endettement
(Kindleberger : International public goods without international government, 1986).
J. Frankel et A. Rose, the Endogeneity of Optimum Currency Areas, 1998, expliquent qu’une
union monétaire crée ex-post les conditions de son optimalité.
Selon le Rapport Emerson : Marché unique, monnaie unique, 1991, la mise en place d’une
monnaie unique développe un certain nombre d’avantages attendus : réduction de
l’incertitude liée à la volatilité des changes, baisse des coûts de transactions par l’annulation
des coûts de changes, stabilité des prix par la mise en place du BC indépendante, et l’euro
devait devenir une monnaie internationale rivalisant avec le dollar.

B. Réalité
La mise en place de zones régionales de systèmes de changes fixes a provoqué un certain
nombre de crises et n’a pas nécessairement eu les effets attendus en termes de
convergence et de gain à l’échange : les crises de premières générations sont apparues
avec l’apparition de déséquilibres fondamentaux persistants, sur le marché de la monnaie ou
sur le plan budgétaire, qui entrent en conflit avec la contrainte d’un stock limité de réserves
de change (Krugman : A model of balance-of-payments crises, 1979). Cette première
génération explique par exemple la crise du peso Mexicain de 1994.
Crise du SME de 92-93, cette crise du SME avait été déclenchée par la victoire du non au
référendum danois sur le traité de Maastricht.
Les faits montrent que la zone euro est partiellement optimale. Si les économies sont
relativement ouvertes (Taux d’ouverture ALL : 70% ; France, Italie : 40% ce qui est beaucoup
comparé aux US (13%) et au Japon (10%)), que la production est diversifiée et que les
préférences sont plutôt homogènes, il demeure que la mobilité des facteurs de productions
n’est pas suffisante selon Eichengreen Is Europe an Optimum Currency Area ?, 1991, et
qu’aucun transfert budgétaire n’est réellement à l’œuvre. De plus, des pôles de
spécialisation sont apparus ce qui accentue la divergence européenne. Comme l’avait prédit
Krugman : Lessons of Massachusetts for EMU, 1993, les pays se sont spécialisés non de
manière unie mais par régions au sein de la zone (voir aussi Bairoch, Geography and trade
de Krugman, Bouba-Olga etc). Il faudrait ainsi aller vers des Etats Unis d’Europe selon
Krugman pour rendre la zone moins non-optimale.

15. La crédibilité de la monnaie


L’histoire du dollar reste encore un vecteur de crédibilité au moins perçu.
M. Aglietta et Orléan, La monnaie entre violence et confiance, 2002, « avoir confiance dans
la monnaie, c’est avoir confiance dans l’institution qui la légitime, dans le souverain, dans
l’ordre social »

A. Crédibilité des institutions monétaires (confiance hiérarchique)


M. Aglietta, L’indépendance des BC, 1992 : la crédibilité de la BCE est une crédibilité
constitutionnelle. R. Lucas expliquait que la rigueur de la lutte contre l’inflation de la BCE
avait permis sa crédibilité. Kydland et Prescott, Rules rather than Discretion, 1977, seule une
règle surveillée par une BC indépendante permet de crédibiliser la politique monétaire.

B. Comment renforcer cette crédibilité monétaire en Europe


Selon M. Aglietta, La politique de la BCE dans tous ses Etats, 2014, il faut dépasser le
caractère contradictoire de la zone euro : « émettre une monnaie commune aux citoyens
des pays membres mais étrangères à tous les états ». Pour Eichengreen, Un privilège
exorbitant, 2011, le principal problème est que l’euro est « une monnaie sans Etat ».
M. Aglietta, Zone euro : fédéralisme ou fragmentation, 2012, soutient qu’il faudrait
constituer un véritable budget européen, permettant une réelle action à l’échelle de la zone.

J. Monnet : « l’Europe se fera par les crises », il s’agit de relativiser.

C. Les échecs de la crédibilité en Europe


Le Pacte de stabilité et de Croissance de 1997 n’a pas été respecté, loin de là (objectif 3%
déficit budgétaire, et 60% de dette publique.
M. Brunner Meier, H. James, et JP Landau, dans The Euro and the Battle of ideas, 2018,
insistent sur les 4 divergences intellectuelles entre l’Allemagne et la France qui entravent la
crédibilité d’une politique monétaire commune (règle, responsabilité, soutenabilité dette en
Allemagne; vs discrétion, solidarité, satisfaction des besoins en France). Pour Eichengreen,
Un privilège exorbitant, 2011, le principal problème est que l’euro est « une monnaie sans
Etat ».
Alain Cotta dans Sortir de l’Euro ou mourir à petit feu ? 2010, expliquait que si l’Allemagne
impose sa politique, ce n’est pas une voie crédible de sortie de crise mais un enlisement
dans la crise.
Faut-il sortir de l’euro ? se demandait alors Jacques Sapir dans un ouvrage de 2012,
préconisant une sortie de l’Euro. Il énumère 3 avantages qu’aurait les pays à la compétitivité
insuffisante à quitter la monnaie unique et revenir à leur monnaie nationale, car une
dévaluation pourrait avoir des effets positifs en France en créant un choc de compétitivité
qui aurait des effets bénéfiques. Pour Jean-Jacques Rossa, L’euro, comment s’en
débarrasser ?, 2011, il ne faut pas sauver l’Euro dans un contexte de mondialisation.
16. Le budget européen

Agnès Benassy-Quéré, Xavier Ragot et Guntram Wolf avancent plusieurs recommandations


pour apporter davantage de stabilité au sein de l’euro. Les politiques budgétaires non
coordonnées accélèrent les cycles. Ils proposent trois pistes parmi lesquelles une extension
du champ d’action du MES (mécanisme européen de stabilité), une réforme du cadre de
coordination des politiques budgétaires et un système d’assurance chômage activé en cas
de crise grave. Le MES servirait aussi de « pare-feu » pour « avancer simultanément sur la
réduction et le partage des risques ».
M. Aglietta, Zone euro : fédéralisme ou fragmentation, 2012, soutient qu’il faudrait
constituer un véritable budget européen, permettant une réelle action à l’échelle de la zone.
Selon Eichengreen Is Europe an Optimum Currency Area ?, 1991, et qu’aucun transfert
budgétaire n’est réellement à l’œuvre. Pour P. Artus, les règles budgétaires européennes
sont trop rigides. Plus encore selon G. Kopits et S. Symanski, Fiscal Rules, 1998, « une règle
budgétaire impose une contrainte permanente à la politique budgétaire »

17. Les objectifs du marché européen

« Le modèle économique européen doit se fonder sur 3 principes : la concurrence qui


stimule, la coopération qui renforce, la solidarité qui unit. », J. Delors

TD 10 : les politiques structurelles


+ mixe avec chap 6 du I. (croissance et transformation, Piketty…)

1. Introduction avec sujet « inégalité »

Les inégalités désignent une différence mesurable en termes de niveau de vie ou de qualité
de vie entre individus. Si elles se manifestent par des différences de revenus et/ou de
patrimoine, elles ont aussi une dimension socioculturelle (espérance de vie, éducation).
Pour les évaluer on peut mettre en évidence les inégalités verticales c’est-à-dire évaluées en
fonction des richesses mais également les inégalités horizontales, évaluées en fonction
d’autres critères (famille, santé). Enfin on peut mesurer les inégalités de revenus entre les
individus ou entre les territoires (entre les nations). A. de Tocqueville distinguait 3 types
d’égalité : égalité de droit, de chance et de situation.

2. Les défaillances du marché

G. Hardin, The Tragedy of the Commons, 1968, a mis en avant la défaillance des biens
communs qui sont amenés à disparaître sans intervention car pas d’exclusion par les prix,
mais rivalité à long terme. Une 2ème défaillance de marché : les externalités comme la
pollution par exemple. La dernière défaillance : le monopole naturel mis en avant par JS
Mill, tandis que H. Adams a fait le lien entre monopole naturel et rendement croissant.

3. Lutter contre les défaillances du marché

Pigou dans The Economics of Welfare, 1920, a proposé d’internaliser les défaillances de
marché par le principe de pollueur-payeur : taxe pigouvienne. J. Dales, en 1968, a créé les
marchés de droit à polluer : chaque entreprise a un volume de droit de pollution.
Elinor Ostrom, La Gouvernance des biens communs, 1990, a mis en exergue le fait que les
organisations créées par les individus sont souvent plus efficaces qu’une intervention de
l’Etat ou une intervention par le marché.
G. Hardin, The Tragedy of the Commons, 1968 prônait 3 solutions pour gérer les biens
communs : nationalisation, privatisation, gestion communautaire. Smith expliquait quant à
lui que le 3ème devoir du souverain est de prendre en charge ce qui n’est pas rentable. Dans
la même optique, Keynes, The end of laissez-faire, 1926, explique que : « la première priorité
pour l’Etat concerne les décisions qui ne sont prises par personne si l’Etat ne les prend pas ».
Rosanvallon : « l’Etat se légitime en protégeant la société contre le risque ».
E. Cohen, De la réglementation étatique et administrative à la régulation, 2000, 2 modèles
de gestion des défaillances de marché : européen=réglementaire et américain=régulateur.

4. Augmentation de l’intervention de l’Etat dans nos sociétés

Wagner en 1876 a montré que la croissance économique génère des besoins nouveaux, et
donc une intervention croissante de l’Etat dans nos économies. U. Beck, dans La société du
risque, 1986, publié après Tchernobyl, a montré que nous vivons dans une société aux
risques toujours plus nombreux, et la prise en charge de nouveaux risques augmente le
périmètre de l’action publique. Peacock et Wiseman ont parlé d’un effet de déplacement dû
aux guerres, (et mnt les crises) qui accélère l’intervention de l’Etat : adoption du projet du
député Joseph Caillaux d’impôt général et progressif sur le revenu en 1914. Avant la PGM,
dépenses publiques en France : 10%, 1945 : 30%, 30 Glorieuses : 40%, 1990 : 50%, ajd 55%. J.
Duesenberry parle d’un effet cliquet anti-retour (Income, Savings and the Th of consumer
behavior, 1949). E. Durkheim, De la Division du travail social, 1893, a montré que le
développement de la solidarité organique accroît la dépendance des individus vis-à-vis de
l’Etat, et accroit donc l’intervention de l’Etat.

5. L’inefficience de l’intervention publique

J. Buchanan et G. Tullock dans The Calculus of Consent, 1962, explique que les individus qui
agissent au nom de l’Etat agissent pour leur intérêt propre, et n’hésite pas à augmenter les
dépenses publiques pour être réélu. Pour W. Niskanen, Bureaucratie et gouvernement
démocratique, 1971, les hauts fonctionnaires déterminent eux-mêmes le budget nécessaire
de leurs administrations, ce qui entraine des budgets publics beaucoup trop élevés. G.
Stigler, met en avant la théorie de la capture selon laquelle l’activité de contrôle des
pouvoirs publiques est défaillante car capturée par les intérêts privés.
Le rapport Nora, 1967, a montré que les entreprises publiques sont moins efficaces car sur-
tarification ou sous-tarification. Le rapport Dalle, 1986, montre quant à lui que l’Etat est un
mauvais actionnaire, ce qui explique le retour à la privatisation des entreprises dans les 80’s,
et la politique industrielle horizontale (lois de 1986 sur la privatisation puis celle de 1993).
D’après le théorème Arrow-Debreu, la solution qui maximise la solution de tous est
introuvable.

6. Légitimité de l’intervention de l’Etat pour lutter contre l’inégalité

Tocqueville définissait 3 types d’égalité : de situation, des chances et de droits. Pour J.


Bentham et les utilitaristes, L’arithmétique des pratiques et des peines, 1811, « le plus grand
bonheur pour le plus grand nombre » : il s’agit de maximiser l’utilité collective, ce qui
légitime l’action de l’Etat. Aristote distinguait quant à lui la justice distributive (au mérite)
de la justice commutative (en fonction des besoins), ce qui légitime l’intervention de l’Etat.
E. Durkheim, De la Division du travail social, 1893, a montré que le développement de la
solidarité organique accroît la dépendance des individus vis-à-vis de l’Etat, et donc
l’intervention de l’Etat. F. Dubet, Les places et les chances, 2010, prône l’égalité des places,
cad réduire les écarts entre les positions sociales, qui permettrait d’amener l’égalité des
chances : l’Etat doit intervenir.
S. Paugam, Les formes élémentaires de la pauvreté, 2005, distingue 3 types de pauvreté :
pauvreté intégrée, marginale et disqualifiante. L’Etat doit faire en sorte de ne pas tendre
vers une pauvreté disqualifiante. Friedman (1962, Capitalisme et liberté) a évoqué la théorie
de l’impôt négatif pour inciter au travail. RMI instauré en 1988 par le gouvernement de
Michel Rocard (Revenu minimum d’Insertion).
P. Aghion, Eve Caroli, Cecilia Garcia-Penalosa, Inégalité et croissance, 1999, ont montré que
l’intervention de l’Etat favorise l’éducation la santé, et donc le stock de capital humain. Or
les individus avec peu de capital humain génèrent peu d’externalités positives.
Keynes, 1936, la propension à consommer est plus élevée chez les ménages modestes que
favorisé : avec redistribution, on transforme des sommes qui auraient été épargnées en
conso.

7. Lutter contre les inégalités permet la cohésion sociale

P. Le Clézio, dans Prélèvement obligatoire : compréhension, efficacité économique et justice


sociale, 2005, montre que les prélèvements obligatoires sont devenus l’instrument privilégié
de réallocation des ressources, et permet d’augmenter la cohésion sociale, cad le lien social.
De même, pour Piketty dans Les Hauts revenus en France au 20 ème. Inégalités et
redistribution, 2001, la redistribution répond à un impératif d’efficacité : il s’agit d’éviter le
retour des rentiers et favoriser l’émergence de nouveaux entrepreneurs qui dynamisent la
croissance. En France, les inégalités primaires baissent de 34% grâce aux impôts et aux
transferts sociaux. La redistribution divise par 2 les inégalités entre les 20% les plus riches et
les 20% les plus pauvres avec la redistribution. F. Dubet, Les places et les chances, 2010,
prône l’égalité des places, cad réduire les écarts entre les positions sociales, qui permettrait
d’amener l’égalité des chances : harmoniser les conditions de vie de groupes sociaux permet
la cohésion sociale. A. Brender, L’impératif de solidarité (1996), explique qu’un haut niveau
de dépenses sociales est la condition d’un climat social apaisé, seul capable d’éviter la fuite
de capitaux vers l’étranger, en attirant les FMN.

8. Légitimer les inégalités

Pour A. Okun, il existe un arbitrage à faire entre équité et efficacité : on ne peut atteindre les
deux en même temps, la redistribution est vouée à l’échec. Malthus, Essai sur le principe de
population, 1803, disait à propos des lois sur les pauvres, « qu’au lieu d’enrichir les pauvres,
elles ne tendent qu’à appauvrir les riches ». J. Rawls, Théorie de la justice, 1971, soutenait
que l’essor des inégalités était acceptable à condition que les plus pauvres en profitent. La
pensée néoclassique pose le principe que sur le marché la rémunération est déterminée par
la productivité, (justice distributive, en fonction des mérites) : J. Bates-Clark : « chacun reçoit
ce qu’il mérite et chacun mérite ce qu’il produit ». En 2013, G. Mankiw, économiste
d’Harvard, défendait les 1% les plus riches, et qu’aux US les niveaux actuels d’impôts
suffisent déjà à compenser les avantages que les ultra-riches ont tiré des infrastructures
publiques. Une personne comme Steve Jobs qui gagne un revenu faramineux ne reflète que
sa productivité hors du commun. Smith a mis en avant l’effet de ruissellement. F. von
Hayek, Droit, législation, liberté, 1973 a expliqué que par nature la vie est injuste. + courbe
de Kuznets.
On retrouve ce discours dans l’idéologie de Ronald Reagan, par exemple Georges Gilder -
Richesse et Pauvreté, 1981 - écrivait pour dénoncer la politique de Lyndon Johnson (36ème
président des US, 63-69) : « Il y a 10 ans, il s’agissait de faire disparaître la pauvreté à coup
de milliards de $. Le résultat ? En 22 ans, le nombre de ménages américains assistés par
l’Etat a doublé » (de 6 à 15 millions).

9. La croissance fait baisser les inégalités

On peut considérer que c’est l’équation keynésienne, selon les propos de Rosanvallon, qui
permet la réduction à LT de la pauvreté. La réduction des inégalités est la conséquence de la
répartition des richesses institutionnalisée par le compromis fordiste. La société salariale
de Robert Castel se met en place, (Les métamorphoses de la société salariale, 1995) les
salariés disposent d’une sécurité sociale permise par la croissance. La courbe de Kuznets va
dans le même sens : à long terme, la croissance fait baisser les inégalités. Mais Piketty
nuance les propos de Kuznets dans L’économie des inégalités, 1998, en affirmant que la
réduction des inégalités au 20ème n’est en réalité pas naturelle, et n’est que le fruit de
l’inflation et de l’impôt sur le revenu (1914). Pour Piketty, c’est une forte croissance qui fait
baisser les inégalités, mais dès que la croissance ralentit, regain d’inégalités. En 1900, les
2000 foyers les plus riches possédaient 300 fois le revenu moyen contre 50 à 60 fois
seulement ajd. Smith dans sa théorie du ruissellement explique que l’accumulation du
capital, donc la croissance, permet la redistribution par un effet de ruissellement donc la
baisse des inégalités.

10. Les inégalités freinent la croissance


C’est ce que prône Piketty dans Le Capital au 20ème siècle, 2013 : les inégalités amènent une
croissance faible. La croissance à LT est également menacée : Pourquoi les inégalités
freinent-elles la croissance ?, 2014, OCDE. En entravant l’accumulation de KH, les inégalités
de revenu compromettent les possibilités d’instruire les populations défavorisées, limitant
la mobilité sociale et le développement des compétences. L’OCDE retrouve des conclusions
anciennes d’enquêtes menées dans le cadre de la TCED. Aghion et Bolton, A theory of
trickle-down growth and the development, 1997, considèrent que les populations
défavorisées ne peuvent exercer les activités les plus productives car elles nécessitent
divers frais fixes (scolarisation, terrain) et les prêteurs éventuels exigent des garanties
qu’elles ne peuvent fournir. Joseph Stiglitz, Le prix de l’inégalité, 2012, insiste aussi sur le fait
que les riches poussent aux politiques de déréglementation car ils bénéficient alors de
rentes qui nuisent à l’efficacité globale des facteurs de production : les riches épargnant
davantage, la demande manque ou ne survit qu’au prix d’un endettement déstabilisant (pdv
keynésien). Selon Robert Reich, Sans réduction des inégalités, pas de sorties de crises, 2014,
si les ménages américains ont pu s’en sortir dans les années 80 c’est qu’ils ont usé de 3
mécanismes : les femmes se sont mises à travailler, le temps de travail a augmenté et
l’endettement des ménages a explosé (de 50% en 1970 à 138% avant 2008). De plus, les
inégalités privent les classes moyennes du pouvoir d’achat qui leur permet d’acquérir les
biens et services produits par leur entreprise. Selon Dani Rodrik The Globalization Paradox,
2012, on ne peut avoir à la fois démocratie, les Etats-nation et l’hyper-mondialisation. Ainsi,
un excès d’inégalités menace la mondialisation en démocratie.

11. L’égalité est désincitative, la redistribution est inefficace

Bertrand Salanié, L’économie sans tabou, 2004, a montré que l’égalité favorisait un
comportement de passager clandestin et était une désincitation. J. Mirrlees, Analyse de la
théorie de l’impôt optimal, 1971, a montré que la fiscalité peut être à l’origine de
désincitations : risque d’inciter les plus productifs à moins travailler. Il va alors mettre en
avant ce qu’est un impôt optimal, qui doit reposer sur un taux d’imposition marginal
décroissant. La courbe de Laffer montre qu'au-delà d'un certain seuil de prélèvement fiscal,
plus la pression fiscale augmente, plus les recettes fiscales diminuent, en raison de l'effet
désincitatif sur l'offre de travail : « trop d’impôt tue l’impôt ». Plus encore, JB Say concluait
« qu’un impôt exagéré détruit la base sur laquelle il porte », tandis que Smith disait que
« l’impôt peut entraver l’industrie du peuple et le détourner de s’adonner à certaines
branches de commerce ou de travail ». M. Aglietta, L’Europe à contresens, 2011, évoque la
fiscalité carbone comme nouvelle base fiscale pour imposer la consommation pour pallier
cette inefficacité.
12. Laisser faire le marché

V. Pareto, néoclassique, critique l’approche utilitariste car trop de sacrifice : pour maximiser
le bien-être, il faut laisser faire le marché pour atteindre l’optimum de Pareto. J. Bates Clark,
néoclassique, explique de même que « chacun reçoit ce qu’il mérite, et chacun mérite ce
qu’il produit » : il faut laisser faire le marché. Selon Hayek, Droit, législation et liberté, 1973,
le marché est issu d’un processus de sélection par l’efficacité. Il suit un ordre spontané, et
légitime dès lors la non-intervention. En France, décret d’Allarde (1791) qui libéralisait le
commerce des grains, et loi Le Chapelier en 1791, liberté d’entreprise. En GB, abrogation du
Bubble Act (1825) des Poor Laws (1834) (fin aide aux pauvres) et des Corn Laws (1846) (fin
protectionnisme). D’après Arnold Toynbee : « l’essence même de la RI est la substitution de
la libre concurrence aux réglementations qui, depuis le Moyen Âge, étaient imposées à la
production ». On comprend alors pourquoi le XIXème a été le théâtre d’un «
désencastrement du marché » selon K. Polanyi, La Grande Transformation, 1944, qui
commencera dès 1834 avec l’abolition des old poor laws en vigueur depuis 1601.

13. Nécessité de réformer l’Etat providence

On distingue le modèle bismarckien (assuranciel, protection fondée sur le travail,


participation financière des ouvriers, cotisations pas proportionnelles aux risques) du
système beveridgien (assistanciel, universalité, uniformité, unité). La France est un système
mixe.
P. Rosanvallon souligne les 3 crises de l’Etat-providence depuis les 70’s dans La Crise de
l’Etat-Providence, 1981 : crise financière (creusement des déficits publics, cf Chirac,
Mauroy), d’efficacité et de légitimité. Les dépenses sont supérieures aux recettes à cause de
raisons culturelles, démographiques et du ralentissement de la croissance. B. Pallié, Les
évolutions de la protection sociale en Europe, 2011, explique qu’il existe 3 moyens de
réformer l’Etat-providence : re-marchandisation, contrôle des coûts, et reconfigurations
(nouveaux programmes sociaux).
G. Esping-Andersen propose d’abandonner la perspective statique qui répond aux difficultés
présentes des individus : il faut adopter une perspective dynamique qui pense les
problèmes sociaux en termes de trajectoire de vie. Plus encore, dans son ouvrage 3 leçons
sur l’Etat-providence, 2008, Esping-Andersen propose une stratégie d’investissement public
dans les politiques sociales pour les enfants (égalité des chances), les femmes (égalité vis-à-
vis des Hommes), et les personnes âgées (équité inter et intra générations). Ce sont les 3
grands défis du 21ème siècle pour lui.
E. Laurent, Le Bel avenir de l’Etat providence, 2014, critique largement ces approches : pour
lui, « faire reculer la protection sociale, en France comme en Europe, en obéissant à des
préjugés idéologiques à courte vue, serait nous déposséder de notre bien commun le plus
utile. »

14. La redistribution, rôle néfaste

P. Rosanvallon souligne les 3 crises de l’Etat-providence depuis le 70’s dans La Crise de


l’Etat-Providence, 1981 : crise financière (creusement des déficits publics, cf Chirac, Mauroy),
d’efficacité et de légitimité. Crise financière de la redistribution. Pour A. Okun, il existe un
arbitrage à faire entre équité et efficacité : on ne peut atteindre les deux en même temps, la
redistribution est vouée à l’échec. Piketty, Landais, Saez, Pour une révolution fiscale, 2011,
le système fiscal ne corrige plus les inégalités qu’à la marge : au-delà de 14000€ par mois les
impôts deviennent régressifs. Pour Kaldor, dans Alternative Theory of Distribution, la
redistribution est un obstacle à la croissance, car nuit à l’épargne, alors que dans le modèle
de Kaldor, l’épargne est égale à l’investissement : la redistribution nuit à l’investissement
donc à la croissance.
Robert Nozick défend aussi une non intervention de l’Etat,
+ Salanié, Mirrlees, Laffer, Say, Smith désincitation (voir 11.)

15. Rôle positif de la redistribution, et indispensable

Dans une note en 2014, 3 chercheurs du FMI, Jonathan Ostry, Andrew Berg et Charalambos
Tsangarides démontent l’édifice d’Okun avec une enquête sur les Coefficients de Gini avant
et après-redistribution dans 150 pays sur 1 demi-siècle. « La redistribution semble
généralement exercer des effets bénins sur la croissance ». « Une moindre inégalité nette est
solidement corrélée avec une croissance plus rapide et plus durable »
Aghion et Bolton - A theory of trickle-down growth and the development, 1997 -
considèrent que les populations défavorisées ne peuvent exercer les activités les plus
productives car elles nécessitent divers frais fixes (scolarisation, terrain) et les prêteurs
éventuels exigent des garanties qu’elles ne peuvent fournir : redistribution est légitime.
T. Piketty Le Capital au 21ème siècle, 2013, propose même la mise en place d’un impôt
mondial sur le capital qui rapporterait 2% du PIB aux européens s’ils le mettaient en place. J.
Stiglitz, Le prix de l’inégalité, 2012, la progressivité de l’impôt doit permettre la chasse aux
rentes pour réduire les inégalités qui sont « un grain de sables dans l’efficacité du
capitalisme ».
+pg sur le rôle néfaste des inégalités pour légitimer la redistribution (voir 7.)

16. Etat providence et environnement

M. Aglietta, L’Europe à contresens, 2011, évoque la fiscalité carbone comme nouvelle base
fiscale pour imposer la consommation pour pallier cette inefficacité. E. Laurent, Et si la santé
guidait l’économie, novembre 2020, explique qu’il n’existe pas comme on l’a souvent cru,
avec Pigou par exemple, d’arbitrage entre l’économie et l’environnement. Les Etats ont fait
le choix de placer la santé de leur population avant la croissance de leur économie, faute
d’avoir pris soin de la vitalité de leurs écosystèmes : détruire la Nature est un suicide
social, et une folie économique. En se laissant guider par une pleine santé accordant toute
leur place aux écosystèmes qui nous font vivre, il devient possible de réorienter nos
systèmes économiques pour donner un sens partagé à la transition écologique.

17. Légitimer la décentralisation

D. Bell expliquait que « l’Etat est devenu trop petit pour les grandes choses, et trop grand
pour les petites choses ». K. Ohmae, De l’Etat nation à l’Etat région, 1995, évoque le déclin
des Etats nations. On ne peut plus pénaliser les entreprises étrangères sans pénaliser les
nationales. La région apparaît donc plus efficace.

18. Hausse des inégalités nationales

Théorème Stolper-Samuelson explique que la conséquence d’HOS est de faire augmenter


les inégalités au niveau national dans les pays développés. L’indice de Gini en Chine est
passé de 0.25 à 0.42 entre 1985 et 2007. François Bourguignon, La mondialisation des
inégalités, 2012, insistait sur la hausse des inégalités au niveau national qui contraste avec la
baisse des inégalités au niveau international, ce que le théorème Stolper-Samuelson
confirme. C. Landais remarquait de plus que le revenu des 0,01% les plus riches avaient
augmenté de 42,6% entre 1998 et 2006 en France : les riches captent les fruits de la
croissance. De plus, depuis les 80’s, hausse des revenus du patrimoine qui représentaient
17% en 1980, contre 23% en 2010. Selon l’OCDE, jamais en 30 ans le fossé entre les riches et
les pauvres n’a été aussi élevé : en 2014, le revenu des 10% de la population les plus riches y
est 9,5 fois plus élevé que celui des 10% les plus pauvres, contre 7 durant les 80’s. Selon la
courbe de Lorenz, les 10% les plus riches représentaient 25% du revenu et 45% du
patrimoine en France, alors que les 50% les plus pauvres, représente 30,7% des revenus, et
6,8% du patrimoine en France. Ceci amène Piketty a évoqué le retour du dilemme de
Rastignac, cad que pour faire fortune, il vaut mieux compter sur les bénéfices du mariage
que sur le mérite et le talent. Le capital accumulé dans le passé domine toute richesse
nouvelle. En effet en 1980, les revenus du patrimoine étaient de 17% du revenu total contre
23% en 2010.

TD11 : Emploi et chômage


-« Le chômage résulte bien plus du manque d'efficacité de nos politiques que de la
mondialisation des années 1980 » Paul Krugman dans La mondialisation n'est pas coupable,
1996

-« Si la France atteint un jour la barre des 500 000 chômeurs ce sera la révolution » affirmait
en 1967 G. Pompidou. La croissance était alors à 4,9%. En 1993, avec 0,7% de croissance et 3
millions de chômeurs, F. Mitterrand affirmait « contre le chômage on a tout essayé ».
Paradoxal.

Voir aussi TD8, pg 14

1. Eléments d’introduction avec le terme « chômage »

Jusqu’au recensement français de 1891, les chômeurs étaient considérés comme une
catégorie de population non classée, et la catégorie n’apparaît que dans le recensement de
1896. R. Salais, L’invention du chômage, 1986, insistaient sur les limites entre emplois et
chômages qui sont parfois incertaines, tout comme J. Fressinet, Le chômage, la découverte,
1998, qui développe le graphique du halo du chômage On distingue tout d’abord les inactifs
des chômeurs : +2ans au chômage=inactif, pour +60ans=+1an.
Taux de chômage=nombre de chômeurs BIT/population active
BIT (bureau international du chômage) : chômage remplis 3 conditions : être sans emploi,
être disponible, et chercher activement un emploi. Cette définition est différente de celle de
Pôle Emploi qui définit le chômage comme l’ensemble des personnes inscrites sur ses listes.
Ainsi, la moitié des chômeurs Pôle emploi ne sont pas considérés comme chômeurs pour le
BIT : on comprend bien que le chômage est un problème statistique.
On distingue ainsi le chômage frictionnel (imperfections du marché du L, observable même
en situation de plein-emploi, chômage d’adaptation lié aux délais d’ajustement de la main
d’œuvre entre deux emplois), structurel (inadéquation entre les qualifications des individus
et les emplois, inadéquation entre l’offre et la demande) et conjoncturel (conjoncture).
La politique économique vise les objectifs du carré magique de Kaldor, parmi lesquels la
croissance, le plein emploi, la stabilité des prix, et l’équilibre externe.
De 1975 à 1985, le chômage est passé de 3 à 10,5% en France, maximum en 1996 (12,5%), et
ajd se stabilise à 8-9%. (2021 novembre : 7,6%)

2. Le chômage est volontaire

Selon la loi de Say, l’économie a naturellement tendance à se diriger vers une situation de
plein emploi, le chômage ne peut donc qu’être volontaire.
Pour Kydland et Prescott, le chômage est volontaire : en effet, les chocs exogènes tels que
les chocs technologiques entrainent un choc de productivité qui poussent les individus à
moins travailler par les gains de productivité et donc à tendre vers un chômage volontaire.
Chez les classiques et les néoclassiques, le chômage est volontaire. Pigou, La théorie du
chômage, 1933, prône aussi l’existence d’un chômage volontaire, « l’existence d’un grand
nombre de personnes qui ne valent pas ce salaire (=salaire minimum) est cause du chômage
». Selon Walras L’économie politique et la justice, 1860, le marché du travail est toujours à
l’équilibre sous condition de la CPP.

3. Le chômage est involontaire

La crise de 1929 et la grande dépression qui a suivi ont fait apparaître un chômage de masse
durable que la théorie néoclassique ne peut dès lors pas expliquer. Entre 1929 et 1933, le
chômage américain passe de 3 à 25%. Keynes, 1936, remet en cause la conception
néoclassique du marché du travail. Le chômage est un phénomène macro-économique
involontaire lié aux anticipations insuffisantes des entreprises. La synthèse d’Hicks Mr
Keynes et les Classiques, 1937, informe de cette capacité de l’Etat à lutter contre le chômage
alors de nature involontaire.

4. Le chômage est structurel

Friedman (The Role of Monetary Policy, 1968) réadapte l’analyse néoclassique du chômage
en créant le concept de chômage naturel. Il critique la courbe de Phillips : l’inflation (illusion
monétaire) diminue temporairement le taux de chômage (graphique). Le NAIRU (Taux de
Chômage Non Accélérateur d’Inflation) a été développé par J. Tobin : il mesure
approximativement le taux de chômage qui serait compatible avec un taux d'inflation stable.
Olivier Blanchard et Jean-Paul Fitoussi, Croissance et chômage, 2000, établissent que le
NAIRU en France était de 4,2% avant 1973, 6,6% entre 80 et 86 puis 8,5% en 94. Ils
expliquent cette évolution par l’existence d’un effet d’hystérèse, qui signifie que les
conséquences (chômage) sont maintenues alors que la cause (récession) a disparu : l’emploi
ne peut revenir à son ancien niveau. Layard, Nickell, et Jackman dans Chômage,
Performance macro-éco et marché du Travail, 1991, mettent en avant le modèle WS-PS pour
expliquer le déplacement du NAIRU, et expliquent différemment le chômage d’équilibre :
ajustement par les salaires nominaux du fait d’une hausse de la concurrence (graphique). Le
chômage est le résultat de deux stratégies indépendantes venant des entreprises et des
salariés, ayant chacun des objectifs différents.

5. Nécessité de tendre vers le plein emploi

Jusque 1965, en France, situation de plein emploi.


Dans Du travail pour tous dans une société libre en 1944, William Beveridge fait du plein-
emploi l’ambition, politique plus qu’économique, suprême à laquelle une société doit
s’atteler. Keynes, 1936, a montré l’existence d’un équilibre de sous-emploi, et il légitime dès
lors l’intervention de l’Etat pour atteindre le plein emploi des facteurs travail et capital, par
l’intermédiaire de politiques budgétaires et monétaires : le bon taux de croissance est celui
qui permet une croissance de plein-emploi. Le rapport Pisani-Ferry en 2000 au
gouvernement du Conseil d’analyse économique ne fait pas du plein emploi un objectif du «
carré magique » de Kaldor parmi les autres (inflation maîtrisée, croissance soutenue et
équilibre commercial) mais un objectif à la fois réaliste et surtout prioritaire. « Le plein-
emploi n’est ni un rêve, ni un slogan. C’est un projet. La société du travail reste notre horizon
et le plein-emploi son contrat fondateur ».
La politique monétaire doit agir dans ce sens d’après le modèle IS-LM. Dans le cadre du
modèle initié par John Hicks en 1937 (Keynes et les classiques : une interprétation possible),
l’offre de monnaie de la banque centrale déplace LM et permet donc d’atteindre l’équilibre
IS-LM de plein-emploi.
Pendant les 30 Glorieuses, le plein emploi était l’objectif ultime. Dans le droit fil des idées
keynésiennes, la courbe de Phillips réinterprétée par Solow et Samuelson montre la
possibilité d’arbitrer entre chômage et inflation : l’inflation devient un moyen d’atteindre
une situation de plein-emploi. Pompidou : « Mieux vaut l’inflation que le chômage ».
Harrod dans le modèle Harrod-Domar énoncera les conditions d’une croissance équilibrée
et de plein-emploi, et légitime l’intervention des pouvoirs publics pour tendre vers le plein
emploi bien que cette condition soit quasi irréalisable. Le modèle de Solow énonçait à
l’inverse qu’une croissance équilibrée et de plein-emploi était atteignable : la croissance
assurerait naturellement le plein-emploi (le plein-emploi est une hypothèse du modèle de
Solow). Pour Larry Summers, les taux d’intérêt négatifs sont nécessaires pour croissance
atteindre l’équilibre de plein emploi.

6. Réduire le chômage

Selon le modèle WS-PS, il existe deux moyens de réduire le chômage, développé par Layard,
Nickell, et Jackman dans Chômage, Performance macro-éco et marché du Travail, 1991. La
première consiste à déplacer WS (pv de négo des salariés) vers la gauche, autrement dit en
retirant le pouvoir de négociation des salariés : la réduction du chômage se fait au profit
d’une baisse des salaires réels (inefficace). La deuxième stratégie est de réduire le chômage
en déplaçant PS (pouvoir de marché des E) vers la gauche. Autrement dit, en limitant le
pouvoir de marché des entreprises. Cela peut donc se traduire par une hausse de la
concurrence sur les marchés (voir graphique).
Pour réduire le chômage structurel, il s’agit de flexibiliser le marché du L en éliminant les
rigidités : ajuster le travail par la quantité ou les prix à la production. Les Lois Hartz, 2004,
sous le mandat du chancelier Schröder vont dans ce sens, et ont pour but de réduire le
NAIRU.
Il s’agit sinon de créer une incitation : le principe de l’impôt négatif pour lutter contre la
trappe à inactivité : popularisée par Milton Friedman (1962, Capitalisme et liberté).
7. Les effets pervers d’une lutte pour le plein emploi : prôner le laissez-faire

Dans une approche libérale orthodoxe, le plein-emploi est naturel et n’a pas à faire l’objet
d’une politique économique : Ricardo prévenait que « les salaires ne doivent jamais être
entravés par la volonté du Gouverneur », Léon Walras (L’économie politique et la justice,
1860), définit, à la fin du 19 ème, l’équilibre général sur le marché du travail comme la
situation spontanée, normale et naturelle. Pigou, La Théorie du chômage, 1931, explique
que le marché du travail peut être considéré comme un marché comme les autres où
s’affrontent une offre de L (les L) et une demande de L (les entreprises) en fonction du
niveau des salaires réels. Le chômage est aussi un choix rationnel au profit de l’inactivité.
Toute politique de lutte contre le chômage aurait pour effet de contrarier une situation
Pareto-optimale. M. Friedman théorise la stagflation et conteste la courbe de Phillips :
l’inflation ne diminue que temporairement le taux de chômage. Il existe un taux de chômage
naturel. A partir de la fin des années 70, le plein-emploi n’est plus un objectif prioritaire. En
1979, les pays du G5 décident d’abandonner les politiques keynésiennes. Paul Volcker va
ainsi mener une PM des plus restrictive.
Selon l’analyse de Laroque et Salanié (2000), une augmentation de 10 % du SMIC en France
détruit à long terme environ 300 000 emplois : il faut laisser faire le marché.

8. Nouvelle conception du plein emploi

NAIRU qui redéfinit le plein-emploi, qui permet dès lors aux US d’atteindre un plein-emploi
en passant sous la barre des 4%. Mais le problème c’est que ce retour au plein-emploi a été
obtenu à un prix social non négligeable, à savoir la montée des working poors, des emplois
précaires. Les sociétés deviennent des « sociétés de serviteurs » (André Gorz) plutôt que de
services. Comme le fait remarquer Robert Castel Les Métamorphoses de la société salariale,
1995, « il faut que tout le monde travaille et ce n’est ni la qualité, ni la rémunération qui
compte mais le travail pour le travail » : le travail est intégrateur.
En plus du temps d’emploi élevé, le plein emploi exige d’être relativisé à l’aune de
l’importance du temps partiel imposé qui concerne 30% des salariés. Dominique Taddéi
déclare : « tout personne en âge de travailler doit obtenir un emploi qui corresponde à ses
choix ».

9. La concurrence détruit l’emploi

A. Elle entraine du PT qui détruit l’emploi


En 1589, l'inventeur anglais William Lee présente à la reine Elisabeth sa machine à tricoter
les bas. Considérant que cette machine "mènerait assurément ses pauvres sujets à la ruine
en les privant d'emploi", la réponse de la reine fut un interdit royal.
Jean Fourastié dans Le Grand Espoir du 20ème siècle, 1949 explique que l’évolution de
l’emploi dans un secteur est égale à l’évolution de la production moins l’évolution de la
productivité du travail dans ce secteur. J. Rifkin, La fin du travail, 1995, mécanisation du
ramassage du coton après SGM : en 1h, le travailleur agricole récolte 9kg contre 450 pour la
ramasseuse mécanique. P. Cahuc et A. Zylberberg, Le chômage nécessité ou fatalité, 2004,
loi des 15% : disparition chaque année de 15% des emplois.
Néanmoins, pour Schumpeter, il ne s’agit que d’une simple destruction créatrice.

B. La concurrence internationale détruit l’emploi (TD8, pg14)


M. Allais : La mondialisation : la destruction des emplois et de la croissance, 1999 voit dans
la mondialisation le coupable de la hausse du chômage de masse et de la baisse des effectifs
industriels en France dès 1974.
Le rapport Arthuis, 1993, analysait les conséquences de la délocalisation vers les PBSCT :
impact négatif « la mondialisation, loin d’être comme ailleurs un accélérateur de croissance,
agit en France comme une pompe aspirant des emplois de plus en plus qualifiés vers les pays
émergents ». Plus encore, selon une étude de l’INSEE, réalisée entre 2009 et 2011, à la suite
du traité de Lisbonne, a montré les conséquences de la réorganisation des chaînes de
valeurs des entreprises avec l’élargissement de l’Europe, qui aurait entraîné la suppression
de 20000 postes en France. Selon le Ministère de l’économie, 45% des 2 millions d’emplois
industriels détruits en France entre 1980 et 2007 sont imputables à la mondialisation, dont
17% à cause de la concurrence des PED. Ex des ordinateurs Dell produit en Irlande qui créait
4500 postes et constituait 5% du PIB mais qui en 2009 s’est délocalisé pour la Pologne.
PN Giraud, L’inégalité du monde, 1996, analyse l’emploi en France et distingue les emplois
nomades (soumis à la concurrence internationale) des emplois sédentaires. En France, 28%
des emplois sont des emplois nomades. B. Cagnat, Les cols blancs aussi, 2004, expliquait que
plus de 3 millions d’emplois américains seront délocalisés dans des pays émergents entre
2004 et 2015, dont près de 500 000 dans les seules technologies de l’information.
Selon Lila Demmou, La Désindustrialisation en France, 2010, 13% des emplois détruits sont
imputables à la mondialisation.

10. La concurrence ne détruit pas l’emploi

La concurrence ne détruit pas l’emploi car pour Schumpeter, il ne s’agit que d’une simple
destruction créatrice. Selon A. Sauvy, Les machines et le chômage, 1980, simple phénomène
de déversement d’un secteur à l’autre. Les emplois détruits sont compensés par les emplois
créés. Bruno Crépon et Richard Duhautois, Ralentissement de la productivité et
réallocations d'emplois, 2003, ont montré que ce sont les entreprises dont la productivité
croit le plus vite qui créent le plus d’emplois au cours des années 80-90 : paradoxal.
Selon l’ACERP, aux USA, peu de concurrence dans le secteur téléphonique, non seulement
les prix sont très élevés mais surtout les opérateurs téléphoniques ont réduit de 27% leurs
effectifs en 10 ans contre 11 % en France sur la même période. Krugman, La mondialisation
n’est pas coupable, 1996, affirmait que « le chômage résulte bien plus du manque
d'efficacité de nos politiques que de la mondialisation des années 1980 ».

11. Le marché du travail vecteur de segmentation, exclusion

P. Doeringer et M. Piore, Internal Market and Manpower analysis, 1971, segmentation du


marché du travail : on distingue le segment du marché primaire (grandes entreprises,
emplois stables, protection sociale), du segment secondaire (précaire, durée courte, pas de
protection). Aux US, véritable dualisme du marché. B. Salais disait que « le marché du travail
est une pompe aspirante et refoulante ». En effet, il « aspire » les 25-50 ans alors que les -25
et les +50 ans se trouvent refoulés. A. Lindbeck et D. Snower distinguent dans Efficiency
wages vs insiders and outsiders, 1977, les insiders des outsiders : les insiders sont dans
l’emploi, sont qualifiés, ont un fort pouvoir de négociation, s’appuient sur le learning by
doing, et ont un avantage sur les outsiders. J. Fressinet, Le chômage, la découverte, 1998,
développe le graphique du halo du chômage. Les sociétés deviennent des « sociétés de
serviteurs » (André Gorz) plutôt que de services avec l’apparition des working poors.
Déjà, Adam Smith anticipait « qu’un homme qui passe toute sa vie à remplir un petit
nombre d’opérations simples n’a pas lieu de développer son intelligence ni d’exercer son
imagination ».

12. Les imperfections du marché du travail

Dans Implicit Contracts and Underemployment Equilibria, 1975, C. Azariadis met en avant la
théorie des contrats implicites, et cherche à montrer les imperfections qui existent sur le
marché du travail, expliquant une rigidité des prix sur ce marché. Les salariés ont une
aversion pour le risque, et l’entreprise joue alors le rôle d’assureur : en cas de croissance,
les salaires n’augmentent pas ou pas assez. En période de récession, les salaires ne baissent
pas.
P. Diamond, Pissarides et Mortensen ont mis en avant dans A Model of Price Adjustement,
1971, la théorie de l’appariement : problème de recherche de l’information des employeurs
qui peut avoir des conséquences sur le fonctionnement du marché : les individus
recherchent une adéquation entre leur qualification et un poste, ce qui prend du temps. Les
demandeurs surdiplômés monopolisent le marché, et la main d’œuvre non qualifiée est
forcée de se retirer du marché. L’indemnisation chômage permet de mettre à profit le temps
de chômage pour atteindre cet objectif. J. Stiglitz, Wage determination and Unemployment,
1974, développe la théorie du salaire d’efficience, et montre que la productivité augmente
avec le salaire : l’entreprise doit payer le travailleur au-dessus du prix du marché. J. Rueff
dès 1933 dénonçait les assurances chômages comme cause du chômage permanent :
désincitation.

13. Croissance et chômage

A. La croissance influe sur le chômage


Lien empirique : impact de la crise sur le taux de chômage au cours des années 30 fut en
effet spectaculaire : le nombre de chômeurs américains passa de 1,6 à 12,8 millions en 3 ans,
de 3 à 25%, tandis que la croissance d’après SGM a apporté le plein emploi dans les PDEM.
Loi d’Okun de 1962, examine la relation entre croissance et taux de chômage : ΔU= -α(g-3%)
(avec U=chômage, α=coefficient, g=croissance)
Pour O. Blanchard et D. Cohen, plus le coefficient d’Okun (α) est élevé, plus la croissance est
riche en emploi. Pour Y. L’Horty, P. Martin et T. Mayer, Baisse des charges : stop ou
encore ?, 2019, la baisse du coût du L est un moyen de rendre la croissance encore plus riche
en emploi. Selon P. Askénazy, Les Désordres du L, 2004, un taux de croissance de 1%
stabilise l’emploi aujourd’hui contre 2% il y a 20 ans. R. Gordon, The Rise and the Fall of
American Growth, 2016, l’idée de stagnation séculaire prend du poids : la question du
chômage deviendrait alors de plus en plus dure à résoudre.

B. La croissance (et le PT) transforme l’emploi (proche de pg9)

Jean Fourastié dans Le Grand Espoir du 20ème siècle, 1949 explique que l’évolution de
l’emploi dans un secteur est égale à l’évolution de la production moins l’évolution de la
productivité du travail dans ce secteur. La croissance transforme l’innovation et la
productivité, elle doit atteindre un certain niveau pour qu’il y ait déversement des emplois,
tel qu’envisagé par A. Sauvy, dans le sens d’une tertiarisation de l’économie. Schumpeter :
phénomène de destruction créatrice d’emploi. C. Freeman développe la théorie du
paradigme sociotechnique et met en avant la nature duale du changement technique qui
permet à la fois d’économiser de l’emploi et de créer de l’emploi, mais qui a des
conséquences sociales et peut provoquer des crises.

C. Une nécessité toujours moins importante de travailler grâce à la croissance


De nos jours un travailleur français L 2X moins qu’un travailleur français en 1870. Ceci
apparait nécessaire pour compenser les effets de la productivité. La baisse du temps de
travail peut être utilisée contre chômage sous différentes formes : la France en a fait une
arme offensive. JS Mill dans Principes d’économie politique, 1848, explique que le bonheur
des Hommes sera supérieur durant l’état stationnaire. : loisirs, culture… Les Hommes
n’auront à termes plus besoin de travailler. JM Keynes, dans Perspectives Economiques pour
Nos Petits Enfants, 1928, explique que « les besoins économiques seront résolus dans 100
ans », cad que les besoins essentiels seront tous satisfaits. La croissance s’arrêtera à cause
de la volonté des Hommes de pratiquer des activités qui ne visent pas à augmenter les
richesses, et non pas à cause de mécanismes économiques. J. Rifkin, La fin du travail, 1995,
mécanisation du ramassage du coton après SGM : en 1h, le travailleur agricole récolte 9kg
contre 450 pour la ramasseuse mécanique. Faut-il alors craindre comme le préconise PN.
Giraud, l’émergence de L’Homme inutile (2017), en formulant l’hypothèse que l’inutilité est
la pire des inégalités et que les actuels damnés de la Terre sont les chômeurs de longue
durée. L’inutilité est la pire forme des inégalités, car elle enferme dans des trappes dont il
est impossible de sortir.
En 1936, le Front Populaire a baissé 40 heures le nombre d’heures travaillées par semaine et
par tête. En 1982, Mitterrand l’a baissé à 39 heures et a ajouté une 5 ème semaine de congés
payés. En 1998, Jospin l’a abaissé à 35h.

14. Chômage et inflation

A. Le rôle bénéfique de l’inflation sur le chômage…


Michel Aglietta et T. Brand dans Un New Deal Pour l’Europe, 2012, soutiennent une
pertinence de l’augmentation de l’inflation en Europe qui permettrait de faire baisser le
chômage et a fortiori baisser la dette publique. Pendant les 30 Glorieuses, le plein emploi
était l’objectif ultime. Dans le droit fil des idées keynésiennes, la courbe de Phillips
réinterprétée par Solow et Samuelson montre la possibilité d’arbitrer entre chômage et
inflation : l’inflation devient un moyen d’atteindre une situation de plein-emploi. Pompidou :
« Mieux vaut l’inflation que le chômage ».

B. …qui n’est pas toujours vérifié


Dans le même temps, le ministre des finances de Thatcher, Nigel Lawson déclare : « c’est la
lutte contre l’inflation et non la recherche de la croissance et de l’emploi qui sont l’objectif
de la politique macro-éco » : nécessité de revoir les priorités. Le carré magique de Kaldor
prône à la fois une stabilité des prix, donc une inflation limitée et le plein emploi. Néanmoins
Friedman remet en cause ce lien positif entre inflation et chômage, et R. Lucas insiste en
1972 sur le phénomène « d’anticipations rationnelles » des ménages : les individus
anticipent parfaitement l’inflation et ses conséquences, ce qui remet en cause la pertinence
et l’efficacité de la courbe de la courbe de Phillips. Pour Keynes, l’inflation ne peut
apparaître qu’une fois le plein-emploi atteint : inflation et chômage ne peuvent coexister.
Kindleberger dans International public goods without international government, 1986,
explique que la convergence des préférences sur le dilemme inflation/chômage et les
niveaux d’endettement crée les conditions d’une ZMO.

15. Nécessité de réformer le marché du L (souvent III.)


En 2002, la commission Hartz a proposé des pistes de réformes. Elles ont été déclinées en 4
lois visant à renforcer la recherche d’emploi, inciter les chômeurs à accepter un emploi et
encourager l’activité professionnelle. Son but est de baisser les NAIRU. Le principe de
l’impôt négatif pour lutter contre la trappe à inactivité : popularisée par Milton Friedman
(1962, Capitalisme et liberté). En France, c’est ce principe qui régit le mécanisme de la
« prime pour l’emploi » (2001) et depuis 2009, le RSA (Revenu de Solidarité Active). Selon
Pierre Cahuc et Stéphane Carcillo en 2012 le coût du travail au niveau du salaire minimum
était déjà deux fois plus élevé en France que dans le reste de l’OCDE : le salaire minimum
créé une barrière à l’entrée. Cette, E. Cohen et P. Aghion dans Changer de Modèle (2014)
soulignent l’ensemble des facteurs qui font que le chômage reste haut, et insistent sur des
réformes profondes du marché du travail.
J. Tirolle « L’économie du bien commun »2016

16. Les diffs des taux de chômage entre pays s’expliquent par des spécificités
nationales (souvent en III.)
Le modèle anglo-saxon, ou libéral, (USA, GB) est fondé sur une forte réactivité du taux de
chômage aux taux de croissance. Lors de la récession de 1983, le taux de chômage américain
est à 11% contre 5,5 en 78. La reprise ramènera le taux à 7 en 87 puis 4,5 en 90. Suite à la
crise du Corona virus, le chômage aux Etats-Unis a atteint son plus haut niveau depuis la
guerre. En effet, entre février et avril 2020, le taux de chômage aux Etats-Unis est passé de
3,5 % à 14,7%.
Le modèle social-démocrate (Scandinavie) avec marché du L flexible et mettent en place une
« flexisécurité » qui désigne un dispositif social autorisant une plus grande facilité de
licenciement pour les entreprises (volet flexibilité) et des indemnités longues et
importantes pour les salariés licenciés (volet sécurité).
Les marchés du travail les plus flexibles (USA, Scandinavie) sont aussi ceux pour lesquels le
chômage structurel est le plus faible. En raison de la fluidité du marché, un salarié est très
vulnérable mais peut retrouver de l’emploi rapidement en cas de reprise.
Le modèle continental européen est un modèle traditionnellement beaucoup plus rigide au
sens où la protection de l’emploi est plus forte. Les salariés sont beaucoup moins
vulnérables, mais c’est dans ces pays que le taux de chômage a le plus augmenté atteignant
des niveaux exceptionnels en Espagne (26,6%) ou en Grèce (26%).
P. Cahuc et A. Zylberberg, Le Chômage, nécessité ou fatalité, 2004, ont montré que les chocs
d’offre de travail étaient mieux absorbés aux US qu’en France car le marché y est plus
flexible. J. Hunt, 1992, prend l’exemple des accords d’Evian de 1962 et du rapatriement de
900 000 pieds noirs en France : la rigidité du marché du travail français a fait que cette
hausse de main d’œuvre a eu un impact sur le taux de chômage français. Au contraire, G.
Peri dans son analyse du marché du travail danois entre 1991 et 2008, prône le modèle
scandinave en montrant qu’une hausse de l’immigration incite les natifs danois les moins
qualifiés à se tourner vers des emplois plus qualifiés.

17. Apparition du statut de salarié


Le premier droit social apparaît en 1898 et concerne les accidents du travail, et plus
particulièrement la responsabilité du chef d’entreprise. En 1975, les salariés représentent
82% de la population active, 89% en 2006. Ajd, 24 millions de salariés. Le salariat a été un
facteur important du changement social, ce que Mendras a nommé La seconde révolution
française, 1988, portés par les salariés moyens qui prônent de nouvelles valeurs.
Robert Castel, 1995, évoque « le salariat indigne ».

TD12 : Les politiques conjoncturelles


Politiques budgétaires + politiques monétaires= politiques conjoncturelles

1. Le rôle positif des politiques conjoncturelles

A. La politique budgétaire est efficace sous condition


Selon le modèle Hicks-Hansen (ISLM) la politique est d’autant plus efficace en économie
fermée que le taux d’intérêt est bas permettant de limiter l’effet d’éviction. Le modèle IS-
LM-BP ou Mundell-Fleming permet de préciser que la politique budgétaire n’est efficace
qu’en changes fixes.

B. La politique conjoncturelle est indispensable


Les politiques publiques sont par nature contracycliques, et ont été le seul rempart à la crise
systémique et à la dépression qui menaçait l’économie mondiale en 2008.
L’Etat doit alors faire en sorte de rapprocher l’équilibre de sous-emploi du plein emploi
puisque le marché faillit à y parvenir, ce qui nécessite selon Keynes des politiques
conjoncturelles. En 1931, Richard Khan avait montré les effets du multiplicateur sur le
revenu exercé par un investissement initial. Pour se faire, il doit se saisir des multiplicateurs
dont il dispose (fiscal et budgétaire). La synthèse de J. Hicks (Mr Keynes et les Classiques,
1937) informe de cette capacité de l’Etat à lutter contre le chômage alors de nature
involontaire. Le modèle ISLM permet, dans le cadre d'une situation de sous-emploi, il
permet de choisir entre différentes politiques économiques, en estimant leurs effets
respectifs. Selon le modèle Harrod-Domar, seul l’investissement public est capable de
permettre une croissance équilibrée. P. Krugman, Sortez-nous de cette crise maintenant,
2012, seule la politique budgétaire permet d’échapper au triple paradoxe : le paradoxe de
l’épargne, quand tout le monde cherche à épargner, les revenus baissent et l’éco ralentit ; le
paradoxe du désendettement, plus le débiteur paye, plus il doit ; le paradoxe de la
flexibilité les salaires baissent alors que le montant de la dette demeure stable. JK.
Galbraith, La crise de 29, 1952, « on peut crever facilement une bulle mais la piquer avec
une aiguille pour qu’elle se dégonfle petit à petit est une tâche d’une extrême délicatesse » :
la politique conjoncturelle est utile mais difficile à manier.
+lien avec les pgs sur l’utilité des politiques monétaires dans les crises (TD7, pgs 8 et 11 avec
Bernanke, Artus, Bagehot, Roosevelt…)

2. Limites des politiques conjoncturelles

Limites en cas de contrainte extérieur (IS/LM/BP). Apparition du dilemme inflation-chômage


pendant les années 60 : accords de Grenelle (68), qui a pour conséquence la dévaluation du
franc de 12,5% en 1969. La relance du gouvernement Chirac en janvier 1975
s’accompagnera d’une montée du taux de chômage de 4 à 5% alors que l’inflation reste à
10%. Il en sera de même pour le gouvernement Mauroy avec une inflation de 13%. M.
Friedman dans sa critique de la courbe de Phillips, explique que la politique budgétaire est
néfaste et inutile pour réduire le chômage car, il existe un taux de chômage structurel vers
lequel revient toujours le taux de chômage. L’impact positif des dépenses publiques n’est
que passager. C’est par la poursuite incessante de politiques de dépenses publiques
financées monétairement durant les administrations Kennedy-Johnson que Friedman
explique la stagflation des US. Le théorème Ricardo-Barro montre que l’inflation et les
déficits entrainent une perte de confiance vis-à-vis des politiques budgétaires, mais aussi
qu’augmenter les dépenses publiques nuit aux agents privés par la hausse incontournable
des impôts. Selon Jean-Marc Daniel, chaque fois que l’Etat augmente ses dépenses, les
agents privés sont obligés de diminuer les leurs. La notion d’équivalence ricardienne se
retourne positivement dans le cas où l’Etat n’accroît pas son déficit mais le réduit.
Selon Jean-Claude Prager, La politique économique aujourd’hui, 2002 – un tiers des
politiques publiques menées entre 88 et 95 ont eu des conséquences inverses à celles
attendues. Kydland et Prescott Rules rather than discretion, 1977, insistent sur le
phénomène d’incohérence temporelle et critiquent les politiques discrétionnaires.

3. La règle budgétaire est nocive

Pour P. Artus, les règles budgétaires européennes sont trop rigides. Plus encore selon G.
Kopits et S. Symanski, Fiscal Rules, 1998, « une règle budgétaire impose une contrainte
permanente à la politique budgétaire »

4. Encadrer les politiques budgétaires, les réformer

L’efficacité des PB ne peut être pensée en Europe que relativement aux institutions : le Pacte
de Stabilité et de Croissance (1997), a imposé aux pays européens un déficit public
maximum de 3% du PIB, et chaque pays doit fournir un programme de stabilité des dépenses
avec pour objectif l’équilibre budgétaire. Bruno Lemaire affirmait néanmoins en avril 2021,
qu’il souhaitait changer la règle de la dette à 60% du PIB. Pacte Budgétaire européen 2012 :
Les objectifs de 3% et 60% sont maintenus, mais l’enjeu principal est d’avoir un budget
financé par des dépenses saines. Aux US, le Congrès fixe le montant maximal de la dette
publique, et impose une règle de crédibilité budgétaire portant sur le montant de la dette, ce
montant étant fixé à 16800 milliards de dollars. M. Aglietta, L’Europe à contresens, 2011,
évoque la fiscalité carbone comme nouvelle base fiscale pour imposer la consommation.
5. Inflation permet de réduire la dette publique

O. Blanchard, économiste en chef au FMI invitait les BC à reconsidérer leur objectif


d’inflation de 2 à 4%. P. Krugman partage son pdv et préconisait le fait que « l’inflation est la
solution », en prônant une inflation de 4 à 5%. La GB après la SGM avec un taux d’inflation
moyen de 6% est parvenu à ramener sa dette à 40% en 2000. Il en est de même pour les US
dont le principal moteur de désendettement est l’inflation : la dette était de 125% en 1946
contre 36% en 2006, avec un taux d’inflation moyen de 3,8%. Plus encore, Keynes souhaitait
l’inflation pour permettre l’euthanasie des rentiers : l’inflation redistribue le revenu, qui
permet elle-même de favoriser la demande globale. Michel Aglietta et T. Brand dans Un
New Deal Pour l’Europe, 2012, soutiennent une pertinence de l’augmentation de l’inflation
en Europe qui permettrait de faire baisser le chômage et a fortiori baisser le déficit public et
donc la dette publique.

6. Les effets néfastes de l’inflation

A. L’inflation peut être nocif à la dette


Pour Jean-Marc Daniel, l’inflation nous défait de la dette d’aujourd’hui en préparant la dette
de demain. Selon la PPA (Gustave Cassel), une inflation supérieure à celle des autres pays
entraine une dépréciation inévitable. Pour Friedman, l’inflation ne peut qu’être qu’une
solution temporaire, les agents économiques sont victimes d’illusion monétaire. Pour
Nicolas Bouzou, Les Echos, 2009, une inflation forte et durable ne peut survenir qu’à
certaines conditions comme le fait que les salaires doivent augmenter rapidement. «
Recourir à l’inflation pour surmonter des difficultés passagères équivaut à brûler ses
meubles pour se chauffer ». (Ludwig von Mises Théorie sur la monnaie et le crédit, 1912).
« L’inflation est comme l’alcoolisme. Lorsqu’un homme se livre à une beuverie, le soir même
cela lui fait du bien. Ce n’est que le lendemain qu’il se sent mal » Friedman.
Suite au plan de relance de Biden de 1900 milliards de dollars, O. Blanchard et Summers
s’inquiètent d’une possible tendance inflationniste. Pour O. Blanchard, « le plan Biden peut
créer une tendance inflationniste ». Ludovic Subran, Krugman ou encore Kenneth Rogoff
relativise néanmoins leur pdv.

B. Nuit aux agents économiques


JP. Fitoussi, dans Le débat interdit, 1995, « les créanciers ne redoutent rien tant que
l’inflation ». Hayek démontre comment la déformation des prix relatifs entraîne un
surinvestissement dans les biens de production qui rend la crise inévitable, par le biais du
coup d’accordéon. Si les salaires ne suivent pas le rythme des prix, l’inflation devient
néfaste : en 1923, avec l’hyper-inflation allemande, les salariés ont connu une baisse de
salaire de 30 à 75%. Pour Keynes, l’inflation est issue d’une situation de conflits sociaux : il
existe une volonté des différents groupes sociaux de conserver leur revenu, de le protéger.

7. Les effets néfastes de la déflation


« Il n’est pour une économie pire danger que l’inflation à l’exclusion toutefois de la
déflation » expliquait J. Rueff. Chez Keynes, la déflation incite à différer la consommation en
thésaurisant, ce qui a un impact structurel sur la croissance. La déflation Laval de 1935 a été
nocive pour la France : le président du Conseil veut relancer l'activité et les échanges sans
avoir à dévaluer la monnaie. Mais cette politique de rigueur n'atteindra pas ses objectifs et
laissera le pays plus pauvre et désemparé qu'avant. Le vieillissement démographique peut
aussi avoir pour conséquence de la déflation : c’est ce que montrent D. Anderson, D.
Bottman, et B. Hunt, 2014, en s’appuyant sur le Japon. La déflation freine la croissance et
modifie les prix relatifs. Il faut à tout prix éviter un phénomène de déflation par la dette tel
que théorisé par I. Fisher dans The Debt Deflation Theory, 1933. Pour Krugman, réduire
sensiblement la dépense publique (ou augmenter les impôts) c’est réduire d’autant la
demande et plonger dans le cercle vicieux de la déflation.
« L’inflation crée de la fausse richesse, la déflation détruit de la vraie richesse »

8. Les contraintes de la dette publique

Reinhart et Rogoff, dans Growth in a Time of Debt, 2010, ont montré qu’au-delà d’une dette
publique de 90% du PIB, la dette publique avait un effet néfaste sur la croissance. Des
économistes comme Piketty, Couppey-Soubeyran, ou Scialom souhaitent annuler la dette
afin de supprimer la menace qu’elle représente. Jézabel Couppey-Soubeyran, L’économie
mondiale 2020 : « La dette française n’est soutenable que si les taux restent bas ». Il faut
annuler la dette. Thomas Piketty est du même avis. Selon eux, une telle annulation
donnerait des marges de manœuvre aux États pour investir dans la transition écologique. A
l’inverse d’autres comme Bénassy-Quéré, Aglietta, P. Artus expliquent qu’annuler la dette
ne fait que déplacer le problème. Agnès Bénassy-Quéré, met en avant un triangle
d’incompatibilité européen : Il ne peut y avoir simultanément 1- une monétisation de la
dette ; 2- une interdiction de défaut de paiement ; 3- une clause de « no bail out » (pas
d’aide d’un pays par d’autres pays de la zone). Lors de la crise des dettes souveraines, c’est la
clause de « no bail out » qui a été écartée pour éviter l’implosion de la zone euro.
Chez les keynésiens, la dette est bénéfique avec la croissance mais celle-ci devient néfaste si
elle devient trop importante. En France, en 2009, chaque nouveau-né héritait d’une dette
publique de 29500€, alors qu’ajd, chaque français supporte 40000€ de dette pb. Pour
Gordon dans Is Us Economic Growth Over, 2012, la dette publique est l’un des 6 vents
contraires de la croissance. Michel Aglietta et Natacha Vala, Taux d’intérêt négatif et
stagnation séculaire, 2016, considèrent la hausse de la dette publique comme l’un des 3
principaux facteurs de la stagnation séculaire. Le théorème Ricardo-Barro montre que
l’inflation et les déficits entrainent une perte de confiance vis-à-vis des politiques
budgétaires.
Patrick Artus montre qu’il « est optimal de réduire la dette si elle est élevée », car « une
hausse supplémentaire de la dette réduit le bien-être, l’effet dominant étant la réduction du
capital productif et la hausse des impôts alors que le revenu est déjà faible ».

9. Les politiques d’austérité


Alesina parlait d’ « austérité expansionniste » : la réduction des dépenses publiques a des
vertus expansionnistes. Dans Austerity : When It Works and When It Doesn’t, 2019, il
montre, à partir de recherches empiriques sur 16 économies développées, que les pays qui
ont choisi de réduire les dépenses publiques ont eu de meilleurs résultats en termes de
production et d’emploi que les pays qui ont augmenté les impôts. L’austérité fut le choix de
l’Autriche, du Danemark et de l’Irlande dans les années 1980, mais aussi de l’Espagne, du
Canada et de la Suède dans les années 1990. Ce choix eut des effets expansionnistes et non
récessionnistes.
Robert Boyer juge néanmoins les récentes politiques d’austérité comme « les plus grandes
erreurs des politiques économiques des 50 dernières années » : hypothèses discutables des
politiques d’austérité. Mais il soulève que l’austérité peut aussi très bien marcher. Elle a
fonctionné pour la Finlande, l’Irlande et le Danemark dans les années 1980-1990. En fait, le
résultat de l’austérité ne peut être bon qu’à plusieurs conditions : il doit s’agir de petites
économies ouvertes et dynamiques en termes d’innovation dans le secteur exportateur
(minimum 50 % du PIB) avec un taux de refinancement de la banque centrale descendant
rapidement si les investisseurs ont confiance, une négociation salariale efficace et des
changes flexibles.

10. Complément dette publique, regroupement

Pour Keynes, endettement public est le seul moyen de faire face à une défaillance de
l’investissement privé. Chez Reinhart et Rogoff, la crise financière est due à un excès de
dette des agents éco.
En avril 2005, l’État français a émis une obligation assimilable du Trésor (OAT) à cinquante
ans, arrivant donc à maturité en 2055. L’État français s’était engagé à en émettre pour 6
milliards d’euros. La demande a atteint 19,5 milliards. Aussi, le taux d’intérêt servi a été de
3,77 %, soit un niveau particulièrement bas. O. Blanchard, dans une note de février 2019
intitulée Public Debt: Fiscal and Welfare Costs in a Time of Low Interest Rates, considérait
qu’il était inutile aujourd’hui de s’inquiéter de la dette publique ! La raison est simple : le
taux d’intérêt auquel s’endettent actuellement les États est très faible. « si la dette publique
est nuisible, elle n’est pas catastrophique (…) elle peut être utilisée, mais à bon escient ».
Dans le modèle Ricardo-Barro, la propension à consommer aurait une composante
conjoncturelle et une composante stable. La première repose évidemment sur les revenus
présents, la seconde sur la perception actuelle des revenus futurs et, plus globalement, sur
le cycle de vie des revenus. L’application moderne de ce concept conduit à considérer qu’en
cas de relance budgétaire financée par déficit, les agents économiques anticiperont la
probabilité d’une hausse d’impôts future et augmenteront leur épargne pour s’y préparer,
ce qui diminue les effets du multiplicateur keynésien traditionnel.
En 1945, la dette publique de la GB était de 250 % du PIB et seulement de 50 % en 1970,
grâce à une progression annuelle moyenne du PIB de 7 %, bien supérieure au taux d’intérêt
versé aux créanciers, une inflation qui faisait grimper les prix de 4 % par an en moyenne.
Adair Turner conclut que « si les dettes ne peuvent être érodées ni par la croissance réelle ni
par l’inflation, elles peuvent être réduites par le défaut de paiement et la restructuration de
la dette ».
Pour Krugman, réduire sensiblement la dépense publique (ou augmenter les impôts) c’est
réduire d’autant la demande et plonger dans le cercle vicieux de la déflation.
JM Daniel, Trois controverses de la pensée économique, 2016, distingue le déficit
conjoncturel du déficit structurel : « Seul le déficit structurel nourrit la dette : laisser filer le
déficit structurel conduit à une accumulation de dette qui finit par étouffer l’action
publique ».

11. Dette et corona

Déjà en 2018, le déficit public en France s’élevait à 2,5 % du PIB et la dette publique à 98,4 %
du PIB. Pourtant, ce n’est rien à côté du fardeau du Japon avec sa dette publique à 238 % du
PIB, ou même des États-Unis à 106 %. La cour des comptes estime que la crise sanitaire a
coûté près de 93 milliards d’euros au budget de l’Etat en 2020, La dette, elle, s'est envolée à
115,7%.
Après avoir atteint le niveau record d’un déficit public de 9,2 % l’an dernier avec les moyens
considérables engagés pour faire face à l’épidémie de Covid-19, la baisse envisagée est
considérable. Le ministre de l’Économie Bruno Le Maire défend un objectif « ambitieux »
mais aussi « le choix de la sincérité et de la responsabilité ». Le gouvernement envisage de
s’attaquer aux dépenses publiques en ramenant leur hausse à +0,7 % par an en moyenne
(hors dépenses d’urgence et de relance) jusqu’en 2027, contre une hausse de 1 % par an
entre 2017 et 2019, et de 1,4 % par an durant la décennie 2010. La France se donne « cinq
ans pour rétablir les finances publiques après la crise », dit Bruno Le Maire.
Krugman, « Notes on the corona coma », in New York Times, 1er avril 2020, parlait même
d’un corona coma.

12. Vocabulaire

Effet d’éviction : un phénomène économique qui se caractérise par une baisse de


l'investissement et de la consommation privée qui serait provoquée par une hausse des
dépenses publiques (donc des impôts).

Autres paragraphes : (mix Knoll, hors du cours, croisement


Chapitres, TD des révisions)

1. Le rôle bénéfique des institutions dans le rattrapage

Daron Acemoglu, Les causes profondes de la pauvreté, 2003, a comparé les institutions
entre la Corée du Nord et du Sud. Les 2 pays possédaient des niveaux de développement
semblables en 1950, mais la Corée du Nord va adopter des institutions socialistes, puis un
régime totalitaire, qui se distingue des institutions capitalistes mises en place par la Corée du
Sud. Corée du Sud = succès, pas Corée du Nord.
Dani Rodrick et A. Subramanian, dans La Primauté des institutions, 2003, ont insisté sur
l’importance des « institutions créatrices de marché », qui permettent de protéger les
institutions. Ils distinguent les institutions de réglementation, de stabilisation, de
légitimation de marché. Ils prennent l’exemple des pays subsahariens, qui n’ont pas su
résister aux chocs pétroliers des 70’s à cause de la faiblesse des institutions. Ils ont aussi
montré que si les institutions de la Bolivie étaient semblables à celles de la Corée du Sud, le
PIB par habitant bolivien passerait de 2700$ à 18000$.
R. Boyer insistait quant à lui sur l’importance de la complémentarité Etat-marché. D. North,
Economic performance through time, 1994, expliquait que les institutions devaient être des
incitations, et que se sont elles qui participent à la réussite d’un pays, en prenant l’exemple
de la différence d’institutions entre la GB et l’Espagne pendant la colonisation. Il insiste sur
l’auto-renforcement des institutions au cours du temps.
T. Veblen critique l’hypothèse de rationalité des comportements, et légitiment alors le rôle
des institutions.

2. Les institutions : limites

Douglass North, Economic performance through time, 1994, a insisté sur le sentier de
dépendance des institutions : il existe des verrous qui limitent le changement, le
changement d’institution est difficile. Par exemple, Paul David, dans Clio and the economics
of QWERTY, 1985, a montré que les US ont adopté la technologie QWERTY au 19 ème, alors
qu’il existait une autre technologie plus efficace, DVORAK, qui n’a pas pu remplacer QWERTY
à cause des changements compliqués. Un « accident historique », définit par P. Krugman,
aboutit à un sentier de dépendance sous-optimal.
Plus encore, les mauvaises politiques des PAS entreprises par le FMI avec les PED
d’Amérique Latine a montré les limites des insitutions, critiquées par J. Stiglitz dans La
Grande Désillusion, 2002.

3. Le vieillissement démographique

Le vieillissement démographique peut avoir pour conséquence de la déflation : c’est ce que


montrent D. Anderson, D. Bottman, et B. Hunt, 2014, en s’appuyant sur le Japon. La
déflation freine la croissance et modifie les prix relatifs. Larry Summers ou P. Krugman
identifient le vieillissement démographique comme l’une des causes de la stagnation
séculaire. Lorsqu’Alvin Hansen forgea le terme de « stagnation séculaire », il faisait déjà
référence aux dynamiques démographiques. Il s’agit aussi de l’un des 6 vents contraires de
Gordon.

4. L’épargne

Ansley Coale et E. Hoover, Population Growth and Economic Development, 1958, ont
développé la théorie du développement : si la fécondité est élevée, difficulté à épargner des
populations, comme en Inde. R. Solow, A contribution to the Theory of economic growth,
1956, explique que la croissance démographique est d’abord un obstacle au rattrapage
puisque la hausse du PIB par tête suppose d’élever le capital par tête. L’effort d’épargne est
d’autant plus important et inaccessible que la population s’accroit rapidement comme l’a
montré R. Nurske avec Pbs de la formation du Capital dans les PED, 1964, avec le cercle
vicieux de la pauvreté. Dans un cadre néoclassique, l’épargne est un préalable à
l’investissement.
Bruno Lemaire veut faciliter la possibilité que les grands-parents fassent des dons à leurs
petits-enfants, en exonérant d’impôt les dons afin de relancer la demande par le biais de
l’investissement de la jeunesse. Hayek se prononce contre toute mesure visant à relancer la
consommation, qui ne ferait selon lui qu’aggraver le mal : insuffisance d’épargne pas
d’excès.
Parties possibles d’un grand 3 possible sur épargne vice ou vertu : A. L’épargne est un
comportement rationnel (Modigliani, M. Friedman, épargne fixée sur toute notre vie) B.
L’épargne est une source d’inégalités (Piketty, Rastignac, Marx)

5. La crise du travail

Adam Smith anticipait « qu’un homme qui passe toute sa vie à remplir un petit nombre
d’opérations simples n’a pas lieu de développer son intelligence ni d’exercer son
imagination ». La crise du travail à partir des années 60 est une crise endogène liées aux
réactions négatives des ouvriers (grève, absentéisme…).

6. Les migrations

Le 5ème fait stylisé de P. Romer, 1986, énonçait que les travailleurs les plus qualifiés avaient
tendance à émigrer dans les pays riches. En France, le solde migratoire est de 75000
nouveaux migrants par an. Pour le FMI, les migrations ont un rôle positif dans la croissance :
une augmentation d’1% des migrations adultes ferait augmenter de 2% le PIB par habitant.
S. Smith prévoit une importante immigration en UE venant d’Afrique, avec près de 150 à 200
millions d’immigrations d’ici à 2050, soit 25% de la population de l’Union Européenne.
Phénomène de brain drain : en 1998, 40 % des économistes français « de premier rang »,
cad se classant parmi les 1000 premiers chercheurs mondiaux, en fonction de leur nombre
de publications scientifiques, sont expatriés aux États-Unis, phénomène qui ne touche pas
que les PED.

7. Le rôle de l’agriculture

François Quesnay, physiocrate, disait que « la terre est l’unique source de richesse, et c’est
l’agriculture qui les multiplie. ». Mouvement des Enclosure : Marc Bloch évoque
« l’individualisme agraire ».
Selon Paul Bairoch, Révolution industrielle et sous-développement, 1963, l’élévation du
revenu agricole permet à la fois le développement d’une demande de produits
manufacturés textile et métallurgiques, et la mise à la disposition de l’industrie d’une
épargne nouvelle.
La place de l’agriculture est au centre de la RI. Les rendements agricoles ont été multiplié par
2 en GB au 18ème. Pour F. Crouzet, la révolution agricole est la cause de la RI, pas la
conséquence. Patrick Verley montre quant à lui qu’en France les flux de financement vont
plutôt de l’industrie vers l’agriculture en raison d’une vague de constructions agricoles
financées par des réussites industrielles. Le rôle de la PAC.
J. Sirole insiste en 1942 sur le fait que c’ets l’agriculture qui est à l’origine de cycles, par les
variations des prix agricoles et la lenteur du changement technique.

Refs d’Emmanuel Combe à placer à l’ESCP :


(Concepteur et correcteur de sujet ESCP)

1. Le Made In France, la relocalisation


« Relocaliser ? Avec prudence et mesure ». En effet, Emmanuel Combe explique que « Dans
de nombreux secteurs, ce dont souffre la France ce n’est pas de délocalisations massives
mais de l’absence de base industrielle ». Les statistiques nous montrent que les
délocalisations restent en réalité un phénomène assez limité : selon l’Insee, entre 2014 et
2016, 2 % des PME ont délocalisé des activités et 2,6 % l’ont envisagé… sans le faire.

2. Concentration
Retour de la concentration industrielle ne serait plus à craindre si celle-ci était coordonnée
par l’UE. Emmanuel Combe et Mucchielli affirment que la France ne gagnerait en
compétitivité que par la qualité

Vous aimerez peut-être aussi