Académique Documents
Professionnel Documents
Culture Documents
Selon les faits stylisés de Kaldor, 1957, l’augmentation de la productivité du travail explique
pourquoi le coefficient de capital (donc la productivité du capital) reste constant malgré
l’augmentation de l’intensité capitalistique. Cad qu’elle permet d’échapper de la perte
d’efficacité à long terme du capital, donc aux rendements décroissants.
Se manifeste chez Solow (87,5%) puis chez CDM, La croissance française, 1972, 50% de la
croissance est inexpliquée, ce résidu statistique mesure la productivité globale des facteurs.
M. Abramovitz : le résidu est la mesure de notre ignorance dans Thinking About Growth,
1986. Edward Denison, Why do Growth rates differ ? 1967, a réalisé des travaux entre 1955
à 1962, et estimait la PGF à 1,06 pts de croissance sur 3,01 aux US et 2,63 pts sur 4,82 pts en
France. Plus récemment selon D Cohen et M Debonneuil PGF représenterait 1,6 pts de
croissance sur 2,58 en France entre 1975 e 1999, puis 0,76 sur 1,6 entre 1990 et 1998.
4. La division du travail
Adam Smith fait de la division du travail la cause principale des gains de productivité :
« l’opulence naît de la division du travail ». Ils permettent la baisse de prix et
l’élargissement du marché qui lui-même conduit à approfondir la division du travail
(productivité multipliée par 240 dans la manufacture d’épingle). Cet élargissement provoque
l’invention de nouvelles machines qui font naître et diffuse du PT, et qui est donc partie
prenante dans la croissance smithienne en tant que conséquence de la croissance elle-
même. En 1928, Allyn Young adaptera la théorie de la division du travail au secteur des
biens d’équipements, expliquant la baisse de leur prix comme facteur favorable à
l’accumulation du capital et à son rajeunissement, donc au PT. La croissance anglaise aurait
été une croissance smithienne selon les propos de P. Verley, amorcée par la révolution des
indiennes en 1750. + possibilité loi Kaldor-Verdoorn.
Pour A. Smith, 1776, le marché explique la croissance par la division du travail : il faut laisser
faire le marché, et il prône l’autorégulation et la main invisible. Selon Hayek, Droit,
législation et liberté, 1973, le marché est issu d’un processus de sélection par l’efficacité. Il
suit un ordre spontané, et légitime dès lors la non-intervention. En France, le décret
d’Allarde et la loi Le Chapelier en 1791. En GB, abrogation du Bubble Act (1825) et des Poor
Laws (1834) (fin aide aux pauvres) et des Corn Laws (1846) (fin protectionnisme). On
comprend alors pourquoi le XIXème a été le théâtre d’un « désencastrement du marché »
selon K. Polanyi, La Grande Transformation 1944) qui commencera dès 1834 avec l’abolition
des Old Poor Laws en vigueur depuis 1601. Pour Arnold Toynbee, dans L’Histoire, en 1934, :
« l’essence même de la RI est la substitution de la libre concurrence aux réglementations qui,
depuis le Moyen Âge, étaient imposées à la production ».
V. Pareto, néoclassique, critique l’approche utilitariste car trop de sacrifice : pour maximiser
le bien-être, il faut laisser faire le marché pour atteindre l’optimum de Pareto. J. Bates Clark,
néoclassique, explique de même que « chacun reçoit ce qu’il mérite, et chacun mérite ce
qu’il produit » : il faut laisser faire le marché.
TD2 : Expliquer la croissance : les enjeux des théories de la
croissance
1. Les théories de la croissance endogène : endogénéiser le PT
Paul Romer dans Increasing Returns and Long-Run Growth, 1986, explique que si plusieurs
firmes augmentent en même temps leurs investissements, elles vont connaître une
croissance plus forte que celle qui résulterait pour chacune de leur propre investissement.
Chacune profite du développement des autres, et chacune acquiert des connaissances qui
bénéficient aux autres firmes : learning by doing (de Kenneth Arrow) et la diffusion du
savoir éliminent la décroissance des rendements par leur effet externe positif. Robert Lucas,
On the Mechanics of Economic Development, 1988, puis Robert Barro, Government
Spending in a Simple Model of Endogenous Growth, 1991, produiront un raisonnement
sensiblement analogue en mobilisant le capital humain et le capital public.
Paul Romer met en évidence le rôle des connaissances comme facteur de production en
tant que bien non rival qui peut donc s’accumuler sans limite. Robert Lucas insiste sur
l’utilisation du capital humain qui serait d’autant plus efficace pour produire des externalités
que son niveau moyen augmente. Il existerait en quelques sortes une compétence
collective.
Aussi pour Romer, la protection des brevets (droits de propriété) est essentielle, alors que
dans le modèle d’Aghion et Howitt, Endogenous growth Theory, 1992 c’est l’absence de
barrière à l’entrée sur le marché avantageant la création et le développement des PME qui
explique la croissance. Pour Barro, 1991, c’est la quantité de capital public mis à disposition
par les institutions qui augmente la productivité.
G. Becker, Human capital, 1960, il peut y avoir une incitation à augmenter son capital
humain si les institutions proposent des bourses.
TCE explique que résidu est dû à des externalités produites par l’accumulation du capital
(technique, humain, public), qui permet de reconnaître l’existence de rendements
d’échelles croissants. Le rôle plus spécifique du capital humain est envisagé par Paul Romer,
pcq d’une part la mobilité des travailleurs et le learning by doing (Arrow) expliquent
pourquoi la productivité des investissements privés est fonction du niveau de capital
technique dans l’économie ; et pcq la production de connaissances en tant que bien non
rival, dépend d’autre part de la quantité de capital humain affecté à la production : la
croissance est d’autant plus importante que la part de capital humain affectée à la
production est importante. Robert Lucas insiste lui sur l’utilisation du capital humain qui
serait d’autant plus efficace pour produire des externalités que son niveau moyen augmente.
Les compétences collectives sont donc à l’origine des rendements croissants.
T. Schultz et les 5 sources de production et amélioration du capital humain (système
éducatif, santé, formation pro, formation adultes, mobilité travailleurs). « ce que les
économistes n’ont pas relevé est une simple vérité : les gens investissent en eux-mêmes et
ces investissements sont très importants ». P. Aghion, Eve Caroli, Cecilia Garcia-Penalosa,
Inégalité et croissance, 1999, ont montré que l’intervention de l’Etat favorise l’éducation la
santé, et donc le stock de capital humain. Or les individus avec peu de capital humain
génèrent peu d’externalités positives.
Puis paragraphe sur institutions et théorie de la croissance endogène. + Garry Becker sur le
calcul coût avantage du capital humain.
Solow veut s’opposer aux conclusions d’Harrod et Domar, et concède l’existence d’un état
stationnaire caractérisé par la stagnation du revenu par tête comme l’atteste le graphique.
On constate que le revenu par tête (Y/L) augmente au fur et à mesure que l’intensité
capitalistique (K/L) s’élève. En raison de l’hypothèse de rendements décroissants, cette
croissance s’affaiblit progressivement et vient buter sur un état stationnaire. Or, par
construction, la croissance est équilibrée quand le besoin en capital fixe, proportionnelle à la
croissance démographique (n. K/L) est égal à l’épargne par tête (s. Y/L). On échappe à l’état
stationnaire avec la fonction de production Cobb-Douglass mise en avant par Solow dans
Technical Change and the Aggregate Production Function, 1957.
∆Y/Y= @. ∆K/K +(1-@)d-∆L/L +∆A/A
Dans le modèle de Solow, le rattrapage est possible pcq la productivité marginale du capital
est décroissante ce qui revient à dire que le taux de croissance diminue au fur et à mesure
que le capital par tête s’élève. Cette augmentation du capital par tête n’est possible que
dans la mesure où l’épargne par tête est supérieure à n.K/L l’accroissement du capital
nécessaire à cause de la croissance démographique. Abramovitz et Baumol : club de
convergence, nécessité d’un même sentier technologique.
P. Romer, Increasing Returns and Long Run Growth, 1986, dans son 2ème fait stylisé
expliquent que la croissance démographique est un handicap car fait baisser le revenu par
tête. Solow, A Contribution to the Theory of Economic Growth, 1956, soutenait également
dans son modèle que la croissance démographique ne doit pas être trop importante pour
qu’il puisse y avoir rattrapage : pour les PED, une croissance démographique importante nuit
au revenu par tête ce qui est nocif à la croissance et au rattrapage. Néanmoins pour les pays
ayant atteint l’état stationnaire du stock de capital par tête, la croissance démographique est
indispensable à la croissance économique. Ragnar Nurske dans son cercle vicieux de la
pauvreté en 1953 explique en partie le cercle vicieux par la croissance démographique mais
aussi par la faiblesse du revenu donc de l’épargne donc de l’investissement.
7. Les limites du rôle des institutions dans le capital humain
M. Spence en 1974 critique la capacité des écoles à former, et développe la théorie du signal
et du filtre. Le diplôme ne forme pas, il est un simple signal, qui sélectionne les individus
pour les employeurs. A. Sen, Un nouveau modèle économique, 2000, explique que le capital
humain est insuffisant pour montrer les effets de l’éducation, puisqu’il néglige les
dimensions éthiques et sociales. Il insiste sur les capabilités des individus.
Pour l’historien Joel Mokyr (2013), les conclusions de Robert Gordon (2012) doivent être
rejetées en affirmant qu’il est impossible pour le cerveau humain de prévoir les futures
innovations, et rejoint le pdv d’Aghion qui affirme qu’on ne peut anticiper le PT (Les énigmes
de la croissance, 2015). Des technos-optimistes comme Andrew McAfee (2014) suggèrent
que nous sommes à un « point d’inflexion », cad sur le point de voir le PT s’accélérer
significativement. Pour les schumpétériens, dont fait partie P. Aghion, il y a deux raisons de
repousser l’hypothèse : premièrement, la révolution dans les technologies de l’information a
amélioré la façon de produire des idées dropbox, Skype… Deuxièmement, la mondialisation
augmente les gains potentiels d’innovations. Solow, techno-optimiste aussi, apportait une
solution à son état stationnaire dans son modèle en indiquant que le PT exogène permet de
repousser l’état stationnaire ; de plus, selon lui, le capital naturel et technique sont
parfaitement substituables.
Gene Grossman et Alan Krueger, développent la courbe de Kuznets appliquée à
l’environnement : les émissions polluantes croissent en fonction du revenu jusqu’à un
certain seuil, avant de baisser. Inglehart, société post-matérialiste.
P. David estime à 40 ans après l’invention de la dynamo le moment où les gains de
productivité liés à cette innovation commencent à se faire ressentir : à l’aube du
ralentissement de la croissance, il s’agit de relativiser. Relativiser aussi avec les prévisions de
Jevons dans The Coal Question, 1865, qui se sont avérées être fausses.
+ est-ce que les comptables arrivent à comptabiliser tous les effets des TIC (voir pg 4.)
2. Les techno-pessimistes
Depuis les années 70, ralentissement de la PGF malgré les transformations technologiques
considérables. Selon Cohen , PGF représenterait 1,6 pts de croissance sur 2,58 en France
entre 1975 e 1999, puis 0,76 sur 1,6 entre 1990 et 1998 : baisse de la productivité des
facteurs qui entrainent un résidu de plus en plus faible. Robert Gordon dans Is US Economic
Growth over ? en 2012, insistait sur le ralentissement durable de la croissance américaine
faisant ressurgir le spectre de l’état stationnaire. Il met en avant les 6 vents contraires. « la
croissance rapide observée au cours des 250 dernières années pourrait bien être un épisode
unique dans l’histoire de l’humanité en raison du ralentissement de la croissance de la
PGF ». On tend vers une stagnation séculaire (A. Hansen, 1938). P. Artus et MP Virard dans
Croissance zéro, comment éviter le chaos ? (2015) insiste sur la décroissance de la R et D :
2,8 milliards€ ont été investi en France entre 2002 et 2006 pour ne découvrir qu’une simple
molécule, puis 4,2 milliards entre 2007 et 2011. + Larry Summers taux d’intérêt négatifs
nécessaire pour croissance équilibrée de plein emploi. Dani Rodrick a aussi publié
L’innovation ne fait plus la croissance, 2018, en montrant que la particularité des innovations
aujourd’hui sont qu’elles ne sont pas toujours sources de productivité.
L’effet rebond de Stanley Jevons, contredit la courbe environnementale de Kuznets.
La règle d’Hartwick, 1977, expliquait que la rente élevée d’exploitation ressources naturelles
doit être investie dans le capital physique et les connaissances pour assurer une croissance
durable. H. Daly, 1994, énonçait 3 conditions de durabilité : il prônait une consommation
inférieure au temps de régénération, une consommation de biens renouvelables qui ne
dépasse pas le temps de trouver un substitut, et que l’émission de pollution n’excède pas la
capacité de l’environnement à pouvoir l’absorber.
P. Aghion dans Missing Growth From Creative Destruction, 2018, explique que les gains de
prod des nouvelles technologies échappent à la mesure : le PIB en valeur est correctement
mesuré, mais les indices de prix surévaluent l’inflation, pcq ils ne prennent pas
suffisamment en compte les effets de l’innovation sur la qualité des produits. Selon une
étude de Les Echos, de juin 2020, entre 2006 et 2013, la croissance française aurait été de
0,99% par an si le PT avait été correctement pris en compte, au lieu de 0,42% par an,
d’après l’INSEE.
Cette analyse se rapproche fortement du rapport Boskin, publié en 1996, qui affirmait que la
croissance américaine avait été sous-évalué de 1 à 1,5%, en raison de la surestimation de la
hausse des prix, ou encore la sous-estimation de la qualité des produits intégrant des
nouvelles technologies. Jean Gadrey dans L’économie des services, 1992, explique que le
déclin des gains de prod s’explique par l’incapacité de mesurer correctement les progrès de
la productivité dans les services : les effets de la productivité ont lieu à long terme.
Pour R. Gordon, le PT est un leurre, il n’y a pas eu de PT depuis des décennies, on tendrait
vers un nouveau « paradoxe de Gordon » ?
6. La stagnation séculaire
On tend vers une stagnation séculaire selon les propos d’A. Hansen, 1938.Il analyse ainsi
une stagnation séculaire par la demande en raison de la création monétaire. Larry Summers
rejoint ses propos, et prône un taux d’intérêt négatifs qui est nécessaire pour avoir une
croissance équilibrée de plein emploi : il évoque en effet une croissance sans demande : il y
aurait trop d’épargne, pas assez de consommation. Larry Summers ou P. Krugman
identifient le vieillissement démographique comme l’une des causes. Pour K. Wicksell, en
effet, dans Interest and Prices, 1898, le taux d’intérêt naturel est négatif. Bernanke évoque
même un « saving glut », un excès d’épargne.
P. Artus et MP. Virard, Croissance zéro, comment évité le chaos ?, 2015, ont synthétiser les
explications de la stagnation séculaire : perte efficacité de la R et D, augmentation de
l’intensité capitalistique, déclin de l’industrie, niveau de qualification insuffisant.
Michel Aglietta et Natacha Vala, Taux d’intérêt négatif et stagnation séculaire, 2016, la
stagnation séculaire se définit comme un fléchissement persistant de la croissance
potentielle. Ils considèrent que l’endettement, la faiblesse des gains de productivité, et
l’expansion monétaire des BC comme les principaux facteurs.
R. Gordon, The Rise and the Fall of American Growth, 2016, développe quant à lui l’idée de
stagnation séculaire par l’offre : ralentissement du PT car les NTIC ne sont pas porteurs
d’innovations, ce qui entraîne de la stagnation séculaire, + relier avec D. Rodrick,
L’innovation ne fait plus la croissance, 2018.
8. Equité intergénérationnelle
« Nous n’héritons pas la terre de nos ancêtres nous l’empruntons à nos enfants », Antoine
de Saint-Exupéry. « vivre plus simplement, pour que les autres puissent tout simplement
vivre », Gandhi. Le rapport Bruntland, énonce le principe de DD en 1987 afin de favoriser
une équité intergénérationnelle.
+ pg. 3 : techno-optimiste sous condition (H. Daly, règle d’Hartwick)
9. Protéger l’environnement du PT
En 1969, R. Carson publiait l’ouvrage Silent Sping, en montrant l’effet nocifs des pesticides
qui tuaient les oiseaux : elle lance le mouvement écologique. W. Rees, évoque l’empreinte
écologique mondiale qui est de 1,8 terres dont 9 pour les US et entre 5 et 6 pour l’UE. V.
Hugo : « c’est une triste chose de penser que la nature parle mais que le genre humain ne
l’écoute pas » disait-t-il dans Carnets, 1870. Cette phrase se rapproche de celle de J. Chirac
« notre maison brûle et nous regardons ailleurs »
Les catastrophes Tchernobyl, 1986, et Bhopal, 1987, ont souligné cette menace du PT sur
l’environnement. C. Pigou, The Economics of Welfare, 1920, instaure le principe de pollueur
payeur, quand J. Dales prône le principe d’un marché de droit à polluer.
Pour Lucas (NEC), le cycle résulte d’une réaction optimale des agents économiques à une
politique monétaire non-anticipée, ce qu’il nomme « anticipation rationnelle des agents
économiques ». Il développe la théorie des cycles à l’équilibre : les fluctuations de l’activité
ne conduisent pas à des déséquilibres, mais sont la réaction du système économique qui
reste en équilibre. L’offre de monnaie (de la part de la banque centrale) fait subir à
l’économie un choc engendrant des fluctuations Kydland et Prescott avec la théorie des
cycles à l’équilibre, et ont fait valoir que les variations de l’offre induites par les
changements et les améliorations de la technologie expliquaient les fluctuations des cycles
économiques. Les cycles conjoncturels ne sont pas toujours dictés par des variations de la
demande, mais plutôt par des chocs de l'offre comme la flambée des prix du pétrole ou les
innovations technologiques. Pour Friedman, les cycles exogènes résultent de politiques
économiques non-anticipées par les agents. Solow expliquait que le PT est exogène, une
manne tombée du ciel, provoquant des cycles exogènes.
G. Cassel et C. Rist insiste sur le rôle de la découverte d’or qui influe les cycles, Jean Sirol en
1942 insiste sur le rôle de l’agriculture, et A. Hansen sur le rôle des guerres.
3. Les crises endogènes
Part d’emplois dans le tertiaire : 14% en 1800, 33% en 1930, et 75% ajd. Alfred Sauvy, Les
Machines et le chômage, 1980, explique que c’est un processus de déversement des
emplois du secteur primaire et secondaire dans le tertiaire consécutif à la croissance de la
productivité du travail. Jean Fourastié dans Le Grand Espoir du 20ème siècle, 1949 explique
que l’évolution de l’emploi dans un secteur est égale à l’évolution de la demande moins
l’évolution de la productivité du travail dans ce secteur. La saturation de certains besoins
entraîne une destruction d’emplois dans le secteur concerné. L. Demmou, La
désindustrialisation en France, 2010, explique que 30% des emplois détruits dans l’industrie
ont pout cause les gains de productivité.
Instabilité et hétérogénéité des emplois de services (Kremer) : il existe une séparation entre
les travailleurs qualifiés et non-qualifiés. On distingue les services de relation et les services
industrialisables pouvant être soumis à des normes de productivité (NFOT) décrites par
Philippe Askénazy, Les Désordres du Travail, 2004, néo-taylorisme avec chronométrage et
parcellisation des tâches. Pour Lefèvre, La Révolution tertiaire, 1994, il apparaît ainsi que le
secteur tertiaire est « le lieu d’expérimentation des nouvelles pratiques de gestion de la
main d’œuvre : individualisation des salaires, multiplication des formes particulières
d’emploi ». André Gorz en 1993 soulignait également les sacrifices nécessaires pour occuper
un emploi avec le développement des petits boulots, qui est une conséquence de la
tertiarisation. « Le stress devient le mode régulation de la société post-fordiste » écrit Daniel
Cohen. Jean Gadrey, Société de services ou de serviteurs, 1990, explique que les services
amènent une société de serviteurs qui accroit les inégalités entre les Hommes.
Smith considérait déjà que les services étaient improductifs, tandis que Marx affirmait que
seul le travail était productif. Solow réalisait le même constat dans le secteur des nouvelles
technologies affirmant que « les ordinateurs sont partout sauf dans les statistiques de la
productivité ».
« Pourquoi nos temps modernes sont-ils si décevants ? » se demandait Daniel Cohen en1999
dans Nos temps Modernes, qui constatait d’une part la condition de l’homme d’aujourd’hui
confronté au mythe de la « fin du travail » et d’autre part sa déception de l’évolution de la
société post-industrielle. Le secteur tertiaire qui occupe 3 actifs sur 4, est très hétérogène. Il
est donc compatible avec des conditions de travail tout à fait pénibles qui contrastent avec
le mythe d’une société post-industrielle en tant que sociétés de loisirs. W. Baumol a
développé la théorie de la productivité différentielle, 1967, en montrant que la productivité
du secteur tertiaire est très faible. Il évoque ainsi la maladie des coûts, plus le secteur
tertiaire augmente, plus la croissance est faible. P. Artus et MP Virard, rappellent que parmi
les grandes raisons pour lesquelles le PT a tendance à ralentir dans nos économies est la
réduction du poids des secteurs où les gains de productivité sont élevés. « Croissance anti-
schumpétérienne » pour caractériser le phénomène de ralentissement de la croissance
future de nos économies.
5. L’ubérisation de l’économie
Ces travailleurs sont des auto-entrepreneurs, cad qu’ils ne sont pas salariés et n’ont pas de
contrat de travail, pas d’assurance chômage, pas de congés payés… il n’y a donc pas de
sécurité de l’emploi. Les pouvoirs publics peinent à s’adapter à ces nouveaux emplois qui
remettent en cause le schéma traditionnel. Représente 14% de l’emploi total en France.
Bruno Teboul en 2015, Ubérisation : économie déchirée ?, montre que l’ubérisation est un
processus de « disruption créatrice », cad qu’il fait émerger de nouveaux enjeux sociaux,
juridiques, fiscaux et économiques. Après une longue bataille judiciaire, les chauffeurs Uber
du Royaume-Uni ont obtenu le statut hybride « worker » entre travailleur et indépendant.
Le gouvernement espagnol et les partenaires sociaux sont parvenus à un accord le 11 mars
2021, pour introduire dans le code du travail une "présomption de salariat" pour les livreurs
à domicile de repas travaillant pour des plateformes comme Deliveroo ou UberEats, une
première européenne.
L’expression classe moyenne a été inventée par les sciences sociales allemandes dans les
années 1870.
Gustave Schmoller se penche sur la diversité interne de classe moyenne. Elle n’est pas
vraiment une classe au sens fort du terme et on peine à lui trouver une unité. Il existe un
véritable débat autour de la notion de classe sociale, une certaine ambiguïté : aujourd’hui en
France, selon les bornes de l’INSEE on y trouve les 2/3 de la population dont le revenu est
situé entre 0,66 et 2 fois le revenu médian. Elle s’est fortement développée au XXème en
raison de la croissance économique. Dès lors, le retour de l’idée d’une stagnation séculaire
après les travaux de Robert Gordon (2012) ne peut qu’inquiéter quant à l’avenir de la classe.
Le thème du déclassement s’est alors imposé (Camille Peugny, 2009). Dès lors, espérer que
les classes moyennes y échappent revient donc à espérer le retour d’une croissance forte.
Il s’agit aussi de distinguer la classe en soi de la classe pour soi, distinction établie par K.
Marx dans Le Manifeste du Parti communiste, 1848, qui soulève la définition de classe
sociale. La classe en soi existe de fait cad objectivement : les individus ont des interactions
entre eux, mais n'ont pas conscience d'une appartenance commune. Les classes pour soi
correspondent à des groupes ayant des conditions et un style de vie très proches, mais ont
en revanche une conscience d'une appartenance commune. La lutte contre la fracture
sociale est l'un des principaux thèmes de campagne de Jacques Chirac pour l'élection
présidentielle française de 1995 : « Une fracture sociale se creuse dont l'ensemble de la
Nation supporte la charge. »
« La lutte des classes est le moteur de l’histoire », K. Marx et Engels, Le manifeste du parti
communiste, 1848.
8. La moyennisation
9. Relativiser la moyennisation
Louis Chauvel, Les classes Moyennes à la dérive, 2007, considère que les classes moyennes
sont de plus en plus écartelées, disparition de la classe pour soi, mais recomposition des
classes sociales. Dans Classes et générations, 2002, il montre que l’hypothèse de la fin des
classes sociales est insuffisante : pas de disparition des catégories populaires mais
tertiarisation et expansion des sans-emplois. Éric Maurin, Les Nouvelles classes moyennes,
2012, « la classe ouvrière est désormais disséminée dans les rouages de la société de
service ».
Pour Maurin, les nouvelles inégalités rendent impossible un sentiment de classe, sans pour
autant qu’on puisse parler de fin des classes sociales car elles existent toujours.
12. Le déclassement
A. Un fait
Pierre Bourdieu introduit la notion de déclassement. On assiste en effet à une véritable
inflation des diplômes, selon l’ouvrage éponyme de Marie Durut-Bellat, 2006.
Camille Peugny, Le déclassement, 2009, montre que la mobilité ascendante est de plus en
plus difficile. Pour Louis Chauvel, La spirale du déclassement, 2016, les difficultés que
rencontrent les jeunes en début de carrière à cause d’un contexte économique moins
favorable influencent l’ensemble de leur parcours professionnel. Thomas Piketty insiste
quant à lui sur le dilemme de Rastignac : pour espérer progresser dans l’échelle sociale, il
faut espérer se reposer sur les bénéfices du mariage.
B. Une peur
Pour Éric Maurin, La peur du déclassement, 2009, la peur du déclassement est la perception
du risque de déclassement, bien que les individus ne le subiront peut-être pas.
TD6 : L’entreprise
1. L’émergence de la concentration
Pour F. Perroux, L’économie du 20ème siècle, avant 1880 on avait un capitalisme à structure
atomique avec peu de concentrations (à part quelques-unes comme Dolfuso-Mieg ou
Schneider), et quelques grandes entreprises qu’il oppose au capitalisme moléculaire à partir
de 1960 avec des entreprises très concentrés. A partir de 1880, on assiste à une
concentration naturelle, avec la RI, et la hausse de la concurrence avec l’Allemagne, et
apparait comme une nécessité pour les pays en rattrapage, ce que montre Gershenkron,
Economical Backwardness in Historical Perspective, 1962, le rattrapage passe par l’industrie
lourde donc la concentration. Au Japon, phénomène des Zaibatsu avec une concentration
conglomérale, tandis qu’on parle de Trusts aux US et de Konzerns en Allemagne. Patrick
Verley évoque quant à lui dans La Révolution Industrielle, 1985 « un changement d’échelle
du monde qui rend nécessaire la concentration ».
Lier avec le chapitre sur la mondialisation
Pour Baumol, de l’école de Chicago, il ne faut pas lutter contre la concentration du fait de la
théorie des marchés contestables (Panzar, Willig, Baumol, Contestable Markets and the
Theory of Industry Structure, 1982). Coase et Williamson : résulte d’un choix de la firme,
d’un calcul coût avantage. Grande taille= baisse du coût moyen, économie d’échelle, hausse
de la productivité. Constitution de champions nationaux. Gershenkron, Economical
Backwardness in Historical Perspective, 1962, le rattrapage passe par l’industrie lourde donc
la concentration. Le 21 mars 2021, Veolia et Engie, entreprises françaises de gestion de
services collectifs, ont annoncé être parvenu à un accord de principe dans le cadre d’une
fusion acquisition des entreprises afin de former un mastodonte du secteur. En novembre
dernier, LVMH a racheté le joaillier new-yorkais Tiffany à hauteur de 15,7 milliards de
dollars.
La concentration est aussi nécessaire dans une situation de « winner takes all » mais aussi
de monopole naturel.
En 2050, le PIB des PED actuels représentera 60% du PIB mondial selon l’OCDE, les PDEM
doivent ainsi nécessairement constituer des champions nationaux.
E. Chamberlain de l’école d’Harvard prônait à l’inverse de Baumol qu’il fallait lutter contre la
concentration. Concentration favorise les ententes et cartels : laboratoires Roche et
Novartis 2015, ou SFR-Bouygues-Orange de 97 à 2003.
Schumacher, Small is Beautiful, 1973, prône la petite taille des entreprises qui sont plus
réactives, ont plus de créativité. Aghion et Howitt, Endogenous Growth Theory, 1992 : la
croissance vient de la capacité des petites entreprises à entrer sur le marché.
En monopole, le producteur est price-maker selon A. Marshall ce qui nuit au surplus
(graphique)
Les autorités européennes ont annulé en 2019 le projet de fusion entre deux géants
industriels européens : Alstom (France) et Siemens (Allemagne) pour favoriser la
concurrence.
E. Farhi, L’essor des rentes de monopoles nuit à la croissance, 2017, met en exergue qu’aux
US la part du travail dans la valeur ajoutée est passée de 65% à 58% en 20 ans à cause de
l’augmentation du pouvoir de marché des entreprises et des rentes de monopoles.
Leibenstein, Allocative efficiency vs X-efficency, 1966, la situation de monopole est sous-
optimale car conduit à une inflation par les coûts et à un retard dans l’innovation
organisationnelle. En concurrence, les entreprises peuvent observer l’organisation de ses
concurrents, alors qu’en monopole, cette possibilité est perdue.
+ graphique du surplus avec le rectangle de Tullock utilisé dans la recherche d’une rente, et
triangle d’Harberger qui représente une perte sèche, une perte du surplus global. P. Aghion,
Les énigmes de la croissance, 2015, a montré que si le monopole est indispensable dans un
premier temps, il est nocif dans un deuxième temps, pour les mêmes raisons que le schéma.
T. Philippon, Le Grand Renversement, 2019, baisse du nombre de brevets (59 pour 100 000
habitants en 2005 contre 43 en 2012), moins d’innovations (entre 2000 et 2010 et 2010 et
2020, le nombre de brevets triadiques déposés à baisser de 20%). Nuit à l’émergence de
petites entreprises plus innovantes comme Microsoft qui a empêché le navigateur Netscape
d’émerger. Nécessité d’une complémentarité entre les PME et les grandes entreprises pour
favoriser l’innovation. Les PME innovantes sont indispensables pour le développement des
grandes entreprises comme le souligne Baumol dans The Free-Market Innovation Machine,
2004, lorsqu’il écrit « Goliath a besoin de David pour grandir » (à lier avec Schumacher,
Aghion-Howitt). Pour Joseph Aloys Schumpeter, c’est la concurrence, la volonté de
puissance qui incite l’innovateur à innover. Et c’est l’innovation qui fait de la croissance un
processus de destruction créatrice. F. Bastiat : « détruire la concurrence, c’est détruire
l’intelligence ». Schumacher, Small is Beautiful, 1973, prône la petite taille des entreprises
qui sont plus réactives, ont plus de créativité.
E. Farhi, L’essor des rentes de monopoles nuit à la croissance, 2017, met en exergue qu’aux
US, les marchés où 4 entreprises contrôlent plus de 30% du marché a augmenté d’un tiers de
1997 à 2017 : il s’agit d’encadrer car peut être nuisible. E. Liu, A. Miam et A. Sufi vont dans
le même sens dans Et si les taux d’intérêts ultra faibles pénalisaient l’activité, 2019 : dettes
privées des entreprises sert au rachat de start up et consolide leur rente à défaut d’investir.
Anne Krueger, dans The Economic Theory of the Rent Seeking Society, 1974, a montré que
les dépenses en recherche de rente représentaient 7% du PIB en Inde et 17% en Turquie. Les
institutions doivent intervenir pour éviter un gaspillage en recherche de rente.
Sherman Act (1890) aux US a pour but de lutter contre les abus de positions dominantes
puis le Clayton Act (1913) qui a pour but d’empêcher d’arriver à une position dominante. Par
exemple Microsoft puni pour abus de position dominante sur Netscape. En Europe,
l’Autorité de la Concurrence lutte aussi contre. Ils affichaient en 2010 près de 19,6 milliards
d’euros de pénalités infligées aux entreprises pour entente, cartel, abus de position
dominante. Mars 2006, elle a condamné 13 marques de parfums de luxe pour entente sur
les prix à hauteur de 43 millions d’euros chacune + constructeurs de camions européens
amende record de 2,3 milliards d’euros pour entente sur les prix.
Mais G. Stigler, théorie de la capture selon laquelle l’activité de contrôle des pouvoirs
publiques est défaillante car capturée par les intérêts privés.
Augustin Landier et D. Thesmar, Les 10 idées qui coulent la France, L’Etat est le seul à
pouvoir aider au financement des innovations si prise de risque est trop grande. « L’Etat doit
concentrer ses moyens sur les cas où les intérêts publics et privés ne coïncident pas ».
Pour Sophie Boutiller et Dimitri Uznidis, La légende de l’entrepreneur, 1999, la réussite des
entrepreneurs est souvent dépendante de l’Etat. L’innovation dépend donc de l’Etat. Le
rapport Gallois, 2012, prône un choc de compétitivité de 30 Milliards pour faire face aux
difficultés à CT. Le coût du Crédit d’Impôts en faveur de la recherche (CIR) pour l'État a
atteint 5,56 milliards d’€ en 2013. Cette somme équivalait cette année-là à 72 % du budget
de la recherche publique de 7,76 milliards d'euros. Philippe Aghion, Gilbert Cette et Elie
Cohen, Changer de modèle, 2014, plaident pour un nouveau modèle de croissance fondé sur
l’innovation, à la faveur duquel de nouvelles entreprises et activités viennent de manière
incessante concurrencer et remplacer les entreprises et activités existantes
Chandler, La Main Visibles des Managers, 1977, le manager surmonte les obstacles, il
souligne son importance. Il prend l’exemple de Rockefeller (Standard Oil) ou Alfred Sloane
(GM). Berle et Means, 1932, ont montré que dans les 200 plus grandes entreprises aux
Etats-Unis, il y avait un contrôle interne des managers, cad que les managers détenaient le
pouvoir. J. Burnham, 1941, La Révolution Managériale, explique que l’on est passé d’une
tyrannie du capitalisme à une tyrannie des managers qui détiennent le pouvoir. D’après le
graphique de Williamson et Baumol, les managers poursuivent des buts qui leur sont
propres, cherchent à maximiser le CA plus que le profit. JK. Galbraith, Le Nouvel Etat
industriel, 1967, soutient que le pouvoir appartient aux éléments composant la
technostructure : hausse du pouvoir collectif des techniciens et des cadres au détriment des
actionnaires.
8. Le rôle de l’entrepreneur
R. Cantillon, 1730, l’entrepreneur est celui qui prend des risques. Pour JB Say,
l’entrepreneur est celui qui recherche le PT. P. Verley, Entreprises et Entrepreneurs en
France, 1999, 3 périodes d’évolution de l’entrepreneur. D’abord dominé par les marchands
jusque 1850, puis par techniciens jusque 1960, et enfin par l’entrepreneur-organisateur.
Schumpeter, Théorie de l’évolution économique, 1911, explique lui aussi qu’il existe
différentes figures d’entrepreneurs. Le fabricant-commerçant, le capitaine d’industrie ou le
directeur. Il dresse le portrait de l’entrepreneur comme un individu mû par des mobiles
psychologiques « irrationnels » sans pour autant rechercher le profit : « l’entrepreneur est
mû par une rationalité d’une autre espèce », « personnage le plus haut en couleur du
processus capitaliste ». A. Krupp, dans le secteur de l’acier allemand en est un bon exemple :
devient entrepreneur par la concentration de ses usines et l’innovation. Pour Marshall,
l’entrepreneur est « l’organisateur du travail des autres ».
Sophie Boutiller et Dimitri Uznidis, La légende de l’entrepreneur, 1999, la réussite des
entrepreneurs est souvent dépendante de l’Etat.
En 1979, Birch utilise le terme de « gazelle » pour montrer que l’essentiel des créations
d’emplois aux US provient d’entreprises de taille moyenne à forte croissance, mais c’est
aussi pour les opposer à des PME à croissance lente qui justement n’innovent pas et qu’il
nomme « souris ». Pour Marshall, la PME n’est viable que pour une période transitoire en
début de cycle de vie d’un produit : d’abord une grande diversité d’entreprises puis à
mesure que le marché grandit, il faut baisser les coûts, ce qui impose une concentration de
type économique. Ajd les PME innovantes sont de moins en moins indépendantes et sont
souvent le produit d’une action concertée de l’Etat, de grands groupes et des sociétés
financières. David Thesmar et Augustin Landier
La notion de responsabilité sociale a été introduite par Howard Bowen, 1953, The Social
Responsibility Service. Michel Capron et François Quairel, La responsabilité sociale
d’entreprise, 2010, la responsabilité sociale est « susceptible d’apporter ce « supplément
d’âme », cette justification qui rend l’entreprise acceptable aux yeux de la société ».
Segrestin et Hatchuel proposaient un « Statut à Objet Social Etendu », pour éviter les
intérêts des actionnaires seulement.
Loi PACTE, en France 2019, mise en place par Bruno Lemaire, accorde un statut de « société
à mission » pour les entreprises qui adoptent des raisons d’être : SOSE (Société à Objet
Social Etendu).
Sur le plan environnemental par exemple l’entreprise Lafarge s’engage par exemple à
réduire les émissions de CO2 et de poussières liée à son activité de production de ciment, ou
encore, Adidas : l'icônique Stan Smith désormais éco-responsable. Microsoft a annoncé qu’il
serait "carbon negative" d’ici à 2030, tandis que Jeff Bezos a créé « Bezos Earth Fund » et
investi 10 milliards d’euros pour lutter contre le changement climatique. Cela s’oppose à la
vision de Friedman qui considérait que la mission de l’entreprise était le profit uniquement
(« raison d’avoir »).
TD7 : le financement
Clément Juglar concluait dès 1862 que le cycle économique était un cycle du crédit, inflexion
lorsque le « goût du risque » l’emporte, cad les comportements spéculatifs. Au 19ème, les
crises périodiques s’expliquaient par le financement des chemins de fer dont on surestimait
la rentabilité. +Hyman Minsky : paradoxe de la tranquillité dans Stabilizing an Unstable
Economy, 1986. Pour André Orléan, il n’y a pas de valeurs fondamentales pour le prix des
actifs, ceux-ci ne peuvent reposer que sur des anticipations : spéculation (def de Keynes :
« prédire la psychologie du marché »).
Minsky expliquait aussi qu’il y a toujours une innovation de rupture permettant de croire
que « cette fois c’est différent », conduisant à un excès d’optimisme (exemple : le Currency
Board argentin, un dollar=un peso). Kindleberger, dans Histoire Mondiale de la Spéculation
Financière (2002), évoque quant à lui le moment où il y a un « effet de déplacement »,
moment où la situation économique se dégrade à cause d’une perte de compétitivité.
Pour Keynes, la spéculation se définit par « l’action qui prédit la psychologie des marchés ».
Keynes, dans la métaphore du concours de beauté (1936), contredit l’hypothèse d’efficience
des marchés de Fama : « la sagesse universelle enseigne qu’il vaut mieux, pour sa
réputation, échouer avec les conventions que réussir contre elles ». Selon cette théorie les
prix seraient liés à des conventions, et les prix des titres ne varient pas tant selon des critères
objectifs mais plutôt selon la croyance générale sur l’évolution du titre en question. N.
Kaldor, Review of Economic Studies (1987) contredit aussi le pdv des néoclassiques : le
spéculateur a une préférence pour le risque, et joue ainsi le rôle d’assureur, ce qui
déstabilise le marché. Minsky quant à lui distingue 2 types d’actifs financiers : les actifs
patrimoniaux (dont le but est d’en tirer un revenu) et les actifs négociables (substituts à la
liquidité). La bulle spéculative se forme à cause du deuxième type d’actif, qui est un substitut
à la liquidité. O. Blanchard et J. Tirole (1985) développe quant à eux la théorie des bulles
rationnelles. Le paradoxe Stiglitz-Grossman énonce que les individus agissent de manière
rationnelle mais ne disposent pas de toute l’information ce qui participe à déstabiliser le
marché. + PN Giraud, les mistigris
A cela s’ajoute l’existence d’asymétries d’informations entre les prêteurs et les emprunteurs
selon Joseph Stiglitz et Andrew Weiss (Credit rationing in markets with imperfect
information, 1981) qui conduit à une hausse des taux d’intérêts et finalement à un risque
systémique comme le définit Aglietta : « éventualité qu’apparaisse des états éco dans
lesquelles les réponses rationnelles des agents indiv aux risques qu’ils perçoivent amènent à
augmenter l’insécurité générale ».
A. Shleifer et L. Summers dans The Noise Traders Approach to Finance (1990) distingue les
spéculateurs rationnels de ce qu’ils appellent Noise Traders, les spéculateurs irrationnels qui
réagissent aux rumeurs, mais pas aux informations. Pour Friedman, dans Essay in Positive
Economies, 1953, si le nombre de Noise Traders (spéculateurs irrationnels) est trop
important, se forme alors une bulle spéculative. Selon Merton, peut alors avoir lieu une
« anticipation autoréalisatrice », ou prophétie autoréalisatrice.
V. Smith et D. Kahneman insiste quant à eux sur le rôle des émotions dans la prise de
décisions, et parle d’une « aversion pour le risque », alors que Shiller évoque quant à lui une
« exubérance irrationnelle des individus ».
Dès 1882, suite à la faillite de l’Union Générale, H. Germain a prôné la mise en place d’une
règle prudentielle : prémisses de la réglementation prudentielle. La réglementation
prudentielle dans le cadre du comité de Bâle, créé en 1974, mise en place autour de 2 types
de ratios (liquidité et solvabilité), et en identifiant 3 types de risques (crédit, marché,
opérationnel) réduit le risque fi. Mais il y a une difficulté à appliquer les mesures que l’on
prend. Au plan micro-prudentiel, selon Jean Tirole, dans Les leçons d’une crise (2008), toute
la question de la réglementation bancaire porte sur le degré de liberté qu’il faut laisser aux
acteurs. M. Allais propose en 1998 dans La crise mondiale d’ajd, un découpage en 3 types de
banques : banque de dépôts, de prêt et d’acheteur de titres. J. Kwak et S. Johnson, dans 13
Bankers, 2010, prônent la nécessité de « casser les grandes banques » pour minimiser les
risques, avec des lois du type Glass Steagall Act. Stiglitz va dans ce sens également puisqu’il
préconise dans son ouvrage Le triomphe de la cupidité (2010) un retour au Glass Steagal
Act. Pour Michel Aglietta (Macroéconomie financière, 1995), il faudrait revoir les politiques
monétaires mises en place par la banque centrale, en mettant en place une approche macro-
prudentielle, ce qui revient à surveiller la dette des agents éco à travers la stabilité du
système fi.
La réglementation financière est une incitation à l’innovation financière qui peut être
nocive : les filiales créées par les banques qui permettent de contourner la règle et favorise
un risque systémique en est un exemple.
En 1993, Georges Akerlof et Paul Romer publient Brooking Papers on Economic Activity
dans lequel ils montrent que la fraude peut relever d’un comportement rationnel selon la
réglementation en vigueur. En effet, si des banques peuvent s’endetter en bénéficiant de la
garantie de l’Etat, elles prendront des risques excessifs en ne prenant en compte que les
gains potentiels : aléa moral. J. Tirole et M. Dewatripont, La réglementation prudentielle des
banques, 1994, expliquent qu’au niveau micro-prudentiel, il existe un risque de collusion
entre superviseurs et banques. M. Aglietta, Macroéconomie financière (1995), il existe deux
difficultés au niveau macro prudentielle : la situation d’aléa morale, mais aussi le Shadow
Banking. Plus encore, L. Scialom dans La fascination de l’ogre, 2019, on assiste à une
« capture » des autorités de supervisions par les banques, capture qui aurait « une
dimension cognitive ». J. Couppey-Soubeyran, Bâle 3 : des Economies pas de Révolution ,
2011, a expliqué que le comité de Bâle était sensible au lobbying des banques, ce qui rend
la réglementation inefficiente. Plus tard, il expliquera aussi en 2015 dans son ouvrage Blabla
Banques que le coussin contracyclique et la surcharge systémique prévu dans Bâle 3 restent
très insuffisant.
L’excès de dettes trouve son origine dans une politique monétaire trop accommodante.
Milton Friedman et Anna Schwartz dans L’Histoire monétaire des US (1867 à 1960), 1963,
ont montré que les politiques monétaires peuvent elles-mêmes être responsable de la
formation et de l’éclatement des bulles fi. Plus récemment la politique d’Alan Greenspan,
président de la FED entre 1987 et 2006, louée puis décriée après la crise des subprimes, en
est le parfait exemple.
Barro et Lucas, tenant de la croissance endogène, prône quant à eux, tout comme les
classiques, que la monnaie est neutre, et que les politiques monétaires ne peuvent qu’être
néfaste et renforcer les crises. Kydland et Prescott critique dans Rules Rather than
Discretion (1977) les politiques discrétionnaires qui serait pour eux un changement d’objectif
qui entrainerait une perte de confiance. Ils évoquent ainsi une « incohérence temporelle »
des choix politiques, et prône une politique de règle.
F. von Hayek a expliqué que si le taux d’intérêt nominal était inférieur au taux naturel (défini
par K. Wicksell dans Interest and Prices, 1898), alors cela entrainait un risque de
déséquilibre par la surcapitalisation : la baisse des taux d’intérêt par la BC peut présenter un
risque, et dégénérer en coup d’accordéon. Hayek se prononce contre toute mesure visant à
relancer la consommation, qui ne ferait selon lui qu’aggraver le mal : insuffisance d’épargne
pas d’excès. La crise économique est provoquée par la politique monétaire expansionniste
de la BC qui fausse le système de prix relatifs dans la structure de production.
Michel Aglietta et Natacha Vala, Taux d’intérêt négatif et stagnation séculaire, 2016,
l’expansion monétaire des BC comme le principal facteur de la stagnation séculaire. Pour R.
Lucas, l’offre de monnaie (de la part de la banque centrale) fait subir à l’économie un choc
engendrant des fluctuations.
L’intervention des BC permet d’éviter le pire. Les politiques de Zero Interest Rate Policy
menées à partir de 2001 ont permis la reprise de l’économie américaine après le choc des
attentats et la bulle internet. P. Artus et MP Virard, dans La folie des BC (2016), « la politique
monétaire a évité un désastre encore plus grave que 1929 ».
De plus, l’action de la BC explique largement les conséquences différentes de la crise de
1929 et de la crise de 2008 : en 1929, la FED a laissé faire la crise et a favorisé la mise en
place de la déflation. En 2008, elle a fait preuve de réactivité en abaissant fortement le taux
directeur : de 5,25% à 2% entre septembre 2007 et avril 2008 puis à 0 fin 2008. Elle injecte
aussi massivement de la liquidité par l’open-market : 50 MM en septembre 2008 puis 60
MM en décembre et 80 MM en février 2009. Elle se tourne ensuite vers des politiques
monétaires non conventionnelles par l’intermédiaire de Bernanke Monetary Policy
Alternatives at the Zero Bound, 2004 qui porteront leur fruit, puisque les US retrouveront
une stabilité économique en 2015.
Dans une économie d’endettement, les BC ont un rôle face aux crises de changes, qui sont
des crises de 1ère génération (Paul Krugman, A model of Balance Payements Crisis, 1979), qui
doivent utiliser leurs réserves de change pour éviter la dépréciation, ou dévaluation.
9. Crédibilité de la BC
Pour M. Friedman dans Inflation et Système monétaire, 1986, « la monnaie est une chose
beaucoup trop importante pour être laissée aux mains des banquiers centraux » : il s’agit
alors de trouver un moyen de rendre crédible l’action de la BC.
En effet, pour R. Barro, Inflation et croissance, 1997, l’indépendance de la BC est un facteur
de crédibilité, et se manifeste par une préférence pour une faible inflation. Alesina et
Summers dans Central Bank Independence and Macroeco Performance, 1995, appuient ces
propos à travers une analyse empirique menée entre 1955 et 1988 sur 16 pays développés :
plus la BC est indépendante plus les taux d’inflation sont faibles. M. Aglietta, 1995,
L’indépendance de BC explique que la BCE = crédibilité par la stabilité des prix (crédibilité
constitutionnelle), alors que FED = crédibilité procédurale. Mario Draghi : « la BCE fera tout
ce qu’il faut pour préserver l’euro ». Le forward guidance mis en avant par Bernanke permet
de légitimer l’expansion monétaire et les politiques mises en place. Selon Jean-Claude
Trichet : « La confiance est aujourd’hui le facteur déterminant ».
Les politiques de quantitative easing mises en place pendant la crise des subprimes par Ben
Bernanke ont porté le bilan de la FED de 600 à 4500 milliards fin 2014. Elle injecte aussi
massivement de la liquidité par l’open-market : 50 MM en septembre puis 60 MM en
décembre et 80 MM en février 2009. En 2008, le plan Paulson propose aux US de racheter
des titres invendables. La zone euro a appliqué cette politique entre 2012 et 2018, et son
bilan est passé de 1500 à 4500 milliards de dollars. L’endettement public des pays
développés était de 70% en 2000, il est 20 ans plus tard, avant la crise du Covid de 105%.
« Le total du bilan des BC des pays de l’OCDE passe de 1700 milliards de $ en 1996 à 14000
milliards de dollars au début de 2020 et probablement 25000 milliards de $ à la fin 2020
avec la crise sanitaire », P. Artus et O. Pastré, L’économie post-covid, 2020.
Le bilan de BC du Japon est de 130 % du PIB du Japon, lancée dans des achats de titres
massifs depuis plus longtemps et dont l’activité a été multipliée par six.
Le bilan de la BCE avoisinait déjà les 7000 milliards d’euros fin 2020, contre 9000 milliards de
dollars pour la FED. La BCE détenait déjà 20% de la dette publique de la zone euro au début
de 2020, et en possède désormais plus de 30%. Jusqu’où peut-elle aller ?
Il y a aujourd’hui selon le FMI 29 banques « too big to fail » dans le monde. W. Bagehot a en
effet théorisé le phénomène de prêteur en dernier ressort dans Lombart Street, 1873,
notion qui émerge avec le New Deal de Roosevelt et qui sera institutionnalisé par le Banking
Act de 1935. Ainsi lors de la crise des subprimes, le RU a sauvé la Northern Rock Bank. Il faut
à tout prix éviter un phénomène de déflation par la dette tel que théorisé par I. Fisher dans
The Debt Deflation Theory, 1933, légitimant l’expansion monétaire : « la déflation
transforme la nature de la dette en l’alourdissant » + stats de Bernanke expansion
monétaire.
12. La crise est une destruction créatrice qui apporte de nouvelles réglementations
La crise de 1907 aux US est à l’origine de la naissance de la FED en 1907. La crise de 1929 est
à l’origine du prêteur en dernier ressort (Bagehot, Lombart Street, 1876) par le Banking Act
de 1935, et est accompagné de la création de la SEC (Securities Exchange Comitee) en 1934
et du Glass Steagal Act de 1933. Robert Barro explique en effet que « l’Etat doit se lier lui-
même les mains ».
13. La monnaie n’a aucun impact sur l’économie, mais émission excessive=inflation
La théorie quantitative de la monnaie a été théorisée par J. Bodin, en 1568 : la quantité de
monnaie en circulation n’affecte pas l’économie réelle, ou D. Hume 1752.
Les économistes classiques prônaient tout d’abord que la monnaie n’a aucun impact sur
l’économie, et s’opposent à la vision mercantiliste de l’échange, et vont mettre en avant la
TQM. « La monnaie est un ustensile au même titre que les ustensiles de cuisine » expliquait
A. Smith. Plus encore, JB Say affirmait que « la monnaie est un voile qui recouvre un troc »,
« il n’est pas dans l’économie quelque chose de plus insignifiant que la monnaie » expliquait
JS Mill. Ceci implique donc la neutralité de la monnaie. I. Fisher, The Purchasing Power of
Money, 1911, a quant à lui théorisé l’équation des transactions pour montrer que la
monnaie est neutre dans une économie : MV=PT qui montre que la masse monétaire (M),
multipliée par la vitesse de circulation de la monnaie (V, constant) est égale au prix (P),
multipliée par les transactions (T, constant). M. Friedman en 1969 est même allé jusqu’à
évoquer l’idée d’un hélicoptère monétaire, sans pour autant en prôner la pratique.
Ricardo dans la première moitié du 19 ème siècle était quant à lui un fervent partisan de la
Currency School (qui s’oppose à la Banking School), dont le Bullion Report de 1810 fut l’acte
fondateur de cette école, et qui prône une analyse quantitativiste de la monnaie également.
Ainsi, préserver la valeur de la monnaie suppose de fixer une limite à l’expansion
monétaire afin d’éviter que l’inflation vienne la réduire. « L’inflation est comme
l’alcoolisme. Lorsqu’un homme se livre à une beuverie, le soir même cela lui fait du bien. Ce
n’est que le lendemain qu’il se sent mal » Friedman.
Le Bullion Report et la TQM furent vivement contestés par les économistes de la Banking
School (Thomas Tooke et John Fullarton) qui considère que la monnaie est endogène.
Keynes, 1936, s’inscrit aussi dans cette tradition, et surtout les économistes qui ont
développé le modèle ISLM (J. Hicks).
Keynes a ainsi mis en avant le phénomène de trappe à liquidité : préférence pour la liquidité
des individus.
Les économistes autrichiens, comme von Hayek, adhère à la loi des débouchés mais pas à la
TQM. Selon eux, la TQM prend en compte l’économie dans sa globalité sans voir qu’une
augmentation de la masse monétaire affecte la structure de l’économie. La monnaie a un
impact sur les prix relatifs.
Credit Crunch : resserrement du crédit par les banques. C'est à dire que celles-ci sont plus
frileuses à l'idée d'accorder des crédits aux entreprises ainsi qu'aux ménages
Effet de levier : utilisation de l’endettement pour augmenter la capacité d’investissement
d’une entreprise, d’un organisme financier ou d’un particulier et l’impact de cette utilisation
sur la rentabilité des capitaux propres investis.
Open market : interventions de la banque centrale sur le marché monétaire consistant à
fournir ou retirer des liquidités aux établissements financiers via des achats ou des ventes de
titres et ainsi influencer à la baisse ou à la hausse le taux du marché monétaire.
Politique de règle : Lorsqu’une institution suit une politique de règle, son champ d’action,
ses leviers et ses objectifs sont déterminés ex ante. Par exemple : la BCE et le taux d’inflation
à 2%.
Politique discrétionnaire : une politique qui dépend des circonstances et qui est laissée « à
la discrétion » des pouvoirs publics, s’adapte au contexte économique.
Politique non conventionnelle : politique qui ne passe pas par la liquidité bancaire et le
crédit bancaire (quantitative easing, qualitative easing, forward guidance).
Politique conventionnelle : politique qui passe par le taux directeur, les réserves
obligatoires, l’open market.
Quantitative easing : désigne un type de politique monétaire par laquelle une banque
centrale rachète massivement de la dette publique ou d'autres actifs financiers afin
d'injecter de l'argent dans l'économie et de stimuler la croissance : augmentation du bilan de
la BC, gonflement de son passif monétaire. (très important)
Qualitative easing : désigne un changement dans la composition des actifs de la banque
centrale qui se traduit par une moindre détention en actifs sûrs et liquides, la taille du bilan
restant inchangée.
Forward Guidance : outil utilisé par une banque centrale pour exercer son pouvoir dans la
politique monétaire dans le but d'influencer, avec ses propres prévisions, les anticipations du
marché quant aux niveaux futurs des taux d'intérêt.
1. Eléments d’intro
Les Corn Laws étaient une série de textes réglementaires adoptés au Royaume-Uni entre
1773 et 1815 pour encadrer le commerce des céréales avec l'étranger. Celui de 1815
interdisait toute importation de céréales lorsque les cours passaient en dessous d'un certain
seuil, mais il fut abrogé en 1846 avec par Robert Peel pour se diriger vers le LE. En 1786, le
traité Eden-Rayneval entre la France et la GB, est un premier pas vers le LE, et modernise les
politiques commerciales (les droits de douane sont baissés à 10% pour les produits
métalliques, à 12% pour le coton ou la laine). Mais c’est le traité de Cobden-Chevalier de
1860, qui est le plus important en faveur du LE. Il est l’aboutissement d’une baisse des droits
de douane commencée en 1828, prôné par Robert Peel et qui transformera
progressivement l’Europe en zone de LE.
Aujourd’hui, le taux d’ouverture de l’économie mondiale (exportations +
importations/2*PIB) se situe ces dernières années entre 25 et 30%, bien au-delà du
maximum atteint dans le passé (il était de 12% en 1914 par exemple).
Volume des échanges X6,5 entre 1980 et 2010 ; X3,9 produits agri ; X4 matière première ;
X7,7 produits manufacturés ; X9,2 services.
1913 : 5 pays=50% du CI, 1960 : 65,5%, ajd : 43,2%.
Commerce mondial X25 de 1948 à 2020.
De 1800 à 1913, production mondiale par tête a été multipliée par 2,2.
Le volume du commerce international a autant progressé entre 1974 et 1996 qu’entre 1880
et 1980.
Ricardo, 1817, Des principes de l’économie politique et de l’impôt : théorie des avantages
comparatifs. HOS 1948, dotation factorielle explique les avantages comparatifs. « Un pays a
un avantage comparatif dans le bien dont la production est intensive dans le facteur
relativement abondant dans ce pays ».
Selon B. Lassudrie-Duchêne (La demande de différence et l’échange international, 1971), on
exporte ce qu’on fait de différents des autres. « L’échange ne peut s’expliquer que par une
différence quelconque ». Helpman et Krugman : Market Structure and foreign trade, 1985,
CI=hausse de la taille des marchés qui entraine une hausse du nombre d’entreprises et qui
font baisser les prix par les économies d’échelle. J. Hicks explique de plus qu’une hausse de
la productivité dans un pays bénéficie à son partenaire commercial.
A. A l’échelle globale
Les hypothèses de Ricardo sont irréalistes (immobilité externe des facteurs de prod, CPP,
rendements d’échelles constants). F. Graham a montré en 1923 que toutes les
spécialisations ne se valent pas : certaines propices aux rendements croissants d’autres
décroissants. J. Bhagwati (1958, Immiserizing growth : a geometrical note) étudie lui
l’hypothèse de la « croissance appauvrissante ».
Pour Marx, un pays pauvre ne peut pas être gagnant s’il participe à l’échange international.
Les théories de l’échange inégal de S. Amin et A. Emmanuel en (1969, L’échange inégal)
prolonge les propos de Marx. Théorie centre périphérie. Théorie impérialiste (Lénine, 1916).
Selon le FMI, l’Afrique ne concernait en 2016 qu’1% des flux d’IDE mondiaux. I. Wallerstein
dans Capitalisme et Economie-monde, 1980, insiste sur le fait que la périphérie produit sous
le contrôle politique du centre de l’économie monde. R. Prebish et H. Singer dans The
Distribution of Gains Between Investing and Borrowing Countries 1950, évoque la
dégradation des termes de l’échange pour évoquer le fait que les prix n’évoluent pas de
manière parallèle dans PED et PDEM : la demande de produits primaires augmente moins
vite que la demande de produits manufacturés.
Le théorème Stolper-Samuelson expliquera que l’on assiste à une baisse des inégalités dans
les PED avec la mondialisation et qu’à l’inverse, on constate une hausse des inégalités des
PDEM. Bourguignon, L’économie des Inégalités, 2012 rejoint ce pdv : baisse des inégalités
globales, mais hausse des inégalités internes. Dans le cadre de la réunion de l’OMC au
Mexique en 2004, véritable résistance des PED face aux demandes d’ouverture de leurs
économies exprimées par les PDEM.
B. A l’échelle locale
P. Artus et MP Virard, en 2008, dans On comprend mieux le monde à travers l’économie,
explique que « la mondialisation est une vérité globale mais un mensonge locale ».
CA. Michalet, Le Capitalisme mondial, 1996, explique que l’économie mondiale est « une
réalité en formation ». En dehors des FMN, petites entreprises ont un horizon économique
qui reste « délimité par les frontières nationales ». + concentration dans espaces précis :
« effet d’agglomération » Marshall, Krugman 1991, Bairoch « tyrannie de l’espace ».
La concurrence entre les pays précoces et pays tardifs donnera toujours l’avantage aux
premiers, enfermant les seconds dans une spécialisation défavorable. Les avantages ne sont
pas réciproques, les hypothèses de Ricardo sont irréalistes. En 1841, Frédéric List, Système
national d’économie politique, proposait le protectionnisme éducateur en affirmant « il faut
protéger les industries dans l’enfance ». « Le libre-échange est notre but, le protectionnisme
notre voix ». A. Hamilton l’appliquait dès 1791 au cas des US, et instaura une théorie
moderne du protectionnisme, en expliquant que l’industrie nécessite des droits de douane.
C’est la politique qui a été suivi par l’Allemagne (protectionnisme tarifaire et sélectif) dans le
cadre du Zollverein (1834), mais aussi par les économies asiatiques. On retrouve une
parenté avec le modèle d’Akamatsu de la théorie du vol d’oie sauvage dans les années 30.
Brander et Spencer, ont mis en avant le fait qu’il peut s’avérer utile de subventionner par
l’intermédiaire de l’Etat certains secteurs en mettant en place une politique commerciales
stratégiques (Krugman-Baldwin, Market Access and Competition, 1988) : étude sur le
protectionnisme sur les microprocesseurs au Japon. Paradoxe Goddley-Cripps : c’est par le
protectionnisme que croissance des échanges internationaux.
Entre les 16ème et 19ème siècle, les économistes mercantilistes prônaient le protectionnisme
afin d’augmenter son excédent commercial qui permet d’augmenter son stock d’or. A.
Montchrestien, mercantiliste disait en effet que « nul ne gagne ce que d’autres ne
perdent » : le CI est un jeu à somme nulle. C’est A. Hamilton qui en 1791 instaura une
théorie moderne du protectionnisme, en expliquant que l’industrie nécessite des droits de
douane.
Keynes, 1936, est quant à lui aussi proche de l’idéologie mercantiliste puisqu’il pense que le
protectionnisme renforce l’efficacité du multiplicateur keynésien, ce qui favorise ainsi la
croissance. Il prône aussi deux séries de mesures protectionnistes qui permettent de
renforcer la compétitivité : une politique non coopérative et le rétablissement de la balance
commerciale au détriment des autres pays.
Paul Bairoch, Mythes et paradoxes de l’histoire éco, 2001, croissance plus forte dans les
pays protectionnistes (Allemagne, US). « Le protectionnisme est la règle, le libre-échange
l’exception », ou « le LE est une théorie sans réalité, et le protectionnisme est une réalité
sans théorie ». La France renoue avec la croissance à la suite des lois Méline (1892), lois
protectionnistes qui permettent l’entrée dans la Belle-Epoque (1892). Kaldor dans Conflicts
in National Economic Objective, 1970, affirmait quant à lui qu’« il faut protéger les industries
dans la vieillesse ». Exemple de Krugman et des montres suisses et thaïlandaises : en
l’absence de mesures protectionnistes, avantage du first player (la Suisse). Les thaïlandais ne
peuvent alors être gagnant que s’ils ferment leurs frontières. Krugman prône aussi un
« mercantilisme éclairé ».
11. Les PED ne sont pas une menace pour PDEM dans le cadre du LE
P. Krugman dans La mondialisation n’est pas coupable, 1996, remet en cause les guerres
commerciales entre les puissances nationales. PDEM ne doivent pas craindre PED, ils sont
une opportunité pour entreprises des PDEM car crées des débouchés. « C’est la peur de la
réussite du tiers monde, pas sa réussite elle-même qui représente un réel danger pour
l’économie mondiale ». En effet, 31% du chiffre d’affaires du groupe LVMH se fait en Asie.
P. Hugon, Les économies en développement à l’heure de la mondialisation, 2003, distingue
la régionalisation horizontale et verticale, et insiste sur le fait que se développe la
régionalisation verticale cad des accord Nord-Sud (Mercosur-UE, 15 novembre 2020). F.
Braudel, La dynamique du Capitalisme, 1985, le Capitalisme s’est développé pour
contourner les règles et volonté d’obtenir profits en exploitant les différences entre les
territoires : PED est un bénef pas menace. + graphique de la courbe de J. Shih, pour la valeur
ajoutée : les PDEM produisent là où la VA est la plus élevée.
12. Le protectionnisme doit être géré collectivement, il apparait naturellement
Les Etats ont tout intérêt a attiré des IDE. En effet, W. Andreff affirmait dans Les
multinationales globales, 1996, que « les politiques d’attraction des IDE est une politique de
long terme, stratégique et globale des Etats. Les Etats ne sont pas des subordonnés passifs
des FMN ». Pour PN Giraud, Les globalisations. Emergences et fragmentations, 2008, les
pays doivent essayer de protéger les emplois nomades afin qu’ils ne soient pas substituables
car un pays est d’autant plus riche que la part d’emplois nomades est importante. CA.
Michalet affirme dans Mondialisation, la grande rupture, 2007, que « l’économie mondiale
reproduit les Etats mais efface les nations », insistant sur le rôle prépondérant des Etats dans
la mondialisation, puisqu’il permet par les lois la singularité du territoire. Pour JL Mucchielli,
dans La mondialisation, Chocs et mesures, 2008, les ouvertures des marchés, des
entreprises, du système financier résulte de politiques publiques des Etats qui ont été les
déterminants majeurs des changements intervenus. Politique commerciale stratégique
(Krugman et Baldwin, 1988, Market access and competition) a lié avec Brander et Spencer,
et Boeing-Airbus. Néanmoins, selon le triangle d’incompatibilité de Dani Rodrick, dans une
démocratie, l’intervention de l’Etat et la mondialisation sont incompatibles.
CA. Michalet, Le Capitalisme mondial, 1996, explique que l’économie mondiale est « une
réalité en formation ». En dehors des FMN, petites entreprises ont un horizon économique
qui reste « délimité par les frontières nationales ». Posner + Vernon.
Helpman et Krugman : Market Structure and foreign trade, 1985, CI=hausse de la taille des
marchés qui entraine une hausse du nombre d’entreprises et qui font baisser les prix par les
économies d’échelles. + pg sur la délocalisation. W. Andreff, Les Multinationales
Globales,1996, « Les Etats ne sont pas des subordonnés passifs des FMN » : les Etats peuvent
promouvoir des idéologies anti-mondialistes pour protéger les FMN.
J.L. Muchielli, Les firmes multinationales, 1985, les nouvelles logiques et stratégies des
entreprises expliquent qu’elles établissent une liste restreinte des localisations potentielles,
remplissant des critères sociaux, économiques, politiques et techniques : combinent les
avantages concurrentiels et comparatifs des territoires.
19. La relocalisation
Selon E.M. Mouhoud, Mondialisation et délocalisation des entreprises, 2008, on peut définir
les relocalisations économiques de deux manières : au sens strict, c'est le retour dans leur
pays d'origine d'unités productives, antérieurement délocalisées dans les pays à faibles
coûts salariaux. Par extension, la relocalisation apparaît comme le ralentissement du
processus de délocalisation des activités économiques vers les pays à bas salaire, ou bien
la remise en cause des décisions de délocalisation ou la non-délocalisation dans les secteurs
sensibles à la compétition par les coûts.
En 2004, un crédit d'impôt a été mis en place en faveur des entreprises qui après avoir
délocalisé tout ou partie de leur activité hors de l'Espace économique européen, la
relocalisent en France pour la période 2005-2007. Atol s’est par exemple relocalisé en
France en 2005 pour s’implanter dans le Jura, l’opticien expliquant que la Chine était un
atout pour la production de masse, mais bien moins quand il s’agit de la finition et la qualité
du produit. Bruno Le Maire l'a affirmé lors de la présentation du Plan de Relance le 3
septembre 2020 : « Relocaliser c'est possible ».
La régionalisation est une entorse à la clause de la nation la plus favorisée, mais est autorisé
par le GATT dans l’article 24.
J. Viner, The Customs Union Issue, 1950, explique que la régionalisation peut être positif car
aboutit à une création de trafic (voir graphique), mais peut aussi aboutir à un détournement
de trafic qui souligne la discrimination des accords régionaux. La régionalisation n’est qu’un
optimum de second rang. JM Siroen, explique que la régionalisation provoque de
nombreuses craintes : nationalisme, détournement de trafic et dégradation des termes de
l’échange. Néanmoins, il s’agit selon lui de relativiser ces craintes car les effets de
détournement sont réduits par les zones naturelles d’échange, et le fait que la
régionalisation est ouverte à la mondialisation. P. Krugman explique les effets ambivalents
de la régionalisation. Elle bénéficie en effet aux pays signataires car facilite les négociations
et sont signés dans des zones naturels d’échange, mais, en bénéficiant aux entreprises de
l’accord, elle peut entrainer une concurrence déloyale. P. Hugon, Les économies en
développement à l’heure de la mondialisation, 2003, explique qu’il s’agit de relativiser : on
assiste à un développement de le régionalisation Nord-Sud comme en témoigne le récent
accord Mercosur-UE.
La tendance à la régionalisation s’explique, selon JM Siroen par la réduction du nombre de
joueurs, répond à la demande de loyauté, et permet que les discussions portent sur les
règles du jeu. Les flux intra-régionaux représentent ainsi 50% du commerce international.
Conseil de l’Union européenne : organe institutionnel exécutif mais aussi législatif de l'UE, et
décide des actes législatifs et budgétaire.
Le Conseil européen : institution qui réunit les chefs d'État des 27 États membres de l'Union
européenne, sous la tutelle d'un président chargé de faciliter l'apparition d'un compromis.
Commission européenne : Instituée par le traité de Rome de 1957 elle est composée d'un
commissaire européen par État membre, soit 27 commissaires. Elle a pour but de proposer
et de mettre en œuvre les politiques communautaires. « Gardienne des traités », elle veille
à leur application. Présidente : Ursula von der Leyen.
Le Parlement européen : organe parlementaire de l'Union européenne élu au suffrage
universel direct, tous les 5 ans. Il partage avec le Conseil de l'Union européenne le pouvoir
législatif de l'Union européenne.
L’acte Unique Européen, 1986 : mise en place de dispositions communautaires
(supranational) et des dispositions intergouvernementales (international), permis par J.
Delors qui a souhaité relancer le processus d'intégration européenne après la période d'«
euroscepticisme » qui avait suivi les chocs pétroliers des années 1970.
Le Fonds social européen (FSE, 1957) : un des instruments financiers de l’Union européenne.
Il vise à soutenir l’emploi dans les États membres, mais aussi à promouvoir la cohésion
économique et sociale.
L’Union européenne fait partie des 303 accords commerciaux régionaux recensé par l’OMC
en 2020. Définie en 1993 lors du Traité de Maastricht, elle fait suite à la Communauté
économique européenne instauré lors du Traité de Rome en 1957 par les 6 Etats fondateurs.
L’UE est l’espace régional le plus intégré de la planète et rassemblent le plus de pays (27
depuis le Brexit). L’UE est au 4 ème stade d’intégration régional (Union économique) de la
typologie de Balassa : The Theory of Economic integration, 1961. Parmi ses 27, 19 forment
aujourd’hui une Union Economique et Monétaire (zone euro) avec l’adoption de la monnaie
unique dès 1999 avec la création de la BCE. 70% du commerce est un commerce intra-
européen. UE est la première destination d’IDE du monde. J. Monnet : « une cause la paix,
un chemin : l’économie, une visée : un fédéralisme européen ».
22. L’Europe social
A. Les faits
L'Union européenne mène une politique de lutte contre le chômage et l’exclusion sociale.
En avril 2012, la Commission européenne adopte des mesures visant à encourager l’emploi
notamment celui des jeunes. Un autre objectif annoncé est de sortir au moins vingt millions
de personnes de la pauvreté avant 2020. Dès la déclaration Schuman, dans le traité de la
CECA, il existait une volonté de « promouvoir l'amélioration des conditions de vie et de
travail de la main-d’œuvre », article 3 du traité de CECA (1952). En 1957, traité de Rome,
article 117, « l’harmonisation des niveaux de vie résultera du fonctionnement du marché
commun qui favorisera l’harmonisation des systèmes sociaux ». Le Fonds social européen
est l'un des instruments budgétaires les plus anciens de l'Union : il a été créé en 1957 par le
traité de Rome.
Avec l’acte unique de 1986, l’emploi devient pour la première fois un sujet de
préoccupation.
En 1989, charte sociale, sur le droit des travailleurs, qui sera annexé au traité de Maastricht
de 1992. Le traité d’Amsterdam, 1997, marque un changement profond dans l’approche
communautaire des questions de l’emploi et du chômage, et devient la préoccupation
prioritaire. Le traité de Nice de 2000, a été l’occasion de la signature de la Charte des Droits
Fondamentaux de l’UE, et prônait un objectif plein-emploi pour 2010.
Le traité de Lisbonne de 2007 a renforcé la dimension sociale au sein de l’UE en combattant
l'exclusion sociale, les discriminations, et promeut la justice et la protection sociale,
l'égalité entre les femmes et les hommes, la solidarité entre les générations et la
protection des droits de l'enfant.
Pour la programmation budgétaire 2014-2020, il était doté à hauteur de 80 milliards d'euros
A. Les faits
Selon J. Meade, l’intégration économique européenne a été favorable à la croissance des
pays membres : dans les 60’s, les 6 pays membres fondateurs ont connu une croissance plus
forte que celle de la GB. Grâce au traité de Rome, les échanges commerciaux au sein de l’UE
passent de 27% des échanges extérieurs à plus de 50% une décennie plus tard. Les flux
d’IDE intrazone se sont renforcés de 15% entre 1998 et 2007.
Pour J. Viner, The Customs Union Issue, 1950, la régionalisation permet une création de
trafic, et même si elle a des effets incertains avec le détournement de trafic, la création de
trafic a d’autant plus de chance de l’emporter que le pays est compétitif. Pour Corden,
Economies of scale and customs union theory, 1972, on assiste à « un effet de réduction des
coûts », qui permet une création de trafic. Selon J. Pisani-Ferry, Le réveil des démons 2011,
l’intégration européenne a finalement servi « d’aiguillon et de paravent » en accélérant les
mutations sectorielles nécessaires et en protégeant les agents du choc brutal de l’insertion
dans la mondialisation. Pour les pays Baltes et la Bulgarie, le PIB par tête exprimé en PPA a
augmenté de 100% entre 1999 et 2008 contre 30% pour celui des Etats membres de la zone
euro. On retrouve ainsi les conclusions du modèle de Solow sur la convergence économique.
60% des IDE reçus par la France viennent des autres membres de l’UE.
B. A relativiser
Ecart de richesse important : PIB 7X plus élevé au Luxembourg qu’en Bulgarie. Crise de l’UE
à partir de 2008 qui impact la politique de cohésion. Des inégalités sociales qui restent
fortes : espérance de vie des Hommes en Italie 80 ans vs Lituanie 65 ans. Différence entre
les taux de chômage : Espagne 23% vs Allemagne 5%. La mobilité des travailleurs en période
de chômage élevé apparaît comme un facteur aggravant de sous-emploi.
Des politiques non coopératives menacent la région : dumping fiscal au Luxembourg qui
compte 100.000 entreprises pour 500.000 habitants.
TD9 : le SMI
1. Les avantages du taux de change fixe
R. Mundell, A theory of Optimum Area, 1961, un système de change fixe est préférable
entre deux pays où la mobilité des facteurs de production est parfaite car ajustement par le
transfert de capitaux, ou de main d’œuvre. (En référence au triangle de Mundell).
Les changes fixes, d’autant plus s’ils reposent sur un étalon or, permettent de réduire les
déséquilibres commerciaux au travers d’ajustement automatique. Hume : De la Balance du
commerce, 1752, équilibre en théorie les balances commerciales, et limite l’inflation.
Le taux de change fixe favorise aussi le commerce international par la stabilité des prix.
Le système de l’étalon-or permet de lier les mains des gouvernements par des « menottes
en or », selon les termes d’Eichengreen (Golden Fetters : The Gold Standard and the Great
Depression, 1992). En adhérant à l’étalon-or, les pays s’engagent à respecter les strictes
règles du jeu : crédibilité.
Selon l’historien Bairoch : Victoires et déboires, 1997 : « Le système de l'étalon-or a
impliqué une stabilité monétaire quasi parfaite qui n'a pas été étrangère à la croissance
rapide à la fois du commerce extérieur et des investissements internationaux. »
Les changes fixes renforcent la souveraineté monétaire ce qui permet de réduire les coûts
de transactions en augmentant la confiance dans l’échange par l’encadrement institutionnel
(North : Changement institutionnel et Performances économiques,1971).
A. Des avantages…
M. Friedman, 1969, Inflation et Système Monétaire, défend le flottement et insiste sur une
quadruple vertu des changes flottants : ils permettent une autonomie des politiques
monétaires, une symétrie du système monétaire international, et une stabilité
automatique des balances commerciales et mettent fin à la spéculation. Plus encore, les
changes flexibles peuvent permettre d’atteindre le taux de change d’équilibre de toutes les
monnaies, y compris du dollar. 1973 à 1986, développement spectaculaire du flottement des
monnaies.
M. Friedman, The Case For Flexible Exchange Rate, 1953, indiquait que la monnaie est un
bien comme un autre et que sa valeur devait s'établir sur un marché (rejoint les classiques).
« Seul le marché sait quel est le bon prix d'une monnaie ». Ainsi, l’établissement des changes
flottants permettra que le taux de change soit équilibré à LT, permettant alors une
meilleure allocation des capitaux et de l’épargne. En changes flottants aucun déséquilibre
n’est durable.
G. Cassel : La Monnaie et le Change après 1914, 1922, qui met en avant le principe de PPA
(Parité de Pouvoir d’Achat) de telle manière que spontanément le taux de change
s’équilibrerait de façon à égaliser les pouvoirs d’achats des deux devises. Keynes, 1923,
Traité sur la réforme monétaire, la variation du taux de change est déterminée par le
différentiel des taux d’intérêts sur les marchés : équilibrage automatique.
Dornbusch, Expectations and Exchange Rates Dynamic, 1976, tente de réconcilier les deux
approches en indiquant qu’à long terme le change est déterminé par la PPA, à CT par la
parité des taux d’intérêt.
5. Le rôle de l’or
Il remplit presque toutes les conditions d’une monnaie qu’évoque Smith : parfaite
indivisibilité, inaltérabilité, la crédibilité mais pas la transportabilité.
« L’or représente encore l’ultime forme de paiement dans le monde. Dans le pire des cas, la
monnaie fiduciaire ne sera plus acceptée par personne, alors que l’or le sera encore. » - Alan
Greenspan.
Selon l’historien Bairoch : Victoires et déboires, 1997 : « Le système de l'étalon-or a
impliqué une stabilité monétaire quasi parfaite qui n'a pas été étrangère à la croissance
rapide à la fois du commerce extérieur et des investissements internationaux. »
Le système de l’étalon-or permet de lier les mains des gouvernements par des « menottes
en or », selon les termes d’Eichengreen (Golden Fetters : The Gold Standard and the Great
Depression, 1992). En adhérant à l’étalon-or, les pays s’engagent à respecter les strictes
règles du jeu : crédibilité.
6. L’hégémonie du dollar
B. Et ses limites
R. Triffin, dans L’or et la crise du dollar, 1960, explique que les US ne pouvait assurer à la fois
la liquidité en dollar nécessaire à la croissance et la convertibilité or du dollar.
7. Le SMI
A. Ses fonctions
-permettre des échanges de B et S et de K malgré les divergences entre les économies
nationales qui le composent.
-corriger les déséquilibres inhérents à ces divergences
-assurer une équité entre les nations quant aux efforts d’ajustement à fournir pour cette
correction
B. Nécessité de le réformer
P. Artus dans Les Mutations du Système Monétaire International , 2020, évoque les 3
dysfonctionnements du SMI aujourd’hui : 1. Les différences de revenus des régions du
monde, 2. La situation européenne en excédent commercial, qui induit peu de croissance, 3.
La perspective démographique.
Guido Mantega a évoqué en 2010, « la guerre monétaire » qui touche le monde, qui nuit à
la compétitivité du Brésil et des PED. J. Mistral, Guerres et Paix entre les monnaies, 2014,
évoque une nouvelle guerre monétaire qui n’en serait qu’à ses débuts.
Guerre monétaire US-Chine : la Chine sous-évalue et déprécie sa monnaie. Le but de cette
dépréciation du yuan, qui est poussée à un niveau inédit depuis 2008 : favoriser ses
exportations de l'autre côté du Pacifique pour compenser l'impact de l'augmentation des
taxes sur des centaines de milliards de dollars de produits chinois.
Mais peu d’actions pour le réformer à l’image du G20 de 2011 à Cannes, qui devait évoquer
la question d’une réforme du SMI, qui n’a finalement pas eu lieu.
La taille de l’économie mondiale ne permet plus à cette confiance de se construire. Il faut
trouver les principes d’un système multipolaire : Bénassy-Quéré et Pisani Ferry soutiennent
la reconnaissance de plusieurs devises clés par une extension du mandat du SMI.
Nouveau dilemme de Triffin apparaît aujourd’hui, la Chine espérant à la fois un dollar faible
signe d’une croissance forte outre Atlantique et un dollar fort pour préserver la valeur de ses
avoirs en dollar. En effet au déficit américain répond l’excédent chinois : « il faut être deux
pour danser le tango » expliquait Bernanke.
C. Le SMI : un échec
Les objectifs du SMI en change flottant prônés par Friedman n’ont pas été atteint : asymétrie
du système monétaire avec « l’étalon dollar dégénéré » de M. Aglietta, Le système
monétaire international, 1994, et rééquilibrage automatique qui est un échec car cercle
vertueux et vicieux. Seul l’autonomie de la politique monétaire a été plus ou moins atteinte.
13. La cryptomonnaie
A. Définition
Mundell : A Theory of Optimum Currency Areas, 1961, définit le concept de zone monétaire
optimale. Une zone est dite optimale si la zone est apte à adopter une monnaie commune
(la forme la plus poussée des changes fixes). Les critères traditionnels d’optimalité sont la
mobilité des facteurs de productions au sein de la zone (Mundell), l’ouverture internationale
(McKinnon : Optimum Currency Areas 1963), la diversification de l’économie (production
multi-sectorielle) (Kenen : The Theory of Optimum Currency Areas 1969) et la convergence
des préférences sur le dilemme inflation/chômage et les niveaux d’endettement
(Kindleberger : International public goods without international government, 1986).
J. Frankel et A. Rose, the Endogeneity of Optimum Currency Areas, 1998, expliquent qu’une
union monétaire crée ex-post les conditions de son optimalité.
Selon le Rapport Emerson : Marché unique, monnaie unique, 1991, la mise en place d’une
monnaie unique développe un certain nombre d’avantages attendus : réduction de
l’incertitude liée à la volatilité des changes, baisse des coûts de transactions par l’annulation
des coûts de changes, stabilité des prix par la mise en place du BC indépendante, et l’euro
devait devenir une monnaie internationale rivalisant avec le dollar.
B. Réalité
La mise en place de zones régionales de systèmes de changes fixes a provoqué un certain
nombre de crises et n’a pas nécessairement eu les effets attendus en termes de
convergence et de gain à l’échange : les crises de premières générations sont apparues
avec l’apparition de déséquilibres fondamentaux persistants, sur le marché de la monnaie ou
sur le plan budgétaire, qui entrent en conflit avec la contrainte d’un stock limité de réserves
de change (Krugman : A model of balance-of-payments crises, 1979). Cette première
génération explique par exemple la crise du peso Mexicain de 1994.
Crise du SME de 92-93, cette crise du SME avait été déclenchée par la victoire du non au
référendum danois sur le traité de Maastricht.
Les faits montrent que la zone euro est partiellement optimale. Si les économies sont
relativement ouvertes (Taux d’ouverture ALL : 70% ; France, Italie : 40% ce qui est beaucoup
comparé aux US (13%) et au Japon (10%)), que la production est diversifiée et que les
préférences sont plutôt homogènes, il demeure que la mobilité des facteurs de productions
n’est pas suffisante selon Eichengreen Is Europe an Optimum Currency Area ?, 1991, et
qu’aucun transfert budgétaire n’est réellement à l’œuvre. De plus, des pôles de
spécialisation sont apparus ce qui accentue la divergence européenne. Comme l’avait prédit
Krugman : Lessons of Massachusetts for EMU, 1993, les pays se sont spécialisés non de
manière unie mais par régions au sein de la zone (voir aussi Bairoch, Geography and trade
de Krugman, Bouba-Olga etc). Il faudrait ainsi aller vers des Etats Unis d’Europe selon
Krugman pour rendre la zone moins non-optimale.
Les inégalités désignent une différence mesurable en termes de niveau de vie ou de qualité
de vie entre individus. Si elles se manifestent par des différences de revenus et/ou de
patrimoine, elles ont aussi une dimension socioculturelle (espérance de vie, éducation).
Pour les évaluer on peut mettre en évidence les inégalités verticales c’est-à-dire évaluées en
fonction des richesses mais également les inégalités horizontales, évaluées en fonction
d’autres critères (famille, santé). Enfin on peut mesurer les inégalités de revenus entre les
individus ou entre les territoires (entre les nations). A. de Tocqueville distinguait 3 types
d’égalité : égalité de droit, de chance et de situation.
G. Hardin, The Tragedy of the Commons, 1968, a mis en avant la défaillance des biens
communs qui sont amenés à disparaître sans intervention car pas d’exclusion par les prix,
mais rivalité à long terme. Une 2ème défaillance de marché : les externalités comme la
pollution par exemple. La dernière défaillance : le monopole naturel mis en avant par JS
Mill, tandis que H. Adams a fait le lien entre monopole naturel et rendement croissant.
Pigou dans The Economics of Welfare, 1920, a proposé d’internaliser les défaillances de
marché par le principe de pollueur-payeur : taxe pigouvienne. J. Dales, en 1968, a créé les
marchés de droit à polluer : chaque entreprise a un volume de droit de pollution.
Elinor Ostrom, La Gouvernance des biens communs, 1990, a mis en exergue le fait que les
organisations créées par les individus sont souvent plus efficaces qu’une intervention de
l’Etat ou une intervention par le marché.
G. Hardin, The Tragedy of the Commons, 1968 prônait 3 solutions pour gérer les biens
communs : nationalisation, privatisation, gestion communautaire. Smith expliquait quant à
lui que le 3ème devoir du souverain est de prendre en charge ce qui n’est pas rentable. Dans
la même optique, Keynes, The end of laissez-faire, 1926, explique que : « la première priorité
pour l’Etat concerne les décisions qui ne sont prises par personne si l’Etat ne les prend pas ».
Rosanvallon : « l’Etat se légitime en protégeant la société contre le risque ».
E. Cohen, De la réglementation étatique et administrative à la régulation, 2000, 2 modèles
de gestion des défaillances de marché : européen=réglementaire et américain=régulateur.
Wagner en 1876 a montré que la croissance économique génère des besoins nouveaux, et
donc une intervention croissante de l’Etat dans nos économies. U. Beck, dans La société du
risque, 1986, publié après Tchernobyl, a montré que nous vivons dans une société aux
risques toujours plus nombreux, et la prise en charge de nouveaux risques augmente le
périmètre de l’action publique. Peacock et Wiseman ont parlé d’un effet de déplacement dû
aux guerres, (et mnt les crises) qui accélère l’intervention de l’Etat : adoption du projet du
député Joseph Caillaux d’impôt général et progressif sur le revenu en 1914. Avant la PGM,
dépenses publiques en France : 10%, 1945 : 30%, 30 Glorieuses : 40%, 1990 : 50%, ajd 55%. J.
Duesenberry parle d’un effet cliquet anti-retour (Income, Savings and the Th of consumer
behavior, 1949). E. Durkheim, De la Division du travail social, 1893, a montré que le
développement de la solidarité organique accroît la dépendance des individus vis-à-vis de
l’Etat, et accroit donc l’intervention de l’Etat.
J. Buchanan et G. Tullock dans The Calculus of Consent, 1962, explique que les individus qui
agissent au nom de l’Etat agissent pour leur intérêt propre, et n’hésite pas à augmenter les
dépenses publiques pour être réélu. Pour W. Niskanen, Bureaucratie et gouvernement
démocratique, 1971, les hauts fonctionnaires déterminent eux-mêmes le budget nécessaire
de leurs administrations, ce qui entraine des budgets publics beaucoup trop élevés. G.
Stigler, met en avant la théorie de la capture selon laquelle l’activité de contrôle des
pouvoirs publiques est défaillante car capturée par les intérêts privés.
Le rapport Nora, 1967, a montré que les entreprises publiques sont moins efficaces car sur-
tarification ou sous-tarification. Le rapport Dalle, 1986, montre quant à lui que l’Etat est un
mauvais actionnaire, ce qui explique le retour à la privatisation des entreprises dans les 80’s,
et la politique industrielle horizontale (lois de 1986 sur la privatisation puis celle de 1993).
D’après le théorème Arrow-Debreu, la solution qui maximise la solution de tous est
introuvable.
Pour A. Okun, il existe un arbitrage à faire entre équité et efficacité : on ne peut atteindre les
deux en même temps, la redistribution est vouée à l’échec. Malthus, Essai sur le principe de
population, 1803, disait à propos des lois sur les pauvres, « qu’au lieu d’enrichir les pauvres,
elles ne tendent qu’à appauvrir les riches ». J. Rawls, Théorie de la justice, 1971, soutenait
que l’essor des inégalités était acceptable à condition que les plus pauvres en profitent. La
pensée néoclassique pose le principe que sur le marché la rémunération est déterminée par
la productivité, (justice distributive, en fonction des mérites) : J. Bates-Clark : « chacun reçoit
ce qu’il mérite et chacun mérite ce qu’il produit ». En 2013, G. Mankiw, économiste
d’Harvard, défendait les 1% les plus riches, et qu’aux US les niveaux actuels d’impôts
suffisent déjà à compenser les avantages que les ultra-riches ont tiré des infrastructures
publiques. Une personne comme Steve Jobs qui gagne un revenu faramineux ne reflète que
sa productivité hors du commun. Smith a mis en avant l’effet de ruissellement. F. von
Hayek, Droit, législation, liberté, 1973 a expliqué que par nature la vie est injuste. + courbe
de Kuznets.
On retrouve ce discours dans l’idéologie de Ronald Reagan, par exemple Georges Gilder -
Richesse et Pauvreté, 1981 - écrivait pour dénoncer la politique de Lyndon Johnson (36ème
président des US, 63-69) : « Il y a 10 ans, il s’agissait de faire disparaître la pauvreté à coup
de milliards de $. Le résultat ? En 22 ans, le nombre de ménages américains assistés par
l’Etat a doublé » (de 6 à 15 millions).
On peut considérer que c’est l’équation keynésienne, selon les propos de Rosanvallon, qui
permet la réduction à LT de la pauvreté. La réduction des inégalités est la conséquence de la
répartition des richesses institutionnalisée par le compromis fordiste. La société salariale
de Robert Castel se met en place, (Les métamorphoses de la société salariale, 1995) les
salariés disposent d’une sécurité sociale permise par la croissance. La courbe de Kuznets va
dans le même sens : à long terme, la croissance fait baisser les inégalités. Mais Piketty
nuance les propos de Kuznets dans L’économie des inégalités, 1998, en affirmant que la
réduction des inégalités au 20ème n’est en réalité pas naturelle, et n’est que le fruit de
l’inflation et de l’impôt sur le revenu (1914). Pour Piketty, c’est une forte croissance qui fait
baisser les inégalités, mais dès que la croissance ralentit, regain d’inégalités. En 1900, les
2000 foyers les plus riches possédaient 300 fois le revenu moyen contre 50 à 60 fois
seulement ajd. Smith dans sa théorie du ruissellement explique que l’accumulation du
capital, donc la croissance, permet la redistribution par un effet de ruissellement donc la
baisse des inégalités.
Bertrand Salanié, L’économie sans tabou, 2004, a montré que l’égalité favorisait un
comportement de passager clandestin et était une désincitation. J. Mirrlees, Analyse de la
théorie de l’impôt optimal, 1971, a montré que la fiscalité peut être à l’origine de
désincitations : risque d’inciter les plus productifs à moins travailler. Il va alors mettre en
avant ce qu’est un impôt optimal, qui doit reposer sur un taux d’imposition marginal
décroissant. La courbe de Laffer montre qu'au-delà d'un certain seuil de prélèvement fiscal,
plus la pression fiscale augmente, plus les recettes fiscales diminuent, en raison de l'effet
désincitatif sur l'offre de travail : « trop d’impôt tue l’impôt ». Plus encore, JB Say concluait
« qu’un impôt exagéré détruit la base sur laquelle il porte », tandis que Smith disait que
« l’impôt peut entraver l’industrie du peuple et le détourner de s’adonner à certaines
branches de commerce ou de travail ». M. Aglietta, L’Europe à contresens, 2011, évoque la
fiscalité carbone comme nouvelle base fiscale pour imposer la consommation pour pallier
cette inefficacité.
12. Laisser faire le marché
V. Pareto, néoclassique, critique l’approche utilitariste car trop de sacrifice : pour maximiser
le bien-être, il faut laisser faire le marché pour atteindre l’optimum de Pareto. J. Bates Clark,
néoclassique, explique de même que « chacun reçoit ce qu’il mérite, et chacun mérite ce
qu’il produit » : il faut laisser faire le marché. Selon Hayek, Droit, législation et liberté, 1973,
le marché est issu d’un processus de sélection par l’efficacité. Il suit un ordre spontané, et
légitime dès lors la non-intervention. En France, décret d’Allarde (1791) qui libéralisait le
commerce des grains, et loi Le Chapelier en 1791, liberté d’entreprise. En GB, abrogation du
Bubble Act (1825) des Poor Laws (1834) (fin aide aux pauvres) et des Corn Laws (1846) (fin
protectionnisme). D’après Arnold Toynbee : « l’essence même de la RI est la substitution de
la libre concurrence aux réglementations qui, depuis le Moyen Âge, étaient imposées à la
production ». On comprend alors pourquoi le XIXème a été le théâtre d’un «
désencastrement du marché » selon K. Polanyi, La Grande Transformation, 1944, qui
commencera dès 1834 avec l’abolition des old poor laws en vigueur depuis 1601.
Dans une note en 2014, 3 chercheurs du FMI, Jonathan Ostry, Andrew Berg et Charalambos
Tsangarides démontent l’édifice d’Okun avec une enquête sur les Coefficients de Gini avant
et après-redistribution dans 150 pays sur 1 demi-siècle. « La redistribution semble
généralement exercer des effets bénins sur la croissance ». « Une moindre inégalité nette est
solidement corrélée avec une croissance plus rapide et plus durable »
Aghion et Bolton - A theory of trickle-down growth and the development, 1997 -
considèrent que les populations défavorisées ne peuvent exercer les activités les plus
productives car elles nécessitent divers frais fixes (scolarisation, terrain) et les prêteurs
éventuels exigent des garanties qu’elles ne peuvent fournir : redistribution est légitime.
T. Piketty Le Capital au 21ème siècle, 2013, propose même la mise en place d’un impôt
mondial sur le capital qui rapporterait 2% du PIB aux européens s’ils le mettaient en place. J.
Stiglitz, Le prix de l’inégalité, 2012, la progressivité de l’impôt doit permettre la chasse aux
rentes pour réduire les inégalités qui sont « un grain de sables dans l’efficacité du
capitalisme ».
+pg sur le rôle néfaste des inégalités pour légitimer la redistribution (voir 7.)
M. Aglietta, L’Europe à contresens, 2011, évoque la fiscalité carbone comme nouvelle base
fiscale pour imposer la consommation pour pallier cette inefficacité. E. Laurent, Et si la santé
guidait l’économie, novembre 2020, explique qu’il n’existe pas comme on l’a souvent cru,
avec Pigou par exemple, d’arbitrage entre l’économie et l’environnement. Les Etats ont fait
le choix de placer la santé de leur population avant la croissance de leur économie, faute
d’avoir pris soin de la vitalité de leurs écosystèmes : détruire la Nature est un suicide
social, et une folie économique. En se laissant guider par une pleine santé accordant toute
leur place aux écosystèmes qui nous font vivre, il devient possible de réorienter nos
systèmes économiques pour donner un sens partagé à la transition écologique.
D. Bell expliquait que « l’Etat est devenu trop petit pour les grandes choses, et trop grand
pour les petites choses ». K. Ohmae, De l’Etat nation à l’Etat région, 1995, évoque le déclin
des Etats nations. On ne peut plus pénaliser les entreprises étrangères sans pénaliser les
nationales. La région apparaît donc plus efficace.
-« Si la France atteint un jour la barre des 500 000 chômeurs ce sera la révolution » affirmait
en 1967 G. Pompidou. La croissance était alors à 4,9%. En 1993, avec 0,7% de croissance et 3
millions de chômeurs, F. Mitterrand affirmait « contre le chômage on a tout essayé ».
Paradoxal.
Jusqu’au recensement français de 1891, les chômeurs étaient considérés comme une
catégorie de population non classée, et la catégorie n’apparaît que dans le recensement de
1896. R. Salais, L’invention du chômage, 1986, insistaient sur les limites entre emplois et
chômages qui sont parfois incertaines, tout comme J. Fressinet, Le chômage, la découverte,
1998, qui développe le graphique du halo du chômage On distingue tout d’abord les inactifs
des chômeurs : +2ans au chômage=inactif, pour +60ans=+1an.
Taux de chômage=nombre de chômeurs BIT/population active
BIT (bureau international du chômage) : chômage remplis 3 conditions : être sans emploi,
être disponible, et chercher activement un emploi. Cette définition est différente de celle de
Pôle Emploi qui définit le chômage comme l’ensemble des personnes inscrites sur ses listes.
Ainsi, la moitié des chômeurs Pôle emploi ne sont pas considérés comme chômeurs pour le
BIT : on comprend bien que le chômage est un problème statistique.
On distingue ainsi le chômage frictionnel (imperfections du marché du L, observable même
en situation de plein-emploi, chômage d’adaptation lié aux délais d’ajustement de la main
d’œuvre entre deux emplois), structurel (inadéquation entre les qualifications des individus
et les emplois, inadéquation entre l’offre et la demande) et conjoncturel (conjoncture).
La politique économique vise les objectifs du carré magique de Kaldor, parmi lesquels la
croissance, le plein emploi, la stabilité des prix, et l’équilibre externe.
De 1975 à 1985, le chômage est passé de 3 à 10,5% en France, maximum en 1996 (12,5%), et
ajd se stabilise à 8-9%. (2021 novembre : 7,6%)
Selon la loi de Say, l’économie a naturellement tendance à se diriger vers une situation de
plein emploi, le chômage ne peut donc qu’être volontaire.
Pour Kydland et Prescott, le chômage est volontaire : en effet, les chocs exogènes tels que
les chocs technologiques entrainent un choc de productivité qui poussent les individus à
moins travailler par les gains de productivité et donc à tendre vers un chômage volontaire.
Chez les classiques et les néoclassiques, le chômage est volontaire. Pigou, La théorie du
chômage, 1933, prône aussi l’existence d’un chômage volontaire, « l’existence d’un grand
nombre de personnes qui ne valent pas ce salaire (=salaire minimum) est cause du chômage
». Selon Walras L’économie politique et la justice, 1860, le marché du travail est toujours à
l’équilibre sous condition de la CPP.
La crise de 1929 et la grande dépression qui a suivi ont fait apparaître un chômage de masse
durable que la théorie néoclassique ne peut dès lors pas expliquer. Entre 1929 et 1933, le
chômage américain passe de 3 à 25%. Keynes, 1936, remet en cause la conception
néoclassique du marché du travail. Le chômage est un phénomène macro-économique
involontaire lié aux anticipations insuffisantes des entreprises. La synthèse d’Hicks Mr
Keynes et les Classiques, 1937, informe de cette capacité de l’Etat à lutter contre le chômage
alors de nature involontaire.
Friedman (The Role of Monetary Policy, 1968) réadapte l’analyse néoclassique du chômage
en créant le concept de chômage naturel. Il critique la courbe de Phillips : l’inflation (illusion
monétaire) diminue temporairement le taux de chômage (graphique). Le NAIRU (Taux de
Chômage Non Accélérateur d’Inflation) a été développé par J. Tobin : il mesure
approximativement le taux de chômage qui serait compatible avec un taux d'inflation stable.
Olivier Blanchard et Jean-Paul Fitoussi, Croissance et chômage, 2000, établissent que le
NAIRU en France était de 4,2% avant 1973, 6,6% entre 80 et 86 puis 8,5% en 94. Ils
expliquent cette évolution par l’existence d’un effet d’hystérèse, qui signifie que les
conséquences (chômage) sont maintenues alors que la cause (récession) a disparu : l’emploi
ne peut revenir à son ancien niveau. Layard, Nickell, et Jackman dans Chômage,
Performance macro-éco et marché du Travail, 1991, mettent en avant le modèle WS-PS pour
expliquer le déplacement du NAIRU, et expliquent différemment le chômage d’équilibre :
ajustement par les salaires nominaux du fait d’une hausse de la concurrence (graphique). Le
chômage est le résultat de deux stratégies indépendantes venant des entreprises et des
salariés, ayant chacun des objectifs différents.
6. Réduire le chômage
Selon le modèle WS-PS, il existe deux moyens de réduire le chômage, développé par Layard,
Nickell, et Jackman dans Chômage, Performance macro-éco et marché du Travail, 1991. La
première consiste à déplacer WS (pv de négo des salariés) vers la gauche, autrement dit en
retirant le pouvoir de négociation des salariés : la réduction du chômage se fait au profit
d’une baisse des salaires réels (inefficace). La deuxième stratégie est de réduire le chômage
en déplaçant PS (pouvoir de marché des E) vers la gauche. Autrement dit, en limitant le
pouvoir de marché des entreprises. Cela peut donc se traduire par une hausse de la
concurrence sur les marchés (voir graphique).
Pour réduire le chômage structurel, il s’agit de flexibiliser le marché du L en éliminant les
rigidités : ajuster le travail par la quantité ou les prix à la production. Les Lois Hartz, 2004,
sous le mandat du chancelier Schröder vont dans ce sens, et ont pour but de réduire le
NAIRU.
Il s’agit sinon de créer une incitation : le principe de l’impôt négatif pour lutter contre la
trappe à inactivité : popularisée par Milton Friedman (1962, Capitalisme et liberté).
7. Les effets pervers d’une lutte pour le plein emploi : prôner le laissez-faire
Dans une approche libérale orthodoxe, le plein-emploi est naturel et n’a pas à faire l’objet
d’une politique économique : Ricardo prévenait que « les salaires ne doivent jamais être
entravés par la volonté du Gouverneur », Léon Walras (L’économie politique et la justice,
1860), définit, à la fin du 19 ème, l’équilibre général sur le marché du travail comme la
situation spontanée, normale et naturelle. Pigou, La Théorie du chômage, 1931, explique
que le marché du travail peut être considéré comme un marché comme les autres où
s’affrontent une offre de L (les L) et une demande de L (les entreprises) en fonction du
niveau des salaires réels. Le chômage est aussi un choix rationnel au profit de l’inactivité.
Toute politique de lutte contre le chômage aurait pour effet de contrarier une situation
Pareto-optimale. M. Friedman théorise la stagflation et conteste la courbe de Phillips :
l’inflation ne diminue que temporairement le taux de chômage. Il existe un taux de chômage
naturel. A partir de la fin des années 70, le plein-emploi n’est plus un objectif prioritaire. En
1979, les pays du G5 décident d’abandonner les politiques keynésiennes. Paul Volcker va
ainsi mener une PM des plus restrictive.
Selon l’analyse de Laroque et Salanié (2000), une augmentation de 10 % du SMIC en France
détruit à long terme environ 300 000 emplois : il faut laisser faire le marché.
NAIRU qui redéfinit le plein-emploi, qui permet dès lors aux US d’atteindre un plein-emploi
en passant sous la barre des 4%. Mais le problème c’est que ce retour au plein-emploi a été
obtenu à un prix social non négligeable, à savoir la montée des working poors, des emplois
précaires. Les sociétés deviennent des « sociétés de serviteurs » (André Gorz) plutôt que de
services. Comme le fait remarquer Robert Castel Les Métamorphoses de la société salariale,
1995, « il faut que tout le monde travaille et ce n’est ni la qualité, ni la rémunération qui
compte mais le travail pour le travail » : le travail est intégrateur.
En plus du temps d’emploi élevé, le plein emploi exige d’être relativisé à l’aune de
l’importance du temps partiel imposé qui concerne 30% des salariés. Dominique Taddéi
déclare : « tout personne en âge de travailler doit obtenir un emploi qui corresponde à ses
choix ».
La concurrence ne détruit pas l’emploi car pour Schumpeter, il ne s’agit que d’une simple
destruction créatrice. Selon A. Sauvy, Les machines et le chômage, 1980, simple phénomène
de déversement d’un secteur à l’autre. Les emplois détruits sont compensés par les emplois
créés. Bruno Crépon et Richard Duhautois, Ralentissement de la productivité et
réallocations d'emplois, 2003, ont montré que ce sont les entreprises dont la productivité
croit le plus vite qui créent le plus d’emplois au cours des années 80-90 : paradoxal.
Selon l’ACERP, aux USA, peu de concurrence dans le secteur téléphonique, non seulement
les prix sont très élevés mais surtout les opérateurs téléphoniques ont réduit de 27% leurs
effectifs en 10 ans contre 11 % en France sur la même période. Krugman, La mondialisation
n’est pas coupable, 1996, affirmait que « le chômage résulte bien plus du manque
d'efficacité de nos politiques que de la mondialisation des années 1980 ».
Dans Implicit Contracts and Underemployment Equilibria, 1975, C. Azariadis met en avant la
théorie des contrats implicites, et cherche à montrer les imperfections qui existent sur le
marché du travail, expliquant une rigidité des prix sur ce marché. Les salariés ont une
aversion pour le risque, et l’entreprise joue alors le rôle d’assureur : en cas de croissance,
les salaires n’augmentent pas ou pas assez. En période de récession, les salaires ne baissent
pas.
P. Diamond, Pissarides et Mortensen ont mis en avant dans A Model of Price Adjustement,
1971, la théorie de l’appariement : problème de recherche de l’information des employeurs
qui peut avoir des conséquences sur le fonctionnement du marché : les individus
recherchent une adéquation entre leur qualification et un poste, ce qui prend du temps. Les
demandeurs surdiplômés monopolisent le marché, et la main d’œuvre non qualifiée est
forcée de se retirer du marché. L’indemnisation chômage permet de mettre à profit le temps
de chômage pour atteindre cet objectif. J. Stiglitz, Wage determination and Unemployment,
1974, développe la théorie du salaire d’efficience, et montre que la productivité augmente
avec le salaire : l’entreprise doit payer le travailleur au-dessus du prix du marché. J. Rueff
dès 1933 dénonçait les assurances chômages comme cause du chômage permanent :
désincitation.
Jean Fourastié dans Le Grand Espoir du 20ème siècle, 1949 explique que l’évolution de
l’emploi dans un secteur est égale à l’évolution de la production moins l’évolution de la
productivité du travail dans ce secteur. La croissance transforme l’innovation et la
productivité, elle doit atteindre un certain niveau pour qu’il y ait déversement des emplois,
tel qu’envisagé par A. Sauvy, dans le sens d’une tertiarisation de l’économie. Schumpeter :
phénomène de destruction créatrice d’emploi. C. Freeman développe la théorie du
paradigme sociotechnique et met en avant la nature duale du changement technique qui
permet à la fois d’économiser de l’emploi et de créer de l’emploi, mais qui a des
conséquences sociales et peut provoquer des crises.
16. Les diffs des taux de chômage entre pays s’expliquent par des spécificités
nationales (souvent en III.)
Le modèle anglo-saxon, ou libéral, (USA, GB) est fondé sur une forte réactivité du taux de
chômage aux taux de croissance. Lors de la récession de 1983, le taux de chômage américain
est à 11% contre 5,5 en 78. La reprise ramènera le taux à 7 en 87 puis 4,5 en 90. Suite à la
crise du Corona virus, le chômage aux Etats-Unis a atteint son plus haut niveau depuis la
guerre. En effet, entre février et avril 2020, le taux de chômage aux Etats-Unis est passé de
3,5 % à 14,7%.
Le modèle social-démocrate (Scandinavie) avec marché du L flexible et mettent en place une
« flexisécurité » qui désigne un dispositif social autorisant une plus grande facilité de
licenciement pour les entreprises (volet flexibilité) et des indemnités longues et
importantes pour les salariés licenciés (volet sécurité).
Les marchés du travail les plus flexibles (USA, Scandinavie) sont aussi ceux pour lesquels le
chômage structurel est le plus faible. En raison de la fluidité du marché, un salarié est très
vulnérable mais peut retrouver de l’emploi rapidement en cas de reprise.
Le modèle continental européen est un modèle traditionnellement beaucoup plus rigide au
sens où la protection de l’emploi est plus forte. Les salariés sont beaucoup moins
vulnérables, mais c’est dans ces pays que le taux de chômage a le plus augmenté atteignant
des niveaux exceptionnels en Espagne (26,6%) ou en Grèce (26%).
P. Cahuc et A. Zylberberg, Le Chômage, nécessité ou fatalité, 2004, ont montré que les chocs
d’offre de travail étaient mieux absorbés aux US qu’en France car le marché y est plus
flexible. J. Hunt, 1992, prend l’exemple des accords d’Evian de 1962 et du rapatriement de
900 000 pieds noirs en France : la rigidité du marché du travail français a fait que cette
hausse de main d’œuvre a eu un impact sur le taux de chômage français. Au contraire, G.
Peri dans son analyse du marché du travail danois entre 1991 et 2008, prône le modèle
scandinave en montrant qu’une hausse de l’immigration incite les natifs danois les moins
qualifiés à se tourner vers des emplois plus qualifiés.
Pour P. Artus, les règles budgétaires européennes sont trop rigides. Plus encore selon G.
Kopits et S. Symanski, Fiscal Rules, 1998, « une règle budgétaire impose une contrainte
permanente à la politique budgétaire »
L’efficacité des PB ne peut être pensée en Europe que relativement aux institutions : le Pacte
de Stabilité et de Croissance (1997), a imposé aux pays européens un déficit public
maximum de 3% du PIB, et chaque pays doit fournir un programme de stabilité des dépenses
avec pour objectif l’équilibre budgétaire. Bruno Lemaire affirmait néanmoins en avril 2021,
qu’il souhaitait changer la règle de la dette à 60% du PIB. Pacte Budgétaire européen 2012 :
Les objectifs de 3% et 60% sont maintenus, mais l’enjeu principal est d’avoir un budget
financé par des dépenses saines. Aux US, le Congrès fixe le montant maximal de la dette
publique, et impose une règle de crédibilité budgétaire portant sur le montant de la dette, ce
montant étant fixé à 16800 milliards de dollars. M. Aglietta, L’Europe à contresens, 2011,
évoque la fiscalité carbone comme nouvelle base fiscale pour imposer la consommation.
5. Inflation permet de réduire la dette publique
Reinhart et Rogoff, dans Growth in a Time of Debt, 2010, ont montré qu’au-delà d’une dette
publique de 90% du PIB, la dette publique avait un effet néfaste sur la croissance. Des
économistes comme Piketty, Couppey-Soubeyran, ou Scialom souhaitent annuler la dette
afin de supprimer la menace qu’elle représente. Jézabel Couppey-Soubeyran, L’économie
mondiale 2020 : « La dette française n’est soutenable que si les taux restent bas ». Il faut
annuler la dette. Thomas Piketty est du même avis. Selon eux, une telle annulation
donnerait des marges de manœuvre aux États pour investir dans la transition écologique. A
l’inverse d’autres comme Bénassy-Quéré, Aglietta, P. Artus expliquent qu’annuler la dette
ne fait que déplacer le problème. Agnès Bénassy-Quéré, met en avant un triangle
d’incompatibilité européen : Il ne peut y avoir simultanément 1- une monétisation de la
dette ; 2- une interdiction de défaut de paiement ; 3- une clause de « no bail out » (pas
d’aide d’un pays par d’autres pays de la zone). Lors de la crise des dettes souveraines, c’est la
clause de « no bail out » qui a été écartée pour éviter l’implosion de la zone euro.
Chez les keynésiens, la dette est bénéfique avec la croissance mais celle-ci devient néfaste si
elle devient trop importante. En France, en 2009, chaque nouveau-né héritait d’une dette
publique de 29500€, alors qu’ajd, chaque français supporte 40000€ de dette pb. Pour
Gordon dans Is Us Economic Growth Over, 2012, la dette publique est l’un des 6 vents
contraires de la croissance. Michel Aglietta et Natacha Vala, Taux d’intérêt négatif et
stagnation séculaire, 2016, considèrent la hausse de la dette publique comme l’un des 3
principaux facteurs de la stagnation séculaire. Le théorème Ricardo-Barro montre que
l’inflation et les déficits entrainent une perte de confiance vis-à-vis des politiques
budgétaires.
Patrick Artus montre qu’il « est optimal de réduire la dette si elle est élevée », car « une
hausse supplémentaire de la dette réduit le bien-être, l’effet dominant étant la réduction du
capital productif et la hausse des impôts alors que le revenu est déjà faible ».
Pour Keynes, endettement public est le seul moyen de faire face à une défaillance de
l’investissement privé. Chez Reinhart et Rogoff, la crise financière est due à un excès de
dette des agents éco.
En avril 2005, l’État français a émis une obligation assimilable du Trésor (OAT) à cinquante
ans, arrivant donc à maturité en 2055. L’État français s’était engagé à en émettre pour 6
milliards d’euros. La demande a atteint 19,5 milliards. Aussi, le taux d’intérêt servi a été de
3,77 %, soit un niveau particulièrement bas. O. Blanchard, dans une note de février 2019
intitulée Public Debt: Fiscal and Welfare Costs in a Time of Low Interest Rates, considérait
qu’il était inutile aujourd’hui de s’inquiéter de la dette publique ! La raison est simple : le
taux d’intérêt auquel s’endettent actuellement les États est très faible. « si la dette publique
est nuisible, elle n’est pas catastrophique (…) elle peut être utilisée, mais à bon escient ».
Dans le modèle Ricardo-Barro, la propension à consommer aurait une composante
conjoncturelle et une composante stable. La première repose évidemment sur les revenus
présents, la seconde sur la perception actuelle des revenus futurs et, plus globalement, sur
le cycle de vie des revenus. L’application moderne de ce concept conduit à considérer qu’en
cas de relance budgétaire financée par déficit, les agents économiques anticiperont la
probabilité d’une hausse d’impôts future et augmenteront leur épargne pour s’y préparer,
ce qui diminue les effets du multiplicateur keynésien traditionnel.
En 1945, la dette publique de la GB était de 250 % du PIB et seulement de 50 % en 1970,
grâce à une progression annuelle moyenne du PIB de 7 %, bien supérieure au taux d’intérêt
versé aux créanciers, une inflation qui faisait grimper les prix de 4 % par an en moyenne.
Adair Turner conclut que « si les dettes ne peuvent être érodées ni par la croissance réelle ni
par l’inflation, elles peuvent être réduites par le défaut de paiement et la restructuration de
la dette ».
Pour Krugman, réduire sensiblement la dépense publique (ou augmenter les impôts) c’est
réduire d’autant la demande et plonger dans le cercle vicieux de la déflation.
JM Daniel, Trois controverses de la pensée économique, 2016, distingue le déficit
conjoncturel du déficit structurel : « Seul le déficit structurel nourrit la dette : laisser filer le
déficit structurel conduit à une accumulation de dette qui finit par étouffer l’action
publique ».
Déjà en 2018, le déficit public en France s’élevait à 2,5 % du PIB et la dette publique à 98,4 %
du PIB. Pourtant, ce n’est rien à côté du fardeau du Japon avec sa dette publique à 238 % du
PIB, ou même des États-Unis à 106 %. La cour des comptes estime que la crise sanitaire a
coûté près de 93 milliards d’euros au budget de l’Etat en 2020, La dette, elle, s'est envolée à
115,7%.
Après avoir atteint le niveau record d’un déficit public de 9,2 % l’an dernier avec les moyens
considérables engagés pour faire face à l’épidémie de Covid-19, la baisse envisagée est
considérable. Le ministre de l’Économie Bruno Le Maire défend un objectif « ambitieux »
mais aussi « le choix de la sincérité et de la responsabilité ». Le gouvernement envisage de
s’attaquer aux dépenses publiques en ramenant leur hausse à +0,7 % par an en moyenne
(hors dépenses d’urgence et de relance) jusqu’en 2027, contre une hausse de 1 % par an
entre 2017 et 2019, et de 1,4 % par an durant la décennie 2010. La France se donne « cinq
ans pour rétablir les finances publiques après la crise », dit Bruno Le Maire.
Krugman, « Notes on the corona coma », in New York Times, 1er avril 2020, parlait même
d’un corona coma.
12. Vocabulaire
Daron Acemoglu, Les causes profondes de la pauvreté, 2003, a comparé les institutions
entre la Corée du Nord et du Sud. Les 2 pays possédaient des niveaux de développement
semblables en 1950, mais la Corée du Nord va adopter des institutions socialistes, puis un
régime totalitaire, qui se distingue des institutions capitalistes mises en place par la Corée du
Sud. Corée du Sud = succès, pas Corée du Nord.
Dani Rodrick et A. Subramanian, dans La Primauté des institutions, 2003, ont insisté sur
l’importance des « institutions créatrices de marché », qui permettent de protéger les
institutions. Ils distinguent les institutions de réglementation, de stabilisation, de
légitimation de marché. Ils prennent l’exemple des pays subsahariens, qui n’ont pas su
résister aux chocs pétroliers des 70’s à cause de la faiblesse des institutions. Ils ont aussi
montré que si les institutions de la Bolivie étaient semblables à celles de la Corée du Sud, le
PIB par habitant bolivien passerait de 2700$ à 18000$.
R. Boyer insistait quant à lui sur l’importance de la complémentarité Etat-marché. D. North,
Economic performance through time, 1994, expliquait que les institutions devaient être des
incitations, et que se sont elles qui participent à la réussite d’un pays, en prenant l’exemple
de la différence d’institutions entre la GB et l’Espagne pendant la colonisation. Il insiste sur
l’auto-renforcement des institutions au cours du temps.
T. Veblen critique l’hypothèse de rationalité des comportements, et légitiment alors le rôle
des institutions.
Douglass North, Economic performance through time, 1994, a insisté sur le sentier de
dépendance des institutions : il existe des verrous qui limitent le changement, le
changement d’institution est difficile. Par exemple, Paul David, dans Clio and the economics
of QWERTY, 1985, a montré que les US ont adopté la technologie QWERTY au 19 ème, alors
qu’il existait une autre technologie plus efficace, DVORAK, qui n’a pas pu remplacer QWERTY
à cause des changements compliqués. Un « accident historique », définit par P. Krugman,
aboutit à un sentier de dépendance sous-optimal.
Plus encore, les mauvaises politiques des PAS entreprises par le FMI avec les PED
d’Amérique Latine a montré les limites des insitutions, critiquées par J. Stiglitz dans La
Grande Désillusion, 2002.
3. Le vieillissement démographique
4. L’épargne
Ansley Coale et E. Hoover, Population Growth and Economic Development, 1958, ont
développé la théorie du développement : si la fécondité est élevée, difficulté à épargner des
populations, comme en Inde. R. Solow, A contribution to the Theory of economic growth,
1956, explique que la croissance démographique est d’abord un obstacle au rattrapage
puisque la hausse du PIB par tête suppose d’élever le capital par tête. L’effort d’épargne est
d’autant plus important et inaccessible que la population s’accroit rapidement comme l’a
montré R. Nurske avec Pbs de la formation du Capital dans les PED, 1964, avec le cercle
vicieux de la pauvreté. Dans un cadre néoclassique, l’épargne est un préalable à
l’investissement.
Bruno Lemaire veut faciliter la possibilité que les grands-parents fassent des dons à leurs
petits-enfants, en exonérant d’impôt les dons afin de relancer la demande par le biais de
l’investissement de la jeunesse. Hayek se prononce contre toute mesure visant à relancer la
consommation, qui ne ferait selon lui qu’aggraver le mal : insuffisance d’épargne pas
d’excès.
Parties possibles d’un grand 3 possible sur épargne vice ou vertu : A. L’épargne est un
comportement rationnel (Modigliani, M. Friedman, épargne fixée sur toute notre vie) B.
L’épargne est une source d’inégalités (Piketty, Rastignac, Marx)
5. La crise du travail
Adam Smith anticipait « qu’un homme qui passe toute sa vie à remplir un petit nombre
d’opérations simples n’a pas lieu de développer son intelligence ni d’exercer son
imagination ». La crise du travail à partir des années 60 est une crise endogène liées aux
réactions négatives des ouvriers (grève, absentéisme…).
6. Les migrations
Le 5ème fait stylisé de P. Romer, 1986, énonçait que les travailleurs les plus qualifiés avaient
tendance à émigrer dans les pays riches. En France, le solde migratoire est de 75000
nouveaux migrants par an. Pour le FMI, les migrations ont un rôle positif dans la croissance :
une augmentation d’1% des migrations adultes ferait augmenter de 2% le PIB par habitant.
S. Smith prévoit une importante immigration en UE venant d’Afrique, avec près de 150 à 200
millions d’immigrations d’ici à 2050, soit 25% de la population de l’Union Européenne.
Phénomène de brain drain : en 1998, 40 % des économistes français « de premier rang »,
cad se classant parmi les 1000 premiers chercheurs mondiaux, en fonction de leur nombre
de publications scientifiques, sont expatriés aux États-Unis, phénomène qui ne touche pas
que les PED.
7. Le rôle de l’agriculture
François Quesnay, physiocrate, disait que « la terre est l’unique source de richesse, et c’est
l’agriculture qui les multiplie. ». Mouvement des Enclosure : Marc Bloch évoque
« l’individualisme agraire ».
Selon Paul Bairoch, Révolution industrielle et sous-développement, 1963, l’élévation du
revenu agricole permet à la fois le développement d’une demande de produits
manufacturés textile et métallurgiques, et la mise à la disposition de l’industrie d’une
épargne nouvelle.
La place de l’agriculture est au centre de la RI. Les rendements agricoles ont été multiplié par
2 en GB au 18ème. Pour F. Crouzet, la révolution agricole est la cause de la RI, pas la
conséquence. Patrick Verley montre quant à lui qu’en France les flux de financement vont
plutôt de l’industrie vers l’agriculture en raison d’une vague de constructions agricoles
financées par des réussites industrielles. Le rôle de la PAC.
J. Sirole insiste en 1942 sur le fait que c’ets l’agriculture qui est à l’origine de cycles, par les
variations des prix agricoles et la lenteur du changement technique.
2. Concentration
Retour de la concentration industrielle ne serait plus à craindre si celle-ci était coordonnée
par l’UE. Emmanuel Combe et Mucchielli affirment que la France ne gagnerait en
compétitivité que par la qualité