Vous êtes sur la page 1sur 38

1

UNIVERSITE THOMAS SANKARA

UNITE DE FORMATION ET DE RECHERCHE EN


SCIENCES ECONOMIQUES ET DE GESTION
-----------------------

HISTOIRE DE LA PENSEE ECONOMIQUE


CONTEMPORAINE

Pam ZAHONOGO
2

Introduction

L’évolution de la place des économistes dans le débat public rend


nécessaire un cours d’histoire de la pensée économique dans la
formation des économistes. L’histoire de la pensée économique peut
aider à comprendre les termes dans lesquels est posée une question
économique dans le débat public et à préciser ce qu’un économiste
peut apporter à ce débat. Par exemple dans le cadre des politiques
économiques de lutte contre le chômage, il y a une opposition entre
les politiques macroéconomiques visant à stimuler l’emploi en
soutenant la croissance du produit global et les politiques dites
structurelles, visant à modifier les conditions de fonctionnement du
marché du travail. L’histoire de la pensée économique peut permettre
à l’économiste de prendre du recul avant de décréter que les unes sont
dépassées et les autres nécessaires.

L’objectif de l’histoire de la pensée économique est moins de situer les


idées dans leur contexte historique que de comprendre la logique du
développement de la science économique dans son unité et sa
diversité. Puisque l’histoire de la discipline progresse à travers des
controverses, on cherche à étudier les convergences et les divergences
analytiques entre les auteurs plutôt que d’en établir un palmarès
inspiré par l’état actuel de la science.

L’histoire de la pensée économique n’est vraiment utile à l’économiste


que si elle lui permet une prise de recul, non pour évaluer le présent à
l’aune du passé, mais pour identifier clairement les termes du débat.
Elle doit faire partie du bagage de tout économiste. Mais quel type
d’histoire de la pensée économique il est souhaitable d’inclure dans ce
bagage ?

L’objectif d’une histoire de la pensée économique est (i) de privilégier la


théorie en centrant l’attention sur les apports analytiques des auteurs
du passé, en ne fournissant du contexte historique que le strict
nécessaire à la compréhension des questions théoriques posées ; (ii)
privilégier les œuvres maitresses des grands auteurs car il est
nécessaire de connaitre les auteurs passés que les économistes eux-
mêmes considèrent comme représentatifs de leur discipline et (iii)
utiliser comme fil directeur de l’analyse deux clivages (analyse réelle
versus analyse monétaire ; microéconomie versus macroéconomie) qui
permettent de situer les auteurs les uns par rapport aux autres à
travers des débats agitant la discipline depuis son origine.

On peut considérer l’histoire analytique de la pensée économique


comme une approche spécifique de la théorie économique, basée sur
l’étude des textes anciens ou récents, qui ont marqué l’histoire de la
discipline. Non seulement elle peut fournir une explication de la façon
3

dont nous sommes arrivés là où nous sommes aujourd’hui (pour le


meilleur ou pour le pire), mais encore elle peut contribuer au
développement de la théorie économique moderne qu’elle ne se
contente pas de compléter.

L’histoire analytique de la pensée économique ne se contente pas de


dissoudre le passé dans le présent, en ne retenant des auteurs
anciens que ce qui est conforme à la science économique moderne,
mais se fixe pour objectif de jauger le présent à l’aide du passé, en
repérant les continuités et les ruptures entre les théories anciennes et
actuelles. En privilégiant le lien avec la théorie, l’histoire de la pensée
économique continuera à contribuer à la formation de l’économiste ;
en donnant du recul par rapport aux analyses modernes, elle rendra
vivantes les paroles de Keynes ‘un peu de théorie nous éloigne de la
réalité ; beaucoup de théorie nous en rapproche’.

Dans l’enseignement du cours d’histoire de la pensée économique, on


distingue généralement deux grandes parties : (i) la pensée
économique de l’antiquité à Keynes et (ii) la pensée économique après
Keynes ou pensée économique contemporaine. C’est cette dernière
partie qui fera l’objet de ce cours.

Keynes est considéré comme le principal fondateur de l’analyse


macroéconomique et a marqué profondément l’économie au 20e siècle
et engendra un courant de pensée dont l’influence théorique et
pratique fut à ce point de vue considérable que l’adjectif keynésien est
passé dans le langage courant. Les multiples contributions de Keynes
au développement de la pensée économique et à l’amélioration du
fonctionnement des économies s’ordonnent autour d’un ouvrage
majeur dont l’influence depuis a été considérable : la théorie générale
de l’emploi, de l’intérêt et le la monnaie (1936).

La cohérence théorique de la théorie générale peut se résumer en


trois propositions qui fondent une macroéconomie originale : (i) le
niveau de l’emploi n’est pas déterminé par l’équilibre sur le marché du
travail, mais par les anticipations des entreprises sur le niveau de la
demande globale ; (ii) la demande globale peut être insuffisante pour
susciter un produit global assurant le plein emploi et cette déficience
résulte principalement de la faiblesse des investissements des
entreprises ; (iii) la monnaie joue un rôle central dans l’existence de
l’équilibre de sous emploi, à travers la façon dont est satisfaite la
préférence pour la liquidité des agents. Ces trois propositions
contredisent les explications classiques du chômage par l’insuffisante
flexibilité du marché du travail, du niveau d’activité globale par les
caractéristiques de l’offre, et de la neutralité de la monnaie. Ce
caractère fondamentalement hétérodoxe de la théorie de Keynes
explique en grande partie l’attitude ambivalente de la théorie standard
à son égard, partagée entre le refus de son originalité et le souci d’en
récupérer certains aspects. L’enjeu de la théorie de Keynes n’est pas
4

seulement analytique. C’est toute la conception de la société qui est


remise en cause, ainsi que la manière d’envisager pratiquement
l’amélioration de son fonctionnement. Si l’économie de marché ne peut
spontanément garantir le plein emploi, une intervention extérieure à
la logique du marché est nécessaire : l’Etat doit mener une politique
macroéconomique destinée à pallier la façon défectueuse dont est
déterminé le volume (mais non la structure) de l’emploi. Cette
politique macroéconomique peut prendre plusieurs formes (monétaire,
budgétaire, des revenus), plus ou moins efficaces selon les
circonstances, mais nécessaires pour sortir l’économie d’un état
d’équilibre de sous emploi. Plus profondément encore, ce qui est mis
en doute par Keynes est la croyance dans les capacités d’ajustement
automatique d’une économie de marché et dans les vertus collectives
de la poursuite des seuls intérêts individuels.

A peine un quart de siècle après sa mort (1946), les nouveaux


classiques enterraient la Théorie générale. Robert Lucas écrivait ainsi
en 1980 dans un article intitulé ‘La mort de l’économie keynésienne’
que ‘on ne peut pas trouver de bons économistes de moins de quarante
ans qui se désignent eux-mêmes ou leurs travaux comme keynésiens.
Les gens sont même choqués que l’on puisse se référer à eux en tant
que keynésiens…

L’histoire de la pensée économique du dernier demi siècle n’est donc


pas celle de la domination de la pensée de Keynes. Et ce constat n’est
pas le résultat d’une myopie engendrée par la critique monétariste ou
nouvelle classique, qui attribuerait à l’ensemble de la période un biais
seulement sensible à partir des années 1970. Comme le destin de
Ricardo avait été scellé des les années 1830, celui de Keynes s’est joué
des les années 1950 ; le monde des économistes qui s’y construit alors
n’est pas le sien, mais celui de Kenneth Arrow et Gérard Debreu.

En définissant un champ spécifique pour la macroéconomie, la


Théorie générale laissait la science économique divisée, sans lien entre
microéconomie et macroéconomie. Keynes parlait de no bridge. Les
travaux de Arrow et Debreu ont contribué à bouleverser la pensée
économique keynésienne. Du coté de la microéconomie, la théorie de
la valeur qui s’est imposée à partir de Arrow et Debreu (1954) repose
bien sur l’interdépendance des marchés en concurrence parfaite, mais
elle présente deux particularités qui excluent tout dialogue avec la
théorie de Keynes : (i) la question des ajustements de marché
(rebaptisée ‘stabilité’) passe au second plan derrière celle des
conditions formelles d’existence d’un équilibre général ; (ii)
l’interdépendance ne s’étend pas à la monnaie. Du coté de la
macroéconomie, l’attention s’est portée sur les moyens de corriger une
incongruité supposée de la théorie de Keynes : l’exclusion du marché
du travail du jeu des influences réciproques entre marchés. La
reformulation de celles-ci autour du concept de rigidité conduit à une
situation instable : l’absorption de la macroéconomie dans la
5

microéconomie, mais avec un cadre de concurrence imparfaite


s’affirmant comme étranger à la théorie dominante de la valeur.

La pensée économique keynésienne traditionnelle a donc été


profondément remaniée. Les nouveaux économistes classiques
considèrent que le fondement de la macroéconomie doit être la
microéconomie et donc l’étude des comportements d’individus
rationnels et que le déséquilibre ne peut être que rare et temporaire.
Les nouveaux économistes keynésiens acceptent la rationalité des
agents économiques, mais ils considèrent que les déséquilibres
peuvent être durables et que le chômage peut être involontaire.

Dans le cadre d’un cours sur un sujet aussi vaste que l’histoire de la
pensée économique contemporaine, des choix s’imposent. Nous allons
revisiter la pensée économique contemporaine en regardant dans trois
directions : (i) la pensée économique libérale contemporaine, (ii) la
pensée économique keynésienne contemporaine et (iii) la pensée
économique neomarxiste ou de la dépendance.

Au niveau de la pensée économique libérale, nous traiterons de


l’équilibre général, de l’Ecole Monétariste, de la Nouvelle Economie
Classique et de l’Economie de l’offre. L’examen de la pensée
économique keynésienne passera en revue la théorie du déséquilibre,
la théorie postkeynésienne et la nouvelle macroéconomie keynésienne.
La pensée économique neomarxiste résumera la pensée des
économistes de la dépendance.
6

Chapitre 1. La Théorie de l’Equilibre général

L’équilibre en économie est d’abord la possibilité de permettre aux


ressources disponibles d’être égales à toutes les utilisations (emplois).
En effet, le rationnement est pénible et tous les économistes
s’accordent sur l’intérêt de cette notion d’équilibre. Cependant, un
clivage important existe entre les économistes et oppose ceux qui font
du concept d’équilibre le moteur de leur analyse et ceux qui
raisonnent en prenant en compte des déséquilibres ceux qui
conçoivent des flux à l’intérieur d’un circuit orienté et dynamique, ou
encore ceux qui imaginent que la régulation passe par des
institutions. L’analyse des déséquilibres et celle des circuits orientés
dynamiques se réfère le plus souvent à des hypothèses sur la
concurrence imparfaite alors que la logique du marché équilibré
imagine un monde où règne la concurrence pure et parfaite.

Dans l’analyse de l’équilibre, deux réflexions sont possibles : (i)


l’analyse de l’équilibre partiel et (ii) l’analyse de l’équilibre général.
L’équilibre partiel (imposé par Alfred Marshall) se contente d’étudier
un marché donné et décrit l’ajustement entre l’offre et la demande
d’un type de bien par un prix. L’équilibre général par contre est plus
ambitieux. Il considère l’ensemble de l’économie comme un tout
comprenant un système de marchés interdépendants. La théorie de
l’équilibre général a donc pour objectif de prouver l’existence d’un
système de prix qui permette d’ajuster toutes les quantités offertes sur
l’ensemble des marchés à toutes les quantités demandées pour tous
les biens et services. C’est à Léon Walras (1874, 1877) que revient la
vision d’ensemble formalisé d’un système d’équilibre général. L’idée de
base est de démontrer que la demande des ménages est une fonction
décroissante du prix des biens demandés et des revenus des
consommateurs. L’offre est une fonction croissante du prix des biens
et dépend du volume total des ressources. Walras a alors mis en
évidence l’existence d’un ensemble de prix d’équilibre qui assurent
que, sur l’ensemble des marchés l’offre est égale à la demande.

Après avoir été pendant longtemps négligée pendant plus d’un demi-
siècle, la théorie de l’équilibre général, issue des travaux du Français
Léon Walras à la fin du 19e siècle, est devenue dans les années 1950
le cadre de référence pour la théorie microéconomique anglo-saxonne.
La démonstration de l’existence d’un équilibre général concurrentiel,
établie par Kenneth Arrow et Gérard Debreu en 1954, a été décisive
dans le processus d’unification de l’analyse économique dominante.
C’est ce qui a conduit les analystes de l’histoire de la pensée
économique à parler de ce monde à la Arrow-Debreu comme d’un
camp de base de la science économique à partir duquel il serait
possible de lancer des expéditions vers d’autres champs d’analyse en
apparence éloignées. Même ce qu’il est convenu d’appeler aujourd’hui
la nouvelle microéconomie, qui s’inscrit dans un cadre de concurrence
imparfaite et d’équilibre partiel, a besoin de la référence à l’équilibre
7

général walrasien pour interpréter ses résultats. Il est donc essentiel


dans le cadre de l’histoire de la pensée économique contemporaine
d’identifier clairement la portée et les limites de la théorie moderne de
l’équilibre général walrasien.

C’est l’objet de ce chapitre qui est structuré en trois points. Le premier


point s’interroge sur l’existence de l’équilibre général en essayant de
montrer s’il est possible de concevoir un état de l’économie dans
lequel la loi de l’offre et de la demande garantit que les décisions
prises par tous les agents individuels soient mutuellement
compatibles. Le second point se réfère au fonctionnement du marché
en décrivant les processus de formation des prix et de réalisation des
échanges afin de voir s’il est possible de donner un contenu
analytique à la vielle image smithienne de la main invisible. Le
troisième point aborde la question de l’intégration de la monnaie en
analysant la possibilité de réalisation de l’équilibre en en faisant
abstraction.

1. L’existence de l’équilibre général walrasien

Arrow et Debreu considèrent une économie intégrée d’échange et de


production où les revenus obtenus (de la production) permettent de
financer les achats (au niveau des échanges). Deux théorèmes leur
permettent d’établir les conditions générales sous lesquelles un
équilibre concurrentiel existera. De façon simplifiée, le premier
théorème stipule que si chaque individu a initialement une quantité
positive quelconque de chaque marchandise disponible pour la vente,
alors un équilibre concurrentiel existera. Le second théorème stipule
l’existence d’un équilibre concurrentiel s’il y a deux types de travail
ayant les deux propriétés suivantes : (i) chaque individu peut offrir un
montant positif quelconque d’au moins un de ces types de travail et (ii)
chacun de ces types de travail a une utilité positive dans la production
des marchandises désirées.

Le premier théorème est irréaliste, car il suppose que chaque agent a


initialement chacune des marchandises, et cela dans une quantité
suffisante pour l’offrir sur le marché après en avoir consommée ce qui
lui est nécessaire. Le second théorème avec quelques hypothèses
supplémentaires, démontre l’existence d’un équilibre concurrentiel
plus réaliste où chaque individu possède initialement une
marchandise susceptible d’être vendue à un prix strictement positif.

Au delà de leur formalisme mathématique, le principal enjeu des


théorèmes d’existence était la possibilité de donner un contenu
analytique précis à la loi de l’offre et de la demande. La présentation à
partir du concept de demande agrégée se situe dans ce cadre. Soient Z
le vecteur des demandes excédentaires agrégées (différences entre la
somme des demandes individuelles et celle des offres individuelles)
8

des différents biens et P le vecteur de leurs prix. L’équilibre général est


obtenu pour des vecteurs Z* et P* sous la condition suivante :
Z *  0 , P*. Z * = 0 . Cette condition peut se comprendre comme suit. Un
prix pi strictement positif pour un bien i est d’équilibre si la demande
excédentaire agrégée Zi de ce bien est nulle. En effet, si Zi est
strictement positif, pi augmenterait et ne serait donc pas d’équilibre.
Si Zi était strictement négatif, pi baisserait jusqu'à son niveau
minimum pi = 0. Donc à l’équilibre, soit Z* = 0 et pi* > 0, soit Z* <0) et
pi* = 0. La condition d’équilibre repose explicitement sur une
compréhension de l’équilibre comme un état dans lequel aucune force
n’agit plus pour faire varier le prix. Cette définition est essentielle pour
interpréter cette force comme la loi de l’offre te de la demande.

Pour que la nature de l’économie considérée soit claire, il reste à


spécifier le cadre temporel dans lequel elle fonctionne. L’héritage de
Walras était un cadre statique, dans lequel les déterminants des
comportements des agents relèvent exclusivement de la période
courante et donc le temps n’intervient pas. Arrow et Debreu étendent
le modèle de Walras à la dynamique.

L’extension de l’équilibre walrasien à la dynamique ne répond pas


seulement à un souci de réalisme, mais elle une conséquence logique
de la prise en compte de certains comportements tels ceux d’épargne
et d’investissement. Un agent rationnel n’accepte de renoncer à
consommer dans la période courate que si la rémunération de cette
épargne lui permet d’augmenter sa consommation dans le futur. De
même, il n’accepte d’investir dans un actif que si sa propriété lui
permet d’offrir dans le futur des services producteurs dont il tirera un
revenu. Cette extension soulève cependant une difficulté : comment
rendre compatibles l’interdépendance générale qui est un des
fondements de l’équilibre général de Walras et l’introduction du temps
qui suppose une sequentialite ? Arrow et Debreu s’appuient sur
l’existence dans l’économie concrète de marché à terme pour résoudre
cette difficulté. Sur ces types de marchés, les décisions sont prises
dans la période courante et se traduisent par des contrats qui seront
exécutés à des dates futures.

Le principal résultat du modèle d’Arrow-Debreu est d’étendre à la


dynamique l’analyse d’un équilibre statique en augmentant
simplement le nombre de marchés. Mais il s’agit d’un changement de
perspective. L’équilibre général chez Walras fournit une référence pour
analyser l’état d’une économie tel qu’il résulte des décisions des
agents concernant la situation présente de l’économie qui se confond
avec la période de marché. Dans le modèle d’Arrow-Debreu, le marché
se tient bien dans la période présente, mais les décisions des agents
concernent une situation future de l’économie, à des dates qui
peuvent être très éloignées (marchés à terme). Autrement, le modèle
d’Arrow-Debreu introduit une dimension de long terme dans l’analyse,
qui n’était pas présente chez Walras. Le passage de la statique à la
9

dynamique conduit naturellement à distinguer une dynamique de


courte période et une dynamique de longue période (modèle d’Arrow-
Debreu). Cela soulève une difficulté : les comportements des agents,
en particulier la formation de leurs anticipations, doivent être
interprétées comme des comportements de long terme, même si les
décisions par lesquelles ils se manifestent sont prises sur les marchés
(à terme) de la période courante.

2. Fonctionnement du marché et la question de stabilité de


l’équilibre

La question posée par le fonctionnement du marché dan le cadre de la


théorie de l’équilibre général est la suivante : peut-on donner une
représentation rigoureuse du processus concurrentiel, qui montre
qu’une économie tend vers un équilibre général tel que décrit par le
modèle d’Arrow-Debreu ? Il s’agit de montrer non seulement qu’une
économie peut être un monde à la Arrow-Debreu, mais que celui-ci est
une description acceptable de la situation qu’engendrent effectivement
les forces du marché. Il faut rappeler que la métaphore de la main
invisible d’Adam Smith et les intuitions contenues dans la doctrine
libérale suggèrent deux caractéristiques principales du
fonctionnement du marché : (i) il s’agit d’un processus décentralisé
dans lequel des individus mus par la seule satisfaction de leur intérêt
se rencontrent spontanément sans coordination préalable par une
institution supérieure et (ii) c’est en échangeant les uns avec les
autres que ces individus parviennent à une situation qui, dans un
environnement donné, les satisfait tous. La question que l’on peut se
poser est de savoir si la microéconomie peut donner des fondements
théoriques à ces deux caractéristiques supposées du fonctionnement
du marché.

Deux problèmes sont à envisager dans ce cadre : (i) le problème de


formation des prix d’équilibre et (ii) celui de la réalisation des
échanges. L’hypothèse de concurrence parfaite traduit le fait que
l’agent individuel est un price taker, la seule variable qu’il contrôle
étant la quantité qu’il offre ou demande à ce prix. Mais l’ensemble de
ces décisions individuelles sur les quantités fait varier le prix, jusqu'à
ce qu’il atteigne un niveau pour lequel les offres et les demandes
agrégées sont égales. On doit donc se poser la question de savoir
comment le prix s’ajuste jusqu’à son niveau d’équilibre. Il s’agit du
problème de la stabilité de l’équilibre. Quant au second problème, il
faut noter qu’à l’équilibre, les agents prennent leurs décisions
individuelles sur les quantités, qui, agrégées, sont par construction les
quantités d’équilibre. L’égalité enter l’offre agrégée et la demande
agrégée est donc réalisée pour chaque marchandise et chaque marché
est soldé. L’observation d’une économie de marché suggère que la
réalisation des échanges s’opère par des contrats bilatéraux. On peut
également se demander si ces contrats sont compatibles avec la
10

caractérisation de l’équilibre par l’annulation des demandes


excédentaires agrégées.

L’objectif des auteurs engagés dans la question de la stabilité de


l’équilibre général est de donner un contenu analytique à la loi de
l’offre et de la demande en dynamique. Il s’agit d’établir que, pour
deux niveaux différents de la demande ou du coût de production d’un
bien, le niveau le plus élevé est associé au prix le plus élevé pour ce
bien. L’origine de l’intérêt pour la stabilité de l’équilibre remonte à
John Hicks (qui a fait découvrir l’équilibre général walrasien au
monde anglo-saxon). Après avoir établi la stabilité d’une économie
d’échange, Hicks généralise la démonstration à l’équilibre général de
production : Comme pour l’équilibre de l’échange, la stabilité exige
qu’une baisse de prix sur tout marché entraine un excédent de la
demande sur l’offre. Si l’on veut une stabilité parfaite cette condition
doit être satisfaite (i) si tous les autres prix sont constants ; (ii) s’ils sont
ajustés, un par un, de façon a maintenir l’équilibre sur les autres
marchés. Pour une stabilité imparfaite il est seulement nécessaire que
la condition soit remplie lorsque les autres prix ont été ajustés (Hicks,
1939).

C’est Paul Samuelson qui dans un article de 1941 la stabilité de


l’équilibre : statique comparative et dynamique, fixa le traitement du
tâtonnement dans la littérature moderne. Il faut deux reproches
majeures à Hicks : (i) le fait de postuler les conditions de stabilité au
lieu de les déduire d’un modèle explicitement dynamique et (ii) de
n’envisager avec sa méthode qu’un processus engendré par de faibles
variations autour de l’équilibre (stabilité locale) et non une théorie qui
détermine le comportement de toutes les variables dans le temps a
partir des conditions initiales arbitraires. Samuelson introduit, pour
analyser cette stabilité globale, une règle d’ajustement du prix qui
sera reprise par la plupart des auteurs ultérieurs :Pour tester le
caractère nécessaire ou suffisant de ces critères (de Hicks) en termes
d’une définition plus fondamentale de la stabilité de l’équilibre, nous
ferons une généralisation naturelle des conditions walrasiennes de la
forme suivante : le prix de tout bien diminue si son offre excède sa
demande, chacune de celles-ci étant considérée comme une fonction
de tous les autres prix. Cette spécification naturelle du tâtonnement
walrasien semble cohérente avec l’hypothèse d’interdépendance entre
les marchés qui est caractéristique de l’équilibre général ; au lieu
d’être successif, le processus d’ajustement de prix devient simultané
sur tous les marchés.

L’analyse de la stabilité de l’équilibre présente des limites ; nous


retenons deux limites principales : (i) le rôle du commissaire-priseur et
la rationalité individuelle dans le processus d’ajustement des prix. Le
commissaire-priseur n’est ni un agent marchand (il ne vend ni
n’achète), ni un agent planificateur. Le commissaire-priseur est la
métaphore d’un marché centralisé : une conditio de stabilité de
11

l’équilibre général walrasien et que la formation (centralisée) des prix


d’équilibre soit séparée de la réalisation (décentralisée) des échanges.
Les prix d’équilibre se forment directement au niveau agrégé, grâce à
un processus impersonnel d’annulation des demandes excédentaires
agrégées, tandis que les échanges interindividuels n’ont aucune
influence sur la formation des prix. La stabilité éventuelle du
processus d’ajustement requiert de la part des agents un
comportement particulier : ils se comportent en dehors de l’équilibre
comme s’ils étaient à l’équilibre. C’est ce que Fisher (1983) appelle le
postulat d’action présente : l’existence de déséquilibre n’a aucune
influence sur les fonctions de comportement des agents, qui se
déplacent sur ce fonctions, modifiant les offres et les demandes au
prix criés, mais ne les déplacent pas. Les effets des comportements
individuels apparaissent ainsi incertains au regard de ce qui est
attendus de la loi de l’offre et de la demande. Leur prise en compte
n’est pas satisfaisante dans l’analyse de la réalisation des échanges.

3. Intégration de la monnaie dans le modèle d’Arrow-Debreu

L’objectif de cette section est d’analyser l’intégration de la monnaie


dans la théorie de l’équilibre général walrasien. Il s’agit d’examiner la
théorie microéconomique de la monnaie, c’est-à-dire celle qui est
susceptible d’être intégrée à la théorie de la valeur et donc à l’équilibre
général.

Intégrer la monnaie dans la théorie de la valeur de l’équilibre général


signifie ajouter un marché (celui de la monnaie) à l’ensemble des
marchés qui constituent l’équilibre réel. Puisque cette théorie de la
valeur détermine les prix et les quantités d’équilibre des marchandises
abstraction faite de la monnaie, l’ajout de ce marché ne peut pas les
modifier : la monnaie est supposée neutre. Cette neutralité de la
monnaie caractérise l’approche réelle et elle est l’aspect essentiel par
laquelle la théorie microéconomique de la monnaie se distingue de la
théorie macroéconomique de la monnaie qui relève d’une approche
monétaire dans laquelle la monnaie a un effet sur l’équilibre.

Le point de départ de l’intégration de la monnaie dans la théorie de


l’équilibre général walrasien a été la théorie quantitative de la
monnaie. Celle-ci préexistait à la théorie marginale, où elle a été
introduite par Alfred Marshall (1923) et Irving Fisher (1911). Dès le
milieu des années 1930, cependant, cette introduction est apparue
comme n’étant pas une intégration, en ce sens que la théorie de la
valeur-utilité, appliquée aux biens, ne s’appliquait pas à la monnaie.
Cette intégration a été recherchée par Don Patinkin (1956) avec une
théorie fondée sur l’effet d’encaisse réelle. Elle a été jugée insuffisante
par Hahn (1965), qui a alors orienté la théorie monétaire vers la prise
en compte des coûts de transaction. En définitive, c’est à travers la
fonction de réserve de valeur que la théorie microéconomique de la
monnaie s’est imposée dans les années 1980.
12

Conclusion

Le monde à la Arrow-Debreu, noyau dur de la microéconomie


moderne, a l’ambition d’être la représentation d’une économie de
marché, c’est-a-dire une économie décentralisée, reposant sur la
rationalité individuelle et la loi de l’offre et de la demande. La
décentralisation suppose l’absence de coordination préalable à
l’échange. La rationalité microéconomique s’identifie A la
maximisation sous contrainte (de l’utilité ou du profit). La loi de l’offre
et de la demande est décrite pour des offres et des demandes de
marché synthétisées par le concept de demande excédentaire agrégée.
Ce modèle rencontre deux problèmes principaux. Premièrement,
l’interprétation des théorèmes d’existence de l’équilibre général
walrasien en termes de loi de l’offre et de la demande se heurte à
l’impossibilité, dans le cas général, de dériver rigoureusement la
demande excédentaire agrégée d’un bien à partir des fonctions d’offre
et de demande individuelles. Cette difficulté concerne aussi bien
l’unicité et la stabilité de l’équilibre général walrasien que la
réalisation d’échange de troc. Deuxièmement, l’intervention d’une
instance centrale apparait inéliminable à deux niveaux : (i) celui du
processus de formation des prix (le commissaire-priseur, qui atteste
de la préexistence d’une règle d’ajustement) et (ii) celui de la
réalisation des échanges bilatéraux. Ceci contredit l’intuition de la
main invisible. Au total, ces difficultés non surmontées depuis
plusieurs décennies conduisent à douter de la possibilité de donner
des fondements microéconomiques à la théorie dominante de
l’économie de marché, et donc à la doctrine libérale qui en tire à plus
ou moins juste titre un fondement.
13

Chapitre 2. L’Ecole Monétariste

Le libéralisme classique, attaqué et dominé dans les années 1940 et


1950 par le keynésianisme, est loin d’avoir disparu. Il ressurgit à
l’occasion de la crise des années 1970 sous l’impulsion du courant dit
monétariste conduit par Milton Friedman, qui entreprendre ce qu’on
qualifie souvent de contre-révolution classique en macroéconomie.
Comment un quasi-consensus keynésien dans les années 1950 a-t-il
pu se transformer en un rejet majoritaire du message de Keynes à
partir des années 1970 ? Le monétarisme opère sur la base d’une
critique des fondements microéconomiques de la macroéconomie
keynésienne en regardant dans deux directions : (i) une recherche des
fondements microéconomiques des grandes fonctions
macroéconomiques et (ii) une recherche des fondements
microéconomiques des équilibres macroéconomiques. Ce regain du
monétarisme prend forme à cause des doutes sur l’efficacité de la
politique conjoncturelle dans la régulation globale d’une économie de
marché. Ce sont des problèmes théoriques qui, dès la seconde moitié
des années 1960, ont conduit à ce retournement, et façonné la
tendance dominante de l’histoire de la macroéconomie au cours des
trente dernières années à savoir l’absorption de la macroéconomie
dans la microéconomie.

L’école monétariste ou école de Chicago avec Milton Friedman comme


chef de file, organise alors la critique du keynésianisme en s’attaquant
notamment aux politiques inspirées par les keynésiens orthodoxes.
Elle s’appuie notamment sur une reformulation de la théorie
quantitative de la monnaie et débouche sur une nouvelle conception
de la relation entre l’inflation et le chômage (courbe de Phillips) par
l'intermédiaire de la notion de chômage naturel et annonce la
possibilité théorique de la stagflation (coexistence de l’inflation et du
chômage).

L’école monétariste est donc le fruit d’une réflexion théorique en


réaction contre l’orthodoxie keynéso-classique qui domine les années
1950 en macroéconomie. Elle puise ses racines dans l’approche
quantitative de la monnaie, mais constitue une contribution originale
et spécifique qui dépasse largement la seule théorie quantitative de la
monnaie. Les années 1970 sont les années de triomphe du
monétarisme comme nouvelle orthodoxie libérale puisse que les
recettes inspirées de la théorie keynésienne traditionnelle semblent se
révéler incapables de réaliser concrètement un réglage fin de
l’économie, garantissant la croissance de plein emploi sans un
dérapage des prix. Les applications concrètes du monétarisme par des
gouvernements libéraux consacreront le triomphe de l’orthodoxie
monétariste. Par exemple dans les premiers gouvernements de Reagan
ou de Thatcher, les conseillers de l’école monétariste ont largement
tenu les leviers de commande remplaçant les keynésiens de l’ère
Kennedy ou Johnson. Les experts du FMI ont fait largement confiance
14

à la contrainte monétaire pour restaurer les équilibres économiques et


se sont détournés des moyens budgétaires si prisés jusqu’en 1974.

Dans ce chapitre, nous allons traiter trois points. Le premier point


donne les fondements du monétarisme. Le deuxième point discute de
la stabilité des fonctions macroéconomiques de comportement. Le
troisième point expose la critique monétariste de la courbe de Phillips
et la théorie du taux de chômage naturel.

1. Les fondements du monétarisme

Il est possible de regrouper les principales propositions qui définissent


le noyau central du monétarisme. Cet ensemble de propositions fut
formulé par Milton Friedman dont l’œuvre symbolise désormais
l’orthodoxie monétariste s’articule autour de (i) la primauté du marché
sur le contrôle de l’Etat, (ii) l’analyse monétaire de l’inflation et (iii) la
modulation des politiques monétaire et budgétaire. Friedman a
enseigné à l’université de Chicago, où il fut le plus célèbre des chefs
de file de la célèbre école de Chicago. Il a obtenu le Prix Nobel
d’économie en 1976 pour ses travaux dans les domaines de l’analyse
de la consommation, de l’histoire et de la théorie monétaire et pour sa
mise en lumière de la complexité des politiques de stabilisation.
Friedman restera dans l’histoire comme l’économiste le plus influent
de la fin du 20eme siècle, après les années de domination de la pensée
de Keynes. Il mourut le 16 novembre 2006 à l’âge de 94 ans.

Pour les monétaristes, le marché est considéré comme le meilleur


régulateur et le plus efficace car les prix jouent le rôle de signaux qui
permettent le calcul économique rationnel et l’affectation optimale des
ressources en évitant les gaspillages. Selon Friedman, les prix
transmettent l’information, ils incitent les utilisateurs des ressources à
se laisser guider par cette information, et ils incitent les propriétaires de
ces ressources à tenir compte de ces informations. A l’inverse, les
contrôles centralisés sont source d’inefficacité car ils faussent les
calculs des agents économiques et provoquent des distorsions. En
1980, Friedman écrit que les contrôles des salaires et des prix agissent
dans le sens contraire de cet objectif (la lutte contre l’inflation). Ils
provoquent la distorsion dans la structure des prix, ce qui réduit
l’efficacité du système. La diminution de la production qui en résulte
augmente les effets secondaires néfastes de la lutte contre l’inflation au
lieu de les atténuer. Les contrôles des prix et des salaires gaspillent de
la main d’œuvre. Les monétaristes soutiennent donc que le marché est
préférable au contrôle de l’Etat.

L’analyse monétaire de l’inflation est au cœur du système de pensée


monétariste exposé par Friedman. La cause immédiate de l’inflation
est toujours et partout le même : un accroissement anormalement
rapide de la quantité de monnaie par rapport au volume de la
production. Le taux de croissance de la masse monétaire est donc le
15

principal déterminant du taux d’inflation. L’inflation est donc un


phénomène purement monétaire.

La politique monétaire monétariste ne doit pas être soumise aux aléas


de la conjoncture, pas plus qu’elle ne doit dépendre des appréciations
des décideurs. Au contraire l’Etat libéral doit seulement mener une
action stable et stricte qui permettent aux agents économiques
d’ajuster leurs anticipations à l’aide des signaux fournit par le
marché. Dans ce sens, la politique monétaire doit être une action
structurelle et non un réglage conjoncturel. Pour les monétaristes, les
actions fiscales, en l’absence d’actions monétaires d’accompagnement,
ont peu d’influence sur la dépense totale et donc peu d’influence sur
la production et le niveau des prix.

2. Stabilité des fonctions macroéconomiques de


comportement

a. La théorie de la demande de monnaie

La première étape dans la résurgence d’une primauté de la


macroéconomie classique est franchie u cours des années 1950 et
1960. Elle consiste en une intégration de la théorie quantitative de la
monnaie dans le discours macroéconomique, théorie qui avait une des
principales cibles de la révolution keynésienne. C’est en 1956 que
Friedman propose cette réhabilitation (The Quantity Theory of Money,
a Restatement). Elle prend la forme d’une nouvelle théorie de la
demande de monnaie. Il s’agit de démontrer que la demande de
monnaie apparaît au niveau macroéconomique comme une fonction
stable. Cette stabilité, opposée à la volatilité plus grande de l’offre de
monnaie, explique selon Friedman, que les mouvements du niveau
général des prix se fondent essentiellement sur les modifications du
rythme de croissance de la masse monétaire : le message quantitatif
est restauré.

En fait, cette question du rapport entre l’offre de monnaie et les


agrégats macroéconomiques s’intègre dans un débat plus général,
opposant monétaristes et keynésiens, sur la question des variables
explicatives du niveau et des fluctuations du revenu national et de
l’emploi et celle de l’efficacité relative des instruments budgétaire et
monétaire dans leur régulation. La position monétariste consiste à
affirmer la supériorité de l’approche par la quantité de monnaie sur
l’approche keynésienne fondée sur la liaison entre dépenses
autonomes et revenu. Les monétaristes démontrent à partir d’une
étude sur l’histoire monétaire des USA (The Monetary History of United
States, 1963) que le niveau de revenu est essentiellement influencé
par les variations de la masse monétaire et fort peu par celles des
dépenses autonomes. Ils déduisent qu’à court terme, dans un contexte
de rigidités nominales, la politique monétaire est mieux à même, via la
16

relation quantitative, de stabiliser le niveau d’activité économique que


ne peut l’être la politique budgétaire chère aux keynésiens.

b. La théorie du revenu permanent

L’une des questions dont l’apport de Friedman bouleversa l’approche


des économistes est celle de la consommation dont les théories
modernes trouvent leurs bases dans les travaux de Friedman. Keynes
avait posé le principe d’un accroissement de l’épargne en proportion
de celui des revenus, qui n’est confirmé que jusqu’à un certain point :
si les riches ont effectivement un taux d’épargne plus élevé que les
pauvres, le taux d’épargne n’augmente pas à mesure que les pays
s’enrichissent. Friedman a résolu cet apparent paradoxe avec la
théorie dite de l’hypothèse du revenu permanent, énoncée en 1957.

L’inefficacité de la politique budgétaire est par ailleurs affirmée par


Friedman sur la base d’une critique de la fonction de consommation
keynésienne. Pour les keynésiens, il existe une relation stable entre
niveaux courants de revenu et de consommation. La conviction d’une
telle stabilité de la propension marginale à consommer fonde alors,
dans les modèles keynésiens, la conviction de l’existence et de la
stabilité d’un multiplicateur de dépenses, au titre duquel toute hausse
donnée du niveau de dépense autonome (et, particulièrement, de
dépense budgétaire) conduit à une hausse plus que proportionnelle
du niveau de revenu national (et donc de l’emploi). Friedman va
s’attaquer dans un article de 1957 (A Theory of Consumption
Function) à cette conception, d’une critique sur la base des
fondements microéconomiques de la fonction de consommation
keynésienne. Pour lui, un agent rationnel ne peut se contenter de lier
sa consommation courante et son revenu courant. S’il veut maximiser
son utilité (principe de rationalité), il doit s’efforcer de lier son revenu
permanent (c’est-à-dire le niveau actualisé de l’ensemble des revenus
présents et futurs, tels qu’il les anticipe) et son niveau de
consommation permanente. Cela revient à supposer que l’agent
rationnel s’efforce de lisser sa consommation sur l’ensemble de son
cycle de vie (thèse développée par ailleurs par Franco Modigliani, prix
Nobel 1985). En conséquence, la consommation courante n’a plus de
raison de réagir automatiquement et selon une relation stable aux
variations (par exemple à la hausse) du revenu courant. Le
multiplicateur keynésien est donc instable et l’efficacité des politiques
budgétaires incertaine. A partir de la théorie du revenu permanent,
Friedman remet en cause l’efficacité de la politique de relance
budgétaire. Comme les agents économiques consomment uniquement
en fonction de leur revenu permanent, la relance assimilée à un
revenu transitoire influe très peu sur leur consommation.
17

3. La critique monétariste de la courbe de Phillips et la théorie


du taux de chômage naturel

a. La courbe de Phillips

La courbe de Phillips est issue d’une relation statistique entre les taux
de chômage et la variation des salaires nominaux établie par
l’économiste néo-zélandais, Professeur à la London School of
Economis, Alban William Phillips (1914-1975, Unemployement and
Money Wage Rates, 1958). Une fois interprétée, à la suite notamment
de Robert Solow (Prix Nobel 1987) et Paul Samuelson (Nobel 1970),
comme une relation entre chômage et inflation, elle apparaît comme
l’équation manquante qui permet de transformer le keynésianisme
d’une théorie de la dépression en une théorie générale. En particulier la
courbe dite de Phillips apparaît comme fournissant la frontière des
possibilités d’arbitrage entre deux maux considérés comme alternatifs
en période de prospérité, le chômage et l’inflation. Elle servira alors de
guide aux politiques keynésiennes de stop and go (alternance de
politiques de relance destinées à réduire le chômage et de politiques
restrictives destinées à contrôler l’inflation). Par conséquent, cette
relation allait tout aussi rapidement devenir la cible des critiques
libérales : non seulement ; sur le plan normatif, elle constituait le
couronnement des démarches interventionnistes qu’inspirait le
keynésianisme, mais, sur le plan positif, elle reposait sur la mise en
évidence d’une corrélation étroite et stable entre une variable réelle (le
chômage) et une variable nominale (le taux d’inflation), ce qui allait à
l’encontre de l’idée classique (et monétariste), véhiculée en fait par la
théorie quantitative de la monnaie, de l’existence d’une dichotomie
entre sphères réelle et monétaire. Finalement, la courbe de Phillips,
couronnement du keynésianisme de la synthèse, allait très rapidement
s’en révéler la pierre d’achoppement.

b. La critique monétariste : le rôle des anticipations

La critique de la courbe de Phillips est venue en 1968 de Milton


Friedman et elle a engagé un processus de remise en cause de la
théorie keynésienne (noter qu’une autre critique émana presque
simultanément d’Edmund Phelps (1969), qui portait sur les
fondements microéconomiques de la courbe de Phillips. Mais c’est
celle de Friedman qui a eu l’impact le plus important. Phelps a obtenu
le prix Nobel en 2006 pour ses travaux sur les échanges inter
temporels en politique macroéconomique). La critique de Friedman
(The Role of Monetary Policy, 1968) va consister à expliquer le
phénomène décrit par Phillips par des erreurs d’anticipations de la
part des agents économiques qui ne parviennent pas à distinguer une
hausse des prix relatifs (en l’occurrence des salaires réels) d’une
hausse des prix nominaux (des salaires nominaux). Ces erreurs,
conséquence de la politique des autorités qui consiste à recréer en
permanence, à des fins de soutien de l’activité économique, une
18

inflation non anticipée (bruit inflationniste), génèrent une illusion


monétaire qui seule, dans la tradition classique, est effectivement de
nature à rompre la dichotomie réel/monétaire. Le mécanisme est le
suivant : les autorités créent un choc inflationniste (au moyen d’une
hausse ex ante du taux de croissance de la masse monétaire) qui se
répercute dans les prix et, dans une moindre mesure, dans les
salaires (faisant baisser les salaires réels). Les firmes augmentent
donc leur demande de travail. Les salariés eux, ne percevant pas la
hausse des prix en gestation et ne prenant en compte que la hausse
de salaire monétaire, augmentent leur offre de travail. Le niveau de
l’emploi augmente et le taux de chômage baisse. C’est par conséquent
en trompant les agents et en perturbant l’information véhiculée par les
prix (relatifs) que les autorités parviennent à augmenter artificiellement
le niveau d’activité et d’emploi. Mais ce succès ne peut qu’être
éphémère et se dissoudre quand se dissipe l’illusion monétaire.

La politique monétaire est donc inefficace à moyen terme contre le


chômage et elle n’obtient que des réductions temporaires de son taux
au prix d’une inflation croissante. A long terme, le chômage revient
d’un niveau artificiellement bas à son niveau naturel, plus élevé.
L’inflation a explosé : c’est la stagflation, qui exprime l’idée très
classique qu’à long terme il n’y a pas d’arbitrage possible entre
inflation et chômage car l’économie réelle est disjointe de l’économie
nominale et les politiques macroéconomiques de régulation de la
conjoncture sont inefficaces (et même finalement coûteuses).

c. Le taux de chômage naturel et la dichotomie refondée

Le seul objectif pertinent pour les politiques économiques est d’agir


sur le « nominal » en veillant à ce que l’inflation soit la plus faible
possible. Cet objectif doit être celui de la politique monétaire (puisse
que l’inflation, au regard de la théorie quantitative de la monnaie
défendue par Friedman, est causée par une expansion monétaire trop
soutenue). La politique budgétaire est soumise au respect de cet
objectif primordial : elle doit viser à éliminer les déséquilibres
budgétaires, de toute manière inefficace, et qui causent endettement
et, à terme, risque de « choc » inflationniste (en cas de monétisation
finale de la dette : la banque centrale rachète la dette de l’Etat lorsque
celui-ci ne peut plus faire face à ses engagements).

Le chômage, lui, s’établit à son niveau naturel, celui impliqué par les
structures fondamentales du marché du travail (incitations et
comportements d’offre et de demande ; rigidités du fonctionnement
marchand et obstacles à l’ajustement concurrentiel des salaires). Le
taux de chômage naturel est défini comme le taux de chômage qui
découlerait du système de Walras d’équilibre général étant données
les caractéristiques structurelles des différents marchés de biens et
services ainsi que du travail. Le taux de chômage naturel est stable et
unique pour un pays donné et le taux de chômage effectif gravite
19

autour du taux de chômage naturel. Seules les politiques


structurelles microéconomiques sur le marché du travail sont donc à
même de le réduire. Au final, les monétaristes restaurent la
macroéconomie classique dans ses droits.

Phillips est démenti, et cela provient essentiellement des anticipations


adaptatives des agents qui entravent la possibilité de manipuler le
taux de chômage pour faire baisser l’inflation ou à l’inverse d’accepter
une dérive des prix en échange d’une réduction du sous emploi. Le
réglage fin des keynésiens est donc une illusion pour les monétaristes.
L’effet pervers de l’usage de l’inflation pour résorber le chômage est
inévitable. Le retour au taux de chômage naturel est donc une quasi
fatalité que l’on ne peut contourner.

Conclusion

Dans les années 1950-1960, sous l’impulsion de Friedman, se


développe le courant monétariste ou école de Chicago. L’école de
Chicago mène une analyse en s’appuyant sur une nouvelle fonction de
consommation, en développant les concepts de chômage naturel et
d’anticipations adaptatives et en revisitant la théorie quantitative de la
monnaie. Friedman va s’efforcer à montrer que la relance économique
conjoncturelle n’a aucun effet réel à long terme même si elle peut
affecter transitoirement et de manière incertaine l’activité économique.
La critique de Friedman (1968) sur la relation entre emploi, salaire et
inflation a conduit à une restauration de la macroéconomie réelle
classique à travers le retour de sa représentation du marché du
travail. Pratiquement, Friedman a beaucoup influencé les politiques
économiques des années 1970. Sur le plan théorique, une nouvelle
école classique s’est développée dans sa lignée avec notamment Lucas,
Sargent et Wallace et va proposer un monétarisme faisant une place
encore plus radicale de la rationalité des agents économiques.
20

Chapitre 3. La Nouvelle Ecole Classique (NEC)

La nouvelle économie classique est un courant né aux USA dans les


années 1970. Son chef de file est Robert Lucas (Prix Nobel en 1995
pour ses travaux macroéconomiques sur les attentes rationnelles) de
l’Université de Chicago et parmi ses théoriciens les plus influents, on
peut citer Thomas Sargent, Neil Wallace, Edward Prescott (Prix Nobel
en 2004 avec Finn Kydland pour leur contribution en macroéconomie
dynamique) et Robert Barro. La nouvelle économie classique est
généralement datée de la publication par Lucas en 1972 d’un article
démontrant la neutralité de la monnaie vis-à-vis du niveau d’activité
globale, c’est-à-dire l’impossibilité de réduire le chômage par une
politique monétaire, même à court terme. Il s’agit donc d’une
radicalisation de la position de Friedman, obtenue en introduisant
dans le modèle avec chômage naturel et salaire réel, une autre
hypothèse relative aux anticipations : les anticipations rationnelles. La
possibilité d’un arbitrage à court terme entre chômage et inflation
disparait. Possible chez Friedman, en raison de l’existence d’une
composante non anticipée de l’inflation par les salariés, ce trade-off
disparait dès lors que les salariés sont supposés anticiper (quasi)
parfaitement (aux aléas près) l’évolution des prix : le chômage naturel
s’impose, y compris à court terme, et la politique économique ne peut
plus influencer la trajectoire fondamentale de l’économie. Plus rien ne
s’oppose alors à un retour complet d’une conception classique qui
veut que l’emploi soit en dernière instance influencé par le
comportement de l’offreur de travail en fonction du salaire réel : le
chômage est repensé comme un phénomène « volontaire ». Le message
central des économistes de la Nouvelle Ecole Classique est de
démontrer l’incapacité de la politique économique à lutter contre le
chômage. Deux points seront traités dans ce chapitre. Le premier
point traite de l’hypothèse des anticipations rationnelles et de
l’efficacité de la politique économique. Le deuxième point s’intéresse
au renouveau de la macroéconomie classique.

1. Hypothèse d’anticipations rationnelles et efficacité de la


politique économique

a) La rationalité des agents

L’analyse menée par Friedman et les monétaristes, dans leur critique


de la relation de Phillips et des politiques d’arbitrage inflation-
chômage qu’elle inspirait, supposait que les agents étaient dotés
d’anticipations « adaptatives », c’est-à-dire ne se corrigeant qu’avec un
délai fonction de l’écart entre les valeurs anticipées et les valeurs
réalisées des variables. C’est cette hypothèse qui justifiait que les
agents puissent être trompés par les « chocs inflationnistes ». Cette
idée selon laquelle des agents, que la théorie économique suppose
rationnels, puissent être trompés de manière durable, en tous les cas
21

de manière systématique, par les autorités a été critiquée dans les


années 1970 par Robert Lucas, Thomas Sargent et Neil Wallace. Ces
auteurs proposent alors d’étendre le principe de rationalité à la
formation des anticipations et intègrent à leurs modèles le concept
d’anticipations « rationnelles ». Le concept des anticipations
rationnelles trouve son origine dans l’article séminal de John Muth
en 1961, anticipations rationnelles et mouvements de prix, un article
resté pendant 10 ans dans le pénombre et exploité à partir de 1972
par les auteurs de la Nouvelle Economie Classique. L’hypothèse
d’anticipations rationnelles consiste à affirmer que les agents, s’ils
sont rationnels, le sont aussi pour former leurs anticipations. En
l’occurrence, ils ne peuvent se contenter d’un processus d’anticipation
qui les conduit à être systématiquement trompés et, donc, dans une
position systématiquement sous-optimale. La perte d’utilité qui en
résulte devrait les conduire à investir dans l’amélioration de leurs
anticipations en cherchant à rassembler toute l’information pertinente
sur la variable anticipée. A la limite, en négligeant les coûts
d’acquisition de cette information pertinente, l’hypothèse
d’anticipations rationnelles suggère que c’est toute l’information
disponible pertinente que les agents finissent effectivement par
rassembler. Ils ne peuvent dès lors plus être systématiquement
trompés, car l’action même de la politique économique, dès lors qu’elle
n’est pas purement aléatoire, peut être anticipée puisqu’elle fait partie
de l’information existante dans le système économique.

Le grand mérite de l’hypothèse d’anticipations rationnelles, sur le plan


analytique est de renforcer la dimension prospective des
comportements. Sur le plan méthodologique, elle renforce les deux
grands axiomes de la théorie néoclassique : celui de la rationalité
(puisse qu’elle étend l’hypothèse de comportement rationnel à la
formation des anticipations) et celui d’équilibre (elle représente
fondamentalement un concept d’équilibre, en supposant que les
agents utilisent pour former leurs anticipations le vrai modèle de
l’économie, ce modèle dépendant lui-même de la façon dont les agents
forment leurs anticipations.

b) La proposition d’invariance et l’inefficacité de la politique


monétaire

Dès lors que les anticipations des agents sont rationnelles, seuls des
chocs « aléatoires » et donc strictement imprévisibles sont susceptibles
d’avoir des effets réels en faisant dévier l’économie de sa « trajectoire
naturelle » : la trajectoire de l’économie et la valeur des grandeurs
économiques sont celles impliquées par les structures réelles.

Si la banque centrale se donne un objectif de croissance de la masse


monétaire, les agents économiques anticipent rationnellement une
hausse proportionnelle des prix. Les salariés négocient par
conséquent des augmentations de salaires nominaux permettant de
22

maintenir le pouvoir d’achat. Il n’y a donc pas de variation du salaire


réel. En l’absence d’une variation du salaire réel, les firmes
n’augmentent pas l’emploi, ni le volume de l’activité. Plus
généralement, si des agents rationnels connaissent la règle de
politique monétaire suivie par les autorités, tout changement de cette
règle les amène à modifier leurs anticipations de prix, ce qui enlève
toute efficacité à une intervention purement nominale sur l’économie.
La politique monétaire est donc totalement impuissante, et le produit
réel est insensible (invariant) aux impulsions qu’elle veut donner.
C’est la proposition d’invariance (Sargent et Wallace, « Rational
Expectations and the Theory of Economic Policy », 1976) qui
sanctionne l’inefficacité de la politique monétaire, y compris à court
terme, et va très au-delà de ce qu’a jamais prétendu Friedman.

c) Equivalence ricardienne et inefficacité de la politique


budgétaire

De la même manière, si le gouvernement entreprend une relance


budgétaire, les agents économiques anticipent rationnellement une
augmentation future de leurs impôts destinée à rembourser les
emprunts levés pour financer le déficit budgétaire (cette équivalence
entre le montant du déficit d’aujourd’hui et celui de l’augmentation
des impôts de demain avait déjà été soulignée par David Ricardo :
c’est pourquoi l’on parle à son propos d’équivalence ricardienne). Dans
ces conditions, les ménages anticipent une baisse de leurs revenus
disponibles futures, ce qui les conduit à épargner (et non consommer)
le surplus de revenu disponible d’aujourd’hui pour éviter une baisse
future de leur niveau de vie. Le déficit budgétaire n’a donc pas d’effets
keynésiens d’expansion (Roberts Barro, 1976).

2. Un renouveau de la macroéconomie classique

a) Restauration de macroéconomie classique et fermeture de la


parenthèse keynésienne

Les travaux de la nouvelle école classique constituent, sur la base de


l’hypothèse d’anticipations rationnelles, une radicalisation du point de
vue monétariste de qui elle reprend l’analyse de la courbe de Phillips
et la référence au concept de taux de chômage naturel. Pour Lucas et
ses collègues, la recherche des fondements microéconomiques des
équilibres macroéconomiques doit conduire à restaurer intégralement
la macroéconomie classique et à refermer la « parenthèse »
keynésienne en renouant avec le programme de recherche des
théoriciens de l’entre-deux-guerres, au premier rang desquels se
trouve Friedrich Hayek. L’objet n’est donc plus la recherche de la
synthèse avec les intuitions de Keynes ou la volonté de porter au sein
d’une telle synthèse les positions les plus « classiques ».
23

Cette démonstration, sur le plan positif, repose sur une évacuation de


la question de la coordination d’une économie décentralisée, à
laquelle, on substitue celle de l’optimisation intertemporelle d’un
agent représentatif. En effet, le trait le plus fondamental du
programme proposé par Lucas n’est pas le remplacement de
l’hypothèse d’anticipations adaptatives par celle d’anticipations
rationnelles. C’est le choix de raisonner exclusivement en équilibre
pour rendre compte des phénomènes macroéconomiques. Ce choix
revendiqué traduit tout à la fois un acte de foi dans les vertus
équilibrantes du marché et la conviction que la théorie économique
s’est définitivement étable, à l’âge néoclassique, autour du concept
d’équilibre, aucun progrès scientifique ne saurait être qui ne passerait
pas par un approfondissement de ce concept. C’est d’ailleurs la
principale critique adressée par Lucas à Keynes, qui aurait
« abandonné la discipline de l’équilibre », et ainsi fourvoyé la réflexion
macroéconomique.

Le message véhiculé est, sur le plan normatif, clairement libéral : une


économie où on laisse faire les agents est en équilibre permanent. Le
marché du travail, en particulier, y est toujours en équilibre, pour un
taux de chômage (naturel) entièrement volontaire. Le modèle
macroéconomique ne pouvant pas être un modèle reposant sur la
mise en avant d’imperfection du système de marché, le chômage ne
saurait en effet être « involontaire ». Par postulat, le chômage ne peut
être que d’équilibre et volontaire. L’objet n’est donc pas de produire
une théorie du chômage involontaire, mais de rendre compte des
larges fluctuations dans le niveau de l’emploi sur la base d’un modèle
qui postule que le marché du travail est toujours en équilibre, et le
chômage toujours volontaire. La thèse de Lucas est que ces
fluctuations de l’emploi résultent des difficultés des agents à isoler les
chocs réels et les chocs monétaires en présence de chocs
stochastiques.

b) Une théorie des cycles à l’équilibre

L’ambition initiale de Lucas était de renouer, précisément, avec le


projet de Hayek et d’autres économistes libéraux de l’entre-deux-
guerres consistant à rendre compte des fluctuations du niveau de
l’emploi dans une perspective d’équilibre général. Mais le modèle de la
nouvelle économie classique, tel quel, s’est avéré incapable de
reproduire des cycles. En effet, ceux-ci supposent qu’il y a pendant
plusieurs périodes d’affilée des écarts dans le même sens par rapport
à une tendance. Or, dans le modèle de la nouvelle macroéconomie
classique, les agents corrigent rapidement tout écart (aléatoire) à la
tendance. Dans ces conditions, et de manière à rendre compte de
l’existence des cycles, certains auteurs de la nouvelle macroéconomie
classique ont développé des modèles dans lesquels c’est la tendance
« naturelle » elle-même, celle reflétant la structure réelle de l’économie,
qui se déplace, sous l’effet de chocs « réels » persistants. Cette théorie
24

des cycles réels (Kydland et Prescott, 1982) reprend donc l’essentiel du


modèle de la nouvelle macroéconomie classique (choix intertemporel
d’un agent unique, anticipations rationnelles, plein emploi permanent
des ressources disponibles) en ne modifiant que le mécanisme
d’impulsion des mouvements du produit global. Ce faisant, elle écarte
définitivement la monnaie de son modèle et restaure une neutralité
absolue du « secteur monétaire » sur le « secteur réel ». Elle confirme
l’inutilité de toute politique économique et la nécessité de réorienter
l’action de l’Etat vers l’amélioration des seules structures productives
de l’économie.

Conclusion

Les nouveaux économistes classiques considèrent qu’il faut mener


une politique de stabilité à long terme qui assure une cohérence
temporelle et qui soit fondée sur une crédibilité. La politique
monétaire, pour échapper à toutes les manipulations électoralistes,
doit être menée par une banque centrale indépendante. La politique
désinflation de la banque centrale ne risque pas d’être nuisible à la
croissance et à l’emploi, car correctement anticipées les variations de
la quantité de monnaie n’ont aucun effet sur la sphère réelle. Ils
s’opposent donc aux économistes keynésiens qui considèrent que les
politiques monétaires restrictives sont préjudiciables à la croissance,
mais aussi à Friedman qui pense qu’elles sont nécessaires pour
assainir l’économie, mais qu’elles peuvent avoir des effets récessifs à
court terme. La Nouvelle Economie classique s’oppose donc
radicalement à la macroéconomie keynésienne. La monnaie est
neutre, les agents sont parfaitement rationnels, le niveau de
production est déterminé par la confrontation de l’offre et de la
demande sur les marchés, le niveau de l’emploi est déterminé par la
confrontation de l’offre et de la demande de travail sur le marché du
travail, le chômage involontaire est impossible et les politiques
conjoncturelles sont inutiles.
25

Chapitre 4. L’Economie de l’offre

Au début des années 1980, les théoriciens de l’économie de l’offre


connaissent une audience remarquée aux USA. Cette remarquable
percée s’explique en partie par l’échec des politiques de soutien à la
demande. Leurs thèses principales consistent à dénoncer les effets
desincitatifs de l’intervention étatique sur l’offre globale des facteurs
de production et sur la croissance économique. Trois noms sont
principalement associées à cette redécouverte de la loi de Jean
Baptiste Say : Arthur Laffer, George Gilder et Paul Craig Roberts. En
rupture avec les schémas de pensée keynésienne, ces théoriciens de la
Supply-Side Economics mettent l’accent sur le rôle fondamental des
entrepreneurs et de leur activité productive ; ils traitent la demande
globale comme une conséquence de l’offre et non son déclencheur.
Leur théorie donne ainsi des justifications théoriques qu’attendait le
mouvement de révolte anti-impôt, qui, durant les années 1980,
obtient des réductions fiscales dans les pays occidentaux. L’économie
de l’offre est tout simplement l’application de l’analyse
microéconomique (théorie des prix) à l’analyse macroéconomique. Ses
antécédents conceptuels se trouvent dans la pensée des économistes
classiques depuis Adam Smith et Jean Baptiste Say jusqu’à Milton
Friedman et Gary Becker. L’économie de l’offre ne présente aucun
ensemble théorique nouveau ; elle consiste plutôt à appliquer les
méthodes d’analyse néo-classiques à la politique économique de l’Etat.
Trois points sont traités dans ce chapitre. Le premier point présente
les fondements théoriques de l’économie de l’offre. Le deuxième point
résume la pensée de Gilder et le troisième point traite de la pensée de
Laffer.

1. Fondements théoriques de l’économie de l’offre

Tous les économistes de l’offre se retrouvent autour d’un programme


théorique articulé en quatre points essentiels : (i) la primauté du
marché, (ii) la rationalité, (iii) le contrôle des impôts et des dépenses
publiques et (iv) les politiques de distribution de revenu.

Le marché est le système le plus efficace pour allouer les facteurs de


production de façon optimale. La production engendre des revenus qui
sont utilisés pour acheter ce que l’offre a fourni et ces dépenses
suffisent à écouler la totalité de l’offre. On retrouve ici la fameuse loi
des débouchés de J.B. Say qui constitue le postulat majeur de la
macroéconomie classique. Les entreprises et les individus sont
rationnels et ils se comportent constamment de manière à maximiser
leur satisfaction. Les prix relatifs déterminent leurs choix
économiques et l’optimum est atteint par de tels comportements. Les
impôts et les dépenses publiques doivent être contrôlés et les effets
nocifs de l’Etat providence sont généralement sous estimés. Pour les
économistes de l’offre, les taux marginaux d’imposition (qui portent
sur les tranches les plus élevés des revenus) sont trop élevés. Ils
26

modifient les choix spontanés des individus et leur font préférer le


loisir au travail. Cela conduit à augmenter la consommation au
détriment de l’épargne et de l’investissement. La fiscalité n’est donc
pas neutre selon la fameuse courbe de Laffer. Les politiques de
redistribution des revenus ont une efficacité fort limitée et même dans
la plupart des cas, sont contraires aux véritables intérêts des
travailleurs les plus pauvres. Selon Kemp le caractère progressif de la
fiscalité constitue le problème central. Plus on distribue la richesse, plus
on paralyse sa création. Déjà dans la Richesse des Nations, Adam
Smith écrivait que l’impôt peut entraver l’industrie du peuple et le
détourner de s’adonner à d’autres activités du commerce ou du travail
qui fourniraient de l’occupation à beaucoup de monde. Ainsi, tandis que
d’un côté il oblige le peuple à payer, de l’autre il diminue ou peut être
anéantit quelques unes des sources qui pourraient le mettre le plus
aisément dans le cas de le faire… Des impôts lourds, parfois en
diminuant la consommation des biens taxés, parfois en encourageant la
fraude, engendrent souvent des recettes fiscales plus faibles que celles
qui auraient pu être obtenues avec des taux plus modestes.

Les tenants de l’économie de l’offre définissent à partir de là une


nouvelle conception de la politique économique. Ils soutiennent que la
base de la théorie de l’offre dénie à l’action de l’Etat toute possibilité
de modifier des l’abord et de façon directe le revenu réel total de
l’économie. Les économistes de l’offre récusent l’utilisation
systématique du déficit budgétaire et contestent l’efficacité du
multiplicateur keynésien. Ils préconisent une politique économique
simple qui combine une réduction des impôts et une diminution des
règlements et des contraintes qui entravent l’offre. Une caractéristique
fondamentale de la théorie de l’offre est qu’on ne résout rien en
centrant la politique budgétaire sur le contrôle de la demande globale.
Le corollaire est qu’il est inutile de se fixer des objectifs de dépenses
publiques par référence à la contribution que ces dépenses sont
censées apporter au niveau de l’activité économique ni modifier sa
composition en axant un politique sur le total des recettes fiscales.

2. La pensée de Georges Gilder

Gilder a popularisé la théorie de l’offre, se faisant le défenseur de


l’entrepreneur et de la liberté d’entreprise. L’ouvrage Richesse et
pauvreté (a servi selon les medias de livre de chevet au Président
Ronald Reagan au début des années 1980) préconise le retour du
capitalisme le plus pur, c’est-à-dire débarrassé de l’Etat providence
mis en place après la seconde guerre mondiale. Gilder veut comme les
autres néolibéraux, la mort de Keynes.

Pour Gilder, le capitalisme est le meilleur de tous les systèmes


économiques ; il réussit et se développe par la place qu’il accorde à la
créativité héroïque des entrepreneurs. Gilder s’oppose aux idées
redistributives. Il estime que la pensée redistributive est doublement
27

fautive. (i) En effet, la pensée redistributive assimile le capitalisme à


un jeu à somme nulle, ce qui signifie que ce que l’un gagne, l’autre le
perd. Or, tout au contraire, le capitalisme crée un surplus net, c’est
un jeu à somme positive où la coopération des entrepreneurs et des
salariés peut améliorer le sort de tous. Tout le monde peut donc
gagner et mieux vaut créer un surplus que de répartir la pénurie. (ii)
Les politiques de redistribution depuis 1964, loin de résoudre les
problèmes des pauvres ont créé des effets pervers qui se sont
retournés contre ceux qui devaient être protégés. Le sort des pauvres
s’est aggravé malgré les moyens mis en place depuis le rêve de great
society développé par J. F. Kennedy. Pour Gilder, l’Etat providence
crée la pauvreté qu’il prétend réduire. L’assistance sociale nuit aux
pauvres.

Pour Gilder, l’offre est la clé de la richesse et la demande un reflet de


cette richesse. Il faut donc valoriser l’entreprise et particulièrement la
petite entreprise car elles sont plus efficaces pour créer les vraies
richesses et devenir sources de revenus et d’emplois. Faire reculer la
pauvreté, c’est l’affaire du business, non de l’Etat providence,
maladroit et inefficace. La pression fiscale est une oppression de
l’économie. Les impôts trop élevés, les contrôles fiscaux et les
réglementations paralysantes pour les entrepreneurs sont l’ennemi de
l’économie. La fin de la stagflation passe par une modification de la
fiscalité qui encourage l’investissement, l’épargne, la production de
richesse et de travail.

3. La pensée d’Arthur Laffer

Laffer est le théoricien clé de l’économie de l’offre. Certains ont même


affirmé que Laffer a eu plus d’influence sur la scène politique
qu’aucun économiste depuis Keynes dans les années 30. Laffer a
déployé d’importants efforts pour donner des fondements
mathématiques à des notions déjà présentes chez les classiques
libéraux. L’assertion principale de Laffer est que l’alourdissement de la
pression fiscale n’entraine pas une augmentation des recettes de
l’Etat. En effet, une fiscalité trop lourde modifie les prix relatifs des
facteurs (travail et capital) ; elle perturbe dès lors le rythme de
l’activité économique en pénalisant l’offre. L’originalité de la théorie de
Laffer consiste à affirmer que les économies contemporaines sont
probablement situées dans la partie de la courbe fiscale la plus
contraire à l’optimum. Ayant dépassé le niveau d’imposition
raisonnable, les économies occidentales peuvent retrouver la
croissance en freinant les taux d’imposition tout en améliorant les
recettes. Laffer conclut que la matière imposable augmentera très vite
en limitant la charge pesant sur les hommes les plus riches
susceptibles de travailler plus et d’investir. Laffer est particulièrement
connu par la courbe qu’il a développée et mettant en relation le taux
d’imposition et les recettes fiscales générées.
28

La courbe de Laffer met en relation le taux d’imposition et les recettes


fiscales. Le raisonnement est le suivant. Si le taux d’imposition est de
0%, les recettes fiscales sont évidemment nulles, à l’inverse si le taux
d’imposition est de 100%, les agents économiques vont renoncer à
tout travail officiel. Si chaque fois qu’une personne va au bureau elle
reçoit une facture du gouvernement plutôt qu’un cheque de son
employeur, tôt ou tard la personne, même la plus riche et la plus
motivée cessera de se rendre à son bureau.

A l’inverse, on peut imaginer que le taux moyen de 50% correspond à


un niveau au delà duquel il est psychologiquement plus difficile de
travailler car symboliquement, on travaille plus pour l’Etat que pour
soi. Le point A est intéressant. D’une part, il correspond au point
d’imposition pour lequel le rendement est maximum. D’autre part, le
point maximum permet de délimiter deux parties, celle non hachurée
qui est dite de valeurs normales et qui correspond à une zone où
l’augmentation du taux d’imposition rapporte de plus en plus de
recettes fiscales. Par contre, la partie hachurée à valeurs excessives
correspond au contraire à une diminution des recettes lorsque les
taux d’imposition sont renforcés. Les autorités ont donc un choix
entre deux taux d’imposition qui fournissent le même montant de
recettes fiscales. Mais le point X est préférable au point Y. En effet,
l’Etat peut obtenir avec un taux plus faible le montant de recettes de
niveau a en allégeant la charge de ses administrés. Cela permet donc
d’atteindre un même financement public avec une économie à plus
forte croissance et à plus haut niveau d’emploi.

Relation entre fiscalité et travail

Quelles sont les conséquences d’une augmentation des impôts sur


l’offre de travail ? Selon Laffer, l’individu arbitre en permanence entre
le travail et le loisir. Pour ce choix, il a un instrument de mesure, les
coûts relatifs de chacun de ces biens. Une augmentation des impôts
signifie pour le travailleur une baisse de son salaire disponible, donc
une baisse du coût relatif du loisir ; une heure de travail rapporte
moins et le coût du loisir a diminué. Dans ce cas, le contribuable
accroit sa demande de loisir et réduit son offre de travail. C’est l’effet
de substitution : le contribuable substitue du loisir au travail. Mais un
effet revenu joue en sens inverse. En effet, le contribuable doit
travailler plus pour obtenir le même niveau de consommation afin de
payer le surcroit d’impôt sans renoncer aux biens et services qu’il
désire. Pour Laffer, au niveau macroéconomique, les effets revenu
s’annulent et seuls subsistent les effets de substitution (partie
hachurée de la courbe). Ainsi, si la pression fiscale diminue, les
agents économiques augmentent leur offre de travail. Par contre si la
pression fiscale augmente, ils réduisent leur offre de travail. Des lors,
la fiscalité a des effets non négligeables sur l’arbitrage entre travail et
loisir.
29

Fiscalité, consommation et investissement

Le choix entre consommation et épargne est également fortement


influencé par le niveau de la pression fiscale. Des taux d’imposition
élevés risquent de modifier l’arbitrage que fait le ménage entre une
consommation immédiate et l’épargne. Plus l’impôt est élevé, plus le
flux de revenus futurs tirés de l’épargne est faible. Dans ce cas, le
ménage sera incité à consommer plutôt qu’à épargner. Le
raisonnement est simple, épargner c’est toucher des revenus
supplémentaires par le biais de l’intérêt des placements. Aussi, le fisc
va amputer le bénéfice d’un renoncement à la consommation ; cela
aura aussi pour effet de limiter l’offre de capitaux, d’élever le taux de
l’intérêt et ainsi de freiner l’investissement. L’impôt est donc contre
productif.

Conclusion

L’économie de l’offre trouve ses racines dans les travaux des


économistes libéraux comme Smith, Say et Marshall, mais elle est
récente dans son application aux problèmes de politique économique.
Elle fournit un apport majeur aux connaissances des décideurs de la
politique économique en montrant les interactions entre les mesures
prises par l’Etat et la vie économique. Les tenants de cette théorie
arrivent à la conclusion que tout impôt doit être conçu de manière qu’il
fasse sortir du peuple le moins d’argent possible au delà de ce qui entre
dans le Trésor de l’Etat, et en même temps qu’il tienne le moins
longtemps possible cet argent hors des mains du peuple avant d’entrer
dans ce Trésor. Arthur Laffer a été le représentant clé de cette théorie.
Mais l’approche de Laffer est méthodologiquement critiquable. En
effet, Laffer se situe au niveau microéconomique pour conclure sans
précaution sur le plan macroéconomique.
30

Chapitre 5. La Théorie du déséquilibre

L’école du déséquilibre remonte aux années 1930. Ses origines


historiques sont plutôt anglo-saxonnes. Cependant, l’intérêt porté à la
question dite des déséquilibres est relativement plus fort en France.
Des publications abondantes se multiplient depuis 1975. Le mot
déséquilibre est sans doute porté par l’existence bien réelle de
turbulences économiques sur la période concernée. Le renom de ce
courant est tel que les manuels récents des années 1980 se réfèrent
explicitement aux concepts de l’économie du déséquilibre.

Keynes, puis Hicks ont insisté sur l’idée que les ajustements par des
prix flexibles étaient souvent impuissants pour permettre à l’équilibre
de se réaliser sur tous les marchés. Cette question centrale pour la
théorie économique est restée à l’arrière plan de l’analyse économique
tant que le message keynésien a été largement édulcoré. Il a fallu
attendre la fin des années 1930 pour l’économiste A. Leijonhufvud
mette l’accent sur cette perte de sens. Selon lui, le consensus
keyneso-classique connu sous le nom d’économie keynésienne ou
encore néo-keynésienne n’est pas conforme à la véritable économie
impulsée par Keynes lui-même. Des situations de déséquilibres
durables devraient être décrites à l’aide d’un outil conceptuel
véritablement keynésien. L’idée de Leijonhufvud se comprend assez
aisément à l’aide de la notion de myopie de la firme. La contrainte du
débouché perçu est essentielle pour cette firme qui raisonne de façon
microéconomique : la firme perçoit une demande solvable donnée ; elle
ne va pas embaucher de salariés supplémentaires en se disant que les
revenus qu’elle va leur verser viendront accroitre ses débouchés. Le
sous emploi résulte donc de ce que chaque firme n’anticipe pas assez
l’élargissement des débouchés qu’elle va engendrer en réalisant une
transaction travail contre monnaie. En France, tout particulièrement
émerge un véritable courant dit du déséquilibre avec comme chef de
file Edmond Malinvaud. Deux points sont abordés dans le chapitre. Le
premier point rappelle les fondements de la théorie du déséquilibre. Le
deuxième passe en revue les remèdes apportés aux déséquilibres.

1. Fondements de la théorie du déséquilibre

La notion de déséquilibre doit être bien comprise. Il ne s’agit en rien


d’une glissade continue vers la dépression, ni d’une chute fatale dans
le chaos économique. Contrairement à ce que l’on pourrait croire, il
s’agit d’une analyse qui reste statique. On est en présence d’un
équilibre avec rationnement. Le modèle de Barro et Grossman met en
évidence le fait que l’on peut avoir une situation où le chômage
coexiste avec un excès de demande de biens. Ainsi, les files d’attente
et des pénuries sur le marché des biens et services ne signifient
nullement le plein emploi automatique. Il suffit que les firmes jugent
peu profitable l’accroissement de leur échelle de production, ou
qu’elles en soient incapables (faute de maitrise des techniques,
31

d’insuffisance de capitaux ou para absence de personnel qualifié


adéquat pour produire les biens les plus demandés). Il y a alors
déséquilibre entre l’offre et la demande de biens d’une part et
désajustement entre l’offre et la demande de travail. Les déséquilibres
proviennent du fait que les prix ou les signaux de prix sont bloqués ou
rigidifiés. Les prix ne permettent plus d’ajuster les marchés afin
d’éliminer les déséquilibres. L’ambition de l’école du déséquilibre est
d’obtenir une plus grande et de ne pas se contenter d’étudier des
schémas de concurrence pure et parfaite. Il faut étudier toutes les
conséquences aux niveaux microéconomiques et macroéconomiques
de tous les schémas de formation des prix allant de la flexibilité totale
à la rigidité absolue en passant par diverses formes de concurrence
imparfaite.

L’école du déséquilibre étudie d’abord toutes les situations d’équilibre


à prix fixes, c'est-à-dire où les prix sont déterminés de façon exogène
et induisent des offres et des demandes non compatibles, dont
l’ajustement est réalisé par des schémas de rationnement qui
imposent des contraintes sur les transactions réelles des agents. Le
cadre simplifié de référence comprend deux marchés : les biens et
services et le travail avec trois biens : les biens, la monnaie et le
travail et deux groupes d’agents : les entreprises et les ménages qui
sont chargés respectivement de la production et de la consommation.
Dans ce cadre, Malinvaud, reprenant le processus de double décision
de Clower, s’intéresse à deux mondes : le meilleur des mondes et le
monde réel.

Le meilleur des mondes est une situation où les agents peuvent


exprimer des offres et des demandes notionnelles ou potentielles ou
encore virtuelles. Les hypothèses néoclassiques sont alors en vigueur
et affirment que : les entreprises ont une rationalité qui consiste à
strictement maximiser leur profit sous la seule contrainte technique
(la fonction de production) ; les ménages ont une rationalité qui leur
dicte de seulement maximiser leur utilité en respectant quand même
une contrainte incontournable, la contrainte budgétaire. Le monde
réel est une situation où les agents ne peuvent se contenter des offres
et des demandes précédentes. De nouvelles contraintes s’imposent à
eux. Les offres et les demandes sur les différents marchés ne
s’équilibrent plus par le prix ou par les salaires (insuffisamment
flexibles) ; rien n’assure l’équilibre lorsqu’un montant donné de
dépense autonome est injecté dans le circuit économique. Des
situations de rationnement s’instaurent car du fait des contraintes
nouvelles qui s’imposent aux agents économiques les transactions se
font sur des marchés déséquilibrés. Les quantités que l’on peut
réellement acheter ou vendre provoquent des queues, des files
d’attente ou au contraire vont laisser des entrepôts chargés de
marchandises. Cela amène à distinguer les offres et les demandes
effectives ou réelles de celles du meilleur des mondes. Les agents
soumis au rationnement doivent alors réviser leur calcul économique
32

rationnel et abandonner leurs offres ou leurs demandes virtuelles qui


ne seront pas satisfaites. En fait, bien qu’étant prêt à acheter une
certaine quantité supérieure à un prix plus haut, le consommateur
dans ce marché myope achètera une quantité moindre correspondant
au prix réel proposé et tous les agents sont en quelque sorte floués.
Cette théorie prend en quelque sorte le contre-pied total de la théorie
des anticipations rationnelles qui suppose des agents économiques
omniscients.

2. Solutions aux déséquilibres

Le schéma de Malinvaud permet de classer les diverses situations de


déséquilibres possibles. On obtient plusieurs régimes de déséquilibres
tels que le chômage keynésien, le chômage classique et l’inflation
contenue. Il faut donc agir selon les régimes de déséquilibres.

En cas de chômage keynésien, il y a excès d’offre sur le marché des


biens du fait soit d’une demande insuffisante, soit d’un rationnement
des entreprises vendeuses. De plus, le marché du travail est marqué
par un excès d’offre de travail par les salariés qui se trouvent face à
des entreprises qui n’estiment pas avoir le pouvoir d’achat suffisant
pour recruter et mettre en place de nouvelles capacités de production.
Les ménages salariés sont alors rationnés par le entreprises-
employeurs. Le poids des déséquilibres est donc supporté à la fois par
les firmes (qui n’ont pas assez de débouchés) et par les ménages (qui
n’ont pas asses de travail). Une augmentation des dépenses publiques
ou une diminution des taxes réduiront le chômage et augmenteront
même la consommation privée.

En cas de chômage classique, l’excès de demande sur le marché des


biens correspond à une offre insuffisante qui rationne les ménages ;
mais, malgré un tel marché potentiel, les firmes n’emploient pas assez
de salariés car elles ne jugent pas rentables de satisfaire la demande
ou qu’elles n’ont pas assez d’épargne pour investir et créer les postes
de travail adaptés à la structure de la demande. Ainsi cette demande
de biens excédentaire coïncide paradoxalement avec un excès d’offre
de la part des demandeurs d’emploi. Les ménages salariés sont
rationnés doublement et subissent les contraintes sur l’ensemble des
marchés. Dans ce cas, le niveau de l’emploi dépend uniquement du
salaire réel qui détermine le volume de production rentable pour les
entreprises. Seule une réduction de ce salaire réel peut amener une
amélioration de l’emploi.

L’inflation contenue est caractérisée par un excès général de


demande. Il y a trop de biens demandés pour une offre insuffisante.
Cela se manifeste par des files d’attente, des pénuries et les
consommateurs salariés sont rationnés. Il y a aussi trop de travail
demandé par les entreprises qui souhaitent embaucher. Dans ce cas
aussi, le fardeau des déséquilibres pèse sur l’ensemble des agents.
33

Dans ce cas, une politique de contrôle de prix ou des salaires peut


être négociée ou administrée et ainsi fournir un remède à l’inflation.
Mais l’insuffisance de la force de travail constitue un goulot
d’étranglement qu’il faut résorber. Pour éviter une flambée des
salaires en cas de relance, il est possible d’augmenter l’immigration ou
le taux de participation des inactifs.

Christian Boissieu a synthétisé les deux rôles complémentaires de la


politique économiques selon les théoriciens du déséquilibre. La
Politique économique doit accumuler l’information et la transmettre
aux unités décentralisées afin de réaliser le plein emploi. Par exemple,
la politique économique fait comprendre aux producteurs pris
globalement que leur surproduction est la contrepartie de l’excès
d’offre de travail et qu’en embauchant ils augmentent leurs
débouchés. En faisant connaitre à chaque catégorie d’échangistes
(salariés ou producteurs) la portion non satisfaite des plans de l’autre
catégorie, la politique économique exerce un rôle plus étendu que
celui du commissaire priseur de Walras.

La politique économique peut directement déplacer voire supprimer


les contraintes exorbitantes. Puisque l’Etat, grâce à la fiscalité et aux
avances de la banque centrale, est soumis à des contraintes de revenu
et de liquidité plus flexibles que celles des agents privés, il a les
moyens de renforcer une demande effective

Conclusion
Les théoriciens du déséquilibre pensent que le chômage de masse
correspond généralement à une situation où se mêlent deux
mécanismes fondamentaux : le chômage keynésien et le chômage
classique.
Le chômage keynésien est fort dans les pays où un manque de
compétitivité des exportations limite l’autonomie de la politique
économique intérieure et oblige à ralentir l’activité économique. Le
chômage classique se combine avec le précédent du fait d’un mauvais
partage entre salaires et profits qui lamine la profitabilité. Ainsi les
capacités de production sont insuffisantes pour donner de l’emploi à
tous. Il se crée un alanguissement de l’appareil productif qui vieillit, et
les postes de travail sont laminées car les secteurs anciens déclinent
et les nouveaux emplois nécessitent équipements, formation,
recherche et développement. Le remède au chômage proposé par les
théoriciens du déséquilibre est multidimensionnel. Il faut lutter contre
la peste du sous emploi par de multiples fronts : une répartition des
revenus flexibles peut faire ajuster les salaires à la baisse et non
l’emploi. La compétitivité de l’offre doit être stimulée (politique active
de formation et de recherche-développement), enfin l’investissement
matériel et immatériel doit être favorisé par rapport aux placements
(crédit moins cher, baisse des taux d’intérêt, aide fiscale à l’achat de
bien d’équipements…).
34

Chapitre 6. La Nouvelle Economie Keynésienne

La nouvelle économie keynésienne est née dans les années 1980 en


réaction à la nouvelle économie classique. Pour les nouveaux
économistes keynésiens, les individus sont rationnels, mais des
déséquilibres existent et se propagent car les marchés ne peuvent
s’autoréguler, essentiellement du fait de la viscosité (rigidité) des prix
et des salaires. La nouvelle économie keynésienne n’est pas un
courant de pensée unifié, mais ses principaux animateurs (Georges
Akerlof, Gregory Mankiw, Bruce Greenwald, Janet Yellen, Edmund
Phelps…) s’accordent sur deux points fondamentaux : (i) la monnaie
n’est pas neutre et (ii) les imperfections des marchés expliquent les
fluctuations (les nouveaux classiques pensent au contraire que le
cycle est un cycle d’équilibre). La parenté avec Keynes est souvent
lointaine, car ces économistes s’opposent à des interventions trop
rigoureuses de l’Etat, parce qu’ils ne considèrent pas que les salariés
sont victimes de l’illusion monétaire et parce qu’ils ne fondent pas leur
théorie sur le principe de la demande effective. En revanche, ils
considèrent, comme Keynes, que le chômage involontaire existe et que
les forces du marché n’assurent ni l’équilibre, ni l’optimum.

Le programme de recherche des nouveaux keynésiens découle de deux


préoccupations, qui s’expliquent à la fois par la victoire des nouveaux
classiques et par l’échec des néo-keynésiens. Ils rejettent l’hypothèse
d’ajustements instantanés de prix adoptée par les premiers, pour
insister sur les rigidités de prix provoquées par les imperfections des
marchés. Cette insistance a son revers : l’accent n’est plus mis sur
l’interdépendance entre les marchés, mais sur les effets de la
concurrence imparfaite sur des marchés étudiés en équilibre partiel
(principalement ceux du travail, du crédit et des biens). C’est là aussi
une différence avec les néo-keynésiens qui se double d’une autre : ils
veulent endogeneiser les rigidités (qui rendent les prix visqueux et non
plus fixes) d’une façon cohérente avec les comportements
microéconomiques des agents (y compris pour certains, avec
l’hypothèse d’anticipations rationnelles). Il y a aussi dans ce
programme un souci de renouer avec le keynésianisme standard, y
compris une rénovation du modèle IS-LM. Cette volonté de
réhabilitation est manifeste dans le choix de l’appellation nouvelle
économie keynésienne et dans le principal résultat revendiqué : dans
des conditions suffisamment générales, une politique monétaire peut
avoir un effet sur les fluctuations de l’activité économique globale.
Deux points sont traités dans ce chapitre. Le premier point abord la
question de la rigidité des prix. Le deuxième point traite de la rigidité
du salaire et de la possibilité du chômage involontaire.
35

1. la rigidité des prix

De nombreux modèles de la nouvelle économie keynésienne


présentent la rigidité des prix comme l’explication de la non neutralité
de la monnaie et du non ajustement continu des marchés. Pour les
nouveaux économistes keynésiens, tous les marchés fonctionnent
imparfaitement. Les entreprises évoluent dans un contexte de
concurrence imparfaite ; elles sont donc plus souvent des price
makers que des price takers. De plus, elles ne réagissent pas
spontanément, par une variation de leurs prix, à des modifications de
la demande ou de la fonction d’offre. Dans un marché de concurrence
pure et parfaite, chaque entreprise est sûre de pouvoir vendre la
totalité de sa production au prix du marché. Si elle opte pour un prix
plus élevé, elle ne vend rien, et il serait illogique de vendre a un prix
plus bas que celui du marché puisque à ce prix elle peut écouler la
totalité de sa production. Dans ce cadre, les entreprises sont des price
takers qui vendent leurs produits au prix du marché. Au contraire
dans une situation de concurrence imparfaite, lorsque la demande
diminue, le maintien du prix antérieur n’entraine pas la chute
complète des ventes et donc du profit. La réduction du profit n’est que
de second ordre ; s’il existe des coûts de changement de prix, appelés
généralement coûts d’étiquettes (impression de nouveaux catalogues,
renégociation de contrats…), l’entreprise peut préférer maintenir les
prix antérieurs. Cette rigidité des prix joue aussi bien à la hausse qu’à
la baisse. L’entreprise en situation de concurrence imparfaite ne sera
donc amenée à modifier ses prix que lorsque le manque à gagner sera
supérieur au coût de modification du prix. Modéré au niveau
microéconomique, l’impact de cette viscosité des prix peut être
important au niveau macroéconomique et contribuer au déséquilibre
des marchés.

Certains nouveaux économistes keynésiens rappellent que chaque


entreprise de taille appréciable est liée à des centaines d’autres
entreprises (clients et fournisseurs), dont certaines sont situées à
l’étranger, avec lesquelles elle effectue des transactions concernant
des centaines de produits (les biens intermédiaires par exemple). Dans
ce cadre, les coûts de transaction son considérables et contribuent à
la rigidité des prix. D’autre part, en raison de cette interdépendance,
les entreprises ont tendance à attendre les réactions de leurs
partenaires avant de modifier leurs prix. Ainsi, une baisse de prix
pour répondre à un choc de demande peut se révéler très dangereuse
si les entreprises fournisseurs ne baissent pas elles-mêmes leurs
prix. Par manque de coordination, chaque entreprise a tendance à
attendre le dernier moment pour modifier son prix ; l’agrégation de ces
différents comportements microéconomiques provoque des rigidités
macroéconomiques importantes.

Sur de nombreux marchés, on constate des asymétries d’information


qui provoquent des phénomènes d’anti sélection, faisant fuir les
36

agents à faible risque. Cette anti sélection empêche l’équilibre des


marchés et peut avoir des conséquences macroéconomiques
redoutables : Stiglitz et Weiss ont montré comment une information
asymétrique sur le marché de crédit peut provoquer un rationnement
de crédit, ce qui limite forcement le niveau de l’activité économique et
donc le niveau de l’emploi.

Certains marchés sont des marchés de clientèle. Il s’agit de marchés


sur lesquels les achats sont répétitifs. C’est par exemple le cas des
achats de biens alimentaires. Les offreurs sont en concurrence, mais
les consommateurs sont habitués à leur fournisseur. Toute
augmentation de prix incite les clients à comparer avec les
concurrents, et toute diminution des prix n’attire que lentement les
clients fideles à d’autres fournisseurs. On comprend donc que sur ces
marchés de clientèle, les prix ne s’ajustent que très lentement. Pour
d’autres raisons, les prix ne s’ajustent pas parfaitement et les
marchés peuvent être durablement en déséquilibre.

La monnaie n’est pas neutre. En effet, en raison de leurs rigidités, les


prix n’absorbent pas immédiatement les variations de la quantité de
monnaie. Lorsque les prix sont rigides, une augmentation de la
quantité de monnaie permet d’augmenter la demande et une
diminution de la quantité de monnaie contribue à la récession.

2. La rigidité des salaires et le chômage involontaire

Selon les nouveaux économistes classiques, le niveau de l’emploi est


fixé sur le marché du travail ; celui-ci comme tous les autres marchés,
s’ajuste spontanément, les salaires sont parfaitement flexibles et le
chômage est nécessairement volontaire. Les nouveaux économistes
keynésiens considèrent comme les économistes classiques, que le
niveau de l’emploi est déterminé sur le marché du travail. Mais en
revanche ils affirment que cela n’exclut pas le chômage involontaire
car des rigidités salariales nuisent à l’ajustement du marché et parce
que les entreprises peuvent avoir intérêt à rémunérer leurs salariés au
delà du salaire d’équilibre.

Les salaires ne sont pas négociés au jour le jour en fonction du


marché, mais ils le sont pour une période déterminée. Ainsi, des
contrats de travail signés pour un certain laps de temps créent des
rigidités importantes. Ce point met en cause la théorie de Lucas qui
considère que tous les prix y compris celui du travail, peuvent être
instantanément modifiés. Même si les anticipations sont rationnelles
et que les individus, en cas de hausse de prix, souhaitent des
augmentations de salaires nominaux, ils n’ont souvent pas la
possibilité de les exiger. De même, un excédent de la demande de
travail par rapport à l’offre de travail n’induit pas automatiquement
une hausse du salaire réel. L’existence de contrat de travail nuit donc
à l’ajustement des marchés.
37

De nombreux modèles expliquent pourquoi les agents économiques


peuvent s’entendre sur des salaires différents du salaire d’équilibre,
tout en étant parfaitement rationnels. Ainsi, la théorie des contrats
implicites explique que les salariés attendent de l’entreprise qu’elle
joue un rôle d’assurance et ils acceptent des salaires inférieurs au
salaire d’équilibre en échange de la garantie d’une stabilité de celui-ci.

Les théories du salaire d’efficience montrent que l’entreprise peut


avoir intérêt à offrir des salaires plus élevés que ceux du marché afin
(i) de diminuer le turn over, (ii) de modifier les salariés qui, par
reconnaissance envers l’entreprise sont plus productifs, (iii) que les
salariés hésitent à tirer au flanc par peur de perdre un salaire élevé en
cas de licenciement, (iv) d’attirer les salariés les plus qualifiés.
D’un côté, la théorie insiders/outsiders affirme que les salariés en
place dans l’entreprise, connaissant les coûts du turn over, peuvent
exiger des salaires plus élevés que ceux du marché.

Toutes ces théories infirment l’hypothèse de l’ajustement continu des


marchés et montrent que le marché du travail peut être en
déséquilibre et donc que le chômage peut être involontaire. La
nouvelle macroéconomie keynésienne s’accorde avec la nouvelle
macroéconomie classique pour affirmer que le niveau de l’emploi
déterminé par le marché et avec la macroéconomie keynésienne
traditionnelle pour reconnaitre la possibilité du chômage involontaire.
Les nouveaux économistes keynésiens considèrent que les
interventions de l’Etat sont nécessaires, mais ils craignent les
interventions trop fréquentes ou trop lourdes comme les déficits
budgétaires importants préconisés par certains keynésiens. Même s’ils
pensent que le chômage n’est pas volontaire, ils s’accordent avec les
monétaristes et les nouveaux classiques pour préconiser une
flexibilisation du marché et flexibilisation des rémunérations qui
permettraient de baisser la barre du chômage naturel.

Conclusion

La nouvelle macroéconomie keynésienne est donc par certains aspects


plus proche de la nouvelle macroéconomie classique et par certains
autres proche de la macroéconomie keynésienne traditionnelle.
Comme Keynes et contrairement aux nouveaux classiques, elle
considère que la monnaie n’est pas neutre. Contrairement à Keynes et
comme la nouvelle économie classique, elle considère que le niveau de
la production est déterminé par la confrontation de l’offre et de la
demande sur les marchés. Contrairement à Keynes et comme la
nouvelle économie classique, elle considère que le niveau de l’emploi
est déterminé par la confrontation de l’offre et de la demande de
travail sur le marché de travail. Comme Keynes et contrairement aux
nouveaux classiques, elle considère que le chômage involontaire est
38

possible. Elle s’oppose moins systématiquement aux politiques


conjoncturelles que la nouvelle macroéconomie classique, mais ne les
préconise pas autant que la macroéconomie keynésienne
traditionnelle.

La macroéconomie est profondément renouvelée depuis les années


1980. On peut même se demander si les conceptions de Milton
Friedman ne sont pas plus proches de celles des nouveaux keynésiens
que celles des nouveaux classiques de l’école du cycle réel. Et par de
nombreux points (chômage naturel, réticence vis-à-vis des
interventions de l’Etat, rationalité des agents économiques), les
nouveaux économistes keynésiens sont plus voisins de Friedman que
de Keynes. L’unité de la macroéconomie a disparu. Les conceptions
macroéconomiques sont maintenant très diverses.

Vous aimerez peut-être aussi