Académique Documents
Professionnel Documents
Culture Documents
Page de Titre
Table des Matières
Page de Copyright
– COLLECTION CURSUS • ÉCONOMIE –
Avant-propos
Conclusion
Bibliographie
© Armand Colin, 2009 pour la présente édition
978-2-200-24659-4
– COLLECTION CURSUS •
ÉCONOMIE –
Le présent ouvrage est une reprise totalement remaniée et
approfondie de l’Introduction à l’analyse économique parue
pour la première édition en 1989 dans la collection Cursus
dirigée alors par Bernard Simler.
Du même auteur :
Il a publié, seul ou en collaboration, une trentaine
d’ouvrages, dont Comprendre l’économie mondiale (coéd.
Le Seuil-Ouvrières, en collaboration avec J-M. Albertini,
1981), Comprendre les théories économiques (Le Seuil,
coll. Point, en collaboration avec J-M. Albertini, 3e éd.,
2001), Lexique économie (collectif, codirection J-M.
Albertini, Dalloz, 10e édition, 2008), Lexique de gestion et
management (collectif, codirection de A. Ch. Martinet,
Dunod, 8e éd., 2009), Histoire de l’analyse économique
(Hachette, 4e éd., 2005), Dictionnaire encyclopédique des
sciences de l’information et de la communication (collectif,
codirection de B. Lamizet, Ellipses, 1997), Information des
salariés et stratégies de communication (avec la
collaboration de Gérard Martinez, Éditions d’Organisation,
1983).
Bases méthodologiques
et problèmes fondamentaux
5e édition
Conception de couverture : Dominique Chapon et Emma
Drieu
www.armand-colin.com
Quintaux de
Tonnes de viande Points de la figure
maïs
Fig. 1.3
. Courbe des possibilités de production
du coût croissant signifie que les premières unités de
facteurs utilisées sont plus efficientes – elles permettent
d’obtenir plus de produit par unité de facteur – que les
suivantes (voir plus loin la loi des rendements décroissants).
Notons que, si les facteurs de production étaient homogènes
(ce que peut faire Pierre est identique à ce que peut faire
Paul travaillant dans les mêmes conditions), la courbe des
possibilités de production serait linéaire.
La courbe des possibilités de production est le lieu de
tous les points efficaces. On dit qu’une situation est
efficiente au sens de Pareto ou optimale au sens de Pareto,
lorsque toute amélioration pour l’un des éléments du
système s’accompagne de la détérioration pour au moins un
autre. Sur la courbe, on voit que pour produire plus de maïs
en étant en A, il faut accepter une diminution de la
production de viande par le passage de la combinaison A à
celle de D. En revanche, le point C n’est pas un point
efficace. En ce point, soit tous les moyens de production ne
sont pas employés, soit ils sont utilisés de manière
inefficiente, i.e. que la situation est celle du gaspillage. Le
cheminement efficient, à partir du point C, est celui qui
permet d’augmenter la production de l’un des biens sans
réduire celle de l’autre. À partir de C, l’ensemble des
cheminements efficients arrivent sur l’arc AB. Les points
éventuels situés au-delà de la surface des possibilités de
production, comprise entre la courbe et les axes, sont
inaccessibles sans une augmentation des moyens de
production. C’est le cas pour la combinaison correspondant
au point M.
On signalera que l’efficience n’est pas synonyme
d’optimum. En effet, la courbe des possibilités de
production n’indique pas la meilleure combinaison de
produits. Pour pouvoir parler d’optimum, il est nécessaire
de connaître les préférences de l’agent ou encore les
diverses combinaisons qui lui procurent la même
satisfaction ou le même profit. L’optimum serait alors la
combinaison efficace qui procurerait la satisfaction la plus
élevée ou le profit le plus élevé.
Cet exemple peut être généralisé à toute situation de
choix. Par exemple, on remplacera l’exploitant agricole par
la collectivité confrontée au choix entre l’éducation et le
développement des autoroutes, ou au choix entre les biens
d’équipement et les biens de consommation. Les axes
peuvent encore représenter le niveau de la production
manufacturière, d’une part, et l’indice de la dépollution de
l’air, d’autre part, etc.
La conception de « l’économie comme science des choix
» conduit à n’exclure aucun acte humain de la sphère
économique, et il existe déjà une économie politique du
crime, une économie politique de la religion, une économie
politique de la famille, etc. Dans chaque domaine, l’agent
est un calculateur : il n’y a plus de comportements affectifs,
il n’existe que des comportements calculés. La pratique
religieuse, par exemple, revient à confronter ce que l’on
gagne par cette pratique à l’argent que l’on perd en allant au
lieu du culte plutôt que de travailler ou de préparer ses
dossiers. Avec ces différents exemples, la science
économique est assimilée à la praxéologie (L. von Mises),
i.e. à la science de l’action humaine.
1.4. L’approche systémique : l’interaction entre l’homme et
son environnement institutionnalisé
La définition de l’économie comme sciences des
comportements calculés ou sciences des choix peut susciter
des critiques qui dénonceraient soit la dilution de la
spécificité de l’économie, soit la non-prise en compte des
institutions et des rapports sociaux. Cette conception
reviendrait, via le modèle de l’Homo œconomicus, à une
robinsonnade, i.e. à raisonner sur une économie pour un
individu seul, un individu sans histoire, sans âge, sans sexe,
sans religion, coupé de tout contact avec d’autres hommes.
– Pour les économistes qui étudient les sociétés anciennes
et les systèmes économiques – les historicistes – et pour les
anthropologues économistes tels que Karl Polanyi28, la
définition formaliste par les choix n’est acceptable que dans
le cadre des économies de marché, i.e. dans les sociétés qui
ont institué et généralisé un rapport marchand
interindividuel pour tous les actes. Pour les économies
anciennes ou primitives, le domaine économique est plus
limité. K. Polanyi propose alors une définition systémique
et substantive de l’acte économique qu’il considère comme
un « processus institutionnalisé d’interaction entre l’homme
et son environnement qui engendre un approvisionnement
continu en moyens matériels de satisfaction des besoins »
(dans Commerce et marché dans les empires anciens).
– Le processus institutionnalisé d’appropriation de la
nature constitue pour les économistes marxistes le mode de
production ou système économique. Celui-ci se caractérise
par le niveau de développement des forces productives et
par la nature des rapports sociaux de production. Il s’ensuit
que l’économie politique est la science des lois du
développement des rapports des hommes entre eux dans la
production sociale, i.e. des rapports sociaux de production
(Dictionnaire économique et social, Éditions sociales).
Cette conception marxiste revient à dire que l’économie est
une science sociale dont les lois sont relatives à une phase
historique donnée, caractérisée par des rapports de
production déterminés. À ce titre, on ne peut pas envisager
une science véritable pour un homme isolé confronté
uniquement à la nature. La robinsonnade29 de l’Homo
œconomicus, manque de réalisme pour avoir un minimum
de pertinence pour l’analyse des comportements sociaux.
Pour K. Marx, en effet, « en produisant, les hommes ne sont
pas seulement en rapport avec la nature. Ils ne produisent
que s’ils collaborent d’une certaine façon et font échange de
leurs activités. Pour produire, ils établissent entre eux des
liens et des rapports bien déterminés : leur contact avec la
nature, autrement dit la production, s’effectue uniquement
dans le cadre de ces liens et de ces rapports sociaux » (K.
Marx, « Travail salarié et capital », 1849, in : Œuvres,
tome I, p. 212, La Pléiade, 1965).
La référence aux rapports sociaux de production explique
la relativité historique des lois économiques, car ces
rapports « changent et se transforment avec l’évolution et le
développement des moyens matériels de production, des
forces productives » (ibidem). Aussi est-il incorrect de
définir par exemple le capital comme l’ensemble des
éléments créés par le travail en vue de produire d’autres
biens. Le capital n’existe pas en soi. Il n’a de sens que dans
la société capitaliste. De la même manière, tel homme n’est
un esclave que dans une société esclavagiste.
1.5. Une tentative de synthèse
La définition marxiste de l’économie politique et les
définitions proposées dans l’encadré ci-après font certes
apparaître des conceptions différentes, mais, en lisant
attentivement les travaux des économistes, on est conduit à
accorder moins d’importance à ces fractures. Par exemple,
Aristote, si souvent cité, n’a nullement ignoré le problème
des choix ni l’importance des institutions et de la répartition
des tâches dans une société esclavagiste. Autrement dit,
l’objet de l’économie n’a pas fondamentalement varié au
cours des siècles. Henri Bartoli écrit que l’on choisit l’angle
de vision mais non le contenu de l’analyse économique
(Science économique et travail, p. 106, Armand Colin,
1957). Il précise que « la science économique, science des
rapports humains nés du travail, récupère alors tout l’effort
des écoles qui l’ont précédée… Elle ne dépasse pas la
science économique “traditionnelle” ou la science
économique marxiste, elle ne réalise pas une synthèse
mensongère de leurs antagonismes, elle les assume toutes
deux » (op. cit., p. 114).
Le contenu commun peut alors être approché par la
définition de synthèse que propose Edmond Malinvaud : «
L’économie est la science qui étudie comment des
ressources rares sont employées pour la satisfaction des
besoins des hommes vivant en société ; elle s’intéresse,
d’une part, aux opérations essentielles que sont la
production, la distribution et la consommation des biens,
d’autre part, aux institutions et aux activités ayant pour
objet de faciliter ces opérations » (Leçons de théorie
microéconomique, p. 1, Dunod, 1986). Une telle définition
est une synthèse, parce qu’elle aborde tous les éléments
discutés : la rareté des ressources, la satisfaction des
besoins, les actes économiques fondamentaux, bien que la
répartition des revenus ne soit pas explicitée. Elle s’éloigne
en outre des robinsonnades de la théorie des choix pour
tenir compte de la société, des institutions et des faits.
Quelques définitions de la science économique
« La science économique est la science d’acquérir des
richesses, [c’est-à-dire] un trésor de ressources nécessaires
ou utiles à la vie dans toute association civile ou
domestique. » Aristote, La Politique, chap. 3.
« La science des richesses [la chrématistique] traite du
superflu […], la science économique ne s’occupe que de la
subsistance ; elle n’est pas, comme l’autre, sans limites,
mais elle a des bornes. » Aristote, op. cit.
« L’économie politique, considérée comme une branche
des connaissances des législateurs et de l’homme d’État, se
propose deux objets distincts : le premier, de procurer au
peuple un revenu ou une subsistance abondante, ou, pour
mieux dire, de le mettre en état de se procurer lui-même ce
revenu ou cette subsistance abondante ; le second, de
fournir à l’État ou à la communauté un revenu suffisant
pour le service public : elle se propose d’enrichir à la fois le
peuple et le souverain ! » Adam Smith, Recherche sur la
nature et les causes de la richesse des nations, p. 233, Paris,
Gallimard, 1976.
« L’économie politique enseigne comme se forment, se
distribuent et se consomment les richesses qui satisfont aux
besoins des sociétés. » J.-B. Say, Traité d’économie
politique
« Le bien-être physique de l’homme, autant qu’il peut
être l’ouvrage de son gouvernement, est l’objet de
l’économie politique. » J.C.L. Sismonde de Sismondi,
Nouveaux principes d’économie politique, p. 64, Paris,
Calmann-Lévy, 1971.
« L’économie politique ou économique est une étude de
l’humanité dans les affaires ordinaires de la vie ; elle
examine la partie de la vie individuelle et sociale qui a le
plus particulièrement trait à l’acquisition et à l’usage des
choses matérielles, nécessaires au bien-être. Elle est donc,
d’un côté, une étude de la richesse, de l’autre, et c’est le
plus important, elle est une partie de l’étude de l’homme. »
Alfred Marshall, Principes d’économie politique, tome I, p.
1, Giard, 1970.
« L’économie politique, ou encore l’économie sociale, est
la science des lois sociales régissant la production et la
distribution des moyens matériels servant à satisfaire les
besoins humains. » Oscar Lange, Économie politique, p. 1,
Paris, PUF, 1962.
« L’économique, à parler scientifiquement, est une
science très restreinte. C’est une sorte de mathématique, qui
calcule l’effet et la cause de l’industrie humaine et indique
comment elle peut être mieux appliquée. » William Stanley
Jevons, qui rappelait que l’économique a eu diverses
appellations à usage rare : ploutologie (i.e. sciences des
richesses), chrématistique (sciences des richesses),
catallactique (science de l’échange), The Theory of Political
Economy, préface à la 2e éd., page XIV, 1879.
« L’économie est la science qui étudie le comportement
humain en tant que relations entre des fins et des moyens
rares à usages alternatifs. » Lionel Robbins, Essai sur la
nature et la signification de la science économique, Paris,
Librairie Médicis, 1947.
« Les problèmes économiques ou catallactiques [sciences
de l’échange] sont enracinés dans une science plus générale
et ne peuvent plus, désormais, être coupés de cette
connexité. Nulle étude de problèmes proprement
économiques ne peut se dispenser de partir d’actes de
choix ; l’économie devient une partie – encore que la mieux
élaborée jusqu’à présent – d’une science plus universelle, la
praxéologie. » Ludwig von Mises, « L’action humaine »,
Traité d’économie, p. 4, Paris, PUF, 1985.
L’économique « recherche comment les hommes
décident, en faisant ou non usage de la monnaie, d’affecter
des ressources productives rares à la production, à travers le
temps, de marchandises et services variés, et de répartir
ceux-ci à des fins de consommations présentes et futures
entre les différents individus et ces collectivités constituant
la société ». Paul A. Samuelson, L’Économique, tome I,
Paris, Armand Colin, 1972.
2. Les méthodes de l’économie politique ou la question
de sa scientificité
Examiner les méthodes de l’économie politique, c’est
s’engager sur le terrain de la discussion de la scientificité de
la discipline. Joseph Aloys Schumpeter (1883-1951) dans
son Histoire de l’analyse économique définit « la science
comme de la connaissance outillée ». La méthodologie
économique consiste alors à décrire la nature du travail en
économie, en présentant les méthodes ou outils (techniques,
concepts), pour ensuite discuter les limites de la science
économique. L’abstraction et la généralisation ou
universalisme aussi bien comme point de départ dans la
démarche déductive, ou comme résultat de la démarche
inductive, la simplification et la modélisation en établissant
des relations cohérentes (validité interne) et explicatives
(validité externe) entre les faits constituent les points
saillants de la méthode scientifique.
2.1. La nécessité de l’abstraction
Il faut répéter encore après J.A. Schumpeter que : « Les
événements sociaux constituent un tout. Ils forment un
grand courant d’où la main ordonnatrice du chercheur
extrait, de vive force, des faits économiques. Analyser un
fait économique, c’est déjà une abstraction, la première des
nombreuses abstractions que les nécessités techniques
imposent à notre pensée » (Théorie de l’évolution
économique, p. 1, Dalloz, 1983).
L’autonomisation par la raison d’un fait économique pour
l’étudier n’empêche cependant pas l’économiste
d’emprunter aux autres disciplines les éléments qu’il juge
indispensables à la compréhension du phénomène. Tous les
grands noms de la discipline sont unanimes sur ce point. Par
exemple, on lit chez John Stuart Mill30 :
« Une personne ne sera vraisemblablement pas un bon
économiste si elle n’est pas autre chose. Comme les
phénomènes sociaux agissent et réagissent les uns sur les
autres, ils ne peuvent pas être bien compris isolément »
(Principes d’économie politique, 1848).
John Maynard Keynes31 exprime la même idée :
« Un bon économiste doit être un tant soit peu
mathématicien, historien, homme d’État, philosophe […]. Il
doit comprendre les symboles, mais s’exprimer en mots. Il
doit envisager le particulier dans une optique de généralités
et passer de l’abstrait au concret dans un même souffle. Il
doit étudier le présent, à la lumière du passé, afin de prévoir
l’avenir. Aucun aspect de la nature humaine ou des
réalisations du genre humain n’échappent à son regard […]
» (cité par Robert Heilbroner, in : Les Grands Économistes,
traduction française, Le Seuil).
Si ces différentes citations accréditent la thèse selon
laquelle « l’économiste est un touche-à-tout » (W.J.
Baumol, A.S. Blinder et W.M. Scarth, L’Économique,
principes et politiques. Tome I : Macroéconomie, p. 11,
Montréal, Éditions Études vivantes, 1986), cela ne veut pas
dire qu’il travaille sur le fait social dans sa totalité. À
l’abstraction première que constitue la définition d’un fait
économique, un deuxième niveau d’abstraction est
nécessaire pour ne retenir que les éléments pertinents en vue
d’aboutir à un modèle économique, i.e. à une représentation
simplifiée de la réalité. Il s’agit de dépasser les
contingences, le cas particulier, pour envisager des lois
générales. En cela les lois économiques, même s’il y a un
grand nombre d’exceptions comme nous le verrons plus
loin, sont conformes au principe aristotélicien : « Il n’y a de
science que du général » au sens de l’universel. Avant
d’examiner le principe des modèles, arrêtons-nous d’abord
sur un exemple d’abstraction qui est l’hypothèse ceteris
paribus.
2.1.1. L’hypothèse « ceteris paribus », ou l’importance du «
comme si »
Le lecteur se rendra compte, si ce n’est déjà fait, que les
économistes utilisent fréquemment des hypothèses qui ne
correspondent pas à la réalité. L’une de celles-là consiste à
déclarer : « Supposons qu’une seule variable soit modifiée
et que toutes les autres restent constantes ou sont des
données », on parle alors de l’hypothèse « toute chose étant
égale par ailleurs » ou hypothèse ceteris paribus. Ce
procédé s’explique par le fait que les variables
déterminantes du comportement des hommes en société sont
si nombreuses et les relations entre elles si complexes qu’il
est nécessaire de simplifier et de s’éloigner de la réalité. Par
ce procédé, la démarche scientifique est une distanciation
qui consiste à privilégier les variables pertinentes.
Prenons un exemple illustrant ce principe : supposons
qu’un économiste cherche à comprendre et à expliquer le
volume des achats d’un ménage pour un type de bien donné.
Dans une première phase, essayons de recenser les
différentes variables objectives ou variables structurelles
susceptibles d’intervenir dans le processus, i.e. ayant
vocation à être des variables explicatives ou déterminantes.
Sans être exhaustifs, nous pourrions retenir le prix du bien,
le prix des autres biens, le revenu du ménage, le nombre
d’unités de consommateurs potentiels, leur religion, leur
zone géographique d’habitation, leur niveau d’éducation,
leur sexe, l’importance des dépenses publicitaires pour ce
produit, le phénomène de mode, la législation et les
règlements concernant l’autorisation, la limitation ou
l’interdiction de l’usage d’un bien, etc.
On ne peut pas ignorer en effet que l’achat d’une voiture
dépend de l’âge autorisé pour avoir un permis de conduire,
que l’achat d’un tailleur féminin est en principe
incompatible avec le sexe masculin sauf si c’est pour l’offrir
à une autre personne, que l’achat d’un abonnement pour le
réseau du métro de la Région parisienne est exclu pour un
habitant permanent à Québec, que l’achat de la viande de
porc est inenvisageable pour un musulman ou un juif
pratiquant. De même, l’achat de L’Être et le Néant de Jean-
Paul Sartre exige un certain niveau d’éducation, peut-être
aussi du temps disponible pour le lire. Mais dans tous les
cas un achat suppose des ressources disponibles qui peuvent
résulter soit d’un revenu, correspondant à ce qui peut être
dépensé sans s’appauvrir, soit d’un bien patrimonial
(capital).
Toutes ces variables, et encore beaucoup d’autres non
citées, jouent un rôle. L’économiste va pourtant en faire
abstraction pour, dans une première étape, n’en retenir
qu’une seule ou un nombre très limité. Elle peut être, par
exemple, le prix. La simplification consistant à ignorer
volontairement les autres variables revient à faire
l’hypothèse suivante : supposons qu’il n’existe qu’un bien
et que les acheteurs habitent au même endroit, qu’ils ont le
même âge, le même sexe, la même religion, le même niveau
d’éducation, les mêmes informations, etc., quels seront les
comportements des clients potentiels ou demandeurs si le
prix (p) baisse de x % par rapport à son niveau initial pour
lequel la demande totale correspondait à un volume (y) ?
Ces contraintes étant posées, l’économiste qui n’a pas de
loi de couverture, i.e. des idées explicatives antérieures au
phénomène observé, peut chercher à établir une relation
entre l’évolution du volume des ventes lorsque le prix du
produit varie. Dans une deuxième étape, l’économiste peut
envisager de complexifier son objet en tenant compte de la
variation des prix d’un bien sur les achats d’un autre bien.
Dans d’autres étapes, il sera possible de tenir compte de la
variation du revenu moyen dans la zone de chalandise, du
budget publicitaire consacré au produit, des problèmes de
choix entre plusieurs produits dont les prix ne sont plus
fixes, etc. La question importante est de savoir si cette
complexification croissante est pertinente et à quel niveau il
faut s’arrêter pour rendre utilisable le modèle correspondant
aux relations établies entre des éléments appelés facteurs ou
causes, et d’autres appelés conséquences ou effets. Le
niveau de complexité dépendra en fait des finalités des
modèles, mais, dans tous les cas, aucun modèle économique
n’épuisera le phénomène humain.
2.1.2. La modélisation ou la nécessité de la représentation
simplifiée
Le fait scientifique n’est pas donné, mais « conquis,
construit, constaté », selon la formule célèbre de Gaston
Bachelard (Le Nouvel Esprit scientifique, PUF, 1973). Le
programme de recherche, en économie comme pour toute
discipline, est scientifique lorsque l’esprit du chercheur est
tourné du réel complexe vers le construit simplifié, du
sensible contingent et variable vers l’abstraction
généralisante et permanente, du naturel informel vers le «
pensé », structuré.
La construction de nature scientifique n’a pas la
prétention de reproduire le monde en grandeur réelle. En
économie politique, et dans les sciences sociales en général,
plus que partout ailleurs, il est impossible de représenter la
réalité, car celle-ci est historique. De ce fait, les économistes
construisent des modèles au sens de maquette réduite et
simplifiée, et non de normes ou de ce qu’il faut imiter. On
ne reproche pas à un modèle économique de ne pas tenir
compte de toutes les variables, comme on ne reproche pas à
une carte de géographie, nous dit Pierre Jacob, « de ne pas
reproduire les couleurs, les sons, les odeurs, le poids, la
température, en un mot la vie du territoire qu’elle
symbolise… Ce qu’on exige d’une carte, c’est que son
rendement soit optimal, compte tenu de son échelle : i.e.
qu’elle livre sur les objets un maximum d’informations en
utilisant un minimum de moyens » (L’Empirisme logique, p.
123, Minuit, 1980).
L’évaluation d’un modèle économique32 peut alors se faire
selon les mêmes termes. De manière plus rigoureuse, les
critères d’évaluation résident dans ses performances
descriptives, explicatives et prédictives.
Les modèles se présentent aussi bien sous forme littéraire
que géométrique et algébrique. Un modèle de la première
forme est, par exemple, l’entrepreneur schumpétérien qui
s’énonce ainsi (il s’agit d’une synthèse à partir de Joseph
Schumpeter, Théorie de l’évolution économique, chapitre II,
section 3, Dalloz) : « L’entrepreneur est mû par le profit. Il
est l’agent de la dynamique du capitalisme. Il se caractérise
par l’esprit d’innovation. L’innovation technologique le
place dans la situation lucrative d’un monopole temporaire.
Le profit qu’il réalise suscite un phénomène d’imitation de
son innovation. La concurrence réduit ses profits et le
pousse à l’innovation, source de profits nouveaux. »
Le modèle keynésien d’équilibre global est susceptible
d’illustrer le cas des modèles formalisés géométriques et
algébriques. Il sera commenté plus loin (chapitres 7à 12),
notamment au regard de sa fonction d’aide à la définition
d’une politique économique.
Dans un modèle, certaines variables sont exogènes, i.e.
qu’elles sont données ou indépendantes des variables
propres au modèle. Ces variables exogènes sont toujours
des variables déterminantes. Ce sont des variables
explicatives. Elles correspondent à des causes ou à des
facteurs. D’autres variables sont endogènes, i.e. déterminées
par d’autres variables retenues dans le modèle. Ce sont des
variables expliquées, ou variables endogènes.
La variable endogène est un effet, une conséquence, mais
elle peut être un facteur, dans une étape ultérieure ou dans
un système d’équations simultanées. Par exemple un prix
élevé (variable déterminée, dépendante, endogène,
expliquée) peut résulter d’une forte demande de caractère
exogène (une forte chaleur33 lors de l’été 2003 a entraîné une
forte augmentation de la demande en climatisation des
immeubles) pour une offre donnée (qui est ici une variable
déterminante). Le prix s’élève conduisant à une diminution
de la demande et à une augmentation de l’offre. La hausse
du prix est devenue une variable déterminante ou
explicative, les variations de l’offre et de la demande sont
devenues des variables déterminées ou expliquées.
Quelle que soit sa forme, un modèle peut être descriptif
et/ou explicatif. Un modèle descriptif, comme par exemple
celui de la Comptabilité nationale (cf. chap. 3), n’implique
pas nécessairement une théorie explicative préalable, bien
que ses catégories puissent être les produits d’une telle
théorie. Dans le cas de la comptabilité nationale la
construction des agrégats de revenu national, de produit
national, de dépense nationale n’est pas sans rapport avec la
théorie économique de J.M. Keynes. Et la description ne fait
pas nécessairement de la science économique une science
qui relèverait du positivisme pur. Le produit intérieur brut
n’est pas une donnée positive, mais le résultat d’une
construction, et sa définition peut varier au cours de
l’histoire et selon les idéologies. Cet exemple permet de
préciser ici que la science économique peut aussi s’élaborer
dans le cadre du constructivisme.
En revanche, un modèle explicatif est normalement
précédé par un système d’hypothèses. Dans ce cas, la
théorie scientifique est ce qui permet de structurer les
données, d’analyser et d’expliquer les relations.
Généralement, la théorie repose sur un petit nombre de faits
et le plus faible nombre possible d’hypothèses non encore
démontrées pour expliquer un phénomène. C’est le principe
de la parcimonie ou du rasoir d’Occam et que l’on désigne,
depuis John Neville Keynes, le père de John Maynard, par
l’apriorisme. La théorie la plus représentative de
l’apriorisme est le comportement de l’Homo œconomicus
aux traits psychologiques simplistes du calculateur
hédoniste des plaisirs et des peines, qui recherche le
maximum de jouissance pour le minimum de souffrance. On
affirme a priori que l’individu cherche à dépenser le moins
et à gagner le maximum. La loi du moindre effort qui
découle de ces affirmations est une loi prototypique de
l’apriorisme en vogue à l’école de Vienne (voir plus loin).
Ce modèle de l’Homo œconomicus comporte deux autres
hypothèses en plus du comportement calculateur – ou
hypothèse de rationalité. Il s’agit, d’une part, de sa totale
indépendance ou liberté (il n’est pas influençable) et,
d’autre part, de son information parfaite.
La loi du moindre effort, synthétisant le comportement de
l’Homo œconomicus, peut être formalisée, par analogie mais
sans que cela soit une explication, en utilisant le modèle
gravitaire d’Isaac Newton (voir encadré) Le recours à ce
modèle peut être généralisé à l’ensemble des échanges et
des relations sociales. Ainsi pour un prix et une qualité
donnés, les individus font les achats près de leur domicile
ou de leur lieu de travail. Cet apriorisme permet de
construire des zones de chalandise dans la distribution
commerciale. La loi de Reilly en est le principe. La $$$ «
appliquée en économie signifie que la distance est un
obstacle aux échanges : cette distance peut être aussi bien
physique, que culturelle, linguistique, idéologique, etc. La
loi de Newton peut même servir à rendre compte de la
prédominance de l’endogamie sur l’exogamie et des
comportements affectifs (ne dit-on pas « loin des yeux, loin
du cœur » ?).
Encadré : le modèle gravitaire
Inflation
Exemple d’absence de corrélation
Chaque * correspond à un couple taux de croissance PIB-
Inflation : soit pour une année donnée dans un pays donné
sur une période de 30 ans (séries temporelles), soit à une
moyenne sur 10 ans pour un pays donné pour une
population de 30 pays (données de panel).
Figure 2.3
. Intersections entre les différentes
perspectives méthodologique (marginalisme),
théorique (néoclassique) et idéologique
(libéralisme)
Le changement de perspective résulte de la découverte de
la théorie de l’utilité marginale par trois auteurs travaillant
indépendamment : l’Autrichien Carl Menger (1840-1921) à
Vienne, l’Anglais William Stanley Jevons (1835-1882) à
Manchester, et le Français Léon Walras (1834-1910) à
Lausanne (Suisse) au cours des années 1870 et 1874. Le
raisonnement qu’ils adoptent, même s’il n’est pas nouveau,
consiste à envisager de très faibles variations d’une variable
déterminante, par exemple la quantité du bien consommé, et
d’analyser les effets engendrés en examinant les variations
de la variable déterminée que l’on peut appeler l’utilité ou le
plaisir. Ces petites variations sont dites variations
négligeables ou marginales. On appelle alors marginalisme
ce courant méthodologique qui, finalement, introduit en
économie le calcul différentiel et le calcul intégral même si,
à Vienne, le principe de l’utilité marginale est exposé sans
recours aux mathématiques.
Les trois fondateurs du marginalisme remettent sur le
devant de la scène l’Homo œconomicus et le problème de la
satisfaction de ses besoins avec des ressources rares, mais
l’analyse devient plus rigoureuse que par le passé. C’est ce
qui sera démontré en présentant la théorie de la valeur
subjective avant de voir rapidement la diversité des
recherches néoclassiques.
2.2.1. La théorie de la valeur subjective
Le paradoxe de l’économie néoclassique, au regard de
son objectif d’être une économie fondamentale et donc
abstraite, tient au fait que la nouvelle base de la valeur est
l’utilité et non le travail. Or, l’utilité est une notion qui
relève de la connaissance sensible.
À ses origines, l’économie néoclassique revient en effet
aux conceptions sensualistes de Condillac. Et c’est par une
approche empirique intégrale que Condillac établit que « la
valeur des choses est fondée sur leur utilité ». C’est
également par une approche empirique qu’il est conduit à
tenir compte de la rareté présentée par Galiani (1751) pour
écarter les objections formulées à l’encontre de la théorie de
l’utilité, comme celle du paradoxe de l’eau et du diamant.
Adam Smith fait en effet remarquer que l’eau, qui est
indispensable à la vie, a une moins grande valeur
marchande que le diamant, dont les usages sont très limités.
C’est Condillac qui donne la clé pour résoudre ce paradoxe
célèbre en évoquant le phénomène de rareté. « Dans
l’abondance, écrit-il, on sent moins le besoin parce qu’on ne
craint pas de manquer. Par une raison contraire, on le sent
davantage dans la rareté et dans la disette. »
« Or, puisque la valeur des choses est fondée sur le
besoin, il est naturel qu’un besoin plus senti donne aux
choses une plus grande valeur, et qu’un besoin moins senti
leur en donne une moindre. La valeur des choses croît donc
dans la rareté, et diminue dans l’abondance » (Le Commerce
et le gouvernement considérés relativement l’un à l’autre,
1776).
Le marginalisme reprend cet aspect de manière plus
précise pour donner une mesure de l’utilité et, par
conséquent, de la valeur.
2.2.2. L’utilité marginale : du plaisir mesurable à la
préférence
La mesure de l’utilité est un problème purement abstrait
mais fondé sur des hypothèses exprimées par l’Allemand
Hermann Heinrich Gossen, dès 1854, sous forme de deux
lois dont la première repose sur des études
psychophysiologiques. Elles déboucheront sur la conception
cardinaliste de l’utilité.
La première loi de Gossen indique que la satisfaction des
besoins donne un plaisir au consommateur avec une
intensité décroissante jusqu’à devenir nul lorsque le besoin
est saturé. Cela signifie, par exemple, que le fait de prendre
un deuxième verre d’eau donne moins de plaisir que le
premier. En se donnant une échelle d’évaluation des plaisirs,
on peut dire que le premier verre d’eau donne un plaisir de
20, le deuxième un plaisir de 16 seulement, le troisième de
12, le quatrième de 8, le cinquième de 4 et le sixième de 0.
On appelle utilité totale la somme des utilités (ou plaisirs)
procurées par l’ensemble des unités consommées. Avec six
verres d’eau, l’utilité totale est de 60. On appelle utilité
marginale l’utilité procurée par la dernière unité
consommée. On notera que l’accroissement de l’utilité
totale, dû à l’accroissement d’une unité supplémentaire du
bien consommé, est l’utilité marginale. Celle-ci est en
définitive la dérivée de l’utilité totale. Le plaisir total est
maximum lorsque l’utilité marginale est nulle. La baisse de
l’utilité marginale (20, 16, 12, 8, 4, 0), lorsque l’utilité totale
augmente (20, 36, 48, 56, 60) exprime donc la première loi
de Gossen.
Supposons, maintenant, que le consommateur d’eau soit
sollicité pour payer l’eau qu’il demande. Le problème est
alors de déterminer le prix d’un verre. Dans cette situation,
il doit confronter le plaisir que lui procurent l’eau et la peine
qu’il a à obtenir le bien qu’il échangera contre l’eau.
Comme il attache un grand intérêt au premier verre d’eau et
qu’il dispose de beaucoup de temps libre, il est prêt à
donner une grande quantité de son temps pour obtenir un
bien échangeable contre de l’eau. Pour un deuxième verre
d’eau, le sacrifice qu’il consent est plus faible, car le plaisir
marginal est plus faible, et il dispose aussi de moins de
temps à offrir pour obtenir ce verre d’eau supplémentaire.
Ce temps prend alors plus de valeur. Cela signifie que pour
avoir la même quantité d’eau, le consommateur offrira
moins de temps, ou bien pour le même temps il doit avoir
plus d’un verre d’eau, et ainsi de suite. Étant donné que
l’eau est un produit homogène, il n’est pas possible de
distinguer l’eau qui fera partie du premier verre de celle qui
sera servie dans le dernier verre. Dans ces conditions, c’est
le plaisir du dernier verre d’eau qui déterminera le prix
unitaire, i.e. la quantité de l’autre bien nécessaire pour que
l’échange ait lieu. Puisque l’utilité marginale décroît lorsque
les quantités consommées augmentent, on déduit que la
demande est une fonction décroissante du prix.
En fait, le consommateur compare le plaisir du bien et la
peine que lui occasionne l’effort nécessaire pour obtenir un
bien échangeable, que l’on peut appeler monnaie. Le
problème du prix devient alors un problème d’équilibre
entre des plaisirs et des sacrifices. Le consommateur
rationnel est celui qui utilise efficacement ces moyens pour
maximiser ses plaisirs et minimiser sa souffrance. Tant que
l’utilité marginale est supérieure au sacrifice marginal, le
consommateur a avantage à augmenter sa demande. Il
cessera lorsque la dernière unité lui procure un plaisir égal à
la peine. Au-delà, il est perdant.
Ce résultat correspond à la deuxième loi de Gossen. Plus
généralement, elle indique que, pour un revenu donné et
devant une variété de biens et de services, le plaisir total est
maximum lorsque les plaisirs procurés par les dernières
unités consommées sont, pour chaque bien, égaux. On parle
de loi d’égalisation des utilités marginales pondérées par
les prix. Le consommateur rationnel règle ainsi son
comportement de telle façon qu’il égalise les rapports entre
l’utilité marginale de chacun des produits et de leur prix.
Illustration des lois de Gossen : le schéma de W.S. Jevons
Illustrons ce phénomène de manière graphique pour le
cas de deux biens A et B. L’utilité marginale de A (UmA)
est portée sur l’axe des ordonnées à gauche, UmB sur l’axe
des ordonnées à droite, et les quantités de B de droite à
gauche. La première loi de Gossen permet de tracer les
courbes UmA et UmB. Elles se coupent en S. Ce point
indique les quantités de A et de B (S’) qui donnent la
surface la plus importante sous les courbes d’utilité
marginale. En effet, si le consommateur décide de
consommer la quantité a de A et une quantité b de B, il ne
gagne que la surface Sba’S’, tandis qu’il perd la surface
Saa‘S’. Soit une perte nette correspondant à la surface abS
par rapport à l’optimum obtenu en S.
Fig. 2.1
. (voir p. 72) Illustration
Cette deuxième loi de Gossen sert aussi à établir
l’équilibre dans l’échange. En adoptant cette fois la même
origine pour A et pour B, W.S. Jevons signale en effet qu’un
vendeur d’un bien B est aussi un demandeur d’un bien A.
La vente du bien B entraîne une diminution du stock
disponible en B. L’utilité marginale de B croît au fur et à
mesure que les quantités de B diminuent. L’acquisition du
bien A entraîne, en vertu de la première loi de Gossen, une
diminution de l’utilité marginale. Les rapports des quantités
y échangées constituent les prix p. Comme l’écrit Léon
Walras : « Si A était de l’avoine et que B fut le blé, et qu’un
agent eut proposé d’échanger 5 hectolitres de blé contre 10
hectolitres d’avoine, le prix proposé du blé en avoine serait
de 10/5, soit 2, et celui de l’avoine en blé serait de 5/10, soit
1/2 » (Éléments d’économie politique pure, 1874).
Donc :
et
.
les prix sont donc égaux aux rapports inverses des
quantités échangées. Le produit des prix est, par conséquent,
égal à 1.
Soit :
= 1.
la règle d’égalité des utilités marginales donne alors :
UmA/PA = UmB/PB. Il s’ensuit qu’à l’équilibre, le rapport des
utilités marginales est égal au rapport des prix : UmA/UmB =
PA/PB.
2.2.3. Les préférences, l’indifférence et l’énigme de la
valeur
Pour les auteurs néoclassiques, la théorie de l’utilité est
de nature logique, mais cette analyse repose sur un certain
nombre d’hypothèses simplificatrices susceptibles de
réduire ses capacités d’analyse de la réalité sociale. Ainsi
supposent-ils que le consommateur connaît parfaitement ses
goûts, les caractéristiques de chaque bien, le plaisir qu’ils
lui procurent, autrement dit que l’information sur les biens
est parfaite, ce qui est rarement vérifié dans la réalité, pour
ne pas dire impossible ou jamais. De même, ils estiment que
les goûts sont stables et que le temps est arrêté. Les biens,
enfin, sont supposés indépendants pour permettre
l’additivité des utilités procurées par chacun des biens.
L’approche cardinale de l’utilité – ou possibilité de
mesurer – adoptée par Menger, Jevons, Walras, Marshall,
Edgeworth et Fisher – peut cependant autoriser l’abandon
de l’hypothèse d’indépendance des utilités des différents
biens. L’utilité totale correspond dans ce cas à une surface
obtenue par combinaison des utilités respectives des
quantités de A et de B.
La prise en compte de l’interdépendance ne suffit pas à
rendre l’utilité cardinale réaliste, car il est impossible de
déterminer une unité de mesure. L’util, l’utilon ou tout autre
terme inventé pour désigner cette unité n’ont qu’un sens
conventionnel. Le consommateur ne peut pas affirmer que
l’utilité d’une maison de quatre pièces est cent fois plus
grande que l’utilité d’une maison de deux pièces, et deux
fois plus petite que celle d’un voyage autour du monde. Le
consommateur peut en revanche établir un ordre de
préférence. Cette approche ordinale de l’utilité, présentée
pour deux biens mais généralisable à n biens, est adoptée
par J.R. Hicks, P.A. Samuelson et E. Slutsky à la suite des
travaux de V. Pareto. Elle permet de dire que telle quantité
de A est préférée à telle quantité de B, que telle autre
quantité de A et telle autre quantité de B sont indifférentes.
P.A. Samuelson abandonne même l’idée d’indifférence au
profit du concept de préférences révélées qui correspondent
à la demande exprimée sur le marché. Pour un revenu donné
et pour des prix donnés des biens A et B, le consommateur
choisit une combinaison a de A et b de B. Il révèle ainsi ses
préférences. On peut démontrer par ailleurs que la demande
d’une marchandise varie toujours dans le même sens que les
variations du revenu du consommateur : si le revenu réel
diminue, la demande baissera (théorème fondamental de la
théorie de la consommation, selon Samuelson).
Pour Alfred Marshall, le débat sur le facteur qui
détermine la valeur est un faux débat, car, mutatis mutandis,
il revient à un problème de détermination de la lame qui
coupe dans une paire de ciseaux. Vilfredo Pareto (1848-
1923) généralise cette position en déclarant : « La chose
indiquée par les mots valeur d’échange, taux d’échange,
prix, n’a pas une cause ; et l’on peut déclarer désormais que
tout individu qui cherche la cause de la valeur montre par là
qu’il n’a rien compris au phénomène synthétique de
l’équilibre économique » (Manuel d’économie politique, p.
266, 1909).
L’équilibre économique dont il est question est l’équilibre
général, i.e. l’équilibre simultané de l’offre et de la
demande sur tous les marchés. Son principe est différent de
celui de l’équilibre sur un seul marché (équilibre partiel).
Dans ce dernier, les relations entre les marchés sont
négligées alors que, dans l’équilibre général, elles
deviennent essentielles. Le prix d’équilibre pour une
marchandise – prix auquel l’offre est égale à la demande –
ne peut être obtenu que si l’équilibre est réalisé
simultanément sur tous les autres marchés. En effet, pour
prendre un exemple, le prix d’une voiture dépend du prix de
la force de travail ; celui-ci dépend du prix des biens que le
salarié juge nécessaires pour lui ; le prix de ces biens
dépend à son tour des salaires et des coûts de divers autres
facteurs, et ainsi de suite… Or, tous ces différents prix ne
sont pas des données, mais des résultats des offres et des
demandes sur les différents marchés. Finalement, le prix
d’une marchandise, dans la théorie de l’équilibre général,
dépend d’un très grand nombre de variables
interdépendantes, une fois le goût du consommateur connu.
Ce sont : le revenu du consommateur – ou contrainte
budgétaire – qui dépend des quantités et du prix des
marchandises auxquelles il a contribué en tant que
producteur, le coût de production de la marchandise
demandée, le prix des autres marchandises, la demande pour
ces autres marchandises, le coût de production de ces
marchandises, etc.
La valeur est ainsi la solution de l’équilibre général,
comme Gérard Debreu (prix Nobel d’économie) l’a
formulée dans son ouvrage fondamental, Théorie de la
valeur : une approche axiomatique de l’équilibre
économique (thèse d’État, Paris, 1956, éditée par Dunod).
2.3. Le développement de l’économie néoclassique
L’économie néoclassique se confond avec la science
économique contemporaine pour tout ce qui relève de
l’analyse en termes de marché, avec un point de vue
microéconomique, mais pas seulement. En présentant les
écoles contemporaines, après avoir identifié les précurseurs
et défini les courants fondateurs, on se rendra compte que
l’économie néo-classique n’a pas ignoré les problèmes
macroéconomiques comme l’inflation, le chômage et les
cycles des affaires.
2.3.1. Les précurseurs
L’analyse à la marge avant la lettre, i.e. le raisonnement
économique utilisant les rapports entre de faibles variations
de plusieurs grandeurs pour lesquelles il existe une fonction
qui traduit leur relation, se rencontre chez un grand nombre
d’économistes du XVIIIe siècle. On pourrait citer Turgot,
avec sa loi des rendements non proportionnels
L’analyse de l’utilité marginale et de la productivité
marginale (augmentation de la production pour une unité
supplémentaire de facteurs) ressort des travaux de J.H. von
Thünen (1825) ; la découverte du surplus du consommateur
(différence entre le prix acceptable et le prix effectif) revient
à Jules A. Dupuit (1844) qui est aussi le concepteur de la
courbe en cloche d’évolution des recettes fiscales en
fonction du taux de l’impôt, que l’on attribue fréquemment
à A.B. Laffer – courbe de Laffer– – qui l’aurait dessinée sur
un bout de nappe en papier d’un restaurant à San Francisco
en 1974, et qui se résume par la formule « trop d’impôt tue
l’impôt » ; l’établissement des courbes d’offre et de
demande, la définition de l’équilibre en monopole puis
l’équilibre en duopole et l’intuition de l’équilibre général
sont dus à Augustin Cournot (1838). Et on a vu le rôle de
H.H. Gossen dans l’explication de la courbe de demande
(loi de l’utilité marginale décroissante).
2.3.2. Les courants fondateurs : Vienne, Lausanne,
Cambridge
Au début du marginalisme, on distingue trois écoles :
L’école de Vienne réunit Carl Menger et ses disciples
directs, F. von Wieser et E. Böhm-Bawerk. C’est une école
principalement littéraire et psychologique. Après le
problème de l’utilité marginale, elle s’intéresse à la
répartition des revenus et à la formation du capital. Il n’y a
pas d’unité idéologique. Même si l’individualisme
méthodologique est admis par tous, certains disciples sont
libéraux, d’autres sont des sociaux-démocrates.
La théorie autrichienne du capital et de l’intérêt sera
reprise par Knut Wicksell (1851-1926). Le grand apport de
Wicksell réside dans la distinction du taux d’intérêt naturel
et du taux monétaire en présentant les fluctuations
économiques comme le résultat des fluctuations du taux
monétaires par rapport au taux naturel. Une véritable école
wicksellienne se constituera en Suède avec pour principaux
disciples Erik Lundberg (1907-1987) qui analyse différentes
formes d’expansion et leurs conséquences, Erik R. Lindahl
(1891-1960) qui analyse le rôle du taux d’intérêt dans le
processus de l’équilibre monétaire et Gunnar Myrdal (1898-
1987) qui, après les travaux sur cet équilibre monétaire
wicksellien anticipant les travaux de Keynes d’une dizaine
d’années, s’est surtout consacré, après 1950, à l’analyse du
sous-développement économique, tout en occupant des
fonctions politiques en Suède. L’école suédoise s’est aussi
préoccupée des problèmes de répartition des revenus et en
particulier de la répartition des surplus ou gains de
productivité. Deux règles dans ce domaine ont été
énoncées :
- La règle de Wicksell consiste en l’accroissement des
revenus d’un montant équivalent à l’accroissement
de la productivité afin de maintenir la stabilité des
prix. Ce système exclut les titulaires de revenus
fixes du bénéfice de la croissance.
- La règle de Davidson propose une répartition plus
générale par la baisse des prix d’un montant
équivalent aux gains de productivité
L’école de Vienne, par la suite, avec une autre génération
d’auteurs qui vont d’ailleurs émigrer pour la plupart,
s’oriente dans différentes directions : mathématique
(Théorie des jeux de J. von Neumann et O. Morgenstern),
monétariste (F. von Hayek), praxéologique (L. von Mises,
L’Action humaine), technologique, systémique et
encyclopédique (J.A. Schumpeter, avec pour œuvres
majeures : Théorie de l’évolution économique, Cycles des
affaires, Capitalisme, socialisme et démocratie).
Les préoccupations de l’école de Cambridge, fondée par
Alfred Marshall (1842-1924) en Angleterre, sont tournées
essentiellement vers l’équilibre partiel, i.e. la détermination
du prix et des quantités d’équilibre pour un bien donné.
Dans une deuxième étape, elle s’intéresse à l’économie du
bien-être (Pigou), au problème des fluctuations
économiques, du cycle de l’activité économique et des
crises économiques, au rôle des banques et du commerce
dans ces cycles (Robertson, Keynes, Hawtrey). Après la
révolution keynésienne de 1936, l’école de Cambridge ne
peut plus être considérée comme néoclassique, d’autant plus
que certaines analyses contestent radicalement les concepts
clés du marginalisme et discutent de la signification de la
productivité marginale du capital10 et de la mesure du capital
(Joan Violet Robinson). L’école de Cambridge devient une
école néocambridgienne. L’héritage néoclassique se
poursuivra à Cambridge-États-Unis, du moins à travers ces
notions de capital et de productivité marginale (P.A.
Samuelson).
Indépendamment d’Alfred Marshall, Francis Isidro
Edgeworth (1845-1926), en Angleterre, donne une version
mathématique de la théorie néoclassique. C’est également
hors d’une école précise que John Richard Hicks (1904-
1989) propose dans un article retentissant (« Mr Keynes and
the Classics », 1938) la synthèse entre les apports de
Keynes et de l’économie néoclassique walrassienne. Cette
lecture particulière de Keynes constituera la macroéconomie
moderne. Nous en ferons l’objet d’une étude spécifique
avec les courbes ISLM dans un chapitre ultérieur de cet
ouvrage.
L’école de Lausanne, fondée par Léon Walras,
d’orientation mathématicienne, s’intéresse à l’équilibre
général et à l’économie du bien-être. Vilfredo Pareto
renonce à la mesurabilité des satisfactions et construit des
courbes d’indifférence (cf. plus loin le chap. 5). Le concept
d’optimum découle du refus d’introduire toute mesure et,
par conséquent, de l’impossible comparaison des utilités
interpersonnelles. Une situation est optimale au sens de
Pareto lorsqu’il n’est plus possible d’améliorer la
satisfaction d’un individu sans détériorer celle d’un autre.
L’optimum de Pareto deviendra un concept fondamental
pour l’économie du bien-être.
La problématique de Walras et de Pareto, après avoir été
longtemps négligée, constitue, depuis les années 1930, le
noyau central de la science économique néoclassique dans
le monde. Les travaux du Suédois Gustav Cassel (1932), de
l’Anglais John R. Hicks (Valeur et capital, 1938) à Oxford,
du Français Maurice Allais, de l’Américain Kenneth. Arrow
associé au Franco-Américain Gérard Debreu ont assuré le
regain d’intérêt du modèle walrasso-parétien pour lequel on
envisage des usages en politique économique. Après le
modèle de planification multisectorielle construit par Leif
Johansen pour la Norvège en 1960 (A Multi Sectoral Study
of Economic Growth, North Holland, 1960, 2d ed. 1974), on
admet que c’est l’Américain Herbert Scarf qui inaugure
cette voie en 1969, grâce au développement de
l’informatique qui permet de résoudre des problèmes
complexes comme ceux que pose un modèle d’équilibre
général calculable (MEGC)11.
2.3.3. Le déploiement de l’économie néoclassique
La présentation des écoles originelles a déjà donné une
idée du déploiement de l’économie néoclassique. Pour être
un peu moins incomplet, tellement la diffusion de la
problématique et des méthodes néoclassiques est générale,
on retiendra qu’aux États-Unis, après les premiers écrits de
John Bates Clark (1847-1938) consacrés à la vulgarisation
des travaux européens, après les travaux importants d’Irving
Fisher sur l’équilibre monétaire, la théorie de l’intérêt et
l’analyse statistique – relative notamment aux indices de
prix et de croissance –, sont apparues, entre autres, l’école
Chicago, avec Milton Friedman comme chef de file de cette
école monétariste, l’école des choix publics avec James M.
Buchanan et Gordon Tullock, l’école des anticipations
rationnelles dite nouvelle économie classique12 avec Robert
Lucas, Thomas Sargent, Neil Wallace, Robert Barro,
l’économie de l’offre avec Arthur B. Laffer.
L’école de Chicago se distingue par son ultralibéralisme
et la reconnaissance du rôle important de la monnaie, à
court terme, sur les équilibres réels. L’intervention de l’État
ne peut que perturber l’économie et, au mieux, elle est
inutile, car elle n’aboutit qu’à l’éviction du secteur privé.
Par l’effet d’éviction, une croissance des dépenses publiques
engendre une diminution des dépenses privées, le montant
total de la dépense nationale restant stable au mieux. Le
monétarisme indique que toute relance par la demande par
la création monétaire provoque une hausse générale des prix
et des salaires nominaux conformément aux conclusions de
la théorie quantitative de la monnaie. Il se produit alors,
dans une première phase, une augmentation de l’offre et de
la demande de travail, et ce pour deux raisons. La première
est l’illusion monétaire dont sont l’objet les salariés : ils
croient que la hausse des salaires nominaux est une hausse
en termes réels, car ils ne perçoivent pas la hausse des prix.
La deuxième est l’illusion monétaire que subissent les
entrepreneurs : ils pensent que la hausse des prix signifie la
chute des salaires réels, alors que les salaires ont augmenté
au même rythme que les prix. Cette double illusion
modifiera le volume de la production, mais elle ne durera
pas. À long terme la monnaie est neutre. Les entreprises et
les salariés se rendront vite compte que les résultats ne sont
pas conformes aux anticipations et adapteront leurs
comportements (écoles des anticipations adaptatives).
Alors, chacun reviendra à sa position de départ, mais dans
une économie qui connaîtra un niveau général des prix plus
élevé, pour un volume d’emplois inchangé.
Les théoriciens de l’école des anticipations rationnelles
(Robert Lucas, Thomas Sargent, Neil Wallace, Robert
Barro, etc.) qui forment la nouvelle économie classique
(NEC), reprenant une hypothèse de John F. Muth proposée
en 196113, considèrent que les agents économiques se
distinguent par les informations dont ils disposent, et chacun
décide en fonction de celles-ci de manière rationnelle, i.e.
en ayant un modèle préalable des relations entre le présent
et l’avenir. Les faits qui vont se produire dépendront alors
en partie des anticipations ou croyances des individus de ce
que sera le futur. L’hypothèse du comportement rationnel de
John Muth peut être fondée sur le fait que les individus sont
mieux informés et mieux formés à l’économie grâce à leurs
lectures, leurs voyages, à la dominance du langage
économique dans les médias, etc. Les décisions actuelles
sont prises en fonction des événements futurs et non pas
pour rectifier les illusions monétaires passées selon le
principe des anticipations adaptatives de Milton Friedman.
Cette hypothèse réduit encore le champ des politiques
économiques, puisque ces dernières donnent lieu à des
anticipations qui leur enlèvent tout effet. La neutralité de la
monnaie est une donnée même à court terme. Il n’y a plus
de place pour un effet d’illusion monétaire même le moins
durable qu’il soit possible d’envisager. Les fluctuations
économiques sont la réponse inévitable à tout choc exogène.
Cet aspect peut être illustré par l’augmentation des dépenses
publiques pour relancer l’économie (cf. fig. 2.3). L’action de
l’État se traduit par le déplacement de la courbe de D1 à D2
(augmentation de la demande). Les individus qui
connaissent la théorie économique pourront déduire qu’une
augmentation de la demande entraîne une élévation générale
des prix (P2), et non une hausse des prix relatifs de l’offre
(P1). Au lieu d’avoir une augmentation du revenu Y1 pour P1,
l’offre diminue (O1 passe en O2) pour maintenir le niveau Y0
du revenu national stable, avec un niveau général des prix
anticipé plus élevé (P2). Si le prix anticipé et le prix effectif
sont différents, il se produit des fluctuations économiques.
Ce phénomène résulte d’erreurs dans l’interprétation des
prix. La politique économique efficace consiste alors à jouer
sur ces erreurs et surtout à ne pas afficher ses intentions
pour bénéficier de l’effet de surprise.
Fig. 2.4
. Effets d’une augmentation de la demande
par un accroissement exogène de la dépense
publique sous l’hypothèse d’anticipations
rationnelles
L’école des choix publics va plus loin dans le rejet de la
thèse selon laquelle il existe un intérêt général d’une tout
autre nature que la somme des intérêts particuliers. Elle
considère que les hommes politiques et les bureaucrates
recherchent la maximisation de leur intérêt personnel – leur
maintien au pouvoir – sous le couvert de l’intérêt général. Il
faut, par conséquent, s’assurer d’un bon contrôle des
bureaucrates. L’une des voies consiste à réduire le poids des
dépenses publiques dans l’économie. La solution est
difficile à mettre en œuvre, car certains citoyens se
considèrent comme les bénéficiaires de ces dépenses dont la
charge incombe aux autres. Le phénomène du passager
clandestin (free rider) conduit à surimposer un groupe pour
fournir des biens collectifs coûteux à la production mais
gratuits à la consommation. Il ne reste plus alors qu’à se fier
à des indices de popularité ou fonctions de vote. On peut
penser que, dans ce cas, le gouvernement ou le bureaucrate
qui ne respecte pas l’intérêt général sera sanctionné par sa
non-réélection. L’école des choix publics indique qu’il n’en
est rien, car le bureaucrate adapte sa politique aux réactions
de l’électorat. Par exemple, dans un système de bipartisme,
la meilleure stratégie est de satisfaire l’électeur médian, i.e.
gouverner au centre. De même, à l’approche des élections,
Nordhaus indique que la meilleure stratégie est de diminuer
le chômage avec pour effet de relancer l’inflation. Celle-ci
sera combattue après les élections, avec pour effet éventuel
de relancer le chômage (W.D. Nordhaus, The Political
Business Cycle. Review of Economic Studies, 1975 ; en
français, on parle de « cycle politico-économique »).
Fig. 2.5
. Cycles politico-économiques (échelle du
chômage à droite, échelle de l’inflation à
gauche)
L’économie de l’offre est un retour à la tradition
classique, après avoir pris connaissance des outils d’analyse
keynésienne. Depuis la crise de 1973-1974, l’inefficacité de
la régulation de l’économie par la demande (l’augmentation
des dépenses publiques), l’importance de la hausse des
coûts de l’énergie pour les pays importateurs à la suite des
chocs pétroliers de 1973 et de 1979, la concurrence accrue
sur les marchés (ouverture des frontières, arrivée des jeunes
nations du tiers-monde) et la forte pression fiscale et
parafiscale14 ont conduit à s’intéresser à l’offre, i.e. à
l’entreprise et au travail. Selon cette école15, en effet,
l’intervention économique keynésienne finit par annihiler
tout dynamisme, exprimant de la sorte une « crise de l’État-
providence ». Cela veut dire que la croissance des dépenses
publiques, le développement des dépenses de la Sécurité
sociale sont sans effet sur la crise économique.
Le retour à la croissance économique passe par la fin de
l’État-providence. Cette dernière mesure présente différents
avantages qui sont complémentaires : une diminution du
taux moyen de l’impôt est une incitation à l’effort et à la
production, suscitant ainsi une baisse du chômage ;
l’augmentation de la production entraîne à son tour une
augmentation des recettes fiscales, malgré la baisse
préliminaire du taux ; l’augmentation du revenu disponible,
consécutive à la diminution du taux de l’impôt, assure des
débouchés à l’offre. Ce dernier point, bien que non explicité
par les économistes de l’offre (Robert Mundell, Arthur
Laffer), est probablement une des raisons du succès de la
théorie mise en pratique. Mais il est alors bien évident que
prendre en compte l’effet de la baisse de l’impôt sur le
revenu disponible des ménages et des entreprises conduit à
ne pas écarter les mécaniques de la demande et la théorie
keynésienne.
2.4. Les limites des analyses néoclassiques
Les théories néoclassiques séduisent par leur formalisme
et par leur cohérence interne. Issues de constructions
conventionnelles (approche axiomatique), elles donnent une
satisfaction intellectuelle aux amateurs de beaux problèmes.
Mais de tels jugements, qui insistent sur l’élégance
formelle, précèdent généralement une critique portant sur
l’irréalisme des hypothèses sur lesquelles elles sont fondées,
critique qui fut formulée pour la première fois par les
institutionnalistes américains, dont le chef de file fut
Thorstein Veblen.
Le reproche le plus courant adressé aux néoclassiques
dénonce le réductionnisme de leur approche. Par exemple,
Jean-Marie Chevalier signale que « l’homme est réduit à ses
deux seules fonctions de travailleur consommateur » (La
Structure financière de l’industrie américaine, p. 217,
Cujas, 1970). Et, même dans ces fonctions limitées, le
système conventionnel de l’Homo œconomicus est
difficilement assimilable à la réalité ou à une norme
exprimant les comportements souhaitables. L’Homo
œconomicus apparaît ainsi comme un mythe doué d’une
psychologie rudimentaire (cf. Paul Albou, Psychologie
économique, PUF, 1984).
La théorie néoclassique comme théorie des choix suppose
que tout est calculable, quantifiable en termes monétaires,
ce qui laisse de côté, nous dit René Passet, la dimension
qualitative mesurée approximativement. Elle suppose en
outre « que tous les effets externes – positifs ou négatifs –
sont clairement perçus par ceux qui les subissent, alors que
ces effets se diffusent dans l’espace et dans le temps », i.e.
concernent et concerneront des individus qui n’ont pas
révélé leurs préférences (René Passet, L’Économique et le
vivant, p. 52, Petite Bibliothèque Payot, 1983).
Ainsi, l’approche néoclassique est certes fondamentale,
mais elle omet de prendre en compte la dimension
historique et sociale qui constituera l’une des
caractéristiques majeures du marxisme que nous allons
examiner.
3. L’économie de Marx et l’économie marxiste : la
critique de l’économie politique
Le point de vue marxiste en économie est une critique du
système capitaliste dans son ensemble. Cette critique est
exprimée dans plusieurs œuvres de Karl Heinrich Marx
(voir encadré) et de Friedrich Engels. Ils ont écrit ensemble
plusieurs textes, le plus important étant le Manifeste du
parti communiste en 1848. Le premier est d’abord
philosophe, le second est économiste et aussi celui qui a
permis à Marx de subvenir à ses besoins, une fois la fortune
de sa femme consommée. La référence majeure du
marxisme reste Le Capital, Livre I, paru en 1867, du vivant
de Marx. À la suite du père Henri Chambre, on accordera
moins d’importance aux livres rédigés par Marx mais
publiés après sa mort, en ce sens qu’ils peuvent ne pas
refléter la pensée véritable de leur auteur qui n’a pas jugé
nécessaire de les publier de son vivant.
L’approche systémique qu’engage Karl Marx est une
analyse du circuit du capital que révèlent les schémas de
reproduction inspirés du Tableau économique de Quesnay.
Ces schémas ont servi d’instrument d’analyse et de modèle
pour la planification dans les pays socialistes. C’est dire
que, s’il y a un grand nombre de travaux d’auteurs marxistes
après Marx (Rosa Luxemburg16, Vladimir I. Lénine17,
Nicholas Boukharine et Evgenii Préobrajenski18, Paul
Baran19, Paul Marlor Sweezy20, Charles O. Bettelheim21,
Samir Amin, etc.), les outils forgés par Marx n’ont pas
fondamentalement été remis en cause par les économistes
marxistes. La pensée marxiste et les travaux marxiens ne se
confondent pas avec les systèmes économiques mis en place
au nom de l’idéologie marxiste depuis 1917 ou plus tard et
qui se sont effondrés depuis 1991.
Il existe plusieurs variétés du marxisme et celui-ci exerce
une importante influence sur certains groupes
d’économistes qui, sans se déclarer marxistes, tentent de
faire la synthèse avec d’autres courants. L’expression «
économie néomarxiste » a pu être utilisée pour désigner les
travaux ayant fait une telle option. On la retrouve chez
certains économistes radicaux américains, chez les
économistes de l’école de la régulation en France (Michel
Aglietta, Robert Boyer, Alain Lipietz,…), chez certains
néocambridgiens (Joan V. Robinson, Nicholas Kaldor…),
ou chez certains hétérodoxes tels que les Français Pierre
Dockès et Bernard Rosier.
Bien qu’il soit difficile d’étudier l’économie marxiste en
soi, indépendamment du matérialisme historique et
dialectique (voir encadré) qui constitue à proprement parler
le corps de la doctrine, la présente section se limitera à la
présentation de la théorie de la valeur et à l’analyse du
circuit du capital et des schémas de reproduction de la
valeur.
3.1. L’origine de la valeur : le travail social
3.1.1. La loi de la valeur
Pour K. Marx, suivant en cela W. Petty auquel il rend un
hommage appuyé et surtout D. Ricardo, « la substance de la
valeur est le travail » (Livre I du Capital). La valeur
d’échange d’une marchandise (voir encadré) exprime
rigoureusement la quantité moyenne ou sociale de travail
général nécessaire pour la produire. En d’autres termes, la
valeur de la marchandise ne se mesure pas au temps du
travail individuel – il y a en effet des individus plus ou
moins habiles se servant d’équipements plus ou moins
modernes – mais au temps de travail moyen nécessaire dans
la société : « Le temps socialement nécessaire à la
production des marchandises est celui qu’exige tout travail,
exécuté avec le degré moyen d’habilité et d’intensité et dans
des conditions qui, par rapport au milieu social donné, sont
normales » (K. Marx, Le Capital, Livre I). Le travail dont il
s’agit est un agrégat, i.e. un ensemble appelé travail général.
Il est formé par le travail direct, dit encore travail vivant, et
par le travail indirect, dit encore travail mort ou passé,
correspondant à la valeur des matières premières et des
équipements utilisés par le travail direct.
L’échange qui justifie ce recours au travail pour mesurer
la valeur d’une manière objective a pour finalité la
consommation. Pour l’acquéreur de la marchandise, celle-ci
a une valeur d’usage particulière. Si la marchandise est
l’objet de consommation final, la valeur d’usage disparaît
simplement. Si elle est destinée à la production d’autres
marchandises (consommation productive), sa valeur
d’échange disparaît en donnant naissance à une nouvelle
valeur d’échange. Cette dernière est strictement égale à
l’ancienne valeur d’échange lorsque la marchandise est un
moyen de production. On parle alors de capital constant
(CC). La nouvelle valeur d’échange est plus élevée que
l’ancienne valeur d’échange lorsque la marchandise est la
force de travail. On parle alors de capital variable (CV), et
l’écart entre les deux valeurs d’échange s’appelle la plus-
value (PL).
Dans ce dernier cas, pour lequel la marchandise est la
force de travail, Karl Marx précise que la valeur de celle-ci
est rigoureusement égale à la valeur des marchandises
nécessaires à sa propre reproduction. En d’autres termes, la
plus-value est alors la différence entre la valeur du travail
général et la valeur de la force de travail.
La plus-value résulte du temps extra passé au travail
après le temps nécessaire destiné à reproduire la force de
travail. Le travail dépensé dans le temps extra est du
surtravail.
La plus-value est ainsi la mesure exacte de l’exploitation
par les capitalistes, détenteurs des moyens de production, de
la force de travail, seule ressource dont disposent les
prolétaires, et le « taux de plus-value est donc l’expression
exacte du degré d’exploitation de la force de travail par le
capital » (Le Capital, IIIe section, chapitre 9, p. 771, in :
Œuvres, tome I, Gallimard, coll. La Pléiade). Ce taux est le
rapport entre la plus-value et le capital variable. Il s’exprime
encore par le rapport entre le surtravail et le travail
nécessaire.
La plus-value peut s’accroître selon deux procédés. Soit
par le prolongement de la journée de travail et l’accélération
des cadences ou l’intensification du travail, sachant que le
temps nécessaire reste constant ; on parle alors de plus-
value absolue. Soit les entreprises réalisent des gains de
productivité dans les secteurs qui fournissent les
marchandises nécessaires à l’entretien de l’ouvrier ou les
moyens de production de ces marchandises. « En faisant
diminuer les prix, l’augmentation de la productivité fait en
même temps tomber la valeur de la force de travail » (Le
Capital, IVe section, chapitre 12, op. cit., pp. 852-853).
L’augmentation de la plus-value constitue dans ce cas la
plus-value relative. Au niveau des unités élémentaires,
l’entreprise peut dégager une plus-value différentielle par
rapport à la moyenne de la branche ; il s’agit alors de plus-
value extra. Cette expression est synonyme de rente ou
surplus du producteur, dont on parlera plus loin (cf. chap. 6).
3.1.2. Le problème de la transformation de la valeur en prix
Dans la réalité observable, la loi de la valeur est masquée
par les prix et la plus-value par le profit. En effet, sur les
marchés, on ne voit que les prix, et le capitaliste s’intéresse
principalement à la rentabilité de tous ses capitaux et non
pas seulement à la rentabilité du seul capital avancé pour
payer la force de travail. Par conséquent, il faut distinguer le
taux de plus-value, qui est le rapport entre la plus-value et le
capital variable, et le taux de profit, qui est le rapport entre
la plus-value et le capital total avancé (capital constant +
capital variable). Si l’on imagine une situation dans
laquelle, pour des rapports CC/CV différents entre les
secteurs, les taux de profit sont différents, on comprend
aisément qu’elle ne sera pas durable, car les entreprises
abandonneront les secteurs à faible taux de profit pour aller
dans les secteurs à taux plus élevés. Il s’ensuivra une baisse
du taux de profit dans ces derniers, et une hausse dans ceux
qui perdront des entreprises. Finalement, le processus
aboutit à l’égalisation des taux de profit au taux de profit
moyen. Et c’est ce taux de profit moyen qui permettra de
déterminer les prix de production constituant le centre de
gravité autour duquel fluctueront les prix du marché. Pour
cette raison, les marchandises ne peuvent pas être vendues à
leur valeur. Ainsi, lorsque le taux de profit moyen est de 20
%, pour un taux de plus-value de 100 %, on obtient, avec 3
000 de capital constant et 1 000 de capital variable, pour un
secteur donné, une valeur de 5 000 et un prix de production
de 4 800, par application des formules suivantes :
et A* – A = PL (plus-value).
3.3. Les schémas de reproduction de la valeur et les lois
tendancielles du capitalisme
La présentation précédente du circuit du capital ne fait
aucune place aux classes sociales et aux différents types de
marchandises. Leurs interventions transforment le circuit en
schéma de reproduction de la valeur.
Il existe deux types de marchandises : celles qui sont
destinées à la consommation finale (biens de
consommation) et celles qui sont destinées à la
consommation productive (biens de production). Les biens
de consommation finale sont produits par la section 2 et les
biens de production par la section 1. Pour chaque section
productive, que l’on peut appeler secteur d’activité, on a :
Section productive 1 = CC1 + CV1 + PL1 = Y1
Section productive 2 = CC2 + CV2 + PL2 = Y2
On note que Y1 + Y2 = Y ou produit social, et que, d’autre
part, CC2 = CV1 + PL1, i.e. que la valeur du capital constant
de la section de production des biens de consommation est
égale à la somme du capital variable et de la plus-value de
la section de production des biens de production.
Le salaire des prolétaires est totalement employé à la
consommation finale, tandis que le revenu des capitalistes,
obtenu après réalisation de la plus-value, est réparti entre les
deux types de marchandises. Les capitalistes disposent ainsi
d’un fonds de consommation et d’un fonds d’accumulation
(ou épargne).
Karl Marx envisage le cas hypothétique d’un fonds
d’accumulation nul. Ce cas correspond à la reproduction
simple. Lorsque le fonds d’accumulation est positif, la
situation est celle de la reproduction élargie.
3.3.1. Le cas « étrange » de la reproduction simple
Le cas étrange de la reproduction simple, pour reprendre
le mot même de Marx, correspond à l’égalité en valeur entre
l’offre et la demande de moyens de production, ou (ce qui
revient au même) à l’égalité en valeur entre l’offre et la
demande de biens de consommation finale. La valeur de la
demande de biens de consommation est égale à la somme
des salaires des travailleurs et des plus-values des
capitalistes.
3.3.2. La reproduction élargie
L’accumulation d’une partie de la plus-value sous forme
de capital constant et/ou variable modifie la condition
d’équilibre trouvée pour la reproduction simple ; car il
existe un excédent de moyens de production par rapport au
cas de la reproduction simple.
C’est cet excédent qui permet d’accroître ou d’élargir la
production. On voit ainsi la valeur de la production
augmenter : l’ensemble des grandeurs croissant à un rythme
annuel constant. C’est ce que l’on appelle la croissance
équilibrée marxiste ou croissance proportionnée.
Par le schéma de reproduction élargie, Marx fait un
apport qui le distingue nettement de tous les auteurs qui
l’ont précédé, même si l’héritage quesnaysien est évident,
comme on a pu le montrer. Avec la reproduction élargie, le
circuit économique se transforme en une spirale traduisant
le phénomène du capitalisme naissant engagé dans le
décollage économique, i.e., selon Walt W. Rostow, une
croissance économique à un taux élevé sur plusieurs
décennies (voir dans la troisième partie consacrée aux
problèmes économiques le chapitre : croissance
économique).
3.3.3. Les lois tendancielles
Les schémas de reproduction permettent d’établir des lois
tendancielles. La logique de la concurrence dans l’économie
capitaliste conduit les capitalistes à accumuler une partie de
la plus-value (i.e. croissance du capital constant) en vue
d’augmenter la production pour un coût salarial constant ou
moindre. La composition organique du capital (CC/CV)
s’élève. L’accumulation de la plus-value aboutit à
l’apparition d’une armée industrielle de réserve (chômage)
par substitution du capital constant au capital variable. Le
chômage a pour effet d’empêcher les salaires d’augmenter,
si ce n’est d’obtenir qu’ils baissent. Voici en résumé ce
qu’écrivait Marx dans Travail salarié et capital : « Plus le
capital productif s’accroît, plus la division du travail et le
machinisme gagnent en extension. Et plus la division du
travail et le machinisme s’étendent, plus la concurrence
entre les travailleurs s’intensifie, et plus leur salaire se
resserre » (op. cit., p. 228). Il en résulte une baisse
tendancielle du taux de profit (PL/[CC + CV]), car seule la
force de travail est source de plus-value.
Le progrès technique assure une contre-tendance par
augmentation de la plus-value relative, mais le phénomène
n’est pas durable. L’accumulation continue débouche sur
des crises récurrentes de surproduction au cours desquelles
les entreprises les moins performantes disparaissent.
Les entreprises en difficulté sont en fait rachetées par
celles qui ont une plus forte accumulation. Ainsi que Marx
l’écrit dans la conclusion du livre I : « L’expropriation
s’accomplit par le jeu des lois immanentes de la production
capitaliste, lesquelles aboutissent à la concentration des
capitaux » (op. cit., p. 1239). Cela constitue la deuxième loi
tendancielle du capitalisme, dite loi de concentration
progressive du capital et du pouvoir par la concentration des
entreprises. Les propriétaires expropriés viennent grossir le
prolétariat. Et, « à mesure que diminue le nombre des
potentats du capital qui usurpent et monopolisent tous les
avantages de cette période d’évolution sociale, s’accroissent
la misère, l’oppression, l’esclavage, la dégradation,
l’exploitation » (ibidem). Ce mouvement constitue la
troisième loi tendancielle dite loi de la prolétarisation et de
la paupérisation croissante. La classe ouvrière, prenant
conscience de cette exploitation, s’organise. « Le monopole
du capital devient une entrave pour le mode de production
qui a grandi et prospéré avec lui et sous ses auspices. La
socialisation du travail et la centralisation de ses ressorts
matériels arrivent à un point où elles ne peuvent plus tenir
dans leur enveloppe capitaliste. Cette enveloppe se brise en
éclats. L’heure de la propriété capitaliste a sonné. Les
expropriateurs sont à leur tour expropriés » (ibidem, p.
1239). C’est l’effondrement final du capitalisme.
3.4. Les limites de la théorie de Marx
Tous ceux qui ont parcouru les écrits de K. Marx sont
frappés par l’ampleur de son travail transdisciplinaire.
Certains, comme H.J. Sherman, vont même jusqu’à
reconnaître dans le marxisme « une science unifiée, qui
combine en un point de vue particulier des disciplines aussi
diverses que la philosophie, l’histoire, l’économie, la
sociologie et la science politique » (article « Marxisme »,
in : Douglas Greenwald éd., Encyclopédie économique,
Economica).
Le problème, avec cette science que constitue le
marxisme, est qu’elle se prête à de multiples lectures
divergentes qui obligent à la reproduction simple des écrits
du maître pour échapper à l’interprétation-trahison.
L’importance accordée au texte originel de Marx est telle
que le recours à des traductions doit toujours être précisé
avec le nom du traducteur…
Au-delà du système et de la doctrine marxistes, les
prophéties de Marx ne se sont pas réalisées. On attendait
l’avènement du socialisme en Angleterre, en France, en
Allemagne, et il s’est produit dans des pays qui n’avaient
pas réalisé leur décollage économique et qui ignoraient le
capitalisme industriel. Ainsi, Marx n’a pas pris en compte la
capacité d’adaptation du capitalisme.
Quelques rares travaux d’économistes marxistes
donneront des explications de cette évolution non prévue.
Ils insisteront sur l’impérialisme dont la fonction est
d’assurer des approvisionnements à bon marché en vue de
ralentir la baisse du taux de profit tout en améliorant les
salaires des ouvriers, afin de désamorcer la contestation du
régime (travaux de Rosa Luxemburg et de V.-I. Lénine).
Plus récemment, d’autres auteurs ont surtout cherché à
approfondir le concept de capitalisme monopoliste d’État.
Celui-ci est caractérisé de la manière suivante : « C’est, par
essence, le capitalisme par la permanence des rapports
fondamentaux d’exploitation ; c’est le stade de
l’impérialisme par l’extension des structures monopolistes ;
et, à l’intérieur de ce stade, c’est sa phase contemporaine
par le développement de l’intervention de l’État » (Le
Capitalisme monopoliste d’État, tome I, p. 9, Paris, Éditions
sociales, 1971).
Les tentatives pour amender les conjectures de Marx ne
font que traduire la difficulté majeure à les tester. En effet,
ces prédictions sont formulées en termes de lois
tendancielles, i.e. d’évolutions qui se réaliseront un jour ou
l’autre, sachant que, si l’on ne peut pas les vérifier
empiriquement sur une période donnée, c’est tout
simplement que le moment n’est pas arrivé pour que les
contre-tendances disparaissent. Ainsi, il y a bien des
concentrations d’entreprises, mais il y a aussi création de
nouvelles entreprises.
À un niveau plus analytique, on ne peut cependant nier la
profondeur du travail de Marx sur le machinisme, le
caractère précurseur de son analyse de l’interdépendance
des sections productives annonçant les systèmes de Léon
Walras et de Vassily Leontief (cf. chapitre 3, le tableau
d’entrées-sorties). Contrairement aux économistes
classiques, qui raisonnaient uniquement en termes réels,
conformément à la loi de Say impliquant la neutralité
monétaire, Marx a remis au premier plan le rôle de la
monnaie, comme on a pu le voir dans le circuit du capital. Il
précise explicitement que le vendeur n’amène pas sur le
marché son acheteur, et que l’équilibre sur le marché n’est
rien d’autre que l’égalité comptable qui indique que le
montant des ventes est égal au montant des achats.
Toutefois, dans les schémas de reproduction, base
fondamentale du système de Marx, la monnaie perd ses
qualités de facteur déterminant de l’équilibre réel. Le grand
mérite de J.M. Keynes, après les travaux précurseurs de K.
Wicksell, est de réintroduire l’interdépendance entre les
phénomènes réels et les phénomènes monétaires. C’est là un
aspect essentiel que l’approche en termes de régulation
prend en compte en partant des concepts fondamentaux de
l’analyse marxienne, tout en abandonnant ce qui est
contestable dans la théorie de Marx (voir encadré).
4. L’économie de Keynes et l’économie keynésienne ou
les questions importantes de l’économie
C’est à S.C. Kolm que nous avons emprunté l’idée selon
laquelle tout ce qui est fondamental est microéconomique,
et ce qui est important, macroéconomique (cité dans J.
Attali, M. Guillaume, Anti-économique, PUF, 1972). Il
semble peu exagéré d’étendre cette évaluation au rapport
existant entre l’économie néoclassique et l’économie
keynésienne.
En effet, même si l’approche néoclassique n’est pas
uniquement de nature microéconomique, ni toujours très
éloignée des contingences sociales et de l’application pour
être une économie pure, elle peut être néanmoins considérée
comme plus fondamentale par ses analyses des
comportements microéconomiques que la théorie
keynésienne qui est de nature macroéconomique et qui est
plus préoccupée par les problèmes de l’emploi socialement
plus importants. Il est certes bien évident que chaque
processus macroéconomique – comme la consommation
nationale, la production nationale, l’inflation, le chômage –
prend ses racines dans un comportement microéconomique,
selon la remarque de R.L. Heilbroner (Comprendre la
microéconomie, p. 18, Économica, 1974), mais la théorie
macroéconomique keynésienne se refuse d’analyser les
comportements d’individus, soit isolés, soit interdépendants,
avec l’hypothèse de la rationalité, totalement contradictoire
avec les déséquilibres économiques se traduisant par le
chômage et/ou l’inflation. Ainsi, elle s’intéresse aux flux
globaux, à l’emploi, à la croissance économique de la nation
et aux politiques économiques qu’il convient d’entreprendre
pour assurer la croissance économique permettant de se
rapprocher du plein-emploi de la population active.
À ce titre, on ne peut pas ne pas reconnaître que la théorie
macroéconomique keynésienne s’intéresse plutôt à ce qui
est important pour la société, sans nécessairement rejoindre
F.A. von Hayek lorsqu’il distingue la microéconomie
scientifique de la macroéconomie morale. La
macroéconomie keynésienne n’est pas nécessairement
normative. Elle ne se réduit pas à des principes de politique
économique ; les comptabilités nationales inspirées de la
théorie de Keynes montrent l’importance de l’approche
positive et descriptive qui ne peut être réalisée sans
l’élaboration de catégories scientifiques, élaboration à
laquelle la théorie keynésienne a largement contribué.
Le point de vue keynésien renoue avec l’analyse en
termes de flux, inaugurée par Quesnay et Marx. Il se
distingue cependant des points de vue antérieurs, car il
attribue à l’État un rôle fondamental de régulation. Alors
que l’État est absent dans l’ordre naturel du Tableau
économique des physiocrates et, dans le système marxiste, il
est le représentant de la classe dominante et, à ce titre, son
dépérissement est un des objectifs de la révolution
socialiste.
Chez Keynes, la fonction de régulation par l’État s’appuie
sur la théorie de la demande effective, qui ne peut être
comprise sans reconnaître l’importance de la demande de
monnaie dans la définition de l’équilibre macroéconomique.
Dès 1919, John Maynard Keynes attire l’attention sur ces
aspects d’interdépendance des phénomènes réels et
monétaires dans son ouvrage, Les Conséquences
économiques de la paix, dans lequel il souligne les dangers
inflationnistes et sociaux des exigences françaises et
britanniques vis-à-vis de l’Allemagne en matière de
réparations qui doivent se faire par des livraisons de
marchandises au lieu d’un paiement en monnaie.
Les faits lui donnèrent raison. Après avoir publié de
nombreux articles et ouvrages théoriques sur la monnaie et
la conjoncture économique, il publie en 1936 son œuvre
maîtresse, La Théorie générale de l’emploi, de l’intérêt et
de la monnaie, dans laquelle il expose de manière
synthétique et macroéconomique ce qui constituera le
système keynésien. Celui-ci donnera lieu à une
interprétation simplificatrice avec les travaux de John R.
Hicks, Alvin Hansen et Paul A. Samuelson, conduisant
récemment certains auteurs à distinguer la pensée de
Keynes du keynésisme ou keynésianisme.
4.1. La théorie de la demande effective et la politique
keynésienne
4.1.1. Les notions fondamentales de la théorie de la
demande effective
Le phénomène des crises économiques périodiques du
capitalisme industriel, décrit dès 1860 par le Français
Clément Juglar, a suscité une remise en cause des
hypothèses et des schémas classiques et néoclassiques d’un
monde irénique connaissant l’harmonie des intérêts.
Adam Smith, David Ricardo, John Stuart Mill, Léon
Walras, Henry George ont répliqué en dénonçant les
propriétaires fonciers, à leurs yeux responsables par leur
rente de la diminution du taux de profit. La confiscation de
la rente par un impôt ou par la nationalisation des terres était
ainsi un des rares points pour lequel l’intervention de l’État
était tolérée. Quelques voix, cependant, comme celles de
Malthus, de Sismondi, de Hobson (disciple de Marshall),
auxquelles il faut ajouter celle de Marx, s’élevèrent pour
situer les responsabilités ailleurs. Mais tous ces auteurs
hétérodoxes ont insisté sur le rôle de la demande effective
(i.e. la demande qui aura des effets, notion utilisée déjà dans
ce sens par Malthus), qui désigne ainsi la demande globale
anticipée par les entrepreneurs. La demande globale, dans
une économie ouverte, est la somme ou agrégat de la
demande d’investissement, de la demande gouvernementale,
de la demande étrangère et de la demande en biens de
consommation des ménages. Dans La Théorie générale,
Keynes raisonne en économie fermée, de sorte qu’il n’est
pas tenu compte des exportations (demande étrangère). Et,
pour simplifier, les dépenses publiques des administrateurs
peuvent être réparties en consommation et investissement.
La demande effective, assimilée ainsi à la prévision de
demande globale, détermine alors le comportement des
entrepreneurs. Comme ces derniers ne produisent que ce
qu’ils espèrent vendre, l’offre va s’ajuster à cette demande
effective et le niveau de l’emploi effectif sera alors celui qui
permet cette production. En d’autres termes, le plein-emploi
n’est pas garanti. En effet, contrairement à l’équilibre
classique signifiant, selon la loi de Walras, que la somme
nette des demandes excédentaires est nulle en valeur (i.e.
que si, sur un marché, la demande est plus grande que
l’offre, sur les autres elle est inférieure, de telle sorte que les
différences soient nulles), l’équilibre keynésien est
seulement un équilibre comptable. De ce point de vue,
l’équilibre, résultant de l’égalité entre les revenus distribués
et les dépenses de consommation et d’investissement, peut
se faire à un niveau de revenu de sous-emploi, en raison de
la thésaurisation d’une partie du revenu. Ce phénomène de
thésaurisation, que Keynes appelle préférence pour la
liquidité et que l’on identifie à la demande de monnaie,
s’explique par trois motifs et dépend du revenu national et
du taux d’intérêt.
Un individu thésaurise ou épargne pour faire face soit à
des achats futurs (motif de transaction), soit à des aléas de
tout genre (motif de précaution). Dans ces deux cas, la
préférence pour la liquidité est une fonction croissante du
revenu. Le troisième motif de préférence pour la liquidité, le
motif spéculation, est fonction du taux d’intérêt.
Ainsi, lorsqu’une obligation dont la valeur nominale est
de 100 € donne un intérêt fixe de 10 € au taux de 10 %, il
devient intéressant d’acheter ce titre, si son cours en Bourse
baisse, et de réduire ainsi l’encaisse spéculative. Par
exemple, à 50 €, le taux d’intérêt s’élève à 20 % (10 €
d’intérêt fixe divisés par le cours de 50 €). L’encaisse
spéculative augmente au contraire lorsque le cours de
l’obligation s’élève, car il vaut mieux prendre ses bénéfices,
i.e. vendre une obligation achetée 100 €, lorsqu’elle atteint
200 €, puisque le taux d’intérêt n’est alors plus que de 5 %,
tandis que la plus-value en capital est de 100 % (200 – 100).
Le taux d’intérêt est le prix de la monnaie qui s’établit par
la confrontation de l’offre autonome de monnaie par la
Banque centrale et de la demande de monnaie. Le niveau du
taux d’intérêt détermine sans doute le volume des encaisses
spéculatives mais aussi, de manière indirecte, le niveau de la
demande d’investissement. Celle-ci est liée, en effet, à
l’écart entre l’espérance de profit, que Keynes appelle
l’efficacité marginale du capital, et le taux d’intérêt.
L’investissement n’est avantageux que si l’efficacité
marginale du capital (bénéfice actualisé prévu divisé par le
montant de l’investissement) est supérieure ou égale au taux
d’intérêt. Keynes, par cette règle, rejoint la vieille doctrine
mercantiliste qui préconisait une politique de bas taux
d’intérêt. Pour le calcul du bénéfice, les entrepreneurs
tiennent compte du risque. Le taux d’actualisation reflète ce
risque : s’il est à 10 %, cela veut dire que la valeur de 100 €,
dans un an, a une valeur actuelle de 90 €. La valeur
actualisée est donc la valeur future au temps (n) rapportée
au taux d’actualisation appliquée pour la période envisagée
VA = Vn (1 + i) –n.
Un taux d’intérêt élevé peut en outre avoir pour effet de
réduire la part normale du revenu consacrée à la
consommation en incitant les ménages à épargner, réduisant
ainsi les débouchés et la rentabilité de l’investissement.
Toutefois, Keynes, pour simplifier, considère que la
consommation est une fonction croissante du revenu
national, mais le rapport entre la consommation et le revenu
diminue avec la croissance de celui-ci (loi de Keynes que
nous discuterons plus loin,).
Le schéma synoptique qui suit donne l’articulation des
principales catégories de la théorie de Keynes. Il faut
seulement préciser le concept de coefficient technique de
production évoqué ci-dessus. Dans la théorie de Keynes, le
volume de la production dépend du volume de travail et le
rapport entre le capital et le travail est supposé constant. On
parle, dans ce cas, d’une fonction de production à
complémentarité de facteurs. C’est une hypothèse
compatible avec le fait que l’analyse keynésienne est une
analyse de courte période : le progrès technique et la
substitution du capital au travail n’ont pas le temps
d’exercer leur effet.
Il en résulte que, lorsque les entrepreneurs déterminent le
niveau de production correspondant à la demande effective,
on déduit facilement le niveau de l’emploi nécessaire pour
réaliser cette production. Par exemple, si la production
nationale est Y, l’emploi L, et si a est le coefficient
technique que l’on appelle la productivité apparente du
travail, i.e. la production par travailleur, alors :
Y = aL ou L = Y/a.
Le niveau de l’emploi est le rapport entre la production
nationale et la productivité apparente du travail.
Fig. 2.6
. Schéma synoptique de la Théorie
générale… de J.M. Keynes
4.1.2. L’intervention de l’État et la régulation par la
demande
La théorie de la demande effective conduit à justifier
l’intervention de l’État pour soutenir et réguler l’activité
économique. Elle autorise donc la substitution de l’État-
providence à l’État-gendarme. Pour obtenir le plein-emploi,
l’État doit veiller à ce que la demande effective « ne
s’abaisse jamais en dessous de la limite à partir de laquelle
apparaîtrait un chômage généralisé » (cité par M. Stewart,
Après Keynes, p. 8, Le Seuil, 1970). Et l’État dispose pour
ce faire de moyens nombreux : l’augmentation des dépenses
publiques, la diminution des impôts en vue d’augmenter le
revenu disponible et de stimuler la consommation,
l’augmentation de l’offre exogène de monnaie pour abaisser
les taux d’intérêt afin d’augmenter les investissements sont
les principales mesures d’une politique économique
keynésienne. À celles-ci, il convient d’ajouter les mesures
d’inspiration keynésienne comme les revenus de transfert
(ou revenus sociaux) en faveur des groupes sociaux ayant
une forte propension à consommer. Ainsi, le système de
Sécurité sociale maintient un revenu aux personnes
malades, handicapées, âgées ou au chômage, et constitue la
principale institution de cet État-providence pourvoyeur de
ces revenus sociaux sans contrepartie pour les bénéficiaires.
Finalement, le principe de la politique keynésienne pour
lutter contre la crise consiste à maintenir les débouchés pour
la production. Et ce n’est pas la solution classique de la
flexibilité des salaires, se traduisant par la baisse de ceux-ci,
qui pourrait le faire, d’autant plus que les syndicats sont en
mesure de s’opposer à toute décision entraînant la
diminution du salaire nominal. Ainsi, le salaire est rigide à
la baisse.
4.2. Les développements de l’économie keynésienne
La Théorie générale est une véritable révolution
scientifique, dans la mesure où elle propose une façon
radicalement différente d’envisager les problèmes
économiques de celle des classiques et néoclassiques. Cette
révolution aurait aussi bien pu être qualifiée de «
kaleckienne », car le Polonais Michal Kalecki a fait, de
manière quasi simultanée, la même analyse que J.M.
Keynes. L’idée était dans l’air du temps, puisque G. Myrdal,
en Suède, présentait, avec quelques années d’avance, le
principe de l’équilibre monétaire et des déséquilibres entre
les anticipations (analyse ex-ante) et les réalisations
(analyse ex-post). Mais la Théorie générale bénéficie d’un
contexte favorable de remise en cause des politiques
économiques libérales22 – la crise des années 1930 – et elle
comporte un projet plus ambitieux dans le domaine de la
politique économique par rapport aux œuvres de Myrdal et
de Kalecki. Elle suscite un vif intérêt, aussi bien à
Cambridge autour de Keynes que dans différents autres
centres de recherche dans le monde, sans pour autant
étouffer l’économie néoclassique. Dès le départ, les
développements parallèles des deux courants
s’accompagnent d’emprunts réciproques et des travaux de
réinterprétation de l’une des théories par l’autre pour obtenir
un courant récent d’économie du déséquilibre.
4.2.1. Les prolongements de l’économie keynésienne
orthodoxe
a) La théorie de J.M. Keynes appelait la mise au point
d’outils d’analyse macroéconomique, aussi bien pour
vérifier ou à tester les fondements de la théorie elle-même
que pour aider les pouvoirs publics à comprendre la
conjoncture et à définir leurs stratégies face à des problèmes
macroéconomiques tels que le chômage, l’inflation et les
déséquilibres des échanges extérieurs.
L’élaboration des comptabilités nationales grâce,
notamment, aux recherches de Richard Stone et Simon
Kuznets, répondait à ces soucis. En France, les travaux de
François Perroux à l’ISEA (devenu ISMEA : Institut de
sciences mathématiques et économi-ques appliquées) avec
Jean Marczewski, ceux de Claude Gruson au SEEF (Service
des études économiques et financières), qui deviendra la
direction de la prévision du ministère de l’Économie,
participent à ce mouvement. La construction des modèles
économétriques macroéconomiques est alors possible. Les
pionniers dans ce domaine sont Jan Tinbergen, Lawrence
Klein. En France, cette perspective est poursuivie
notamment par Gaston Olive, Philippe Herzog, Raymond
Courbis, Pierre-Alain Muet, Patrick Artus, soit à l’INSEE,
soit dans des centres universitaires, soit à l’Observatoire
français des conjonctures économiques (OFCE), soit dans
des organismes privés.
b) J.M. Keynes, malgré quelques notes consacrées au
cycle, ne s’est intéressé qu’à la courte période. Sa boutade
est restée célèbre : « À long terme, nous sommes tous morts.
»23 Roy Harrod (1900-1978), Nicholas Kaldor (1908-1986)
et Joan Robinson (1903-1983) appliqueront à la croissance à
long terme la théorie keynésienne de la courte période, en
prenant en compte le progrès technique et le problème de la
répartition des revenus. Dans ce domaine de la croissance,
la théorie keynésienne et la théorie néoclassique ne se
distinguent formellement que sur quelques hypothèses. Les
modèles keynésiens raisonnent avec l’hypothèse de
complémentarité des facteurs de production, alors que les
modèles néoclassiques optent pour la substituabilité, avec
l’hypothèse déterminante de la flexibilité des prix des
facteurs (cf. chap. 4). Les modèles keynésiens envisagent la
possibilité d’une croissance régulière s’accompagnant du
sous-emploi, alors que les modèles néoclassiques raisonnent
en termes d’optimalité (Edmond Malinvaud, « Les
croissances optimales », Cahier du séminaire
d’économétrie, n° 8, 1965).
4.2.2. Vers la synthèse Walras-Keynes
a) Le Modèle IS-LM. Dès 1937, John Richard Hicks, dans
son article resté célèbre (« Keynes et les classiques »),
donne une interprétation néoclassique de la théorie
keynésienne connue sous le nom de schéma IS-LM.
L’équilibre global est obtenu par l’équilibre simultané sur
les marchés des biens et services23, de la monnaie (LM) et du
travail. Sur ces différents marchés, les fonctions d’offre et
de demande sont agrégées (i.e. somme des offres et somme
des demandes).
Dans ce schéma, Hicks montre que la théorie
keynésienne, en termes de flux comportant la rigidité du
salaire nominal à la baisse, est un cas particulier de
l’analyse néoclassique, en termes de prix ou de marché. Le
niveau de l’emploi dépend à la fois du niveau des salaires,
du taux d’intérêt, du volume de l’investissement, du volume
de la masse monétaire et du niveau du revenu national.
Avec les schémas de Hicks, qui seront repris par Alvin
Hansen, on n’est déjà plus dans la théorie keynésienne
orthodoxe. C’est le début de l’économie néokeynésienne,
que poursuivront Paul A. Samuelson, Don Patinkin, James
Tobin, Robert Mundell et un grand nombre d’autres
économistes post-keynésiens.
Le schéma IS-LM, en particulier avec R. Mundell, est
utilisé pour choisir entre la politique budgétaire de dépense
(IS) et la politique monétaire de surveillance des liquidités
(LM), en fonction de la fixité ou du flottement des taux de
change et du degré de mobilité internationale des capitaux.
On notera également que c’est en partant de la théorie
keynésienne corrigée par la prise en compte des
comportements individuels que Mundell a exprimé les bases
de l’économie de l’offre. Elle sera popularisée par A.B.
Laffer et l’expérience de la « Reaganomics » (la politique
économique du président Reagan aux États-Unis). Cette
théorie préconise de relancer l’offre par la fiscalité, en
favorisant les investissements et les activités productives
des entreprises et des particuliers.
b) L’économie du déséquilibre. Dans les années 1960-70,
les travaux de Robert Clower, Axel Leijonhufvud puis
Robert Barro et Herschel Grossman proposent un
mouvement d’intégration inverse consistant à voir dans le
modèle de Walras un cas particulier de la Théorie générale.
Cette version est poursuivie en France, notamment par Jean-
Pascal Benassy, Jean-Michel Grandmont, Pierre-Yves Henin
et Edmond Malinvaud.
Le fondement de cette nouvelle économie
néokeynésienne est l’hypothèse de l’information imparfaite.
Il n’y a plus de commissaire-priseur du modèle walrassien
qui crie les prix de manière gratuite pour arriver après
tâtonnements à un équilibre général avec dénouement de
tous les contrats d’achat et de vente, au même instant sur
tous les marchés. L’information est un bien rare dont
l’obtention implique un coût. Les agents économiques sont
alors obligés de considérer les prix comme fixes à court
terme. La flexibilité du modèle néoclassique standard est
abandonnée. Or, pour un prix fixe, la demande pour un bien
ou un service peut être soit trop élevée – et les demandeurs
seront rationnés –, soit trop faible – c’est alors l’offre qui
sera rationnée. L’équilibre se réalise non pas par les prix
mais par les quantités, comme dans le modèle keynésien.
Cet équilibre à prix fixe aura pour base l’élément le plus
petit du couple offre-demande. C’est ce que l’on appelle la
règle du côté court. Le côté long est rationné. Le
déséquilibre avant la transaction devient en fait un équilibre
avec rationnement. Il s’agit bien d’un équilibre, puisque le
total des achats est égal au total des ventes, bien que la
demande nette (demande moins offre) ne soit pas nulle.
Ce phénomène résulte du processus de décision duale.
Par exemple, le demandeur de biens de consommation
exprime sa demande sur le marché en cherchant à
maximiser sa satisfaction (demande notionnelle de la théorie
néoclassique) ; il va ensuite sur le marché du travail pour
offrir ses services, mais il reçoit un revenu inférieur à celui
qu’il espérait lors de la définition de sa demande notionnelle
de biens. Il est alors conduit à baisser sa demande effective.
L’effet de report dans la décision duale – l’agent visite les
marchés successivement au lieu du mécanisme de la
simultanéité de Walras – résulte de la prise en compte de la
fonction de réserve de valeur de la monnaie – i.e. la
préférence pour la liquidité, dans la théorie keynésienne.
Celle-ci aboutit à la séparation, dans le temps et dans
l’espace, de la relation d’échange
Dans le modèle de Walras, la monnaie est le énième bien
quelconque devant servir d’étalon ou de numéraire au sens
de Walras. Dans l’équilibre avec rationnement, la monnaie
est le non-bien : « La monnaie achète les biens » (Robert
Clower). On renonce à la loi des débouchés. La monnaie est
par conséquent la liquidité par excellence, qui permet de
réaliser les transactions sans attendre qu’il y ait un équilibre
général. L’agent économique se porte acquéreur sur le
marché dès qu’il dispose de monnaie, obtenue sur un autre
marché où il a été offreur d’un bien ou d’un service. Dans
ces conditions, la monnaie devient un propagateur des
déséquilibres. Ceux-ci sont de trois sortes :
Si les ménages perçoivent un rationnement sur le marché
du travail (offre de travail plus grande que la demande), leur
revenu sera plus faible que celui qu’autoriserait le plein-
emploi. Un effet de report se produit sur le marché des
biens. Sur celui-ci, si l’offre des entreprises excède la
demande des ménages, il en résulte une sous-consommation
et un sous-emploi. Ce cas de figure correspond au chômage
keynésien.
Si le chômage involontaire est associé à un rationnement
des ménages sur le marché des biens (demande de biens par
les ménages plus grande que l’offre par les entreprises), on
parlera de chômage classique. Ce phénomène est dû à des
salaires trop élevés et/ou à des profits trop faibles.
Si les entreprises sont rationnées sur le marché du travail,
l’effet de report affecte l’offre de biens. Lorsque l’excès de
demande de travail s’accompagne d’un excès de demande
de biens, des pressions inflationnistes s’exercent. Étant
donné que le modèle raisonne à court terme à prix fixes,
l’inflation n’a pas le temps de se déclarer : on parle
d’inflation contenue.
À la fin des années 1970 apparaissent des auteurs qui se
présentent comme des nouveaux économistes keynésiens
(N.E.K). Ils recherchent les fondements microéconomiques
de la théorie keynésienne. Ils gardent l’hypothèse de la
rigidité des prix à court terme24 (les prix sont fixés selon le
mode du marché en monopole) et utilisent les modèles de
concurrence imparfaite pour l’analyse des problèmes
macroéconomiques comme par exemple le chômage, les
fluctuations de l’activité économique. Les marchés sont
imparfaits et incomplets : on ne sait pas tout sur tout
(imperfection) ; toutes les stratégies potentielles des
différents acteurs sur le marché ne sont pas identifiées ou
identifiables (incomplétude) ; ces caractères se complètent
par l’asymétrie informationnelle qui débouche sur de
l’antisélection (sélection adverse) et le risque moral, et par
la prise en compte de l’hétérogénéité du facteur travail. Par
exemple, l’antisélection appliquée au marché du travail
conduit à préconiser d’éviter, pour celui qui cherche à
embaucher mais qui ne connaît pas les qualifications des
chercheurs d’emploi, de proposer des salaires plus faibles
que ceux du marché, comme une logique néoclassique
appliquée conduirait naïvement à le faire conformément à la
loi du marché (l’équilibre se fait par la baisse du prix
lorsque l’offre est plus grande que la demande). En effet, un
faible salaire conduirait à n’accueillir que les travailleurs les
plus incompétents. De leur côté, les chercheurs d’emploi à
haute compétence qui accepteraient un salaire faible – plus
faible que celui qui correspondrait à leur haut niveau de
compétence – annoncent (ou donnent un signal de), par
cette acceptation, leur faible niveau de compétence. Ils
risquent donc de ne pas être embauchés. L’absence
d’information du demandeur de travail (celui qui cherche à
recruter) avant l’embauche sur l’offreur de travail (celui qui
cherche un emploi) aboutit donc, dans les deux cas – offreur
et demandeur – à la sélection adverse. L’aléa moral ou
risque de moralité, on dit encore le hasard moral, peut être
illustré par le comportement du chômeur qui reçoit une
prestation sociale mais avec l’engagement de chercher du
travail et qui ne tient pas son engagement, et attend la fin de
la prestation pour se présenter dans des bureaux qui assurent
l’information sur les emplois disponibles. Ici le phénomène
d’asymétrie de l’information concerne la période qui suit le
contrat, celui qui paie ne connaît pas le comportement de
celui qui bénéficie de la prestation. Les auteurs les plus
représentatifs de ce courant de la NEK sont George Akerlof,
Joseph Stiglitz, Michaël Spence, Paul Romer, Olivier
Blanchard.
4.3. Portée et limites du courant keynésien
L’analyse macroéconomique moderne ne peut renoncer à
l’apport de la théorie keynésienne. Les comptabilités
nationales et les modèles macroéconomiques ont aidé les
gouvernements dans la définition de leur politique
économique. À ce titre, le développement du courant
keynésien peut ne pas être considéré comme étranger aux «
Trente Glorieuses25 », i.e. aux trente années d’expansion
enregistrées entre 1945 et 1975 par la plupart des nations.
Mais, avec l’apparition de la stagflation dès 1967 – faible
croissance économique accompagnée de croissance du
chômage et haut taux d’inflation – l’analyse keynésienne –
tout comme d’ailleurs l’analyse néoclassique standard –
montre ses limites.
La théorie de Keynes est conçue pour un espace supposé
fermé et connaissant une insuffisance de la demande
effective. Avec l’émergence des jeunes nations, l’apparition
de la société de consommation, la constitution de zones
économiques d’échange sans droits de douane comme le
Marché commun et l’adoption d’accords favorables au
développement des échanges internationaux – accords
Kennedy de 1967 au sein de l’AGETAC (Accords généraux
sur les tarifs douaniers et le commerce, ou GATT en anglais,
institué depuis 1948) et de l’OMC qui en prend la suite au
1er janvier 1995 –, le système keynésien s’est avéré moins
pertinent pour un espace national largement ouvert sur
l’extérieur.
L’interdépendance des nations oblige à élargir l’espace
keynésien à l’économie des zones intégrées (de type
Communauté économique européenne ou CEE qui
deviendra Union européenne, ALENA pour Association de
libre-échange nord-américaine, etc.) sinon à l’économie
mondiale, le seul espace keynésien véritable. L’apparition
d’une troisième révolution industrielle, avec les nouvelles
technologies d’information et de production, exige à son
tour un élargissement de la problématique keynésienne
centrée sur la demande et ignorant l’entreprise et les
conditions techniques de la production.
5. L’hétérodoxie économique
Il n’existe pas de courant hétérodoxe à proprement parler,
mais plutôt des individus isolés ou des écoles particulières
en marge des courants dominants auxquels ils peuvent faire
des emprunts.
Si l’économiste orthodoxe peut être assimilé à un
chercheur placé au centre du paradigme qui s’attache à
approfondir la théorie dominante, l’hétérodoxe peut alors
être comparé à un chercheur, situé à la lisière des
paradigmes concurrents, qui propose de nouvelles
hypothèses, de nouveaux problèmes, de nouvelles méthodes
en s’ouvrant davantage aux autres sciences sociales et
humaines ou en acceptant de reconnaître la pertinence de
chaque paradigme dominant en fonction de la nature des
problèmes.
Tout économiste insatisfait par le système d’hypothèses
du courant dominant devient un hétérodoxe ou un hérétique
à partir du moment où il propose soit un système alternatif,
soit des analyses indépendantes du système qu’il pratique
par ailleurs, en faisant appel à des méthodes et à des
hypothèses différentes. Lorsque le système alternatif est
cohérent pour constituer une théorie explicative générale et
lorsqu’il est pertinent au regard des problèmes de la société,
il peut déboucher sur un nouveau paradigme et un courant
reconnu, comme ce fut le cas avec J.M. Keynes et sa théorie
de la demande effective. Il y a ainsi plusieurs manières
d’être hétérodoxe, mais, le plus souvent, avec l’historicisme,
l’institutionnalisme et l’école perrouxienne (F. Perroux), il
s’agit de redonner plus d’épaisseur sociale aux analyses
économiques trop abstraites qui ignorent les comportements
réels et les phénomènes de pouvoir.
5.1. L’historicisme
C’est une doctrine basée sur l’étude des faits historiques
et sociaux, en vue d’en dégager les termes d’évolution. Elle
s’est développée en réaction à la démarche déductive de
certains classiques puis des néoclassiques. Pour ce courant,
appelé encore école historique allemande, les lois
économiques ne sont pas indépendantes des systèmes
économiques, et seule la connaissance de ceux-ci permettra
d’établir ces lois. Il faut par conséquent accumuler des faits.
La question que posent ceux qui refusent une telle approche
radicalement inductive est celle-ci : à partir de quel volume
de faits doit-on penser que c’est suffisant pour commencer
l’analyse ? (Voir K. Popper qui a intitulé l’un de ses travaux
consacrés à cette méthode La Misère de l’historicisme.)
Les principaux représentants de ce courant sont G.
Roscher (Précis d’un cours d’économie politique d’après la
méthode historique, 1843), B. Hildebrand (L’Économie
politique du présent et de l’avenir, 1848) et C. Knies
(L’Économie politique envisagée au point de vue historique,
1853).
5.2. L’institutionnalisme
Ce courant est apparu à la fin du XIXe siècle. Il est une
version américaine de la contestation historiciste à l’égard
de l’abstraction des écoles marginalistes. Mais si
l’historicisme s’est essoufflé, l’institutionnalisme n’a pas
cessé de susciter de nouveaux travaux et un intérêt soutenu
qui s’est traduit en particulier par l’attribution du prix Nobel
1993 à Douglass North et Robert William Fogel. Elle met
l’accent sur le rôle joué par les institutions dans l’évolution
de l’activité économique. Par institution, on entend les
règles du jeu dans la société. Thorstein Bunde Veblen
(1857-1929), fondateur du courant, définit l’institution
comme « des habitudes mentales prédominantes, des façons
très répandues de penser les rapports particuliers et les
fonctions particulières de l’individu et de la société » (Th.
B. Veblen, The Theory of Leisure Class, 1899. Traduction
française : Théorie de la classe de loisir, Gallimard, Coll. «
TEL », Paris, 1978). Dans un sens plus courant et plus large,
la notion d’institution désigne l’administration, les lois, le
droit, la justice, les modes de régulation, le pouvoir,
l’information, etc.
Cette école, qui s’est intitulée la « nouvelle économie »
inspire le courant radical américain. Ses apports à l’analyse
économique sont nombreux : la théorie de l’accélération de
John Maurice Clark (cf. chap. 4), le comportement
d’ostentation de certains consommateurs vu par T. Veblen,
la théorie du pouvoir compensateur (rôle des syndicats, des
associations de consommateurs) et de la technostructure,
étudiée par J.K. Galbraith , etc.
Le néo-institutionnalisme est également d’une grande
fécondité. Avec « la nature de la firme »26 (1937), Ronald
Coase explique l’existence de la firme par les coûts de
transaction. En 1960, avec son théorème éponyme, il
explique dans l’article « Le problème du coût social »27 «
que ce qui est échangé sur le marché, ce n’est pas, comme il
est souvent supposé par les économistes, des entités
physiques, mais les droits d’exercer certaines actions, et que
les droits que les individus possèdent sont établis par le
système légal ». En d’autres termes, l’échange porte sur les
droits d’utiliser les biens. Par conséquent les externalités
aussi bien négatives que positives n’apparaissent que
lorsque les droits de propriété ne sont pas clairement
définis. La formulation conventionnelle du théorème de
Coase indique que « dans un monde où les coûts de
transaction sont nuls, l’allocation des droits de propriété se
fera automatiquement de manière optimale, par le jeu des
échanges et des marchandages auxquels les agents
procèdent, et ceci quelle que soit la répartition initiale de ces
droits »28. L’optimum social peut être atteint par le marché
sans intervention de l’État, même dans des situations
comportant des externalités négatives. Avec Oliver
Williamson, qui reprend la théorie de la firme de R. Coase,
on a affaire à la nouvelle école institutionnelle qui étudie
l’opportunité du recours au marché ou à l’organisation (la
hiérarchie) en fonction des coûts de transaction attachés aux
opérations d’échange que doit faire une entreprise. Les
échanges internes, i.e. l’intégration, sont à prescrire dès lors
que les recours aux marchés sont fréquents et qu’ils portent
sur des biens fortement spécifiques à l’entreprise.
5.3. L’économie évolutionnaire
Il s’agit d’un courant29 qui a suscité un grand intérêt à
partir du début des années 1980 avec trois publications
fondatrices (deux livres et un article)30 et une revue
internationale spécialisée31. L’objet de l’économie
évolutionnaire ou économie évolutionniste est, selon les
indications de Richard Nelson et Sidney Winter, de «
comprendre le changement cumulatif, considérable et
complexe de la technologie et de l’organisation économique
qui a transformé la situation des hommes pendant quelques-
uns des siècles passés ». Cette idée de transformation est
empruntée au naturaliste Jean-Baptiste Lamarck, élève de
Buffon, en ce que les économistes évolutionnistes accordent
beaucoup d’importance à l’apprentissage qui facilite
l’adaptation. Mais c’est tout de même l’idée d’évolution,
selon le principe de sélection naturelle à la Darwin, qui est
manifeste dans l’appellation même du courant de recherche.
L’économie évolutionnaire s’inspire des théories
biologiques et institutionnalistes pour décrire le
développement et la transformation progressive des
systèmes et des organisations. L’un des précurseurs dans ce
domaine est Armen Alchian (« Incertitude, évolution et
théorie économique », JPE, 1950). Il propose l’abandon du
postulat standard de maximisation d’une fonction objectif
sous contrainte pour le remplacer par le principe selon
lequel les firmes sont guidées par la recherche de « règles de
conduite » permettant leur survie. C’est également la
substitution d’une logique de satisfaction, inspirée des
travaux de Hebert A. Simon , à une logique de
maximisation, elle-même couplée aux analogies
biologiques, qui conduiront S.G. Winter à affirmer, à l’instar
de la sélection écologique des espèces qui agit à long terme,
que c’est aux structures des firmes qu’il faut se référer pour
comprendre leur évolution. Les firmes formalisent des
règles de décision qu’elles appliquent d’une manière
routinière, jusqu’à ce que des circonstances exceptionnelles
les obligent à changer.
Héritière du programme de recherche institutionnaliste,
l’approche évolutionnaire de l’économie reprend l’idée
schumpétérienne – développée par Kenneth E. Boulding
(1910-1993) dans Evolutionnary Economics (1981) –, idée
selon laquelle l’entrepreneur innovateur, en changeant ses
comportements routiniers, est à l’origine de la dynamique
du système économique. Elle se caractérise par trois
orientations majeures :
- l’analyse du comportement des firmes en référence à
un principe de sélection qui agit sur l’évolution des
firmes en choisissant celles qui présenteraient les «
gènes » les plus adaptés au contexte concurrentiel ;
- l’interprétation du progrès technique et des
innovations comme un processus cumulatif,
localisé et spécifique. Il serait le résultat de facteurs
permanents – d’hérédité au sens biologique – qui
sont les « gènes » des firmes, et sont interprétés
comme des « routines » appliquées par les agents et
qui fondent leurs comportements ;
- la conception de l’environnement économique
comme un ensemble des évolutions possibles d’une
population d’organisations, tributaire d’un principe
de contingence et de variété, ce qui conduit à
attribuer une nature génétique aux enchaînements
sélectifs qui évoluent de façon irréversible.
Fig. 4.1
. Les facteurs de production et le circuit
économique
Mode de lecture : les flèches en lignes
continues sont les premières déterminations,
l’absence de flèche est synonyme de confusion
des valeurs et des périodes. Les lignes
discontinues rétroactives correspondent à une
deuxième phase. L’épargne permet le
financement de l’investissement, l’investissement
permet de constituer le capital, l’ensemble des
dépenses justifient l’activité de production.
2.1.2. Le facteur résiduel et la croissance endogène
D’un point de vue positif, la trinité factorielle n’est pas
satisfaisante, car l’expérience a montré que la production
peut augmenter sans qu’il y ait pour autant une
augmentation de même importance des facteurs identifiés. Il
existe ainsi des facteurs cachés, parce que incorporés dans
les facteurs visibles. Il peut s’agir de la qualité des matières
premières, de la main-d’œuvre, des équipements. Il peut
s’agir aussi de la qualité de l’environnement socio-
économique ou de l’organisation et de la dimension de
l’entreprise.
Tous ces éléments sont difficiles à isoler et ils sont mal
quantifiables. Lorsque, dans l’entreprise, la production
augmente sans qu’il y ait de croissance dans les facteurs
exogènes, comme par exemple le nombre de travailleurs et
le volume des équipements, et sans qu’il soit possible
d’identifier la cause de la croissance, Harvey Leibenstein
propose de nommer ce phénomène « efficience X », « X »
étant le symbole de ce qui est inconnu. Il peut aussi bien
caractériser la qualité des facteurs objectifs que le rôle de
l’organisation que l’économie standard a tendance à
négliger : les bonnes conditions de travail, l’adaptabilité, la
flexibilité organisationnelle, un bon climat social dans
l’entreprise, etc. sont quelques éléments qui relèveraient du
facteur X. En macroéconomie, on parle de facteur résiduel,
du résidu de Solow8 ou encore de tiers facteur en raison de
la méthode de sa mise en évidence. On ne peut le constater
qu’après avoir calculé l’influence directe des facteurs
traditionnels.
Plus récemment, un effort de recherche a été entrepris
pour tenter de réduire la part inexpliquée de la croissance.
Selon ces travaux, la croissance qui n’est pas expliquée par
les facteurs exogènes identifiables est en grande partie la
croissance due à des facteurs endogènes.
Les théoriciens de la croissance endogène (P. Romer, R.
Lucas, Ph. Aghion, Howitt, etc.) indiquent que le
phénomène peut être dû aux externalités positives produites
par la firme qui investit et par l’intervention de l’État. Le
propre de ces externalités est de profiter à l’ensemble des
firmes de l’économie considérée. Le phénomène
d’apprentissage au cours de la production (« learning by
doing », présenté en 1962 par K. Arrow et repris en 1986
par P. Romer), la diffusion du savoir dans la société, les
investissements publics en infrastructures, en éducation, en
recherche et développement (R & D) sont les principales
sources étudiées pour expliquer la croissance endogène.
L’expression croissance endogène se justifie doublement.
En premier lieu, les facteurs résiduels qui jouent un rôle
important dans la croissance de la production à long terme
peuvent être expliqués. En deuxième lieu, ces facteurs de la
croissance sont aussi des produits de la croissance elle-
même. Par exemple, les infrastructures de transport ne
peuvent être développées que si la puissance publique est en
mesure de les financer, or les recettes de l’administration
sont dépendantes du niveau du revenu national et même du
revenu par tête que l’on retient comme un indicateur du
développement économique. Ainsi, avec la théorie de la
croissance endogène, on retrouve le phénomène de la
causalité circulaire cumulative du développement déjà
présenté dans le premier chapitre.
Si l’on se sert de la présence d’un type de rémunération
comme révélateur de l’existence d’un facteur, tandis que le
niveau révèle la qualité du facteur, cette démarche inductive
conduit à rejeter l’approche trinitaire, dans la mesure où elle
ignore la distinction entre les capitalistes, qui perçoivent des
intérêts pour les capitaux prêtés, et les entrepreneurs, qui
constatent un profit éventuel après avoir rémunéré
l’ensemble des autres facteurs et vendu la production.
Toutefois, pour une analyse quantitative des facteurs, nous
ne progressons pas par rapport à la trinité. Le facteur
entreprise ou l’entrepreneur est qualitatif. Son influence sur
le niveau de la production est intégrée dans le facteur
résiduel.
2.2. La nature
Le facteur nature, dans sa capacité productive, se
manifeste par l’espace tridimensionnel, par les matières
premières végétales, minérales et animales. Relève
également de la catégorie matières premières l’énergie
primaire (pétrole, gaz, charbon, soleil, vent, marées,
hydroélectricité). Les éléments du facteur nature sont en
principe non transformés (sauf pour l’hydroélectricité,
classée conventionnellement dans les sources d’énergie
primaire). Le facteur naturel n’existe de manière autonome
que tant qu’il n’est pas exploité. Mais, une fois disponible
pour la production directe, le facteur nature n’est déjà plus
seul. Il est un produit, primaire sans doute dans le langage
conventionnel, qui incorpore du travail.
2.2.1. La nature naturante9
Mis à part les terrains de construction et les terrains
agricoles qui sont durables et, à ce titre, ne font pas l’objet
d’amortissement, i.e. de constatations de leur usure,
généralement le volume des éléments naturels et/ou le
temps d’utilisation des stocks disponibles sont limités. Ce
dernier caractère a été fortement ressenti dans les années
1930 (Paul Valéry déclarait : « Le temps du monde fini
commence », Regards sur le monde actuel, Gallimard) et
dans les années 1970 (crise de l’énergie de 1973). La
limitation et l’épuisement probable de certaines ressources
naturelles se traduisent par l’augmentation de leur prix.
Ce phénomène, déjà analysé par les classiques (cf. chap.
2) dans le cadre de la théorie de la rente foncière (terrain) et
de la rente tréfoncière ou minière (pour les richesses du
sous-sol), fonde une certaine vision pessimiste du monde
dans laquelle on trouve la thèse du déterminisme
géographique (voir encadré : le modèle du Club de Rome).
Le découpage « Nord-Sud », recouvrant la distinction
pays riches-pays pauvres, alimente cette vision de la nature
naturante héritée de la figure du cercle grec de l’éternel
retour des saisons, du cycle de vie : le rythme de l’activité
est dicté par le rythme de la nature. Les cycles des taches
solaires et des mouvements des planètes ont même été mis
en relation avec les cycles conjoncturels, à la fin du XIXe
siècle (Jevons, Moore). En 1951, Raymond Wheeler publie
un important ouvrage avec de nombreuses données
statistiques qui font apparaître l’existence de différents
types de cycles d’origine climatiques, de 100, 500 et 1 000
ans. Le climat est une combinaison de deux phénomènes :
d’une part, le degré d’humidité ou de sécheresse et, d’autre
part, la température. Il existerait des climats favorables au
développement des civilisations. Il s’agit des climats
tempérés avec une humidité moyenne. Les grands froids
humides ou secs, les grandes chaleurs sèches ou humides ne
sont pas favorables à l’activité humaine. Formulés ainsi, les
cycles de Wheeler apparaissent comme une évidence. Et
pourtant, il est préférable de les considérer comme des
hypothèses, car malgré les données qu’il a recueillies, le
nombre de cycles mis en évidence n’est pas suffisant pour
attester le phénomène.
Le sentiment que la nature est naturante, partagé
d’ailleurs par ceux qui ont recours à l’astrologie, n’est pas
nécessairement pessimiste, comme les physiocrates l’ont
exprimé. La terre est source de toute richesse, à condition de
respecter l’ordre naturel et de permettre aux paysans de
s’enrichir (cf. la maxime de F. Quesnay : « pauvres paysans,
pauvre royaume »). Mais c’est un optimisme tout relatif, car
même si l’univers est en expansion, à l’horizon de ce qui est
calculable pour l’humanité, il est difficile d’ignorer que les
ressources naturelles fossiles, d’accès plus aisé et donc
exploitées en premier lieu par l’homme, finiront par
s’épuiser.
Le problème du développement durable dans le rapport du Club de Rome
1972 : « Halte à la croissance ! »
Figure 4.0
. Les trois piliers constitutifs du
développement durable
Les prescriptions du rapport Bruntland (Notre avenir à
tous, 1987) sur le développement durable, puis le protocole
Kyoto (1991) pour limiter la pollution atmosphérique, et
l’institution subséquente du marché des permis ou droits de
polluer pour compléter ou se substituer à la taxe « pollueur-
payeur » relèvent de cette philosophie qui cherche à assurer
ou à léguer un avenir possible à nos descendants. Plus
explicitement, pour le rapport de Mme Bruntland, le
développement durable est ce qui « satisfait les besoins
présents sans compromettre la capacité des générations à
venir à satisfaire leurs propres besoins ».
2.3. Le facteur travail
2.3.1. Qu’est-ce que le travail ?
Le mot travail a plusieurs sens, dans le langage courant.
Par exemple, les femmes qui se préparent à un
accouchement sont dans une salle de travail ; en allant
prendre ses fonctions dans une entreprise, on dit que l’on va
au travail. On utilise quelquefois indifféremment emploi et
travail, de sorte qu’un individu qui recherche un emploi
déclare chercher un travail.
En tant que facteur de production, le travail est
l’ensemble des services correspondant aux ressources
humaines qui participent à la production et qui reçoivent
une rémunération sous forme de salaires, de traitements, de
gages (dans la conception étroite du travail) et d’honoraires
(dans la conception élargie intégrant le travail non salarié
que l’on devait honorer).
Le travail salarié et le travail non salarié peuvent faire
l’objet de subdivisions plus fines en catégories
socioprofessionnelles qui tiennent compte du secteur
d’activité (agriculture, industrie, commerce, service), du
statut (patrons, artisans, exploitants, professions libérales,
salariés, fonctionnaires, retraités, sans emploi) et de la
qualification (ouvrier, employé, cadre). Dans le cadre de ce
paragraphe, seul le travail salarié sera examiné, par la
présentation des notions d’offre de travail et de demande de
travail. Le problème du chômage, qui constitue la plus
importante forme de gaspillage du travail, ne sera examiné
qu’au chapitre 9, dans la 3e partie consacrée aux problèmes
économiques contemporains
2.3.2. L’offre de travail et la renonciation au loisir
D’un point de vue global, l’offre de travail correspond à
la main-d’œuvre. Le volume de la main-d’œuvre dépend de
données démographiques et de données sociales. Une
longue période caractérisée par de forts taux de natalité
annuels est suivie fatalement par d’importants volumes
d’offre de travail vingt ans après l’année de naissance de la
première cohorte, et cela sur une période aussi longue que
celle pour laquelle le taux de natalité était élevé. Les
données sociales concernent notamment l’importance de la
main-d’œuvre féminine dans la population active totale.
Statistiquement et conventionnellement, la main-d’œuvre
comprend la population active employée et les personnes
sans emploi qui en recherchent un, ainsi que les membres du
clergé. En sont exclus, selon les conventions en vigueur en
France, les étudiants, les retraités, les personnes retirées des
affaires, les ménagères non associées au travail d’un
membre de la famille. Plus récemment, les bénéficiaires de
stages en entreprise et des contrats emploi-formation sont
inclus dans la population active.
Au-delà de ces conventions, le facteur travail salarié,
pour une période donnée, est le produit du nombre de
personnes occupées par le nombre d’heures réalisées au
cours de cette période, en tenant compte des caractéristiques
moyennes de la population (niveau de formation et de
qualification, âge, etc.).
Les caractéristiques moyennes invitent ainsi à ne pas voir
dans le travail une simple force physique qui serait
indépendante de la formation, de la santé et de l’aptitude à
la mobilité. Tous ces éléments conduisent certains
économistes (Gary S. Becker) à définir le travail comme du
capital humain, dans la mesure où toutes ces qualités ou
caractéristiques intangibles constituent un stock d’aptitudes
acquises pour se procurer un revenu d’autant plus élevé que
les investissements en éducation ont été importants en
termes de dépenses effectives et de coûts d’opportunité
(pertes consenties en ne travaillant pas du fait de la
poursuite des études). Cependant, on distingue
habituellement les connaissances technologiques (ensemble
des connaissances dans la production) et le capital humain
nécessaire pour les acquérir ; Le capital humain est
couramment mesuré en durée de formation et
d’apprentissage
Avec la théorie du capital humain qui applique l’analyse
de l’entreprise aux choix de l’individu, on ne fait
qu’actualiser la vieille théorie de R. Cantillon (1755).
D’un point de vue microéconomique, perspective
d’origine de la théorie de Becker, l’offre de travail par un
individu aux caractéristiques moyennes obéit à la logique de
maximisation de ses satisfactions sur l’ensemble de sa vie.
Le travail est une renonciation au loisir pour se procurer un
revenu nécessaire à la consommation. L’individu moyen est
alors confronté à un arbitrage entre, d’une part, la
satisfaction que procure le loisir et, d’autre part, la
satisfaction obtenue par la consommation de biens. Le
principe de maximisation des satisfactions, qui caractérise
l’individu moyen, l’oblige à exiger un salaire de plus en
plus élevé au fur et à mesure qu’on lui demande de sacrifier
de plus en plus son temps de loisirs. Le temps de loisirs
devenant de plus en plus rare ou limité, sa valeur augmente.
L’offre de travail est ainsi une fonction croissante du
salaire, traduisant le jeu de l’effet de substitution entre le
loisir et le travail. Si le salaire diminue, le loisir augmente,
pour
Fig. 4.2
. : Offre atypique de travail
maintenir le niveau maximum de satisfaction :
l’augmentation de la satisfaction par le loisir compense la
baisse de la satisfaction par la consommation. Mais, pour
des niveaux déjà très élevés et pour des niveaux très faibles
du salaire réel, l’effet de substitution disparaît pour laisser la
place à l’effet de richesse dit encore effet de revenu. Par
exemple, un individu en travaillant 7 heures par jour à 40 €
de l’heure considère qu’il atteint, avec 280 €, juste le
minimum nécessaire pour faire vivre sa famille. Si,
brutalement, son salaire réel diminue de 50 %, il doit alors
doubler son offre de travail pour obtenir le même salaire
réel (quantités de biens). Autrement dit, si 280 € sont
nécessaires et si le taux de salaire passe à 20 € de l’heure,
alors l’offre de travail doit être de 14 heures par jour. Ces
phénomènes se retrouvent aussi pour les individus qui ne
peuvent plus améliorer leur satisfaction par la
consommation, en raison du salaire élevé qu’ils ont déjà
atteint. L’augmentation de salaire engendre alors une
diminution de l’offre de travail. La figure 4.1. montre ainsi
une courbe d’offre en forme de Z. Entre les points A et B,
l’offre de travail est typique : elle est croissante avec le
salaire réel W/P (salaire en équivalent de marchandises).
Au-delà de B et en deçà de A, l’offre de travail est
atypique : elle est décroissante lorsque le salaire augmente.
Lorsque le salaire est d’un niveau si faible qu’il oblige à
passer tout son temps au travail, toute amélioration de la
rémunération se traduit par un arbitrage en faveur du loisir,
le gain supplémentaire potentiel ne permettant pas d’en
profiter, de changer de modèle de consommation. Ce
phénomène est également valable à un niveau
macroéconomique. Lorsque le salaire s’est progressivement
amélioré au XIXe siècle en Europe, le travail des enfants de
moins de 8 ans a été interdit, en même temps que le travail
des femmes de 22 h à 6 h du matin, comme cela a été le cas
en France avec la loi adoptée en 1841 à la suite du rapport
du Dr Villermé ; mais il a fallu attendre 1936 pour voir
paraître les décrets d’application de cette loi de 1841. Dans
une perspective spatiale, avec des espaces de niveaux de
développement différents, la hausse des salaires avec le
développement économique ne suscite une immigration
qu’au-dessus du seuil A. Pour un salaire inférieur à A, les
coûts de l’immigration sont supérieurs aux avantages d’un
emploi. Lorsque le salaire augmente et arrive au point B, les
espaces qui ont fourni la main-d’œuvre connaissent à leur
tour un développement économique en mesure d’utiliser la
main-d’œuvre indigène.
2.3.3. La demande de travail par les entreprises : une
fonction décroissante du salaire
À première vue, il n’y a rien de surprenant à ce que la
demande de l’entreprise moyenne évolue de manière
opposée au prix, comme c’est généralement le cas pour
toute demande : lorsque les ressources sont limitées, un
produit dont le prix est élevé sera moins demandé que le
même produit avec un prix beaucoup plus bas. Mais,
lorsqu’il s’agit de la demande de travail, ce résultat est un
effet de la spécification de la fonction de production qui
consiste à faire l’hypothèse de rendements décroissants avec
des unités de facteur travail homogènes et divisibles, le
stock des autres facteurs restant constant.
En effet, à mesure que la force de travail augmente, la
production totale de l’entreprise augmente mais l’apport de
chaque travailleur supplémentaire diminue. Cette
contribution du dernier travailleur embauché est la
productivité marginale du travail. Elle s’obtient en faisant le
rapport entre la variation de la quantité produite et la
variation du nombre d’heures de travail. Le calcul de la
productivité marginale du travail est supposé donc possible,
ce qui n’est pas le cas dans le travail en équipe. Par
exemple, si trois personnes n’arrivent pas à descendre un
piano du sixième étage d’un bâtiment, et si l’arrivée d’une
quatrième personne permet de réaliser l’opération, il n’est
pas logique d’attribuer toute la rémunération à ce dernier.
En toute logique, l’entreprise rationnelle ne payera pas un
travailleur plus que ce qu’il rapporte mais, compte tenu de
l’homogénéité des travailleurs, il ne peut y avoir qu’un seul
niveau de rémunération dans l’entreprise. Si le taux de
salaire est donné par le marché, l’entreprise qui cherche à
maximiser son profit accroît l’emploi jusqu’à ce que la
productivité marginale – qui exprime sa demande de travail
– soit juste égale au taux de salaire. Si le salaire s’élève,
l’entreprise licenciera, tandis qu’elle embauchera si celui-ci
diminue. Si la productivité augmente de manière exogène,
l’entreprise embauchera jusqu’à ce qu’il y ait égalité de la
productivité marginale du travail et du salaire réel resté
constant : tant que le coût du travailleur supplémentaire est
plus bas que ce que ce travailleur permet de gagner, il est en
effet rationnel d’embaucher, jusqu’à ce que le salaire payé
soit égal au produit que permet de réaliser ce dernier
travailleur. Une diminution de la productivité marginale du
travail entraînera, selon le même raisonnement, des
licenciements.
La demande globale de travail est obtenue par addition
horizontale des demandes de chaque entreprise pour les
différents taux de salaire réel. Son allure est la même que
celle de l’entreprise moyenne ou représentative.
Fig. 4.3
. Demande de travail
Fig. 4.4
. : Équilibre sur le marché du travail
2.3.4. Le marché du travail
L’expression « marché du travail » est à prendre
conventionnellement pour comprendre le processus
d’ajustement logique de l’offre et de la demande de travail.
Dans ce processus logique, la confrontation de l’offre et de
la demande de travail conduit à un salaire d’équilibre
(W/P)*. Il indique que toutes les personnes qui souhaitent
travailler à ce prix seront embauchées (L*). C’est ce
qu’illustre la figure 4.4. Si la main-d’œuvre disponible est
LM (population active totale), l’écart entre LM et L* constitue
le chômage volontaire.
2.4. Le facteur capital : une marchandise qui produit des
marchandises
Il a déjà été indiqué que le capital est un facteur dérivé
désignant l’ensemble des moyens qui permettent de
produire des biens ou un revenu. Il est obtenu par un
investissement qui est une dépense fructifère. E. von Böhm-
Bawerk, éminent représentant de l’école marginaliste
autrichienne, utilise l’expression de biens indirects. Il
indique qu’ils sont obtenus par un détour de production
(Théorie positive du capital, 1890), exprimant par là que le
capital est la conséquence d’une consommation courante à
laquelle on renonce pour augmenter la production et la
consommation futures. Le détour de production apparaît ici
comme l’autre nom de l’investissement, que les comptables
nationaux appellent la formation de capital. Plus le détour
de production est long, i.e. plus les biens intermédiaires
exigent de temps pour les produire, plus la productivité (la
quantité de produit par heure travaillée) est grande.
Pour l’école de Cambridge, le capital est à la fois un
ensemble de biens matériels de production et un pouvoir
d’achat sur les autres biens. L’évaluation par les revenus
futurs ou la méthode de l’évaluation par la valeur travail
implique que le problème de l’imputation soit résolu. Il faut
pouvoir mesurer la part du travail et la part du capital dans
la valeur ajoutée, alors que l’un sans l’autre, la production
risque d’être nulle.
Notion obscure pour certains (Mrs. Joan V. Robinson)
sans ambiguïté pour d’autres (Paul A. Samuelson), le capital
est aussi l’objet d’un grand nombre de classifications qui
traduit la complexité de la notion. La définition des
différentes formes de capital et de l’investissement
constituera la matière du premier paragraphe. Les
problèmes du rendement du capital et la valeur de celui-ci
seront abordés ensuite.
2.4.1. Les formes de capital
Étymologiquement, le mot capital vient du latin capitalis,
dérivé de caput qui veut dire tête, chef. On retrouve cette
idée dans d’autres langues, comme par exemple l’arabe (Ras
El Mel où Ras est la tête). On dit par exemple qu’une armée
décapitée est une armée sans chef. Un chapeau est un
couvre-chef. Comme adjectif, capital est synonyme de
fondamental, essentiel, important, principal. Comme notion,
le capital désigne originellement le principal d’une dette, i.e.
une somme placée qui procure des intérêts et, par extension,
tout patrimoine ou richesse susceptible de procurer un
revenu. Par sa nature et par ses fonctions, nous définirons
alors le capital comme un ensemble des biens reproductibles
issus d’une combinaison primaire des facteurs de
production (nature et travail), qui permettent soit d’obtenir
un revenu soit, par un détour de production, d’accroître la
productivité du travail humain.
Le capital est un stock qui se constitue par le flux
d’investissements ou accumulation capitaliste. Pour K.
Marx, en plus d’être un facteur de production ou capital
technique qui permet d’augmenter la productivité du travail,
le capital est aussi un rapport social qui permet à son
détenteur – le capitaliste – d’exploiter la force de travail du
prolétaire (individu ne disposant que de sa force de travail
pour subvenir à ses besoins).
Les différentes formes de capital sont physique ou
matérielle, financière et humaine.
a) Le capital physique ou matériel est l’ensemble des
infrastructures (routes, ponts, ports, aéroports, voies ferrées,
canaux de navigation), des bâtiments, des machines et
matériels qui contribuent aux flux de produits et de revenus
présents et futurs. Le capital immatériel ou intangible est un
ensemble d’éléments hétérogènes comprenant les savoirs et
savoir-faire des individus constitutifs, avec la santé, du
capital humain (voir ci-dessous), le capital informationnel
(les brevets, les procédés de production et de transformation
des biens), le capital social et organisationnel au sens des
anthropologues et sociologues12 (système de gestion
politique, les relations sociales, les réseaux de solidarité, les
habitus qui résultent de l’apprentissage et de la formation
des habitudes, et qui sont le produit de l’histoire
individuelle et collective.
b) Dans sa forme financière – la forme première du
capital qui est la forme argent comme l’écrit K. Marx dans
le livre 1 du Capital –, le capital désigne l’ensemble des
disponibilités monétaires susceptibles d’être soit placées
auprès d’un organisme bancaire, soit mobilisées pour le
financement direct des entreprises. Les apports en capital
financier dans une entreprise forment le capital comptable
ou capital juridique dit capital social pour une société, ou
encore capitaux propres. Il convient de ne pas confondre
l’acception économique du capital social avec l’acception
sociologique de Pierre Bourdieu qui désigne par cette
expression l’ensemble des relations sociales d’un individu.
Le capital comptable, qui apparaît en ressources ou au
passif du bilan, permet de se procurer le capital technique,
qui apparaît en emploi ou à l’actif du bilan. Selon la
distinction faite par Adam Smith, le capital technique est
composé de :
- capitaux fixes ou, du point de vue de la comptabilité
générale d’entreprise, actif fixe comprenant les
immobilisations en terrains, en bâtiments, en
logements, en équipements collectifs et en
équipements pour la production. Les capitaux fixes
sont les biens de production qui participent à
plusieurs cycles de production. Ils ne s’usent que
partiellement (sauf les terrains, autres que les mines
et les carrières, qui ne s’usent pas). La dotation
annuelle aux amortissements est la constatation
comptable de cette usure annuelle. Dans une
perspective anthropologique, le capital
environnemental est un élément du capital fixe d’un
espace social. Ce capital environnemental
correspond aux ressources du milieu et au climat ;
- capitaux circulants ou actif circulant du point de vue
de la comptabilité et comprenant les stocks de
matières et de produits aussi bien finis que semi-
finis, les encours ainsi que la trésorerie (liquidités
en banque et en caisse). Les capitaux circulants sont
des biens qui ne participent qu’à un cycle de
production.
Dans la théorie marxiste, le capital est un rapport social
de production caractérisant le mode de production
capitaliste et qui, sous forme de valeur monétaire (le capital
argent : A), se présente avant tout comme un mouvement
d’accumulation ininterrompu reposant sur l’exploitation du
travail. Marx écrit :
« Acheter pour vendre, ou mieux, acheter pour vendre
plus cher, A – M – A’, voilà une forme qui ne semble propre
qu’à une seule espèce de capital, au capital commercial.
Mais le capital industriel est aussi de l’argent qui se
transforme en marchandise et, par la vente de cette
dernière, se retransforme en plus d’argent. Ce qui se passe
entre l’achat et la vente, en dehors de la sphère de
circulation, ne change rien à cette forme de mouvement »
(Le Capital, Livre 1, 1867).
Le capital commercial et le capital financier sont réunis
par Marx sous la dénomination commune de capital
marchand. La forme argent du capital permet de se
procurer, d’une part, le capital constant (ensemble des biens
qui apparaissent dans la valeur pour la part usée : bâtiment,
matières premières, etc.) et, d’autre part, les services de la
force de travail ou capital variable, en ce sens que la force
de travail est ce qui fait varier la valeur. Le capital variable
est l’argent nécessaire pour payer les salaires dont le
montant est inférieur à la valeur des biens que la
mobilisation de la force de travail permet d’obtenir. Cette
différence de valeur est la plus-value.
c) Le capital humain, déjà évoqué dans la section
consacrée au facteur travail, est le stock de compétences, de
connaissances, de savoirs et de savoir-faire, de santé
physique et mentale, qui participe à la détermination du
niveau de revenu actuel et futur d’une personne. Du point de
vue anthropologique, le capital humain et culturel ne
concerne pas l’individu, mais le groupe et désigne tous les
savoirs et savoir-faire, les valeurs partagées et l’expérience
sociale accumulée par les générations. Pierre Bourdieu
utilise plutôt l’expression « capital culturel » qui exprime la
dimension sociale. Il distingue le « capital culturel incorporé
», fruit de la socialisation différenciée selon les milieux
sociaux (langage, aptitudes scolaires diverses, façons de se
tenir et de se comporter en société…), le « capital culturel
objectivé » (tableaux, livres, instruments de musique, etc.)
et le « capital culturel institutionnalisé » qui correspond au
capital humain des économistes. Il est culturel dans la
mesure où les connaissances sont socialement reconnues par
un diplôme, par un titre ou par d’autres moyens. Bourdieu
utilise également la notion de capital symbolique pour
exprimer l’autorité reconnue ou que possède une personne
et correspondant à la somme de tous les autres capitaux
(économique, social, culturel).
2.4.2. Taux d’intérêt : prix d’usage du capital ou prix de la
monnaie ?
Sans avoir épuisé la diversité des formes du capital, on se
rend déjà compte qu’il n’est pas facile d’étendre à ce facteur
le raisonnement en termes d’offre et de demande, car le
concept de capital désigne un ensemble d’une grande
hétérogénéité. Il y a bien des individus et des institutions qui
ont des capacités de financement et d’autres qui sont dans
des situations de besoin de financement, mais les formes de
mobilisation des capitaux (émission de titres de propriété
sous la forme d’actions qui donne lieu à la perception de
dividendes en cas de distribution du bénéfice, émission
d’obligations en contrepartie d’un emprunt qui donne lieu à
la perception d’un intérêt au souscripteur de l’emprunt et
détenteur d’obligations) et les durées des opérations
(engagement à court terme, moyen terme, long terme) qui
peuvent être liées à la qualité (solvabilité) du demandeur de
capitaux, conduisent à une multiplicité des marchés de
capitaux avec de nombreux compartiments sur la même
place financière. Et pourtant ces marchés, lorsqu’ils sont
réglementés, ne s’appliquent principalement qu’à la forme
monétaire et financière du capital. Plus clairement, s’il y a
une bourse des valeurs mobilières réglementée, avec une
autorité de régulation du marché, dans la plupart des
grandes places économiques et donc financières et où l’on
cote, i.e. où l’on établit le prix des actions et des obligations,
en revanche il n’y a rien qui se rapproche de ce système
pour les biens de production du type machines-outils,
ordinateurs ou camions. Tous les jours, on est tenu informés
des cours des actions des grandes firmes cotées en bourse
ou pour l’indice synthétique et représentatif de cette bourse,
la bourse étant le marché de l’occasion des valeurs
mobilières. En revanche nous n’avons pas chaque jour une
indication du prix de l’occasion des camions, des bâtiments
ou des machines-outils.
Toutefois, la théorie économique classique, avec sa
conception dichotomique exprimant la neutralité de la
monnaie et justifiant le raisonnement en termes réels,
assimile l’offre et la demande de capitaux réels à l’offre et
la demande de capitaux monétaires. L’intersection de l’offre
et de la demande de capitaux détermine le taux d’intérêt
réel. Le raisonnement est établi sur la base de deux agents :
les entreprises qui demandent des capitaux et des ménages
qui arbitrent entre la consommation et l’épargne financière.
Cette dernière – ou capacité de financement – ne peut être
placée qu’auprès des entreprises. L’hypothèse signifie, en
particulier, que l’épargne non financière sous la forme
d’acquisition de logements par les ménages est nulle.
Selon les théories réelles de l’intérêt, l’offre de capitaux
par les ménages est un acte d’abstinence ou d’épargne.
L’épargnant qui cherche à optimiser sa satisfaction doit
obtenir une rémunération qui lui procurera des satisfactions
futures pour compenser la satisfaction par la consommation
de biens présents à laquelle il renonce. L’offre de capitaux
ou d’épargne est ainsi une fonction croissante du taux
d’intérêt. Il est la rémunération de l’abstinence. Plus le prêt
consenti est important et pour une période longue, plus le
sacrifice ou l’abstinence est coûteux, car le capital
disponible devient de plus en plus rare chez le prêteur. La
rémunération doit compenser ce sacrifice croissant.
Fig. 4
. 5. Offre de capital
La demande de capitaux par les entreprises a pour but de
produire des biens. La théorie traditionnelle raisonne avec
l’hypothèse de rendements décroissants. Cela signifie que
l’adjonction d’une unité supplémentaire de capital entraîne
une augmentation de la production totale, mais dans une
proportion plus faible que celle du capital. Ce rapport entre
ces deux accroissements (celui de la production et celui du
capital), que l’on appelle la productivité marginale du
capital, a ainsi une pente négative : elle diminue lorsque la
quantité de capital augmente (c’est le même raisonnement
que celui appliqué à la demande de travail). Le producteur
rationnel qui veut maximiser son profit doit alors chercher,
pour un taux d’intérêt donné, à acquérir une quantité de
capital telle que la productivité marginale du capital soit
égale au taux d’intérêt. La courbe de demande de capital
correspond à la courbe de la productivité marginale.
Lorsque le taux d’intérêt est proche de zéro, la demande
tend vers l’infini. En d’autres termes, lorsque la contrainte
de rentabilité ou de productivité n’existe plus, il n’y a
aucune limite pour emprunter, à condition que les biens de
production achetés mais non utilisés puissent être revendus
sans perte de valeur en vue de rembourser l’emprunt.
Fig. 4.6
. Demande de capital
Le taux d’intérêt d’équilibre iE se fixe à l’intersection des
courbes d’offre et de demande du capital réel. Il correspond
au coût d’usage du capital et au taux de rendement marginal
du capital lorsque la productivité est mesurée en unités
monétaires.
Fig. 4.7
. Taux d’intérêt et volume de capital
d’équilibre
Pour avoir le taux d’intérêt monétaire ou taux d’intérêt
nominal du marché, il suffit d’ajouter au taux d’intérêt réel,
qui est la productivité marginale du capital, le taux
d’inflation anticipé.
Cette théorie classique et monétariste présente des
limites.
a Le raisonnement en termes réels assimilant toute
demande de capitaux monétaires à une demande
indirecte de biens de production est critiquable, car
le besoin de financement de l’investissement ne
constitue qu’un des motifs de la demande de
monnaie. Il existe des demandes de crédit à la
consommation et des demandes qui répondent aux
différents motifs de préférence pour la liquidité
(transaction, précaution, spéculation). Par
conséquent le taux d’intérêt sur le marché n’est pas
nécessairement égal à la productivité marginale du
capital. Par ces motifs keynésiens de la préférence
pour la liquidité, le taux d’intérêt est aussi le prix de
la liquidité.
b Dans la détermination du taux d’intérêt, l’offre ne se
réduit pas à l’offre de capitaux, il faut aussi tenir
compte de la création monétaire, de l’épargne nette
(part du revenu courant non consommée) et de
l’épargne transférée d’un emploi à un autre dont la
déthésaurisation.
c D’un point de vue empirique, le taux d’intérêt
dépend :
- de l’offre et de la demande de fonds
prêtables, sur le marché des fonds
prêtables et non des capitaux,
- de la durée du prêt,
- du risque d’érosion monétaire (inflation)
- de la politique des autorités monétaires,
- du taux d’intérêt pratiqué sur les autres
places financières dans le monde, en
raison de la mobilité des capitaux
- du taux de prise en pension de la banque
centrale. Par exemple le taux d’intérêt
de la Banque centrale européenne (BCE)
n’est pas un prix de marché endogène
(i.e. déterminé par l’offre et la
demande), mais un taux exogène fixé
sur la base de considérations de gestion
de la valeur de l’euro et de l’évolution
acceptable du niveau général des prix à
l’intérieur de la zone euro.
2.4.3. La valeur du capital
On voit ainsi que, si les choses sont simples avec la rente,
prix de l’usage de la terre, ou avec le salaire, prix de la force
de travail, en revanche on ne peut pas dire que l’intérêt soit
le prix d’usage du capital. Parce qu’il est un ensemble de
biens et un pouvoir d’achat sur les autres biens, le capital est
difficilement évaluable, comme Joan Violet Robinson l’a
fait remarquer. L’hétérogénéité des biens dans l’entreprise
se traduit notamment par des équipements d’âge différent.
De ce fait, il n’est pas certain que la productivité marginale
du capital soit décroissante lorsque le volume du capital
augmente. En revanche, plus le millésime ou l’âge des
machines est ancien, plus la productivité du capital est
faible. La prise en compte de cet effet du progrès technique
adoptée pour programmer la production13 est inopérante
pour expliquer la valeur du capital.
Dans la pratique, on s’en tient encore à la méthode
d’Irving Fisher : la valeur du capital est la somme actualisée
des revenus escomptés dans l’avenir. Prenons un exemple et
supposons qu’un appartement loué rapporte un loyer annuel
de 20 000 € ; le marché financier propose pour tout
placement un taux d’intérêt (pour les obligations) ou de
rendement (pour les actions) de 5 %, ce qui signifie que le
revenu annuel à ce taux permet de récupérer la valeur du
capital en 20 ans ; la valeur de l’appartement est alors de :
20 × 20 000 = 400 000 €.
De la même manière, le capital humain est la somme des
salaires que percevra l’individu tout au long de sa vie active,
selon la définition de Karl Marx reprise par les théoriciens
de l’école de Chicago (G.S. Becker).
Le taux de rendement d’un appartement loué ne peut pas
être durablement inférieur ou supérieur au taux du marché
financier. S’il est inférieur, il y aurait pénurie
d’appartements à louer, et le loyer se relève. S’il est
supérieur, tous les capitaux chercheront à se placer dans la
location d’appartement engendrant un boum de la
construction et un trop plein d’appartements impossible à
louer sans baisser le loyer.
Qu’est-ce que l’actualisation ?
si Kn = K0 (1 + i) n alors ou K0 = Kn (1 + i)–n
La définition d’un taux d’actualisation est importante
pour le choix des investissements. En effet, si le taux est
élevé, tous les investissements qui présentent des taux de
bénéfices prévus inférieurs au taux d’actualisation seront
écartés. Inversement, lorsque le taux d’actualisation est
faible, de nombreux projets d’investissement pourront être
considérés comme rentables.
2.4.4. Formes et financement de l’investissement
L’investissement, comme cela a déjà été indiqué, est une
dépense fructifère – dépense permettant d’obtenir un revenu
plus important dans le futur – qui consiste en l’acquisition
de biens de production destinés soit à accroître les capacités
de production (investissement net = ΔK), soit à remplacer
les équipements dépréciés, usés, obsolètes. Dans ce dernier
cas, on parle d’amortissements :
dt = δKt – 1 où δ (delta) représente le taux de
dépréciation.
Par exemple, pour un équipement qui doit être remplacé
en 5 ans, le taux de dépréciation en dotation annuelle
constante est de 0,2.
L’investissement total ou, en comptabilité nationale, la
formation brute de capital fixe (FBCF) est la somme des
deux investissements :
Investissement total = ΔK + dt
La formation de capital exige une épargne préalable.
Lorsque l’agent économique n’en dispose pas, il fait appel à
l’épargne publique en s’adressant à des agents qui ont une
capacité de financement. Mais il y a une diversité des
formes d’investissement et de modes de financement.
a) Formes de l’investissement
Comme pour le capital, les classifications des
investissements sont nombreuses.
Du point de vue de l’entreprise, la classification
comptable identifie trois catégories d’investissement :
- les investissements matériels dits encore
investissements corporels (terrains, constructions,
machines, outillage…), physique, tangibles ;
- les investissements financiers (prises de participation
dans le capital social d’une autre entreprise, achats
de titres…) ;
- les investissements immatériels dits encore
intangibles. Ceux-ci correspondent aux dépenses en
recherche et développement (R & D), en
acquisitions de licences d’exploitation de brevets et
de marques, en formation professionnelle, en
publicité, en logiciels. On rappellera que la
comptabilité nationale a une conception plus étroite
de l’investissement immatériel ;
- les investissements incorporels regroupant les
investissements financiers et les investissements
immatériels.
Tableau 4.0
. Mécanisme du multiplicateur
Dans cette chaîne, le revenu supplémentaire de chaque
période est le produit de la dépense précédente par la
propension marginale à consommer. Il s’agit d’une
progression géométrique. La somme des revenus
supplémentaires est la somme de cette progression
géométrique :
1 000 + 800 + 640 + 512 + … + 0 = 5 000
Elle s’obtient par application de la formule suivante,
ΔY = [a (1 – rn →α)]/[(1 – r) où
(a) est le premier terme de la progression, ici c’est 1 000.
r est la raison de la progression, ici c’est 0,8.
Lorsqu’on multiplie un nombre inférieur à 1 par lui-
même, la valeur trouvée est plus petite que la valeur de
départ. En poursuivant cette multiplication n fois, avec (n)
qui tend vers l’infini, alors la valeur obtenue tend vers zéro.
On obtient :
ΔY = 1 000 × (1 – 0,8 n →α)/(1 – 0,8) = (1 000/0,2) = 5 000
Le mécanisme qui est décrit ici est l’effet multiplicateur
de l’investissement et de l’emploi. Sa mesure est l’inverse
des fuites, i.e. de ce qui ne revient pas dans le circuit
économique sous la forme de consommation. La fuite est la
part du revenu qui n’est pas consacrée à la consommation
domestique (épargne et importation).
Un tel mécanisme de croissance économique suppose que
tous les secteurs d’activité connaissent un sous-emploi de
leur capacité de production. Il faut en particulier qu’il y ait
un sous-emploi de la main-d’œuvre pour occuper tout
emploi nécessaire en vue de produire les biens et services
supplémentaires demandés. En d’autres termes le
multiplicateur ne fonctionne pas en cas de goulet
d’étranglement. En effet, dans le secteur responsable du
goulet, la hausse du prix face à la demande supplémentaire
est une éventualité, et par contagion, l’effet multiplicateur
n’est plus que nominal, i.e. qu’il se dégrade en inflation.
– L’investissement induit est l’investissement nécessaire
pour satisfaire une augmentation de la consommation. Selon
la théorie d’A. Aftalion (1909) et de J.M. Clark (1917),
l’investissement n’est pas autonome mais induit par
l’augmentation de la demande, selon un mécanisme
d’accélération. L’entreprise n’investit pas si les
équipements en place ne sont pas saturés et sont en mesure
de répondre à une augmentation de la demande de biens de
consommation. Si, en revanche, un capital de 500 destiné à
produire 100 de biens de consommation est sollicité pour
produire 120, il devient nécessaire d’augmenter les
capacités de 100 pour obtenir un capital de 600. Le rapport
entre le capital (K) et la production (Y), ou coefficient de
capital, indique la proportionnalité qu’il convient de
respecter en l’absence de progrès technique. Ce coefficient
de capital (ici K/Y = 500/100 = 600/120 = 5) constitue le
coefficient d’accélération β (bêta) ou tout simplement
l’accélérateur.
Avec la prise en compte du progrès technique incorporé
dans les équipements nouveaux, le coefficient
d’accélération est égal au coefficient marginal du capital
(ΔK/ΔY = β). Le montant de l’investissement induit (Ii) est
égal au produit de l’accélérateur et de l’augmentation de la
demande de consommation (ΔC) : Ii = ΔβC.
Le multiplicateur et l’accélérateur peuvent être conjugués
de la manière suivante : l’investissement autonome donne
naissance à un accroissement de demande (effet
multiplicateur), celui-ci pour être satisfait exige un
investissement induit (effet d’accélération). Cette
combinaison correspond au mécanisme de l’oscillateur en
ce sens que le phénomène peut déboucher sur des
fluctuations de l’activité économique (cf. encadré :
L’oscillateur de Samuelson)
L’oscillateur de Samuelson
Fig. 4.8
. Formes de financement des
investissements
2.4.5. Les théories de l’investissement et le rôle du profit
On a jusqu’ici identifié la rente comme rémunération de
la nature, le salaire comme rémunération du travail et
l’intérêt comme rémunération du capital emprunté et
comme prix de la liquidité. Cependant, lorsqu’on s’intéresse
au demandeur des facteurs de production, l’élément
déterminant qui le motive à investir en se portant
demandeur de travail, d’équipements, de matières
premières, etc., est le profit. Celui-ci rémunère
l’entrepreneur, agent susceptible d’être indépendant des
apporteurs de capitaux et dont la fonction est de combiner
les facteurs de production pour obtenir des biens dont la
valeur est supérieure aux coûts assumés pour les obtenir. La
différence entre la valeur des biens vendus et les coûts
constitue le profit. Pour R. Cantillon, J.B. Say, J.A.
Schumpeter et F. Knight, le profit est la rémunération de
l’esprit d’entreprise. Plus spécifiquement, pour Schumpeter,
le profit constitue la contrepartie de l’assomption des
risques attachés à l’innovation technologique (nouveau
produit, procédé de fabrication nouveau, usage nouveau
pour des produits et des équipements existants, nouveaux
débouchés, nouvelle organisation de l’entreprise), qui
permet à l’entreprise de bénéficier d’une position de
monopole temporaire, tant qu’elle n’est pas imitée.
Pour Karl Marx, le profit est la part du travail non
rémunérée et confisquée par le capitaliste, alors que pour
Jean Marchal, le profit est le revenu de ceux qui possèdent
un pouvoir de marchandage à l’égard des fournisseurs de
facteurs et à l’égard des clients en aval de la production.
Au-delà des explications ou des justifications du profit,
les théories de l’investissement en font l’élément
déterminant, soit parce qu’il est incitatif, soit parce qu’il en
permet le financement.
Selon la théorie de Jorgenson (1967), le stock de capital
optimal est alors celui qui rend maximale la valeur
actualisée du profit de l’entreprise, soit :
Max. profit =
Tableau 1
. Production et rendements
Tout volume sur la courbe des possibilités de production
est efficient.
Fig. 4.9
. Production avec un facteur variable
La production n’est positive que si le facteur de
production est positif. Le produit moyen et le produit
marginal sont positifs à partir de la valeur 1 du facteur.
L’augmentation du facteur, une fois atteint le maximum de
la production, n’engendre pas de modification de la
production. En revanche, si dès le départ le volume du
facteur est supérieur au volume pour lequel la production est
maximale, la nouvelle production totale peut être plus faible
que celle obtenue de manière incrémentale.
C : niveau de (y) pour lequel la pente de la tangente
menée de l’origine à (y) est maximale. La courbe PM qui
donne les valeurs de cette pente montre que le produit
moyen est maximal.
C’ : maximum du produit moyen et quantité de facteurs
pour laquelle le produit moyen est égal au produit marginal.
D : point d’inflexion de la courbe (y) correspondant à la
plus forte pente des tangentes possibles que la courbe (y)
puisse admettre.
D’ : maximum du produit marginal qui se définit comme
la pente de la tangente menée à la courbe du produit total,
quelle que soit l’origine de cette tangente.
S’-S : produit maximal. Au point S, la tangente à la
courbe est parallèle aux abscisses. La pente de la tangente
est donc nulle, ce qui veut dire que le produit marginal est
nul. C’est ce que montre S’.
Fig. 4.10.1
. Rendements internes d’échelle croissants
Rendements internes d’échelle constants : la fonction de
production illustrée graphiquement, par une représentation
dans l’espace à trois dimensions, a une allure linéaire en
joignant les différents niveaux de production obtenus par les
quantités croissantes de la combinaison fixe de travail et de
capital. Si chaque facteur de production est multiplié par un
coefficient λ quelconque, le volume de la production sera
multiplié par le même coefficient λ. Les rendements à
l’échelle sont constants lorsque, par exemple, la production
triple à la suite du triplement des volumes des facteurs
travail et capital. La fonction Cobb-Douglas est alors de
degré 1, i.e. que la somme des productivités marginales est
égale à 1 :
Y = AL0,63K0,37
Fig. 4.10.2
. Rendements internes d’échelle constants
Rendements internes d’échelle décroissants : la fonction
de production illustrée graphiquement, par une
représentation dans l’espace à trois dimensions, a une allure
en forme de colline ou de motte de beurre en joignant les
différents niveaux de production obtenus par les quantités
croissantes de la combinaison fixe de travail et de capital. Si
chaque facteur de production est multiplié par un coefficient
λ quelconque, le volume de la production sera multiplié par
un coefficient plus faible que λ. Les rendements à l’échelle
sont décroissants lorsque, par exemple, la production ne fait
que doubler alors que les volumes des facteurs travail et
capital ont été préalablement triplés. Avec une fonction de
production de type Cobb-Douglas, la somme des
productivités marginales est inférieure à 1 comme dans la
spécification suivante :
Fig. 4.10.3
. Rendements internes d’échelle
décroissants
Les trois formes de rendements peuvent être successives.
C’est ce que représente la figure synthétique 4.8.4. L’allure
de la courbe (y) qui joint les différents niveaux de
production pour un volume fixe en travail a une forme en S
ou logistique. Sa projection (y’) sur le plan yOK permet de
retrouver la fonction de production à un seul facteur
variable. Ce facteur est ici le capital.
Fig. 4.10.4
. Trois types de rendements internes
d’échelle
La division du travail, l’indivisibilité des équipements, les
frais fixes – i.e. des coûts indépendants du volume de la
production – sont les principaux responsables des
rendements d’échelle croissants. Mais, au-delà d’une
certaine taille, la sous-utilisation des capacités et les
lourdeurs bureaucratiques, le manque de motivation dû à
l’anonymat, la montée des tensions sociales font apparaître
des rendements d’échelle décroissants.
Il est cependant difficile de mettre en évidence les
rendements d’échelle dans la mesure où le changement de
dimension se fait dans le temps. Or, sur une longue période,
la fonction de production n’est plus homogène, en raison du
progrès technique. Celui-ci est un facteur qualitatif qui
permet d’obtenir plus de produits avec les mêmes quantités
de facteurs. Nous l’avons déjà signalé en évoquant le
phénomène de la croissance endogène, l’apprentissage
(learning by doing), l’éducation, les nouveaux équipements,
le changement de l’organisation de l’entreprise, la
modification du climat social dans l’entreprise et d’autres
éléments encore, tenant à la qualité des matières premières
et aux innovations technologiques, le volume et la qualité
des infrastructures publiques, etc. expliquent ce phénomène
de progrès technique mesuré par les gains ou surplus de
productivité.
3.2.2. Les isoquants : la combinaison des facteurs de
production
Un isoquant, comme il a été défini ci-dessus, est
l’ensemble des combinaisons de facteurs de production qui
permettent d’obtenir le même niveau de production. Il y a
autant d’isoquants que de niveaux de production. Pour
faciliter l’analyse, les isoquants seront représentés en
projection sur l’espace à deux dimensions correspondant
aux facteurs de production K et L.
Le niveau de production peut être atteint soit avec une
combinaison fixe des deux facteurs qui sont alors dits
complémentaires (cf. figure 4.11. a), soit avec une
combinaison variable des quantités de travail et de capital
qui sont alors dits substituables de manière stricte ou
parfaite (fig. 4.11.b), ou substituables de manière imparfaite
(fig. 4.11.c).
Fig. 4
. 11. Fonctions de production à facteurs
complémentaires et à facteurs substituables
Lorsque les facteurs sont strictement complémentaires, il
n’existe, pour un niveau de production, qu’une seule
combinaison possible. Par exemple pour conduire un
tracteur agricole de 45 CV tirant une charrue équipée de 6
socs pour labourer un champ de 50 ha en une journée de 8
h, il faut un travailleur. Si l’on utilise deux tracteurs avec
deux charrues, mais sans changer le volume de travail, les
choses n’iront pas plus vite ou la superficie labourée en une
journée ne sera pas plus importante. Pour faire plus vite ou
pour une superficie plus importante en huit heures de temps,
il faut en plus du tracteur supplémentaire, un travailleur
supplémentaire. La complémentarité des facteurs de
production est souvent inévitable à court terme. En
revanche, à long terme, la substituabilité est une hypothèse
plus souvent acceptable. À long terme, en effet, des
techniques plus capitalistiques peuvent avoir le temps d’être
mises en place. Avec l’exemple du travail de labour, au lieu
de raisonner avec un deuxième tracteur, la substituabilité
consistera à imaginer un tracteur plus puissant avec une
charrue de 10 ou 12 socs à la fois, au lieu de 6
précédemment.
Avec des facteurs substituables, en supposant la
divisibilité de chaque facteur, les combinaisons possibles
sont nombreuses. Nous nous situerons dans ce cas. Pour un
isoquant donné, le rapport entre K et L constitue le
coefficient d’intensité capitalistique. On peut donc
envisager des solutions capitalistiques qui économisent du
travail (la combinaison K1-L1 dans la figure 4.12.) et des
solutions travaillistiques (la combinaison K2-L2 dans la
figure 4.12.) qui économisent du capital pour un même
niveau de production.
Fig. 4.12
. Cartes d’isoquants
Les isoquants, en tant que courbes de niveau, ne se
coupent pas. Le principe d’économicité ou efficience de la
combinaison productive – en écartant le phénomène de
chômage déguisé ou sous-emploi (correspondant à une
faible productivité des travailleurs par rapport à ce qui est
possible) – conduit à ne retenir que la partie de l’isoquant
pour laquelle l’augmentation de la quantité d’un facteur
s’accompagne nécessairement de la diminution de la
quantité de l’autre facteur. Il n’est pas économique, i.e.
rationnel, d’augmenter l’un ou les deux facteurs pour un
niveau de production inchangé. Ce principe conduit dans un
système d’axes représentant le travail et le capital à des
isoquants dont la pente est négative. En ne retenant que des
isoquants décroissants, il s’ensuit que le niveau de
production est d’autant plus élevé que l’isoquant est loin de
l’origine des axes.
On appelle taux marginal de substitution technique
(TMST) des facteurs en un point donné, la pente de
l’isoquant en ce point. Il exprime la quantité supplémentaire
ou additionnelle d’un facteur nécessaire pour compenser la
diminution de l’autre facteur, afin de maintenir le même
niveau de production14. En prenant le facteur travail et le
facteur capital, on dira que le taux marginal de substitution
technique du facteur capital au facteur travail est égal à la
quantité supplémentaire du facteur capital nécessaire dans
l’entreprise pour remplacer une unité du facteur travail sans
changer le niveau de production.
La valeur du TMST varie tout au long de l’isoquant (sauf
pour le cas particulier d’un isoquant linéaire). Plus on
s’approche de zéro pour l’un des facteurs, plus les quantités
de l’autre facteur doivent être importantes. Celui-ci est de
moins en moins productif, tandis que le facteur qui diminue
est de plus en plus productif. Ce phénomène n’est que le jeu
des rendements décroissants pour chacun des facteurs. On
peut d’ailleurs démontrer que le TMST est l’inverse des
productivités marginales des facteurs. Par exemple le taux
marginal de substitution du facteur capital au facteur travail
dans une entreprise est égal au rapport entre la productivité
marginale du travail et la productivité marginale du capital.15
La diminution de la productivité apparente du facteur
croissant et l’augmentation de celle de l’autre facteur se
traduisent par la convexité de l’isoquant par rapport à
l’origine. Une telle forme revient à exclure les fonctions
monofactorielles, i.e. la possibilité de produire uniquement
par du travail ou par du capital. La convexité signifie que la
combinaison de plusieurs facteurs est plus productive que le
recours à un seul facteur.
3.2.3. Le choix du producteur et de la contrainte budgétaire
On fait l’hypothèse que l’entrepreneur a un budget B
qu’il va utiliser au mieux, i.e. pour acheter des quantités de
K et de L dont les prix unitaires sont k et w, qui lui
assureront la production la plus élevée possible.
La somme des facteurs pondérée par les prix des facteurs
est égale au budget :
Fig. 4.13
. Droite d’isocoût
Pour déterminer la combinaison optimale des facteurs de
production, i.e. les quantités de facteurs K et L qui
permettent de réaliser le niveau de production le plus élevé,
il faut chercher l’isoquant pour laquelle le taux marginal de
substitution technique est égal à la pente de l’isocoût, pour
un seul couple de L et K. Graphiquement, les choses sont
claires, car cette définition correspond au seul point de
tangence entre l’isoquant et la droite d’isocoût. L‘optimum
du producteur ou équilibre du producteur est déterminé par
les quantités de travail et de capital qui permettent
d’atteindre le niveau de production le plus élevé, ce qui
correspond au plus haut isoquant qui puisse être en contact
avec la droite du budget.
Fig. 4.14
. Combinaison productive optimale
Graphiquement, la combinaison optimale de KOet LO
correspond au point de tangence E entre l’isocoût et le plus
haut isoquant (y2) accessible avec le budget disponible. y3
est inaccessible, tandis que y1 l’est, mais avec gaspillage des
ressources. Il est possible de produire y1 avec un budget plus
faible (ligne discontinue tangente à y1 et parallèle au budget
initial) par la combinaison K’ – L’.
La fonction Cobb-Douglas
Fig. 4.15
. Croissance du budget avec fixité des prix
relatifs
La modification des prix relatifs s’accompagne pour un
budget donné de deux effets prix : un effet de revenu et un
effet de substitution.
Fig. 4.16
. Combinaison productive avec
modification des prix relatifs (augmentation
du taux de salaire) : effet de revenu et effet
de substitution
Imaginons que le prix (w) en valeur absolue du travail
augmente et que le prix en valeur absolue du capital reste
constant. Cela signifie que le prix relatif du travail en capital
est modifié. Avec un même budget, s’il était totalement
consacré à l’achat de la force du travail, les quantités de L
accessibles deviendraient plus faibles qu’avant la hausse de
w, alors que si seul K était acheté, aucun changement
n’apparaîtrait. La hausse du prix d’un facteur revient ainsi à
réduire le budget réel au regard de ce facteur. La pente de
l’isocoût est modifiée. De KiLj qui correspond à la droite (1),
elle passe à KiL’j qui correspond à la droite (2) de pente plus
forte.
La combinaison optimale (K1-L1) () est obtenue avec un
isoquant d’un niveau plus bas (Y1). C’est le résultat de
l’effet de revenu ou de la diminution du budget réel. Il se
produit en même temps un changement dans le rapport
d’utilisation des facteurs. Le facteur dont le prix a augmenté
est relativement moins utilisé que l’autre. C’est l’effet de
substitution dont on se rend compte plus facilement avec
une droite de budget (2’) parallèle à la nouvelle (2) qui
serait tangente à l’isoquant de départ (Y2) : l’équilibre se
déplace de E0 à E’1.1. On voit ainsi une plus forte utilisation
du capital K par le passage de K0 à K’1 et une moindre
utilisation de L par le déplacement de L0 vers L’1.
Le coefficient d’élasticité de substitution (es) donne la
mesure de ce phénomène de variation de l’intensité
capitalistique (K/L) consécutif à la variation des prix relatifs
ou du TMST. Il se calcule en faisant le rapport du
pourcentage de variation de l’intensité capitalistique d
(K/L)/(K/L) et du pourcentage de variation des prix relatifs
d (w/k)/(w/k).
Lorsque les facteurs sont complémentaires, es = 0. La
substituabilité parfaite donne une valeur de es qui tend vers
l’infini. Avec la fonction Cobb-Douglas, es = 1, i.e. qu’une
variation de x % des prix relatifs entraîne une variation de
même proportion dans l’intensité capitalistique.
4. Les coûts de production et la fonction d’offre
Pour l’économiste, « on n’a rien sans rien », ce qui veut
dire que tout produit a un coût. Par coût, on entend le
sacrifice qu’il faut consentir, en temps ou en argent, ce à
quoi il faut renoncer, le montant des charges ou des devises
nécessaires ou associées à l’acquisition ou à la production
d’un bien ou d’un service. En principe, le coût est une
fonction croissante des quantités à produire.
La ligne d’isocoût, exprimant les différents emplois du
budget entre le travail et le capital, est une présentation
particulière du niveau donné des dépenses possibles. Elle est
établie indépendamment des quantités produites ou à
produire. La fonction de coût, en revanche, met en relation
les dépenses nécessaires et les quantités variables de
produit. Mais il est bien évident que le niveau de production
à choisir, s’il dépend du budget de l’entreprise ou des prix
des facteurs, dépend aussi du prix du marché.
L’entrepreneur confrontera le coût qu’exige la dernière unité
produite avec le prix qu’il peut retirer du marché. Il est aussi
évident que, si le prix du marché est inférieur au coût
unitaire, il n’a aucun avantage à produire dans le cadre
d’une économie de marché régie par la logique du profit.
Produire à perte est toujours possible tant que les ressources
le permettent et lorsque l’objectif est d’une tout autre nature
que la recherche d’un profit. C’est dire l’importance des
fonctions de coût pour déterminer la fonction d’offre.
4.1. La typologie des coûts
Pour produire, il faut des matières premières, des
équipements et de la main-d’œuvre. L’utilisation de chacun
de ces facteurs comporte un coût, et chacun de ces coûts est
un coût partiel, tandis que l’ensemble des coûts partiels est
le coût complet.
Dans l’entreprise, certains coûts varient avec le volume
de la production, d’autres non. Les premiers correspondent,
par exemple, aux matières premières, aux salaires, au
rendement, aux frais de transport, etc. Ils augmentent ou
diminuent suivant le niveau de production. Les seconds
correspondent aux loyers, aux amortissements fiscaux, au
gardiennage des locaux, aux salaires forfaitaires… Ils sont
fixes pour certains niveaux de production ou pour une
certaine échelle de production. Il faut un changement de
taille important pour obtenir une variabilité des coûts fixes.
On admettra que ces changements de structures se
produisent en longue période. Le coût fixe (CF) et le coût
variable (CV) sont eux aussi des coûts partiels, et le coût
complet, qu’il est préférable d’appeler coût synthétique, est
la somme du coût fixe et du coût variable :
CS = CF + CV.
Chacun de tous ces coûts peut être établi ou calculé pour :
- la totalité de la production, et on parle alors de coût
total (CT),
- une unité en moyenne, il s’agit alors du coût moyen
(CM) obtenu en divisant le total par la quantité :
CM = CT/y,
- une unité de produit additionnelle, ce qui correspond
au coût marginal (Cm). Il s’obtient en faisant le
rapport entre la variation du coût total et la
variation de la quantité : Cm = (CT2 – CT1)/(y2 – y1).
Cette notion de coût marginal ne se calcule que
pour la partie variable du coût complet.
Le terme « total » s’applique à la totalité des quantités
produites et non pas à la somme des coûts partiels. La
somme des coûts partiels est le coût complet ou coût
synthétique qui peut être total (CST), moyen (CSM) et
marginal (Cm). À court terme, le coût synthétique total
(CST) de l’entreprise est la somme du coût fixe total (CFT)
et du coût variable total (CVT). Il est, en d’autres termes,
l’ensemble des dépenses supportées pour la totalité de la
production.
CST = CFT + CVT
Les rapports entre chacun de ces trois coûts et la quantité
produite déterminent :
le coût fixe moyen :
CFM = CFT/Q
le coût variable moyen :
CVM = CFT/Q
et le coût synthétique moyen ou coût moyen complet :
CSM = CST/Q ou CSM = [(CFT/Q) + (CVT/Q)]
Les rapports entre la variation du coût synthétique total
ou du coût variable total, d’une part, et la variation des
quantités, d’autre part, constituent le coût marginal (Cm).
Lorsqu’on envisage des variations infinitésimales des
quantités produites, alors le coût marginal peut être assimilé
à la dérivée du CST ou du CVT. Tous ces éléments peuvent
être illustrés par les données du tableau 4.5.
La figure 4.17. représente les différentes courbes de coût
à court terme. Le coût synthétique total a une ordonnée à
l’origine positive, représentant le coût fixe total. Il évolue
ensuite comme le CVT : il croît plus lentement que la
production dans une première phase, puis plus rapidement
dans une deuxième phase. Ces deux phases se traduisent
respectivement par la décroissance puis la croissance du
coût marginal.
Le Cm est une courbe en U. La diminution du coût
marginal correspond à la phase de rendements croissants
dans la fonction de production ; lorsque le coût marginal est
constant, les rendements sont constants ; la hausse du coût
marginal correspond aux rendements décroissants dans la
fonction de production. La courbe du coût marginal est la
forme inversée de la courbe de productivité marginale, à
l’échelle près, puisque pour le coût marginal, l’abscisse est
la quantité de produit, tandis que pour la productivité, il
s’agit de la quantité de facteurs.
Tableau 4
. 5. Coûts de production à court terme
Fig. 4.18
. Économies internes d’échelle et
désécononomies internes d’échelle
4.2. La fonction d’offre
Le producteur ne produit que si les recettes prévues
couvrent au moins les coûts de production. Il doit donc
chercher à connaître son seuil de rentabilité. L’offre qu’il
fait dépend aussi du prix qui doit au moins couvrir le coût
de l’unité produite. Or ce coût évolue en fonction de la
quantité déjà produite, et le prix du marché peut lui aussi
évoluer avec pour effet de modifier les conditions de
rentabilité de la production. Il nous faut donc examiner la
méthode de détermination du seuil de rentabilité, la
sensibilité ou élasticité de la production à la variation du
prix et, en dernier lieu, construire la courbe d’offre.
4.2.1. La notion de seuil de rentabilité et de point mort
Pour comprendre la nature de la fonction d’offre du
producteur, il faut faire les hypothèses simplificatrices selon
lesquelles le prix est donné, le producteur est rationnel et
maximise son profit. Le producteur rationnel doit en
premier lieu ne produire que si le prix de vente de son
produit est au moins égal au coût de revient complet que
nous avons assimilé ici au coût synthétique moyen. Le
chiffre d’affaires (le produit des quantités vendues par le
prix de vente) pour lequel le producteur ne fait ni perte ni
bénéfice est appelé seuil de rentabilité ou chiffre d’affaires
critique. Son calcul pour servir d’instrument de prévision
oblige à faire les hypothèses simplificatrices de
l’identification de tous les coûts (fixe et variable) pour un
seul type de produit, de la proportionnalité des coûts
variables en fonction des quantités du produit.
Algébriquement, si l’on désigne par (p) le prix, (y) les
quantités à vendre, (a) le coût variable moyen, (b) le coût
fixe total,
le chiffre d’affaires est : p × y ;
le coût complet ou synthétique total est : ay + b.
Le bénéfice est la différence entre le chiffre d’affaires et
le coût synthétique total :
py – (ay + b).
Le seuil de rentabilité correspond alors à : pY = aY + b.
Le volume des ventes nécessaires (point mort) est alors
celui pour lequel :
py – ay = b,
Cela signifie que la marge sur coût variable (py – ay) est
égale au coût fixe total.
Soit, par conséquent, un point mort de :
y = b/(p – a).
Fig. 4.19
. Calcul du seuil de rentabilité
La quantité optimale, ou optimum à vendre pour le
producteur rationnel, est celle qui permet de réaliser le
profit maximum. Une fois le seuil de rentabilité franchi, le
producteur proposera des unités additionnelles de son
produit tant que le coût additionnel ou coût marginal est
inférieur au prix de vente. Il s’arrêtera d’offrir des unités
additionnelles dès que le coût marginal est égal au prix de
vente.
En utilisant les courbes traditionnelles de coût
synthétique moyen (CSM) et de coût marginal (Cm), il
apparaît que le producteur doit produire les quantités pour
lesquelles le prix de vente est supérieur au CSM (coût
unitaire).
Comme la courbe du CSM est en U, la ligne de prix –
horizontale par rapport aux abscisses représentant les
quantités de produit (y) – coupe le CSM en deux endroits. Il
y a ainsi une zone économiquement acceptable où le profit
apparaît. Elle est comprise entre une quantité minimale ym,
qui correspond au seuil de rentabilité illustré
numériquement ci-dessus, et une quantité maximale yM au-
delà de laquelle la zone de perte réapparaît. La question est
de savoir quelle quantité de (y) permet de réaliser le profit
maximal.
On peut aisément démontrer que le profit maximal est
obtenu lorsque le Cm est égal au prix, en faisant la dérivée
de la fonction du profit total (différence entre les recettes
totales py et le CST dont le coût variable total est fonction
de y) et trouver la valeur de y pour laquelle cette dérivée est
nulle. Le profit étant noté Π, le problème s’écrit :
Max Π = [py – CST]
la dérivée de py est (p), la dérivée de CST est Cm.
Donc la valeur de y qui maximise Π est celle pour
laquelle le prix est égal au coût marginal :
p = Cm.
Raisonnons d’une autre manière. Supposons que le
niveau de y soit supérieur au niveau optimal. Dans ce cas, le
coût marginal est supérieur au prix de vente. L’entreprise
perd de l’argent sur chaque unité supplémentaire produite
au-delà de l’égalité entre Cm et le prix du marché.
Supposons alors qu’il soit inférieur, l’entrepreneur renonce
alors à une partie du profit, puisque le coût marginal est
inférieur au prix de vente. Il a intérêt à augmenter sa
production tant que Cm < p, puisque cette différence est
un profit marginal. Par conséquent, le profit est maximal
lorsque Cm = p.
La courbe de Cm constitue la courbe d’offre du
producteur : si le prix s’élève, la production augmente ; si le
prix baisse, la production suit jusqu’à ce que le prix soit
égal au minimum du coût moyen. En dessous du coût
moyen, les profits sont négatifs.
La courbe d’offre est par conséquent la partie de la
courbe du coût marginal qui est supérieure au minimum du
coût moyen. Elle correspond à une fonction croissante par
rapport au prix, dans les cas les plus ordinaires. Elle peut
cependant être atypique. On a vu, dans les années 1980, les
producteurs de pétrole augmenter leur production pour
compenser la baisse du prix afin d’obtenir des recettes d’un
niveau donné. Précédemment, pour l’offre de travail, une
forme atypique en Z a également été présentée.
4.2.2. L’élasticité de l’offre par rapport au prix.
La sensibilité de l’offreur à la variation des prix se
mesure par le coefficient d’élasticité. Celui-ci est le rapport
entre le pourcentage de la variation des quantités offertes
(_y/y) et le pourcentage de variation du prix (_p/p), donc :
eO/p =
soit encore :
eO/p =
Fig. 4.20
. Agrégation des offres individuelles :
l’offre du marché
L’analyse en économie industrielle s’intéresse à la
structure de la branche pour mettre en évidence le pouvoir
de marché associé au degré de concentration établi par la
mesure de la distribution statistique des entreprises. Les
critères sont nombreux : l’effectif salarié des entreprises, les
chiffres d’affaires, les investissements, etc. L’outil le plus
simple est la courbe de Lorenz-Gini - – du nom de deux
statisticiens qui l’ont conçue et développée
mathématiquement pour le calcul du coefficient de
concentration.
Cette courbe est établie à partir des fréquences cumulées
d’une distribution statistique. Ainsi, pour les distributions
des chiffres d’affaires dans la branche, les abscisses
représentent les fréquences cumulées des entreprises de la
branche et les ordonnées les fréquences cumulées des
chiffres d’affaires. Lorsque la distribution des chiffres
d’affaires est égale, i.e. que toutes les entreprises sont de
même taille, on obtient une bissectrice, qui signifie par
exemple que 1 % des entreprises réalisent 1 % du chiffre
d’affaires du marché, 5 % des entreprises réalisent 5 % du
chiffre d’affaires du marché… et ainsi de suite jusqu’à 100
%. Une distribution tend à être concentrée, lorsque peu
d’entreprises font l’essentiel de la production de la branche
et qu’un grand nombre n’ont qu’un faible pourcentage.
Cette distribution se traduit par une courbe dont la concavité
est tournée vers le haut. Plus la moyenne de la distribution
est éloignée de la bissectrice plus la concentration est forte,
en sachant que cette moyenne correspond au point où la
tangente à la courbe est parallèle à la bissectrice (pour une
illustration voir l’exercice en fin de chapitre).
Fig. 4.21
. Courbe de concentration Lorenz-Gini.
Parmi les outils plus complexes, on signalera les
principaux indices de concentration suivants :
- le rapport entre la somme des poids des premières
unités et la somme des poids de l’ensemble des
unités. On obtient un pourcentage du type A1 = la
première entreprise représente X % de l’économie,
ou A10 = les 10 premiers revenus représentent Z %
du revenu national etc. ;
- l’indice de Herfindahl-Hirschman qui correspond à
la somme des carrés des poids des unités notés de i
à N (nombre de pays ou de marchés) pour une
variable donnée X (par exemple : le montant de ses
ventes réalisé dans un espace donné i) :
H = Σ[(Xi)/ΣXi]2
Le montant des ventes peut être remplacé par n’importe
quelle autre variable (effectifs salariés, le niveau des
investissements, etc.). L’indicateur de Herfindahl est une
fonction croissante de la concentration ou décroissante de la
dispersion. Par exemple si H est égal à 1, cela signifie que
les ventes sont effectuées en totalité dans un seul espace
(pays). Si H est égal 1/n, cela signifie que les ventes sont
également réparties entre les différents espaces ou marché.
L’indice de Herfindahl peut servir d’indice de
mondialisation d’une firme.
4.3. L’offre globale et le revenu disponible
L’offre globale de toutes les branches met en relation le
niveau général des prix et le niveau du revenu national réel,
tel que toute augmentation des prix entraîne une
augmentation du revenu national réel.
On notera que cette représentation n’est pas valable hors
de l’analyse statique en termes de marché, car la croissance
du revenu réel global sur une longue période dépend des
facteurs de production disponibles dans la nation. Dans ce
cas, la courbe d’offre se déplace vers la droite pour une
quantité de facteurs croissante ou à la suite de l’amélioration
de la qualité des facteurs.
En termes de flux, l’offre globale dans la nation
correspond aux ressources disponibles, i.e. à la somme du
produit intérieur brut et des importations. L’offre intérieure
se traduit aussi par une distribution de revenus. Il y a ainsi
les revenus du travail (salaires), les revenus des entreprises
individuelles (bénéfices industriels, commerciaux, agricoles
et bénéfices des professions libérales), les revenus des
placements et des titres de valeurs mobilières (intérêts et
dividendes) – actions, obligations. L’ensemble de ces
revenus issus de la production intérieure constitue le revenu
primaire. Celui-ci subit des prélèvements (cotisations
sociales, avoir fiscal) et bénéficie de réaffectations sous
forme de pensions, retraites, prestations de chômage pour
former le revenu avant impôts. À son tour, le revenu avant
impôts est l’objet de prélèvements – impôt sur le revenu,
primes d’assurances – ainsi que d’opérations de
réaffectation – prestations familiales ; assurance-maladie,
maternité, décès, accident du travail ; assistance ;
indemnités d’assurances ; subventions d’équipement. Après
ces différentes opérations de redistribution, on obtient le
revenu disponible, dont la principale utilisation pour les
ménages est la consommation que nous allons étudier au
chapitre suivant.
4.4. La répartition personnelle
L’analyse de l’importance et du mode d’établissement des
salaires, des revenus du patrimoine (intérêts, dividendes,
loyers et autres revenus fonciers) et des revenus mixtes
(revenus des entrepreneurs individuels) constitue, comme
nous l’avons déjà écrit, le domaine de la répartition
fonctionnelle. Lorsque l’analyse de la répartition porte sur la
distribution statistique des revenus dans la population sans
prendre en compte la nature ou l’origine du revenu, il s’agit
alors de répartition personnelle. L’analyse peut porter sur
l’une des formes seulement des revenus comme, par
exemple, les salaires.
4.4.1. La mesure de la distribution statistique ou
concentration des revenus
Les outils de mesure de la dispersion des revenus ou de la
concentration des revenus reprennent certains parmi ceux
déjà présentés dans l’étude du degré de concentration des
entreprises. Il s’agit en particulier de la courbe de Lorenz-
Gini. Parmi les autres outils simples et fréquemment
employés en utilisant les données pour la construction de la
courbe de Lorenz-Gini, il faut citer le rapport soit
interdécile, soit interquintile, soit encore interquartile Le
rapport interdécile, ou entre le percentile 90 et le percentile
10, est obtenu en faisant le rapport entre, d’une part, le
revenu total des 10 % de la population totale ayant le revenu
le plus élevé (P90) et, d’autre part, le revenu total des 10 %
de la population totale ayant le revenu le plus bas (P10).
Pour le quintile, le calcul se fait sur les groupes sociaux de
20 % (P80/P20), pour le quartile, le groupe représente 25 %
(P75/P25). De manière empirique, il possible d’envisager
des rapports non symétriques, comme par exemple le
rapport entre le revenu le plus élevé des 20 % de la
population et celui des 25 % de la population qui déclare le
revenu le plus bas. Plus la classe est étroite, plus l’indice
aura tendance à donner une forte dispersion. Le rapport
intercentile (le revenu des 1 % de ceux qui ont le revenu le
plus élevé divisé par le revenu des 1 % de ceux qui ont le
revenu le plus bas) est ainsi plus grand que le rapport
interdécile, qui est lui-même plus grand que le rapport
interquartile.
Vilfredo Pareto a proposé en 1896 une formule dite loi de
Pareto. Cette formule, qui concerne la distribution des
revenus dans la nation, spécifie qu’en tout temps et tout
lieu, la distribution des revenus est sensiblement la même.
Sa formulation mathématique simplifiée est :
Log N = Log A – λLog x
avec N le nombre de titulaires de revenus ayant un revenu
égal ou supérieur à x, A et λ étant des constantes.
Les vérifications empiriques de cette loi pour la
distribution des revenus et pour la répartition des
patrimoines n’ont pas donné des résultats concluants de
validité.
4.4.2. Les faits et les politiques de redistribution
Simon Kuznets18, sur une base empirique certes limitée au
cas des États-Unis d’Amérique pour une période courte de
l’histoire sociale de ce pays, a mis en évidence une courbe
en U inversé (ou courbe de Kuznets) de la distribution du
revenu au cours du développement économique.
Fig. 4.22
. Courbe en U inversé de S. Kuznets
La première phase de préparation du décollage
économique exige des moyens de financement associés à
l’épargne obtenue par la croissance de la concentration des
revenus (forte inégalité dans la distribution). Durant la
deuxième phase de « décollage et marche vers la maturité »,
la concentration reste forte, et dans la troisième phase de la
croissance auto-entretenue du pays développé, la
concentration se réduit sensiblement.
Les observations de Kuznets n’ont pas reçu de
nombreuses confirmations. Un fait certain concerne les
inégalités de revenus qui sont plus élevées que les inégalités
de salaire.
En France, le rapport interdécile extrême est d’environ de
3 (P90/P10). Il est resté stable depuis les années 1970. Aux
USA, il est plus élevé et a fortement augmenté. Des
différences de capital humain qui comprend la formation,
les capacités et les motivations, et des différences de
productivité des entreprises pour des salariés de même
niveau de formation sont les hypothèses les plus
couramment avancées pour expliquer les inégalités
salariales.
Pour remédier aux différences de capital humain, le
système éducatif devrait pouvoir être utilisé pour diminuer
les inégalités. Cependant, pour que cela soit réalisable, il
faudrait que chacun puisse accéder à l’éducation. Deux
instruments sont utilisés : les bourses destinées aux
étudiants économiquement défavorisés, et l’éducation
gratuite, mais cette dernière profite aussi aux étudiants plus
riches. Malgré ces outils, très peu de personnes d’origine
défavorisée font des études supérieures.
Pour l’ensemble des revenus, le rapport interdécile est de
5,7 en France. Deux raisons expliquent cette augmentation
de la fourchette par rapport aux inégalités de salaire. Par le
bas d’abord, cela tient au fait que l’on inclut les personnes
vivant des minima sociaux ou de retraites faibles. Par le
haut ensuite, parce que les revenus du capital sont
concentrés entre les mains de ceux qui ont déjà un haut
salaire. L’écart peut être corrigé par la prise en compte de la
taille des ménages et par les opérations de redistribution. La
correction par la taille des ménages donne 4,4. Cela
s’explique par le fait que beaucoup de revenus modestes
sont ceux de personnes seules touchant une faible retraite.
Figure 5.2
. Effet de revenu et effet de substitution
1.2. Les fonctions de consommation microéconomiques et
les fonctions de demande du consommateur
1.2.1. Les lois d’Engel et l’élasticité-revenu de la
consommation
La fonction de consommation microéconomique met en
relation la variation du revenu et la variation du panier de
consommation. Les premières observations ayant abouti à
des mesures ont été faites par le Français Frédéric Le Play
en 1853 sur la base d’une enquête sur un faible échantillon
de ménages. En 1857 l’Allemand Ernst Engel propose des
données plus significatives Le statisticien allemand
constate, auprès d’un échantillon de 150 ménages en
Belgique, que leurs dépenses alimentaires représentent une
part d’autant plus élevée dans les dépenses totales que le
revenu est faible. En assimilant les différentes classes de
revenus des ménages à une évolution du revenu pour un
ménage, l’observation d’Engel revient à dire que les
dépenses alimentaires croissent moins vite que le revenu,
que les dépenses de logement suivent le rythme de
croissance du revenu, et que les dépenses de transport,
d’hygiène, de loisirs et de culture croissent à un rythme plus
élevé. Sur la base des évolutions enregistrées depuis 1970,
les « courbes d’Engel » correspondent à la figure 5.6. Les
évolutions sur la figure (a) de gauche sont en valeurs
absolues, celles sur la figure (b) à droite sont en termes
d’indice. Plus la pente de la droite est faible plus la dépense
peut être considérée comme répondant à un besoin
fondamental. Avec les droites représentant les données en
valeurs absolues, ce caractère est aussi souligné par
l’ordonnée à l’origine. Plus celle-ci est élevée et positive
plus la dépense est nécessaire. Ainsi les dépenses
alimentaires ont une pente faible et la plus forte ordonnée à
l’origine.
Fig. 5.6
. Courbes d’Engel
(a) Dépenses en fonction du revenu (b)
évolution de l’indice des dépenses en fonction de
l’indice de revenu
Ces différentes observations se résument comme suit par
la loi d’Engel simplifiée : plus le revenu est élevé, plus la
part des dépenses superflues dans le budget familial
augmente et plus la part des dépenses de première nécessité
diminue.
La part d’une dépense pour un poste donné dans le
budget familial constitue le coefficient budgétaire. En
France, par exemple, pour l’alimentation (boisson alcoolisée
et tabac compris), il passe de 0,287 en 1960 à 0,141 en
2000. La part des dépenses d’habillement est passée de 5,4
% à 2,7 % au cours de la même période. En revanche, la
part des dépenses de logement (comprenant le chauffage et
l’éclairage) a fortement augmenté de 10,7 à 19,1. La même
tendance est enregistrée pour les dépenses de transport et de
communication (passage de 9,8 % à 13,9 %), les loisirs et la
culture (de 6,2 % en 1960 à 7,1 % en 2000).
Les différents coefficients budgétaires moyens pour un
groupe social défini dans un espace donné servent de
coefficients de pondération pour calculer l’indice des prix
de détail.
Par exemple, si les prix des produits alimentaires dont le
coefficient budgétaire est de 0,15 augmentent de 3 % au
mois de février de l’année X, après correction des variations
saisonnières, leur contribution à l’indice général des prix
sera : 0,15 × 0,03 = 0,0045 soit 0,45 %.
La représentation géométrique de l’optimum du
consommateur par confrontation de la droite de budget et
des courbes d’indifférence permet de retrouver les courbes
d’Engel. Il suffit d’envisager une croissance du revenu
(déplacement de la droite du budget). La courbe qui relie les
différents optima constitue la courbe de consommation-
revenu dite encore courbe de niveau de vie. Elle traduit la
modification de la structure de la consommation avec la
variation du revenu.
La fonction microéconomique de consommation-revenu
est généralement croissante (fig. 5.7.), sauf pour les biens
inférieurs. Dans ce cas, la dépense diminue lorsque le
revenu augmente, le consommateur substituant des biens
dits supérieurs ou de meilleure qualité mais plus onéreux
aux biens inférieurs dits encore biens Giffen, du nom de
Robert Giffen qui a mis en évidence cette exception à la loi
générale de la dépense en fonction du revenu. Par exemple,
lorsque le revenu s’élève, on préférera des légumes et des
fruits frais et aux légumes secs ou aux pâtes alimentaires.
Des courbes d’indifférence aux courbes d’Engel
Fig. 5.7
. Des courbes d’indifférence aux courbes
d’Engel
La sensibilité de la variation de la consommation à la
variation du revenu est mesurée par le coefficient
d’élasticité de la consommation par rapport au revenu (eC/Y).
Il est obtenu en faisant le rapport entre la variation relative
de la dépense (ΔC/C) et la variation relative du revenu
(ΔY/Y). En appelant, d’une part, propension marginale à
consommer le rapport entre l’accroissement de la
consommation (ΔC) et l’accroissement du revenu (ΔY) et,
d’autre part, propension moyenne à consommer le rapport
entre la consommation et le revenu (C/Y), alors le
coefficient d’élasticité-revenu de la consommation est le
rapport entre les propensions marginale et moyenne à
consommer :
soit encore
Fig. 5.8
. Courbe de prix-consommation
Deux représentations de la courbe de demande sont
possibles selon l’horizon temporel retenu (voir figure 5.9.).
À court terme, le prix apparaît en abscisse, il est considéré
comme une donnée déterminante pour le consommateur. À
long terme, le prix est en ordonnée, il est considéré comme
déterminé par le jeu entre l’offre et la demande : une forte
demande peut susciter un prix élevé. Celui-ci est une
incitation à produire. Cette augmentation de la production
s’accompagnera vraisemblablement d’une baisse du prix,
d’autant plus que la hausse initiale avant la production aura
découragé une partie de la demande. Les conventions ont
privilégié la représentation de la demande à long terme mais
en gardant le raisonnement de la courte période.
Fig. 5.9
. Demande à court et long terme
On passe de la demande individuelle à la demande du
marché en additionnant horizontalement les demandes
individuelles. Par exemple, si pour un bien x Louise
demande 2 unités pour un prix de 10, tandis que Yasmine
n’est pas demandeuse à ce prix, alors la demande du marché
sera de 2 pour le prix de 10. Si le prix passe à 8, Louise
demande 4 unités et Yasmine exprime l’intention de prendre
1 unité. La demande du marché est donc de 5. Lorsque le
prix passe à 6, Louise est prête à acheter 6 unités, tandis que
Yasmine est preneuse de 4. La demande du marché est donc
de 10. Il est possible de tracer la courbe de demande de
chaque individu et la courbe de demande du marché en
additionnant les points de chaque courbe individuelle
horizontalement (voir figure 5.7).
Fig. 5.10
. Demandes individuelles et demande du
marché pour le bien X
c) Cette loi générale de la demande comporte des
exceptions :
La première, déjà présentée ci-dessus, est l’effet Giffen.
La diminution du prix des biens inférieurs peut
s’accompagner d’une diminution de la demande. L‘effet
Giffen ou paradoxe de Giffen est un effet revenu particulier
qui pour être mis en évidence exige une approche en termes
de panier de biens substituables en utilisant les courbes
d’indifférence. En principe, dans le cas de biens normaux, la
hausse du prix d’un bien entraîne une augmentation de la
demande à l’égard des biens dont le prix est resté fixe (effet
de substitution) et une diminution de la satisfaction totale
(courbe d’indifférence d’un niveau plus bas : effet revenu).
Dans le cas des biens inférieurs, Sir Robert Giffen signale
que l’augmentation du prix des pommes de terre est suivie
d’une augmentation de la demande pour ce bien. Le
paradoxe de Giffen s’explique par la part élevée des biens
inférieurs dans le budget des ménages les moins fortunés :
les ménages sont obligés de réduire les dépenses pour les
biens ostentatoires, afin de se procurer les biens inférieurs
qui deviennent, malgré la hausse de leurs prix, les seuls
accessibles pour des groupes sociaux à revenu faible.
La deuxième est l’effet de snobisme ou effet d’ostentation
ou effet Veblen. Certains consommateurs recherchent les
produits les plus onéreux pour se distinguer. C’est Augustin
Cournot qui le premier – en 1838 – a révélé ce
comportement. Mais c’est l’Américain Veblen qui l’étudiera
dans le détail.
La troisième est l’effet d’imitation : le consommateur suit
le modèle de consommation dominant sans attacher une
attention aux prix ; on parle encore d’effet Tarde , du nom
du psychosociologue français Gabriel Tarde (1843-1904).
La quatrième est l’effet de mésinformation du prix dans
une situation d’asymétrie informationnelle précontractuelle :
le consommateur croit que le prix est un indicateur de la
qualité et que l’augmentation des prix ou l’écart positif des
prix avec un autre article est synonyme de meilleure
qualité ; ce cas correspond à l’effet de sélection adverse ou
antisélection mis en évidence en 1970 par George Akerlof à
propos du marché des voitures d’occasions (Market of
lemons, ou en français le « marché des tacots »).
La cinquième est l’effet d’anticipation : les
consommateurs n’achètent pas instantanément dès que les
prix baissent, ils attendent que la baisse soit plus prononcée
pour se porter acquéreurs. En revanche, dès que les prix
montent, les demandeurs se manifestent afin d’acheter à un
cours qu’ils jugent susceptible de s’élever encore.
La sixième est l’effet de consommation nulle dit encore
effet de revenu nul correspondant à la baisse importante du
prix très élevé d’un bien de luxe non suivie par une
augmentation de la demande. Si par exemple une voiture de
luxe est vendue annuellement en 1000 exemplaires au prix
correspondant à 100 fois le salaire minimum conventionnel
ou légal, une baisse de son prix pour le ramener à 50 fois ce
salaire, n’augmentera pas le nombre de personnes avec un
revenu leur permettant de se porter acquéreur de ce type de
bien. Si le prix baisse davantage, le risque est même de voir
les premiers demandeurs potentiels se détourner de ce
produit devenu trop populaire à leurs yeux. C’est ce qui
s’est produit pour l’Edsel un modèle luxueux de voiture à
un prix abordable proposé par le constructeur américain
Ford dans les années 1950.
La septième est le jeu de l’effet des prix magiques. Un
prix magique est un prix proche d’un seuil donné
correspondant à un changement de la classe de valeur
(passage de l’unité à la première dizaine, changement de
dizaine, passage de la neuvième dizaine à la centaine, etc.).
Le franchissement de ce seuil à la baisse d’un très faible
pourcentage entraîne une forte augmentation des ventes, et
une baisse plus importante du prix n’aura pas plus d’effet
sauf si un autre seuil est franchi. Empiriquement, les prix
magiques correspondent à des prix du type 9,95 unités
monétaires pour un article A, ou 999 unités monétaires pour
un article B. Les seuils déterminants sont ici 10 et 1 000
unités monétaires.
La huitième exception est le jeu de l’effet d’addiction ou
effet Marshall pour certains biens (tabac, alcool, drogue,
biens culturels) : l’augmentation du prix pour ces biens n’en
réduit pas la consommation pour les individus dépendants.
La neuvième exception est l’absence de produit
substituable. Dans ce cas, pour un produit jugé nécessaire,
la hausse du prix est acceptée
Le dixième cas correspond au prix psychologique. Ce cas
est particulier car il est une combinaison de certaines des
exceptions ci-dessus. Le prix psychologique est une
fourchette de prix établie par enquête auprès des
consommateurs. Le prix bas est celui en dessous duquel le
produit est dévalorisé aux yeux du consommateur et le prix
supérieur est le prix qui finit par dissuader d’acheter. La
méthode Adam propose par sondage de déterminer le prix
optimal de vente ou prix psychologique réunissant le plus
grand nombre d’acheteurs éventuels. Ce prix se situe entre
un maximum (effet revenu) et un minimum (effet qualité).
d) La sensibilité de la demande à une variation de prix est
mesurée par le coefficient d’élasticité de la demande par
rapport au prix. On peut calculer soit l’élasticité directe,
soit l’élasticité croisée :
L’élasticité-prix directe de la demande (eD/p) est le rapport
entre la variation relative de la demande du bien considéré
(ΔD/D) et la variation relative du prix de ce même bien
(Δp/p), soit encore :
Fig. 5.11
. Formes particulières de demande
(a) demande de forfaits de ski b) demande de
chaussures
Faible élasticité et effet King
Fig. 5.12
. Formes particulières
d’isolasticité – prix de la demande
L’élasticité croisée de la demande pour le bien i, à la suite
de la variation du prix du bien j, notée eDij/pj, est le rapport
entre la variation relative de la demande de i et la variation
relative du prix de j.
Fig. 5.13
. Combinaison optimale des qualités de
deux biens
1.2.4. La difficulté d’une définition d’un choix collectif
Dans les développements précédents, nous n’avons
examiné que le comportement de la demande solvable à
l’égard de biens marchands, négligeant l’utilisation de
services collectifs pour laquelle le consommateur n’a pas à
se soucier de sa solvabilité, i.e. sa capacité à payer. Mais, si
les biens publics collectifs sont gratuits à la consommation,
ils ne sont pas pour autant des biens libres : leur production
exige des sacrifices et, de ce fait, un problème de choix se
pose. Ce problème intéresse les individus, car il s’agit de
l’affectation des impôts qu’ils ont payés. Faut-il alors
demander l’avis de tous les citoyens pour définir le volume
et la nature des biens collectifs qu’il convient d’offrir ?
– Le paradoxe d’Arrow, une redécouverte du paradoxe
de Condorcet, indique que des choix rationnels transitifs au
niveau individuel ne sont pas nécessairement transitifs au
niveau global. En d’autres termes, « si A est préféré à B et si
B est préféré à C », alors, pour un individu rationnel, « A
sera préféré à C ». Avec un autre individu, on pourrait avoir
B > A, A > B et B > C. Un troisième donnerait A > C, A >
B et C > B, et ainsi de suite. Après agrégation, avec une
telle liberté ou indépendance des choix, on pourrait obtenir
A > B > C > A, i.e. un système incohérent.
La fonction d’utilité sociale, dite encore soit fonction de
bien-être social, soit fonction d’utilité collective, ne
résulterait alors que d’une décision dictatoriale (K. Arrow,
Choix social et valeur individuelle, 1952).
Si l’on abandonne l’axiome d’indépendance, la difficulté
qui demeure est de connaître les préférences des
consommateurs, sachant que la production d’un bien public
exige un financement dont la source est l’impôt. Le principe
de non-exclusion qui caractérise le bien public collectif
conduit le consommateur à sous-estimer sa capacité à payer,
sachant qu’il peut consommer sans aucune gêne le bien,
sans en manifester la demande. Le système de prix par la
voie de la souscription pour produire le bien public collectif
est inopérant parce que la contribution de chacun est trop
faible, chacun cherchant à devenir un passager clandestin.
Il faut alors recourir à l’impôt. La dimension du bien public
collectif peut alors être définie selon deux méthodes : la
première repose sur la procédure BLS (Bowen-Lindhal-
Samuelson). Elle confronte la disposition marginale à payer
l’impôt, du côté du consommateur, et la contrainte
d’équilibre budgétaire, du côté de l’entreprise productrice. Il
faut alors que le coût marginal soit égal à la disposition
marginale à payer l’impôt. On parle d’équilibre de Lindhal
ou condition BLS. La deuxième est la procédure politico-
économique du vote majoritaire. Le niveau de prélèvement
fiscal est celui que l’agent médian accepte comme
contribution au financement d’un bien public dont il sait que
le volume dépend du montant des recettes obtenues. L’agent
médian est caractérisé par le fait que la moitié de la
population restante considère que le taux de l’impôt est trop
élevé et que l’autre moitié le trouve trop faible.
2. L’analyse macroéconomique de la consommation
Dans la section précédente, nous avons vu le
comportement du consommateur et du marché face à une
variation du prix absolu en monnaie et des prix relatifs pour
un revenu donné, et face à une variation du revenu de
l’individu ou de la société pour des prix donnés, sachant que
la demande s’exprime pour des produits donnés et que la
dépense correspond à des postes précis dans le budget des
ménages. Une telle analyse relève de la microéconomie des
comportements. Dans la présente section, cette perspective
est abandonnée au profit de l’analyse macroéconomique des
flux de dépense de consommation en fonction du niveau du
revenu global, en faisant abstraction de la structure des
dépenses et du prix de chaque produit. Cette perspective
s’applique à un espace donné et à l’ensemble des habitants
de cet espace ou à chaque groupe social de ce même espace.
La fonction de consommation macroéconomique a
d’abord été développée dans le cadre de la théorie
keynésienne. Elle donna lieu à des travaux empiriques
infirmant la forme donnée par Keynes. Des hypothèses
nouvelles ont été avancées pour expliquer les formes
observées.
2.1. La loi psychologique fondamentale de Keynes
Dans la Théorie générale, Keynes écrit que la relation
entre la consommation nationale (C) et le revenu national
(Y) obéit à la loi psychologique fondamentale selon laquelle
la consommation augmente avec le revenu, mais à un
rythme plus faible. Autrement dit, le rapport ΔC/ΔY, qui
constitue la propension marginale à consommer (notée c ci-
dessous) ou la dérivée de la fonction de consommation par
rapport au revenu [C = f (Y)], est inférieure à 1.
L‘épargne étant la part du revenu non consommée, il
s’ensuit qu’elle augmente à un rythme plus rapide que celui
du revenu. L’augmentation éventuelle du revenu étant
distribuée entre l’accroissement de la consommation et de
l’épargne, on déduit que la propension marginale à épargner
ΔS/ΔY (notée s ci-dessous) est également inférieure à 1.
Elle est, dans une économie fermée, le complémentaire de la
propension marginale à consommer par rapport à l’unité
obtenue en divisant l’augmentation du revenu national par
lui-même.
De manière plus symbolique, on a :
Y=C+S
d’où S = Y – C
ΔY = ΔC + ΔS
d’où ΔS = ΔY – ΔC
(ΔY/ΔY) = (ΔC/ΔY) + (ΔS/ΔY) = c + s = 1,
d’où
s=1–c
Si l’on admet que Keynes se situe dans le court terme, on
peut aussi admettre que la propension marginale à
consommer est constante. La spécification de la fonction
conduit à envisager le niveau de consommation indépendant
du revenu, i.e. la consommation incompressible Co positive
lorsque le revenu est nul. Il faut, en effet, un élément
constant dans la fonction C = f (Y) pour vérifier la loi
psychologique fondamentale de Keynes. Cela revient à dire
que la propension moyenne à consommer C/Y diminue
lorsque le revenu augmente. De sorte que l’on peut écrire :
C = cY + Co.
La figure 5.14.a. en donne la représentation graphique. La
bissectrice correspondrait à la situation hypothétique dans
laquelle tout revenu est consommé, avec égalité parfaite
entre consommation est revenu
En replaçant cette valeur de C dans l’équation de
définition du revenu national Y = C + S, on obtient, par
déduction, l’équation de l’épargne :
S = sY – Co
La figure 5.11.b. en donne la représentation graphique.
Il est évident que la mise à l’épreuve empirique de la loi
de Keynes implique une définition précise de la dépense de
consommation. En général, on accepte la définition
conventionnelle de la comptabilité nationale et on retient la
consommation effective qui recouvre l’ensemble des biens
et services que les ménages utilisent effectivement ou qu’ils
consomment, quelle que soit la manière dont ils sont
financés. En d’autres termes, la consommation effective
comprend les dépenses de consommation finale financées
directement par les ménages et l’ensemble formé par les
dépenses donnant lieu aux remboursements de la sécurité
sociale, les aides au logement, les dépenses de la collectivité
en éducation, en santé, etc.
Fig. 5.14
. Fonctions de consommation et d’épargne
keynésiennes
Fig. 5.11.a. et Fig. 5.11.b.
2.2. Les hypothèses explicatives de la stabilité de la
propension moyenne à consommer
Les tests statistiques réalisés par S. Kuznets (1946) et R.
Goldsmith (1955) n’ont pas permis de valider la loi de
Keynes, lorsque l’observation porte sur une longue période.
Il semblerait que la propension moyenne à consommer C/Y
soit constante à moyen et long termes (0,867 entre 1869 et
1898, 0,867 également entre 1884 et 1913, et même une
propension nettement plus haute pour la période 1904-
1913). Le phénomène révélé par Kuznets et Goldsmith a
donné lieu à quatre hypothèses explicatives : le revenu
relatif, le revenu permanent, le cycle de vie et les structures.
2.2.1. L’hypothèse du revenu relatif
Cette hypothèse avancée par J.S. Duesenberry en 1949
repose au départ sur une analyse sociologique en coupe
transversale (analyse des comportements dans la société à
une date donnée) : le groupe de consommateurs aux revenus
élevés trace la voie en donnant aux catégories à revenu
faible un modèle de consommation à reproduire. Ainsi, le
comportement d’un groupe de consommateurs est surtout
déterminé par le comportement du groupe au revenu le plus
élevé. Il s’ensuit, par le jeu de l’effet de démonstration ou
effet d’imitation, une propension moyenne à consommer
plus élevée dans le groupe à revenu faible. On retrouve ainsi
la loi de Keynes en coupe instantanée.
Pour la longue période, la constance de C/Y pour
l’ensemble des ménages est assurée en prenant en compte le
niveau le plus élevé du revenu global atteint dans le passé. Il
existerait ainsi un effet de cliquet ou un effet d’hystérésis de
la consommation correspondant au poids des habitudes
passées, comme le fait apparaître la reformulation proposée
par T.M. Brown en 1952. Lorsque son revenu baisse, le
consommateur tend à maintenir son niveau de
consommation antérieur, en accroissant sa propension
moyenne à consommer et en réduisant son épargne.
Duesenberry avance la thèse selon laquelle en période
d’expansion, la consommation augmente moins fortement
que le revenu, et en phase de récession, elle tend à se
maintenir à son niveau ou à baisser plus faiblement que le
revenu. Le problème, avec cette hypothèse du revenu relatif,
est le fait que, depuis 1945, la croissance économique ne
permet pas d’identifier le revenu le plus élevé sauf en
prenant le dernier revenu connu.
2.2.2. L’hypothèse du revenu permanent
Milton Friedman considère que la théorie de la
consommation keynésienne est de nature plus idéologique
que scientifique. En effet, pour lui, la loi de Keynes est
pessimiste du point de vue de l’évolution de l’économie de
marché capitaliste, car la diminution de C/ Y est synonyme
de diminution des débouchés pour la production capitaliste.
Cela comporte dans la logique keynésienne un risque de
stagnation de l’économie, d’où la justification keynésienne
de la nécessité de l’intervention de l’État pour relever la
propension à consommer et pour maintenir des débouchés.
M. Friedman fait observer qu’un tel pessimisme est le
produit de l’analyse en courte période de Keynes. Il néglige
le fait que le revenu des ménages évolue au cours du temps.
Keynes ignore également que les consommateurs font des
plans de dépenses sur une longue période, afin d’avoir un
rapport consommation/revenu le plus stable possible et
éviter de la sorte de subir les fluctuations inévitables du
revenu. La consommation n’est alors déterminée que
partiellement par le revenu courant dit encore revenu
transitoire ou revenu présent). Les agents prennent en
compte également leurs revenus passés et leurs revenus
futurs en utilisant leur mémoire et en anticipant leurs gains.
La somme pondérée et actualisée de ces trois revenus,
passés, présents et futurs, constitue le revenu permanent Si
le revenu transitoire augmente brutalement de manière
exogène à la suite d’une augmentation des dépenses
publiques en vue de susciter des débouchés à la production
permettant de réduire le chômage, l’effet en termes
d’augmentation de la consommation des ménages sera
faible, car ce supplément de revenu sera sans lendemain. On
dit qu’il y a effet de revenu permanent ou effet Friedman
lorsqu’il y a adaptation du volume et de la nature des
encaisses au revenu monétaire total perçu, compte tenu de la
conjoncture globale. Ce revenu peut révéler en effet soit un
excès soit un déficit par rapport au niveau du revenu
permanent et susciter un arbitrage entre consommation et
épargne d’une part, et entre encaisse transaction et encaisse
placement, d’autre part. Le maintien d’une consommation
permanente ou normale peut se traduire par une
déthésaurisation et par une vente des actifs financiers
(actions et obligations) en cas de déficit du revenu courant
ou par un accroissement des placements, en cas d’excès du
revenu courant.
Le revenu permanent détermine la consommation
permanente selon une proportionnalité qui dépend
uniquement du taux d’intérêt à long terme, lequel est
supposé connu, donc constant. Par conséquent, la
propension moyenne à consommer qui définit cette
proportionnalité est constante.
2.2.3. L’hypothèse du cycle vital
La théorie du cycle de vie est associée aux travaux de
Franco Modigliani (1912-2004). Ce dernier, après avoir mis
en évidence la difficulté de prévoir l’évolution de la
propension à épargner en raison des fluctuations des
revenus expose, avec R. Brumberg (1954) puis avec A.
Ando (1957 et 1963), la théorie du cycle de vie en mettant
en relation l’évolution du revenu et de l’épargne. Cette
théorie partage la philosophie générale décrite dans la
théorie du revenu permanent1. La spécificité est
l’introduction de différentes périodes dans la vie humaine,
périodes analysées en termes de comportements
économiques. Modigliani oppose, d’une part, les deux
périodes de la vie pour lesquelles la consommation est
supérieure au revenu – de 0 à 18 ou 20 ans, et au-delà de 65
ans – et, d’autre part, la période intermédiaire pour laquelle
le revenu est supérieur à la consommation, permettant ainsi
de constituer un patrimoine par l’épargne.
Fig. 5.15
. Hypothèse du cycle de vie
À un moment donné de la vie et à court terme, le
patrimoine est une constante, mais, au cours de la vie et sur
une longue période, le patrimoine varie. Il atteint le
maximum à la fin de la vie active, qui peut se situer à 60 ans
ou 65 ans selon les pays et les professions. Le rôle de
patrimoine est de lisser la consommation. L’hypothèse du
cycle vital indique que si les individus savaient la date de
leur décès, ils ne laisseraient aucun patrimoine derrière eux.
Par conséquent, le patrimoine jouerait ici le rôle du revenu
permanent présenté par Friedman. Autrement dit, la
consommation dépend du patrimoine. À court terme, en
revanche, la loi de Keynes s’appliquerait. Cette hypothèse
du cycle vital suscite de nombreux travaux et débats,
notamment à propos de l’influence du système de retraite
qui pourrait inciter à ne pas épargner en vue de faire face
aux besoins de consommation dans la période d’inactivité
(cf. « La théorie du cycle de vie », Annales d’économie et
de statistiques, n° 9, janvier-mars 1988).
Les critiques formulées sont principalement :
- La possibilité pour les individus d’emprunter sans
aucune limite de montant, avec pour seule
contrainte le remboursement de la dette,
- l’absence d’incertitudes dans différents domaines
(durée de la vie active, montant accumulé, date de
décès),
- la non-prise en compte de la solidarité
intergénérationnelle (égoïsme générationnel : on ne
laisse d’héritage à ses enfants qu’en raison de
l’ignorance de la date de décès).
Cette théorie du cycle vital reste bien une hypothèse car,
comme le rappellent Stéfan Lollivier et Daniel Verger : « Le
calcul du revenu permanent d’un individu suppose la
connaissance de tous les revenus qu’il perçoit au cours de
son cycle de vie, information évidemment indisponible. »2
2.2.4. Le rôle des structures sociales, psychologiques et
technologiques
Avec Duesenberry, on a déjà rencontré le problème de
l’imitation et de la démonstration. Ici, nous nous limiterons
à évoquer les changements de goût des consommateurs, le
rôle de la publicité et de l’action des entreprises.
Les changements de goût peuvent être spontanés, du fait
de l’éducation, de voyages, de découvertes, ou induits par la
publicité pour de nouveaux produits. Les changements de
goût s’accompagnent de dépenses plus élevées que pour les
produits abandonnés. Les produits durables de plus en plus
sophistiqués sont en effet plus onéreux. Par ailleurs, la
multiplication des produits présentés comme non
substituables entraîne une croissance des dépenses. Au total,
la propension moyenne à consommer ne peut pas baisser à
long terme.
Par cette publicité, par la sophistication et la
multiplication des biens, la relation C = f (Y) n’est plus à
sens unique : c’est parce que les biens sophistiqués et
nombreux sont désirés que les ménages cherchent à gagner
un revenu plus élevé. On ne consomme pas ce que l’on
gagne, mais on cherche à gagner pour consommer.
Évidemment un tel raisonnement oblige à introduire le
temps au-delà du court terme keynésien.
Par ailleurs, l’épargne n’est pas toujours la part du revenu
non consommée, i.e. un résidu. La variable d’ajustement
peut être au contraire la consommation. L’épargne peut être
affectée à une thésaurisation (détention de liquidités
inactives), à des placements sous la forme de prêts
rémunérés par un intérêt, et à l’investissement sous la forme
d’acquisition de biens de production et de logements. Une
augmentation du taux d’intérêt peut engendrer une hausse
de l’épargne en vue d’un placement, ce qui a pour effet de
faire baisser le niveau de la consommation compressible.
Par conséquent, la fonction de consommation dépend du
revenu et du taux d’intérêt.
Keynes, dans la Théorie générale, signale l’existence de
facteurs psychologiques susceptibles d’expliquer
l’instabilité du comportement du consommateur. Les
facteurs qui se résument par des anticipations pessimistes ou
optimistes ont été minimisés, alors que leur influence est
déterminante pour l’investissement. Les travaux de
psychologie économique (G. Katona, P.-L. Reynaud)
tendent à redonner un intérêt à cette dimension, mais ils
rencontrent l’obstacle de la pondération de ces facteurs
psychologiques.
1 M.R. Fisher : « Life-cycle hypothesis », article publié dans le dictionnaire
édité par J. Eatwell et alii sous le titre The New Palgrave : A Dictionary of
Economics, Londres, Macmillan, 1987.
2 Stéfan Lollivier et Daniel Verger : « Inégalités et cycle de vie : les liens entre
consommation, patrimoine et revenu permanent », Annales d’économie et de
statistiques, n° 54, 1999, p. 207.
Chapitre 6
Les marchés
1. Qu’est-ce qu’un marché ?
« Aller au marché », « faire son marché » sont des
expressions qui expriment assez bien les deux sens
populaires du mot marché en désignant un lieu (aller au
marché) et le processus soit de vente soit d’achat.
L’étymologie du mot « marché » peut être aussi bien le latin
mercatus qui vient de merx et mercis signifiant
marchandise, que le terme marka d’origine germanique
désignant, sous le terme français « marche », une province
frontalière d’un État et un district militaire établi sur une
frontière.
Du point de vue de l’économiste, le marché est la
rencontre d’une offre et d’une demande pour un bien ou un
service qui se concrétise par un accord sur un prix unitaire
des biens et services et les quantités sur lesquelles porte
l’échange. En économie industrielle, le marché désigne
l’ensemble des entreprises constituant la branche d’activité.
Du point de vue de la théorie microéconomique,
l’expression « passer un marché » indique bien que le
marché n’est pas un lieu mais un contrat comportant vente
et achat de biens ou de services à un prix dont la fixation
constitue ce marché. Toutefois, il existe des marchés
physiques, géographiquement situés, ou marchés concrets,
i.e. des lieux conventionnellement organisé pour permettre
aux acheteurs potentiels (demandeurs) et vendeurs
potentiels (offreurs) de se rencontrer avec présentation
effective des marchandises. Ces marchés qui sont des lieux
publics de vente ont divers noms : bourse, salon, foire, souk,
bazar, halle, etc.
Il peut aussi consister en un réseau d’informations sur
lequel les acteurs du marché se branchent, et porter sur des
biens à livrer immédiatement (marché au comptant) ou à
une date ultérieure (marché à terme).
En mercatique, comme cela a été indiqué dans le chapitre
consacré à la demande et à la consommation, le marché est
constitué par l’ensemble des clients actuels ou potentiels,
présents ou futurs d’une entreprise donnée.
Il existe cependant différents types de marchés en
fonction de divers critères de classification.
a) La date de disponibilité du bien : on distingue le
marché au comptant – décision d’échange et disponibilité
sont simultanées – et le marché à terme – décision et
disponibilité sont séparées dans le temps.
b) Le critère de l’espace pour les marchés concrets : on a
le marché local quotidien ou hebdomadaire, le marché
régional, le marché d’intérêt national, la foire internationale,
le marché mondial donc unique.
c) Le critère juridique : les marchés publics se
distinguent des marchés ordinaires.
d) La forme de la négociation. Les formes de marché sont
très nombreuses : gré à gré (à l’amiable), enchères
comportant différentes procédures (anglaises – à la hausse
–, hollandaise – à la baisse –, prix cacheté, au deuxième prix
cacheté). Le principe de l’enchère est d’offrir un prix plus
élevé que celui proposé précédemment par un autre dans le
cadre d’une adjudication en vue d’obtenir le bien ou le
service. On dit encore que les enchères publiques sont des
ventes à l’encan (vente au plus offrant).
Dans le cas des adjudications de bons du Trésor ou
d’obligations, deux formules sont utilisables :
- l’adjudication à la française. Le prix d’équilibre, i.e.
celui qui permet de placer le volume de « papier »
voulu par l’adjudicateur, est payé par chaque
adjudicataire. Cela revient à servir toutes les
demandes dans la limite des quantités offertes au
prix fixé par l’émetteur, ce prix étant le prix
marginal. Si l’émetteur enregistre 15 millions
d’euros de souscription pour une adjudication de
bons du trésor rémunérés à 5 %, et 25 millions
d’euros pour un taux rémunérateur de 5,5 %, alors
le taux de 5,5 % sera le prix unique en tant que prix
marginal si le Trésor atteint ses objectifs à 40
millions d’euros ;
- l’adjudication à la hollandaise ou enchère
hollandaise, dite encore enchère à prix descendant.
Chaque adjudicataire paye le prix auquel il a
soumissionné, pourvu qu’il soit inférieur ou égal au
prix d’équilibre. Il y a alors discrimination par les
prix. En reprenant l’exemple précédent, il y aura 15
millions d’euros de bons du Trésor à 5 % et 25
millions d’euros à 5,5 %.
e) La structure, elle-même déterminée par les
caractéristiques du bien (homogénéité ou hétérogénéité), le
nombre et la dimension des intervenants (atomicité ou
molécularité), les conditions d’entrée et de sortie du marché
et d’adaptabilité réciproque de l’offre et de la demande
(fluidité ou viscosité) et la qualité de l’information dont
disposent les intervenants sur les paramètres du marché
(transparence ou opacité). Dans ce cas, le nombre théorique
de marchés est encore plus grand. Le tableau de
Stackelberg1, ci-dessous, résume les différentes structures
sur la base du critère du nombre d’agents pour l’offre et
pour la demande, sachant que les produits sont homogènes,
et l’offre et la demande fluides.
L’objet de ce chapitre est d’analyser ces différents
marchés en privilégiant les formes fondamentales de la
concurrence pure et parfaite et du monopole. L’analyse sera
faite principalement en termes d’équilibre partiel, i.e. qu’un
seul marché sera pris en compte. Nous donnerons
cependant, dans la dernière section, une brève présentation
du phénomène d’interdépendance entre les marchés, qui
relève de l’analyse en termes d’équilibre général
Tableau 6.1
. Tableau de Stackelberg
Fig. 6.1
. Recettes en concurrence pure et parfaite
pour la firme
Cela veut dire que toutes les quantités mises sur le
marché trouveront preneur. La droite RM ou des prix traduit
ainsi la demande qui est ici parfaitement élastique, i.e. que
si le producteur modifie son prix à la hausse d’une manière
infinitésimale, il perdra tous ses clients qui s’adresseront
aux autres producteurs qui sont en mesure d’offrir
instantanément le même bien avec les mêmes qualités.
Dans ces conditions, pour déterminer la quantité optimale
ou quantité d’équilibre que l’entreprise doit livrer sur le
marché, il suffira de confronter la recette totale prévisible et
le coût total prévisible pour différentes quantités de bien, et
de choisir celle qui dégage le profit le plus élevé. Il s’agit
donc de maximiser l’écart positif entre RT et CST.
Géométriquement, la confrontation de la droite de RT et
de la courbe de CST donne l’écart maximum, noté Π pour
profit, lorsque les tangentes à la RT et au CST sont
parallèles, i.e. lorsque leur pente sont égales. Ici, la tangente
au CST (en trait discontinu) est parallèle à la droite de RT.
La pente d’une tangente en un point d’une courbe est le
rapport entre la variation de la variable déterminée ou
expliquée et la variation de la variable déterminante ou
explicative. Dans les deux fonctions, la variable
déterminante est la quantité, les variables déterminées sont
respectivement la recette totale et le coût synthétique total.
Par conséquent, les pentes des tangentes sont la recette
marginale et le coût marginal.
Fig. 6.2
. Équilibre de la firme à court terme en
concurrence pure et parfaite
D’un point de vue analytique, il s’agit de rechercher la
quantité pour laquelle la dérivée du profit total est nulle, i.e.
que pour cette quantité, le profit marginal est nul. Ce
résultat peut être obtenu en égalisant le coût marginal – la
courbe d’offre – avec la recette marginale qui est ici
confondue avec la recette moyenne représentant la demande
adressée à l’entreprise. L’intersection de RM avec le coût
marginal Cm de la firme représentative au point E détermine
la quantité optimale à court terme. L’entreprise réalise un
profit unitaire égal à la différence entre la recette moyenne
et le coût moyen correspondant à la quantité optimale. Le
coût synthétique moyen CSM se situe alors au point N. Le
profit unitaire est par conséquent (E-N) qui apparaît en trait
épais dans la figure 6.2.b. Le profit total est la surface
correspondant au produit entre le profit unitaire et les
quantités vendues. Ce profit total correspond au rectangle «
p pN E N »
2.1.2. L’équilibre pour la branche : égalité entre l’offre
totale et la demande totale
La branche, ici, est l’ensemble des entreprises offrant le
même type de bien. La demande totale est la somme des
demandes individuelles. Elle est une fonction décroissante
du prix – le paradoxe de Giffen étant exclu. L’offre totale est
la somme des offres individuelles. Elle est une fonction
croissante des prix. L’équilibre est réalisé lorsque l’offre
totale est égale à la demande totale. On obtient P1, le prix
d’équilibre, et Y1 = (∑y), la quantité d’équilibre à court
terme comme l’indique la figure 6.3.a.
2.2. Les prix et les quantités d’équilibre à long terme en
concurrence pure et parfaite
Nous supposerons que la demande est stable et que les
entreprises possèdent les mêmes techniques de production.
L’existence d’un profit à court terme attire de nouveaux
offreurs sur le marché. La production offerte augmente par
déplacement de la courbe d’offre du côté droit, passant, sur
la figure 6.3.a. ci-dessous, de O1 à O2, puis à OLT.
L’absorption de cette offre supplémentaire se fait à des prix
plus bas, P2 puis PLT. La baisse des prix conduit chaque
entreprise présente sur le marché à réduire progressivement
ses quantités, comme on peut le voir sur la figure 6.3.b. :
yOCT (quantité d’équilibre à court terme) passe à yOLT (quantité
d’équilibre à long terme).
Pour la branche, l’offre totale a augmenté, passant de YOCT
à YOLT comme on le voit sur la figure 6.3.a. pour laquelle les
abscisses n’ont pas la même échelle que dans la figure 6.3.b.
de la firme représentative. L’entrée de nouvelles entreprises
s’arrêtera lorsque le prix sera égal au minimum du coût
moyen de l’entreprise représentative.
Par conséquent, en concurrence pure et parfaite, à long
terme, l’équilibre est obtenu lorsque RM = Rm = CM = Cm.
Le profit pur ou profit économique est nul, sachant que le
coût moyen prend en compte la rémunération jugée normale
du capital. L’augmentation de l’offre et la baisse du prix
jusqu’au minimum du coût moyen expliquent les analyses
apologétiques de la concurrence pure et parfaite.
Fig. 6.3
. Équilibre CPP à court et long terme
(a) Pour le marché (b) Pour la firme
2.3. Les qualités de l’équilibre de concurrence pure et
parfaite pour la branche
Un équilibre en concurrence pure et parfaite signifie que
tous les demandeurs qui ont proposé un prix égal ou
supérieur au prix d’équilibre seront satisfaits en réalisant un
surplus (ou quasi-rente) égal à la différence entre le prix
proposé et le prix du marché. De même, tous les offreurs qui
ont proposé un volume de produits à un prix égal ou
inférieur au prix d’équilibre seront satisfaits en réalisant un
surplus (ou quasi-rente) égal à la différence entre le prix
d’équilibre et le prix annoncé. Le surplus du producteur
correspond au profit économique de l’entreprise. L’équilibre
signifie qu’il n’y a ni pénurie ni excédent (voir encadré sur
les prix administrés).
Fig. 6.4
. Surplus du producteur et surplus du
consommateur
Le surplus collectif est la somme des surplus des
consommateurs et des surplus des producteurs. Il est
maximal à l’équilibre du marché. Il s’ensuit qu’un équilibre
de concurrence pure et parfaite est un optimum de Pareto
(premier théorème de l’économie du bien-être), et il est
possible de démontrer qu’un optimum en concurrence pure
et parfaite est un équilibre (deuxième théorème de
l’économie du bien-être2.
L’équilibre existe et il est unique, sauf pour les biens
libres, les biens non produits et lorsque l’offre est atypique.
Pour les biens libres, la pléthore débouche sur des prix
négatifs : il faudrait que le producteur paie le consommateur
pour enlever les marchandises trop abondantes. Avec les
biens non produits, le coût marginal prévisionnel est
supérieur à la demande à un niveau de production proche de
zéro. L’intersection entre l’offre et la demande se fait pour
des valeurs négatives de la production. La production zéro
correspond au bien inaccessible pour les consommateurs.
Avec l’offre atypique (voir marché du travail) plusieurs
équilibres sont possibles.
Hormis ces exceptions, l’unicité de l’équilibre peut être
démontrée en imaginant qu’un offreur cherche à attirer les
demandeurs par un prix plus faible que le prix d’équilibre.
La transparence joue, tous les demandeurs sont informés du
prix. La fluidité joue, tous les demandeurs se présenteront
auprès de cet offreur dont le produit a les mêmes qualités
que les autres. Mais l’atomicité intervient : l’offreur ne peut
satisfaire tous les demandeurs au prix qu’il a voulu faire. Il
est alors obligé d’être un preneur de prix, i.e. de remonter au
prix d’équilibre unique sur le marché.
Le prix d’équilibre n’est cependant pas nécessairement
stable à court terme. Les courbes d’offre et de demande
peuvent en effet se déplacer sous l’action du progrès
technique, du changement de goût des consommateurs3, etc.
L’équilibre est stable si la perturbation est suivie par un
nouvel équilibre identique ou différent de l’équilibre
précédent.
Par exemple, si brutalement la demande se déplace par un
accroissement dû à des facteurs exogènes, un nouvel
équilibre s’établira par l’intersection avec la courbe d’offre
originelle, soit par l’augmentation du prix pour résorber la
demande nette (écart entre la demande et l’offre pour le prix
de départ), soit par l’augmentation des quantités offertes
pour résorber le prix de demande nette (écart entre le prix de
la nouvelle demande pour une quantité originelle et le prix
d’équilibre originel). Le premier ajustement correspond à la
stabilité au sens de Walras, le second est la stabilité au sens
de Marshall, mais le résultat final est le même.
Prix administrés : pénuries et excédents
Le prix du marché est un indicateur de rareté qui assure
en même temps une fonction d’allocation (ou de
distribution) : les producteurs dont les coûts de production
sont plus faibles que le prix seront les seuls offreurs et les
demandeurs qui ont un revenu suffisant pour payer le prix
seront les seuls satisfaits. Les pouvoirs publics, par
idéologie ou sous la pression de l’électorat, sont
susceptibles de renoncer au critère de l’allocation par le
marché libre, qui ne tient aucun compte de l’intérêt social
d’une activité, ou de l’insolvabilité d’une partie importante
de la population qu’il serait « juste » d’aider. Dans ces cas,
les pouvoirs publics peuvent fixer autoritairement le prix
afin d’aider soit les producteurs, soit les consommateurs. La
pratique des prix administrés peut être un soutien des prix
par la fixation de prix planchers en vue d’aider les
producteurs. Le prix plancher conduit alors à une offre
supérieure à la demande. Dans le monde agricole, avec les
politiques de soutien des prix dans la plupart des espaces
économiques, conduisent fréquemment à ce phénomène de
pléthore. L’institutionnalisation d’un salaire minimal d’un
niveau élevé peut engendrer un excès d’offre de travail sur
la demande (chômage). L’aide aux consommateurs consiste
à fixer des prix plafonds pour certains produits et certains
services. La demande est alors susceptible d’être supérieure
à l’offre. Il en résulte une pénurie. Le blocage des prix dans
le cadre des politiques anti-inflationnistes aboutit au même
résultat, i.e. à masquer la hausse des prix mais pas la cause
consistant en une offre insuffisante. Le blocage des prix est
ainsi un facteur d’aggravation de l’inflation, toute chose
étant égale par ailleurs, notamment les anticipations.
Fig. 6.5
. Prix administrés
(a) Prix au-dessous du prix d’équilibre (b)
Prix au-dessus du prix d’équilibre
2.4. L’équilibration en dynamique : les modèles arachnéens
Jusqu’ici, nous avons raisonné en statique, i.e. sans prise
en compte du temps nécessaire à l’ajustement.
L’introduction du temps, ou analyse dynamique, conduit à
envisager trois formes d’oscillations dont une seule conduit
à la stabilité. Elles sont connues sous le nom de modèle du
Cobweb ou modèle de la toile d’araignée.
Le principe de construction consiste à donner des délais
d’adaptation à l’offre. Celle-ci est fonction du prix de la
période t – 1, tandis que la demande est fonction du prix
actuel. Le processus du Cobweb dépendra ensuite de la
valeur absolue des pentes respectives de l’offre et de la
demande, lorsqu’au départ il existe une demande nette non
nulle (D > 0 ou D < 0). Sur ces bases, comme le montre
les figures 6.6. ci-dessus, les oscillations sont amorties et
l’équilibre du marché est stable lorsque la pente de la
courbe d’offre est inférieure en valeur absolue à celle de la
demande ; elles sont explosives pour une pente de l’offre
supérieure en valeur absolue à celle de la demande ; elles
sont auto-entretenues pour des pentes de même valeur
absolue. Les fluctuations du prix et des quantités au cours
du temps peuvent être représentées de manière spécifique en
fonction du temps. Les figures 6.6. ont privilégié le prix.
Une représentation de l’évolution des quantités donnerait
des oscillations symétriques, on dit encore en opposition de
phases.
Fig. 6.6
. Les Cobweb
a) Fluctuations explosives b) Fluctuations
amorties c) Fluctuations stationnaires
3. Le monopole : la persistance du profit économique
3.1. Les différents monopoles
Le monopole est une structure de marché dans laquelle un
seul offreur représente à lui seul la branche. Il existe,
cependant, différents types de monopoles :
a le monopole bilatéral est une structure comportant
un offreur et un demandeur dans la branche. L’issue
de cette rencontre est incertaine. L’équilibre peut
être favorable soit à l’un, soit à l’autre ; tout dépend
des rapports de forces, i.e. de l’intensité des besoins
de l’un pour les produits de l’autre, sachant que
l’offre est une demande réciproque. La théorie des
jeux inaugurée par J. von Neumann et O.
Morgenstern rend bien compte de cette complexité
(voir ci-dessous le paragraphe 3.2.) ;
b le monopole contrarié est une confrontation entre un
offreur et quelques demandeurs qui peuvent se
coaliser pour transformer la structure en monopole
bilatéral si l’offreur est trop exigeant ;
c le monopole discriminant est une situation dans
laquelle l’offreur propose le même type de bien à
des prix différents, soit dans des espaces séparés –
la différence de prix doit être inférieure aux coûts
de transport entre les deux espaces pour ne pas se
faire concurrence par ses propres produits dans la
zone à haut prix –, soit lorsqu’il s’agit de services à
des demandeurs n’ayant pas les mêmes possibilités
d’achat. En termes commerciaux, le monopole
discriminant est une stratégie qui a pour objet pour
le producteur d’accaparer le surplus du
consommateur : le prix est fonction de ce que
chacun accepte de payer, il n’y a plus de prix
unique du marché ;
d le monopole pur, situation que nous allons
approfondir, est une structure de marché
caractérisée par la présence, d’une part, d’un seul
offreur pour un produit n’ayant pas de substitut et,
d’autre part, d’un grand nombre de demandeurs.
Bien que le monopole pur soit théorique, il existe
des cas de réels monopoles proches du modèle
théorique. Un monopole, dans ce cas, peut être
conféré par la puissance publique ou par la loi. Il y
a ainsi le monopole privé de l’inventeur pour
exploiter son brevet d’invention, le monopole
public dans certains domaines permettant à l’État
de se procurer des revenus ou d’orienter
l’économie, comme c’est le cas pour le commerce
extérieur dans certains pays en voie de
développement. Le monopole peut aussi résulter
d’une supériorité de la firme vis-à-vis de
concurrents potentiels, se traduisant par l’infériorité
de ses coûts au fur et à mesure de la croissance de
la production de la production. Au départ, les coûts
fixes sont très élevés. Toute unité supplémentaire de
produit ou tout client supplémentaire servi se
traduit par une forte baisse du coût moyen et du
coût marginal. Dans ce cas, qui est celui des
rendements d’échelle croissants, on parle de
monopole naturel. Ce phénomène a été souvent
observé dans certains pays et s’observe encore dans
d’autres pour les services réticulaires comme la
production et la distribution d’électricité, le
transport par chemin de fer, la communication par
réseau téléphonique. Toutefois, le réseau unique
peut être mis à la disposition des tiers pour susciter
la concurrence, comme cela a été fait dans le
domaine du téléphone en France. La procédure est
ici l’accès des tiers au réseau (ATR).
3.2. L’équilibre en monopole pur
3.2.1. Équilibre à court terme : égalité entre Rm et Cm
Le profit maximal est supposé être l’objectif de
l’entreprise en monopole. Il est obtenu lorsque l’écart entre
la recette totale et le coût total est maximal. Ce maximum
correspond à la quantité pour laquelle les tangentes à la
recette totale et au coût total sont parallèles. Or, les pentes
de ces tangentes sont les dérivées respectives de la recette
totale et du coût total. Autrement dit, la quantité optimale
YOM est celle pour laquelle la recette marginale (Rm) est
égale au coût marginal (Cm), ce qui se produit au point E de
la figure 6.7.
Le prix d’équilibre (P’ ou P) est alors donné par la recette
moyenne (RM) correspondant à la quantité optimale (cf. fig.
6.7. ci-dessous).
Fig. 6.7
. Équilibre de la firme en monopole
Le profit unitaire est l’écart entre RM et CM pour YOM. Le
profit total est la surface du rectangle PAA’P’.
On notera que, si la fonction RT est de type parabolique
(– ay2 + by), alors la pente de Rm sera deux fois plus forte
que celle de RM. On le vérifie en utilisant les définitions de
Rm et de RM :
Rm = RT’= – 2ay + b ; et RM = RT/y = – ay + b
3.2.2. Équilibre à long terme et tarification au coût
marginal
a) À long terme, en supposant un progrès technique nul,
la stabilité de la dimension de l’entreprise et une absence de
changement de comportement et du nombre des
demandeurs, l’équilibre du monopole reste identique à
l’équilibre obtenu à court terme. Le profit peut se maintenir,
contrairement à la situation de concurrence pure et parfaite.
Il en résulte que la production offerte en monopole est en
principe plus faible que celle d’une branche en concurrence
pure et parfaite et avec un prix plus élevé.
Le monopole confisque une partie du surplus du
consommateur correspondant au déplacement du prix de B à
P’ (fig. 6.7.) du prix de concurrence pure et parfaite obtenu
par l’égalité du coût marginal et de la recette moyenne. On
constate aussi que le surplus collectif diminue de la surface
du triangle P’BE, dit triangle de Harberger4 du nom de
l’économiste qui, en 1954, a mis en relief cette perte en
termes de bien-être. Le monopole présente ainsi un coût
social évident qui explique les critiques dont il est l’objet.
Dans la mise en évidence du coût social du monopole, on
a fait l’hypothèse implicite que le coût marginal en
monopole était identique à celui de la concurrence. Mais, du
fait de l’absence de lutte en monopole, une telle hypothèse
peut s’avérer non réaliste. Autrement dit, le monopoleur
n’est pas incité à minimiser ses coûts de production.
L’absence de motivation pour rechercher une allocation
efficace des ressources entraîne une diminution des profits.
Cette perte par rapport au profit théorique et potentiel
constitue, selon la terminologie de H. Leibenstein, «
l’inefficience-X » (Harvey Leibenstein, « Allocative
efficiency versus X-inefficiency », American Economic
Review, vol. 56, pp. 392-415, juin 1966). Toutefois, il n’est
pas plus certain que le prix en monopole soit fatalement
supérieur au prix de la concurrence pure et parfaite en
raison, d’une part, de la grande taille de la firme en
monopole et, d’autre part, de la possibilité de susciter des
concurrents par les prix élevés lorsqu’il n’y a ni barrière à
l’entrée ni barrière à la sortie. Dans ce dernier cas (étudié en
1982 par Baumol, Panzar et Willig), il s’agit d’un marché
contestable ou disputable qui permet de retrouver le prix de
la concurrence pure et parfaite sur un marché ne comportant
qu’un seul et unique offreur.
– La grande dimension permet en effet de réaliser des
économies d’échelle avec, par conséquent, un coût marginal
susceptible d’être plus faible que celui de la micro-
entreprise de la concurrence pure et parfaite. C’est ce
qu’illustre la figure 6.8. Le prix en concurrence pure et
parfaite est plus élevé et la quantité optimale (YOCPP) est
respectivement plus faible que le prix et la quantité optimale
en monopole (YOM).
Fig. 6.8
. Le monopole n’est pas fatalement
défavorable socialement
Dans la théorie des marchés contestables de Baumol-
Panzar-Willig5, il existe des concurrents potentiels
susceptibles d’entrer sans délai dans le marché. Cela résulte
à la fois de l’absence, d’une part, d’avantages spécifiques
pour la firme établie et, d’autre part, de coûts irrécupérables.
Les coûts irrécupérables ou coûts irréversibles sont les
dépenses effectuées sans pouvoir redéployer sans perte les
moyens acquis sur d’autres secteurs si la rentabilité n’est
pas confirmée. Dans ces conditions, la firme en place fixe
son prix au niveau du coût moyen. Tout prix supérieur au
coût moyen suscitera l’entrée de concurrents qui le
ramènera au prix de la concurrence pure et parfaite. Le
profit étant nul, les concurrents potentiels ne chercheront
pas à s’établir dans cette branche ou sur ce marché.
b) On signalera que, pour les monopoles publics
cherchant à maximiser le surplus global, l’équilibre est au
point B (fig. 6.7.), i.e. à l’intersection du coût marginal
(Cm) et de la recette moyenne (RM). La tarification au coût
marginal conduit donc à un prix plus bas qu’en monopole
pur (B au lieu de P’) et à une production plus élevée.
La tarification au coût marginal, lorsque le coût marginal
Cm est inférieur au coût moyen CM, implique que la
puissance publique prenne en charge le déficit
d’exploitation pour permettre à l’entreprise de poursuivre
son activité. Le recours aux subventions est aussi une
nécessité pour assurer l’équilibre de gestion des
organisations productives de spectacles vivants en raison de
l’absence de gains de productivité comme l’indique la loi de
Baumol et Bowen dans le spectacle vivant (les coûts
augmentent selon la moyenne nationale mais la productivité
est constante : il faut toujours le même temps et le même
nombre d’acteurs pour jouer l’avare de Molière).
4. Le marché avec un seul acheteur : le monopsone
Le monopsone est une structure de marché comportant un
demandeur face à un grand nombre d’offreurs. Lorsque le
bien est intermédiaire, le monopsone se transforme en
monopole pour le bien final qu’il produit. Dans ce cas,
l’équilibre du monopsoneur est obtenu par confrontation de
sa propre recette marginale, décroissante par rapport au prix,
et de sa propre courbe d’offre qui est plus élevée que celle
de ses fournisseurs. L’équilibre est réalisé à l’égalité entre sa
recette marginale et son coût marginal. La courbe de recette
moyenne située au-dessus de la recette marginale indique le
prix de vente qui assure le plus grand profit. Le prix d’achat
se lit sur la courbe de coût moyen situé en dessous du coût
marginal.
5. Concurrence imparfaite et théorie des jeux
La concurrence pure et parfaite, le monopole pur et le
monopsone pur sont trois structures très abstraites. La
réalité est composée de structures intermédiaires qui ont
pour nom oligopole, concurrence monopolistique. Ces
formes sont l’objet d’études en économie industrielle avec
fréquemment une application de la théorie des jeux. Nous
consacrons le premier paragraphe à la présentation des
notions essentielles de cette théorie, en notant
Fig. 6.9
. Équilibre en monopsone
tout de suite qu’elle peut être appliquée au marché de
concurrence pure et parfaite. Les autres paragraphes
exposeront les équilibres et les processus de leur réalisation
éventuelle sur les marchés de concurrence imparfaite
5.1. Notions de la théorie des jeux
La théorie des jeux est une approche formalisée,
modélisatrice de l’interaction stratégique entre des individus
rationnels. Elle peut être aussi bien explicative que
normative. L’histoire de la théorie des jeux fait remonter
l’idée aux auteurs qui ont introduit le calcul de probabilités
et l’analyse en termes d’anticipation pour la prise de
décision en avenir incertain. Blaise Pascal et d’autres
mathématiciens comme les frères et cousins Bernoulli (Jean,
Jacques, Daniel, Nicolas) sont les plus fréquemment
évoqués dans cette archéologie qui va jusqu’à Émile Borel
dans les années 1920. Mais tout le monde admet que les
développements modernes ont pour base le livre Theory of
games and economic behavior, difficile d’accès, souvent
cité et rarement lu, publié en 1944 par John von Neumann et
Oscar Morgenstern. Il fait suite à la démonstration du
théorème du minimax que von Neumann a proposée en
1928. Ce théorème donne une solution, plus générale que
celle imaginée par James Waldegrave deux cents ans plus
tôt, en termes de stratégies mixtes à un problème en
apparence insoluble conçu par Rémond de Montfort en
1713.
Dans tout ce vocabulaire nouveau il faut préciser tout de
suite le sens particulier de certaines notions, même si nous
les retrouvons plus loin de manière plus approfondie. Pour
von Neumann une stratégie pure est une décision ou une
action certaine ; une stratégie mixte est une distribution de
probabilités affectée par un joueur à l’ensemble des
stratégies pures. On appelle équilibre la solution du jeu tel
qu’aucun joueur n’a intérêt à modifier sa position, à changer
de stratégie. Le théorème du minimax s’énonce alors ainsi :
« Tout jeu à somme nulle et à deux joueurs, qui ont fait
leurs choix dans des ensembles finis de stratégies pures,
comporte au moins un équilibre en stratégies mixtes. »
L’Américain John Nash6 en 1950 généralise ce résultat
pour des jeux à n personnes par le théorème qui porte son
nom. Le théorème de Nash s’énonce ainsi :
« Tout jeu à n personnes et à un nombre fini de stratégies
pures comporte au moins un équilibre (en stratégies mixtes).
»
Cet équilibre, que par la suite on désignera par équilibre
de Nash, est défini comme « toute combinaison de stratégies
– une par joueur – telle qu’aucun joueur ne regrette son
choix après avoir constaté celui des autres joueurs ».
Nous présenterons les règles d’un jeu avant de donner
deux illustrations pédagogiques avec le monopole bilatéral
et le modèle canonique du dilemme du prisonnier
fréquemment évoqué pour synthétiser des situations où le
mieux est souvent l’ennemi du bien.
5.1.1. Les règles d’un jeu
L’Américain d’origine hongroise John C. Harsanayi
(1920-2000) résume en 4 propositions les composantes
minimales des jeux au sens de la théorie :
- les règles du jeu peuvent être des conventions
arbitraires ;
- elles doivent respecter les données scientifiques
connues (« lois de la nature ») ;
- elles doivent inclure l’allocation initiale des
ressources, y compris l’information et l’expertise
ou habileté du joueur ;
- elles doivent incorporer la fonction d’utilité
(cardinale) des joueurs.
Un jeu se définit alors par la combinaison des modalités
pour les douze critères suivants :
a) Les jeux à un joueur et les jeux à plusieurs joueurs. Les
jeux à un joueur sont dits des jeux contre la nature, i. e que
les autres joueurs sont sans réaction. Les jeux
évolutionnistes en sont une forme. Les jeux à plusieurs
joueurs caractérisent une situation d’interdépendance
stratégique, i.e. une impossibilité pour un joueur de se
comporter comme si les actions des autres joueurs
pouvaient être tenues pour données et indépendantes de ses
propres choix. On entend par stratégie une description
complète de la manière dont on se comportera en présence
de chaque circonstance possible, (Morton Davis Théorie des
jeux, ed. A. Colin). Les stratégies sont représentées dans une
matrice des gains ou avec un arbre de décision. La
représentation matricielle découle du théorème de Zermelo
(1912) qui indique que « dans un jeu à deux joueurs, en
information parfaite, l’un des deux joueurs peut être sûr de
gagner ou bien obtenir pour tous les deux la partie nulle ».
Tableau 6.2
. Matrice des gains pour un jeu unique,
simultané non répété
La matrice ci-dessus peut être représentée sous la forme
extensive d’un arbre de jeu. Ici la forme extensive du jeu
adoptée est horizontale, mais la plus courante est verticale :
du sommet A partent les branches correspondant aux
différentes stratégies de A. Chacune rencontre un nœud B
avec ses propres stratégies. La base qui est l’intersection des
deux stratégies donne la valeur du gain ou des pertes pour
chaque stratégie de chaque joueur.
Fig. 6.10
. Arbre de décision ou forme extensive
d’un jeu
A et B sont des nœuds correspondant à un choix entre
plusieurs actions : A1, A2, B1, B2
(a21, b21) est le vecteur des gains lorsque A joue l’action A2
et B joue B1
b) Les jeux à un coup et les jeux à plusieurs coups. Ces
derniers correspondent à des jeux séquentiels, itératifs.
c) Les jeux statiques ou jeux ordinaires et les jeux
répétés. Un jeu statique est un jeu dans lequel les joueurs
choisissent leur stratégie de manière simultanée. Un jeu
répété est un jeu ordinaire réitéré soit de manière illimitée
(jeu à horizon infini) soit de manière limitée dans le temps
(jeu à horizon fini). Le jeu répété peut comporter des
stratégies en boucle ouverte, i.e. que les joueurs ne prennent
pas en compte l’histoire, négligeant ainsi tous les jeux
précédents. Les stratégies au contraire peuvent être en
boucle fermée, par la prise en compte de toute l’histoire.
Une stratégie de rétroaction est aussi envisageable par la
prise en compte de la seule dernière action précédente.
d) Les jeux à choix simultanés et les jeux à choix
successifs
e) Les jeux à information complète et les jeux à
information incomplète : un jeu est à information complète
si chaque joueur connaît toutes les règles du jeu, toutes les
stratégies possibles pour lui-même et pour les autres
joueurs, les préférences des autres joueurs et toutes les
actions antérieures à la présente phase du jeu. L’information
est incomplète si au moins un des joueurs ne connaît pas la
structure complète du jeu.
f) Les jeux à information parfaite et les jeux à
information imparfaite : il s’agit ici de l’information des
agents sur l’ensemble des décisions prises antérieurement
par les autres agents dans un système économique donné.
L’information est imparfaite lorsque les décisions sont
simultanées avec absence de concertation préalable, et, plus
généralement, lorsque l’un des joueurs ne connaît pas la
stratégie adoptée par les autres joueurs.
g) Les jeux à information symétrique et les jeux à
information asymétrique.
h) Les jeux à communication possible entre les joueurs et
les jeux sans possibilité de communication entre les joueurs.
i) Les jeux à somme nulle (les gains des uns sont égaux
aux pertes des autres), et les jeux à somme non nulle (les
gains des uns sont supérieurs ou inférieurs aux pertes des
autres, ou encore tout le monde perd, ou tout le monde
gagne des sommes variables).
j) Les jeux dans lesquels l’intérêt des joueurs est soit
convergent, soit divergent, soit plus ou moins divergent. Les
formes de jeu sont alors soit des jeux non coopératifs
comme les duels, soit des jeux coopératifs.
k) Les jeux avec dédommagements (paiements latéraux,
pots de vin, compensations) possibles et les jeux sans
dédommagement.
l) Les critères de décision du joueur : s’il est possible de
recenser tous les avenirs possibles, i.e. les différents états de
la nature susceptibles de se produire à la suite de la
décision, mais sans qu’on puisse attribuer une probabilité à
ces situations futures, on peut employer l’un des cinq
critères suivants :
- le critère de Laplace : pour chaque décision on
calcule la moyenne arithmétique des gains
envisagés et on retient la décision qui présente la
plus forte moyenne. Ceci revient à la maximation
de l’espérance mathématique avec une probabilité
égale pour tous les états de la nature ;
- le critère de Wald ou du maximin : c’est la solution
de prudence maximum. Pour chaque décision, on
retient l’état de nature qui donne le gain le plus
petit (minimum). Devant ces minima, le joueur
choisit la décision pour laquelle le minimum est le
plus élevé. Il maximise le minimum d’où le nom de
maximin ;
- le critère du minimax : il s’applique au payeur. Il
s’agit dans les états de la nature, de retenir pour
chaque décision, ceux qui entraînent un paiement
maximum. Puis de choisir la décision pour laquelle
le maximum à payer est le minimum. Le joueur
minimise le maximum de ses pertes ; c’est
également un comportement de prudence maximum
comme pour le maximin ;
- le critère de Savage, dit encore minimax regret : il
consiste à établir un tableau des manques à gagner
attachés à chaque décision par rapport à la décision
la plus favorable pour chaque état de la nature. La
décision à prendre est celle qui minimise le regret
maximum ;
- le critère de Hurwicz : à chaque décision correspond
une moyenne pondérée des conséquences extrêmes.
La décision avantageuse est celle qui maximise
cette moyenne.
5.1.2. Illustrations de jeux non coopératifs à somme nulle et
à somme non nulle
Le premier objet de ce paragraphe est de faire
comprendre le mécanisme de la prise de décision avec les
critères du minimax et du maximin, dans le cadre d’un jeu
unique, simultané, à somme nulle, à information complète et
parfaite en prenant l’exemple simple du monopole bilatéral.
Pour apprécier la puissance de cet instrument qu’est la
théorie des jeux, vous pouvez remplacer l’acheteur par un
concurrent avec des stratégies de prix, de publicité, de
nouveaux produits, ou de distribution (pour reprendre les
variables des « 4 P » du marchéage ou marketing mix :
price, product, place, promotion). Le deuxième objet du
paragraphe est la présentation du dilemme du prisonnier,
modèle de référence constant dans un grand nombre de
domaines.
Fig. 6.12
. Courbe coudée de la demande
5.3.2. L’entente
Lorsqu’il y a entente parfaite entre les quelques
entreprises du marché, rappelons encore une fois que c’est
généralement interdit partout, la stratégie est de maximiser
le profit joint, à la condition que le produit soit homogène.
L’entente se réalise plus facilement en phase d’expansion,
i.e. lorsque l’entreprise n’a pas besoin de prendre les clients
de ses concurrents. La coordination parfaite constitue un
véritable monopole. Le prix unique rigide est donné par la
recette moyenne pour laquelle la recette marginale de la
branche est égale au coût marginal de la branche, obtenu par
addition des coûts marginaux de chaque membre de
l’entente. La quantité à produire par chaque entreprise est
celle pour laquelle le coût marginal de chacune d’elles est
égal à la recette marginale de la branche. Le profit de la
branche ou profit joint est maximal. Sa répartition entre les
partenaires reste indéterminée, mais le plus simple est la
répartition en fonction des quantités vendues par chacun.
5.3.3. Les oligopoles de combat
L’interdépendance associée à l’incertitude sur le
comportement de chacun des offreurs peut déboucher sur la
flexibilité, soit des prix, soit des quantités. Ces phénomènes
sont associés à des oligopoles de combat dont les formes
théoriques les plus simplifiées sont le duopole de Cournot,
le duopole de Stackelberg, le duopole de Bowley et le
duopole de Bertrand. Les noms de ces duopoles
correspondent aux auteurs qui les ont étudiés. Notons que
ces duopoles se prêtent bien à l’application de la théorie des
jeux de J. von Neumann et O. Morgenstern, présentée
précédemment.
a) Le duopole de Cournot est un duopole symétrique dit
encore duopole de double dépendance. Dans ce marché, le
prix dépend des quantités offertes par A (notées yA) et par
B (notées yB). La quantité totale sur le marché est donc :
Y = yA + yB
Chacun cherche à maximiser son profit sans exclure
l’autre. Si A se croit seul sur le marché, il offre une quantité
compatible avec le prix du marché, mais si B se manifeste,
alors il réduit son volume en fonction de ce qu’il considère
comme une donnée. B, à son tour, augmente sa part,
amenant A à réviser son offre. Si c’est B qui a commencé,
on aura les réactions de A, puis de B. Le système débouche
sur un équilibre correspondant à l’intersection E des courbes
de réactions de A et de B. Ce point d’équilibre détermine les
quantités que doivent offrir A (yAE) et B (yBE) pour que
chacun ait un profit maximal.
Fig. 6.13
. Courbes de réaction du duopole de
Cournot
Plus formellement, étant donné que la recette totale de A
dépend des quantités (yA) produites par A et des quantités
(yB) offertes par B et que le coût total de A ne dépend que
de sa propre production, alors le profit total de A est :
Profit A = RT (yA, yB) – CT (yA).
On raisonnera de même pour B pour avoir :
Profit B = RT (yB, yA) – CT (yB).
Avec ces équations, on peut alors établir les fonctions de
réactions de A et de B. On sait que le maximum par une
fonction est atteint lorsque sa dérivée première est
maximale. Par conséquent, pour A, il faut supposer que yB
est donné, puis rechercher yA qui rend le profit marginal de
A nul, et pour B, raisonner avec yA donné et rechercher yB
qui rend le profit marginal de B nul. En se donnant plusieurs
valeurs de yB, on obtient les différents niveaux optimaux de
production de A, et, avec plusieurs valeurs de yA, ce sont
ceux de B qui sont calculés. Lorsque les deux fonctions de
réactions sont identiques, l’équilibre stable est atteint. En
cet équilibre, aucun des duopoleurs ne désire modifier le
niveau de production.
En termes de théorie des jeux, le responsable de chaque
firme doit anticiper le choix de l’autre pour prendre la
décision qui maximise son profit. Le choix stratégique porte
sur la quantité à mettre sur le marché. La matrice des gains
est constituée par les profits associés à l’intersection des
stratégies en termes de quantités.
b) Le duopole de Stackelberg est un duople asymétrique,
comportant une firme dominante, l’autre acceptant de jouer
le rôle de satellite ou de suiveur. Par conséquent le jeu n’est
pas simultané, mais en deux temps. On dit qu’il s’agit du jeu
séquentiel.
La firme dominante agit en premier. La firme satellite
ayant observé le choix de production de la firme leader,
choisit son propre niveau optimal de production. Le point
d’équilibre se situe au point de tangence entre la courbe
d’isoprofits – courbe des combinaisons des productions qui
assurent des profits constants – de la firme dominante et la
courbe de réaction de la firme satellite.
c) Le duopole de Bertrand est un duopole de double
maîtrise par les prix, alors que dans le duopole de Cournot
la variable stratégique est celle des quantités. Dans le
duopole de Bertrand, les deux firmes ont des coûts
marginaux constants Cm1, Cm2 avec l’hypothèse Cm1 > Cm2.
Les deux firmes sont confrontées à une courbe de demande
de marché D (p), sachant que le bien produit est homogène.
d1 (p1, p2) = {[D (p1) si p1 < p2] ; [D (p1)/2 si p1 = p2] ; [0
si p1 > p2] }
Chaque duopoleur fixe le prix auquel il vendra son
produit en considérant le prix du concurrent comme une
donnée. Lorsque les prix sont différents, on comprend que
la demande s’orientera d’abord vers le duopoleur ayant le
prix le plus bas, sachant que les produits sont homogènes.
L’entreprise 1 peut s’emparer de la totalité du marché en
fixant un prix inférieur à celui de la firme 2 ; mais,
l’entreprise 2 a exactement le même raisonnement. Un tel
comportement débouche logiquement sur une guerre des
prix.
L’équilibre sera atteint lorsque le prix permet d’égaliser
l’offre totale à la demande totale. Le seul équilibre de ce jeu
est :
« la firme 1 fixe p1 = Cm2 et produit donc D (Cm2) unités
du bien considéré ;
la firme 2, elle fixe p2 tel que p2 soit égal ou supérieur à
p1 : elle ne produit donc rien. »
En d’autres termes, les deux entreprises doivent vendre
au même prix et ce prix correspond à celui qui résulterait en
concurrence pure et parfaite, ce qui est théoriquement
plausible dans un jeu à un coup, même si l’équilibre de
concurrence pure et parfaite dans un duopole est irréaliste.
Signalons qu’Edgeworth, en introduisant l’hypothèse
selon laquelle aucun duopoleur ne dispose de capacités
suffisantes pour satisfaire la demande totale à lui seul,
démontre que l’équilibre n’existe pas : le prix oscille entre
le prix de monopole et un certain prix plus bas, sur une
période indéfinie (cf. J. Bertrand, « Théorie mathématique
de la richesse sociale », Journal des savants, Paris, 1883 ;
F.I. Edgeworth, « La teoria pura del mono-polio », Giornale
degli economisti, 1897).
d) Le duopole de Bowley est un duopole de double
maîtrise par les quantités. Dans ce modèle, chaque
duopoleur se conduit en maître en inondant le marché de ses
produits. La conséquence en est la surproduction avec soit
une faillite de l’un ou des deux duopoleurs, soit un équilibre
concurrentiel comme pour l’équilibre de Bertrand.
6. L’équilibre général
6.1. Le processus d’équilibration
L’équilibre général est un équilibre simultané de
l’ensemble des marchés interdépendants tel qu’aucun
individu ne souhaite modifier le niveau de ses échanges
avec un autre individu. Pour chacun, les réalisations sont
conformes aux attentes : telle est la signification de
l’équilibre.
Plus clairement, les conditions de l’équilibre général sont
au nombre de quatre :
- chaque consommateur maximise sa fonction d’utilité
sous la contrainte budgétaire,
- chaque entreprise maximise son profit sous la
contrainte de la fonction de production,
- les quantités totales consommées sont égales aux
quantités totales produites pour chaque bien,
- la quantité totale de travail utilisée par les entreprises
est égale à la quantité totale de travail offert par les
consommateurs.
Avec ces conditions, en 1959, Kenneth Arrow et Gérard
Debreu ont pu démontrer mathématiquement l’existence de
l’équilibre général8.
L’interdépendance conduit, par exemple, un individu à
offrir une quantité d’heures de force de travail sur le marché
du travail en fonction du prix et de la quantité d’un bien
dont il a besoin et qu’il demande sur un autre marché. Mais
le prix de ce bien dépend du prix de la force de travail établi
sur le marché du travail.
Les échanges ne pourront avoir lieu que lorsque toutes les
offres et toutes les demandes sur les différents marchés des
différents biens et services se seront équilibrées. Le
processus d’équilibration peut être obtenu par tâtonnements.
Mathématiquement, il s’agit de trouver la solution d’un
système d’équations simultanées, comme dans la matrice de
Leontief qui est une forme de modèle d’équilibre général
(cf. chap. 3).
Le processus de tâtonnement, imaginé par Léon Walras,
suppose la présence d’une sorte de commissaire-priseur
situé au-dessus de tous les marchés et qui crie les prix
jusqu’à ce que la demande nette et l’offre nette soient nulles
sur tous les marchés. Le commissaire-priseur fait une
proposition de prix, offreurs et demandeurs réagissent. Le
commissaire-priseur constate alors la situation sur le
marché : si offre et demande s’équilibrent, l’ajustement est
terminé. Si certains biens sont trop demandés ou
insuffisamment, il modifie le prix et provoque ainsi une
variation de l’offre et de la demande jusqu’à ce qu’il y ait
ajustement. Le processus d’équilibre général est illustré par
le diagramme en boîte ou rectangle d’Edgeworth, encore
dénommé diagramme emboité de F.I. Edgeworth, à la
condition de se limiter à une économie à deux
consommateurs (I et II) et à deux biens (A et B), comme le
montre la figure 6.12.
Le consommateur I dispose d’une carte d’indifférence
pour les biens A et B. Il en est de même pour II. Avec un
revenu YI, le consommateur I se procure les quantités AI et
BI. Avec un revenu YII, le consommateur II obtient AII et BII.
Les quantités totales disponibles dans la société sont :
À = AI + AII et B = BI + BII.
Ces éléments peuvent être représentés dans une boîte
rectangulaire confrontant les courbes d’indifférence de I et
II. Les quantités de A et de B pour I se lisent selon le
schéma traditionnel, de gauche à droite à partir de l’origine
du bas pour A et de bas en haut pour B. Les quantités de A
et de B pour II se lisent dans le sens inverse de A : à partir
de l’origine du haut, de droite à gauche pour A et de haut en
bas pour B.
Figure 6.14
. Diagramme d’Edgeworth et courbe des
contrats
Les courbes d’indifférence pour I et pour II sont sécantes.
Un point d’intersection donné peut être choisi pour désigner
l’état de la répartition des biens A et B entre I et II. Le
rectangle d’Edgeworth permet de montrer que ce point n’est
pas optimal et qu’il est possible de modifier la répartition
pour arriver à un optimum de Pareto. Celui-ci correspond au
point de tangence de deux courbes d’indifférence, sachant
qu’il faut se déplacer le long de l’une des deux courbes
d’indifférence jusqu’à ce que celle-ci soit tangente avec une
courbe d’un niveau plus élevé. Il est certain que le bien-être
de l’un ne se modifie pas puisque sa courbe d’indifférence
est restée la même, tandis que le bien-être de l’autre s’élève.
Étant donné que le déplacement peut se faire le long de
n’importe quelle courbe d’indifférence (celle de I ou celle
de II), il s’ensuit qu’il existe une multitude d’optima de
Pareto. Ils sont représentés sur la courbe des contrats qui
joint les origines des axes en passant par les différents
points de tangence des courbes d’indifférence.
Initialement, la répartition de A et B entre I et II est
quelconque. Elle se situe, par exemple, au point M
correspondant à l’intersection des courbes d’indifférence I2
et II3.
Le point M, dans ce diagramme, n’est pas un optimum de
Pareto. Autrement dit, il est possible d’améliorer la
situation, soit de I, soit de II, sans détériorer celle de l’autre.
En effet, si le pouvoir contractuel de II est plus fort, il est
possible de passer de M à X, i.e. de s’élever de la courbe
d’indifférence II3 à la courbe d’indifférence II4 sans changer
la satisfaction de I qui reste sur la même courbe I2. On dira
que la répartition X domine la répartition M.
Si, au contraire, I est plus fort, il est alors possible de
passer de M à Z, permettant ainsi à I d’améliorer sa
satisfaction en se situant sur la courbe d’indifférence I3
supérieure à la courbe I2 sans modifier la satisfaction de II
qui reste à II3. La répartition Z domine la répartition M.
Les points X et Z sont des optima de Pareto : une fois en
l’un de ces points, toute amélioration du bien-être d’un
individu entraîne la détérioration du bien-être de l’autre.
L’optimum est ici déterminé par le point de tangence unique
entre les courbes d’indifférence des deux consommateurs.
Avec, au départ, une autre répartition des moyens entre I et
II, on se trouverait en un point autre que M, à l’intersection
d’autres courbes d’indifférence, débouchant sur d’autres
optima de Pareto.
La courbe de forme quelconque joignant tous les optima,
comprise entre les origines OI et OII, est appelée courbe des
contrats d’Edgeworth. Les agents rationnels placés dans la
situation initiale du point M ou N négocieront pour réaliser
leur transaction, i.e. passer un contrat d’échange, en se
déplaçant pour être sur l’un des points de la courbe des
contrats. L’ensemble des états compris entre X et Z situés
sur la courbe des contrats constitue le noyau de l’économie
ou le cœur de l’économie, i.e. l’ensemble des états qui ne
sont pas dominés. Tout autre point suscitera une coalition
bloquant l’échange.
6.2. Significations de la théorie de l’équilibre général
La théorie de l’équilibre général, conçue d’abord dans le
cadre du marché de concurrence pure et parfaite, a connu un
regain d’intérêt grâce aux travaux d’Arrow, puis de Debreu
qui envisage, par une approche axiomatique de la théorie
mathématique des ensembles, sa généralisation à toute
structure de marché. Mais on continue à s’interroger sur la
signification sociale de cette construction intellectuelle
considérée comme étant « de loin la plus élaborée de toutes
les sciences humaines » (S.C. Kolm).
6.2.1. Les deux théorèmes fondamentaux de l’économie du
bien être
La théorie de l’équilibre général est un système, i.e. un
ensemble cohérent de structures interdépendantes. Chaque
structure n’a de sens qu’en fonction des autres : c’est le
principe de cohérence ou d’interdépendance, et elle est en
même temps un sous-système comportant des éléments
interdépendants. Chaque sous-système est caractérisé par sa
propre fonction-objectif et ses propres contraintes, de sorte
que l’interdépendance générale est un état objectif
compatible avec une indépendance subjective de chaque
agent à l’égard des autres.
Dans ce système, le marché transmet gratuitement
l’information par les prix à des individus consommateurs et
à des individus producteurs qui agissent ainsi de manière
décentralisée, avec des préférences individuelles
indépendantes, en fonction de ces prix et de la contrainte
budgétaire propre à chacun pour arriver à un équilibre
général qui est en même temps un optimum collectif.
De manière positive, le commissaire-priseur de la Bourse
ou le Bureau central du Plan remplissent l’office de ce
qu’Adam Smith a nommé la « main invisible ». Tel est le
sens du premier théorème fondamental de l’économie du
bien-être dit théorème de la main invisible : tout équilibre
est un optimum. Dans cette logique de concurrence pure et
parfaite9 pour tous les biens, avec un marché pour chaque
bien, les signaux de marché (les prix) contiennent toute
l’information nécessaire pour que des agents rationnels
agissant de façon décentralisée (non coordonnée)
aboutissent à une situation telle que toutes les offres sur tous
les marchés soient égales aux demandes. Cela signifie
encore une fois que les offres nettes (excès de l’offre sur la
demande du fait d’un prix élevé) et les demandes nettes
(excès de la demande sur l’offre du fait d’un prix trop bas)
sont nulles, ce qui constitue la définition de l’équilibre et de
l’optimum, selon le théorème de la correspondance
biunivoque entre un optimum de Pareto et l’équilibre de
concurrence pure et parfaite. Plus spécifiquement le
deuxième théorème fondamental de l’économie du bien être
– tout optimum est un équilibre concurrentiel – indique qu’il
est possible de décentraliser un optimum centralement
défini. Il suffit d’envoyer de bons signaux en termes de prix
aux individus ayant chacun une dotation factorielle en
capital définie par le planificateur pour obtenir les résultats
de la concurrence pure et parfaite. Ce deuxième théorème
de l’économie du bien-être a été l’argument utilisé en faveur
du socialisme de marché et de l’intervention de l’État (cf. la
démonstration d’Alain Wolfelsperger dans Économie
publique, PUF, 1995, pp. 166-187).
6.2.2. La critique externe de la théorie de l’équilibre
général
Les questions qui ont suscité les travaux en économie
mathématique dans ce domaine de la théorie de l’équilibre
général sont celles de l’existence de l’équilibre et de
l’unicité de l’équilibre. Du point de vue interne, après que
les approches en termes marginalistes (calcul différentiel,
fonctions de production et de consommations continues,
dérivables) du système walrasso-parétien ont été
poursuivies, un renouvellement est proposé par G. Debreu
en termes axiomatiques et ensemblistes. L’existence de
l’équilibre est démontrée en utilisant le théorème du point
fixe de Kakutani (le principe du point fixe signifie que dans
un processus d’ajustement pour mettre fin aux excès ou
insuffisances de demandes, les prix finissent par ne plus
changer, ce qui définit un équilibre). Les problèmes de la
stabilité de l’équilibre et de l’unicité de l’équilibre en
revanche ne sont pas résolus, et les résultats de la théorie de
la valeur de Gérard Debreu rencontrent des obstacles
sérieux dans leur vérification empirique. Debreu lui-même,
en 1974 (« Excess Demand Functions », Journal of
Mathematical Economics, 1), deux ans après l’article de H.
Sonnenschein (« Market Excess Demand Functions »,
Econometrica, 40), puis de R. Mantel (« Homothetic
Preferences and Community Excess Demand Functions »,
Journal of Economic Theory, 12, 1976) arrive à la
conclusion que la stabilité n’est pas garantie, ou selon les
termes synthétiques et plus explicites d’Alan Kerman que «
l’équilibre est un état doté de certaines propriétés mais l’on
n’a aucune garantie qu’il puisse être atteint par un processus
raisonnable d’ajustement des prix10 ».
La logique interne de la théorie étant aussi inébranlable
que la cathédrale à laquelle la théorie de l’équilibre général
est souvent comparée, la critique s’est portée sur
l’irréalisme de son système d’hypothèses. Celui-ci
refléterait au mieux l’état du capitalisme de petites unités de
la seconde moitié du XIXe siècle. Dans les sociétés
modernes, avec les oligopoles publics ou privés, les
monopoles publics, les différenciations systématiques des
produits, les rigidités des prix à la baisse, le poids qui a
longtemps été croissant de l’intervention de l’État, la
référence à la théorie de l’équilibre général risque alors
d’être suspectée de réflexe idéologique fondamentalement
libéral et individualiste (J. Attali, M. Guillaume,
L’Antiéconomique, pp. 46-50, PUF, 1972).
L’individualisme est, en effet, implicite dans l’hypothèse
d’indépendance des préférences. Celle-ci revient à ignorer
les effets de domination, les rapports de conflit et de
coopération, de lutte-concours (cf. F. Perroux, Pouvoir et
économie, Bordas, 1971), et les effets d’imitation et de
socialisation de l’individu. De même, comme l’écrit John
Rawls : « Le principe d’utilité est incompatible avec une
conception de la coopération sociale entre des personnes
égales en vue de leur avantage mutuel » (Théorie de la
justice, p. 41, Le Seuil, 1987).
Le problème du no bridge est évacué ; or, comme l’écrit
encore J. Rawls : « Il n’y a pas de raison de supposer que les
principes destinés à gouverner une association humaine
soient […] une extension du principe du choix individuel »
(op. cit., p. 54).
Les théoriciens contemporains se sont cependant engagés
dans l’intégration progressive d’hypothèses de moins en
moins irréalistes. Dans ces conditions, l’optimum de Pareto
peut devenir inaccessible. Le problème serait alors de
trouver une solution de moindre mal appelée optimum de
second rang (selon Lipsey et Lancaster). Les concepts
d’optimum et de comportement d’optimisation peuvent
même être sans signification pratique, car, selon le Prix
Nobel Herbert Alexander Simon, les agents s’en tiennent à
des solutions seulement satisfaisantes. C’est le principe de
la rationalité limitée11 qu’il distingue de la rationalité
substantive ou parfaite de l’Homo œconomicus de
l’économie néoclassique standard. La rationalité est limitée
par les capacités cognitives de l’individu. L’individu
socialement situé ne peut pas tout savoir sur tout, d’autant
plus que la recherche de l’information complète est elle-
même coûteuse. L’individu se renseigne cependant dans un
environnement immédiat avant toute décision et prend celle-
ci après une comparaison limitée en faisant un choix
satisfaisant sans qu’il soit le meilleur. Par ailleurs,
l’environnement évolue, l’individu confronté à cette
évolution est alors un être apprenant. Dans un tel
environnement incertain, la rationalité ne peut plus être
substantive, i.e. parfaite, car ce qui peut arriver n’est pas
encore connu. L’individu qui prend une décision se sert de
son expérience, de son intuition, de sa mémoire. La
rationalité est alors procédurale en ce sens que l’individu
fait un choix approprié. Comme le précise Simon : « Le
comportement est procéduralement rationnel s’il est le
résultat d’une délibération appropriée. »12
En outre, il convient de ne pas passer sous silence la
procédure d’optimisation, si elle doit exister. En effet, le
processus pour atteindre l’optimum n’est pas
nécessairement parétien, car il existe autant d’optima de
Pareto qu’il y a de structures de répartition dans l’économie.
Ainsi, en examinant le diagramme ou rectangle
d’Edgeworth donné précédemment, on se rend compte que
rien ne permet de dire que l’optimum X est supérieur à
l’optimum Z. Le choix de l’un ou de l’autre dépend du
système social. À ce titre, il relève d’un jugement de valeur.
En d’autres termes, il n’y a pas de véritable optimum
optimorum (le meilleur des optima) déterminable avec la
neutralité scientifique.
Ces limites de caractère théorique n’interdisent pas le
développement de l’instrumentalisation du modèle
walrassien en économie appliquée sous la forme de modèle
d’équilibre général calculable .
6.2.3. Les modèles d’équilibre général calculable (MEGC)
Le MEGC constitue une application numérique du
modèle d’équilibre général de Walras, mais sans pour autant
reprendre la structure de la concurrence pure et parfaite. La
mise au point d’un algorithme de résolution par Herbert E.
Scarf13 à la fin des années 1960 et début 1970 a suscité
d’importants développements de ces modèles pour analyser
notamment l’impact de politiques économiques aussi bien
mondiales (ex. : l’impact du protocole de Kyoto sur
l’économie de tel ou tel pays, ou son impact sur l’économie
mondiale) que régionales ou sectorielles, en prenant en
compte les interactions dynamiques (ou rétroactions) que
peut engendrer une modification exogène portant sur une ou
plusieurs variables du modèle. Le MEGC ou encore MEGA
(modèle d’équilibre général appliqué) est donc un
instrument de simulation des effets (directs et indirects par
les rétroactions) d’une variation d’une variable sur tous les
comportements individuels. On peut considérer, dans une
certaine mesure, que le modèle matriciel de Wassily
Leontief est un précurseur de ce type de modèle, à la
différence près que le modèle de Leontief, de nature
macroéconomique, met en relation des branches alors que
les MEGC ont des bases microéconomiques.
Les MEGC sont très nombreux. Ils peuvent être unipays,
dans ce cas le reste du monde est exogène, ou multipays
avec des relations commerciales bilatérales et multilatérales,
le reste du monde n’étant plus exogène14.
6.3. Conclusion : l’extension fatale des marchés
L’objet de cette dernière section est de présenter sous un
angle socio-économique15 la lente construction sociale du
marché. Il s’agira, au-delà de l’illustration de l’encastrement
des relations économiques de marché dans les structures
sociales16, de montrer que le marché n’est pas un déjà là.
Aussi bien dans son fonctionnement que pour les biens et
services et les espaces éligibles, il est en effet le produit
d’une construction sociale probablement jamais achevée. Il
constitue l’objet central du droit commercial dont les
premiers éléments, très favorables d’ailleurs aux vendeurs
commerçants, sont présentés sous forme d’arrêts en écriture
cunéiforme et en langue akkadienne dans le Code
d’Hammurabi (roi babylonien vers 1730 av. J.-C.). Ce code,
qui comporte 282 arrêts touchant à tous les domaines de la
vie sociale, est une stèle découverte en 1901 à Suse, ville du
sud de l’Iran et mentionnée dans la Bible.
Hors quelques périodes limitées d’expériences socialistes,
dites d’économie distributive et qui ne lui étaient pas
favorables, le marché, manifestation de l’économie
commutative ou de l’échange, est un univers en expansion
encastré dans des structures sociales en évolution. Ce
caractère est plus fidèlement exprimé par le terme
d’institutionnalisation. Cela signifie que le marché n’est pas
une structure indépendante de la société et qui aurait ses
propres règles immuables, alors que la société, qu’il peut
d’ailleurs influencer à son tour dans un processus
dialectique, est en transformation permanente. L’expansion
du marché exige une monnaie acceptée par tous les
participants aux échanges et des conventions également sur
les unités de mesures et d’identification de la qualité des
marchandises. Les relations de long terme sont peu
compatibles avec les comportements opportunistes de l’état
sauvage, ce qui ne veut pas dire que les relations de marché
soient toujours des relations de confiance, ou bien que la
flibuste qui profite des asymétries de l’information n’existe
pas en finance17 ou sur d’autres marchés. En d’autres termes,
comme le reconnaît même ce défenseur de l’économie de
marché qu’est Ludwig von Mises, le marché n’a rien à voir
avec l’ordre naturel originel (L’Action humaine, PUF,
1985). Cela signifie encore que le marché obéit à des règles
construites au cours du temps. Même si les règles pérennes
sont celles qui ont fait leur preuve, ce sont toujours des
règles construites, qu’elles soient des conventions
informelles, des labels de qualité, ou des règles de droit
positif.
Il est évidemment possible d’éviter des règles, i.e. d’être
en présence d’un marché entre deux individus sur la base du
troc, celui-ci étant l’expression de la valeur subjective que
chacun accorde au produit qu’il demande en contrepartie du
produit qu’il offre. Les sections précédentes ont montré que
la théorie économique a pu aussi construire le modèle du
marché de concurrence pure et parfaite réunissant des
individus autonomes, informés, rationnels, sans histoire,
sans sexe, sans âge, sans patrie, sans religion, qui ne
recherchent que la plus grande quantité ou valeur des biens
qu’ils demandent, en contrepartie de la plus faible quantité
ou valeur des biens qu’ils offrent en paiement. Tout
intervenant sur ce marché est un Homo œconomicus qui n’a
aucune relation sociale avec les autres en dehors de cet
échange avec une monnaie, marchandise parmi les
marchandises. Il est un simple offreur de son produit en
paiement du produit pour lequel il est un demandeur. Une
fois le marché conclu, chaque Homo œconomicus est
satisfait et reste libre, contrairement à ce qui se produit dans
le système du don/contre-don. Mais les échanges dans ce
système ne peuvent avoir lieu que lorsque tous les acteurs
sur tous les marchés sont arrivés à un accord qui ne serait
établi et constaté que par l’intervention d’une autorité
artificielle centrale au-dessus de tous les marchés. C’est ce
que représente le commissaire-priseur dans les marchés aux
enchères.
Hors de l’économie pure walrassienne, les lois de l’offre
et de la demande ne gouvernent pas les relations d’échange
à la satisfaction de tous spontanément. C’est bien parce
qu’il existe des autorités de régulation des marchés que les
échanges se réalisent sans trop de distorsion par rapport à la
représentation théorique. L’anonymat des acteurs du modèle
d’économie pure n’est pas la règle. Les responsables des
grandes entreprises, issus des mêmes grandes écoles ou
université, n’agissent pas toujours en s’ignorant. La
dimension sociale préalable à la relation de marché permet
aussi de comprendre, par exemple, que ce n’est pas toujours
le comportement de maximisation qui est susceptible
d’expliquer la discrimination sociale à l’embauche. Dans ce
phénomène, l’employeur n’est plus un simple demandeur de
travail face à un allogène offreur de travail. Mark
Granovetter a observé que les réseaux sociaux, qui n’ont pas
toujours une logique marchande, sont ainsi le meilleur
moyen pour un cadre d’avoir un emploi plutôt que
l’appariement offre-demande par des démarches
individuelles d’information. Le marché du travail c’est donc
d’abord des relations sociales, sachant que les réseaux
amicaux sont plus performants que le réseau familial. C’est
la conclusion qui résulte du paradoxe de la plus grande
efficacité des liens faibles sur les liens forts, car l’apport en
information par les liens faibles est plus important que celui
que ferait le groupe social restreint d’appartenance au sein
duquel les liens sont forts18.
Du côté du consommateur, si celui qui se rend à
l’hypermarché ne connaît pas nécessairement le vendeur, il
arrive cependant qu’il connaisse son boulanger, son boucher
et d’autres offreurs de nombreux autres produits. De ce fait,
ces relations de long terme lui interdisent de reproduire le
comportement de maximisation de l’Homo œconomicus. Il
arrive donc que les relations personnelles, donc sociales, ne
soient pas absentes des relations d’échange qui ne sont en
aucune manière des relations entre individus asociaux. La
rationalité économique, de minimisation des coûts ou des
dépenses et de maximisation du produit ou des recettes
obtenues en contrepartie, est donc prise en défaut dans ces
relations personnelles ou dans les échanges du type du
commerce équitable. Affirmer cela ne signifie cependant
pas que les relations interpersonnelles résistent
imperturbablement à la logique marchande.
L’expansion du marché de produits est, dans certains cas,
une réponse institutionnelle à la raréfaction croissante de
certains biens qui obligent les pouvoirs publics à imposer le
marché. Cela correspond notamment au marché des permis
de polluer pour protéger un environnement menacé par les
rejets carboniques. C’est aussi le cas du marché des
fréquences hertziennes, un stock inextensible avec des
émetteurs-utilisateurs de plus en plus nombreux, pour éviter
le brouillage, le bruit et toute perturbation des
communications consécutive à la saturation des fréquences.
L’incitation à la recherche et à l’innovation pour le progrès
technique que l’on suppose source de progrès économique
et de progrès social, a conduit à la législation sur la
protection des droits de propriété industrielle et à
l’institutionnalisation du marché des brevets qui autorise le
monopole temporaire lucratif. Il y a aussi des marchés noirs,
illégaux, clandestins ou sauvages apparus récemment,
comme le marché de l’adoption d’enfants19, pour lesquels
l’interdiction est la manifestation en creux du droit positif
institutionnalisant. Mais si la première révolution
industrielle, avec les faibles rémunérations salariales qu’elle
a suscitées ou qui l’ont accompagnée, a donné naissance au
marché du travail des enfants, aujourd’hui l’enfant est un
bien de consommation et non plus un bien de production. Le
plaisir d’avoir des enfants dans les pays développés
l’emporte sur la recherche de bras supplémentaires pour
aider des parents dans la misère, ce qui peut donc expliquer
ces marchés de l’adoption.
Dans d’autres cas, l’expansion du marché des produits est
la réponse à la spécialisation croissante à grande échelle des
individus, des entreprises et des pays lorsque les coûts de
transaction – ceux qui correspondent à la recherche du
fournisseur fiable, à la vérification de la qualité des produits
– sont plus faibles que les coûts de coordination pour une
production autonome. Dans l’agriculture des pays
aujourd’hui développés, la polyculture-élevage vivrière
s’est ainsi progressivement effacée devant des
spécialisations pour les marchés géographiques de plus en
plus ouverts et sur différents espaces à la suite des traités
d’intégration régionale (du 25 mars 1957 instituant le
Marché commun européen, les différents accords du GATT
depuis 1948 et les négociations entreprises au sein de
l’OMC depuis 1995, etc.).
Qu’observe-t-on en conclusion ? Les espaces autarciques
d’économie complexe de reproduction simple correspondant
au circuit schumpétérien ou au cercle de l’éternel retour,
s’effacent devant la logique de la croissance fondée sur la
spécialisation ou division du travail qui n’est envisageable
que si celle-ci s’accompagne du développement du marché
dont les règles de fonctionnement seront construites
collectivement dans des négociations multilatérales pour ne
pas léser les derniers arrivés.
1 Heinrich Freiherr von Stackelberg (1905-1946) est un économiste allemand
né à Moscou, ayant fait fait d’importantes contributions à la théorie des coûts,
des marchés et du comportement sur le marché en duopole asymétrique
(distinction d’un leader et d’un suiveur). Le tableau qui porte son nom a pour
source Marktform und Gleichgewicht (Marché et équilibre) publié à Vienne en
1934.
2 Démonstration effectuée pour la première fois par Kenneth Arrow, dans une
communication au IIe symposium de Berkeley, 1951.
3 On doit reconnaître que le changement de goût et le progrès technique
relèvent des aspects structurels et par conséquent du long terme.
4 Arnold Harberger : “Monopoly and Resource Allocation”, AER proceedings,
44, mai 1954, pp. 77-87.
5 W. Baumol, J. Panzar & R. Willig (1982), « Contestable Markets and the
Theory of Industry Structure », New-York, Harcourt Brace Jovanovich.
6 Co-lauréat du Prix Nobel d’économie en 1994 avec J. Harsanyi et
l’Allemand W. Selten pour leurs travaux en théorie des jeux.
7 John M. McNamara, Zoltan Barta, Alasdair I. Houston « Variation in
Behaviour Promotes Cooperation in the Prisoner’s Dilemma Game », Nature, 15
avril 2004, 428, 745-8.
8 Les conditions d’existence de l’équilibre général sont des marchés de
concurrence pure et parfaite et complets, une dotation initiale du consommateur
permettant de survivre sans échange, la convexité des préférences (possibilité de
faire des combinaisons de produits), l’absence de rendements croissants et de
coûts fixes dans les entreprises.
9 Le résultat peut être étendu à un monopole sur un marché contestable ou
marché disputable, sachant qu’un marché est contestable en l’absence de toute
barrière à l’entrée pour des concurrents éventuels. On parle alors de théorème de
la main invisible faible. Cf. W. Baumol, J. Panzar, R. Willig, Contestable
Markets and the Theory of Industrial Structure, San Diego, Harcourt Brace
Jovanovich Publishers, 1982.
10 Alan Kirman : « Debreu Gérard. The Theory of Value, an Axiomatic
Analysis of Economic Equilibrium, », dans Xavier Greffe, Jérome Lallement,
Michel de Vroey : Dictionnaire des grandes œuvres économiques, Dalloz, 2002.
11 La rationalité limitée a donné lieu à plusieurs traductions ou explicitations :
rationalité imparfaite, rationalité atténuée, rationalité située, rationalité cognitive,
rationalité interactive.
12 H.A. Simon, « From substantive to procedural rationality ». Latsis Ed. :
Method and Appraisal in Economics, Cambridge University Press. 1976, pp.
131.
13 « An Example of an Algorithm for Calculationg General Equilibrium
Prices », AER, Vol. 59, n° 4, 1969 et The Computation of Economic Equilibra
(avec la collaboration de T. Hansen), Cowles Foundation, Monograph n° 24.
New Haven : Yale University Press, 1973.
14 Cf. Katheline Schubert, « Les modèles d’équilibre général calculable : une
revue de la littérature », Revue d’économie politique, 103, 6, 775-825, année
1993.
15 Philippe Steiner « Le marché selon la sociologie économique » SOCIUS
Working Papers nº 6, 2005, Centre de recherche en sociologie économique et des
organisations, ISEG, Université technique de Lisbonne.
16 Mark S. Granovetter, « Economic action and social structure : the problem
of embeddedness », American Journal of Sociology, n° 91, novembre 1985, pp.
481-510. article reproduit et traduit dans M. Granovetter, Le Marché autrement,
Paris, Desclée De Brouwer, 2000. Coll. « Sociologie économique ».
17 A titre d’exemple, la crise financière mondiale de septembre 2008 a révèlé
notamment des comportements de finance Ponzi portant sur des montants
dépassant 50 milliards de $.
18 Mark S. Granovetter, « The Strength of Weak Ties », American Journal of
Sociology, n° 78, pp. 1360-1380, 1973, article reproduit et traduit dans M.
Granovetter, Le Marché autrement, Paris, Desclée De Brouwer, 2000. Coll. «
Sociologie économique ».
19 Vivana Zelizer, « Repenser le marché, La construction sociale du marché
aux bébés aux États-Unis, 1870-1930 », Actes de la recherche en sciences
sociales, n° 94, septembre 1992, pp. 3-26.
TROISIÈME PARTIE
Problèmes économiques
contemporains
Les chapitres précédents ont été consacrés à la
présentation des principales notions en macroéconomie et à
la description des mécanismes d’équilibre de marché sur la
base des comportements microéconomiques du producteur
et du consommateur analysés à la suite de la variation des
prix. Il n’a pas été question de déséquilibre persistant ou de
problèmes économiques réels durables. L’objet de cette
partie est d’aborder ces problèmes et les actions entreprises
par les pouvoirs publics en vue de trouver éventuellement
une solution aux déséquilibres généraux. Il s’agira donc
d’une analyse de l’environnement économique réel d’un
point de vue macroéconomique. Les thèmes qui seront
abordés dans cette troisième partie porteront sur la
distinction des problèmes conjoncturels et des problèmes
structurels, les conceptions du rôle de la puissance publique
dans l’économie, les explications de la croissance et des
fluctuations qu’elle subit, tout en évoquant ses effets
stylisés, les modèles d’analyse de la conjoncture, les
problèmes de l’emploi, ceux de l’inflation et les problèmes
économiques internationaux.
Chapitre 7
Les problèmes économiques et le rôle
de l’État
L’environnement économique constitutif de la société des
hommes n’est pas celui de l’équilibre, de la stabilité, de la
perfection, mais celui de la turbulence, de l’instabilité, de
l’imperfection, du déséquilibre. Il faut cependant distinguer,
du point de vue économique, deux catégories conceptuelles
de problèmes en fonction de l’horizon temporel de leurs
manifestations : d’une part les problèmes conjoncturels,
contingents, immédiats, non durables et, d’autre part, les
problèmes structurels plus profonds, plus permanents, plus
durables. Les actions à entreprendre pour éviter et/ou pour
résoudre ces problèmes ne procèdent pas de la pure
connaissance scientifique. La démarche de nature
prescriptive ou normative relève du domaine des idéologies
et des doctrines qui portent notamment sur la conception du
rôle de la puissance publique ou plus simplement de l’État
dans l’économie. Ces actions sont cependant l’objet d’une
approche d’intention scientifique en termes d’analyse des
politiques économiques.
1. Les notions de conjoncture et de structure
Du point de vue macroéconomique, la conjoncture
économique est la situation générale de l’économie d’un
pays, ou d’un ensemble de pays, appréciée par les valeurs
que prennent à un moment donné les variables telles que le
PIB, la production industrielle, le taux de change, le taux
d’intérêt, l’emploi, le niveau général des prix, le niveau de
la consommation globale, l’opinion des chefs d’entreprises
ou des cadres sur l’état de l’économie, etc.
Quant à la structure, la définition est beaucoup moins
simple. Intuitivement on comprend que c’est l’enveloppe et
le support de l’activité économique. En faisant une synthèse
de différentes définitions proposées, on obtient la suivante :
« La structure est un système de relations, de rapports
relativement stables caractérisant un ensemble. » Les
principales structures d’une société globale qui
conditionnent l’activité économique sont le milieu naturel
(structure géographique), les structures démographiques, les
institutions, les idées et mentalités, et les structures
économiques proprement dites : moyens de production,
organisation économique, entreprise, banque, crédit,
répartition de la valeur ajoutée ou de la population active
entre les secteurs d’activité (primaire, secondaire, tertiaire),
etc.
1.1. Le carré magique de la conjoncture
Les problèmes conjoncturels, sont susceptibles de
s’estomper ou de disparaître rapidement de manière
spontanée, selon les économistes libéraux confiants dans les
lois du marché, ou par l’action de la puissance publique en
prenant des mesures de politique économique dite
conjoncturelle, selon les économistes interventionnistes qui
mettent l’accent sur les défaillances nombreuses et durables
du marché. On résume généralement ces problèmes
conjoncturels par le carré magique de Nicholas Kaldor1 qui
indique les quatre objectifs principaux de la politique
économique conjoncturelle (voir figure 7.1.). Ces objectifs
se résument ainsi : « Réaliser la croissance économique (1er
objectif) qui améliore le bien-être matériel, avec le plein-
emploi (2e objectif), dans la stabilité des prix (3e objectif) et
l’équilibre dans les échanges extérieurs (4e objectif). »
Le carré magique se présente comme un graphique
comportant quatre axes cardinaux. Chaque axe, avec son
échelle spécifique, correspond à un objectif de politique
conjoncturelle d’un pays.
Le taux de croissance est mesuré par le rapport entre la
variation du PIB, soit trimestriel quand c’est possible soit
annuel par rapport au PIB du trimestre précédent ou de
l’année précédente. La régression (ou la décroissance, mais
si c’est voulu seulement) correspond à un taux négatif.
L’inflation est mesurée par la variation d’un indice
approprié du niveau général des prix par rapport à l’indice
du mois précédent. Un taux négatif correspond à la déflation
si la baisse générale des prix s’accompagne d’une baisse de
l’activité économique (stagnation ou régression du PIB) et
de la dégradation du niveau de l’emploi.
Le taux de chômage est mesuré par le nombre de
demandeurs d’emploi à la date de la dernière enquête
rapportée à la population active en âge de travailler.
L’objectif de la politique de l’emploi est d’avoir un taux de
chômage le plus bas possible. Le plein-emploi théorique ou
taux de chômage nul n’a jamais été atteint. Il existe toujours
un chômage incompressible même si certains individus sont
en suremploi, en travaillant effectivement de manière
productive au-delà de la moyenne conventionnelle (pratique
des heures supplémentaires), pour faire face à la pénurie de
main-d’œuvre dans certains secteurs et dans certains
métiers. En général, un faible taux de chômage permet de
produire davantage. Il existe donc une corrélation négative
entre le taux de croissance de l’économie et le taux de
chômage.
L’objectif assignable aux relations avec le reste du monde
est plus délicat à définir et à mesurer. Il peut s’agir, dans
certains cas, d’avoir le plus faible déficit du commerce
extérieur (échanges de marchandises ou balance
commerciale), dans d’autres, la surveillance doit porter sur
la balance des opérations courantes, dite encore balance des
paiements courants ou balance des transactions courantes
(somme de la balance commerciale
Figure 7.1
. Carré magique
Lecture : la croissance du PIB est de 6 %, le
solde de la balance des paiements courants
(BPC) est un excédent représentant 3 % du
PIB, le taux de chômage est de 4 % et
l’inflation est de 0 %
et de la balance des invisibles qui correspond aux services et
transferts courants, et de la balance des revenus). Il y a au
moins trois raisons qui peuvent expliquer les difficultés
d’une définition d’un objectif pour la balance des opérations
courantes.
– La première, qui est la plus simple, est que les
exportations d’un pays ont un caractère exogène. Autrement
dit, ce sont les importations des autres, et il est difficile
d’obtenir que les agents économiques des autres pays
dépensent plus en achetant nos produits ou en venant faire
du tourisme plus souvent, plus nombreux, pour plusieurs
jours chez nous.
– La deuxième raison relève de l’état des rapports
économiques et politiques entre les nations. Un déficit de la
balance des paiements courants est un endettement externe
qui risque de mettre le pays sous la tutelle des pays
créanciers, ou des organismes internationaux comme le
Fonds monétaire international (FMI) si cet endettement est
durable. Un excédent n’est pas toujours non plus une bonne
affaire s’il est lui aussi durable, car il signifie que le pays
produit pour les autres sans compensation. Il ne faut pas
oublier en effet que le paiement en monnaie que font les
autres pays n’est pas une compensation, mais un crédit
consenti par le pays excédentaire qui devient donc créancier.
Si le paiement reçu est utilisé pour acheter des produits à
l’étranger, alors il n’y a plus d’excédent. Un pays
éternellement excédentaire est alors l’esclave des autres
pays. Un pays éternellement déficitaire ne peut être qu’un
pays dominant.
– La troisième raison est conjoncturelle, en ce sens que la
reprise économique dans certains pays à faibles ressources
naturelles et industries de biens d’équipement
s’accompagne d’importantes importations, alors que la
production destinée à l’exportation ne se fera qu’après avoir
importé ces biens de production. Un déficit dans ce cas de
reprise économique n’est donc pas une mauvaise affaire. De
la même manière, un excédent peut résulter non pas d’un
dynamisme des exportations, mais du ralentissement de
l’activité économique, qui s’accompagne d’une baisse des
importations des biens de production.
Dans tous les cas, le solde, qu’il soit négatif ou positif et
qu’il soit rapporté ou non au PIB de la période observée, n’a
pas de signification en soi. Un excédent commercial est
évidemment une bonne chose s’il est obtenu par des
exportations compétitives structurellement consécutives à
une spécialisation internationale conforme à la théorie des
avantages comparatifs. Et de la même manière, un déficit
n’est pas toujours un bon résultat, car s’il est durable, il
engendre un épuisement des réserves de change et suscite
un endettement préjudiciable à la souveraineté nationale
dans les petits pays.
L’explication du solde et sa durée importent donc plus
que son niveau. Il faut par conséquent analyser la balance
des paiements courants poste par poste pour mieux
apprécier l’état de la conjoncture et la signification
normative du déséquilibre externe. L’objectif en termes
externes est par conséquent de réaliser l’équilibre en
tendance. L’essentiel est que sur une longue période les
déficits soient compensés par les excédents.
Toutefois, le solde de la balance des paiement courants
peut être associé au niveau de développement économique
du pays analysé. Il existerait un cycle de la balance des
paiements, ou du moins des étapes qui peuvent être
représentées par la figure ci-dessous, qui met en relation le
solde (capacité de financement) et le PIB par habitant2 en
parité des pouvoirs d’achat3. Les étapes sont variables selon
les auteurs. Crowther (1957) et Charles Kindleberger (1963)
ont proposé un cycle en six étapes. Paul A. Samuelson
(1952) et Maurice Byé (1965) se limitent à quatre.
Figure 7.2
. Cycle du solde de la balance des
paiements
Les quatre objectifs du carré magique ne sont pas
indépendants les uns des autres et ils ne sont pas toujours
compatibles entre eux. Il s’ensuit que tenter d’assurer la
croissance économique avec le plein-emploi de la main-
d’œuvre, la stabilité des prix et l’équilibre de la balance des
paiements courants constitue une gageure qui justifie
l’expression « carré magique de la politique économique ».
Par exemple, une forte hausse des prix détruit la
compétitivité et suscite un déséquilibre de la balance
commerciale, les produits importés prennent la place des
produits domestiques, la croissance ralentit, donnant alors
naissance au chômage. Une baisse des prix peut aboutir elle
aussi au chômage, puisque l’évolution du prix est une
indication du niveau de la demande. Toutes ces
interdépendances expriment le délicat problème du réglage
fin (fine tuning) de la politique conjoncturelle.
1.2. Les problèmes structurels
Les problèmes structurels sont ceux qui ont des origines
lointaines dans le passé et ont des effets durables sur le
bien-être général des populations. Les difficultés du
décollage économique des jeunes nations, ou au contraire la
rapide assimilation des nouvelles technologies pour réaliser
un développement économique accéléré, les changements
de mentalité, la réduction progressive de la mortalité et plus
tard de la natalité suscitant dans cette phase une transition
démographique offrant une main-d’œuvre bon marché pour
l’industrie sont quelques aspects qui relèvent des problèmes
structurels pour les pays en développement ou qui ne se sont
pas encore engagés dans le développement.
Pour les pays dits aujourd’hui développés, le processus
s’est fait lentement, en commençant par un ensemble
d’innovations dans l’agriculture sur une longue période,
même si par commodité de langage ce cumul d’innovations
a été désigné par l’expression de révolution agricole (voir
encadré : De la révolution agricole à la révolution
industrielle). Il a permis le développement du surplus
agricole, le déversement de la population active
excédentaire en ville favorisant le développement de
l’industrie, foyer de multiples révolutions technologiques
allant de la navette volante dans le textile jusqu’au
perfectionnement de la machine à vapeur de Thomas
Newcomen (1712) par l’invention de James Watt (1er brevet
1769). Le progrès s’est poursuivi par le vaccin mis au point
par Edward Jenner contre la variole (1796) – de ce vaccin,
on dit qu’il constitue un changement radical et on parle de
révolution jennérienne, car ses conséquences
démographiques sont de première importance –, par la chute
de la mortalité, l’excédent naturel de plus en plus important
dans une phase dite de transition démographique séparant le
début de la baisse de la mortalité et celle de la natalité.
La figure 7.3. illustre ces phénomènes pour expliquer le
décollage économique des pays européens entre la fin du
XVIIIe siècle et la fin du XIXe siècle. De nos jours, pour ces
pays développés, les structurels sont d’une tout autre nature,
dans la mesure où certains sont des conséquences négatives
du développement et de la croissance passés. Ce sont
notamment la pollution de l’environnement ; la tendance à
l’épuisement des ressources naturelles fossiles ; la baisse de
la natalité et le vieillissement démographique ; les
déséquilibres régionaux avec des activités souvent
concentrées dans la capitale, et le désert ou presque
ailleurs4 ; l’insuffisance des infrastructures de transport, de
santé, d’équipements collectifs de loisirs, de recherche et
d’éducation ; l’urbanisation anarchique ; les inégalités des
revenus et les phénomènes d’exclusion sociale et de
pauvreté ; la globalisation des marchés, etc. Ces problèmes
structurels suscitent des politiques structurelles qui peuvent
être des politiques de développement dans les pays en voie
de développement. De manière analytique, on distingue
notamment les politiques agricoles, les politiques
industrielles, les politiques d’aménagement du territoire, les
politiques démographiques, familiales, sociales (logement,
éducation, santé, répartition et redistribution des revenus) et
les politiques d’approvisionnement.
Figure 7.3
. Facteurs du décollage économique en
Occident
Sources : pour la figure Ahmed Silem,
Encyclopédie de l’économie et de la gestion,
Hachette, 1991, et pour la notion de révolution
industrielle, Jacques Brasseul, Histoire des faits
économiques, A. Colin, 2003.
1.3. L’interdépendance structure/conjoncture
La distinction structure/conjoncture qui vient d’être
présentée est discutable, car il n’y a pas dans la réalité de
discontinuité marquée. Par exemple, le phénomène de la
croissance économique est autant conjoncturel par ses
déterminants de courte période constitutifs de la demande
globale (consommation des ménages, demande publique,
l’investissement des entreprises, demande étrangère donnant
lieu à des exportations), que structurel par le dynamisme
autonome de l’offre se traduisant par l’augmentation des
facteurs de production (croissance extensive par
l’augmentation de la population active –L-, et du volume du
capital – K-) et/ou le progrès technique suscitant des gains
de productivité (croissance intensive).
Dans une certaine mesure, la structure est une enveloppe
des conjonctures successives. Cela signifie que les
problèmes conjoncturels récurrents peuvent avoir une
origine structurelle et les problèmes structurels peuvent
résulter du cumul des conjonctures défavorables. Il ne faut
donc pas s’interdire d’imaginer une interdépendance entre
structure et conjoncture, ce qui est une façon possible de
tenter de concilier la vision court termiste keynésienne de la
demande et la vision long termiste néoclassique de l’offre.
2. Les fonctions de l’État et la notion de politique
économique
La définition des fonctions économiques de l’État, au
sens de gouvernement distinct de la société civile, est
fortement idéologique. Aussi convient-il de présenter
brièvement les grandes idéologies, avant d’analyser les
fonctions.
2.1. Les approches idéologiques de l’État
La conception du rôle de l’État s’inscrit dans un
continuum qui va de l’État gendarme ou État minimum des
libéraux qui limitent son rôle à la surveillance du marché
afin que tout le monde en respecte les règles, jusqu’au tout
État des économistes du socialisme soviétique, en passant
par l’État keynésien qui prend le relais des particuliers dans
tous les domaines lorsqu’il y a défaillance du marché, pour
ne pas évoquer le refus de l’État des libertariens
(minarchistes de l’État minimum et anarcho-capitalistes qui
refusent tout pouvoir à l’État)5 et des anarchistes ou
libertaires6 qui préconisent une société gérée en commun
(autogestion, associationnisme, fédéralisme), la démocratie
directe sans hiérarchie aucune, le mandat révocable à tout
moment, l’application de la formule communiste « à chacun
selon ses besoins et de chacun selon ses capacités ». Ces
deux conceptions extrêmes sont cependant sans exemple
historique hors expériences utopiques fugaces insérées de
toute façon dans des sociétés normalement régulées.
Figure 7.4
. Effet de la politique de redistribution sur
la fonction sociale de bien-être
Ces trois fonctions de l’État sont susceptibles de donner
lieu à différentes politiques économiques pour chacune
d’elle. Elles ne sont pas incompatibles avec le libéralisme
économique, et il existe des politiques économiques
libérales. Il faut donc préciser ce que l’on entend par
politique économique. Celle-ci est le comportement délibéré
de la puissance publique se traduisant par la définition
d’objectifs économiques et sociaux et la mise en œuvre des
moyens nécessaires pour les atteindre.
2.3. La notion de politique économique
Pour parler de politique économique, il faut que l’action
ou l’absence d’action soit délibérée. Le caractère délibéré
ou voulu est fondamental : ne rien faire involontairement ou
ne rien faire parce qu’il a été décidé ainsi ne constitue pas la
même chose. En application de la doctrine du « laissez-
faire, laissez-passer », « ne rien faire » est ainsi une
politique économique libérale qui consiste à faire confiance
aux mécanismes du marché mais à la condition que tout le
monde en respecte les règles.
Les différents objectifs et les différents moyens utilisés
permettent de définir un grand nombre de politiques
économiques. On distingue trois grandes classifications :
a) selon l’objectif : politiques conjoncturelles (la
stabilisation dans les fonctions de Musgrave) et politiques
de développement ou politiques structurelles (l’allocation
des ressources et la redistribution dans les mêmes fonctions
musgraviennes),
b) selon les moyens : politiques budgétaires (nature et
volume des dépenses publiques, nature du système fiscal,
structure des taux de l’impôt, taux de pression fiscale),
politiques monétaires (définition du taux directeur de la
banque centrale, taux de change), politique de crédit
(garanties offertes aux emprunteurs, taux des emprunts pour
les ménages en fonction de leur revenu), politiques
réglementaires (normes à respecter pour les produits mis sur
le marché, lois antitrust respect des principes de la
concurrence, salaire minimum, etc.),
c) selon l’idéologie : nous avons déjà vu que les
politiques libérales (favorisant la libre entreprise, le libre-
échange, faisant respecter la propriété privée et la
concurrence dans le libre jeu des lois du marché) s’opposent
aux politiques interventionnistes. Il ne faut cependant pas
confondre l’interventionnisme remédiant à une crise
économique, palliant les faiblesses des initiatives privées,
avec ce que certains libéraux qualifieraient d’avatars
paroxysmiques : étatisme, dirigisme, planisme, socialisme.
De même, le libéralisme n’est nullement l’ordre naturel
dans lequel, suivant la formule de Thomas Hobbes, «
l’homme est un loup pour l’homme ». Ce n’est pas une
situation où tout est permis. Le libéralisme comporte des
règles, et une politique libérale consiste à faire respecter ces
règles. La politique interventionniste consiste en mesures
appropriées adoptées lorsque ces règles ne suffisent pas à
assurer le bien-être général.
2.4. Les règles de Tinbergen et de Mundell
Il existe des règles que les pouvoirs publics doivent
respecter dans la gestion de la relation entre objectifs et
moyens. Ces règles correspondent au principe de cohérence
et au principe d’efficience. Le principe de cohérence est
énoncé par le Hollandais et économètre Jan Tinbergen
(1903-1994), premier lauréat du prix Nobel d’économie.
Selon cette règle de Tinbergen, il ne faut pas avoir plus
d’objectifs que de moyens, ou encore la politique
économique doit avoir autant d’instruments que d’objectifs.
La règle mathématique stricte est : « un objectif par moyen,
et un moyen par objectif » (i.e. : il faut autant d’équations
qu’il y a d’inconnues). Le principe d’efficience est dû au
Canadien Robert Alexander Mundell, autre Prix Nobel. La
règle de Mundell indique que, parmi les moyens
disponibles, il faut choisir celui qui permet de réaliser avec
efficience l’objectif.
Le souci de la rigueur mathématique de Tinbergen est peu
respecté dans les faits, en ce sens qu’il arrive d’avoir
plusieurs moyens complémentaires pour atteindre un seul et
même objectif. Ce cas peut être illustré par la politique de
lutte contre le chômage entreprise en France en 1974-75 :
elle a pu associer des mesures réglementaires comme
l’autorisation administrative de licenciement, des mesures
budgétaires de financement de grands travaux publics pour
relancer l’activité et des mesures monétaires comme laisser
la monnaie nationale se déprécier (dévaluation de fait) pour
décourager les importations et favoriser les exportations. De
même, il est possible d’avoir un seul moyen pour plusieurs
objectifs différents, comme c’est le cas avec l’offre de biens
publics gratuits qui permet de réduire les inégalités sociales
et de relancer l’activité économique. Mais on ne peut pas
dire que c’est efficace : la politique de 1974 n’a pas réduit le
chômage, et l’offre de biens publics collectifs gratuits
profite à tous et non uniquement aux plus défavorisés.
1 Nicholas Kaldor (1908-1986) a conçu ce modèle d’analyse de la conjoncture
en 1972 pour l’OCDE (Organisation de coopération et de développement
économique).
2 source : Brahim Razgallahl “cycle d’endettement des pays », C.E.R.S.E.I.-3
D.I Université Panthéon-Assas (Paris II))., 2005.
3 La parité des pouvoirs d’achat est le taux de change qui permet d’acheter à
des conditions identiques le même type de produit dans deux pays différents, en
supposant les commissions de change nulles.
4 cf. pour la France le livre classique de Jean-François Gravier : Paris et le
désert français, 1947. Le graviérisme, notion apparue depuis la publication de ce
livre, est une dénonciation de ce déséquilibre qui justifie une politique de
décentralisation et d’aménagement du territoire.
5 Les précurseurs, les inspirateurs et les principaux représentants de ce
courants qui affirme le principe de l’ordre spontané, de la malfaisance de l’État
sont : l’Anglais Richard Overton (1599-1664), les Français Charles Dunoyer de
Segonzac (1786-1862) et Frédéric Bastiat (1801-1850), l’Américain dénonciateur
de l’État-bandit Lysander Sponner (1808-1887), le Belge Gustave de Molinari
(1818-1912), l’Autrichien Ludwig von Mises (1881-1973), son élève
l’Américain Murray Newton Rothbard (1826-1995), Robert Nozick (1938-2002),
David Friedman David, Bertrand Lemennicier, Pascal Salin.
6 Les principaux représentants sont : les Russes Mikhaïl Aleksandrovitch
Bakounine dit Michel Bakounine (1814-1876) et Piotr Alekseïevitch Kropotkine
(1842-1921), l’Ukrainien Nestor Ivanovitch Makhno (1889-1934), les Italiens
Carlo Cafiero (1846-1892) et Errico Malatesta (1853-1932), les Français Pierre
Joseph Proudhon (1809-1865), Elisée Reclus (1830-1905) et Daniel Guérin
(1904-1988).
7 The Road to Serfdom, Chicago, University of Chicago Press ; Londres,
George Routledge ; trad. fr., La Route de la servitude, Paris, Médicis, 1946.
8 Robert Tremblay, « Critique de la théorie marxiste de l’État »,
Philosophiques, volume 13, n° 2, automne 1986, pp. 267-289, publiée par la
Société de philosophie du Québec, 1986.
9 Le Coran, sourate 9, verset 60.
10 Musgrave R. (1959), The Theory of Public Finance, A Study in Public
Economy, International Student Edition, New York, McGraw-Hill Book
Company.
Chapitre 8
La croissance économique
L’objet de ce chapitre est de donner les éléments
fondamentaux pour comprendre le phénomène de la
croissance économique : sa mesure, ses facteurs, ses
caractères et ses effets.
1. Définition et mesure du taux de croissance
La croissance économique est l’augmentation sur une
longue période du produit intérieur brut en termes réels, i.e.
hors inflation. Elle se distingue de l’expansion qui se définit
par une augmentation du PIB, mais sur une courte période
dans un cycle conjoncturel. Elle se distingue aussi du
développement et du progrès économique et social. Ces
deux phénomènes, qui relèvent d’une approche plus
qualitative que quantitative, se manifestent sur une période
plus longue.
Avec la notion de progrès, l’évolution est évaluée par ses
conséquences sur le bien-être ; le progrès suppose un état
ultime, une finalité, un but ou un objectif à atteindre. Il en
résulte que la notion de progrès économique implique un
jugement de valeur positif relatif au processus considéré –
bien que certains parlent de désillusions du progrès ou des
dégâts du progrès –, ou sur un tout autre registre de la
progression de la maladie
Néanmoins, dans le langage courant, il semble admis de
parler de développement économique lorsque des pays dont
le revenu national par habitant est inférieur à la moyenne du
revenu mondial par habitant connaissent une augmentation
durable de ce revenu par habitant. Pour les pays dont le
revenu national moyen est supérieur au revenu mondial
moyen, c’est l’expression de croissance économique qui est
employée pour signifier l’augmentation du volume du
produit réel aussi bien global ou absolu que par habitant,
bien que les changements de structures continuent à se
produire comme, par exemple, les variations des parts des
activités dans la production nationale.
1.1. La mesure du taux de croissance
Le taux de croissance de l’économie entre deux périodes
tl et t2 est le produit par 100 du rapport entre, d’une part, la
variation de la valeur de la production entre tl et t2 et, d’autre
part, la valeur de la production de l’année t1.
Par exemple si, avec une évaluation à prix courants, la
production pour l’année tl est de 3 000 milliards d’€ et
qu’elle passe à 3 160 milliards d’€ à la fin de l’année t2 alors
le taux de croissance nominal est de :
100 x [(3160 – 3000)/3000] = 4 %
En termes d’indice à prix courants, la production de
l’année t2 est à un niveau de 104. On dit encore que la
production de l’année précédente a augmenté d’un facteur
de 1,04. Il s’agit ici d’un coefficient multiplicateur obtenu
en divisant l’indice annuel par 100.
Pour mesurer la croissance réelle, il faut déflater
l’augmentation nominale du PIB par un indice des prix
approprié, en faisant le rapport entre l’indice de la
production courante et l’indice des prix. Ici, l’indice des
prix qu’il convient d’utiliser est le déflateur du PIB et non
pas un indice des prix de détail qui, d’une part, ne concerne
qu’une partie des biens qui participent au PIB et, d’autre
part, porte aussi sur des biens importés qui, eux, ne
participent pas au PIB. Le PIB étant la différence entre la
valeur des productions et la valeur des consommations
intermédiaires, son calcul à prix constants est obtenu en fait
par la méthode de la double déflation, i.e. que la déflation
s’applique aux productions et aux consommations
intermédiaires. Néanmoins, cette double déflation permet
d’obtenir la variation en volume du PIB qui, comparée à la
variation en valeur courante, donne une variation implicite
de prix du PIB. L’indice obtenu de cette manière est l’indice
ou prix implicite du PIB ou déflateur du PIB, représentatif
de l’évolution générale des prix. Plus simplement, le prix
implicite du PIB ou déflateur du PIB peut encore se définir
par le rapport suivant :
déflateur du PIB = PIB nominal/PIB réel.
Si l’indice des prix est passé de l’indice 100 l’année t1 à
102,5 l’année t2, alors la croissance en volume, en termes
réel, ou à prix constants, au cours de la deuxième année,
est :
104/102,5 = 1,14 %,
soit un indice de la croissance en volume de 101,14 par
rapport à l’année précédente.
Si, au cours de la période, la population du pays a
augmenté de 0,5 %, la croissance économique réelle par
habitant, ou augmentation du niveau de vie, est alors de :
1,14 – 0,5 = 0,64 %.
Le taux de croissance annuel moyen sur plusieurs années
s’obtient en faisant la moyenne géométrique des produits
des variations annuelles, i.e. en faisant la racine énième du
rapport entre l’indice de l’année n et l’indice de l’année
d’origine. Pour simplifier l’écriture, la racine énième d’un
nombre X peut aussi s’écrire X1/n. Les calculs deviennent
plus simples en passant alors par les logarithmes sachant
que
log (X1/n) = (1/n) log X.
Par exemple, si l’indice en volume est passé de V0 = 210
à Vt = 250 pour t = 10 ans, alors le taux de croissance
annuel moyen (g) est :
g = [(250/210)1/10] – 1 = 1,76 %.
Si l’on dispose de taux annuels de croissance plutôt que
d’une suite d’indices annuels, il suffit de faire la racine
énième des produits des taux rapportés chacun à l’année
précédente, comme dans l’exemple suivant :
Soit les taux de croissance suivants au cours de 7 années :
2,5 ; 3 ; 3,25 ; 1,5 ; 1 ; – 1 ; 1,4.
Le taux de croissance annuel moyen est alors :
g = [1,025 – 1,03 – 1,0325 – 1,015 – 1,01 – 0,99 – 1,
014]1/7 – 1 = 1,66 %
On observe qu’ici la moyenne géométrique aboutit
pratiquement au même résultat que la moyenne
arithmétique. Cela n’est pas toujours ainsi. Pour voir la
différence, il suffit de prendre les taux de croissance de 6 %
et de 10 % pour les années t1 et t2 : la moyenne arithmétique
et de 8 %, alors que la moyenne géométrique est 7,7 %.
1.2. L’évolution de la croissance
La recherche de la croissance économique correspond au
désir d’accéder à un mieux-être matériel. Le monde
moderne semble indéniablement plus supportable pour les
hommes que celui du passé, mais on sait que cette
croissance ne peut pas être éternelle, tout en exigeant des
efforts de plus en plus intenses pour tenter vainement de
conserver le même taux. En effet si, par exemple, il est
facile de passer d’un PIB 1 000 unités monétaires en début
d’année à un PIB 1 100 unités monétaires à la fin de
l’année, réalisant ainsi un taux de croissance de 10 %. La
même augmentation de 100 unités monétaires l’année
suivante ne donne plus qu’un taux de (100/1100)100 = 9,09
%. Pour faire 10 %, il faudrait une augmentation de 110
unités monétaires. Un taux de croissance constant signifie
donc une croissance exponentielle. Ce qui ne peut pas se
poursuivre indéfiniment, comme le laisse comprendre la
boutade célèbre attribuée à Kenneth Ewert Boulding (1910-
1993) :
« Celui qui croit qu’une croissance exponentielle peut
continuer indéfiniment dans un monde fini est un fou, ou un
économiste. »
La croissance économique se fait en détruisant de
manière irréversible les ressources naturelles,
conformément au processus de l’entropie des
thermodynamiciens tel qu’il a été analysé par Nicholas
Georgescu-Roegen (1906-1994). L’entropie est la mesure du
désordre. Elle correspond au deuxième principe de la
thermodynamique. Selon ce principe, il y a toujours
dégradation et perte irréversible d’énergie. Cela signifie
qu’il est impossible de récupérer toute l’énergie dépensée
dans un travail, et qu’il ne peut donc y avoir, en économie,
de croissance perpétuelle. Il arrivera donc un moment où les
ressources naturelles par habitant diminueront
inéluctablement. La croissance de la consommation ne
pouvant plus se poursuivre, la décroissance1 s’imposera
d’elle-même. On peut cependant penser qu’une telle vision
pessimiste repose sur l’hypothèse d’un système clos, sans
doute acceptable en physique, mais que la capacité de
création des hommes semble avoir mis en échec pour
l’instant.
Au-delà de la problématique de la gestion au niveau
mondial des ressources naturelles limitées, l’objectif pour
des pouvoirs publics locaux est d’avoir un taux de
croissance acceptable, i.e. supportable par la société en ne
suscitant pas des disparités inacceptables du fait d’une
évolution trop rapide pour certains groupes sociaux. Une
trop forte croissance a en effet un prix, d’une part en termes
de surchauffe de l’économie – certains secteurs ne peuvent
pas répondre instantanément à la forte demande et
augmentent les prix en réponse pour signaler le phénomène
de rareté momentanée – et, d’autre part, en termes de
changements structurels inévitablement perturbateurs
impliquant, par exemple, la mobilité professionnelle
(changement de métier, changement de région). Mais une
faible croissance, et surtout un taux de croissance négatif,
lorsque la population active augmente, se paient aussi par
du chômage tout aussi inacceptable.
Toutefois un taux de croissance régulier sur une longue
période ne se décrète pas. On observe surtout une
irrégularité de la croissance économique dans le temps,
même au plus fort moment de la planification
macroéconomique qu’un grand nombre de pays ont adoptée
après 1945. Celle-ci avait pour base des prévisions à 4 ou 5
ans éclairées par une prospective à plus long terme
décrivant les futurs possibles, et suivies de mesures
indicatives, incitatives pour réaliser les actions jugées
nécessaires en vue d’atteindre le taux de croissance
programmé ou projeté. Les fluctuations du taux de
croissance, certes moins prononcées et moins nettement
cycliques que celles du XIXe siècle et des 40 premières
années du XXe siècle, se sont pourtant maintenues avec en
1973-75, 1979-81, 1993-1995 et 2008-2009 des taux de
croissance négatifs dans un grand nombre de pays
développés.
Tableau 8.1
. Taux de croissance annuel moyen
Figure 8.2
. : Fonction de production par travailleur
Si, sur une longue période, ce principe de convergence
absolue a pu donner lieu à un début de validation formulée
également sous l’expression de la théorie du rattrapage20, de
nos jours, on n’observe pas de corrélation négative entre le
revenu par tête d’un pays et son taux de croissance.
Certes, lorsqu’on examine les taux de croissance de la
Chine depuis 1978, ceux de l’Inde ensuite et ceux des NPI
(nouveaux pays industrialisés) de l’Asie du Sud et du Sud-
Est (Corée du Sud, Hong Kong, Singapour, Taiwan), la
thèse d’Alexander Gerschenkron21 se trouve validée : les
pays dits latecomers réalisent des taux de croissance plus
élevés que ceux constatés pour les pays développés au
moment de leur décollage économique au XIXe et au début
du XXe siècle. Déjà, dès la fin du XIXe siècle, les États-Unis
d’Amérique rattrapaient et dépassaient le Royaume-Uni,
économie pionnière qui semblait s’essouffler. Puis, c’est au
tour des autres pays de l’Europe de l’Ouest, de l’Australie,
de la Nouvelle-Zélande et du Japon. On a bien remarqué
aussi que les taux de croissance de quelques pays
développés semblent s’inscrire dans une tendance de
ralentissement, mais on a vu aussi que l’économie pionnière
britannique s’est réveillée dans les années 1980 et que
d’autres pays riches présentent un fort taux de croissance,
pendant que des pays plus pauvres affichent un taux de
croissance plus faible.
Lorsque les contraintes structurelles sont différentes, il
convient de parler de convergence conditionnelle et non
plus de convergence absolue. Les trajectoires de deux pays
peuvent être différentes dès que la technologie et/ou le taux
d’épargne sont différents. La figure 8.3. montre qu’avec la
même intensité capitalistique, grâce au progrès technique,
différents revenus par tête et différents taux de croissance de
ce revenu par tête sont possibles. Le progrès technique
augmente ainsi l’efficacité du capital. On parle dans ce cas
de figure de neutralité progrès technique au sens de Solow
pour la distinguer de la neutralité du progrès technique au
sens de Harrod (le progrès technique augmente l’efficacité
du travail) et au sens de Hicks (le progrès technique
augmente l’efficacité des deux facteurs).
Figure 8.3
. Modèle de Solow avec progrès technique
exogène
Le progrès technique a pour effet de compenser la baisse
de la productivité marginale du capital afin de maintenir un
taux de croissance (g) stable et égal à (n + a). Sur la figure
8.4., la courbe de taux de croissance se déplace sur la droite
par effet du progrès technique qui apparaît entre la période t0
et la période t1.
2.5. Les modèles de croissance endogène
Le modèle de Solow n’explique pas la croissance. Son
objet est de donner les valeurs des variables par tête à long
terme dans le cadre de la concurrence pure et parfaite. Cette
structure de marché exige, pour une croissance équilibrée
stationnaire, l’hypothèse de la décroissance de la
productivité marginale du capital. L’État absent par
hypothèse, Solow faisait du progrès technique une manne
tombée du ciel au lieu d’être un résultat de
Figure 8.4
. Taux de croissance avec progrès
technique exogène
l’apprentissage et/ou des dépenses de recherche et
développement financées par les pouvoirs publics. Or, on
sait depuis longtemps que la production peut augmenter
sans modification de la quantité de travail et de capital, ce
qui veut dire qu’il faut analyser ces autres facteurs pour
tenter de comprendre ce qui les détermine. Et on a eu
l’intuition depuis longtemps également que, par exemple,
les pays qui font de la recherche, ceux qui investissent dans
la formation de leur population – investissement en capital
humain –, ou ceux qui ont d’importantes infrastructures
publiques réalisent des taux de croissance plus élevés que
les autres et ont un revenu par tête plus élevé. Les travaux
pionniers pour expliquer le résidu de Solow ont été ceux
d’Aukrust-Bjerke22, Kendrick23, Denison-Poullier24 et Carré-
Dubois-Malinvaud25.
Il a cependant fallu attendre les années 1980 pour avoir
les premiers travaux formalisés dépassant la
comptabilisation des contributions des différents facteurs de
la croissance. Ces travaux portent sur l’endogénéisation des
éléments constitutifs du résidu de Solow (la croissance qui
ne s’explique pas par la variation du travail et du capital). Et
si l’on peut expliquer le progrès technique, si les éléments
qui le composent sont des variables déterminées (expliquées
ou encore endogènes), alors il sera possible d’envisager des
politiques économiques pour augmenter le niveau du revenu
par tête à long terme.
La modification du taux de croissance par la politique
économique est ce qui correspond à la notion de croissance
endogène. Il est donc possible d’échapper de la sorte au
pessimisme relatif du modèle de Solow. Il ne s’agit que d’un
pessimisme relatif en ce que la croissance du revenu par tête
cesse avec l’arrêt de la croissance exogène de la population,
non compensé par le progrès technique, et bien que les
mesures natalistes du type allocations familiales soient
connues et pratiquées dans un grand nombre de pays.
L’abandon de certaines des hypothèses du modèle de
Solow s’est avéré inévitable pour intégrer les vieilles
avancées théoriques plus conformes à la réalité : les
externalités technologiques évoquées dès 1890 par Alfred
Marshall, la théorie schumpétérienne de l’innovation et le
phénomène de l’apprentissage en travaillant (Learning by
doing) exposé par Kenneth Arrow en 1960. À l’origine de
ce renouveau, on retient généralement l’article de Paul
Romer publié en 1986 dans la revue JPE26. Les
investissements nouveaux conduisent à des modifications
des comportements, suscitent des nouvelles connaissances
(il est nécessaire d’apprendre à se servir des nouveaux
équipements) et améliorent la productivité dans le processus
productif. Mais la théorisation du phénomène de la
croissance endogène n’est véritablement consolidée
qu’après le surprenant article de Robert Lucas : « On the
Mechanics of Economic Development »27. La surprise tient
au fait que R. Lucas, en tant que théoricien des anticipations
rationnelles, avance que l’intervention de l’État dans le
domaine de la politique conjoncturelle est inutile, puisque
les individus anticipent les effets de cette politique, ce qui
aboutit à sa neutralisation, alors qu’il revalorise le rôle de
l’État pour ce qui est de la croissance obtenue par des
investissements en capital humain. Puis c’est au tour de
Robert Barro28, habituellement considéré comme l’un des
cofondateurs de la NEC, à susciter le même type de surprise
lorsqu’il considère l’investissement public dans les
infrastructures de transport et de télécommunication comme
un facteur primordial de la croissance, même s’il n’existe
pas de facteur qui garantisse la croissance. Les facteurs
institutionnels jouent aussi un rôle : un État de droit, la
garantie des droits de propriété, la liberté du commerce à
l’intérieur et dans les échanges internationaux sont des
facteurs favorables à la croissance. R. Barro rejoint R.
Lucas, comme il l’a d’ailleurs déjà fait avec les
anticipations rationnelles, en ajoutant aux infrastructures
publiques l’éducation et la santé parmi les autres facteurs
déterminants de la croissance. L’éducation et la santé sont
des investissements en capital humain dont la fonction est
d’améliorer l’efficacité des autres facteurs.
Cet aspect est surtout mis en valeur par l’important travail
empirique de Mankiw, Romer et Weil (1992). Le capital
humain joue le même rôle dans la production que le capital
physique. En termes simples, les auteurs montrent que plus
le niveau de formation est élevé, plus la force de travail est
efficace, à technologie constante ; ceci permet, d’une part,
de compenser les rendements décroissants du capital
physique et, d’autre part, de soutenir la croissance sur le
long terme. Ce travail empirique a reposé sur l’analyse de
données des taux de scolarisation des 12-17 ans sur la
période 1960-1985, et son effet sur le niveau du PIB par tête
en 1985.
Comme le faisait remarquer P. Romer, l’intervention de
l’État est inévitable du fait notamment des externalités
positives qui n’incitent pas les entreprises qui en sont à
l’origine à développer les investissements de R & D de
manière optimale pour la société, puisqu’il n’existe pas de
procédure de marché pour permettre à l’entreprise de
récupérer la totalité des bénéfices. L’entreprise qui innove
ne peut pas cacher son innovation qui est alors imitable par
tout concurrent sans bourse délier. L’information
scientifique et technique est en effet un bien collectif, un
bien non rival avec une exclusion très limitée dans le temps.
La nouveauté technologique dans une firme qui a investi de
manière privée dans la R & D finit par être connue des
autres firmes qui, en disposant de cette connaissance mais
sans avoir investi dans la R & D, réalisent une économie
externe les mettant en situation de faire de meilleurs
résultats que celle qui a assumé tous les coûts de la R & D.
On sait en effet que par le jeu des externalités positives, le
bénéfice social (ou bien-être collectif) est plus grand que le
bénéfice privé de celui qui est à l’origine de l’effet. Par
conséquent, une politique publique incitative (protection de
la propriété industrielle – brevet –, subvention, fiscalité
avantageuse, garanties des emprunts pour financer la R &
D, etc.) à l’investissement dans la R & D, ainsi que les
investissements publics directs dans la R & D peuvent
engendrer une augmentation du bien-être collectif.
Les travaux empiriques tendent à donner crédit à ces
nouvelles théories de la croissance mais en les relativisant.
Par exemple, si Jie Zhang29 a montré que les subventions
publiques à l’éducation privée favorisent la croissance, en
revanche, un peu plus tôt, Mukti P. Upadhyay30 a montré que
les subventions publiques peuvent produire trop d’éducation
de haut niveau, engendrant une insuffisance de travailleurs
non qualifiés bloquant à terme la croissance. Dans leur
rapport au Conseil d’analyse économique de janvier 2004,
Philippe Aghion et Élie Cohen avancent l’hypothèse que le
rôle de l’éducation dépend du niveau de développement
économique. Dans le rapport Productivité et croissance de
Patrick Artus et Gilbert Cette au Conseil d’analyse
économique (juin 2004, Documentation française), le
complément économétrique apporté par Belorgey, Lecat et
Maury, en s’appuyant sur un large panel de pays, valide les
hypothèses de la théorie de la croissance endogène en
montrant que les différences de niveau de productivité entre
pays sont liées aux écarts de développement des
infrastructures publiques, aux écarts de variations de
l’importance de la production et de la diffusion des TIC
(technologie de l’information et de la communication) et
aux écarts de scolarisation. À ces écarts sur des variables
présentées ci-dessus, les auteurs relèvent le rôle de variables
macroéconomiques sur le niveau de la productivité et la
différence des taux de croissance de cette productivité par
pays comme, par exemple, le taux d’emploi (dont
l’influence est négative), et la variabilité de l’inflation (dont
l’influence est également négative) et la durée du travail
(avec des rendements très fortement décroissants). Comme
l’indique Gilbert Cette dans son rapport, ces résultats
confirment, en tout cas pour les années 1970-2002,
l’influence déterminante des investissements publics, des
investissements privés tout particulièrement en produits
TIC, des structures favorisant la mobilisation de l’épargne
(ici l’importance des crédits) et de la stabilité des prix. Mais
comme le signalent Acemoglu-Aghion-Zilibotti (2002), les
institutions les plus favorables à la croissance varient selon
le niveau du développement économique déjà atteint31.
Lorsque le pays a un faible niveau de revenu par tête, les
institutions ou politiques d’investissement sont efficaces,
tandis que pour des pays déjà développés, il faut faire place
aux institutions ou politiques d’innovation. En termes de
variable de l’éducation, cela signifie que le développement
de l’enseignement supérieur et de la recherche devra
s’imposer dans les pays développés qui sont sur la frontière
technologique, tandis que pour les pays loin de la frontière
technologique, leur stratégie devra être d’imiter les pays
développés, ce qui passe par des investissements dans la
formation élémentaire et secondaire. En d’autres termes,
dans les pays moins développés « l’investissement dans
l’éducation supérieure n’est pas une priorité »32.
1 Les principaux théoriciens ou travaux initiateurs du thème de la décroissance
sont : Robert Malthus en tant que précurseur, les travaux du Club de Rome
(Halte à la croissance, 1969) ; Nicholas Georgescu-Roegen, auteur du concept
de décroissance dans le titre de son livre publié en 1979 : Demain la
décroissance. Entropie, écologie, économie, Lausanne ; Pierre-Marcel Favre,
1979, dont les idées essentielles étaient déjà formulées dans Analytical
economics. Issues and Problems. Cambridge, HUP. Traduit en français sous le
titre La Science économique : ses problèmes et ses difficultés, Paris, Dunod,
1970 ; Serge Latouche, Le Pari de la décroissance, Paris, Fayard, 2006.
2 Nicholas Kaldor, « Economic Growth and Capital Accumulation », in F.
Lutz et D. C. Hague, eds, The Theory of Capital, Macmillan, London,1961.
3 Il y a une légère différence dans les calculs : La PTF est obtenue avec pour
dénominateur la moyenne géométrique pondérée des facteurs de production,
alors que la PGF résulte d’une moyenne arithmétique. Cf. Paul Dubois, «
Production et productivité », in X. Greffe, J. Mairesse, J.L. Reiffers,
Encyclopédie économique, Paris, Economica, 1990, tome 1, pp. 817-846.
4 V. Zarnowitz, « Recent Work on Business Cycles in Historical Perspective :
A review of Theories and Evidence », The Journal of Economic Literature 23,
pp. 523-580. 1985.
5 La parité de pouvoir d’achat (PPA) permet de mesurer la quantité de biens et
services qu’une devise permet d’acheter dans chacune des économies ayant des
monnaies différentes.
6 Xavier Sala I Martin, « 15 Years of New Growth Economics : What Have
We Learnt ? », UPF Economics and Business Working Paper, n° 620, 3 Juin,
2002.
7 En particulier le fameux opuscule de Max Weber : L’Éthique protestante et
l’esprit du capitalisme, 1904, ou celui de Werner Sombart : Le Capitalisme
moderne, 1916.
8 Cf. pour une présentation détaillée : Jean Arrous, Les Théories de la
croissance : La pensée économique contemporaine, t. 3, coll. Points, Le Seuil,
1999.
9 J.A. Schumpeter, Théorie de l’évolution économique, 1912, traduction
française (1935, retirage 2003), Dalloz, Paris.
10 « An Essay in Dynamic Theory », Economic Journal, 1939.
11 « Expansion and Employment », AER, 1947.
12 F.P. Ramsay, « A Mathemathical Theory of Saving », Economic Journal,
déc. 1928, vol. 38, n° 152, pp. 543-559.
13 J. von Neumann, « A Model of General Equilibrium », R. E. Studies, XIII,
1945-46.
14 Edmund S. Phelps (« The Golden Rule of Accumulation : A Fable for
Growthmen », AER, vol. 51, pp. 638-643, 1961), Jacques Desrousseaux («
Expansion stable et taux d’intérêt optimal », Annales des Mines, pp. 31-46,
novembre 1961), M. Allais (« The Influence of the Capital-Output Ratio on Real
National Income », Econometrica, vol. 30, pp. 700-728, 1962), Joan V. Robinson
(« A Neoclassical Theorem », Review of Economic Studies, vol. 29, pp. 219-226,
1962), etc. Comme le rappelle le dossier d’attribution du prix Nobel à E. Phelps,
le problème de l’accumulation optimale du capital a été analysé par Edmond
Malinvaud dès 1953 (« Capital Accumulation and Efficient Allocation of
Resources », Econometrica, vol. 21, pp. 233-273).
15 La version anglaise de l’article écrit en flamand est publiée en 1959 dans
L.H. Klaassen, L.M. Koyck et H.J. Witteveen, editors, Jan Tinbergen : Selected
Papers, Amsterdam.
16 J. Tobin, « A Dynamic Aggregative Model », Journal of Political
Economy, vol. 63 (2), pp. 103-15, 1955.
17 R.M. Solow, « A Contribution to the Theory of Economic Growth »,
Quarterly Journal of Economics, vol. 70 (1), pp. 65-94, 1956.
18 T.W. Swan, « Economic Growth and Capital Accumulation », Economic
Record, vol. 32 (2), pp. 334-61, 1956.
19 Ken-Ichi Inada, « On a Two-Sector Model of Economic Growth :
Comments and a Generalization », REStudies, vol. 30 (2), 1963.
20 Le rattrapage qui conduit à l’égalisation internationale des rendements des
facteurs est obtenu par le jeu des rendements décroissants dans les pays riches et
par l’usage de raccourcis technologiques dans les pays qui décollent plus
tardivement (latecomers).
21 Alexander Gerschenkron, Economic Backwardness in Historical
Perspective, Cambridge (Mass.), Harvard University Press, 1962.
22 Odd Aukrust and Juul Bjerke : « Real Capital. and Economic Growth in
Norway 1900-1956 », article, n° 4, Central Bureau of Statistics, Oslo, 1958.
23 John W. Kendrick, Productivity Trends in the United States, Princeton
University Press, 1961 pour le NBER.
24 Edward F. Denison et Jean-Pierre Poullier, Why Growth Rates Differ ?
Brookings Institution (Washington), 1967.
25 Jean-Jacques Carré, Paul Dubois et Edmond Malinvaud : Abrégé de la
croissance française, Un essai d’analyse économique causale de l’après-guerre,
Le Seuil, 1973.
26 Paul Michael Romer, « Increasing Returns and Long Run Growth »,
Journal of Political Economy, vol. 94, n° 5, octobre, 1986, pp 1002-37.
27 Robert Jr., Lucas, « On the Mechanics of Economic Development »,
Journal of Monetary Economics, Elsevier, vol. 22, n° 1, juillet 1988, pp. 3-42.
28 R. Barro, « Government Spending in a Simple Model of Endogenous
Growth », Journal of Political Economy, 1990.
29 Jie Zhang, « Optimal Public Investments in Education and Endogenous
Growth », Scandinavian Journal of Economics, 98, 3, pp. 387-404, 1996.
30 Mukti P. Upadhyay, « Accumulation of Human Capital in LDCs in the
Presence of Unemplyment », Economica, vol. 61 (241), pp. 355-78, août 1994
(trad. de LDCs : pays moins développés).
31 D. Acemoglu P. Aghion et F. Zibilotti : « Distance to Frontier, Selection
and Economic Growth », NBER Working Paper, n° 9191, 2002. L’essentiel du
contenu de ce document est repris dans Philippe Aghion et Elie Cohen ,
Education et croissance, rapport au Conseil d’analyse économique, n° 46, La
Documentation Française, juin 2004.
32 Aghion et Cohen, op.cit., pp. 29.
Chapitre 9
Les fluctuations économiques
L’objet de ce chapitre est de présenter les notions
essentielles pour comprendre la dynamique économique. La
première section exposera les différentes formes d’évolution
des données économiques. La deuxième section sera
consacrée à la présentation des principales causes exogènes
des fluctuations économiques, dites encore oscillations de
l’activité économiques. La troisième section présentera les
grandes catégories de cycles de l’activité économique. La
quatrième section abordera les méthodes de diagnostic
conjoncturel.
1. Les différentes catégories de fluctuation de l’activité
économique
L’activité n’est jamais en croissance continue et linéaire.
Elle n’est même pas permanente. Elle obéit à des rythmes1.
Déjà la Bible indiquait le rythme journalier et
hebdomadaire : « Et vint un soir et vint un matin : premier
jour2… et il s’est mis à se reposer le septième jour de toute
son œuvre qu’il avait faite. » (Genèse 1, I 5-II 3). L’activité
humaine, elle aussi, est soumise à une variabilité au cours
du temps : la journée, la semaine, le mois, la saison, l’année,
ou la génération. Ces rythmes peuvent avoir une base
sociale, cultuelle, climatique ou autre. Par exemple, la
consommation d’énergie n’est pas constante en cours de
journée. Il existe une alternance de périodes de forte
consommation, qui sont appelées les heures de pointes, et
celles de faible consommation ou heures creuses. Le même
phénomène se rencontre dans le transport de personnes (tout
autant individuel que collectif), la consommation de
programmes télévisés, etc. Dans le domaine de la
consommation des biens courants, il est possible de mettre
en évidence un pic des dépenses en début de mois et un
ralentissement dans la deuxième quinzaine dans les pays
ayant adopté la mensualisation des salaires. En France, la
consommation de films dans les cinémas et la
consommation de programmes de télévision sont
relativement faibles de fin mai à fin août. Le prix d’un kilo
de fraises en hiver, i.e. hors saison, est généralement plus
cher qu’en fin de printemps qui est la pleine saison dans
l’hémisphère Nord. Autres exemples d’activités
saisonnières que les étudiants sont en mesure de vérifier : la
parution de la presse quotidienne gratuite dans les périodes
d’activité universitaire, les activités de sports d’hiver dans
les Alpes.
Les mouvements économiques journaliers,
hebdomadaires, mensuels ou saisonniers sont prévisibles et,
par conséquent, ils ne sont pas surprenants pour les agents
économiques et pour les pouvoirs publics. Au-delà de ces
observations banales parfaitement maîtrisées et suscitant
une gestion programmable, l’analyse économique
s’intéresse surtout aux phénomènes perturbateurs de la
croissance économique, difficilement prévisibles, et qui sont
d’une tout autre ampleur par les problèmes sociaux qu’ils
engendrent comme le chômage, la précarité et la baisse du
revenu, sans toujours pouvoir leur donner des solutions
rapides. Leurs causes peuvent être externes ou exogènes au
jeu de l’économie, mais aussi internes ou endogènes à la
sphère de l’économie.
Il faut encore distinguer les fluctuations économiques
globales ou générales qui touchent l’ensemble de
l’économie, et les fluctuations spécifiques à un secteur
d’activité économique avec de faibles répercussions sur le
reste de l’économie. Mais deux ou trois secteurs peuvent
avoir des fluctuations spécifiques susceptibles d’expliquer
par leur opposition de phases un amortissement de leurs
effets sur le reste de l’économie. Il peut aussi arriver que les
fluctuations soient en phase et engendrent un effet de
résonance, i.e. une amplification des fluctuations générales.
Ces deux phénomènes s’observent aussi au niveau
international, par comparaison des niveaux d’activité de
plusieurs pays. Le phénomène le plus courant est l’existence
d’un secteur moteur ou leader, ou d’un pays leader. Les
autres secteurs ou pays deviennent suiveurs, produisant
alors un décalage conjoncturel pour leur taux de croissance
de leur valeur ajoutée brute ou de leur PIB (g).
Figure 9.1
. Formes de fluctuations pour deux
secteurs ou deux pays
Avant d’analyser les causes des fluctuations économiques
générales, il est nécessaire d’identifier dans les données
temporelles des grandeurs économiques ces variations de
l’activité économique qui ne sont pas saisonnières. Il s’agit
alors de procéder à la désaisonnalisation de la série
chronologique.
2. Les chocs exogènes sur l’économie
Le rythme de la croissance peut être affecté par des chocs
exogènes (induits par l’environnement extra-économique)
de caractère plus ou moins cyclique au sens de leur
récurrence qui se manifeste suivant une périodicité et selon
une amplitude entre le creux et le sommet de l’activité plus
ou moins régulières ou constantes. Il peut s’agir d’une
concomitance sans explication sur la relation entre les
phénomènes, comme par exemple les cycles des tâches
solaires (théorie de William Stanley Jevons). Mais le plus
souvent, la relation de détermination est argumentée. Ces
chocs sont de natures les plus diverses. Ils peuvent avoir
pour origine :
- les élections de niveau national qui se font à
intervalles réguliers et qui suscitent, dans ce cas,
des cycles politico-économiques (cf. chapitre 2) ;
- les changements climatiques qui obéissent à des
cycles. Les auteurs associés à l’étude de ces cycles
d’origine climatique sont principalement William
Stanley Jevons, Henry Ludwell Moore, Johan
Henryk Åkerman et Raymond Wheeler. Mais c’est
dans la Bible (la Thora ou Pentateuque) que l’on
trouve la première formulation du phénomène du
cycle climatique avec l’apologue de Joseph, dit «
des sept vaches grasses et des sept vaches maigres
», métaphore qui désigne, par évaluation du niveau
des eaux du Nil en fonction des pluies en amont et
de la période de sécheresse, le nombre d’années (7
vaches) de pléthore et de disette ;
- les évolutions démographiques qui sont à la base de
la théorie de Robert Malthus et la théorie du cycle
de fécondité, plus connue sous l’expression de
cycle d’Easterlin. Pour Malthus, nous avons déjà
exposé sa théorie démo-économique. En résumé,
l’évolution démographique cyclique en fonction des
subsistances disponibles par tête engendre un cycle
de l’activité générale. Richard A. Easterlin, dans
plusieurs publications3, actualise cette approche sur
des bases empiriques pour les États-Unis, mais sans
reprendre la théorie du salaire naturel minimal et de
la forte mortalité infantile qui lui est associée. Dans
le monde moderne, les familles peuvent planifier
les naissances, et les cohortes sont fonction des
niveaux de vie et de la facilité d’accès au marché
du travail de la cohorte précédente. Par exemple,
une insertion difficile sur le marché du travail et
une dégradation du niveau de vie par rapport à celui
des parents conduisent à une faible fécondité, au
développement du travail des femmes, tandis
qu’une amélioration sur ces deux chapitres – un
haut niveau de vie et une insertion facile sur le
marché du travail – est suivie d’une augmentation
de la fécondité ;
- les conflits entre les nations, mais leur caractère
récurrent n’est pas pour autant cyclique. Une
multitude d’autres chocs sont envisageables dont
les innovations technologiques déjà présentées dans
le chapitre 8mais sur lesquelles nous reviendrons
plus loin.
Pour les économistes de la théorie des cycles réels4, les
chocs ont des effets durables sur la croissance. Un choc
déclenche des fluctuations ou des oscillations qui
s’amortissent au cours du temps, mais l’économie ne
retrouve pas le sentier ou sa tendance à long terme identifiée
avant ledit choc. Cette théorie qui ignore les problèmes
monétaires et financiers a suscité diverses critiques.
La première critique est la contestation du réductionnisme
qui voit dans toute fluctuation la conséquence d’un choc
réel, car il n’y a pas que des cycles réels. Dans le cadre de
cette critique, on affirme que les variables monétaires et
financières ne sont pas sans effet sur la sphère réelle de
l’économie. Il suffira d’évoquer la crise financière avec le
krach qui s’est produit entre le 15 et le 22 septembre 2008 et
ses répercussions sur l’activité économique de la plupart des
pays pour exprimer la portée limitée de cette théorie des
cycles réels, qui revient à l’économie prékeynésienne. En
effet, lorsque les banques subissent une perte abyssale de la
valeur de leur patrimoine du fait de la chute des cours en
bourse, il y a une forte probabilité qu’elles ne se
comporteront pas pour les demandes de prêts qu’elles
recevront des investisseurs avec autant de nonchalance ou
d’insouciance que dans la phase qui précède le krach, celui
du paradoxe de tranquillité qu’évoque H. Minsky pour
expliquer les crises financières. Pour les ménages ayant
placé leur épargne financière sur des actifs en unités de
compte plutôt que sur des valeurs en monnaie de
transaction, la chute des cours entraîne celle de la valeur de
leur patrimoine. La reconstitution de l’épargne pour des
projets futurs programmés obligera certains à envisager une
diminution de leur consommation, ce qui n’est pas sans
effets sur l’économie réelle, sauf si la baisse des cours est
accompagnée d’une baisse générale des prix, l’encaisse
réelle restant alors stable.
3. Les théories des fluctuations endogènes et les cycles
généraux de l’économie
Les fluctuations du taux de croissance peuvent avoir des
origines internes à la logique économique. Plusieurs
théories ont été proposées dans le passé débouchant, dans
certains cas, sur des conceptions de cycles périodiques
généraux à périodicité variable selon la nature des causes de
la cyclicité.
Les décalages entre la perception du revenu et la dépense
(retard de Robertson), entre la dépense et la mise en œuvre
de la production (retard de Lundberg), les délais
d’ajustement en général, les mauvaises anticipations des
agents, la mobilité imparfaite des fac-teurs de production et
diverses autres rigidités sont les phénomènes le plus souvent
évoqués dans la persistance des fluctuations économiques.
3.1. Les phases du cycle des affaires
Les cycles économiques sont des fluctuations plus ou
moins régulières, de fréquences relativement périodiques et
d’amplitudes plus ou moins fixes de l’activité économique.
Les fluctuations cycliques sont, théoriquement, telles que le
graphique des indicateurs retenus (PIB, taux de croissance
du PIB, production industrielle, production agricole, etc.) en
fonction du temps ait une allure sinusoïdale, comme
l’indique la figure 9.2.
Fig. 9.2
. Cycle et la tendance
Le cycle comprend quatre phases : l’expansion, la crise,
la contraction, la reprise.
1 – L’expansion qui a pour synonymes prospérité, essor,
boum des affaires, est une phase d’augmentation du PIB,
avec des taux de croissance soutenus sur plusieurs années
(de 3 à 6 ans). Dans cette phase, les revenus, les
investissements, l’emploi, la consommation sont tous
orientés à la hausse, et cela très fortement au début du
processus. Toute demande de prêt ou de crédit est accordée
sans difficulté. Les taux d’intérêt sont au début de
l’expansion très bas, mais commencent à se tendre par la
suite, ce qui annonce la fin prochaine de l’expansion. Les
prix ont tendance à augmenter, faiblement au début, puis
plus fortement par la suite. Cette évolution des prix
conjuguée avec celle des taux de l’intérêt, s’accompagne du
ralentissement de l’investissement et du taux de croissance.
2 – La crise exprime la fin de l’expansion. C’est un
moment d’incertitude : l’économie va-t-elle repartir sur son
sentier d’expansion ou bien les gains de cette phase
d’expansion seront-ils remis en question ? Elle correspond
au sommet ou pic dans l’évolution du PIB. Dans le langage
courant, la crise est souvent confondue avec les problèmes
qui l’accompagnent et qui ne se manifestent que dans la
phase suivante de récession ou de dépression. Le terme crise
vient du grec krisis qui signifie décision. La crise est donc
un moment très court d’incertitude sur l’évolution de
l’économie qui peut aussi bien reprendre son expansion,
stagner ou revenir vers des niveaux de production et de
revenu plus faibles. Au cours du XIXe siècle et du début du
XXe siècle, les crises se sont succédé avec une périodicité de
10 ans environ : 1825, 1836, 1847, 1857, 1866, 1873, 1882,
1890, 1900, 1913, 1920, 1929.
Entre 1945 et 1973, les récessions ont remplacé les crises.
Il s’agit alors seulement d’une baisse du taux de croissance
exprimant un ralentissement de la croissance du PIB. La
récession comme perte de ce qui a été obtenu, i.e. de baisse
du niveau absolu du PIB, est réapparue à partir de 1973-
1974, suite au premier choc pétrolier (quadruplement du
prix du pétrole). Une nouvelle récession avec diminution du
PIB se produit avec le deuxième choc pétrolier de 1979-
1980 (doublement du prix du pétrole). Une troisième
récession est observée à la suite de la guerre de Golfe qui a
suivi l’invasion du Koweit par l’Irak en 1991, avec des
manifestations plus tardives en Europe par rapport aux
États-Unis.
3 – La contraction est une phase de diminution de
l’activité économique. Elle peut être soit une récession (qui
signifie aller en arrière) enregistrée en tant que telle après
deux trimestres consécutifs à taux de croissance négatif et
qui dure peu de temps, soit une dépression qui correspond à
une diminution plus sensible du taux de croissance, et cela
sur une plus longue période que l’année. Dans la phase de
contraction grave, des entreprises disparaissent, des emplois
sont détruits, le crédit est plus difficile à obtenir, la hausse
des prix est ralentie et laisse même la place à la déflation.
Mais la récession qui a suivi la crise de 1973 présente
l’originalité d’associer la hausse des prix avec les faillites et
le chômage. C’est ce que les Anglo-Saxons ont appelé la
Slumpflation (slump = dépression) que l’on peut traduire par
depflation et qui a fait suite à la stagflation apparue en
Grande Bretagne dès 1967.
La dépression rencontre un plancher constitué par les
dépenses incompressibles des ménages et des
administrations publiques. Mais il est probable qu’un
important désengagement de l’État puisse faire que ce
plancher soit très bas, sans pour autant nier qu’un déficit
public puisse être accompagné d’un effet d’éviction des
particuliers, avec en plus des ménages qui augmenteront
leur épargne pour payer les impôts futurs destinés au
remboursement des emprunts publics suscités par ce déficit,
comme l’indique l’axiome d’équivalence ricardienne entre
l’impôt et l’emprunt.
4 – La reprise apparaît à la fin de la récession ou de la
dépression. Cette reprise, et comme cela a été indiqué ci-
dessus, peut être automatique, par renouvellement des
équipements et reconstitution des stocks, mais elle peut
aussi résulter du comportement des investisseurs qui se
présentent pour emprunter, les taux d’intérêt ayant
fortement baissé au cours de la phase de contraction. Des
mesures de relance prises par les pouvoirs publics,
l’existence de nouvelles opportunités et le lancement de
nouveaux produits sont les divers autres facteurs de la
reprise. La reprise est aussi la conséquence des mesures
adoptées par les entreprises pour sortir de la dépression ou
de la récession.
La droite ajustée sur les différentes valeurs du PIB au
cours du temps constitue la tendance (ou trend en anglais).
L’ajustement graphique peut être fait à main levée entre les
points bas des fluctuations et les points élevés. Pour une
prévision plus rigoureuse des valeurs probables de la
prochaine période, on utilise différentes méthodes
économétriques (moyenne mobile, régression linéaire par
les moindres carrés, etc.),
3.2. La typologie des cycles généraux
Les cycles observés ne correspondent pas toujours à la
définition théorique. L’amplitude est variable, la reprise ne
se fait pas toujours au même niveau que par le passé, sauf
dans les économies naturelles qui cultivent le cercle de
l’éternel retour. La crise se fait à des niveaux d’activité
variables et généralement de plus en plus élevés. La phase
de dépression de l’activité économique est plutôt rare, de
sorte que la crise, point de retournement, se transforme en
récession qui désigne une phase de moindre croissance. La
périodicité des crises et des reprises est variable. Les cycles
généraux du plus long au plus court, avec indication de
l’auteur qui les a révélés en premier suivant en cela
partiellement la classification schumpétérienne5, sont :
- les cycles de Wheeler, d’origine climatique, de 100,
500 et 1 000 ans. Ces cycles ont été présentés dans
le chapitre 4en exposant le facteur naturel. On
rappellera seulement que selon Raymond Wheeler,
il existerait des climats favorables au
développement des civilisations. Il convient de
noter que l’historien anglais Arnold Toynbee (1889-
1975), le neveu de l’analyste de la Révolution
industrielle qui s’appelle aussi Arnold Toynbee6, est
à l’origine de la mise en évidence de cycles de
même périodicité pour les civilisations. Il en a
identifié 21. La naissance et le développement
d’une civilisation reposent sur une minorité
créatrice et le déclin est la conséquence de
l’affaiblissement des forces, le tout s’inscrivant
dans la dialectique du défi et de la réponse
(challenge and response). Un monde sans défi à
surmonter serait un monde atone de l’état
stationnaire ;
- le cycle de Kondratief7 ou cycle de longue durée de
50 à 60 ans. Depuis 1790 à 1940, il y aurait eu trois
kondratief. Un quatrième aurait commencé en 1940
avec pour sommet 1970-1973 et se serait terminé
vers 1995-2000. Ses facteurs sont des plus variés,
mais J.A. Schumpeter considère que le kondratief
serait lié à des révolutions industrielles et
technologiques. Dans la phase de croissance, les
entreprises utilisent les technologies qui ont été
mises au point dans la phase B de contraction,
phase dans laquelle l’inquiétude générale pousse à
la recherche de nouvelles idées, de nouveaux
produits, de nouvelles techniques pour sortir du
marasme. Une fois ces solutions trouvées,
l’économie repart, et on ne voit pourquoi maintenir
le même effort de recherche que celui soutenu dans
la dépression, puisque l’économie n’a pas de
problème. Mais ces technologies s’essoufflent.
L’arrivée de la crise est le moment inévitable, si ce
n’est pas un phénomène indispensable, qui fait
prendre conscience qu’un changement est
nécessaire pour aller de l’avant : c’est ce que
Schumpeter appelle « le processus de la destruction
créatrice » qui résulte de l’innovation. Il distingue
l’innovation majeure qu’on assimile à la révolution
industrielle et les innovations de moindre ampleur
mais rattachées et qui en assurent la diffusion. Ce
sont les grappes technologiques. À partir d’une
innovation majeure partent des ramifications, une
arborescence avec une multitude de branches qui
correspondent à des innovations particulières. Par
exemple, le microprocesseur inventé par Marcian
Hoff en 1971 et qui a servi à la fabrication du
premier ordinateur Intel 4004 est, de nos jours, dans
un grand nombre de produits qui dépendent de
l’électronique, ces biens vont de la téléphonie à
l’internet en passant par les appareils
photographiques numériques, les machines outils à
commande numérique, etc ;
- le cycle de Hansen-Isard ou hypercycle ou cycle du
bâtiment et des transports8, d’une durée de 18 à 22
ans. Il est spécifique à la Grande-Bretagne et aux
États-Unis ; on parle aussi du cycle de Kuznets,
mais dans ce cas, il s’agit de fluctuations du taux de
croissance au lieu d’une suite des phases
d’expansion et de contraction du PIB réel, et la
périodicité est légèrement différente (15-20 ans)9 ;
- le cycle de Juglar, également connu sous les
expressions de cycle moyen, cycle majeur de
conjoncture. Sa durée est de 6 à 10 ans. Il est sur le
rythme de l’amortissement des biens d’équipement,
même si dans la théorie de Clément Juglar (1819-
1905)10, l’explication privilégie l’abus de crédit par
les banques au-delà des réserves métalliques qui
constituent la contrepartie de la masse monétaire ;
- le cycle de Kitchin qui porte plusieurs
dénominations : cycle mineur, hypo-cycle, cycle
court, cycle des stocks. Sa durée est de 36 à 60
mois. Le statisticien anglais Joseph Kitchin11
considère que le cycle majeur est une enveloppe de
deux ou trois cycles mineurs qu’il a mis en
évidence en 1923. Mais c’est Moses Abramovitz en
194812 qui a montré que le cycle des stocks
(inventories en anglais) suivait le cycle de l’activité
économique générale, alors que Kitchin n’évoquait
que des causes psychologiques.
3.3 Les théories explicatives du cycle de conjoncture
La présentation des différents cycles ci-dessus a évoqué
certaines explications des fluctuations. En dehors du cycle
de conjoncture, elles sont généralement admises par la
communauté scientifique. Quant au cycle majeur de
conjoncture qui correspond au cycle de Clément Juglar,
plusieurs théories explicatives sont en concurrence, bien que
le plus souvent ces théories soient plutôt celles des crises
que celles des fluctuations.
Une crise, c’est l’arrêt du processus de croissance. Les
entreprises réduisent leur activité car les stocks
s’accumulent. A-t-on trop produit, ou bien les acheteurs
potentiels ne disposent-ils pas de moyens suffisants ? Dans
un premier temps, les théories économiques se sont
positionnées sur cette alternative très simplifiée.
- L’adhésion à la loi des débouchés de Jean-Baptiste
Say revient à nier l’existence de crise générale de
surproduction. Il peut y avoir surproduction dans un
secteur si d’autres secteurs ne produisent pas assez,
car les produits s’échangent contre les produits.
- Les précurseurs de Keynes et la théorie keynésienne
introduisent le rôle de la monnaie thésaurisée. Ce
qui est produit n’est pas consommé totalement. Il y
a insuffisance de la demande effective : constitution
de stock, ralentissement de la production, chômage.
La crise est le résultat soit de la sous-consommation
soit de l’excès d’épargne.
- Marx montre que la crise est la conséquence logique
de la contradiction du capitalisme, de la
concurrence et de la loi de l’accumulation qu’elle
suscite. La concurrence oblige le capitaliste à
augmenter son capital constant (phénomène de
suraccumulation) et à réduire sa base, le capital
variable. La suraccumulation du capital entraîne
une surproduction. La substitution du capital
constant au capital variable entraîne l’apparition
d’une armée industrielle de réserve (chômage) sans
moyen pour consommer. La crise est alors un
moment de nettoyage, de restructuration du
capitalisme par disparition des entreprises
incapables de supporter la concurrence.
- Le Français Albert Aftalion met l’accent sur les
décalages entre la date de la demande et le moment
où l’offre peut la satisfaire. L’investissement est en
opération au moment où la demande n’est plus là.
- Avec le Suédois Knut Wicksell le surinvestissement
résulte d’un taux d’intérêt du marché monétaire
inférieur au taux naturel (productivité marginale du
capital). Les entrepreneurs empruntent et
investissent puisque c’est une aubaine. Les
administrateurs de banques se rendent compte avec
retard qu’il faut relever le taux afin que le taux
monétaire corresponde au taux naturel. Dans cette
opération le taux augmente et dépasse le taux
naturel, les responsables des entreprises prennent
conscience un peu tard que les taux du marché sont
plus élevés que le taux naturel. Les investissements
s’arrêtent, la croissance s’arrête, la contraction se
produit. Les banquiers prennent conscience de ce
retournement avec retard. Le taux du marché baisse
progressivement et passe sous le taux naturel.
Lorsque l’écart entre le taux naturel et le taux
monétaire est important, les entrepreneurs
reprennent de nouveau les investissements,
relançant l’activité (cf. Intérêt et prix, 1898).
- L’explication wicksellienne influence la plupart des
théories monétaires du cycle de la première moitié
du XXe siècle : celle de F.A. von Hayek qui montre
la déformation de la structure de production par un
surinvestissement financé par un excès de création
monétaire, au lieu d’un financement par l’épargne
spontanée, tout rentrant dans l’ordre par l’inflation
qui constitue de l’épargne forcée (cf. Prix et
Production, 1931) ; celle d’Irving Fisher présentée
en termes de surendettement et de déflation, mais le
surendettement s’explique par des anticipations
d’un taux de profit supérieur au taux d’intérêt, du
fait des innovations technologiques susceptibles
d’être lancées (cf. « The Debt-Deflation Theory of
Great Depressions », Econometrica 1.3, 1933, pp.
337-357, voir la traduction et le commentaire de R.
Boyer dans le n° 3 de la Revue française
d’économie, 1988) ; celle de Ralph George Hawtrey
qui repose sur le comportement des banquiers qui
accordent facilement du crédit en se refinançant
auprès de la Banque centrale (en dépassant la
couverture métallique avant 1914), favorisant
l’expansion économique, la dépression survient
lorsque la Banque centrale ne peut plus fournir la
monnaie aux banques commerciales, la dépression
survient alors (cf. The Trade Cycle, 1926).
Avec la crise financière de septembre 2008 préparée par
la crise des crédits hypothécaires à risque (subprime) de
l’été 2007, l’explication par le comportement des banques a
suscité un nouvel intérêt, redonnant aux analyses de Hyman
Minsky une actualité que les crises financières sans impact
sur l’économie réelle des trente années précédentes avaient
conduit à négliger. Il faut cependant reconnaître que les
crises financières ont des effets variables.
Dans certains cas, elles donnent lieu à des contagions
entre places financières sans conséquences sur l’économie
réelle lorsque le choc initial est circonscrit à la sphère
financière (krach boursier du 19 octobre 1987) et dans des
pays à faible pouvoir économique (crise asiatique de 1997).
Dans d’autres, comme le krach d’octobre 1929 et celui de
septembre 2008, la crise financière et la crise réelle sont en
phase et se produisent d’abord dans une économie
dominante et/ou dans plusieurs pays simultanément. L’effet
de résonance est inévitable. La crise boursière annonciatrice
d’un ralentissement de l’activité économique se traduit par
la chute de la valeur des actions détenues par les entreprises
et par les institutions financières. Les entreprises avec un
actif dévalorisé ont des difficultés à emprunter pour financer
leurs investissements ou même pour avoir des facilités de
paiement. Les institutions financières ont elles aussi une
diminution de la valeur de leur portefeuille. Le crédit
qu’elles peuvent accorder est réduit. Une crise de liquidité
succède à une période d’insouciance, comme Minsky l’avait
expliqué avec son paradoxe de la tranquillité.
Encadré la crise de 2008
Le krach de septembre 2008 était annoncé depuis au
moins deux ans comme conséquence du développement de
la bulle immobilière facilitée par la politique d’Alan
Greenspan après le krach en douceur des années 2000-2003.
Les années qui ont suivi ont été celles où l’on a vu
s’appliquer, comme jamais aussi nettement et avec autant de
nonchalance, le principe du « paradoxe de la tranquillité »
selon la formule explicative des crises financières proposée
par Hyman Minsky. En effet, la préoccupation principale,
ou l’urgence, des pouvoirs publics dans le domaine
financier, dans la plupart des pays développés, était d’éviter
l’assèchement du crédit, de sortir des suites de l’éclatement
de la bulle internet (bulle spéculative, de regonfler les cours
boursiers, de redonner confiance aux investisseurs sur les
marchés financiers. Dans ce contexte, la croissance stable et
durable, qui relève des moyen et long termes, semblait
moins préoccupante, surtout dans les pays qui comptaient
sur l’effet démographique pour enregistrer de bons
indicateurs d’emploi. La crainte de la récession étant passée,
en l’absence de toute inflation dans des économies
développées et avec un taux de croissance relativement
stable, la politique a consisté un peu partout non seulement
à relâcher l’attention des gestionnaires de la finance, mais à
soutenir au-delà du raisonnable des opérations
d’acquisitions immobilières, notamment, pour ce qui est des
États-Unis, en vue de permettre l’accès à la propriété des
catégories sociales jusque là défavorisées. Cela a consisté en
une forte baisse des taux courts, suivie de celle des taux
longs, ayant pour effet le développement des emprunts
immobiliers des ménages. Les facilités pour emprunter et
acheter des appartements et des maisons ont fait monter les
cours de l’immobilier.
Du fait des taux courts faibles, la consommation à
tempérament se trouve dès lors en résonance avec la
demande immobilière. La flambée des prix de l’immobilier
suscite un effet d’enrichissement qui autorise toute nouvelle
opération financée par emprunt gagé sur l’immobilier. La
comptabilisation des actifs à leur valeur présente sur le
marché, en application des nouvelles normes IFRS, gonfle
les actifs des institutions qui ont consenti des prêts
hypothécaires ou de celles qui ont acquis les effets
représentatifs de ces prêts. Le système n’est qu’une
illustration de la finance Ponzi avec pour victime la planète
entière par le biais de globalisation financière, puisque les
banques du reste du monde investissaient dans les titres
émis par les banques dont l’actif ne cessait de se revaloriser
artificiellement.
Comme Christian Chavagneux l’avait annoncé dès 2006
dans l’éditorial du numéro spécial de la revue L’Économie
politique13 consacré à Alan Greenspan, « la dette des
ménages dépasse 120 % de leur revenu disponible, la
demande interne a soutenu la progression d’un déficit
extérieur équivalent à 6,5 % du PIB… Un jour prochain, ces
déséquilibres entraîneront une forte chute (des prix des
maisons, du dollar et de la croissance) dont le monde entier
aura du mal à se remettre ». La prédiction a été vérifiée. Les
causes de la crise financières sont en fait nombreuses :
- le laxisme des autorités monétaires des banques
centrales ;
- l’endettement des Américains et de l’Amérique avec
la croissance des déficits jumeaux (déficit du budget
de l’État fédéral et déficit de la balance des
transactions courantes) qui dès son ralentissement
met en difficulté les entreprises et les pays
fournisseurs ;
- l’inefficience des marchés financiers, i.e. une
information imparfaite et donc non fiable sur la
valeur des firmes ;
- des agences de notation ne disposant pas de
l’information fiable, qui appliquent aux produits
structurés risqués la note attribuée à l’émetteur. Une
banque saine qui vend à une autre banque, pour
avoir des liquidités et pouvoir prêter davantage (ou
pour se débarrasser de créances douteuses ?), ses
créances correspondant des prêts consentis pour
l’achat d’une voiture ou d’un appartement, ne
signifie nullement que, par cette opération de
titrisation, elle garantit la solvabilité du débiteur.
Ces notations non corrigées expliquent que les
meilleures banques ont ainsi acheté des créances ou
produits toxiques, alors que les risques élevés sont
affichés face aux rendements miraculeux. C’est à
cause de cette diffusion d’informations trompeuses
sur la valeur des créances que, par exemple, la
banque Lehman Brothers notée triple AAA (la
meilleure note) fin janvier 2008 est déclarée en
faillite le 15 septembre 2008 soit moins de 9 mois
plus tard ;
- l’usage de modèles mathématiques de prévision des
cours type brownien inadaptés aux situations à
risques élevés et à faible probabilité, comme l’ont
expliqué Olivier Le Courtois et François Quittard-
Pinon14 ;
- un prêteur en dernier ressort (PDR) paternaliste,
favorisant l’aléa moral, en ignorant les
préconisations de l’Anglais Walter Bagehot (1821-
1877), le premier à douter de la qualité de
l’information financière. Bagehot, constatant la
panique que suscitaient les crises financières à son
époque, préconisait de fournir de manière illimitée
les liquidités dont les banques avaient besoin pour
le financement de l’activité pour éviter de la sorte
une dépression plus profonde, mais ces liquidités
devaient être effectuées à des taux élevés en
comportant des garanties sérieuses (voir l’article de
Marc Flandreau envoyé le 25 septembre 2007, soit
un an avant la crise générale, au blog de
L’Économie politique15. Le paternalisme du PDR
s’est manifesté par le laxisme depuis la crise
financière asiatique de 1997. En effet, selon Michel
Aglietta16, la crise de 2008 n’est que la conséquence
d’un laxisme décennal à la Minsky sous la forme de
l’excroissance de la sphère financière, favorisant la
croissance de l’endettement à court terme des
ménages, des entreprises, des États, auquel s’ajoute
le financement de la spéculation immobilière, un
peu partout dans les pays développés. Dans ce
contexte, les excès des crédits hypothécaires à
risques ne sont plus qu’un épiphénomène dans cet
ensemble ;
- Les théoriciens de la synthèse néoclassique
keynésienne (J. R. Hicks, P.A. Samuelson, voir
chapitre 4ci-dessus) proposent, sous différents types
d’oscillateur, une explication par interaction du
multiplicateur, qui favorise la stabilité, et de
l’accélérateur (déstabilisateur du fait que
l’investissement suit plus que proportionnellement
la demande).
- D’autres auteurs évoquent le comportement de l’État
qui entretient artificiellement l’expansion puis
bloque les crédits (politique de stop and go ou
politique en coup d’accordéon).
4. Le diagnostic conjoncturel
Du point de vue du diagnostic, un retournement
conjoncturel est admis lorsque les données en rupture avec
la tendance passée sont observées pendant trois mois
consécutifs.
Pour un conjoncturiste, ce qui est important c’est de
pouvoir anticiper ces retournements conjoncturels. Des tests
conjoncturels qualitatifs (questionnaires qui recueillent
l’opinion des chefs d’entreprise sur leur activité actuelle et
future, indicateurs sur le moral des ménages) et des
baromètres sont construits par des instituts de conjoncture.
Ces différents indicateurs sont classés dans trois catégories
par rapport à une donnée de référence qui est généralement
l’évolution de la production industrielle qui donne une
bonne approximation de l’évolution du PIB (celui-ci étant
connu trop tardivement) : indicateurs avancés ou
précurseurs dits encore prodromes, indicateurs coïncidents
ou contemporains, indicateurs retardés ou confirmants.
À titre d’exemple, il est apparu que les indicateurs
monétaires et financiers sont des indicateurs avancés ; M1
est un indicateur avancé de 6 mois du PIB réel dans un
grand nombre de pays développés. Aux États-Unis comme
au Canada, un ralentissement de la croissance de M1 est
suivi d’une récession du PIB.
Les spreads de taux d’intérêt, différences entre un taux
court à trois mois et un taux long à dix ans, sont d’une
grande fiabilité en ce sens que l’on a souvent observé
qu’une réduction de l’écart de taux ou une inversion de la
courbe des taux annonce généralement un ralentissement ou
une récession. Les indices boursiers sont le produit des
comportements d’agents mieux informés sur les
perspectives économiques des firmes, mais les bulles
démontrent aussi, que les comportements grégaires sont la
manifestation d’une information imparfaite et incomplète.
Exception faite des bulles spéculatives qui ne sont pas si
fréquentes, l’avance des indices boursiers sur la tendance du
PIB n’est cependant que de trois mois. Erwan Gautier17 a
montré la grande fiabilité de ces indicateurs monétaires et
financiers pour les États-Unis où existent des séries
statistiques longues.
Le recours à un indicateur composite formé de plusieurs
indicateurs relevant de différents domaines est cependant
nécessaire car il n’existe pas d’indicateur avancé simple
fiable. Le diagnostic est plus sérieux lorsque plusieurs
variables prodromiques sont corrélées positivement.
2) le moral des ménages (indice de confiance) est un
indicateur coïncident,
3) le taux de chômage est un indicateur retardé (des
difficultés ne suscitent pas instantanément des licenciements
et une reprise se traduit d’abord par l’augmentation de la
productivité avant celle de l’embauche).
L’investissement suit les bénéfices réalisés,
conformément à la logique classique de l’épargne préalable,
mais l’emploi suit la consommation et non l’inverse, et cela
est en revanche conforme à la théorie keynésienne. C’est
ainsi qu’au Canada, Maurice Marchon a mis en évidence : «
Ce sont les dépenses de consommation qui devancent la
création d’emplois et l’augmentation du revenu personnel
disponible. Tout au long du cycle économique le taux de
croissance annuel des dépenses de consommation précède
l’accéléra-tion de l’emploi et en récession le taux annuel de
variation des dépenses de consommation décélère avant
celui de l’emploi. »18
Pour la France, les séries composantes qu’utilise l’OCDE
pour le calcul de l’indicateur composite avancé sont :
immatriculations de voitures de tourisme neuves (nombre) ;
indice de confiance des consommateurs (solde en %) ; taux
d’intérêt EONIA*19 (% par année) ; perspectives de
production (industrie manufacturière) (solde en %),
perspectives dans l’industrie (solde en %) ; stocks de
produits finis : niveau (industrie manufacturière) (solde en
%) ; indice du cours des actions SBF 250 (2000, base 100) ;
termes de l’échange20 (2000, base 100); écart de taux
d’intérêt (% par année) et nouvelles offres d’emploi
(nombre). La série de référence utilisée pour le calcul est :
indice de la production industrielle totale pour l’industrie
excluant la construction, corrigé des variations saisonnières,
2000 base 100.
5. Les modèles d’analyse de la conjoncture
L’analyse par les marchés, inspirée de la théorie de
l’équilibre général de Walras dans sa forme statique et a-
spatiale, ignore les déséquilibres du type chômage
involontaire, inflation avec modification des prix relatifs,
déficit ou excédent des échanges extérieurs. Dans ce
système, l’État, en outre, a pour seule fonction de fournir les
biens publics collectifs purs financés à l’équilibre par
l’impôt considéré comme une contribution.
Cette approche, que l’on qualifie de néoclassique, a
longtemps réduit le rôle de la monnaie aux deux seules
fonctions d’étalon et de transaction sans influence sur
l’équilibre réel. Une telle hypothèse est conforme à la
logique de la statique conduisant à la loi de Walras : la
monnaie est un énième bien dont le prix est égal à 1. Une
telle loi n’est que la reprise de la loi des débouchés de J.-B.
Say, selon laquelle « les produits s’échangent contre les
produits », et de l’hypothèse de la neutralité de la monnaie.
L’approche macroéconomique keynésienne attribue au
contraire à la monnaie, par sa fonction de réserve de valeur,
i.e. de moyen susceptible d’être épargné, un rôle de « pont
entre le présent et l’avenir ». Elle revient donc à prendre en
compte le temps. La monnaie n’est plus un bien quelconque
mais un instrument d’une nature spécifique dont la valeur
est indépendante de sa substance, susceptible d’être
demandé pour lui-même en vue, éventuellement, de réaliser
des opérations d’achat futures. Par cette épargne, l’argent
gagné n’est pas instantanément dépensé ; autrement dit, un
déséquilibre de flux se manifeste, même si, de manière
comptable, on vérifie toujours que l’épargne est égale à
l’investissement. En effet, affirmer une évidence du type «
les ventes sont nécessairement égales aux achats », c’est
exprimer un équilibre comptable qui, du point de vue des
macroéconomistes raisonnant en termes de flux et de circuit,
et non plus en termes de prix et de marché, n’implique
nullement la réalisation d’un équilibre optimal ou idéal.
Au demeurant, la réalité du chômage, son caractère
durable et le fait qu’il soit de masse et non pas d’exception
dans un grand nombre de pays ainsi que les multiples
dysfonctionnements des économies nationales et du système
monétaire international ont conduit au maintien d’une
recherche économique d’inspiration keynésienne très active,
ce qui revient à abandonner la démarche déductive avec ses
hypothèses irréalistes de l’équilibre général.
La position keynésienne revient à affirmer que l’équilibre
global est compatible avec un sous-emploi (chômage) ou un
suremploi (inflation). En d’autres termes, l’équilibre global
est un déséquilibre ex ante, i.e. lorsque les agents non
coordonnés font leurs prévisions. En revanche, ex post, i.e.
en réalisation, il est bien évident que les dépenses sont
égales au revenu ou à la production. Ce qui n’est pas vendu
constituera un investissement sous forme de stocks, de sorte
que, si l’épargne des agents consommateurs était ex ante (au
départ) supérieure à l’investissement (envisagé par les
producteurs), ex post l’augmentation de l’investissement par
les stocks rétablit l’équilibre comptable.
L’objet de cette section est de présenter progressivement
les mécanismes du modèle d’équilibre global et de donner
ensuite brièvement, sur la base du modèle conciliant
l’analyse en termes de marchés et l’analyse en termes de
flux, dit modèle IS-LM pour l’économie fermée et IS-LM-
BP pour l’économie ouverte, les principales stratégies de
politique conjoncturelle face aux problèmes du chômage, de
l’inflation et du déficit des échanges extérieurs.
5.1. L’équilibre global en termes réels
L’objet de ce paragraphe est de développer le modèle
keynésien esquissé dans le chapitre 2. Dans un premier
temps, l’économie sera supposée fermée (autarcie
complète), sans intervention explicite de l’État. Celui-ci sera
pris en compte dans une étape ultérieure, puis viendra le
tour du reste du monde, par le biais, respectivement, des
dépenses publiques et des impôts pour le premier, des
importations et des exportations pour le second.
5.1.1. Le schéma de la droite à 45 ° : les écarts
inflationnistes et déflationnistes
Dans une économie fermée, sans l’intervention de l’État,
la demande globale est constituée par la consommation (C)
et l’investissement (I), tandis que l’offre globale est la
somme de la consommation (C) et de l’épargne (S). La
valeur de ce qui est dépensé (Y) est égale à la valeur de ce
qui est produit (Y). Selon la loi de Jean-Baptiste Say, on a à
tout moment les égalités suivantes :
Y=C+I
Y=C+S
d’où il résulte en supprimant les éléments qui s’annulent :
I=S
John Maynard Keynes expose qu’il convient de prendre
en compte les désirs des consommateurs et les anticipations
que font les entrepreneurs de ces désirs. La loi de J.-B. Say,
dans ce cas, est une hypothèse qui n’est pas réaliste. Elle est
cependant très utile pédagogiquement, comme le montrera
P.A. Samuelson, dans la mesure où elle permet de révéler
l’écart entre la réalité et l’idéal selon lequel les prévisions
des entrepreneurs coïncideraient parfaitement avec les
désirs des consommateurs. Cet idéal correspond à la
bissectrice du système d’axes représentant le revenu
national ou production nationale en abscisses et la dépense
nationale en ordonnées. L’égalité entre ces deux ensembles
ne pourrait en réalité qu’être fortuite, car, compte tenu de la
rareté de l’information, les entrepreneurs, fort
probablement, surestimeront ou sous-estimeront le niveau
de consommation désirée des ménages. Il faut donc
distinguer les prévisions (ex ante) et les réalisations (ex
post).
Lorsque les entrepreneurs surestiment le niveau de
consommation des ménages, l’épargne est supérieure à
l’investissement des entreprises. En d’autres termes, la
production des entreprises en biens de consommation est
supérieure à la demande. L’écart entre les deux constitue un
écart déflationniste. La réduction de l’activité est nécessaire
pour retrouver l’équilibre. Compte tenu de la présence
syndicale et des acquis salariaux et sociaux, la déflation
n’est pas une baisse des prix et des salaires (trop rigides
nominalement), mais une diminution de l’emploi et de la
production. Autrement dit, contrairement à l’analyse
néoclassique, l’ajustement se fait non par les prix mais par
les quantités. Lorsque les entrepreneurs sous-estiment le
niveau désiré de consommation, alors c’est l’investissement
qui est supérieur à l’épargne, i.e. que la demande globale est
supérieure à l’offre globale. Il s’agit alors d’un écart
inflationniste. Les prix augmentent jusqu’à ce que
l’équilibre soit réalisé.
Ces deux situations sont représentées par la figure 9.1. ci-
dessous. L’allure de la courbe de demande globale est
donnée par la fonction de consommation (C = cY + Co).
L’investissement, ici, est une variable autonome, i.e. qu’il
est indépendant du revenu national (Y).
Dans ces schémas, YE désigne le revenu national
d’équilibre, YPE le revenu national de plein-emploi ou
produit national brut potentiel. Le point Z indique le seuil de
revenu à partir duquel le revenu est supérieur à la
consommation, dégageant ainsi une épargne positive. En
dessous de ce seuil, l’épargne est négative. Autrement dit, la
consommation se traduit par la déthésaurisation, consistant
à utiliser l’épargne accumulée au cours des périodes
précédentes à la période étudiée.
La partie hachurée indique les niveaux de revenu
inaccessibles compte tenu des facteurs disponibles. La
figure 9.1. (a1) illustre le phénomène d’écart inflationniste.
La demande effective (C + I) est au niveau A pour une offre
située en B, alors que l’économie est en situation de plein-
emploi. L’augmentation des prix fera déplacer d’une
manière purement nominale le revenu national de plein-
emploi YPE vers le revenu national d’équilibre YE. C’est une
augmentation en valeur sans augmentation de volume. Mais,
en termes réels, cela revient à une diminution de la demande
globale (C + I) du point E vers le point B. Le même
phénomène peut être représenté avec la confrontation de S
(épargne) et de I (fig. a2) et avec les courbes d’offre globale
et de demande globale en fonction des prix (fig. a3).
La figure 9.1. (b1) caractérise un écart déflationniste. Le
revenu national d’équilibre YE est inférieur au revenu
national de plein-emploi YPE. C’est un équilibre de sous-
emploi. Au point E, il y a bien égalité entre l’offre globale et
la demande globale, mais une partie des travailleurs est sans
emploi. Ex ante, la demande effective est en A, mais les
revenus sont en B, i.e. que les entreprises ont produit un
volume égal à B plus élevé que la somme des dépenses de
consommation des ménages et des dépenses
d’investissement des
Figure 9.3
. Équilibres globaux en termes réels
entreprises. Les entreprises constituent alors des stocks non
désirés. Ceux-ci obligent à réduire la production et, par
conséquent, le revenu distribué, jusqu’à ce que le point E
d’équilibre soit atteint. La réduction de la production
entraîne le sous-emploi. Ainsi, une partie des travailleurs
sera victime du chômage involontaire.
On notera que ce résultat peut être observé avec les
courbes de S et I (fig. b2) et avec les courbes d’offre et de
demande globales en fonction des prix (fig. b3).
5.1.2. L’effet multiplicateur
Les figures a1 et b1 montrent que le fait d’ajouter les
dépenses d’investissement à la consommation fait passer le
revenu d’équilibre de Z à E. La croissance du revenu (ΔY =
YE – YZ) est très nettement supérieure à I, de sorte que l’on
est autorisé à écrire :
ΔY = kI ou bien (ΔY/I) = k.
Il faut multiplier l’investissement I par un coefficient k
pour avoir la valeur de l’augmentation du revenu national.
C’est ce coefficient k que l’on appelle le multiplicateur
keynésien d’investissement.
En comparant les figures a1 et b1, on constate que l’effet
multiplicateur dépend de la propension marginale à
consommer, i.e. de la tendance à consommer une fraction du
revenu supplémentaire distribué. La dépense consécutive à
l’acte d’achat en vue d’investir ou de consommer est un
revenu pour les vendeurs. Ce revenu leur permet de
consommer à leur tour. Le phénomène d’épargne constitue
une fuite, puisqu’il a pour effet de réduire les achats et, par
conséquent, les revenus des agents situés en aval, par
rapport à ceux qui ont bénéficié d’une distribution de
revenus supplémentaires. On peut donc dire que l’effet
multiplicateur est d’autant plus important que la propension
marginale à épargner est faible. Par la technique de
dérivation, on montrera précisément que le coefficient de
multiplication, ou multiplicateur keynésien
d’investissement, est égal à l’inverse de la propension
marginale à épargner (s). Ce résultat, correspondant au
multiplicateur statique – ou instantané – a la même valeur
que celle du multiplicateur dynamique (prenant en compte
le temps). La technique de la dérivation nous oblige à
reprendre la fonction de consommation pour la réintégrer
dans la définition du revenu national correspondant à la
demande globale.
On sait que :
C = cY + Co.
Dans la définition de la demande globale, on remplace C
par son équation.
Y=C+I
devient
Y = cY + Co + I,
ce qui permet d’écrire :
Sachant que 1 – c = s,
on peut écrire :
Ils sont ainsi tous plus faibles qu’en économie fermée, les
importations jouant le même rôle de fuite que l’épargne.
Ce résultat ne tient pas compte de la nature des
importations ni du comportement des autres nations. Les
propensions marginales à importer et à épargner du reste du
monde, d’une part, et le fait que certaines importations
incorporent des produits nationaux précédemment exportés
(par exemple, importation de voitures allemandes en France,
équipées de carburateurs fabriqués en France), d’autre part,
conduisent à des formules de multiplicateurs plus
complexes, que nous ne pouvons examiner ici.
5.2. Le modèle de Hicks-Hansen
Il s’agit d’examiner ici le fonctionnement du modèle IS-
LM que nous avons déjà évoqué. On sait que c’est une
représentation synthétique exprimant l’intégration des
phénomènes réels et monétaires avec un maximum
d’économie de moyens. J.M. Keynes, qui en a pris
connaissance, ne l’a pas désavoué, sauf pour le peu de cas
fait aux anticipations dont nous avons vu la très grande
importance.
Le modèle IS-LM n’est pas une nouvelle théorie, mais un
langage de synthèse qui permet de comprendre les points de
vue keynésien et néoclassique. C’est ce que nous allons
tenter de montrer en prenant trois marchés : les marchés des
biens, de la monnaie et du travail (voir figure 9.2).
5.2.1. Les équilibres sur le marché des biens
Les différents équilibres réels sont représentés, sur la
figure 9.2., par la courbe IS. Chaque point de la droite IS
indique le taux d’intérêt i et le niveau du revenu national
d’équilibre réel YE (i.e. d’égalité entre I et S). IS est une
droite décroissante de YE par rapport à i, car, dans la théorie
keynésienne, l’investissement autonome qui détermine le
revenu national est lié de manière décroissante au taux
d’intérêt (i). En effet, plus (i) est élevé, plus il risque d’être
supérieur à l’efficacité marginale du capital qui constitue
l’incitation à investir des entreprises privées. En outre, plus
(i) est élevé, plus les agents transforment leur encaisse-
transaction en encaisse-spéculation, réduisant ainsi la
consommation non liée à Y, i.e. l’autre déterminant de Y.
L’« euthanasie du rentier », par la baisse des taux d’intérêt,
est, pour Keynes, une des principales solutions pour assurer
la croissance du revenu national Y.
Figure 9.2.a
. Équilibres réels
5.2.2. Les équilibres monétaires
Les différents équilibres monétaires représentés par la
figure 9.2.bapparaissent sur la courbe LM (égalité entre
offre de monnaie et demande de monnaie) dans le même
espace (Y, i).
Chaque point de la courbe LM indique les niveaux de (i)
et de Y d’équilibre entre l’offre exogène de monnaie et la
demande de monnaie. Celle-ci est fonction de (i), pour le
motif de spéculation, et de Y pour le motif de précaution et
le motif de transaction. L’augmentation du revenu exige
plus de moyens monétaires pour financer les transactions. Si
l’offre de monnaie ne bouge pas, alors le taux d’intérêt
augmente. Le même phénomène se produit si, au lieu du
revenu national réel Y, on choisit de prendre le niveau
général des prix. En théorie, la courbe LM comporte trois
parties :
- une partie horizontale correspondant à la trappe à
liquidité : i est au minimum et le revenu national est
faible ; la trappe à liquidité ou trappe monétaire
correspond à une demande de monnaie à élasticité
infinie,
- une partie oblique et de pente positive indiquant
qu’un taux d’intérêt croissant réduit l’encaisse-
spéculation avec un revenu croissant,
- une partie verticale qui traduit une rigidité du revenu
national au taux d’intérêt.
La confrontation de IS et de LM dans le premier quadrant
de la figure 9.2.cdonne l’équilibre global intégrant
l’équilibre réel et l’équilibre monétaire. Cet équilibre est
compatible avec le sous-emploi (YE).
Le deuxième quadrant représente la fonction de
production, Y = f (L), obéissant à la loi des rendements
décroissants. Y = f (L) signifie que le niveau du revenu
national (Y) dépend de la quantité de travail. La valeur de
YE correspond à LE ou niveau d’emploi d’équilibre, sachant
que LPE désigne le plein-emploi qui correspondrait au revenu
YPE. Le
Figure 9.2.b
. Équilibres monétaires
troisième quadrant donne l’équilibre sur le marché de
l’emploi : WE est le taux de salaire d’équilibre et WPE le taux
de salaire de plein-emploi.
L’avantage de cette représentation graphique complexe
est de permettre de comprendre les différentes politiques
économiques possibles pour obtenir la croissance du revenu
et pour se rapprocher du plein-emploi. C’est cet aspect qui
sera examiné dans la section suivante.
Figure 9.2.c
. l’équilibre ISLM et l’équilibre sur le
marché du travail
5.3. L’équilibre global réel et monétaire en économie
ouverte : le modèle IS-LM-BP de Mundell et Fleming
La prise en compte du reste du monde conduit à surveiller
la balance des paiements qui est la somme des soldes des
opérations courantes (BTC = importations et exportations
de marchandises et opérations de services), d’une part, et
des mouvements des capitaux, d’autre part. Une fois cette
information disponible, il faudra analyser les conditions de
compatibilité de l’équilibre externe avec l’équilibre interne.
5.3.1. L’équilibre des balances des transactions courantes
et des capitaux non monétaires
Dans la BTC, les exportations sont fonction du niveau
relatif des prix et du taux de change. Toute chose étant égale
par ailleurs, une tendance à la baisse des prix des produits
proposés à l’exportation et une dépréciation du taux de
change permettent d’augmenter le volume des exportations.
Elles sont autonomes par rapport au revenu national ou au
PIB. Les importations sont fonction des prix relatifs, du taux
de change et du revenu national ou PIB. Elles sont
croissantes en cas d’inflation interne ; elles sont
décroissantes en cas de dépréciation du taux de change ;
elles sont croissantes avec le PIB. La figure 9.3.a représente
la balance des transactions courantes (BTC) en fonction du
seul PIB. La droite BTC est obtenue par le solde entre la
droite des exportations autonomes (X0) et la droite des
importations [M = M (Y)].
Fig. 9.3
. (a) balance des Fig. 9.3. (b) balance des
transactions courantes capitaux non
monétaires
La balance des capitaux non monétaires (BKNM) a un
solde qui est une fonction croissante de l’écart entre le taux
d’intérêt national et le taux d’intérêt international. Un taux
plus élevé dans la nation qu’à l’étranger suscite un volume
d’entrée de capitaux (KE) plus important que celui de la
sortie de capitaux (KS). La droite BKNM peut être soit
verticale, en cas d’immobilité internationale des capitaux
(aucune élasticité par rapport à l’écart des taux d’intérêt),
soit horizontale en cas de mobilité parfaite, ce qui conduit à
assurer l’égalité constante entre le taux interne et le taux
externe.
Lorsque la balance des paiements est équilibrée, il n’y a
pas de mouvements de capitaux monétaires dont l’objet est
de compenser un déséquilibre. La droite BP représente les
différents couples (i et y) pour lesquels la balance des
paiements globale est équilibrée. La droite BP est la somme
de la BTC et de la BKNM. L’une est fonction du PIB (Y) et
l’autre du taux d’intérêt (i). Le taux d’intérêt et le PIB sont
positivement corrélés pour assurer un équilibre de la
balance des paiements. Par exemple un déficit de la BTC
qui apparaît avec une croissance du PIB doit s’accompagner
d’un taux d’intérêt très élevé ayant pour effet d’avoir une
entrée nette de capitaux. L’excédent de BKNM couvre alors
le déficit de BTC.
La pente de BP dépend de la propension marginale à
importer et de l’élasticité des capitaux par rapport au taux
d’intérêt. En cas de mobilité parfaite (élasticité parfaite),
BKNM est horizontale, la droite BP également. Cette
dernière se déplace vers le haut ou vers le bas à la suite des
déplacements de BTC et de BKNM. Les causes des
variations des balances partielles peuvent être réelles
(changement du niveau des exportations), financières
(variation du taux d’intérêt) et monétaires (changement de
la parité de la monnaie par appréciation ou dépréciation du
taux de change).
Fig. 9.3.c
. Équilibre de la balance des paiements
globale
Lecture : tous les points formés par le couple
(i, Y) sur BP constituent l’équilibre externe. Les
points au-dessus de BP sont des excédents,
comme par exemple Z1. Les points en dessous de
BP sont des déficits comme par exemple Z1.
En résumé, pour un taux de change stable, les
exportations sont exogènes tandis que les importations
dépendent du revenu national. La balance des capitaux
dépend de l’écart de taux d’intérêt pour la nation et le reste
du monde, et cette balance influence le taux de change qui
peut avoir des conséquences sur la balance des opérations
courantes et sur la balance des capitaux : lorsque l’écart de
taux d’intérêt est positif (taux interne > taux externe), sous
l’hypothèse de mobilité des capitaux, l’entrée de capitaux
est plus forte que la sortie ; la monnaie nationale se raréfie,
le taux de change s’apprécie ; le volume des importations
moins chères augmente, tandis que le volume des
exportations trop chères baisse. La droite BP représente les
différents couples de taux d’intérêt et de revenu national qui
assurent l’égalité entre la balance des opérations courantes
et la balance des capitaux.
5.3.2. L’équilibre externe et l’équilibre interne :
l’incompatibilité
L’analyse de la compatibilité entre les équilibres interne
et externe se fait en reportant la droite BP sur le graphique
IS-LM. Il y a compatibilité spontanée des équilibres internes
et externes lorsque l’intersection en IS, LM et BP se fait en
un même point. Cela serait un événement purement fortuit.
Dans la réalité, plusieurs cas de figure peuvent être
envisagés en fonction du niveau d’équilibre interne (il peut
être soit en dessous soit au-dessus de BP), du degré de
mobilité des capitaux (élevé, faible), du régime de change
(fixe, flottant).
La figure 9.4. ci-dessous illustre le cas de
l’incompatibilité dans une situation de déséquilibre externe
(les équilibres internes sont sous la droite BP), dans
l’hypothèse d’une forte mobilité des capitaux. En Eint, les
courbes IS et LM se rencontrent pour déterminer l’équilibre
interne complet. En E1, BP rencontre IS, l’équilibre
monétaire n’est pas réalisé. En E3, BP rencontre LM, c’est
l’équilibre réel qui cette fois n’est pas réalisé.
Spontanément, un déséquilibre extérieur peut se résorber
mais d’une façon défavorable à la croissance et à l’emploi.
En effet, le déficit engendre une baisse des réserves en
devises. Celles-ci, étant une contrepartie de la masse
monétaire, il s’ensuivra une diminution de cette dernière.
Par conséquent la réduction de la masse monétaire entraîne
le déplacement de LM1 vers la gauche (LM2). La baisse du
PIB freine les importations (déplacement sur la courbe IS
vers le haut et à gauche). Ces différents mouvements
aboutissent à un équilibre complet interne et externe
spontané (E1i-e-spon) en faisant que l’équilibre monétaire
rejoigne l’équilibre réel et l’équilibre externe.
En régime de change flexible, un déficit s’accompagne
d’une détérioration du taux de change. Cela entraîne une
plus grande compétitivité des prix se traduisant par un
déplacement de la droite BP vers le bas et un déplacement
de IS vers le haut et à droite. Les équilibres interne et
externe sont obtenus en E2i-e.
L’équilibre complet interne et externe, même de type E2
peut être un équilibre de sous-emploi. Si E3 est l’équilibre
souhaitable, plusieurs actions sont envisageables, en
fonction du degré de mobilité des capitaux et du système de
change. Dans le système des hypothèses précédentes, on
voit sur la figure 9.4. qu’une politique de forte croissance
des dépenses internes pour déplacer IS vers le haut et vers la
droite (IS3) permet d’obtenir un équilibre E3int-ext favorable à la
croissance économique et à l’emploi. La figure 9.4.b donne
le résultat final,
Fig. 9.4.a
. Principales configurations de IS-LM-BP
Fi g. 9.4.b. Équilibre complet IS-LM-BP
De part et d’autre du revenu national de plein-emploi, il
est possible d’identifier quatre types de déséquilibres qui
appellent des combinaisons particulières des politiques
monétaire (PM) et budgétaire (PB).
Fig. 9.5
. Déséquilibres en économie ouverte
1 Pierre Dockès et Bernard Rosier, Rythmes économiques, crises et
changement social, une perspective historique, La Découverte/Maspero, 1983.
2 On rencontre aussi la formule de l’alternance jour/nuit à la place de
soir/matin : « Il y a eu un jour, il y a eu une nuit. Premier jour. »
3 Richard A. Easterlin : Population, Labor Force, and Long Swings in
Economic Growth : the American Experience, New York, Colombia University
Press, 1968 ; « Relative Economic Status and the American Fertility Swing »,
dans E.B. Sheldon (ed.), Family Economic Behavior : Problems and Prospects,
Philadelphia, 1973 ; Birth and Fortune : The Impact of Numbers on Personal
Welfare, New York, Basic Books, 1980.
4 Les principaux travaux fondateurs sont : King, Robert, G. Plosser, Charles I.
Rebelo, Sergio T., « Production, Growth and Business, Cycles : I. The Basic
Neoclassical Model », Journal of Monetary Economics, 21, 1988, pp. 195-232 ;
« Production Growth and Business, Cycles II : New directions », Journal of
Monetary Economies, 21, pp. 309-341. Charles I. Plosser, « Understanding Real
Business Cycles », The Journal of Economic Perspectives, vol. 3, n° 3 (été,
1989), pp. 51-77. Kydland F.E. et Prescott E.C, « Time to Build and Aggregate
Fluctuations », Econometrica, 50, pp. 1345-1370, 1982 ; Long, J. et Plosser, C., «
Real Business Cycles », Journal of Political Economy, 91, pp. 39-69, 1983.
5 Joseph A. Schumpeter, Business Cycles : a Theoretical, Historical and
Statistical Analysis of the Capitalist Process, 1939. Dans cet ouvrage
Schumpeter expose en fait une théorie des cycles qu’il présente comme une
superposition de cycles plus courts dans des cycles plus longs : le kondratief
serait une courbe enveloppe de plusieurs Juglar, et un Juglar serait une courbe
enveloppe de plusieurs Kitchin.
6 On lui doit notamment Lectures on the Industrial Revolution, 1884.
7 The World Economy and its Condition During and After the War, 1922 ; «
The Long Waves in Economic Life », Archiv fur Sozialwissenschaft und
Sozialpolitik, 1926, (reproduit dans.REStat1935).
8 Walter Isard, « A neglected cycle : The transport-building cycle », REStud.,
pp. 149-158, 1942 ; Alvin H. Hansen, Fiscal Policy and Business Cycles, New
York, 1941.
9 Simon Kuznets, Secular Movements in Production and Prices, Houghton-
Mifflin, Boston and New York, 1930, et l’article « Equilibrium Economics and
Business », QJE, 1930.
10 Des Crises commerciales et leur retour périodique en France, en
Angleterre, et aux États-Unis (1862), peut être consulté sur le site web Gallica.
11 « Cycles and Trends in Economic Factors », REStat., 1923.
12 Role of Inventories in Business Cycles, 1948 ; Inventories and Business
Cycles, 1950.
13 Christian Chavagneux, « Les deux faces de Greespan », Greenspan,
magicien ou illusionniste ? L’Économie politique, no 29, 2006/1, pp. 5-6.
14 Olivier Le Courtois et François Quittard-Pinon, « Asia-Pacific Financial
Markets », Springer Netherlands, vol. 13, pp. 11-39, 2006.
15 http://alternatives-economiques.fr/blogs/flandreau/2007/10/04/bagehot-etc/
16 Michel Aglietta, La crise. Pourquoi on en est arrivé là ? Comment en
sortir ? Michalon, novembre 2008, 125 pages.
17 Source Erwan Gautier : « Les marchés financiers comme indicateurs
avancés des retournements conjoncturels : le cas américain », Bulletin de la
Banque de France, n° 153, septembre 2006, pp. 61.
18 « À la découverte d’indicateurs pour prévoir l’économie canadienne »,
juillet 2004, Mimeo, Institut d’économie appliquée, HEC Montréal.
19 « European Overnight Index Average ». Ce taux est issu d’une moyenne
pondérée des taux O/N traités par un panel de banques. L’Eonia est publié
quotidiennement par Euribor FBE Association et Euribor ACI Association et
sous le contrôle de la BCE. Taux de référence européen qui correspond à
l’acronyme français de Tempé qui signifie Taux moyen pondéré en euros.
20 Rapport entre le prix moyen des exportations et le prix moyen des
importations.
Chapitre 10
Les problèmes de l’emploi
La question de l’emploi est sans doute la plus importante
en économie par ses conséquences sur la vie sociale et la vie
de chacun. Elle est indissociable d’une économie salariale.
L’emploi est ce qui permet de procurer dignement les
moyens de subvenir à l’existence du travailleur et de sa
famille. La plupart des nations ont admis le principe du droit
au travail. Le droit au travail est le droit qu’a tout homme de
vivre en se procurant par son travail les ressources
nécessaires. L’emploi est tout travail apportant une
ressource à la personne qui l’effectue.
Après une brève section consacrée à la définition du
chômage, l’objet de ce chapitre est de présenter les théories
du chômage et les politiques de l’emploi.
1. Le chômage : définitions
Le problème de l’emploi concerne la population active
totale ou main-d’œuvre. Celle-ci regroupe la population
active occupée (PAO, on dit aussi population active
employée : PAE) et la population en âge de travailler à la
recherche d’un emploi qui constitue la population de
chômeurs évaluée par enquête annuelle.
La PAO comprend toutes les personnes (âgées de 16 à 65
ans) participant, contre une rémunération, à la production
des biens et services, ne serait-ce que pour une heure,
pendant une brève période de référence spécifiée, et toutes
les personnes pourvues normalement d’un emploi, mais
absentes de leur travail. Ne sont chômeurs que les personnes
de plus de 16 ans qui, au moment de l’enquête, sont à la fois
sans travail, à la recherche d’un travail et disponibles pour
travailler. Si les enquêtés avancent une raison de « non-
recherche », indépendante de leur volonté, ils sont comptés
comme chômeurs. Ce sont des personnes qui croient que le
travail n’est pas disponible dans leur localité de résidence ;
déclarent ne pas avoir le niveau de formation ou
d’expérience nécessaire pour un emploi ; sont trop jeunes ou
trop âgées pour être embauchées ; ont un handicap
personnel ; ont une promesse d’embauche ; attendent une
réponse de l’employeur. Les personnes inactives sont
classées selon la cause qui est à l’origine de leur inactivité :
les écoliers, les étudiants, les femmes au foyer, les retraités,
les rentiers, les infirmes ou malades, etc.
Selon la définition du Bureau international du travail (BIT), est
chômeur toute personne en âge de travailler qui est sans emploi
salarié et non salarié, est disponible pour travailler dans un emploi
salarié ou non salarié et est à la recherche d’un travail. Avec cette
notion, on calcule la PSERE (Population sans emploi à la recherche
d’un emploi). Toutefois, le BIT recommande de prendre en compte
également les personnes qui ne sont plus à la recherche d’un emploi
mais qui sont sans travail, disponibles pour travailler et qui ont pris
des dispositions pour prendre un emploi salarié ou non salarié à une
date ultérieure à la période de référence – période de l’enquête
(résolution adoptée par la XIIIe Conférence internationale des
statisticiens du travail, Genève, octobre 1982). On notera que, dans
cette définition statistique, on parle de recherche d’un emploi ; en
d’autres termes, l’offreur de travail est un demandeur d’emploi. Les
demandeurs de travail (entreprises, administrations…) sont donc des
offreurs d’emplois.
f) Le chômage d’inadéquation
Il s’agit moins d’une théorie que du constat empirique
d’une forme de chômage structurel qui résulterait de la
coexistence de structures rigides d’offres et de demandes de
travail par qualification, qui ne coïncideraient pas : si les
salariés ont des compétences peu utiles pour les entreprises
et ne peuvent apprendre les compétences utiles, tandis que
les entreprises ont des demandes précises pour lesquelles il
n’y a pas de salariés disponibles, et si elles ne peuvent
substituer d’autres salariés à ceux qu’elles recherchent, un
chômage d’inadéquation peut apparaître. On peut penser
qu’un tel chômage n’est pas négligeable pour les
travailleurs âgés (peu requalifiables) ou pour les chômeurs
de longue durée déqualifiés, phénomène abordé aussi dans
le cadre des effets d’hystérésis des problèmes passés.
g) L’hypothèse d’hystérésis
Présentée notamment par Olivier Blanchard et Lawrence
Summer en 19866, l’hypothèse est fondée sur le postulat
selon lequel lorsqu’un système évolue, il ne retrouve que
difficilement sa direction de départ. Ce phénomène de
physique est appliqué en économie pour expliquer
l’augmentation du taux de chômage naturel, malgré la
reprise de la croissance économique. En d’autres termes, le
chômage serait résistant à la croissance. Le taux de
chômage d’équilibre serait alors convergent avec le taux de
chômage effectif antérieur.
La détérioration du capital humain est l’une des causes de
cet effet d’hystérésis qui se traduit par la persistance du taux
de chômage : plus une personne a été inactive longtemps
plus sa capacité de travail ou employabilité sera détériorée.
Les chômeurs de longue durée sont donc victimes d’un effet
d’éviction au bénéfice des qualifiés (Henri Sneessens,
19957, que l’on cherche éventuellement à recruter en allant
les chercher dans d’autres entreprises.
h) Conclusion
D’un point de vue empirique, les théories de la
segmentation sont souvent validées. Le dualisme du marché
du travail s’est accru à partir du milieu des années soixante-
dix. D’une part, le chômage touche davantage les
travailleurs les moins qualifiés et, d’autre part, le recours à
des formes d’emploi précaire s’est alors fortement
développé. Les modèles de marché dual expliquent à la fois
le rationnement sur le marché de l’emploi primaire, et la
possibilité de chômage pour les autres salariés. Le chômage
serait la résultante de l’existence d’une quasi-rente salariale,
que les salariés du secteur primaire peuvent s’approprier,
soit par l’exercice d’un pouvoir syndical, soit par leur
pouvoir « d’insiders » dans le cadre de négociations
salariales. L’ajustement global ne se fait pas au sein de
l’autre secteur dit « secondaire », car la flexibilité du salaire
est contrariée par un système d’indemnisation du chômage,
une législation de salaire minimal et une rémunération
fondée sur un salaire d’efficience. Ce sont autant de facteurs
qui font que l’équilibre du marché du travail n’est pas
atteint.
Toutefois ces différentes explications par le marché du
travail demeurent partielles et contingentes et ont donc des
limites tout comme les approches globales keynésiennes et
marxistes. Il y a des périodes de fort chômage et des
périodes de presque plein-emploi. Est-ce à dire que les
insiders ont changé de comportement, ou qu’il n’est plus
question de salaire d’efficience ? Il y a des spécificités
nationales, régionales et sectorielles déjà évoquées comme
limites des théories globales qui n’apparaissent dans aucune
de ces théories pour expliquer les écarts de taux de chômage
entre les pays ou entre les secteurs. L’inadaptation des
produits à la demande, l’inadaptation des structures
économiques à la concurrence internationale qui ne se réduit
pas au seul aspect de la compétitivité par les prix, etc.,
peuvent expliquer les difficultés spécifiques dans certains
pays et dans certains secteurs conduisant à la faiblesse de la
croissance et au maintien d’un taux de chômage élevé.
La conclusion qui s’impose après ce survol d’un grand
nombre d’explications aussi bien macroéconomiques que
microéconomiques et managériales, c’est qu’une théorie
générale de l’emploi est difficilement imaginable
aujourd’hui, même si elle a pu être écrite en 1936.
3. Les politiques de l’emploi
Les instruments dont disposent les pouvoirs publics sont
la politique monétaire, la politique budgétaire et la politique
réglementaire. Cette dernière consiste à édicter des règles,
des normes, à formuler des autorisations, des interdictions, à
fixer des quotas, à définir les procédures que doivent
respecter les agents économiques, etc. Le contrôle des prix,
la définition du Salaire minimum, l’autorisation
administrative de licenciement adoptée en France en 1975 et
supprimée en 1986 sont quelques exemples parmi d’autres
de réglementations qui appartiennent à la logique de la
régulation conjoncturelle.
La déréglementation opérée ces dernières années dans
plusieurs pays, qui n’est pas synonyme de la dérégulation
(bien qu’elle soit la traduction de l’anglais deregulation),
s’inscrit dans une logique libérale, alors que la
réglementation est souvent associée à l’interventionnisme
ou au dirigisme.
L’objet de cette section est de privilégier les politiques
budgétaires et les politiques monétaires dans la perspective
de la croissance économique et de l’emploi, en utilisant le
modèle IS-LM. Ce modèle revient à faire l’hypothèse que la
croissance économique est le seul moyen de rapprocher le
niveau de l’emploi d’équilibre (LE) du niveau du plein-
emploi (LPE).
Dans cette section, nous cernerons les facteurs de
déplacements de IS et de LM et les effets de ces
déplacements.
3.1. La politique budgétaire d’expansion
a) Les facteurs du déplacement de IS vers la droite pour
obtenir une croissance du revenu national d’équilibre sont
principalement :
a1 – l’augmentation autonome de la consommation des
ménages ;
a2 – l’augmentation autonome de l’investissement ou une
augmentation de l’investissement anticipant un changement
technique, une hausse de la demande, une hausse de salaire
réel ;
a3 – l’augmentation autonome des dépenses publiques de
fonctionnement et/ou d’équipements ;
a4 – la diminution du taux de l’impôt. Son effet est de
relancer la consommation et l’investissement. Il peut
intervenir de plusieurs manières : sous forme d’une
diminution de l’impôt sur la consommation (TVA : taxe sur
la valeur ajoutée) ou de l’impôt sur le revenu, d’un
amortissement accéléré autorisé pour les investissements,
d’une déduction fiscale pour les investissements nouveaux,
etc.
Ces différents moyens ne sont pas équivalents en termes
d’effets sur l’emploi et de moins-value fiscale pour l’État.
La diminution de la TVA sur les biens de consommation
touche tout le monde, elle peut donc se traduire par une
augmentation du pouvoir d’achat notamment des catégories
sociales les plus défavorisées qui sont les plus disposées à
augmenter leurs achats si cette éventualité est accessible.
Lorsque la TVA représente une part importante des recettes
publiques, comme c’est le cas encore en France, la baisse du
taux aboutit à d’importantes moins-values fiscales dans
l’immédiat en attendant les rentrées plus importantes du fait
de la reprise permise par la baisse de la TVA. Mais la
reprise n’est pas assurée, car ces moins-values, en cas
déficit budgétaire, entraînent un endettement public
susceptible de susciter, du fait de l’emprunt nécessaire pour
son financement, une hausse des taux d’intérêt. Cette hausse
risque de freiner les investissements et de réduire les
chances d’avoir une forte croissance pourvoyeuse
d’emplois. La diminution des impôts sur le revenu peut
inciter les individus à travailler davantage, à éviter
l’installation des entreprises dans des paradis fiscaux ou tout
simplement dans des pays à fiscalité directe avantageuse.
Mais une telle mesure n’a pas d’effet sur la consommation
immédiate, puisque les bénéficiaires de cette mesure sont
ceux qui acquittent un impôt sur le revenu, i.e. ceux qui
n’augmenteront pas leur consommation. Une diminution de
cet impôt permet d’augmenter le revenu discrétionnaire de
ce groupe aux effectifs nettement moins importants que
celui des consommateurs. En termes de moins-value fiscale,
l’importance de celle-ci dépend de la part des impôts sur le
revenu dans les recettes budgétaires et de la manière
d’opérer la baisse dans un système d’impôt progressif. Avec
un tel système, si la baisse ne concerne que la dernière
tranche au taux le plus élevé, la moins value est négligeable
dans un pays présentant une structure de recettes
budgétaires comme celle de la France ; si la baisse concerne
la suppression des premières tranches de l’impôt pour les
ménages dont le revenu fiscal est inférieur à un certain
montant, l’opération peut être favorable à la consommation
sans moins-value fiscale, compte tenu de l’augmentation
des recettes de la TVA associées à l’augmentation de la
consommation de la classe moyenne bénéficiaire de la
suppression des premières tranches ;
a5 – la diminution de la propension moyenne à importer,
accompagnée d’une orientation de la consommation vers les
produits domestiques, à la suite éventuellement de droits de
douane nouveaux, de contingentements à l’égard de certains
produits ou de certains pays, d’une campagne de reconquête
du marché intérieur (préférence nationale, patriotisme
économique), etc. ;
a6 – l’effet d’anticipation sur l’inflation, conduisant à une
augmentation de la demande ;
a7 – l’augmentation autonome des exportations, mais qui
peut s’expliquer aussi par des subventions à l’exportation,
par la détérioration des termes de l’échange en raison de
forts gains de productivité dans les branches exportatrices,
se traduisant par la baisse des prix des produits exportés (les
termes de l’échange net marchand étant le rapport entre le
prix des exportations et le prix des importations).
Signalons qu’une augmentation des exportations et une
diminution des importations peuvent résulter d’une
dévalorisation ou d’une dépréciation de la monnaie
nationale à l’égard des monnaies du reste du monde. Dans
ce cas, le succès de l’opération dite « de dévaluation » exige
certaines conditions et des délais. Les conditions
correspondent au théorème des élasticités critiques, exprimé
ou reformulé par Alfred Marshall, Abba Lerner et Joan
Robinson : afin d’éviter les effets pervers d’une dévaluation
(aggravation du déficit), il est nécessaire que la somme des
élasticités-prix à l’importation et à l’exportation soit
supérieure en valeur absolue à 1. Les délais se traduisent par
la courbe en J : à la suite de la dévaluation, les importations
programmées sont maintenues mais leurs prix en monnaie
nationale s’élèvent, tandis que le reste du monde ne verra
ses commandes nouvelles satisfaites qu’après un délai
correspondant au temps d’enregistrement des commandes et
de mise en œuvre de la production. L’inertie momentanée
des importations et des exportations se traduit par une
aggravation du déficit qui s’estompera ensuite pour
déboucher sur un excédent.
b) L’effet de la variation de IS sur Y est lié, d’une part, à
l’expansibilité de i (inverse de l’élasticité) par rapport à la
demande globale et, d’autre part, à la pente de la courbe de
LM.
Une forte expansibilité, ou une droite de IS à faible pente,
s’accompagne d’une forte croissance de Y lorsque LM est
horizontale (i = minimum, trappe à liquidité). Dans cette
situation, le multiplicateur keynésien associé à un
déplacement de IS est intégral. Si LM est verticale, le
multiplicateur associé à une augmentation de la demande
globale est nul : tout déplacement de IS vers le haut
s’accompagne d’une hausse du taux (i) et des prix, Y
n’augmente que de manière nominale. La hausse du niveau
général des prix et du taux d’intérêt, ou paradoxe de Gibson
qui sera étudié plus loin, absorbe l’augmentation de la
dépense qui n’est alors que nominale : on achète moins en
dépensant davantage, et les dépenses publiques
supplémentaires n’ont fait qu’évincer des dépenses des
agents privés qui étaient précédemment programmées.
L‘effet d’éviction est total. Lorsque LM est oblique avec une
pente positive, le déplacement à droite de IS s’accompagne
d’un effet multiplicateur non nul mais partiel par rapport à
la situation d’abondance monétaire pour laquelle le taux i
était au minimum. Dans cette situation, une augmentation
de la demande globale s’accompagne nécessairement de la
hausse du taux d’intérêt (i) et de celle des prix. Les agents
dont l’encaisse réelle a diminué se retireront du marché pour
maintenir constante leur encaisse en termes réels. L’effet
d’éviction, ici, est égal à la différence entre le niveau Y
qu’aurait permis une croissance de LM assurant la stabilité
de i et le niveau effectif de Y obtenu sans déplacement de
LM.
Figure 10.2
. Politiques de croissance des dépenses
publiques
Si on fait l’hypothèse de taux de change fixes et si l’on
admet la parfaite mobilité des capitaux entre les nations, ce
dernier résultat ne durera pas. En effet, la hausse du taux i
va attirer les capitaux étrangers, engendrant une croissance
de la masse monétaire et mettant ainsi fin à l’effet
d’éviction. La courbe LM redevient horizontale. En
revanche, en cas de taux de change flexibles avec mobilité
des capitaux, la politique budgétaire a une efficacité plus
réduite. Les politiques de relance s’accompagnent alors
d’un déficit commercial (cf. 1981-1982, en France).
3. 2. La politique monétaire d’expansion
a) Les facteurs de déplacement de LM peuvent être
notamment :
a1 – L’augmentation de la masse monétaire à la suite de
diverses mesures telles que le désencadrement du crédit, la
diminution des réserves obligatoires que les banques
commerciales doivent déposer à la Banque centrale sans
rémunération et qui sont proportionnelles à leurs
engagements, l’intervention de la Banque centrale sur le
marché libre de l’argent consistant à racheter les bons du
Trésor ou des effets publics et des effets de commerce des
banques commerciales qui doivent être éligibles dans le
cadre d’accords de pension. Cette intervention constitue la
politique d’open market. Dans le cas présent, i.e. de soutien
de l’activité économique, l’open market consiste
principalement en opérations de refinancement.
a2 – L’augmentation de la masse monétaire par achat de
devises par la Banque centrale, à la suite d’une entrée de
capitaux ou d’un excédent de la balance commerciale.
a3 – La baisse du niveau général des prix qui se traduit
par un effet de richesse dit encore « effet d’encaisse réelle »,
ou effet Pigou, équivalent à une abondance nouvelle de
monnaie par rapport à la situation qui a précédé ce
mouvement.
a4 – La diminution de l’incertitude qui réduit la demande
de monnaie pour motif de précaution.
a5 – Une diminution autonome de la demande de
monnaie.