Vous êtes sur la page 1sur 538

Table des Matières

Page de Titre
Table des Matières
Page de Copyright
– COLLECTION CURSUS • ÉCONOMIE –
Avant-propos

PREMIÈRE PARTIE - Méthodes et histoire de la pensée


économique
Chapitre 1 - Objet et méthodes de la science économique
1. Le domaine de l’économie politique : de la richesse aux choix
2. Les méthodes de l’économie politique ou la question de sa scientificité
3. Les limites de la science économique

Chapitre 2 - Les grands courants de la pensée économique


Encadré : les systèmes économiques : capitalismes et socialismes
1. La pensée économique préclassique
2. L’économie classique et néoclassique et l’analyse en termes prix
3. L’économie de Marx et l’économie marxiste : la critique de l’économie politique
4. L’économie de Keynes et l’économie keynésienne ou les questions importantes de l’économie
5. L’hétérodoxie économique

Chapitre 3 - La comptabilité nationale


1. Fonctions et histoire de la comptabilité nationale
2. Conventions et définitions
3. Le tableau d’entrées-sorties (TES)
4. Quelles sont les limites de la comptabilité nationale ?

DEUXIÈME PARTIE - Les opérations économiques et les


marchés
Chapitre 4 - La production et la répartition des revenus
1. Les théories de la firme
2. Les facteurs de production
3. La combinaison des facteurs de production : de l’équilibre du producteur à la substitution des facteurs
4. Les coûts de production et la fonction d’offre

Chapitre 5 - La demande et la consommation


1. L’analyse microéconomique de la consommation et de la demande
2. L’analyse macroéconomique de la consommation

Chapitre 6 - Les marchés


1. Qu’est-ce qu’un marché ?
2. La concurrence pure et parfaite
3. Le monopole : la persistance du profit économique
4. Le marché avec un seul acheteur : le monopsone
5. Concurrence imparfaite et théorie des jeux
6. L’équilibre général
TROISIÈME PARTIE - Problèmes économiques
contemporains
Chapitre 7 - Les problèmes économiques et le rôle de l’État
1. Les notions de conjoncture et de structure
2. Les fonctions de l’État et la notion de politique économique

Chapitre 8 - La croissance économique


1. Définition et mesure du taux de croissance
2. Les théories et les modèles de croissance

Chapitre 9 - Les fluctuations économiques


1. Les différentes catégories de fluctuation de l’activité économique
2. Les chocs exogènes sur l’économie
3. Les théories des fluctuations endogènes et les cycles généraux de l’économie
4. Le diagnostic conjoncturel
5. Les modèles d’analyse de la conjoncture

Chapitre 10 - Les problèmes de l’emploi


1. Le chômage : définitions
2. Les théories explicatives du chômage
3. Les politiques de l’emploi

Chapitre 11 - Le déséquilibre inflationniste et les politiques de stabilité des


prix
1. Définition, mesure et effets de l’inflation
2. Les explications de l’inflation

Chapitre 12 - Les problèmes économiques internationaux


1. Les variables du commerce international
2. Libéralisme ou protectionnisme
3. La mondialisation et les théories du commerce international

Conclusion
Bibliographie
© Armand Colin, 2009 pour la présente édition
978-2-200-24659-4
– COLLECTION CURSUS •
ÉCONOMIE –
Le présent ouvrage est une reprise totalement remaniée et
approfondie de l’Introduction à l’analyse économique parue
pour la première édition en 1989 dans la collection Cursus
dirigée alors par Bernard Simler.
Du même auteur :
Il a publié, seul ou en collaboration, une trentaine
d’ouvrages, dont Comprendre l’économie mondiale (coéd.
Le Seuil-Ouvrières, en collaboration avec J-M. Albertini,
1981), Comprendre les théories économiques (Le Seuil,
coll. Point, en collaboration avec J-M. Albertini, 3e éd.,
2001), Lexique économie (collectif, codirection J-M.
Albertini, Dalloz, 10e édition, 2008), Lexique de gestion et
management (collectif, codirection de A. Ch. Martinet,
Dunod, 8e éd., 2009), Histoire de l’analyse économique
(Hachette, 4e éd., 2005), Dictionnaire encyclopédique des
sciences de l’information et de la communication (collectif,
codirection de B. Lamizet, Ellipses, 1997), Information des
salariés et stratégies de communication (avec la
collaboration de Gérard Martinez, Éditions d’Organisation,
1983).
Bases méthodologiques
et problèmes fondamentaux
5e édition
Conception de couverture : Dominique Chapon et Emma
Drieu
www.armand-colin.com

Tous droits de traduction, d’adaptation et de reproduction


par tous procédés, réservés pour tous pays. Toute
reproduction ou représentation intégrale ou partielle, par
quelque procédé que ce soit, des pages publiées dans le
présent ouvrage, faite sans l’autorisation de l’éditeur, est
illicite et constitue une contrefaçon. Seules sont autorisées,
d’une part, les reproductions strictement réservées à l’usage
privé du copiste et non destinées à une utilisation collective
et, d’autre part, les courtes citations justifiées par le
caractère scientifique ou d’information de l’œuvre dans
laquelle elles sont incorporées (art. L. 122-4, L. 122-5 et L.
335-2 du Code de la propriété intellectuelle).
ARMAND COLIN ÉDITEUR • 21, RUE DU
MONTPARNASSE • 75006 PARIS
Avant-propos 1

L’objet du présent ouvrage est de donner les principales


bases méthodologiques de l’économie politique et de
permettre la compréhension des mécanismes fondamentaux
constituant la structure des théories économiques, en
embrassant les aspects des théories à un seul décideur
(microéconomie du producteur, microéconomie du
consommateur) et des théories élaborées pour tout un
ensemble social, comme la nation et ses rapports avec le
reste du monde (macroéconomie).
Si, provisoirement, on accepte de reconnaître que
l’économiste est celui qui étudie les problèmes sociaux en
vue de révéler les coûts et les avantages de certains choix et
de certains comportements, il va de soi qu’il est pertinent
d’étudier les différents modes d’organisation sociale. La
perspective fondamentaliste adoptée dans ce livre revient
cependant à négliger cette dimension qui obligerait à
recourir à l’analyse comparative et institutionnelle des
régimes économiques ou modes de production et formations
sociales concrètes – capitalisme et socialisme ; pays
développés et pays en voie de développement. Son ambition
est de donner le plus simplement possible les principes
généraux des analyses en termes de prix – comportement de
l’entrepreneur face au prix des facteurs de production et
face au prix du marché pour ses produits, comportement du
consommateur face au salaire et face au prix des biens de
consommation – et des analyses en termes de revenu et de
flux au niveau de l’économie globale – circuit économique
entre production, revenu et dépense, modélisé notamment
par la comptabilité nationale.
Une telle perspective répondra aux différents besoins des
étudiants de licence en sciences économiques et de gestion,
des étudiants en droit, des élèves qui préparent les concours
des grandes écoles et les concours administratifs et
d’enseignement (Capes, agrégation en économie et gestion).
L’ouvrage comporte trois parties articulées de la manière
suivante :
- la première partie est consacrée à la définition du
champ de l’économie et des méthodes employées
par les économistes, et aux grilles de lecture de
l’économie politique par une approche historique
des grands courants de la pensée économique
- la deuxième partie présente les opérations
économiques fondamentales (la production et ses
facteurs, les théories de l’entreprise, la
rémunération des facteurs de production des
revenus, les problèmes de distribution des revenus,
la consommation, les échanges sur les marchés)
dans une perspective macroéconomique et dans une
perspective microéconomique ;
- La troisième partie aura pour objet l’analyse des
problèmes économiques contemporains (la
croissance, les fluctuations de l’activité
économique, l’emploi, l’inflation, l’équilibre
externe) et les politiques économiques destinées à
l’obtention d’une croissance durable, le plein-
emploi, la stabilité des prix et l’équilibre dans les
échanges avec le reste du monde.
Chaque chapitre comprend un ou plusieurs encadrés
donnant soit des définitions, soit des applications
numériques, soit encore des développements
complémentaires. À la fin de chaque chapitre, des exercices
et des questions de réflexion sont proposés. Les corrigés
sont donnés en fin d’ouvrage. En principe, s’agissant des
exercices, comme d’ailleurs pour la totalité de l’ouvrage, les
connaissances mathématiques requises sont celles de la
classe terminale. Une place plus importante est accordée à
la représentation géométrique plutôt qu’à l’analyse
algébrique.
En vue de faciliter la lecture, nous avons procédé à une
harmonisation des symboles pour garder une signification
constante à chacun d’eux tout au long de l’ouvrage. Les
principaux en sont :
Y : revenu national, dépense nationale, production
nationale, offre globale, demande globale, offre d’une
branche (ensemble d’unités produisant le même type de
biens) ;
y : volume de la production d’une seule unité ;
p : niveau du prix ;
P : niveau général des prix ;
C : consommation nationale ;
c : propension marginale à consommer (rapport entre
l’augmentation du revenu et l’augmentation de la
consommation) ;
I : investissement ;
S : épargne nationale ;
s : propension marginale à épargner ;
M. importation ;
m : propension marginale à importer ;
X : exportation ;
L : volume du travail (offert ou demandé) ;
w : taux de salaire (niveau du salaire pour une unité de
travail) ;
K. capital ;
i : taux d’intérêt ;
Δ, δ (delta) : lettres grecques se lisant delta utilisées pour
accroissement significatif (Δ) ou infinitésimal (δ) ;
T : montant des recettes publiques (impôts) ;
t : taux de l’impôt ;
G : dépenses publiques ;
D : demande ;
O : offre ;
CST : coût synthétique total
Cm : coût marginal ;
CM : coût moyen ;
CSM : coût synthétique moyen
Rm : recette marginale ;
RM : recette moyenne.
PIB : produit intérieur brut
1 Cette nouvelle édition doit beaucoup à une relecture attentive de Hervé de
Ruffray. Qu’il en soit remercié. Je me dois de remercier aussi mes étudiants pour
leurs remarques à l’origine de certaines modifications.
PREMIÈRE PARTIE
Méthodes et histoire de la
pensée économique
La méthode d’élaboration des connaissances est au cœur
du processus de la recherche d’intention scientifique.
Comme l’a écrit Joseph Schumpeter1 dans son Histoire de
l’analyse économique, la connaissance scientifique est une
connaissance outillée. C’est, précise-t-il, « la mise au jour
de techniques spécialisées de recherche des faits ou
d’inférence »2, i.e. d’analyse, qui constitue le trait distinctif
d’un domaine de connaissance d’intention scientifique.
Dans le domaine des sciences sociales, au-delà de cette
dimension technologique, le chercheur a pour fonction
d’apporter ou de susciter des réponses à des problèmes
sociaux, posés selon des normes de la communauté
scientifique, par l’observation et, dans certains cas, par
l’expérimentation. De ce point de vue, il se distingue, d’une
part, du philosophe et de l’intellectuel qui ont une position
essentiellement critique et, d’autre part, du décideur et du
prophète qui apportent des réponses mais sans la
technologie du scientifique3.
S’engager dans l’étude des sciences sociales oblige donc
à un investissement intellectuel dans les méthodes
particulières de production des connaissances d’intention
scientifique afin d’apprécier les réponses qu’apportent les
chercheurs. Ce détour par l’épistémologie et la
méthodologie permettra de comprendre que les chercheurs
d’intention scientifique se trouvent sur un autre terrain que
celui plus complexe des hommes politiques, des
syndicalistes, des chefs d’entreprises, des consommateurs,
des producteurs, etc. C’est le phénomène de « la rupture
épistémologique entre connaissance scientifique et
connaissance commune » mis en relief par Gaston
Bachelard4.
S’agissant spécifiquement de l’économie politique, ce
détour revient à faire l’histoire de l’analyse économique
après avoir précisé son objet et ses méthodes. Car comme
l’a écrit encore Gaston Bachelard, « il n’y a pas une mais
des méthodes multiples » (L’Engagement rationaliste, 1972,
p. 39).
Chapitre 1
Objet et méthodes de la science
économique
Le lecteur, comme tout un chacun, a une idée intuitive de
ce qu’est l’économie. La vie de tous les jours est remplie
d’actes et de faits qui, pour un économiste, sont actes et faits
économiques. Acheter du pain chez le boulanger, payer une
place de cinéma, embaucher un travailleur et le rémunérer
par un salaire pour son travail, vendre le droit d’exploiter un
brevet d’invention, poursuivre volontairement ses études au
lieu d’aller travailler dans une entreprise, implanter un
hypermarché à la périphérie d’une grande ville, faire un
placement sur son livret d’épargne plutôt que de faire du
tourisme à l’étranger, fabriquer des ordinateurs plutôt que
des fardiers, affecter le produit des impôts au financement
des infrastructures de transport plutôt qu’au financement des
équipements militaires ou au financement de subventions
pour certaines activités agricoles ou industrielles, sont
quelques exemples d’actes sociaux qui intéressent d’une
certaine manière l’économiste.
De même, l’inflation, le chômage, la dette publique, la
dette externe, la crise pétrolière de 1973, le second choc
pétrolier de 1979, le sous-développement, la croissance
économique, la faillite d’une entreprise, la pauvreté, le
krach boursier du 19 octobre 1987 ou celui plus important
qui a commencé avec la faillite de la Banque Lehman
Brothers aux États Unis le 15 septembre 2008, l’intégration
de dix nouveaux pays dans l’Union Européenne le 1er mai
2004, la réunion du G20 le 21 novembre 2008 en vue d’une
concertation des politiques à mettre en œuvre pour amortir
le choc économique de la crise financière consécutive à la
crise des crédits hypothécaires à risques (subprimes) et
l’adoption de mesures de relance sont, de leur côté, des
exemples de faits sociaux sur lesquels se porte
l’investigation des économistes.
Ces actes et ces faits sociaux ne sont économiques que
dans la mesure où ils sont appréhendés à travers une grille
spécifique de lecture qui est celle d’une discipline appelée
indifféremment économie, économique, économie politique
ou science économique. L’histoire, la géographie,
l’anthropologie, l’ethnologie, la sociologie, la polémologie,
la psychologie sociale, le droit, la démographie et d’autres
sciences de l’homme et de la société peuvent se donner
comme objet d’étude ces actes et faits au même titre que
l’économie mais, chaque fois, dans une perspective
différente.
Le fait social constitue un tout. Le principe qui conduit à
parler et à distinguer des faits économiques, des faits
juridiques, des faits historiques, des faits sociologiques, etc.,
constitue une catégorisation, i.e. une démarche scientifique
ou raisonnée de simplification de cette globalité appelée
activité des hommes dans la société. Lorsqu’un individu
achète du pain, il ne se dit pas : « Je fais un acte
économique de demande ou un acte juridique d’achat, ou un
acte sociologique montrant mon appartenance à la culture
française, etc. ». De telles analyses relèvent de l’abstraction
scientifique. Le fait économique est ainsi une construction ;
mais avec l’importance du langage économique dans la
société – on parle d’un langage dominant – l’illusion ou la
représentation sociale qu’il existe des faits économiques
peut être prégnante. Il arrive alors que l’expression « fait
économique » finisse par relever du langage commun.
Puisqu’il n’y a pas de phénomènes économiques en soi,
comment caractériser la perspective spécifique qui est celle
de l’économie politique ?
La réponse à cette question suppose que l’on aborde,
d’une part, la spécification de son domaine au sein des
sciences de l’homme et de la société et, d’autre part, ses
méthodes qui la distinguent de la connaissance populaire et
du sens commun.
1. Le domaine de l’économie politique : de la richesse
aux choix
Certains économistes modernes, tels que Ludwig von
Mises5 (L’Action humaine, traduction française, PUF, 1985)
ou Claude Ponsard6 (Les Lois de l’économie, Encyclopédie
Clarté, 1961), font remarquer que les définitions du
domaine de la science économique ont évolué, au cours de
l’Histoire, du substantialisme étroit des richesses matérielles
du début de la discipline jusqu’aux conceptions les plus
larges, les plus généralisantes, les plus abstraites et
formalistes des théoriciens modernes de l’économie des
choix et de la décision, en passant par un stade intermédiaire
de la définition en extension des actes économiques. Dans
cette dernière approche, tel auteur insiste soit sur la
distribution des revenus (David Ricardo7 dans Essai sur
l’influence des bas prix du blé sur les profits du capital en
1815), soit sur l’échange8 (les théoriciens de l’équilibre
aussi bien sur un marché – équilibre partiel qui concerne
l’offre et la demande pour un seul produit – que sur
l’ensemble des marchés – équilibre général), tel autre
n’établit pas de hiérarchie entre la production, l’échange ou
la distribution et la consommation des richesses (Jean-
Baptiste Say9, Traité d’économie politique, 1803) pour
définir le domaine principal de l’économie.
En négligeant cette conception extensive qui ne permet
pas de distinguer, par exemple, la sociologie et l’économie
puisqu’il existe une sociologie du travail tout comme une
économie du travail, ou une sociologie de la consommation
et une théorie économique de la consommation, etc., il
apparaît que l’évolution précédente revient à une histoire
des conceptions de la richesse ; et par richesse on entend ce
qui a de la valeur, mais encore faut-il s’entendre sur les
déterminants de celle-ci.
1.1. La valeur, problème économique fondamental
L’économie s’intéresse à ce qui a de la valeur. Mais le
fondement de la valeur peut être soit le temps moyen ou
social consacré à l’obtention de biens matériels susceptibles
d’être échangés sur un marché, soit le besoin ressenti par les
individus ou par la collectivité pour justifier la dépense
permettant d’obtenir le bien. La valeur d’un bien peut donc
être fondée soit sur sa capacité d’être échangé (on parle de
valeur d’échange, valeur de marché), soit sur son utilité
directe, i.e. sa capacité à satisfaire directement un besoin
sans passer par l’échange (on parle de valeur d’usage).
La valeur d’échange s’exprime par un rapport entre un
certain nombre d’unités des deux biens X et Y qui font
l’objet de l’échange. Ce rapport constitue le prix du bien X
en termes de Y (quantités du bien Y pour avoir une unité de
X, soit Y/X), ou le prix du bien Y en termes de X (quantités
du bien X pour avoir une unité de Y, soit X/Y). Toutefois,
lorsqu’il s’agit de biens reproductibles, la valeur d’échange
s’ouvre sur deux formes différentes. L’une est la valeur
courante ou instantanée obtenue par la rencontre de l’offre
et de la demande ; l’autre est la valeur naturelle ou normale
qui est mesurée par les moyens mis en œuvre pour obtenir le
bien. Cette valeur normale correspond à la valeur objective
ou valeur sociale autour de laquelle gravite la valeur
courante ou prix du marché. C’est ce que Richard Cantillon10
désigne par l’expression de valeur intrinsèque par
opposition à la valeur extrinsèque exprimée par le prix du
marché (Essai sur la nature du commerce en général, 1755,
INED, 1952). Elle pose que la valeur est déterminée par les
coûts de production. Elle correspond, notamment chez
David Ricardo11 et Karl Marx12, à la valeur travail, car les
coûts de production sont du travail direct (durée du travail
présent) et du travail indirect (durée du travail passé
consacrée aux matières premières, aux équipements…).
Chez R. Cantillon, il s’agit de la valeur terre, car c’est la
terre qui mesure la valeur intrinsèque en fournissant les
matières premières et les subsistances du laboureur.
La seconde conception de la valeur correspond à la valeur
subjective, i.e. à la valeur qu’un individu attribue à un bien.
L’hypothèse implicite, dans cette conception de la valeur,
est que l’intensité du besoin ressenti à l’égard d’un bien
varie d’un individu à un autre, mais, explicitement cette
fois, selon l’énoncé de la première loi de Gossen, l’utilité
associée à la dernière unité du bien disponible ou utilité
marginale est d’autant plus faible que ce bien est en quantité
abondante. Cette conception de la valeur d’échange
privilégie la valeur d’usage, parce que c’est elle qui conduit
l’agent économique à établir un ordre de priorité pour ses
besoins, étant donné que les moyens pour les satisfaire sont
limités. C’est la valeur attribuée aux biens de consommation
(ou biens directs ou biens de premier rang dans la
conception de l’école autrichienne) qui détermine la valeur
des biens indirects, i.e. les biens de production qui
permettent d’obtenir les biens directs. Cette conception a
surtout été développée dans le cadre de la révolution
marginaliste13 dans les années 1870. Elle correspond à la
logique de Condillac14 qui écrivait déjà : « Un bien ne vaut
pas parce qu’il coûte, mais il coûte parce qu’il vaut » (Le
Commerce et le Gouvernement considérés relativement l’un
à l’autre, 1776).
L’approche par la valeur objective réduit le domaine de
l’économie à l’étude des économies de marché. La valeur
subjective implique l’idée de choix, qu’il y ait ou non
échange, i.e. qu’il y ait ou non une société, et quelle que soit
la forme de celle-ci.
1.2. Satisfaction des besoins et ressources rares : la finalité
et la contrainte du comportement économique
À la question que pose Jean Fourastié15 dans le titre de
son célèbre livre Pourquoi nous travaillons (PUF, 1959), la
réponse est évidente : nous cherchons à nous procurer un
revenu pour acquérir les biens et les services indispensables
à la vie, obtenus par la production dans des unités
économiques appelées domaine, exploitation, entreprise ou
firme. Le revenu est, en principe, ce qui peut être dépensé
sans entamer le patrimoine, tout comme l’usage de l’eau
d’une rivière n’épuise pas sa source16.
L’économie est, dès lors, la science qui permet d’acquérir
les richesses nécessaires à la satisfaction des besoins,
comme la concevait Aristote qui la distinguait de la
chrématistique17. Cette réponse est cependant superficielle,
car elle ne nous renseigne pas sur les raisons profondes qui
obligent les hommes à produire, ce qui pour le moment est
synonyme de travailler. Elle serait moins partielle en
signalant le phénomène de la rareté – ou disponibilité en
quantités limitées – des ressources utiles aux hommes.
Prenons le problème autrement pour comprendre la nature
des biens économiques qui justifie l’activité de production.
1.2.1. La notion de rareté
L’homme a besoin d’air pour vivre mais, en négligeant
quelques cas limités de dépollution de l’air, on sait qu’il ne
consacre pas de temps et d’effort pour obtenir ce que la
nature lui procure en abondance. Les biens naturels dont
l’abondance est telle qu’ils ne sont pas épuisables par la
consommation sont alors gratuits et non produits par
l’homme. L’air est certes utile, mais il n’est pas rare. Il est
un bien libre et non pas un bien économique. L’aptitude à
satisfaire un besoin, quel qu’il soit, appelée utilité ou
ophélimité, ainsi que la rareté sont les deux qualités
fondamentales d’un bien économique. Celui-ci peut
d’ailleurs être matériel ou immatériel18. Dans ce dernier cas,
on emploie le terme service. Les biens et services produits
avec des ressources rares et qui répondent aux besoins sont
eux-mêmes économiques (voir l’encadré sur la
classification des biens).
Lorsqu’un individu désire avoir une maison pour
satisfaire son besoin de logement, des vêtements pour se
protéger, des aliments pour se nourrir, des moyens de
transport pour se déplacer, des médicaments pour se soigner,
une éducation pour s’informer, se cultiver et acquérir un
métier, il ne pourra pas trouver ces biens et services tels
quels dans la nature. Certes, on peut imaginer des sociétés
primitives faiblement peuplées, dans lesquelles l’effort de
l’homme se limite à une activité prédatrice de chasse, de
pêche et de cueillette. Avec la croissance démographique,
un autre mode d’activité ou mode de production dit encore
système économique est nécessaire pour, d’une part, éviter
l’épuisement très rapide des ressources naturelles et, d’autre
part, les rendre plus appropriées à la satisfaction des besoins
humains. Les biens obtenus dans le cadre de cette activité
constituent les biens économiques. Ceux-ci sont les biens
auxquels s’applique l’acronyme TANSTAAFL qui
correspond à la sentence anglaise : « There ain’t no such
thing as a free lunch. » Il se traduit par : « Il n’y a pas de
repas gratuit », ce qui signifie que l’obtention de tout bien
économique exige une contrepartie soit directe (par le
travail que l’on fait, par exemple, pour cultiver des légumes,
les récolter ensuite et confectionner le repas) soit indirecte
(en payant avec de la monnaie ou avec un autre produit le
bien que l’on cherche à se procurer).
Quelques classifications des biens économiques

1. Biens économiques, biens libres


Les biens économiques sont des biens rares (disponibles
en quantité limitée) qui sont utiles (répondent à un besoin).
Les biens libres sont des biens qui existent en quantité
illimitée. L’ensemble des biens économiques constitue, dans
le vocabulaire de Léon Walras, la richesse sociale. Par ces
qualités de rareté et d’utilité, Walras précise que les biens
économiques sont appropriables, ont de la valeur qui suscite
leur échange et sont industriellement productibles («
Économique et mécanique », Bulletin de la Société vaudoise
des sciences naturelles, 1909, vol. 45, p. 314).
2. Biens matériels, biens immatériels
Les biens matériels sont des biens tangibles, physiques,
réels ou concrets. Ils peuvent être stockés. Les biens
immatériels, ou services, sont des biens dont la production
et la consommation sont simultanées, et ne sont donc pas
stockables de ce fait. Cependant, l’information présente la
spécificité d’une immatérialité stockable sur des supports
(livres, rochers d’une montagne ou d’une grotte, journaux,
disques, bandes magnétiques, DVD, cédérom, tatouages sur
la peau, etc.).
3. Biens durables, biens non durables
Un bien durable est un bien dont l’usure est progressive
et lente. Un bien non durable est détruit dans le premier
usage. Le bien semi-durable est entre les deux.
4. Biens finals, biens intermédiaires
Les biens finals sont des biens utilisables tels quels, sans
transformation. Le robot pour une entreprise, la paire de
chaussures pour un individu, les exportations d’une nation
sont des biens finals. Les biens intermédiaires sont des biens
destinés à la transformation dans le processus de
production : matières premières, énergie, produits semi-
œuvrés, etc.
5. Biens de production, biens de consommation
Les biens de production sont des biens indirects, i.e. des
biens destinés à l’obtention d’autres biens. Les biens de
production comprennent, d’une part, les biens d’équipement
que l’on appelle encore biens instrumentaux (bâtiments,
machines-outils…) et, d’autre part, les biens intermédiaires
qui sont à transformer. Les biens de consommation finale
sont des biens finals directs, i.e. des biens destinés à la
satisfaction directe des besoins. Cette distinction ne dépend
pas de la nature des biens mais de leur destination. Par
exemple, une voiture est un bien de production pour un
représentant de commerce dans ses déplacements
professionnels, c’est un bien de consommation finale pour
un ménage.
6. Biens complémentaires, biens substituables
Les biens sont complémentaires lorsque l’utilisation de
l’un ne peut se faire qu’avec les autres. On dit que ce sont
des biens à demande conjointe. Par exemple, on ne peut se
servir d’une automobile sans carburant. Les biens sont
substituables lorsqu’ils sont concurrents. Par exemple, le
beurre et la margarine peuvent être substituables pour
confectionner une tartine
7. Biens divisibles, biens indivisibles
À l’utilisation, un bien est divisible lorsqu’il est possible
de le répartir en quantités infinitésimales, soit dans le temps,
soit entre les différents utilisateurs. Un bien est indivisible
lorsque son usage partiel est impossible. Par exemple, un
litre d’eau est divisible, une veste ne l’est pas à un instant
donné, mais elle peut l’être dans le temps, en ce qu’elle peut
être portée successivement par différentes personnes. C’est
ainsi qu’on loue des vêtements, des paires de ski, etc. La
divisibilité dans le temps suppose donc des biens durables
ou semi-durables.
8. Biens privés et biens publics, biens tutélaires
La distinction bien public/bien privé est de nature
juridique et porte sur l’agent titulaire du droit de propriété.
Un bien privé est un bien à usage particulier et auquel
s’applique le principe d’exclusion par les prix : sa
consommation peut être limitée à ceux qui veulent payer un
prix. Il peut être soit individuel à la consommation et
divisible ou indivisible (par exemple, une baguette de pain
est divisible, une paire de chaussures est indivisible), soit
collectif à la consommation (par exemple, le poste de
télévision regardé en famille).
Les biens publics sont des biens produits par le secteur
public. À la consommation, ils peuvent être soit individuels
(par exemple, la consultation médicale à l’hôpital), soit
collectifs (par exemple, les services rendus par la police
municipale, par la défense nationale, etc.).
Les biens tutélaires (merit goods) sont des biens jugés
souhaitables et utiles du point de vue social et dont le
développement, ou tout simplement la production, exige
l’action ou la tutelle de la puissance publique. Par exemple,
les activités artistiques et culturelles, les parcs naturels, etc.
L’expression anglo-saxonne de demerit goods n’est pas
aisément traduisible, dans la mesure où elle désigne des
biens socialement nocifs auxquels l’État applique des tarifs
de dissuasion ou des règles de prohibition.
9. Biens individuels et biens collectifs
Un bien individuel est un bien pour lequel les
consommateurs sont rivaux. La consommation du bien
réduit la quantité disponible pour d’autres consommateurs
potentiels. Il peut faire l’objet d’un prix qui permet
d’exclure ceux qui ne peuvent pas le payer.
Un bien collectif pur est un bien « dont tous les individus
bénéficient en commun, en ce sens que la consommation
d’un tel bien par un individu n’entraîne aucune diminution
de la consommation de ce même bien par les autres
individus » (P.A. Samuelson, « The pure theory of public
expenditure », Review of Economics and Statistics, n° 36,
1954, p. 387). Le principe de non-rivalité et le principe de
non-exclusion de consommateurs ou bénéficiaires potentiels
par le prix ou par un autre moyen sont les caractères
techniques spécifiques du bien collectif pur. Regarder la
télévision à plusieurs en famille (bien collectif privé),
bénéficier de l’éclairage des rues ou du signalement d’une
île ou d’un rocher par un phare maritime (bien collectif
public) sont des consommations qui ne réduisent pas le
bien-être des autres consommateurs, alors que le bien est
unique. Le bien collectif public pur peut être aussi bien
national qu’international ou mondial. Selon Kindleberger
(International Public Goods without International
Government, 1986), il existe cinq biens collectifs publics
internationaux ou mondiaux : un système monétaire
international, un système commercial d’échange et de
communication, un système financier international, un
système de coordination des politiques économiques
nationales et un système de droit international privé. On
peut évoquer aussi les biens qui relèvent de l’environnement
et qui sont indispensables à la vie sur terre (la qualité de
l’air, la qualité et le volume de l’eau, la stabilisation du
climat, la lutte contre les maladies contagieuses dans le
cadre d’une interdépendance de plus en plus grande des
nations) et au développement mondial (l’information, la
connaissance). On parle alors de biens communs à
l’humanité (Garett Hardin « The tragedy of Commons »,
Science, n° 162, 1968), biens d’intérêt général (pour
l’humanité).
Un bien collectif public comporte des effets externes
positifs difficiles à évaluer par les règles du marché, sachant
que l’effet externe résulte de l’interdépendance des agents.
Ainsi, le fait pour une entreprise de bénéficier d’une main-
d’œuvre qualifiée formée de manière indépendante de
l’action de l’entreprise constitue une économie externe. Si
cette qualification est obtenue auprès d’une entreprise
concurrente, des problèmes de compensation peuvent se
produire, car toutes les entreprises sont intéressées par la
possibilité de disposer d’une main-d’œuvre qualifiée ; mais
aucune en particulier ne veut prendre à sa charge les coûts
de la formation. De manière plus générale, pour tout bien
indivisible à concernement collectif, une production privée
risque d’être au-dessous de ce qui est collectivement
souhaitable, si le producteur n’arrive pas à faire payer ceux
qui tirent avantage de son activité. Les externalités, dès
qu’elles touchent un très grand nombre de personnes, sont
des relations qui mettent en échec le marché (failures of
market) et qui exigent donc l’intervention de la puissance
publique. Par conséquent, l’activité qui est à la source de
ces externalités est publique lorsque les effets sont positifs
(économies externes) ou suscite la réglementation qui
s’applique aux entreprises pour réduire les effets négatifs
(déséconomies externes).
On notera, qu’il arrive, même chez des économistes
rigoureux, que les expressions « bien public » et « bien
collectif » soient prises l’une pour l’autre, alors que ce sont
deux notions différentes. Les biens publics
institutionnellement, que l’on associe d’ailleurs aux services
publics dans leur fourniture, correspondent souvent à des
biens collectifs nationaux (Éducation nationale),
municipaux (piscine municipale ou intercommunale, jardin
public) ou autres. Ces biens collectifs publics ne sont pas
des biens collectifs purs, car on peut demander aux usagers
de payer ou de participer aux frais de la fourniture de ces
biens, même si cette participation ne couvre pas
nécessairement les coûts de production. Il y a ainsi des frais
d’inscription à l’université, un prix pour accéder à la
piscine…
10. Bien contingent
Bien payé dont la disponibilité est liée à la réalisation de
certaines conditions. C’est le cas notamment des indemnités
d’assurance qui ne sont versées qu’après un sinistre pour
lequel la police a été souscrite.
11. Bien de club ou à péage
Bien collectif auquel s’appliquent à la fois le principe de
non-rivalité des consommateurs et le principe d’exclusion
par les prix. Par exemple, des chaînes de télévision à péage,
un club de golf pour lequel il faut s’acquitter de
l’abonnement payant pour être utilisateur.
12. Bien d’expérience
Bien dont les qualités s’apprécient à l’usage. Si, par
exemple, essayer un modèle de voiture permet de se faire
une idée du produit que l’on envisage d’acquérir, en
revanche, dans le domaine de l’information, il faut
consommer celle-ci pour connaître ses qualités.
L’information du lendemain ne sera pas la même que celle
consommée la veille. Le propre de l’information est
d’apporter de la nouveauté, d’augmenter les connaissances,
de réduire l’incertitude. En cela, l’information est un bien
d’expérience permanent.
13. Synthèse : classification des biens et supports
informationnels
1.2.2. Échange et spécialisation : nature et fonctions de la
monnaie
L’agriculture et l’élevage, puis les manufactures,
l’industrie moderne et le développement des services tels
que les transports, les banques, la distribution commerciale,
l’enseignement et les systèmes de santé ont été et sont des
réponses données à la rareté ainsi qu’à l’inadaptation des
ressources naturelles en vue de satisfaire directement les
besoins des hommes. L’allongement du processus productif
séparant celles-ci de la consommation finale par les
hommes n’est alors que la traduction du développement
économique. Plus ce processus est long, i.e. plus le nombre
d’activités complémentaires est élevé, plus la société est
développée et, en même temps, son organisation plus
complexe. L’autoproduction et l’autoconsommation, dans
une économie familiale ou domaniale fermée, s’estompent
au profit de l’échange. Les hommes et les espaces
économiques se spécialisent chacun dans un nombre limité
d’activités différentes pour augmenter la richesse globale.
Cette division du travail qui assure la richesse des nations,
selon Adam Smith19, suscite le développement des échanges
et, par là même, la création d’un instrument conventionnel
destiné à les faciliter. L’invention de la monnaie répond à ce
besoin.
L’échange peut certes se faire par le troc simple, mais il
n’est pas facile de trouver un coéchangiste qui accepte le
bien proposé et la quantité de ce bien en contrepartie de la
quantité de celui recherché. Il faut donc dépenser beaucoup
de temps pour trouver ce coéchangiste. Une telle dépense
d’information représente un coût de transaction. La monnaie
en tant qu’équivalent général abstrait des marchandises dont
parle Karl Marx (Le Capital, « Livre I », 1867) évite ces
coûts en transformant le troc simple en un double troc :
l’échange du bien produit contre de la monnaie suivi de
l’échange de la monnaie contre le bien recherché,
La monnaie n’est une richesse qu’en tant qu’instrument
accepté par la société pour obtenir des biens et des services.
Comme Aristote l’écrit dans La Politique : « C’est une
étrange richesse que celle dont le possesseur, quelque
grande qu’elle soit, mourra de faim : comme ce Midas de la
fable, dont le vœu cupide changeait en or tous les mets qui
lui étaient servis » (« Livre I », chapitre 3). La monnaie
n’est qu’un instrument conventionnel dans une société
donnée. Elle exprime, pour son détenteur, un droit de
créance sur des biens et des services offerts par d’autres
personnes. Il faut que ce qui sert d’instrument monétaire
soit accepté par la société comme liquidité, i.e. comme
moyen de paiement immédiat pour se libérer d’une dette ou
comme contrepartie d’un bien. Ce rôle est d’autant mieux
tenu que l’instrument ne perd pas son pouvoir d’achat dans
le temps. Par cette qualité de la stabilité de son pouvoir
d’achat, qui se mesure par la quantité d’un même bien que
permet d’acquérir une unité monétaire, la monnaie est aussi
un instrument de réserve des valeurs. Cette fonction
d’épargne, la fonction économique de la monnaie, s’ajoute
donc aux deux autres fonctions juridiques d’instrument de
paiement qui facilite les échanges (fonction de transaction,
moyen de paiement institué dans la société) et de mesure
des valeurs (fonction d’étalon ou unité de compte définie
par les pouvoirs publics).
La monnaie a une forme conventionnelle variable selon
les époques et les sociétés. Elle a d’abord été une monnaie
marchandise – or, argent, billion (alliage à faible teneur en
argent), sel, cuivre, bronze, etc., – pour devenir de plus en
plus et partout une monnaie de crédit. Elle correspond alors
à la valeur nette que doivent les banques aux titulaires des
comptes de dépôts.
Si une banque commerciale reçoit un dépôt à vue de 1
000 € dont l’origine est de la monnaie émise par la banque
centrale, la masse monétaire dite scripturale est de 1 000 €.
Elle est une monnaie scripturale, car elle correspond à une
écriture d’une dette de la banque à l’égard du déposant qui
dispose ainsi d’un solde créditeur, la banque commerciale
étant débitrice20. La banque peut prêter une partie du dépôt
et garder l’autre pour faire face au retrait correspondant au
besoin de liquidités en monnaie émise par la banque
centrale du déposant. Si elle garde 10 % du dépôt, elle peut
donc prêter 900 €. Pour cela, il faut que la banque soit
sollicitée par des demandeurs de monnaie qui ont un besoin
de financement. Il en résulte que la monnaie en circulation a
augmenté du montant du prêt consenti par la banque à ces
agents à besoin de financement. La masse monétaire est
donc de 1 900 € (1 000 € de dépôt + 900 € de prêt). Si le
bénéficiaire du crédit paie un fournisseur de biens qui
dépose les fonds dans une autre banque, celle-ci peut à son
tour faire des prêts dont le montant est déterminé par le
coefficient de réserve. La réserve est constituée par les
billets de la banque centrale, les pièces de monnaie et les
engagements de la banque centrale à l’égard des banques
commerciales (dépôt des banques commerciales auprès de
la banque centrale). Tous ces éléments forment la base
monétaire ou monnaie à haute puissance. Le multiplicateur
de crédit exprime alors le pouvoir de création de monnaie
par les banques. Il est l’inverse du coefficient de réserve.
L’offre totale de monnaie, avec un coefficient uniforme de
10 %, pour un dépôt initial de 1000 € s’élèvera donc à 10
000 €, puisque le multiplicateur (1/coefficient de réserve)
est égal à 10.
Du point de vue théorique, les choses ne sont cependant
pas aussi simples. Certains auteurs soutiennent que l’offre
de monnaie par la banque suppose un dépôt préalable
comme dans l’exemple donné ci-dessus. Dans sa forme la
plus extrême, ce courant va au XIXe siècle jusqu’à limiter le
volume de la création monétaire au montant de l’encaisse
métallique-or de la banque centrale. Tout dépassement,
toute émission de monnaie au-delà de la couverture se
traduiront par l’inflation, i.e. une hausse générale des prix. Il
s’agit du currency principle ou principe de la currency
school (école de la couverture métallique intégrale) qui
revient à soutenir la thèse de l’offre de monnaie exogène.
C’est en particulier la position de David Ricardo. Cette
position est critiquée par d’autres auteurs qui, comme
Thomas Took ou John Fullarton au XIXe siècle et le rapport
Radcliffe publié au Royaume-Uni en 1959, soutiennent que
si la monnaie de la banque centrale est limitée, le public
trouvera une autre monnaie de substitution. Le crédit ou prêt
consenti par les banques commerciales est déterminé par la
demande des agents à besoin de financement. Les banques
commerciales se refinancent auprès de la banque centrale. Il
n’y a aucun risque d’avoir un excès de monnaie qui
susciterait une inflation, car la monnaie est demandée pour
acquérir des biens qui existent et qui ont déjà un prix fixé
indépendamment du volume la masse monétaire. C’est
celle-ci qui s’adapte aux prix et non l’inverse. Si inflation il
y a, la cause réside dans la hausse des coûts de production.
C’est la thèse de l’offre de monnaie endogène, i.e. que
l’offre de monnaie est déterminée par la demande. Le dépôt
n’est pas préalable au crédit. C’est, selon la formule célèbre,
« les prêts qui font les dépôts » (ou en anglais « loans make
deposits »), résumant la pensée du banking principle (ou
école favorable au principe de régulation de la création de la
monnaie par les banques). Les banques commerciales font
des prêts, puis s’adressent à la banque centrale pour avoir la
monnaie à haute puissance. Il n’est plus question de
multiplicateur de crédit. Dans ce cas, il s’agit du diviseur de
crédit. Il indique ce que sera le refinancement des banques,
auprès de la Banque centrale pour une quantité donnée de
crédit.
Les héritiers du currency principle sont les monétaristes
et tous ceux qui adhèrent à la théorie quantitative de la
monnaie (par exemple, M. Friedman), théorie selon laquelle
l’évolution de la masse monétaire détermine l’évolution des
prix. Les héritiers du banking principle sont les post-
keynésiens (par exemple, Paul Davidson, Nicholas Kaldor,
Marc Lavoie, Jacques Le Bourva, H.P. Minsky , Basil J.
Moore, Sidney Weintraub) et les économistes français de
l’école du circuit (Alain Barrère, Alain Parguez, Bernard
Schmitt) qui, tout en se situant dans un héritage keynésien21
du Treatise on money (1930)22 et en refusant l’approche
monétariste pure, ont cependant des points de vue
différents.
L’horizontalisme de l’offre de monnaie correspondant
aux conceptions de B. Moore et N. Kaldor s’applique quel
que soit le taux d’intérêt. Une telle conception revient à
soutenir la thèse selon laquelle la politique monétaire de
réserve ne sert à rien et la banque centrale n’a aucun moyen
ni de limiter le volume du crédit ni d’intervenir sur les
banques commerciales.
À l’autre extrême, le verticalisme, conforme à la thèse
des monétaristes, désigne la position selon laquelle l’offre
de monnaie est rigide. Entre les deux, se situe le
structuralisme qui admet une possible efficacité de la
politique monétaire de la banque centrale. Ces différentes
positions sont visibles sur les trois figures présentées dans
l’encadré relatif aux lois de l’offre et de la demande (1.1.g.,
1.1.h. et 1.1.i.) et sont synthétisées par la courbe LM dans la
représentation graphique dite schéma ISLM de Hicks et
Hansen (voir plus loin les chapitres 8à 11). La version
structuraliste reconnaît que la banque centrale peut agir sur
le volume de la masse monétaire.
Cette monnaie circule par ordre sous forme de chèque23,
écriture électronique, sans passer nécessairement par des
instruments tangibles ou manuels comme les pièces et les
billets qui ne représentent qu’un très faible pourcentage de
la masse monétaire dans les pays développés. Ces éléments
(pièces et billets) augmentés des dépôts à vue et des avoirs
en « porte-monnaie électronique » forment pour un pays ou
pour une zone monétaire, comme par exemple celle de
l’euro, l’agrégat monétaire M1. Ce dernier constitue ainsi la
masse monétaire au sens étroit. En lui ajoutant des actifs
transformables rapidement, en liquidités immédiates i.e.
sans coût de transaction élevé, on obtient l’agrégat M2. La
masse monétaire M2 est donc la somme de M1 et des dépôts
d’épargne (compte sur livret), et des dépôts à terme d’une
durée inférieure ou égale à 2 ans. Un troisième agrégat dit
M3, correspondant à la masse monétaire au sens large, est
calculé en ajoutant à M2 divers autres passifs bancaires à
court terme correspondant notamment aux titres émis par
des organismes de placements collectifs de valeurs
mobilières (OPCVM) tels que les parts de SICAV (société
d’investissements à capital variable) et de FCP (fonds
commun de placement). Il n’en demeure pas moins que ce
qu’un groupe social particulier accepte comme instrument
d’échange peut être différent de ces définitions officielles.
Et c’est ainsi que des billes ou des chewing-gums
remplissent quelquefois cette fonction dans les cours de
récréation des écoles.
1.2.3. Utiliser au mieux les ressources rares
L’échange entre les individus ou entre les nations revient
à offrir ce que l’on a en abondance contre des biens et des
services qui manquent. Dans cette opération, on ne doit pas
oublier que l’abondance est relative, ce qui veut dire qu’il
s’agit de ne pas gaspiller ses ressources (voir encadré). On
retrouve ainsi l’un des sens populaires d’économie, i.e. le
contraire de gaspillage. Comme l’a écrit Ludwig von
Mises : « Les terrains de l’action rationnelle et de
l’économie ne font qu’un. Toute activité rationnelle est
économie et toute économie est activité rationnelle. »24
L’individu rationnel est alors celui qui se préoccupe
d’obtenir le plus grand volume du bien qu’il cherche à
acquérir en contrepartie de la quantité donnée du bien qu’il
propose de céder. L’individu cherche à utiliser au mieux, i.e.
à ménager ses ressources rares (le dictionnaire de Furetière
au XVIIe siècle indique que le mot œconomia désigne le
ménagement prudent que l’on fait de son bien ou de celui
d’autrui). Économie est alors synonyme d’administration,
de gestion, de management, de respect de certaines règles
ou normes pour maintenir un ordre préférable dans la
maison, le domaine, la cité ou la nation. C’est bien le sens
étymologique du mot économie dans lequel oïkos signifie
maison, milieu, environnement, nomos signifiant loi, ordre,
organisation.
Le ménagement prudent et les lois de l’offre et de la demande : le
comportement de l’Homo œconomicus

L’Homo œconomicus n’est pas un sujet concret, mais un


modèle abstrait de l’individu informé, rationnel
(calculateur) et libre (autonome, indépendant) dont le
comportement général est totalement déterminé par la
recherche du maximum de plaisir, de jouissance, de
satisfaction, d’avantages, de bienfaits, tout en minimisant la
souffrance, la peine, les inconvénients, les coûts, la dépense.
Le principe du non-gaspillage ou du ménagement de
ressources rares en est l’une des manifestations. Il conduit
l’agent économique ou Homo œconomicus à ne se dessaisir
d’une partie croissante de son bien que si la quantité du bien
qu’il obtient en contrepartie augmente pour chaque unité du
bien qu’il offre. Ce bien possédé en grande quantité au
départ devient de plus en plus rare, il convient donc de ne
pas le gaspiller, et le bien reçu en contrepartie devient de
plus en plus abondant. Et si l’on accepte d’appeler prix la
quantité du bien reçu en contrepartie d’une unité du bien
offert, alors on obtient la première loi fondamentale de
l’économie de marché : la loi de l’offre qui est une fonction
croissante du prix. Une baisse du prix suscite une baisse de
l’offre, et une hausse du prix (dans la figure 1.1. a ci-
dessous : passage de p1 à p2) engendre une hausse de l’offre
(de y1 à y2). Offrir plus c’est accepter des sacrifices, ce qui
demande une compensation à la hauteur. L’offre peut
cependant se modifier de manière indépendante de la
quantité de l’autre bien proposée en contrepartie. Dans ce
cas on parle de variation exogène de l’offre ou choc d’offre.
Cela se traduit par un déplacement de la courbe à gauche en
cas de baisse ou à droite en cas de hausse. Dans la figure
1.1.b, il s’agit d’un accroissement de l’offre. Pour un prix p3,
l’offre qui était en y3 passe en y4. Ce phénomène peut être dû
à de meilleures conditions climatiques, à la paix sociale, à la
découverte de nouveaux gisements de matières premières,
etc.
La loi de l’offre et choc exogène

Si l’on inverse le rapport pour avoir la quantité du bien


offert en contrepartie d’une unité du bien demandé ou reçu,
on observe que la quantité offerte diminue au fur et à
mesure que la quantité demandée ou reçue augmente. C’est
la deuxième loi fondamentale de l’économie de marché, ou
loi de la demande, qui est une fonction décroissante du prix.
Sur la figure (1.1.c) ci-dessous, le passage de p 3 à p 4,
suscite une baisse de la demande qui passe de y3 en y4. La
demande peut se modifier indépendamment du prix. Ce
choc exogène se traduit par un déplacement de la courbe de
demande à gauche pour une diminution et à droite pour une
augmentation (figure 1.1.d).
La loi de la demande et choc exogène
La loi de la demande et la loi de l’offre se déduisent l’une
de l’autre : on dit que l’offre est une demande réciproque ou
la demande est une offre réciproque. Chacun essaie
d’obtenir le plus en dépensant le moins.
Tel est le comportement de l’Homo œconomicus. Les
quantités qui seront échangées sur le marché correspondent
à l’intersection au point E de l’offre et de la demande qui
signifie que le prix proposé pour une unité de bien offert
satisfait le demandeur. Aucun n’a avantage à modifier le
volume de ce qu’il propose contre le volume de l’autre bien.
Cette situation constitue un équilibre qui se caractérise par
un prix d’équilibre pe et une quantité échangée d’équilibre
ye. L’échange se fait à la satisfaction de chacun et donc de
tous. Un acheteur n’accepte de payer un prix que s’il trouve
l’opération avantageuse pour lui. Un vendeur ne se dessaisit
d’un bien que s’il considère avantageux pour lui le prix
qu’il demande et qu’accepte l’acheteur. Personne dans cet
échange ne pense à l’autre. Telle est la signification de
l’équilibre formulé métaphoriquement par le principe de la
main invisible25.
Les chocs exogènes peuvent modifier cet équilibre. Par
exemple, une abondante récolte inattendue en agriculture
sans possibilité de stockage ou de conserve peut entraîner
une forte baisse du prix d’équilibre (passage de pe1 à pe2 et
une augmentation de la quantité d’équilibre (figure f).
Marché : équilibre entre l’offre et la demande
Les trois cas particuliers de l’offre de monnaie :
Les figures 1.1.g et suivantes illustrent les différentes
conceptions de l’offre de monnaie présentée ci-dessus. Ici la
notion de prix correspond au taux d’intérêt.

Dans les sociétés sans rapport social marchand (les


sociétés à potlatch), ces lois ne s’appliquent pas, du moins
telles qu’elles viennent d’être présentées. Les effets externes
limitent également la portée de ces lois.
- Avec le potlatch, le don ne s’analyse pas en termes
marchands d’offre, car le donateur n’exprime pas
une demande réciproque, puisque le principe du
potlatch est de mettre le donataire dans l’incapacité
d’assurer un contre-don équivalent, afin d’exercer
sur lui une domination. Il n’est cependant pas
interdit de penser que cette domination constitue la
contrepartie du don, mais dans ce cas le donataire
est forcé d’accepter le don, ce qui est tout à fait
différent de l’échange librement négocié dans une
économie de marché.
- Avec les externalités, ou conséquences sur un tiers
ou autrui de l’action d’un agent, on retrouve ce
déséquilibre interdisant de voir dans une offre une
demande réciproque. En effet, on peut profiter d’un
bien ou en subir les coûts sans qu’il y ait
nécessairement une demande exprimée avec
l’intention de payer. À la différence du potlatch, ces
effets peuvent se produire sans intentionnalité de la
part de l’agent responsable. En d’autres termes, les
effets externes sont les conséquences négatives
(déséconomies externes) ou positives (économies
externes) de l’interdépendance des agents
économiques.
Par exemple, les maladies dues à la pollution
atmosphérique sont des effets externes négatifs. Une maison
fleurie est une externalité positive pour les passants. Il peut
exister des externalités positives réciproques. C’est
notamment le cas de l’effet de voisinage de deux espaces,
l’un étant consacré à l’apiculture et l’autre à l’horticulture :
l’apiculteur évite des dépenses pour nourrir ses abeilles et
l’horticulteur réalise des économies pour la sémination ou
pollinisation (exemple proposé par J. Meade en 1952).
Aucun des deux producteurs ne peut contrôler la production
de l’autre ni attacher un prix au butinage des abeilles. On
notera enfin que les embouteillages sur les routes sont des
effets externes négatifs réciproques : les nouveaux arrivants
accroissent l’encombrement et sont eux-mêmes gênés.

Le mot « économie », apparu pour la première fois,


semble-t-il, comme titre d’un ouvrage écrit par le Grec
Xénophon (440-355 av. J.-C.), donne ainsi un aspect
normatif à la perspective de la discipline. De nos jours,
l’approche normative n’est qu’une des perspectives de la
science économique, les autres étant, d’une part, l’approche
positive qui s’appuie sur les faits (l’approche descriptive et
l’approche explicative) et, d’autre part, l’approche
fondamentale dite économie pure qui étudie ou élabore des
modèles cohérents (axiomatique), abstraits (sans rapport
avec la réalité) et généralement fortement formalisés, i.e.
utilisant un langage mathématique.
Les deux perspectives sont successives, comme l’indique
implicitement Jean Tirole, reprenant d’une certaine façon le
postulat d’Auguste Comte : « Savoir pour prévoir, prévoir
pour pourvoir »26 lorsqu’il déclare : « La science
économique est à la fois “positive” et “normative” : elle
analyse les comportements pour établir des
recommandations de politique économique, pour
finalement essayer de “rendre le monde meilleur”.»27
L’aspect normatif en économie est explicite en sciences
de gestion, en économie publique, en économie du
développement et en économie du bien-être (Welfare
Economics). L’objet de l’économie normative est d’aider à
la prise de décision en indiquant la meilleure allocation des
ressources rares, i.e. l’optimum. Elle permet, pour un
objectif donné, de définir les meilleurs programmes à
entreprendre (pertinence et budgétisation des moyens à
mettre en œuvre), ceux qui donnent soit le produit ou
l’avantage le plus élevé pour les moyens employés
(efficience), soit l’efficacité (degré de réalisation des
objectifs) ou le résultat le plus satisfaisant pour la dépense
ou le sacrifice le plus faible. La mise en relation des
objectifs, des moyens et des résultats constitue la
problématique de l’économie normative, dite encore, en
sciences de gestion, triangle de la performance.
L’économie positive n’est pas pure de tout jugement de
valeur. Certes, son objet est de décrire, d’expliquer et de
prévoir les décisions d’affectation des ressources telles
qu’elles sont prises par les divers agents économiques
(ménages, entreprises, administrations…), mais les faits ne
sont pas que des données objectives. Ils ne sont révélés que
par des outils
Fig. 1.2
. Triangle de l’économie normative ou de
la performance
d’analyse qui sont eux le résultat d’une construction et
d’une définition variables au cours du temps.
C’est ainsi que l’un des principaux outils de l’économie
descriptive au niveau national est la comptabilité nationale,
et les définitions de la production, de l’investissement, etc.
ont changé avec les conventions qui ont présidé à
l’élaboration des normes comptables Par exemple, la nature
et la valeur de la production dans un pays dépendent des
conceptions que la société et les économistes qui
appartiennent à cette société se font de ce qui est ou n’est
pas une richesse. Pendant longtemps la richesse a été réduite
à la production de biens matériels, ce qui veut dire, par
exemple, que l’éducation et la recherche scientifique qui
permettent d’augmenter d’année en année cette production
matérielle ont été négligées, pour être assimilées à des
dépenses improductives, comme d’ailleurs la plupart des
activités de services qui ont été traitées comme des activités
improductives. Avec les Physiocrates (voir plus loin), par
exemple, la richesse était même réduite aux seuls produits
de la terre, l’agriculture était la seule activité productive.
Les aspects conventionnels des instruments d’information
et leur évolution se retrouvent au niveau de l’entreprise.
C’est ainsi que la comptabilité d’entreprise a, elle aussi,
donné lieu à plusieurs plans comptables généraux successifs
avec de légères modifications, d’un plan comptable à
l’autre, en fonction des besoins d’information des parties
prenantes (l’État, les propriétaires et associés potentiels ou
effectifs, les salariés, les prêteurs de capitaux, etc.) et du
progrès des connaissances.
Dans la perspective explicitement normative, l’objet de
l’économie est d’étudier les manières de satisfaire au mieux
les besoins des hommes vivant en société, compte tenu de la
rareté des ressources. En bref, cela revient à dire que
l’économie est la science des choix qui impliquent de faire
un bilan prévisionnel des avantages ou des bénéfices et des
inconvénients ou des coûts probables de tout choix entre
différents projets alternatifs. Faire ce bilan c’est opérer un
calcul économique.
1.3. L’économie comme science des choix : l’approche
normative et la notion de coût d’opportunité
La rareté des ressources oblige à faire des choix. Choisir,
c’est faire des sacrifices ou encore renoncer à tel projet ou à
tel produit, ou encore à tel mode de vie. Ce comportement
se vérifie quotidiennement, pour ne pas dire à tout instant,
pour l’individu-consommateur, pour le responsable de
l’entreprise productrice, pour celui qui est à la tête de l’État-
puissance publique. Ainsi, le responsable d’une exploitation
agricole qui décide de consacrer sa surface agricole utile
(SAU) à la culture du maïs doit renoncer aux revenus que
pourrait lui procurer la culture de la luzerne ; un
consommateur, avec un budget donné, en choisissant d’aller
au cinéma doit renoncer, par exemple, à acheter des livres.
De la même manière, le responsable de l’exécutif
représentant la puissance publique, pour des recettes fiscales
et un endettement donnés, s’il choisit de construire une
école, doit renoncer, par exemple, à la construction d’un
hôpital. La contrainte budgétaire ou de ressources rares
oblige donc, comme cela a été indiqué plus haut, à faire des
calculs des avantages et des inconvénients, à faire des
calculs des produits ou recettes potentiels et des coûts et des
dépenses potentiels, pour l’agent en situation de choix pour
décider. L’économie est alors la science des comportements
calculés.
Ce que perd l’agent lorsqu’il fait un choix, i.e. la valeur
correspondant à la possibilité qui n’est pas choisie, s’appelle
le coût d’opportunité ou coût de la renonciation, coût de
substitution, coût d’option, coût alternatif ou encore coût du
sacrifice. La figure ci-après illustre ce problème du choix et
le coût qui lui est associé.
Supposons qu’un exploitant agricole dispose de moyens
limités comme par exemple d’une surface agricole utile de
100 hectares et d’un capital monétaire de 1 000 unités pour
payer les travailleurs et certaines autres fournitures de
services ou de biens. Il cherche à utiliser au mieux ces
moyens, sachant qu’il peut produire soit du maïs, soit de la
viande, soit une combinaison des deux. Le tableau suivant
des possibilités de production permet de tracer la courbe des
possibilités de production ou la frontière de production de la
figure 1.2. Avec les mêmes moyens, il peut produire une
combinaison C à l’intérieur de la frontière des possibilités
maximales moins que le maximum qui se trouve
Productions alternatives

Quintaux de
Tonnes de viande Points de la figure
maïs

Si on fait 0 q On produira 135 t de


de maïs viande

Avec 150 q On produira 130 t de


de maïs viande

Avec 300 q On produira 118 t de B est efficient


de maïs viande

Avec 500 q On produira 85 t de viande A est efficient


de maïs

Avec 600 q On produira 50 t de viande D est efficient


de maïs

Avec 650 q On produira 0 t de viande


de maïs
Avec 300 q Mais 85 t de viande C est inefficient
de maïs

Avec 500 q Avec le projet de produire M est inaccessible, sans


de maïs 118 t de viande autres moyens

La figure indique notamment aux extrémités que toute


augmentation pour un objectif (maïs ou viande) exige une
diminution plus forte pour l’autre objectif. Cette loi dite loi

Fig. 1.3
. Courbe des possibilités de production
du coût croissant signifie que les premières unités de
facteurs utilisées sont plus efficientes – elles permettent
d’obtenir plus de produit par unité de facteur – que les
suivantes (voir plus loin la loi des rendements décroissants).
Notons que, si les facteurs de production étaient homogènes
(ce que peut faire Pierre est identique à ce que peut faire
Paul travaillant dans les mêmes conditions), la courbe des
possibilités de production serait linéaire.
La courbe des possibilités de production est le lieu de
tous les points efficaces. On dit qu’une situation est
efficiente au sens de Pareto ou optimale au sens de Pareto,
lorsque toute amélioration pour l’un des éléments du
système s’accompagne de la détérioration pour au moins un
autre. Sur la courbe, on voit que pour produire plus de maïs
en étant en A, il faut accepter une diminution de la
production de viande par le passage de la combinaison A à
celle de D. En revanche, le point C n’est pas un point
efficace. En ce point, soit tous les moyens de production ne
sont pas employés, soit ils sont utilisés de manière
inefficiente, i.e. que la situation est celle du gaspillage. Le
cheminement efficient, à partir du point C, est celui qui
permet d’augmenter la production de l’un des biens sans
réduire celle de l’autre. À partir de C, l’ensemble des
cheminements efficients arrivent sur l’arc AB. Les points
éventuels situés au-delà de la surface des possibilités de
production, comprise entre la courbe et les axes, sont
inaccessibles sans une augmentation des moyens de
production. C’est le cas pour la combinaison correspondant
au point M.
On signalera que l’efficience n’est pas synonyme
d’optimum. En effet, la courbe des possibilités de
production n’indique pas la meilleure combinaison de
produits. Pour pouvoir parler d’optimum, il est nécessaire
de connaître les préférences de l’agent ou encore les
diverses combinaisons qui lui procurent la même
satisfaction ou le même profit. L’optimum serait alors la
combinaison efficace qui procurerait la satisfaction la plus
élevée ou le profit le plus élevé.
Cet exemple peut être généralisé à toute situation de
choix. Par exemple, on remplacera l’exploitant agricole par
la collectivité confrontée au choix entre l’éducation et le
développement des autoroutes, ou au choix entre les biens
d’équipement et les biens de consommation. Les axes
peuvent encore représenter le niveau de la production
manufacturière, d’une part, et l’indice de la dépollution de
l’air, d’autre part, etc.
La conception de « l’économie comme science des choix
» conduit à n’exclure aucun acte humain de la sphère
économique, et il existe déjà une économie politique du
crime, une économie politique de la religion, une économie
politique de la famille, etc. Dans chaque domaine, l’agent
est un calculateur : il n’y a plus de comportements affectifs,
il n’existe que des comportements calculés. La pratique
religieuse, par exemple, revient à confronter ce que l’on
gagne par cette pratique à l’argent que l’on perd en allant au
lieu du culte plutôt que de travailler ou de préparer ses
dossiers. Avec ces différents exemples, la science
économique est assimilée à la praxéologie (L. von Mises),
i.e. à la science de l’action humaine.
1.4. L’approche systémique : l’interaction entre l’homme et
son environnement institutionnalisé
La définition de l’économie comme sciences des
comportements calculés ou sciences des choix peut susciter
des critiques qui dénonceraient soit la dilution de la
spécificité de l’économie, soit la non-prise en compte des
institutions et des rapports sociaux. Cette conception
reviendrait, via le modèle de l’Homo œconomicus, à une
robinsonnade, i.e. à raisonner sur une économie pour un
individu seul, un individu sans histoire, sans âge, sans sexe,
sans religion, coupé de tout contact avec d’autres hommes.
– Pour les économistes qui étudient les sociétés anciennes
et les systèmes économiques – les historicistes – et pour les
anthropologues économistes tels que Karl Polanyi28, la
définition formaliste par les choix n’est acceptable que dans
le cadre des économies de marché, i.e. dans les sociétés qui
ont institué et généralisé un rapport marchand
interindividuel pour tous les actes. Pour les économies
anciennes ou primitives, le domaine économique est plus
limité. K. Polanyi propose alors une définition systémique
et substantive de l’acte économique qu’il considère comme
un « processus institutionnalisé d’interaction entre l’homme
et son environnement qui engendre un approvisionnement
continu en moyens matériels de satisfaction des besoins »
(dans Commerce et marché dans les empires anciens).
– Le processus institutionnalisé d’appropriation de la
nature constitue pour les économistes marxistes le mode de
production ou système économique. Celui-ci se caractérise
par le niveau de développement des forces productives et
par la nature des rapports sociaux de production. Il s’ensuit
que l’économie politique est la science des lois du
développement des rapports des hommes entre eux dans la
production sociale, i.e. des rapports sociaux de production
(Dictionnaire économique et social, Éditions sociales).
Cette conception marxiste revient à dire que l’économie est
une science sociale dont les lois sont relatives à une phase
historique donnée, caractérisée par des rapports de
production déterminés. À ce titre, on ne peut pas envisager
une science véritable pour un homme isolé confronté
uniquement à la nature. La robinsonnade29 de l’Homo
œconomicus, manque de réalisme pour avoir un minimum
de pertinence pour l’analyse des comportements sociaux.
Pour K. Marx, en effet, « en produisant, les hommes ne sont
pas seulement en rapport avec la nature. Ils ne produisent
que s’ils collaborent d’une certaine façon et font échange de
leurs activités. Pour produire, ils établissent entre eux des
liens et des rapports bien déterminés : leur contact avec la
nature, autrement dit la production, s’effectue uniquement
dans le cadre de ces liens et de ces rapports sociaux » (K.
Marx, « Travail salarié et capital », 1849, in : Œuvres,
tome I, p. 212, La Pléiade, 1965).
La référence aux rapports sociaux de production explique
la relativité historique des lois économiques, car ces
rapports « changent et se transforment avec l’évolution et le
développement des moyens matériels de production, des
forces productives » (ibidem). Aussi est-il incorrect de
définir par exemple le capital comme l’ensemble des
éléments créés par le travail en vue de produire d’autres
biens. Le capital n’existe pas en soi. Il n’a de sens que dans
la société capitaliste. De la même manière, tel homme n’est
un esclave que dans une société esclavagiste.
1.5. Une tentative de synthèse
La définition marxiste de l’économie politique et les
définitions proposées dans l’encadré ci-après font certes
apparaître des conceptions différentes, mais, en lisant
attentivement les travaux des économistes, on est conduit à
accorder moins d’importance à ces fractures. Par exemple,
Aristote, si souvent cité, n’a nullement ignoré le problème
des choix ni l’importance des institutions et de la répartition
des tâches dans une société esclavagiste. Autrement dit,
l’objet de l’économie n’a pas fondamentalement varié au
cours des siècles. Henri Bartoli écrit que l’on choisit l’angle
de vision mais non le contenu de l’analyse économique
(Science économique et travail, p. 106, Armand Colin,
1957). Il précise que « la science économique, science des
rapports humains nés du travail, récupère alors tout l’effort
des écoles qui l’ont précédée… Elle ne dépasse pas la
science économique “traditionnelle” ou la science
économique marxiste, elle ne réalise pas une synthèse
mensongère de leurs antagonismes, elle les assume toutes
deux » (op. cit., p. 114).
Le contenu commun peut alors être approché par la
définition de synthèse que propose Edmond Malinvaud : «
L’économie est la science qui étudie comment des
ressources rares sont employées pour la satisfaction des
besoins des hommes vivant en société ; elle s’intéresse,
d’une part, aux opérations essentielles que sont la
production, la distribution et la consommation des biens,
d’autre part, aux institutions et aux activités ayant pour
objet de faciliter ces opérations » (Leçons de théorie
microéconomique, p. 1, Dunod, 1986). Une telle définition
est une synthèse, parce qu’elle aborde tous les éléments
discutés : la rareté des ressources, la satisfaction des
besoins, les actes économiques fondamentaux, bien que la
répartition des revenus ne soit pas explicitée. Elle s’éloigne
en outre des robinsonnades de la théorie des choix pour
tenir compte de la société, des institutions et des faits.
Quelques définitions de la science économique
« La science économique est la science d’acquérir des
richesses, [c’est-à-dire] un trésor de ressources nécessaires
ou utiles à la vie dans toute association civile ou
domestique. » Aristote, La Politique, chap. 3.
« La science des richesses [la chrématistique] traite du
superflu […], la science économique ne s’occupe que de la
subsistance ; elle n’est pas, comme l’autre, sans limites,
mais elle a des bornes. » Aristote, op. cit.
« L’économie politique, considérée comme une branche
des connaissances des législateurs et de l’homme d’État, se
propose deux objets distincts : le premier, de procurer au
peuple un revenu ou une subsistance abondante, ou, pour
mieux dire, de le mettre en état de se procurer lui-même ce
revenu ou cette subsistance abondante ; le second, de
fournir à l’État ou à la communauté un revenu suffisant
pour le service public : elle se propose d’enrichir à la fois le
peuple et le souverain ! » Adam Smith, Recherche sur la
nature et les causes de la richesse des nations, p. 233, Paris,
Gallimard, 1976.
« L’économie politique enseigne comme se forment, se
distribuent et se consomment les richesses qui satisfont aux
besoins des sociétés. » J.-B. Say, Traité d’économie
politique
« Le bien-être physique de l’homme, autant qu’il peut
être l’ouvrage de son gouvernement, est l’objet de
l’économie politique. » J.C.L. Sismonde de Sismondi,
Nouveaux principes d’économie politique, p. 64, Paris,
Calmann-Lévy, 1971.
« L’économie politique ou économique est une étude de
l’humanité dans les affaires ordinaires de la vie ; elle
examine la partie de la vie individuelle et sociale qui a le
plus particulièrement trait à l’acquisition et à l’usage des
choses matérielles, nécessaires au bien-être. Elle est donc,
d’un côté, une étude de la richesse, de l’autre, et c’est le
plus important, elle est une partie de l’étude de l’homme. »
Alfred Marshall, Principes d’économie politique, tome I, p.
1, Giard, 1970.
« L’économie politique, ou encore l’économie sociale, est
la science des lois sociales régissant la production et la
distribution des moyens matériels servant à satisfaire les
besoins humains. » Oscar Lange, Économie politique, p. 1,
Paris, PUF, 1962.
« L’économique, à parler scientifiquement, est une
science très restreinte. C’est une sorte de mathématique, qui
calcule l’effet et la cause de l’industrie humaine et indique
comment elle peut être mieux appliquée. » William Stanley
Jevons, qui rappelait que l’économique a eu diverses
appellations à usage rare : ploutologie (i.e. sciences des
richesses), chrématistique (sciences des richesses),
catallactique (science de l’échange), The Theory of Political
Economy, préface à la 2e éd., page XIV, 1879.
« L’économie est la science qui étudie le comportement
humain en tant que relations entre des fins et des moyens
rares à usages alternatifs. » Lionel Robbins, Essai sur la
nature et la signification de la science économique, Paris,
Librairie Médicis, 1947.
« Les problèmes économiques ou catallactiques [sciences
de l’échange] sont enracinés dans une science plus générale
et ne peuvent plus, désormais, être coupés de cette
connexité. Nulle étude de problèmes proprement
économiques ne peut se dispenser de partir d’actes de
choix ; l’économie devient une partie – encore que la mieux
élaborée jusqu’à présent – d’une science plus universelle, la
praxéologie. » Ludwig von Mises, « L’action humaine »,
Traité d’économie, p. 4, Paris, PUF, 1985.
L’économique « recherche comment les hommes
décident, en faisant ou non usage de la monnaie, d’affecter
des ressources productives rares à la production, à travers le
temps, de marchandises et services variés, et de répartir
ceux-ci à des fins de consommations présentes et futures
entre les différents individus et ces collectivités constituant
la société ». Paul A. Samuelson, L’Économique, tome I,
Paris, Armand Colin, 1972.
2. Les méthodes de l’économie politique ou la question
de sa scientificité
Examiner les méthodes de l’économie politique, c’est
s’engager sur le terrain de la discussion de la scientificité de
la discipline. Joseph Aloys Schumpeter (1883-1951) dans
son Histoire de l’analyse économique définit « la science
comme de la connaissance outillée ». La méthodologie
économique consiste alors à décrire la nature du travail en
économie, en présentant les méthodes ou outils (techniques,
concepts), pour ensuite discuter les limites de la science
économique. L’abstraction et la généralisation ou
universalisme aussi bien comme point de départ dans la
démarche déductive, ou comme résultat de la démarche
inductive, la simplification et la modélisation en établissant
des relations cohérentes (validité interne) et explicatives
(validité externe) entre les faits constituent les points
saillants de la méthode scientifique.
2.1. La nécessité de l’abstraction
Il faut répéter encore après J.A. Schumpeter que : « Les
événements sociaux constituent un tout. Ils forment un
grand courant d’où la main ordonnatrice du chercheur
extrait, de vive force, des faits économiques. Analyser un
fait économique, c’est déjà une abstraction, la première des
nombreuses abstractions que les nécessités techniques
imposent à notre pensée » (Théorie de l’évolution
économique, p. 1, Dalloz, 1983).
L’autonomisation par la raison d’un fait économique pour
l’étudier n’empêche cependant pas l’économiste
d’emprunter aux autres disciplines les éléments qu’il juge
indispensables à la compréhension du phénomène. Tous les
grands noms de la discipline sont unanimes sur ce point. Par
exemple, on lit chez John Stuart Mill30 :
« Une personne ne sera vraisemblablement pas un bon
économiste si elle n’est pas autre chose. Comme les
phénomènes sociaux agissent et réagissent les uns sur les
autres, ils ne peuvent pas être bien compris isolément »
(Principes d’économie politique, 1848).
John Maynard Keynes31 exprime la même idée :
« Un bon économiste doit être un tant soit peu
mathématicien, historien, homme d’État, philosophe […]. Il
doit comprendre les symboles, mais s’exprimer en mots. Il
doit envisager le particulier dans une optique de généralités
et passer de l’abstrait au concret dans un même souffle. Il
doit étudier le présent, à la lumière du passé, afin de prévoir
l’avenir. Aucun aspect de la nature humaine ou des
réalisations du genre humain n’échappent à son regard […]
» (cité par Robert Heilbroner, in : Les Grands Économistes,
traduction française, Le Seuil).
Si ces différentes citations accréditent la thèse selon
laquelle « l’économiste est un touche-à-tout » (W.J.
Baumol, A.S. Blinder et W.M. Scarth, L’Économique,
principes et politiques. Tome I : Macroéconomie, p. 11,
Montréal, Éditions Études vivantes, 1986), cela ne veut pas
dire qu’il travaille sur le fait social dans sa totalité. À
l’abstraction première que constitue la définition d’un fait
économique, un deuxième niveau d’abstraction est
nécessaire pour ne retenir que les éléments pertinents en vue
d’aboutir à un modèle économique, i.e. à une représentation
simplifiée de la réalité. Il s’agit de dépasser les
contingences, le cas particulier, pour envisager des lois
générales. En cela les lois économiques, même s’il y a un
grand nombre d’exceptions comme nous le verrons plus
loin, sont conformes au principe aristotélicien : « Il n’y a de
science que du général » au sens de l’universel. Avant
d’examiner le principe des modèles, arrêtons-nous d’abord
sur un exemple d’abstraction qui est l’hypothèse ceteris
paribus.
2.1.1. L’hypothèse « ceteris paribus », ou l’importance du «
comme si »
Le lecteur se rendra compte, si ce n’est déjà fait, que les
économistes utilisent fréquemment des hypothèses qui ne
correspondent pas à la réalité. L’une de celles-là consiste à
déclarer : « Supposons qu’une seule variable soit modifiée
et que toutes les autres restent constantes ou sont des
données », on parle alors de l’hypothèse « toute chose étant
égale par ailleurs » ou hypothèse ceteris paribus. Ce
procédé s’explique par le fait que les variables
déterminantes du comportement des hommes en société sont
si nombreuses et les relations entre elles si complexes qu’il
est nécessaire de simplifier et de s’éloigner de la réalité. Par
ce procédé, la démarche scientifique est une distanciation
qui consiste à privilégier les variables pertinentes.
Prenons un exemple illustrant ce principe : supposons
qu’un économiste cherche à comprendre et à expliquer le
volume des achats d’un ménage pour un type de bien donné.
Dans une première phase, essayons de recenser les
différentes variables objectives ou variables structurelles
susceptibles d’intervenir dans le processus, i.e. ayant
vocation à être des variables explicatives ou déterminantes.
Sans être exhaustifs, nous pourrions retenir le prix du bien,
le prix des autres biens, le revenu du ménage, le nombre
d’unités de consommateurs potentiels, leur religion, leur
zone géographique d’habitation, leur niveau d’éducation,
leur sexe, l’importance des dépenses publicitaires pour ce
produit, le phénomène de mode, la législation et les
règlements concernant l’autorisation, la limitation ou
l’interdiction de l’usage d’un bien, etc.
On ne peut pas ignorer en effet que l’achat d’une voiture
dépend de l’âge autorisé pour avoir un permis de conduire,
que l’achat d’un tailleur féminin est en principe
incompatible avec le sexe masculin sauf si c’est pour l’offrir
à une autre personne, que l’achat d’un abonnement pour le
réseau du métro de la Région parisienne est exclu pour un
habitant permanent à Québec, que l’achat de la viande de
porc est inenvisageable pour un musulman ou un juif
pratiquant. De même, l’achat de L’Être et le Néant de Jean-
Paul Sartre exige un certain niveau d’éducation, peut-être
aussi du temps disponible pour le lire. Mais dans tous les
cas un achat suppose des ressources disponibles qui peuvent
résulter soit d’un revenu, correspondant à ce qui peut être
dépensé sans s’appauvrir, soit d’un bien patrimonial
(capital).
Toutes ces variables, et encore beaucoup d’autres non
citées, jouent un rôle. L’économiste va pourtant en faire
abstraction pour, dans une première étape, n’en retenir
qu’une seule ou un nombre très limité. Elle peut être, par
exemple, le prix. La simplification consistant à ignorer
volontairement les autres variables revient à faire
l’hypothèse suivante : supposons qu’il n’existe qu’un bien
et que les acheteurs habitent au même endroit, qu’ils ont le
même âge, le même sexe, la même religion, le même niveau
d’éducation, les mêmes informations, etc., quels seront les
comportements des clients potentiels ou demandeurs si le
prix (p) baisse de x % par rapport à son niveau initial pour
lequel la demande totale correspondait à un volume (y) ?
Ces contraintes étant posées, l’économiste qui n’a pas de
loi de couverture, i.e. des idées explicatives antérieures au
phénomène observé, peut chercher à établir une relation
entre l’évolution du volume des ventes lorsque le prix du
produit varie. Dans une deuxième étape, l’économiste peut
envisager de complexifier son objet en tenant compte de la
variation des prix d’un bien sur les achats d’un autre bien.
Dans d’autres étapes, il sera possible de tenir compte de la
variation du revenu moyen dans la zone de chalandise, du
budget publicitaire consacré au produit, des problèmes de
choix entre plusieurs produits dont les prix ne sont plus
fixes, etc. La question importante est de savoir si cette
complexification croissante est pertinente et à quel niveau il
faut s’arrêter pour rendre utilisable le modèle correspondant
aux relations établies entre des éléments appelés facteurs ou
causes, et d’autres appelés conséquences ou effets. Le
niveau de complexité dépendra en fait des finalités des
modèles, mais, dans tous les cas, aucun modèle économique
n’épuisera le phénomène humain.
2.1.2. La modélisation ou la nécessité de la représentation
simplifiée
Le fait scientifique n’est pas donné, mais « conquis,
construit, constaté », selon la formule célèbre de Gaston
Bachelard (Le Nouvel Esprit scientifique, PUF, 1973). Le
programme de recherche, en économie comme pour toute
discipline, est scientifique lorsque l’esprit du chercheur est
tourné du réel complexe vers le construit simplifié, du
sensible contingent et variable vers l’abstraction
généralisante et permanente, du naturel informel vers le «
pensé », structuré.
La construction de nature scientifique n’a pas la
prétention de reproduire le monde en grandeur réelle. En
économie politique, et dans les sciences sociales en général,
plus que partout ailleurs, il est impossible de représenter la
réalité, car celle-ci est historique. De ce fait, les économistes
construisent des modèles au sens de maquette réduite et
simplifiée, et non de normes ou de ce qu’il faut imiter. On
ne reproche pas à un modèle économique de ne pas tenir
compte de toutes les variables, comme on ne reproche pas à
une carte de géographie, nous dit Pierre Jacob, « de ne pas
reproduire les couleurs, les sons, les odeurs, le poids, la
température, en un mot la vie du territoire qu’elle
symbolise… Ce qu’on exige d’une carte, c’est que son
rendement soit optimal, compte tenu de son échelle : i.e.
qu’elle livre sur les objets un maximum d’informations en
utilisant un minimum de moyens » (L’Empirisme logique, p.
123, Minuit, 1980).
L’évaluation d’un modèle économique32 peut alors se faire
selon les mêmes termes. De manière plus rigoureuse, les
critères d’évaluation résident dans ses performances
descriptives, explicatives et prédictives.
Les modèles se présentent aussi bien sous forme littéraire
que géométrique et algébrique. Un modèle de la première
forme est, par exemple, l’entrepreneur schumpétérien qui
s’énonce ainsi (il s’agit d’une synthèse à partir de Joseph
Schumpeter, Théorie de l’évolution économique, chapitre II,
section 3, Dalloz) : « L’entrepreneur est mû par le profit. Il
est l’agent de la dynamique du capitalisme. Il se caractérise
par l’esprit d’innovation. L’innovation technologique le
place dans la situation lucrative d’un monopole temporaire.
Le profit qu’il réalise suscite un phénomène d’imitation de
son innovation. La concurrence réduit ses profits et le
pousse à l’innovation, source de profits nouveaux. »
Le modèle keynésien d’équilibre global est susceptible
d’illustrer le cas des modèles formalisés géométriques et
algébriques. Il sera commenté plus loin (chapitres 7à 12),
notamment au regard de sa fonction d’aide à la définition
d’une politique économique.
Dans un modèle, certaines variables sont exogènes, i.e.
qu’elles sont données ou indépendantes des variables
propres au modèle. Ces variables exogènes sont toujours
des variables déterminantes. Ce sont des variables
explicatives. Elles correspondent à des causes ou à des
facteurs. D’autres variables sont endogènes, i.e. déterminées
par d’autres variables retenues dans le modèle. Ce sont des
variables expliquées, ou variables endogènes.
La variable endogène est un effet, une conséquence, mais
elle peut être un facteur, dans une étape ultérieure ou dans
un système d’équations simultanées. Par exemple un prix
élevé (variable déterminée, dépendante, endogène,
expliquée) peut résulter d’une forte demande de caractère
exogène (une forte chaleur33 lors de l’été 2003 a entraîné une
forte augmentation de la demande en climatisation des
immeubles) pour une offre donnée (qui est ici une variable
déterminante). Le prix s’élève conduisant à une diminution
de la demande et à une augmentation de l’offre. La hausse
du prix est devenue une variable déterminante ou
explicative, les variations de l’offre et de la demande sont
devenues des variables déterminées ou expliquées.
Quelle que soit sa forme, un modèle peut être descriptif
et/ou explicatif. Un modèle descriptif, comme par exemple
celui de la Comptabilité nationale (cf. chap. 3), n’implique
pas nécessairement une théorie explicative préalable, bien
que ses catégories puissent être les produits d’une telle
théorie. Dans le cas de la comptabilité nationale la
construction des agrégats de revenu national, de produit
national, de dépense nationale n’est pas sans rapport avec la
théorie économique de J.M. Keynes. Et la description ne fait
pas nécessairement de la science économique une science
qui relèverait du positivisme pur. Le produit intérieur brut
n’est pas une donnée positive, mais le résultat d’une
construction, et sa définition peut varier au cours de
l’histoire et selon les idéologies. Cet exemple permet de
préciser ici que la science économique peut aussi s’élaborer
dans le cadre du constructivisme.
En revanche, un modèle explicatif est normalement
précédé par un système d’hypothèses. Dans ce cas, la
théorie scientifique est ce qui permet de structurer les
données, d’analyser et d’expliquer les relations.
Généralement, la théorie repose sur un petit nombre de faits
et le plus faible nombre possible d’hypothèses non encore
démontrées pour expliquer un phénomène. C’est le principe
de la parcimonie ou du rasoir d’Occam et que l’on désigne,
depuis John Neville Keynes, le père de John Maynard, par
l’apriorisme. La théorie la plus représentative de
l’apriorisme est le comportement de l’Homo œconomicus
aux traits psychologiques simplistes du calculateur
hédoniste des plaisirs et des peines, qui recherche le
maximum de jouissance pour le minimum de souffrance. On
affirme a priori que l’individu cherche à dépenser le moins
et à gagner le maximum. La loi du moindre effort qui
découle de ces affirmations est une loi prototypique de
l’apriorisme en vogue à l’école de Vienne (voir plus loin).
Ce modèle de l’Homo œconomicus comporte deux autres
hypothèses en plus du comportement calculateur – ou
hypothèse de rationalité. Il s’agit, d’une part, de sa totale
indépendance ou liberté (il n’est pas influençable) et,
d’autre part, de son information parfaite.
La loi du moindre effort, synthétisant le comportement de
l’Homo œconomicus, peut être formalisée, par analogie mais
sans que cela soit une explication, en utilisant le modèle
gravitaire d’Isaac Newton (voir encadré) Le recours à ce
modèle peut être généralisé à l’ensemble des échanges et
des relations sociales. Ainsi pour un prix et une qualité
donnés, les individus font les achats près de leur domicile
ou de leur lieu de travail. Cet apriorisme permet de
construire des zones de chalandise dans la distribution
commerciale. La loi de Reilly en est le principe. La $$$ «
appliquée en économie signifie que la distance est un
obstacle aux échanges : cette distance peut être aussi bien
physique, que culturelle, linguistique, idéologique, etc. La
loi de Newton peut même servir à rendre compte de la
prédominance de l’endogamie sur l’exogamie et des
comportements affectifs (ne dit-on pas « loin des yeux, loin
du cœur » ?).
Encadré : le modèle gravitaire

La loi de Newton s’énonce ainsi : l’attractivité de A entre


deux masses situées entre deux zones i et j est directement
proportionnelle au produit des masses Mi et Mj de chaque
zone et inversement proportionnelle au carré de la distance
dij qui les sépare, mais en tenant compte de frictions
possibles sous la forme d’un coefficient structurel k. La
formule simplifiée est :
Aij = k Mi Mj/d2ij.
En géoéconomie et en mercatique ou marketing, en
désignant par Mi, le volume des produits pondérés par les
prix proposés dans un centre commercial en zone i, Mj le
nombre d’habitants dans une zone j, et en remplaçant la
distance par un coût généralisé de transport y compris le
problème du parking, on obtient la loi de Reilly qui permet
de déterminer, dans le cas présent, le chiffre d’affaires A du
centre commercial réalisable avec les habitants de la zone j.
Le coefficient structurel (constant) k calculé par
ajustement (a posteriori : disposant des valeurs passées Mi,
Mj, Aij et dij, on déduit alors la valeur k) exprimera
certaines contraintes non prises en compte : le revenu
moyen des habitants (si le revenu est bas, les ventes seront
en conséquence, même si la distance est elle-même faible),
la nature des produits (si le centre commercial propose des
radiateurs pour le chauffage domestique dans les zones
tropicales et équatoriales, son avenir est scellé), etc.
Dans la généralisation du modèle, la distance « d » est
susceptible de désigner des aspects culturels, religieux, les
niveaux de vie, etc., par exemple, la distance géographique
entre la France et le Québec, d’une part, et entre la France et
l’État de New York, d’autre part, est sensiblement identique,
mais la distance culturelle est différente, le Québec est plus
proche de la France, ce qui est un facteur favorable à des
échanges plus intenses avec la Belle Province.

Toutefois, l’apriorisme n’est pas spécifique aux analyses


centrées sur l’individu (individualisme méthodologique), il
se retrouve aussi dans les modèles keynésiens (inspirés par
les travaux de John Maynard Keynes). La théorie
explicative est celle de la demande effective (la demande
prévue par les entrepreneurs) selon laquelle, à court terme et
au niveau global, la demande détermine le revenu. Elle ne
prend pas en compte le long terme, les comportements
individuels qui obéissent aux variations des prix. Elle se
distingue sous ces différents points de vue d’une théorie
exposée par J.-B. Say, aboutissant à la loi des débouchés
selon laquelle l’offre crée sa propre demande (cf. chap. 2).
Toutefois, malgré cet apriorisme, les propositions élaborées
par la science économique peuvent faire l’objet de tests de
réfutabilité, comme le préconise Terence Hutchison, peut-
être inspiré par la lecture de K. Popper. Hutchison, avec La
Signification et les postulats de base de la théorie
économique (1938), inscrit la science économique dans le
positivisme logique. Cette posture s’accentuera avec le
développement de l’économétrie positive et la publication
de l’essai de Milton Friedman sur La Méthodologie de
l’économie positive en 1953, refusant d’appliquer aux
théories économiques des critères d’évaluation différents de
ceux des sciences de la nature et de la vie, mais limitant
cependant les tests aux prévisions des théories, excluant les
hypothèses de caractère conventionnel.
2.2. La nature des relations en économie politique et
l’information statistique
Comme toute démarche scientifique, l’économie
politique – on l’a vu avec les modèles – « donne la primauté
à la relation sur l’être » (G. Bachelard, déjà cité).
L’économiste s’intéresse à l’effet plutôt qu’au fait. Par
exemple, l’assertion du type « Les prix des produits
agricoles sont bas » n’est pas une proposition intéressante
scientifiquement. Le niveau des prix est un fait sans intérêt
tant qu’une relation n’est pas établie avec un autre fait.
Cette relation, si elle est souvent constatée, constituera une
loi même si elle n’a pas la précision des lois de la physique.
Ainsi, la loi de Gregory King (économiste anglais de la fin
du XVIIe siècle) indique qu’une forte baisse des prix
agricoles est corrélée avec une faible augmentation du
volume de la production agricole pour les biens largement
présents dans la consommation des ménages.
2.2.1. Corrélation ou causalité ?
L’économétrie, une des branches de la science
économique, a pour objet notamment de mesurer de telles
relations. Elle utilise la théorie économique et les procédés
statistiques, afin à la fois de tester les hypothèses relatives à
ces relations, d’estimer et éventuellement de prévoir les
phénomènes correspondant à ces relations.
À titre d’exemple de la méthode économétrique dans la
fonction de consommation keynésienne (cf. chap. 5),
l’économétrie appliquée permettra de calculer, par
régression linéaire, la valeur de la propension marginale à
consommer (pente de la fonction de consommation qui
correspond à la variation de la consommation rapportée à la
variation du revenu qui en est la cause), ainsi que celle de la
consommation incompressible (consommation indépendante
du revenu courant) à partir de différentes valeurs observées
dans le passé pour le revenu national et la consommation,
dans un espace économique donné.
En science économique, en raison de l’existence d’un
grand nombre de variables susceptibles de participer à
l’explication d’un phénomène et de la difficulté de
neutraliser le point de vue idéologique de l’observateur, les
relations sont le plus souvent des rapports de corrélation
que des rapports de causalité. La notion de cause implique
la linéarité non rétroactive et l’absence de contestation par
des points de vue différents. Par exemple, est-il possible de
dire que l’abondance des récoltes est la cause de la chute
des prix agricoles ? N’est-il pas plus pertinent de dire que la
grande vitesse de saturation des besoins alimentaires ainsi
que leur caractère prioritaire, qui conduit à les satisfaire en
premier, expliquent la braderie d’une offre excédant la
demande ? L’abondance en elle-même n’est-elle pas liée
aux difficultés institutionnelles et matérielles qui empêchent
l’exportation vers les pays qui subissent des pénuries ? Cette
abondance n’est-elle pas aussi le résultat des prix antérieurs
plus élevés qui auraient incité les producteurs à augmenter
leur production, compte tenu de la forte demande exprimée
par ces prix ? Certes, il est possible d’établir des relations
multifactorielles, de recourir à la régression multiple, mais
on n’est pas certain d’avoir pu identifier tous les facteurs, de
sorte que la part inexpliquée (le résidu dans les modèles
économétriques) est souvent importante.
Au-delà de la faible part expliquée, les modèles
comportent quelquefois des biais, lorsqu’une des variables
indépendantes est négligée. À titre d’illustration de cet
aspect, reprenons l’exemple traditionnel de la relation entre
consommation et différentes variables déterminantes. Le
niveau des dépenses peut dépendre du revenu et nombre de
personnes dans le foyer. Si cette dernière variable n’a pas
été prise spécifiquement en compte, le rôle du revenu sera
surestimé lorsque son niveau suit le nombre de personnes
dans le foyer ; il sera sous-estimé si le revenu varie de
manière opposée à la taille du ménage.
La dimension idéologique apparaît avec l’opposition
entre l’individualisme méthodologique et l’holisme
méthodologique. L’approche en termes d’individualisme
méthodologique revient à expliquer les phénomènes
collectifs sur la base de comportements individuels aussi
bien intentionnels qu’involontaires. À l’opposé l’holisme
méthodologique revient à un déterminisme social du
comportement des individus qui ne disposent à la limite
d’aucune marge de liberté. Certes, Aristote l’a déjà écrit,
l’homme est un animal social (La Politique), et on peut dire
que les structures sociales ne sont pas sans influence sur les
comportements individuels, mais il est non moins
incontestable que les individus n’ont pas tous le même
comportement dans une société donnée. Par conséquent, les
explications en termes soit purement individuels soit
purement holistes ou globalistes ou déterministes sont le
plus souvent impossibles.
Toutes ces questions montrent qu’en économie, le terme
de corrélation, dans un grand nombre de situations, est plus
pertinent que celui de cause. Toutefois, la recherche de la
causalité peut être envisagée. Dans ce cas, la corrélation
croisée permet d’identifier la présence d’une relation de
causalité entre deux variables. Néanmoins, elle ne fournit
aucune information sur le sens de causalité. Celui-ci peut
être obtenu par des tests économétriques appropriés, comme
par exemple celui de Clive Granger (1969), le test de
causalité le plus répandu. On parle de causalité de Granger
ou au sens de Granger34.
2.2.2. Du bon usage des corrélations
La relation de corrélation indique le degré de dépendance
positive ou négative, ou d’indépendance entre une variable
et une ou plusieurs autres variables. La légitimité d’un
calcul de coefficient de corrélation est liée cependant à
l’existence d’hypothèses explicatives. Sans une théorie
préalable, la corrélation peut n’être, en effet, qu’une
concomitance fortuite.
Il y a de même des inférences qu’il convient d’éviter de
faire en se fondant uniquement sur l’observation. Par
exemple, si 90 % des gens meurent dans leur lit, on ne peut
cependant pas dire que le lit est l’endroit le plus dangereux.
Le rôle de la théorie est d’éviter de chercher sans voir et
d’être victime des mythes et des mirages. Même dans une
démarche inductive, le recours à des hypothèses et
l’élaboration préalable de concepts précis correspondant aux
catégories des phénomènes à observer sont inévitables, bien
que l’ensemble ne soit pas toujours explicité. Comme
l’écrivait Alfred Marshall : « Les faits par eux-mêmes sont
silencieux » (The Present Position of Economics, p. 41,
1885).
Un modèle purement déductif est lui aussi difficile à
imaginer, sauf dans un domaine purement analytique,
comme celui des mathématiques probablement. Dans le
modèle analytique, les propositions ne valent en effet que
par leur structure logique – la cohérence interne. Mais peut-
on dire que l’économiste choisit n’importe quelle
hypothèse ? Les postulats fondamentaux en économie pure,
qui ressortissent des propositions analytiques, ne sont
pourtant pas tombés du ciel. Le postulat qui gouverne le
comportement de l’Homo œconomicus, sujet épistémique
indépendant et parfaitement informé, modélisant la
rationalité, postulat selon lequel les hommes cherchent à
satisfaire leur seul intérêt personnel en maximisant leur
jouissance et en minimisant leur souffrance, n’est pas choisi
au hasard comme une loi vraie d’où l’on déduira toutes les
lois du comportement du consommateur et du
comportement du producteur. L’Homo œconomicus
caractérisé par l’information parfaite, son indépendance et
une rationalité parfaite, est certes un être de raison, un être
pensé, un être construit, mais, si c’est un outil de
connaissance pour la prévision et l’action, alors ses mythes
fondateurs reposent sur des hypothèses qui ont un minimum
de réalisme. On notera cependant qu’il existe des
économistes qui rejettent ce principe de réalisme des
hypothèses, suivant en cela le pragmatisme défendu par
John Dewey, Pierre Duhem et Willard van Orman Quine35.
Milton Friedman en est le plus représentatif en prônant
l’instrumentalisme, dit encore conventionnalisme.
Pour Friedman (Essais en économie positive, Chicago,
1953), le critère de validation d’une théorie ne réside pas
dans le réalisme des hypothèses mais dans l’exactitude des
prévisions que ces hypothèses permettent d’obtenir. Le
réalisme est chimérique car un modèle est toujours une
simplification de la réalité, et une théorie est d’autant plus
pertinente qu’elle est générale. Ses hypothèses, parce que
simplificatrices, sont inévitablement irréalistes. Le point de
vue qui consiste à juger une théorie sur la base de ses
prévisions n’est qu’une distorsion friedmannienne faible,
i.e. acceptable, ce qui n’est pas le cas de l’affirmation selon
laquelle l’irréalisme des hypothèses est le garant du
caractère universel de la théorie, ce que P.A. Samuelson
qualifie de Distorsion F (« Théorie et réalisme : une réponse
», AER, 1964).
Encadré : La représentation graphique du phénomène de corrélation

Deux variables X et Y sont corrélées lorsqu’elles peuvent


être représentées par deux droites de régression qui ont
tendance à se superposer. Lorsque X et Y varient dans le
même sens, la corrélation est positive (ex : variation de la
masse monétaire et du niveau général des prix). Lorsque X
et Y varient de manière inverse – une valeur élevée de X
correspond à valeur basse de Y et une valeur faible de X
correspond à une valeur forte de Y –, la corrélation est
négative (ex : la relation entre le chômage et l’inflation).
Les variables X et Y sont indépendantes lorsque
l’intersection des droites de régression forment quatre
angles droits (ex : taux de croissance du PIB à long terme et
inflation).
Taux de croissance PIB

Inflation
Exemple d’absence de corrélation
Chaque * correspond à un couple taux de croissance PIB-
Inflation : soit pour une année donnée dans un pays donné
sur une période de 30 ans (séries temporelles), soit à une
moyenne sur 10 ans pour un pays donné pour une
population de 30 pays (données de panel).

Exemple d’une forte corrélation positive


Chaque * correspond un couple taux de croissance de la
masse monétaire-Inflation : soit pour une année donnée
dans un pays sur une période de 30 ans (séries temporelles),
soit à une moyenne sur 10 ans pour un pays donné pour une
population de 30 pays (données de panel).
2.2.4. L’information statistique rigoureuse et fiable : une
donnée indispensable pour l’économie positive
Sans réduire la science au mesurable, la quantification
joue un rôle primordial dans le domaine de l’économie
positive dont les propositions, contrairement à celles de
l’économie pure, requièrent une investigation empirique
pour les vérifier ou plutôt pour les infirmer. L’élaboration de
statistiques s’avère ainsi indispensable, mais c’est une
opération qui suppose, comme nous l’avons dit,
l’élaboration de concepts rigoureux et précis. Ces
statistiques peuvent être de différentes natures. Des données
portant sur une période unique sont dites en coupe
instantanée ou transversales. Les données en coupe
instantanée débouchent sur l’analyse en statique. On les
distingue des séries temporelles ou chronologiques, encore
dites données longitudinales qui permettent des analyses en
dynamique. Les données croisées, ou encore de panel,
relèvent d’une série d’observations individuelles pour des
périodes successives (métastatique ou statique
comparative). On peut par exemple étudier la propension
moyenne à investir (investissements annuels par rapport au
niveau des PIB) dans les pays de l’Europe centrale et
orientale (PECO) de 1991 à 2003, i.e. de l’abandon du
système socialiste à leur intégration dans l’Union
européenne. En économie industrielle, on envisagera par
exemple l’étude de l’évolution des parts de marché des cinq
premières firmes dans le monde dans le domaine de la
communication publicitaire.
Une nomenclature adaptée au problème à étudier n’est
cependant pas toujours possible pour différentes raisons de
nature administrative, technique et économique.
L’économiste qui cherche à étudier une branche d’activité
(ensemble d’unités produisant le même type de bien) aura
par exemple des difficultés à obtenir des données chiffrées,
lorsque le nombre d’entreprises est si faible que le secret
statistique risque d’être violé. Le nombre de branches peut
aussi être limité par la difficulté technique d’autonomiser un
produit lié à un autre.
En outre, l’information macroéconomique n’est pas une
donnée brute mais le résultat d’un traitement en fonction des
besoins des pouvoirs publics pour leur politique
économique. Une telle structure peut alors ne pas
correspondre aux besoins d’un chercheur engagé dans un
processus d’intention scientifique. La multiplication des
sources ne pallie que très partiellement ce biais. L’intérêt de
la multiplicité des sources concerne principalement les
acteurs de la vie économique et politique, dans la mesure où
elle permet de contrôler la fiabilité des informations et
d’éviter ainsi d’être victime de manipulations malveillantes.
Il faut cependant savoir que le recueil des données
statistiques est une opération délicate, onéreuse, qui exige
un personnel compétent et des moyens de traitement
appropriés. On comprend ainsi pourquoi les statistiques
concernant les pays en développement sont relativement
rares, incomplètes, d’une fiabilité incertaine. Signalons que
l’information économique complète, à jour, précise et
exacte, est un bien fondamental, i.e. indispensable, pour
toute décision économique, dans l’entreprise ou dans la
nation, impliquant des choix. L’information donne le
pouvoir d’agir pour atteindre au mieux les objectifs définis.
Par son caractère onéreux, par sa fonction de facteur de
richesses – on parle d’intelligence économique au sens où il
faut rechercher de manière licite l’information stratégique et
protéger son propre capital informationnel (savoir faire,
brevet, etc.) –, l’information économique s’intègre dans le
processus de causalité circulaire cumulative, soit de cercle
vicieux, soit de cercle vertueux : celui qui sait peut agir et
améliorer sa situation tout en dégageant les moyens
nouveaux pour augmenter et améliorer ses connaissances.
Celui qui ne sait pas aura des difficultés à produire et, au-
delà, à investir dans la connaissance. C’est l’illustration de
l’effet Matthieu : un handicap n’est jamais seul. Le
processus est cumulatif dans ce cas.
3. Les limites de la science économique
Le développement d’une économie mathématique dont le
critère de validation est réduit au respect de la cohérence
interne des propositions déduites d’un ensemble
d’hypothèses (approche axiomatique, ou économie pure),
d’une part, et la quantification économétrique poussée dans
les travaux d’économie positive ou empirique, d’autre part,
donnent à la science économique l’apparence d’un système
susceptible de déboucher sur des théorèmes, pour
l’économie pure de l’approche axiomatique, et sur des lois,
pour l’économie positive, de même nature que ceux et celles
de la physique. Or, en tant que science sociale, l’économie
politique ne peut avoir une telle prétention, même si elle
partage certains caractères avec les sciences de la nature et
de la vie.
3.1. L’économie, science sociale, est une science de
l’observation
3.1.1. L’éclatement du champ économique
Si l’on suit Thomas Kuhn, toute science a des fondements
métaphysiques. Les révolutions scientifiques sont des
changements de paradigmes, i.e. des changements de
systèmes de références ou de croyances (Structure des
révolutions scientifiques, Payot, 1970).
Mais, à la différence de la physique dans laquelle un
nouveau paradigme chasse l’ancien (la révolution
einsteinienne prenant la suite de la révolution newtonienne),
l’économie politique se caractérise par la coexistence de
plusieurs paradigmes. De nos jours, comme nous le
détaillerons dans le chapitre suivant sur les grilles de lecture
ou histoire de la pensée économique, les programmes de
recherche se poursuivent dans le paradigme marxiste du
mode de production qui fait du travail et de la lutte des
classes le moteur de l’histoire, dans le paradigme
néoclassique ou walrassien d’équilibre général qui fait du
marché et du prix les éléments fondamentaux d’information
et de régulation, dans le paradigme keynésien de la
demande effective qui attribue à l’État les fonctions de
régulateur et à la monnaie la fonction de transmission des
déséquilibres dans une économie connaissant la rigidité des
prix à la baisse. Cela n’empêche d’ailleurs pas l’éclectisme,
aujourd’hui quasiment inévitable en raison d’une réalité de
plus en plus complexe, du plus grand nombre d’économistes
contemporains, comme le fait remarquer Daniel Cohen36
Une telle différence entre les sciences de la nature et de la
vie, d’une part, et la science économique, d’autre part,
s’explique par le fait que les unes étudient des objets
extérieurs au chercheur, tandis que l’autre, l’économie
comme d’ailleurs toutes les sciences de l’homme et de la
société, étudie un objet dans lequel le chercheur est inclus.
L’économie est confrontée au problème soulevé par René
Girard, après Platon, du paradoxe de « l’œil qui se regarde
». L’homme observé et l’homme observant ne font qu’un.
De ce fait, il pourrait y avoir, à la limite, autant de points de
vue différents qu’il y a d’individus observateurs. Il en
résulte un éclatement du champ économique beaucoup plus
prononcé que dans les sciences de la matière et de la vie. Le
constructivisme et sa part d’interprétativisme ne sont donc
pas absents en économie politique, discipline qui ne s’en
remet pas pour autant au subjectivisme et au relativisme. En
économie politique, le chômage de masse dans les Trente
Piteuses (selon le titre d’un essai de Nicolas Baverez) qui
ont suivi les Trente Glorieuses (1945-1974) est une réalité
qui ne relève pas du subjectivisme. On ne peut donc
échapper au positivisme, même si le constructivisme et
l’interprétativisme sont difficilement absents dans l’analyse
des causes. On y reviendra ci-dessous.
3.1.2. L’économie politique, science d’observation qui
s’ouvre à l’économie expérimentale
Dans le passé pas trop lointain, on distinguait les sciences
expérimentales et les sciences sociales. Les unes sont
qualifiées de sciences dures, les autres de sciences molles.
La naïveté épistémologique conduit encore souvent à
désigner les premières par l’expression de « sciences
exactes », alors que le progrès des connaissances dans les
disciplines des sciences de la nature et de la vie aboutit à
déclasser ce qui était précédemment posé comme exact. Ces
distinctions de sens commun sont donc à relativiser. C’est
ainsi que l’économie expérimentale est reconnue comme
branche de la science économique. Elle s’est développée à
la suite des travaux des Américains Vernon Smith et
Charley Plott.
Son objet est l’étude des comportements individuels dans
certaines situations mises au point en laboratoire. Il s’agit de
simuler les comportements, le fonctionnement des marchés,
les interactions stratégiques, par l’analyse des croyances et
des raisonnements des individus. Cette analyse des
croyances constitue l’ économie cognitive, ou économie
comportementale37. L’économie expérimentale peut
s’appliquer à la gestion des biens publics, en mettant en
évidence des comportements resquilleurs (phénomène du
passager clandestin) chez certains, et des comportements
coopératifs ou altruistes chez d’autres. Autrement dit,
l’économie expérimentale abandonne d’une certaine
manière certaines hypothèses trop générales, trop
simplificatrices (par exemple : la loi du moindre effort
conduit à généraliser le comportement resquilleur). On peut
penser que les recherches sur les jeux d’entreprise à
caractère pédagogique, comme ceux développés par Jean-
Marie Albertini, constituent des travaux précurseurs en
France de l’économie expérimentale38.
La lourdeur des protocoles pour l’économie
expérimentale, les stratagèmes qu’il faut adopter afin que
les individus recrutés se comportent le plus naturellement
possible dans la phase expérimentale, limitent
considérablement la diffusion de la méthode. Mais au-delà
de ces aspects contingents, la science économique ne peut
pas recourir systématiquement à la méthode expérimentale,
comme le font les sciences de la matière et de la vie, pour
valider ses hypothèses et unifier son champ éclaté.
L’impossibilité de généraliser l’expérimentation tient au
temps irréversible et qui ne peut être suspendu.
L’économiste est alors contraint, pour la validation
empirique de ses hypothèses, de recourir à l’observation
d’une société et des comportements des agents
économiques. Or, d’un instant à l’autre, ces comportements
ne sont pas nécessairement les mêmes face à des
événements déclencheurs identiques. La reproductibilité qui
sert de critère d’évaluation dans les sciences de la nature est
ici d’une faible pertinence. En chimie, on obtiendra toujours
de l’eau, quels que soient le lieu et la date de l’expérience,
en faisant une étincelle en présence de deux molécules
d’hydrogène et d’une molécule d’oxygène. En science
économique, on n’est pas sûr qu’une augmentation de la
masse monétaire entraîne dans tous les cas la hausse des
prix. Par exemple, il se pourrait que la concurrence,
l’existence de stocks, l’absence d’urgence pour les acheteurs
potentiels qui préfèrent emprunter à un taux d’intérêt faible
pour placer à un taux plus élevé, conduisent à un
comportement non inflationniste. La hausse de la masse
monétaire peut être aussi compensée par des comportements
d’épargne oisive qui ralentissent la vitesse de circulation de
la monnaie. Le ralentissement des achats, par exemple pour
épargner en raison de l’inquiétude suscitée par les médias
sur les risques de l’effondrement des systèmes sociaux de
pension de retraite par répartition39, peut mettre en échec
cette théorie quantitative de la monnaie, dont les termes de
validation n’ont peut-être pas tous été précisés.
3.1.3. Le recours à une multiplicité de variables
Une théorie économique comporte toujours l’adjonction
d’hypothèses supplémentaires sur les structures sociales et
sur l’état des variables de la théorie qui déterminent de
manière très restrictive le domaine d’acceptabilité. Ainsi,
pour que l’augmentation de la masse monétaire ait un effet
inflationniste – déséquilibre économique se traduisant par la
hausse des prix –, il faut supposer que la production mise
sur le marché soit constante, que la vitesse de circulation de
la monnaie – le nombre de transactions que permet de
réaliser une unité monétaire – ne diminue pas, i.e. que les
agents économiques ne thésaurisent pas la monnaie créée, et
que le plein-emploi soit réalisé. Il faut donc recourir à
l’hypothèse ceteris partibus. D’un point de vue positif,
l’observateur doit prendre la précaution d’élargir sa période
d’observation pour éviter d’ignorer une éventuelle causalité
circulaire : l’augmentation des prix exige une croissance de
la masse monétaire suivie d’une augmentation des prix, et
ainsi de suite. Ainsi, dans l’hyperinflation de 100 000 % de
1921-1923, en Allemagne, la vitesse de croissance des prix
était telle que la Banque centrale n’avait plus le temps
d’imprimer de nouveaux billets. Tenter de vérifier par
l’expérience cette théorie quantitative de la monnaie ou
toute théorie des sciences sociales serait en outre un
problème moral particulièrement délicat que peu de
personnes accepteraient d’ignorer : mettre en difficulté un
pays pour le plaisir intellectuel de valider une théorie serait
totalement « néronesque ».
3.2. Les lois économiques sont des lois historiques
Le changement du comportement des hommes, au cours
du temps, oblige à reconnaître que les vérités ou lois
économiques ne sont que des vérités contingentes. Elles
sont rationnelles eu égard seulement au contexte dans lequel
elles ont été produites et compte tenu du problème qui les a
suscitées.
3.2.1. Les contextes et le rôle ambivalent des anticipations
Deux situations identiques en économie n’entraînent pas
automatiquement les mêmes effets, en raison du rôle
ambivalent de l’information dans le comportement des
agents économiques. L’existence d’une loi observée sur des
faits passés peut donner lieu à deux prévisions opposées sur
les effets, en partant d’un événement identique à celui qui a
permis d’établir la loi, et cela par le jeu des anticipations.
Autrement dit, le positivisme pur de l’affirmation « les
mêmes causes produisent les mêmes effets » doit être
relativisé. Soit les effets supposés négatifs ne se
reproduiront pas parce que les agents ont pris des
dispositions de contre-tendance pour se protéger, soit les
effets se produiront de manière amplifiée parce que les
agents ont anticipé la réalisation d’un phénomène sur son
annonce (anticipations autoréalisatrices ou effet Merton).
Ainsi, en 1974, à l’annonce d’une pénurie de sucre, les
ménages ont constitué des stocks entraînant la pénurie
effective du sucre dans les centres de distribution.
Il est difficile de prévoir lequel de ces effets l’emportera.
Dès lors, les prévisions en économie sont des conjectures
affectées au mieux d’une probabilité. Ce n’est cependant
pas qu’une question d’incertitude sur les probabilités des
différents états possibles ou celle d’une incertitude radicale
se traduisant dans l’impossibilité même d’identifier ou de
recenser les différents états de l’alternative. Cette rareté de
l’information se double d’une pénurie de sens, pour
comprendre les phénomènes sociaux qui sont plus
complexes par nature que les objets des sciences de la
nature et de la matière. Dès que l’on cherche à comprendre
la complexité, on avance sur l’interprétation
(l’herméneutique), on s’éloigne de l’objectivité, on se
rapproche de la subjectivité (la réalité sociale n’est pas
indépendante du chercheur), et le positivisme s’efface
partiellement devant le constructivisme.
Il s’agit aussi de prendre en compte le fait que l’économie
politique est une science morale et politique. La boutade du
Premier Ministre britannique Winston Churchill, lors de la
Seconde Guerre mondiale, est souvent citée sur
l’importance de l’interprétation et, finalement, sur la
pertinence d’une posture d’anarchisme méthodologique
acceptant le constructivisme en sciences économiques, avec
pour effet de corriger un positivisme pur intenable : «
Lorsque je réunis deux économistes pour leur demander leur
avis afin de résoudre un problème, j’obtiens deux solutions
différentes et trois si l’un des deux économistes est Keynes.
»
Le positivisme, assimilé à une posture contemplative,
passive à l’égard des faits extérieurs, objectifs, indépendants
de l’observateur qui en fait l’analyse scientifique, compose
donc avec le constructivisme plus actif, plus
conventionnaliste, plus normatif. Dans le constructivisme,
on insiste sur le caractère social de la construction
scientifique ; la réalité n’existe pas indépendamment de
ceux qui en rendent compte. Les sociologues Michel
Crozier et Erhard Friedberg vont jusqu’à écrire que la réalité
est un artefact humain (L’Acteur et le système, Le Seuil,
1977).
Dans les faits, il existe un continuum entre les deux
approches extrêmes que l’on peut catégoriser aussi bien
comme du pragmatisme (au sens vulgaire et non pas dans le
sens de conventionnalisme) ou comme de l’anarchisme
méthodologique. La position pragmatique concilie, d’une
part, les raisonnements déductifs, tautologiques et donc plus
avares en découvertes – raisonnements plus courants dans le
positivisme des économètres de la réfutation – et, d’autre
part, les raisonnements inductifs, qui suscitent plus de
questions et des interprétations nouvelles40 inévitablement
constructivistes, plus courantes en gestion et en
socioéconomie.
3.2.2. Les problématiques micro- et macroéconomiques et le
sophisme de composition
Les exemples d’actes et de faits sociaux présentés dès la
première page de ce chapitre font apparaître l’existence de
deux types de problèmes. Il y a, d’une part, des problèmes
microéconomiques, i.e. ceux qui concernent le
comportement des unités décisionnelles individuelles
comme, par exemple, l’achat d’une voiture par un individu,
la cessation de paiement d’une entreprise, et, d’autre part,
des problèmes macroéconomiques, i.e. ceux qui concernent
les ensembles comme la communauté nationale ou
internationale. Les exemples de problèmes
macroéconomiques utilisés depuis le début de cette lecture
sont l’inflation, le chômage, le revenu national, la
croissance économique, la crise pétrolière de 1973, la dette
extérieure, le sous-développement.
L’approche microéconomique consiste notamment à
examiner comment l’agent économique fait ses choix dans
le domaine de la consommation ou de la production, compte
tenu de son budget ou de sa contrainte de revenu. Il s’agit
donc d’un problème d’allocation de ressources susceptible
de s’appliquer aux décisions privées comme aux décisions
publiques. Ainsi, la procédure de rationalisation des choix
budgétaires utilisée dans les administrations publiques en
France est une démarche qui relève de la microéconomie.
L’approche macroéconomique a pour objet l’analyse des
flux globaux et des grandeurs globales (ou agrégats), sans se
préoccuper des unités qui composent cette globalité. C’est
l’ensemble des ménages, l’ensemble des entreprises,
l’ensemble des banques qui intéressent la macroéconomie et
non pas chaque ménage, chaque entreprise et chaque
banque.
Chaque approche est caractérisée par une logique propre
qui empêche la transférabilité des résultats de l’une vers
l’autre. Ce problème de rupture ou de discontinuité des
logiques ou problème de no bridge – appelé encore
sophisme de composition – indique que ce qui est vrai en
microéconomie ne l’est pas nécessairement en
macroéconomie, et réciproquement. L’erreur que désigne le
sophisme de composition est de croire au transfert des
propriétés des parties d’un ensemble à l’ensemble lui-
même. Par exemple, si un individu est rationnel lorsque,
voyant un incendie à bâbord sur un bateau, il s’en écarte
pour aller à tribord, en revanche, l’effet sera désastreux si ce
comportement est adopté par tous les passagers. On peut
appliquer ce raisonnement au cas de l’épargne : l’épargne
individuelle est une bonne chose pour financer les
investissements, mais globalement et à court terme, elle
peut réduire l’incitation à investir, i.e. à produire plus,
puisque la consommation est plus faible et que l’on ne sait
pas à l’achat de quel bien cette épargne sera affectée plus
tard ni quand elle le sera.
Toutefois, ces dernières années, un intense travail est
entrepris pour dépasser cette coupure en tentant de retrouver
les fondements microéconomiques de la macroéconomie.
Cette démarche repose sur l’idée bien évidente que les
ensembles et les quantités globales n’existeraient pas sans
leurs éléments. Pour Robert J. Barro (La Macroéconomie,
Armand Colin, 1987, p. 9), la théorie microéconomique des
prix est « sous-jacente dans l’analyse macroéconomique des
variables agrégées ». Mais le raisonnement ceteris paribus
acceptable en microéconomie est difficilement transposable
en macroéconomie dont le domaine est plus complexe, avec
des interdépendances et des interactions multiples, comme il
est difficile d’admettre, pour toute la société, des
comportements homogènes de tous les individus qui ne
feraient que répliquer le comportement de l’Homo
œconomicus41.
1 Économiste de l’école autrichienne (voir plus loin la présentation de celle-
ci), J.A. Schumpeter (1883-1951) a laissé une œuvre éclectique par les thèmes
abordés : la théorie de l’entrepreneur, l’histoire de la pensée économique, la
théorie des cycles, la théorie des systèmes économiques et politiques (cf.
Capitalisme, socialisme et démocratie).
2 Histoire de l’analyse économique, 3 volumes, Gallimard, 1983, pp. 30-31.
3 Cette typologie s’inspire de celle proposée par Karim Ben Kahla : «
Archétypes du chercheur en sciences sociales », Revue tunisienne d’économie et
de gestion, n° 17, 1998, pp. 161-189.
4 Gaston Bachelard (1884-1962) philosophe français, auteur notamment du «
Nouvel Esprit scientifique » (1938) dans lequel est présenté le phénomène de
rupture épistémologique évoqué ici.
5 Économiste américain, d’origine austro-hongroise de l’école de Vienne
(1881-1973), inspirateur du courant libertarien.
6 Économiste français, professeur à l’université de Dijon (1927-1990).
7 Économiste classique anglais, d’origine portugaise (1772-1823). Son œuvre
maîtresse est Principes de l’économie politique et de l’impôt (1817).
8 On parle alors de la catallactique, i.e. science de l’échange, selon le terme
employé par Whately (1831) et par L. Von Mises (Action humaine, 1949, trad. fr.
PUF, 1985) pour désigner la science économique.
9 Économiste classique français (1767-1832), premier titulaire de la chaire
d’économie au Collège de France.
10 Banquier et économiste irlandais (1680-1734), rival de John Law.
11 Financier et économiste anglais (1772-1823) auteur, en particulier, des
Principes d’économie politique et de l’impôt, 1817.
12 Philosophe, économiste allemand (1818-1883) auteur, en particulier, du
Capital, 1867.
13 Le marginalisme est une méthode d’analyse qui repose sur un raisonnement
portant sur des rapports de très faibles variations de variables liées. Par exemple,
on cherchera à déterminer la variation du plaisir que procure l’augmentation
d’une très faible quantité d’eau.
14 Étienne Bonnot de Condillac, philosophe et économiste français (1715-
1780), auteur en particulier du Traité des sensations (1755) qui donne les bases
philosophiques (sensualisme) de la théorie de la valeur d’usage.
15 Ingénieur économiste français, professeur au CNAM (1907-1990). Il a
travaillé sur le rôle du progrès technique dans l’évolution des structures
économiques, du niveau de vie et des conditions de vie.
16 La définition du revenu comme flux dont la dépense n’épuise pas sa source
a des limites dans le langage courant lorsqu’on parle de revenus pétroliers pour
les recettes provenant de la vente de cette matière première.
17 Aristote désignait par chrématistique la recherche de la richesse en soi par
le commerce : amasser les biens, les conserver. Au XIXe siècle, la chrématistique
désignait la science économique comme science des richesses par opposition à
l’économie politique jugée trop idéologique.
18 Dans la terminologie courante, le terme service est préféré à l’expression
bien immatériel, mais il est ambivalent en ce qu’il désigne à la fois le résultat et
le processus simultané de sa production et de sa consommation. Un tel processus
est désigné par le néologisme « servuction » proposé par Eiglier et Langeard.
19 Économiste et philosophe écossais (1723-1790) souvent présenté comme le
fondateur de la science économique moderne après avoir publié, en 1776,
Recherche sur la nature et les causes de la richesse des nations.
20 Un compte comporte deux parties : le produit des ventes, les revenus reçus
qui apparaissent au crédit , et les dépenses ou les charges qui apparaissent au
débit . Pour un compte de patrimoine, comme par exemple le bilan d’une
entreprise ou d’une banque, les ressources sont inscrites au passif du bilan, les
éléments acquis par ces ressources sont inscrits à l’actif du bilan.
21 cf. plus loin le chapitre sur l’histoire de la pensée économique.
22 L’adjectif keynésien est dérivé du nom de John Maynard Keynes (1883-
1946), auteur notamment du livre de référence pour les keynésiens, la Théorie
générale de l’emploi de l’intérêt et de la monnaie (1936). Mais dans ce livre,
l’offre de monnaie est exogène, elle est totalement contrôlée par la banque
centrale. C’est la raison pour laquelle les post-keynésiens se réfèrent à d’autres
travaux de Keynes, comme le Traité sur la monnaie, de 1930.
23 Attention ! le chèque n’est pas de la monnaie : pour vous en rendre compte,
faites un chèque de 1 000 euros et détruisez-le tout de suite après, vous
constaterez que vous n’avez rien perdu, alors que si vous brûlez un billet de 10 €,
la perte sera réelle.
24 Dans le chapitre premier (« Nature de l’économie ») de la section I («
L’État socialiste isolé ») de la Deuxième partie (« L’économie de la communauté
socialiste ») du livre Le socialisme, étude économique et sociologique, Éditions
M.-Th. Génin, Librairie de Médicis, Paris (1938).
25 La formule est d’Adam Smith dans la Richesse des nations : « L’homme est
guidé par son seul intérêt et ne cherche pas à promouvoir le bien commun. Mais
sans le vouloir, il actionne une main invisible qui atteint ce but. »
26 Auguste Comte, Œuvres, 1798-1857.
27 Communiqué de presse du CNRS pour la remise de la médaille d’or 2007 à
Jean Tirole.
28 Économiste canadien d’origine hongroise (1886-1964), auteur notamment
de La Grande Transformation, aux origines politiques et économiques de notre
temps (1944) et Les Systèmes économiques dans l’histoire et la théorie (1957).
29 Expression qui fait référence à l’œuvre de Daniel Defoe, Robinson Crusoé.
30 Économiste et philosophe anglais (1806-1873), exprimant une multitude de
courants : libéralisme social, tolérance religieuse, féminisme, utilitarisme,
empirisme. S’opposant à Auguste Compte, il considère que la science sociale est
possible même s’il n’y a pas de vérité absolue. Auteur notamment des Principes
de l’économie politique (1848).
31 Voir plus loin les développements consacrés à cet auteur.
32 Il faut attirer l’attention sur la polysémique de l’expression modèle
économique qui, en tant que traduction approximative de « Business model »
peut aussi désigner un mode de rentabilisation d’un projet ou d’une activité.
33 La chaleur est une variable déterminante, explicative, exogène, i.e.
indépendante des considérations économiques.
34 La causalité de Granger est une notion statistique, basée sur les variables
qui permettent de prévoir d’autres variables. Clive Granger, qui a développé un
grand nombre de techniques et de notions, a été en 2003 lauréat, avec Engle, du
prix de la Banque de Suède en l’honneur de Nobel « pour des méthodes
d’analyse de séries temporelles économiques avec une tendance commune (co-
intégration) ».
35 Cf. Th. A. Boylan et P.F. O’Gorman, « Pragmatism in Economic
Methodology. The Duhem-Quine Thesis Revisited », Foundations of Science,
vol. 8, n° 1, 2003, pp. 3-21.
36 Interview donné dans Alternatives économiques, février 2004.
37 Une forme particulière de l’économie comportementale apparue récemment
est la neuroéconomie qui étudie des processus de décision économique
mobilisant les acquis et découvertes des neurosciences dans les domaines de
l’imagerie cérébrale et de la psychologie cognitive.
38 Les deux principales références sont les ouvrages de J. Hey, Experiments in
Economics, Blackwell, 1991 ; et de D. Davis et C. Holt, Experimental
Economics, Princeton University Press, 1993.
39 Le système de pension par répartition consiste à financer les retraites de
ceux qui ne travaillent pas par les cotisations sociales versées par ceux qui
travaillent. Il se distingue du système par capitalisation qui repose sur l’épargne
constituée librement au cours de la vie active par ceux qui partent à la retraite.
40 Pour Aristote c’est « l’induction qui nous fait connaître les principes, car
c’est de cette façon que la sensation produit en nous l’universel » (Seconds
Analytiques, II, 19, 100b).
41 Eric Barthelon, « Tant qu’il y aura des hommes. Libres réflexions sur les
crises financières », Conjoncture Pari-bas, numéro spécial, octobre 1998, page
13.
Chapitre 2
Les grands courants de la pensée
économique
Le chapitre précédent a permis de montrer qu’il existe,
d’une part, une diversité de points de vue, aussi bien dans
les explications que dans les méthodes mises en œuvre et,
d’autre part, des problématiques différentes en science
économique. Ces trois éléments réunis constituent la
structure scientifique de ce que l’on peut appeler une école
de pensée ou un courant de pensée. Son expression positive
exige le plus souvent une autorité scientifique – le chef –
ayant exprimé les principes fondamentaux de son système
théorique, les écrits du fondateur, qui serviront de référence,
et des disciples (d’après J.A. Schumpeter, Histoire de
l’analyse économique, Gallimard, 1986).
L’objet de ce deuxième chapitre est de donner plus de
détails sur les caractères spécifiques des grands courants au
sein desquels la connaissance scientifique se développe de
manière cumulative, avec des remises en cause partielles de
certaines hypothèses, justifiant alors fréquemment
l’adjonction du préfixe « néo » ou, plus rarement, « post »
devant la théorie amendée ou le courant actualisé. La
plupart des grandes classifications admises dans la
communauté scientifique des économistes conduisent à
distinguer :
- le courant classique et néoclassique qui analyse les
comportements des unités économiques
(microéconomiques sauf rares exceptions) en
termes de prix ou en termes de marché. On dit
encore analyse en termes d’équilibre, analyse en
termes de coûts aussi bien absolus que relatifs. Le
plus souvent il s’agit d’une analyse en statique
(hors du temps) ou à la fin des temps ;
- le courant marxiste qui analyse les rapports sociaux
de production dans le cadre de l’économie de
marché, dans une perspective historique et
dialectique ;
- le courant keynésien et postkeynésien qui analyse les
flux globaux de production, de revenu, de
consommation, d’épargne, d’investissement,
d’importation et d’exportation dans le cadre de
l’économie nationale. Mais il existe une école
néokeynésienne – la nouvelle économie
keynésienne ou NEK – qui ne rejette pas l’analyse
microéconomique en acceptant certaines
hypothèses du réalisme keynésien comme par
exemple l’information imparfaite ;
- et une tendance pragmatique que l’on qualifie
d’hétérodoxe.
Cette classification standard concerne la science
économique autonomisée apparue en 1776 avec la
publication de Recherches sur la nature et les causes de la
richesse des nations d’Adam Smith, fondateur de
l’économie classique. Les critères qui permettent de
distinguer les analyses entreprises dans chacun de ces
courants sont multiples. Pour les travaux anciens, ces
critères ne sont pas toujours explicites. Il s’agira ici de
présenter les principaux, dont certains sont déjà connus.
1) Le premier est la dimension de l’unité observée :
l’individu ou le groupe. On rappellera que la microéconomie
analyse le comportement de l’agent décideur, alors que la
macroéconomie analyse la société ou l’agrégation des
agents et les flux globaux qui naissent de leurs interactions.
Toutefois, l’analyse est mésoéconomique lorsqu’elle porte
sur un secteur d’activité1 ou sur un produit d’une branche
d’activité2. L’économie industrielle qui étudie les
comportements des entreprises et de leurs clients sur un
marché donné est un exemple de cette démarche qui
emprunte des notions à la microéconomie mais qui concerne
plusieurs unités économiques agrégées. La distinction
micro-macro est proposée dans les années 1930 par Ragnard
Frisch3, alors que le terme de mésoéconomie, plus récent,
est dû à Stuart Holland (1975).
2) Le choix de l’unité observée ne préjuge pas de l’option
quant à la nature de la relation entre la microstructure et la
macrostructure. Cela conduit donc à distinguer
l’individualisme méthodologique (le tout est déterminé par
ses parties) et l’holisme méthodologique (la partie est
déterminée par son appartenance au tout).
3) L’analyse peut ensuite porter sur les flux ou opérations
économiques au cours d’une période, ou sur les stocks, i.e.
les valeurs à une date donnée qui résultent de ces flux
sortant et entrant. L’analyse en termes de flux peut
s’appliquer aussi bien à l’entreprise avec la comptabilité
générale sous la forme de compte de gestion notamment
avec le compte de résultats qui donne les informations sur
les dépenses ou charges, les produits ou recettes, et en solde
(i.e. la différence entre recettes et charges) pour équilibrer
soit les bénéfices (du côté des dépenses) ou les pertes (du
côté des recettes) au cours d’un exercice, que pour la nation
avec la comptabilité nationale qui décrit les opérations
économiques au cours d’un exercice (production,
importation, investissement, consommation, exportation,
etc.). À ce niveau macroéconomique, l’analyse en termes de
flux est synonyme d’analyse en termes de circuit : le flux de
production donne lieu à un revenu qui se transforme en
dépenses (consommation et investissement) consistant à
acquérir en partie (si le revenu est en partie épargné) ou en
totalité ce qui a été produit. L’analyse en termes de stocks
porte sur l’état à un moment donné obtenu par accumulation
des flux au cours du temps. On parle encore d’analyse
patrimoniale. Les outils sont, pour une entreprise, le bilan
qui présente les ressources dont elle dispose ou passif et les
emplois qu’elle en fait ou actif, et, pour la nation, le compte
de patrimoine. Au-delà de l’outil comptable, l’analyse en
termes de stocks est synonyme d’analyse en termes
d’équilibre, analyse en termes de prix, analyse en termes de
comportement, ou encore analyse en termes de marché.
4) Il découle logiquement de cette opposition le critère du
traitement du temps, débouchant sur la distinction entre
l’analyse statique ou plus correctement analyse en statique
(hors du temps), l’analyse dynamique ou analyse en
dynamique (par la prise en compte du temps, de l’histoire,
du mouvement) et l’analyse en métastatique ou statique
comparative (comparaison des périodes, analyse avant-
après ou analyse ex-ante, ex-post, qui peut correspondre à la
comparaison prévision-résultat).
5) La prise en compte du temps donne lieu à son tour au
critère de la période d’analyse économique retenue qui
permet de distinguer les analyses de la courte période et les
analyses de la longue période. Les premières raisonnent
dans le cadre de structures données, ce qui signifie que les
possibilités de flexibilité ou d’adaptation sont très limitées.
Par exemple pour faire face à un accroissement non prévu
de la demande, le producteur ne peut puiser que dans ses
stocks, Le deuxième type considère qu’à long terme tout est
flexible. On définit alors la structure de manière
tautologique comme ce qui est fixe à court terme et variable
à long terme.
6) Le critère de l’objectif a permis précédemment de
définir l’approche positive (descriptive, explicative) portant
sur ce qui est et l’approche normative indiquant ce qui
devrait être ou ce qu’il faudrait faire ou ne pas faire.
7) Le critère de la posture épistémologique est plus
complexe car il comporte plusieurs facettes. L’une oppose
positivisme et constructivisme , une autre distingue
abduction, induction et déduction, et une troisième, au sein
du positivisme, le réalisme des hypothèses, fait face à
l’instrumentalisme dit encore conventionnalisme.
Pour le positivisme, l’objet de la science est de révéler
des lois sous-jacentes aux faits réels. Les lois scientifiques
et les faits sont des réalités objectives indépendantes du
chercheur. Toute personne qui utilise les mêmes méthodes
face à un même problème trouvera le même résultat. Pour le
constructivisme il n’y a pas de réalité en soi, elle n’est pas
indépendante du chercheur et de ses valeurs. La
construction scientifique est alors le fait du chercheur qui
interprète ce qu’il construit. Comme l’écrivait Gaston
Bachelard : « Rien n’est donné, tout est construit. » D’un
point de vue logique, le positivisme aura une tendance plus
évidente à adopter une méthodologie déductive, tandis que
le constructivisme aura plus d’affinités avec l’approche
inductive, sachant que la déduction part de propositions
théoriques pour faire des hypothèses qui sont ensuite testées
empiriquement, alors que l’induction part des observations
empiriques pour construire une théorie. Toutefois, le
constructivisme ne va pas jusqu’à la généralisation
empirique. La singularité des situations se prête davantage à
l’inférence abductive. Celle-ci est le mode de raisonnement
adopté pour interpréter une réalité nouvelle4, qui ne peut être
expliquée par les théories existantes, mais pour laquelle les
observations se limitent à quelques rares cas. Dans la
démarche abductive l’inférence est limitée à un ou deux cas
cliniques.
Au sein du positivisme, deux attitudes méthodologiques –
l’instrumentalisme et le réalisme des hypothèses –
s’affrontent. Comme, cela a été indiqué précédemment,
l’instrumentalisme méthodologique affirme que le propre
des hypothèses est de permettre des prédictions, et peu
importe leur adéquation ou inadéquation à une réalité. Elle a
pour principaux représentants M. Friedman (Essais en
économie positive, Chicago, 1953), F. Machlup («
Problèmes de méthodologie », AER, 1963), L. A. Boland («
Critique de la critique de Friedman », JEL, 1979) et M.
Allais. Ce dernier écrit notamment : « Il n’y a de sciences
que là où existent des régularités susceptibles d’être
analysées et d’être prédites » (REP, 1989). Pour Friedman,
le critère de validation d’une théorie ne réside pas dans le
réalisme des hypothèses mais dans l’exactitude des
prévisions que ces hypothèses permettent d’obtenir. Le
réalisme est chimérique car un modèle est toujours une
simplification de la réalité, et une théorie est d’autant plus
pertinente qu’elle est générale, et que ses hypothèses, parce
que simplificatrices, sont irréalistes, comme le fait
remarquer F. Machlup. C’est ce dernier aspect qui est
critiqué par P. A. Samuelson sous l’expression de distorsion
F (F-Twist) forte. Le point de vue qui consiste à juger une
théorie sur la base de ses prévisions n’est qu’une distorsion
friedmannienne faible, i.e. acceptable, ce qui n’est pas le cas
de l’affirmation selon laquelle l’irréalisme des hypothèses
est le garant du caractère universel de la théorie (« Théorie
et réalisme : une réponse », AER, 1964).
8) La distinction, due à Léon Walras, entre économie
pure, économie appliquée et économie sociale présente une
combinaison entre le critère méthodologique et celui de
l’objectif.
– L’économie pure procède de la démarche hypothético-
déductivo-nomologique. Le modèle d’équilibre général
constitue l’exemple canonique formalisé de ce que propose
l’économie pure. Ce modèle expose les différents équilibres
simultanés après un processus de tâtonnement sur les
différents marchés réunissant une multitude de demandeurs
et d’offreurs de biens et de services, tous de faible
dimension (ce qui, en raison de leur nombre, signifie
qu’aucun demandeur ou offreur n’a le pouvoir à lui seul
d’influencer le marché), obéissant tous au principe
d’allocation optimale des ressources rares, généralisant le
comportement de l’Homo œconomicus pour tous les
individus, en négligeant le rôle de l’État, les effets externes
(i.e. les effets positifs ou négatifs induits sur les autres par le
comportement d’un individu).
– L’économie appliquée correspond au travail que fait
l’économiste en tant que conseiller dans une activité
donnée, en faisant des calculs soit du type analyse coûts-
avantages ou analyse coûts-bénéfices, lorsque les résultats
potentiels sont évaluables monétairement, soit du type
analyse coûts-efficacité, si les objectifs n’ont pas une
dimension monétaire, afin de faciliter la décision de choix
du responsable de l’organisation pour lequel il travaille.
– L’économie sociale pour Walras est l’ensemble des
propositions qui permettent de réaliser la justice sociale.
Toutefois, l’expression « économie sociale » désigne de nos
jours le secteur défini en extension comprenant les
coopératives, les associations et les mutuelles et l’ensemble
des actions entreprises dans le cadre de l’économie solidaire
comme par exemple les systèmes d’échanges locaux (SEL).
On parle également de tiers-secteur, mais cette expression a
un contenu idéologique marqué dans la mesure où elle
indique une volonté de produire autrement que sous les
formes privées et publiques.
9) Enfin le mode d’exposition peut être soit littéraire, soit
fortement formalisé (forte présence des mathématiques). Il
est possible de signaler de rares grands auteurs comme
Frederich August von Hayek ou, avant lui, Joseph Aloys
Schumpeter qui ont exposé d’importantes théories ou
modèles de manière entièrement littéraire – hors tableaux
numériques inévitables puisque la quantification ou la
mesure sont constitutives de la discipline. Ainsi, J.
Schumpeter présente dans la Théorie de l’évolution
économique le modèle d’équilibre général sans recourir aux
formes matricielles de la version de Léon Walras. Toutefois
une quasi-unanimité semble se constituer pour considérer
que la science économique moderne, hors abus de
l’économie mathématique souvent dénoncés, ne peut plus
renoncer systématiquement, d’une part, aux méthodes
économétriques indispensables pour tester des hypothèses et
permettre des prévisions, et, d’autre part et dans certains
cas, à la rigueur du langage mathématique qui permet
d’exposer synthétiquement la théorie de manière logique.
10) Le critère idéologique, i.e. non scientifique, ne peut
être passé sous silence, puisque l’économie est une science
morale et politique. Il est en effet difficile de faire de
l’économie pure. Aussi certains auteurs ne peuvent
s’empêcher de développer des théories et des modèles
justifiant soit le libéralisme économique avec l’information
tacite par le marché selon l’expression de Hayek, soit
l’interventionnisme étatique qui procède du constructivisme
au sens de Hayek, ou des modes d’organisation sociale dits
encore systèmes économiques, régimes économiques
comme le capitalisme et le socialisme (voir encadré)
Encadré : les systèmes économiques : capitalismes et
socialismes
a) Le capitalisme, d’un point de vue théorique, se définit
par trois caractères principaux : le salariat, un mode de
régulation décentralisé par le marché (on dit encore par les
prix) et l’appropriation privée des biens de production. Le
régime capitaliste, i.e. l’application concrète du capitalisme,
est ce que l’on désigne habituellement par « économie de
marché ». Il existe un grand nombre de variétés du
capitalisme allant du capitalisme marchand (au début de la
Renaissance au XVIe siècle), au capitalisme financier5 et sa
variante moderne de capitalisme actionnarial (accumulation
de richesses financières par les entreprises et pour leurs
actionnaires par la recherche de la hausse des cours
boursiers dite « création de valeur actionnariale ») en
passant par le capitalisme industriel, le capitalisme cognitif
(accumulation des connaissances facilitée par les
technologies de traitement, de stockage et de diffusion de
l’information ou TIC (technologie de l’information et de la
communication), etc.
b) Le socialisme est à la fois une idéologie ou doctrine et
une forme d’organisation sociale dont l’élément commun
est la condamnation de la propriété privée des biens de
production. Du point de vue des doctrines Platon, par
exemple, préconise un communisme aristocratique (système
hiérarchique et non égalitaire) ; Sismondi propose des
réformes du capitalisme par la redistribution ; les saint-
simoniens militent pour des nationalisations des
entreprises ; le socialisme associationniste, auquel sont
associés les noms de Robert Owen, Charles Fourier, Louis
Blanc, Pierre-Joseph Proudhon, etc., invite soit au
développement des coopératives, soit au fédéralisme des
associations de producteurs ; le marxisme de Karl Marx et
de F. Engels (car il y a une diversité de marxismes à partir
de l’interprétation et de l’adaptation de l’œuvre de Marx) se
veut être le socialisme scientifique qui, par l’analyse, est
capable d’annoncer l’effondrement inéluctable et
socialement naturel du capitalisme rongé par ses
contradictions. Du point de vue des régimes, la mise en
application des idées socialistes a donné l’expression de
socialisme réel pour désigner le capitalisme d’État de l’ex-
Union soviétique qui était majoritairement une économie de
propriété collective, une économie administrée, économie
de commandement ou dirigée, autrement dit une économie
centralement planifiée (par opposition à une économie de
marché, économie aux multiples centres de décision
décentralisés).

Si ces dix critères peuvent s’appliquer aisément aux


travaux de la science économique moderne, ils demeurent
moins manifestes dans les écrits plus philosophiques, plus
normatifs dans lesquels l’économie n’était pas encore une
discipline tout à fait autonome. Un rapide survol de ces
écrits constituera la première section ; les suivantes seront
consacrées aux différents courants de l’économie
autonomisée.
1. La pensée économique préclassique
Les écrits à résonance économique sont quasiment aussi
anciens que l’écriture, mais les analyses – i.e. l’effort de
théorisation d’une manière autonome de la morale – sont
beaucoup plus récentes. La Bible puis les philosophes grecs,
quelques auteurs romains, les pères de l’Église et les
scolastiques, les mercantilistes et enfin les physiocrates
constituent cependant pour les Occidentaux le mouvement
précurseur de la science économique moderne.
1.1. La Bible : la première analyse des cycles
Beaucoup d’éléments dans la Bible méritent l’attention
d’un économiste, mais, en termes d’analyse économique des
faits et de la politique économique, le passage le plus
important demeure l’apologue de Joseph. L’oniromancie à
laquelle se livre Joseph, qui transforme le songe du pharaon,
décrivant « sept vaches grasses venant du Nil et sept vaches
maigres allant vers le Nil », en sept années de croissance, de
pléthore, d’abondance, et sept années de disette, de
sécheresse, de misère, de famine, est en effet la première
analyse des cycles de l’activité économique. En préconisant
l’ensilage, la constitution de réserves durant les années de
pléthore, afin de subvenir aux besoins lors des années de
difficultés et de disette, Joseph préconise la première
politique contra-cyclique. On peut être tenté de voir dans cet
apologue une apologie de la planification et de
l’intervention de l’État, mais il y a d’autres passages
bibliques qui mettent l’accent sur les mérites de l’individu et
sur les dangers d’un communisme unificateur, orgueilleux et
prétentieux dans sa vaine tentative d’atteindre, par la
construction d’une tour gigantesque, la cité ou la porte de
Dieu6.
1.2. Les systèmes économiques et le circuit économique chez
les philosophes de l’Antiquité chinoise et grecque
Vers 600-300 av. J.-C., en Chine, en Inde et en Europe,
plusieurs philosophes ont exprimé des points de vue sur la
gestion de la société et des recommandations sur les
comportements économiques. Par exemple, Lao Tseu
préconise l’ordre naturel, l’individualisme, mais condamne
la recherche de la richesse matérielle et la propriété.
Confucius (Kongfuzi de son vrai nom [551-479 av. J.-C.])
au contraire considère que la recherche de la richesse est un
moyen d’accroître le bien-être pour tous. L’État doit
intervenir pour fournir les biens collectifs qui permettent
cette amélioration du bien-être pour tous (éducation,
infrastructures de transport, monnaie, etc.). Pour Confucius,
qui présente les trois fonctions de la monnaie, la division du
travail est un facteur favorable à la croissance de la
production. L’existence d’une monnaie acceptée sur le plus
grand espace possible facilite les échanges et donc la
division du travail.
Les philosophes grecs ont surtout débattu des problèmes
de justice, de droit et de politique, l’analyse économique
n’occupant que la dimension justificatrice des options
adoptées et des systèmes construits. Xénophon fait
exception en publiant L’Économique, qui peut être
considéré comme le premier traité de gestion des
entreprises, et Le Revenu de l’Attique, devenant le premier
traité d’analyse macroéconomique en termes de flux.
Pour Xénophon, la richesse vient de la production de
biens utiles. La première activité – celle qui assure la
prospérité à toutes les autres – est l’agriculture, qui utilise la
terre et le travail de ses habitants. Les activités artisanales
transforment les produits issus de la terre. Après cette phase
de transformation, les produits sont consommés. Xénophon
déclare que, pour faire fortune, il faut faire de l’épargne.
Celle-ci n’est pas réinvestie, car elle est destinée à aider
ceux qui n’ont pas de ressources suffisantes pour
consommer.
À la même époque, Platon (428-348 av. J.-C.) élabore une
philosophie idéaliste et imagine un système communiste
dans lequel les hommes s’approprient de manière collective,
dans une première version, les biens, les femmes et les
esclaves (La République), ou, dans une deuxième version,
seulement les biens de production et les esclaves (Les Lois).
Son élève Aristote (384-322 av. J.-C.), plus réaliste,
s’insurge contre ce système communiste qui ne tient pas
compte de la nature humaine. Ses contributions à
l’économie dépassent largement cet aspect qui est cependant
essentiel, puisque la dualité ou concurrence des régimes
entre capitalisme et socialisme plonge ses racines dans ce
débat entre Aristote et Platon, qui est aussi un débat
méthodologique entre approche inductive et réaliste
d’Aristote et approche déductive et idéaliste de Platon.
Aristote perfectionne l’analyse des facteurs de production
en introduisant le capital, oublié chez Xénophon. Il évoque
la possibilité de substitution du capital au travail, mais il
reconnaît, bien avant les socialistes saint-simoniens du XIXe
siècle et avant les marxistes, que l’homme est le capital le
plus précieux, en écrivant : « Il est donc clair que, pour le
gouvernement domestique – i.e. l’économie –, les hommes
importent plus que la possession des choses inanimées »
(Politique, chap. 13, p. 1). Seul le travail est productif. Il
condamne aussi le prêt à intérêt, car « l’argent ne fait pas de
petits ». Il semble être, avec Confucius, parmi les tout
premiers à définir les trois fonctions de la monnaie : étalon,
transaction, réserve de valeur (Éthique à Nicomaque, livre
V, chap. 5, p. 14).
Comme Xénophon avant lui, il distingue la valeur
d’usage de la valeur d’échange et admet qu’il ne peut y
avoir de valeur d’échange sans valeur d’usage. L’échange
sur le marché se fait à l’équilibre. C’est le principe de la
justice commutative qui signifie l’égalité des évaluations en
monnaie des objets sur lesquels porte la transaction (Éthique
à Nicomaque, livre VI, chap. 5, pp. 8 et 9).
1.3. Les mercantilistes : la troisième voie de la régulation
Les conceptions aristotéliciennes dominent l’Occident
pendant plusieurs siècles. Les écrivains latins n’ont produit
que des manuels de gestion et d’économie agricole
(Columelle, Varron, Caton l’Ancien, Pline l’ancien),
exception faite pour Cicéron qui réécrit l’œuvre de Platon
(La République, Les Lois). En revanche Aristote nourrit la
pensée des pères de l’Église comme saint Augustin, des
philosophes arabo-musulmans (principalement Ibn Ruchd
dit Averroès [1126-1198] qui, avec le Livre des échanges,
tente de caractériser le marché idéal de concurrence pure et
parfaite7, présente les fonctions du chèque, analyse les
opérations cambiaires, etc.), et des scolastiques, jusqu’à
saint Thomas d’Aquin (1225-1274) qui professe la
conciliation entre la foi et la raison dans la Somme
théologique. Toutefois le Tunisien Ibn Khaldoun peut être
considéré comme ayant fait œuvre originale avec les
Prolégomènes en présentant, d’une part, le cycle des
finances publiques qui détermine le cycle de l’activité
économique et, d’autre part, le développement économique
comme un phénomène d’effacement du nomadisme, de la
propriété collective et de l’irénisme des rapports sociaux
avec pour expression la règle de l’hospitalité, devant la
sédentarisation, la propriété privée et les comportements
criminels d’une partie importante de ceux qui sont exclus du
partage.
Les premières remises en cause d’une pure économie
naturelle paraissent avec les différents courants
mercantilistes, à partir du XVIe siècle. Les mercantilismes,
en premier lieu, considèrent que l’individualisme dans la
perspective de la recherche de l’enrichissement personnel
est légitime, car il aboutit d’ailleurs à l’enrichissement de
l’État, via les impôts, et au bien être général. C’est ainsi que
pour Baruch Spinoza (1632-1677), précédant Bernard
Mandeville (1670-1733) avec sa Fable des abeilles et Adam
Smith avec sa métaphore de la Main invisible, écrit dans ce
sens : « Quand chaque homme recherche le plus ce qui lui
est utile à lui-même, alors les hommes sont les plus utiles
les uns aux autres. »
L’individualisme n’est pas absolu chez les mercantilistes,
car ils prônent l’intervention de l’État en faveur des pauvres
(loi sur les pauvres en Angleterre) et des entreprises
nationales menacées par la concurrence étrangère (Actes de
navigation en Angleterre), Mais quelques auteurs rejettent
cet individualisme et regardent du côté de Platon en
envisageant des systèmes socialistes (La Cité du Soleil de
Giovanni Campanella, L’Utopie de Thomas More.).
Les autres caractères communs des mercantilismes sont :
- le populationnisme selon lequel l’abondance
démographique ouvre des débouchés à la
production et offre des travailleurs8 ;
- la pratique de taux d’intérêt bas pour faciliter les
investissements et ne pas encourager l’épargne
nuisible aux débouchés pour le produit. La position
à l’égard du rôle de la monnaie n’est cependant pas
uniforme. La théorie quantitative de la monnaie est
dominante, mais avec des formulations plus ou
moins correctes. Le sieur de Malestroit présente un
mémoire dans lequel il indique que la croissance de
la masse monétaire n’engendre que la hausse du
niveau général des prix, les prix relatifs (le rapport
d’échange en volume pour les différents biens)
étant constants. Cette formulation, correspondant à
la thèse de la neutralité de la monnaie est d’une
conformité parfaite à la théorie quantitative sur le
long terme. Jean Bodin au contraire, dans sa
Réponse au paradoxe du sieur de Malestroit
(1567), en montrant que la croissance de la masse
monétaire engendre une modification des prix
relatifs, rejette cette neutralité. C’est David Hume
(dans Essays…, 1753, tome 3 : De la monnaie, p.
313) qui donne la formulation synthétique
conciliant Malestroit et Bodin : l’augmentation de
la masse monétaire a des effets positifs sur l’activité
tant que la demande, et donc l’augmentation des
prix, n’a pas encore touché l’ensemble de l’activité
économique de la nation. Lorsque la monnaie
circule dans tout le pays et concerne tous les
secteurs, il se produit une hausse générale des prix
proportionnelle à la croissance de la masse
monétaire ;
- le protectionnisme par l’instauration des droits de
douane sur les produits manufacturés étrangers.
Edward Misselden (1608-1654), dans Le Cercle du
commerce, justifie ce protectionnisme, favorisant
les exportations et pénalisant les importations, en
évoquant le phénomène de multiplicateur des
emplois, avec quelques années d’avance sur
William Petty ou sur Pierre Le Pesant de
Boisguillebert, et trois siècles sur John Maynard
Keynes.
Les différences entre les mercantilismes tiennent
principalement aux spécificités nationales.
Le mercantilisme italo-ibérique est bullioniste ou chryso-
hédoniste (le bonheur par l’or : khrusos, en grec, signifie l’«
or ») ; le rôle de l’État est d’obtenir les plus grandes
réserves d’or possible. Toutefois ce bullionisme est une
conception plutôt des hommes politiques que des
économistes qui, comme tous les autres mercantilistes,
insistent sur le travail comme source principale de la
richesse. Les principaux représentants en sont : Giovanni
Botero qui préconise d’adapter le volume démographique
aux ressources disponibles, Antonio Serra qui signale le
phénomène des rendements croissants, i.e. une
augmentation de la production relativement de plus en plus
importante que celle des facteurs dans Bref traité sur
l’abondance des monnaies (1613).
Le mercantilisme français a connu deux versions. La
première, le mercantilisme agrarien, considère que
l’agriculture, tout en produisant les biens indispensables à la
vie, est le moyen pour la France, bien avantagée dans ce
domaine, de se procurer les richesses (Maximilien de
Béthune, duc de Sully – cf. l’une de ses maximes : «
Labourage et pâturage sont les deux mamelles de la France
» –, Olivier de Serre). La seconde, l’industrialisme
colbertiste ou colbertisme, s’appuie sur les manufactures et
le commerce, toute activité incorporant une importante
quantité de travail de haute qualité (Jean Bodin, Antoine de
Montchrestien, Barthélemy de Laffemas – fondateur des
chambres de commerce et d’industrie –, Richelieu, Colbert).
L’importance accordée au commerce est cependant plus
caractéristique des mercantilismes anglais et hollandais, qui
insistent beaucoup plus que tous les autres sur l’abondance
de monnaie comme facteur de la croissance des activités et
le rôle des manipulations de la parité de la monnaie pour
équilibrer la balance commerciale et réduire l’endettement
externe. Bien que certaines de leurs idées soient exprimées
par d’autres depuis longtemps – comme la loi de Gresham :
« La mauvaise monnaie chasse la bonne », énoncée par le
Polonais Nicolas Copernic et par de nombreux autres
auteurs avant lui –, les écrits des mercantilistes britanniques
s’accompagnent d’analyses qui annoncent la science
économique moderne.
Parmi un grand nombre d’auteurs dont les contributions
suscitent un intérêt constant, William Petty (1623-1687) et
Richard Cantillon (1680-1734) occupent une place à part.
W. Petty expose de manière moderne la théorie de la
valeur-travail et établit un système de comptabilité nationale
qui en fait un précurseur de l’économétrie (cf. son œuvre
principale L’Arithmétique politique). L’un des autres titres
de gloire de W. Petty est sa présentation numérique du
mécanisme du multiplicateur. Il écrit : « En effet, une
somme de 100 livres passant entre cent mains comme
salaires donne naissance à une valeur de 10 000 livres en
produits, et ces mains eussent été paresseuses et inutiles s’il
n’y avait pas eu cette raison continue de les employer »
(Traité des taxes et contributions, chap. 3, 1662). Cette idée
du multiplicateur, déjà exprimée par Misselden, qui établit
une relation entre une augmentation d’une demande globale
par l’un ou plusieurs de ses éléments (consommation,
investissement, exportation) et une forte croissance du
revenu national, sera reprise quelques années après par le
Français Pierre Le Pesant de Boisguillebert (Factum de la
France, 1707) pour devenir dans les années 1930, avec
Franck Kahn et John Maynard Keynes, l’un des concepts
essentiels de l’analyse de la dynamique économique
moderne.
Richard Cantillon s’inscrit dans un néomercantilisme
inauguré par Boisguillebert qui commence à critiquer
l’intervention systématique de l’État. Plus généralement les
néomercantilistes tendent à substituer la valeur subjective,
ou utilité, à la valeur objective ou valeur-travail. Ainsi une
somme d’argent ne suscite pas le même intérêt selon que
l’on est d’une très grande pauvreté ou d’une immense
richesse. C’est ce qu’illustre le célèbre Paradoxe de Saint-
Petersbourg issue des débats entre les Suisses, et par
ailleurs cousins, Nicolas et Daniel Bernoulli. Ce dernier
démontre qu’il n’y a pas de symétrie entre les évaluations
en termes monétaires et les évaluations en termes d’utilité.
En criminologie, le Traité du délit et des peines du Milanais
Cesare Beccaria adopte cette approche en termes d’utilité
pour fixer les peines pour ceux qui sont jugés après un délit
qu’ils ont commis. Condillac donne la version la plus
générale de cette conception sensualiste de la valeur en
écrivant : « Une chose ne vaut pas par ce qu’elle coûte, mais
elle coûte par ce qu’elle vaut. » David Hume, pour sa part,
démontre que le protectionnisme dans le commerce
extérieur est stérile, puisque chaque pays peut prendre des
mesures de rétorsion. Il démontre que le libre-échange
assure un équilibre automatique de la balance commerciale,
via la relation entre le solde de la balance, le volume de la
masse monétaire et le niveau général des prix. Par exemple
un déficit se traduit par une sortie d’or, entraînant une baisse
de la masse monétaire qui s’accompagne d’une baisse du
niveau général des prix (selon le principe de la théorie
quantitative de la monnaie), aboutissant à une meilleure
compétitivité des produits nationaux ayant pour effet final
un accroissement des exportations et une diminution des
importations.
La définition étroite des domaines d’intervention de l’État
a cependant commencé avec le Leviathan (1651) de Thomas
Hobbes (1588-1679). C’est la première expression de la
doctrine libérale de l’État gendarme. Elle est reprise par
John Locke (1632-1704), dans son Deuxième Traité sur le
gouvernement civil (1690) qui affirme la primauté des droits
naturels des individus sur le pacte social, et par Wilhelm G.
Leibniz (1646-1716) qui définit en extension les domaines
de l’État. David Hume dans son Traité de la nature humaine
(1737) propose une synthèse de ce qu’on peut considérer
comme les fondements du libéralisme ou de l’État
gendarme :
- la primauté des droits naturels individuels, et le doit
de propriété en est un,
- la limitation du rôle de l’État à la mise en place et au
maintien des conditions économiques, sociales et
politiques favorables aux échanges entre individus,
- le marché est le moyen de régulation qui permet de
satisfaire les aspirations individuelles au bien être

Dans ce contexte du Siècle des lumières, le banquier,


démographe et économiste franco-irlandais Richard
Cantillon (1680-assassiné à Londres en 1734) rédige (Essai
sur la nature du commerce en général, publié à titre
posthume en 1755) l’une des premières synthèses de ce qui
peut être considéré comme la science économique
autonomisée, avec quelques dizaines d’années d’avance sur
R. Turgot et A. Smith. Il entreprend de concilier les
approches de la valeur en distinguant la valeur intrinsèque
(ou valeur d’usage) et la valeur extrinsèque (ou valeur
d’échange). Il valorise le rôle de l’entrepreneur dont le mot
est utilisé, semble-t-il, pour la première fois. Il précède sur
ce point J.-B. Say et J.A. Schumpeter. Richard Cantillon est
aussi l’un des premiers démographes-économistes à avoir eu
l’idée de ce qu’on peut appeler aujourd’hui un optimum de
peuplement dynamique : le volume idéal de la population
dépend des ressources disponibles, et ces ressources varient
dans le temps. Il définit également pour la première fois la
vitesse de circulation de la monnaie : nombre de
transactions que permet de réaliser une unité monétaire au
cours d’une période. Il donne encore pour la première fois
une double représentation du circuit économique : en termes
monétaires et en termes physiques. On lui doit aussi la
définition des termes de l’échange factoriel double qui
mesurent le rapport entre le volume du travail incorporé
dans les importations et le volume du travail incorporé dans
les exportations. Les termes de l’échange factoriel sont par
exemple favorables si l’on échange en moyenne un produit
exigeant une heure de travail contre un autre incorporant
plus d’une heure de travail.
Le caméralisme. En Allemagne, de manière plus tardive,
le mercantilisme a pour fondement la science camérale, i.e.
la science des finances publiques. Le caméralisme
s’intéresse à la fiscalité comme moyen d’incitation et
d’orientation de l’activité économique. Ce courant,
notamment illustré par Seckendorf, Dithmar et J.H. von
Justi, poursuivra son influence jusqu’au national-socialisme
avec la politique économique menée par le Dr Schacht de
1933 à 1938, après avoir influencé Friedrich List (Système
d’économie nationale, 1840) et l’historicisme (1840-1920)
qui étudient les systèmes économiques de manière
inductive.
Le fiduciarisme. C’est une doctrine qui est la base du
principe aujourd’hui largement admis, selon lequel « les
prêts font les dépôts ». Le fiduciarisme, en d’autres termes,
est la reconnaissance explicite de la notion de monnaie de
crédit, qui s’oppose à la conception de monnaie
marchandise. Accepter un billet de banque en paiement
d’une marchandise c’est avoir confiance (d’où le terme
fideis, racine de fiduciaire) dans la possibilité que l’émetteur
honorera sa signature. On fait donc crédit à la banque
émettrice. On croit (de credere) qu’elle pourra fournir le
métal précieux qui sert de couverture à l’émission9. Détenir
de la monnaie fiduciaire, c’est détenir une créance sur
l’économie et à l’époque de la couverture métallique, la
créance était sur la banque d’émission. C’est ainsi que le
banquier suédois Johan Palmstruch, fondateur de la Banque
de Stockholm en 1657, devient en 1661 l’inventeur du billet
de banque en proposant l’émission d’une valeur en billets
supérieure à celle du métal précieux en réserve. Le
processus s’est vite arrêté à la suite de l’inflation. La
Banque d’Angleterre, sur la suggestion de William
Peterson, suit l’exemple de la Banque de Suède en 1694.
L’Écossais John Law (1671-1729), à la suite de cette
invention plutôt que de recourir à l’épargne qui signifie une
baisse des débouchés pour les producteurs, préconise de
développer le financement de l’économie par la création
monétaire, sans que celle-ci soit fondée sur un dépôt d’or
préalable, comptant sur les remboursements en or des prêts
consentis. Le système de Law a été appliqué en France de
1716 à 1720. Il a permis un véritable boum des affaires, une
sortie de la longue dépression qui a suivi la crise
économique apparue bien avant la mort de Louis XIV
(1715). Les émissions inconsidérées de papier-monnaie,
surtout à la suite de la conversion de la dette publique par le
rachat des actions de la compagnie du Mississippi, ont
entraîné la faillite de la banque de Law.
1.4. La physiocratie : l’analyse en termes de circuit dans un
ordre naturel
L’analyse en termes de circuit n’est pas une nouveauté.
La représentation simplifiée de l’activité économique
mettant en évidence les principaux pôles de décision de la
vie économique et les flux qui s’établissent entre ces pôles
est donnée en effet depuis Xénophon. On la rencontre dans
le Traité d’économie politique d’Antoine de Montchrestien
(1615), dans différentes œuvres de W. Petty, chez Pierre Le
Pesant de Boisguillebert, etc. Mais c’est avec François
Quesnay (1694-1774) que nous avons le premier circuit en
valeur. Le Tableau économique, publié en 1758, présente en
forme matricielle comportant des relations fléchées entre les
colonnes et les lignes, en « zigzag » (autre nom de ce
tableau), les flux reliant trois pôles de décision qu’il appelle
« classes » : les producteurs (les agriculteurs), la classe
stérile (industrie, commerce) et les propriétaires. L’État est
absent de ce circuit. L’interventionnisme, déjà critiqué par
les néomercantilistes, est ici dépassé. Cette nouvelle
doctrine est qualifiée de physiocratique en ce qu’elle
exprime le principe selon lequel la terre est la source de
toute richesse. Elle préconise la substitution d’un ordre
naturel (physiocratie) à l’interventionnisme mercantiliste.
Un des contemporains de F. Quesnay, Vincent de Gournay
qui rejettera la thèse de la primauté de la terre dans le
développement des richesses et influencera surtout Anne
Robert Jacques Turgot (1727-1781), est l’auteur de la
formule : « Laissez faire les hommes et laissez passer les
marchandises », sentence qui deviendra la définition du
libéralisme économique.
Les principaux disciples de Quesnay, et qui se définissent
eux-mêmes comme des physiocrates, sont : Du Pont de
Nemours, Mirabeau le père, Le Trosne, Mercier de la
Rivière, et marginalement Turgot. Ce dernier, tout en
reconnaissant l’importance de l’agriculture, ne néglige pas
l’industrie et les services. Son traité Réflexions sur la
formation et la distribution des richesses (1766) comporte
un grand nombre d’idées et d’outils d’analyse économique
annonciateurs des travaux des économistes classiques et
néoclassiques. On lui doit notamment la loi des rendements
non proportionnels avec trois phases : dans la première, la
production augmente plus fortement que la quantité de
facteur employé (rendement croissant), dans la deuxième, la
production augmente au même rythme que les facteurs
(rendement constant) et enfin dans la troisième phase, la
production augmente plus faiblement que la quantité de
facteur employé (rendement décroissant). Ses réflexions
abordent aussi l’établissement du prix en concurrence
(marché comportant un grand nombre d’intervenants pour
acheter et pour vendre), en monopole bilatéral (un seul
acheteur et un seul vendeur), l’analyse de la croissance de la
masse monétaire sur le taux d’intérêt et sur l’activité
économique. Dans ses fonctions ministérielles, Turgot a mis
en application ses idées : liberté du commerce, de la
circulation des grains, du travail (par la suppression des
corporations). Mais la remise en cause des privilèges a
suscité un mécontentement qui a conduit à sa disgrâce et à
l’abandon de ses réformes.
2. L’économie classique et néoclassique et l’analyse en
termes prix
La fin du XVIIIe siècle est caractérisée par le
développement des manufactures. La doctrine
physiocratique, selon laquelle « l’agriculture est le fonds
primitif de nos richesses » (Quesnay, article « Grains » dans
l’Encyclopédie), apparaît comme une doctrine incompatible
avec la révolution industrielle en cours. Or, celle-ci suppose
que « le travail annuel d’une nation est le fonds primitif qui
fournit à sa consommation annuelle toutes les choses
nécessaires et commodes à la vie ; et ces choses sont
toujours, ou le produit immédiat de ce travail, ou achetées
aux autres nations avec ce produit ». Cette citation, qui met
au premier plan le travail, est la première phrase de
l’ouvrage d’Adam Smith (1723-1790) publié en 1776 :
Recherche sur la nature et les causes de la richesse des
nations. La lecture de cette œuvre suscitera un grand
courant de recherche et de vulgarisation qui prendra le nom
d’économie classique, car les notions élaborées par Adam
Smith et ses disciples relèvent du fonds commun de la
science économique. À ce titre, tout apprenti en économie
se doit de les connaître, même s’il est amené à les contester
et à s’en écarter. Ainsi, l’économie de Marx est
principalement une économie inspirée de David Ricardo,
disciple d’A. Smith. La Théorie générale de J.M. Keynes
commence d’abord par présenter les classiques et la loi des
débouchés du classique français J.-B. Say. Entre 1870 et
1874, un autre mouvement important apparaît pour donner à
la science économique des outils d’analyse plus puissants.
Les nouveaux outils relèvent de l’analyse à la marge :
raisonnement sur des variations infinitésimales des
grandeurs déterminantes. Dans le domaine de la valeur,
c’est la théorie de l’utilité qui est réactualisée. À la
valorisation du producteur dans un système industriel en
construction succède la valorisation du consommateur-
usager dans un système où l’impératif de production est
moins crucial pour prendre en compte les désirs et les
plaisirs du destinataire final de la production. Ce courant,
apparu en 1870, porte le nom de « marginalisme » dans ses
premières années, ou d’économie néoclassique pour
désigner l’ensemble des travaux réalisés depuis 1870
jusqu’à nos jours par les économistes qui raisonnent en
termes de prix, de comportements individuels, de marchés,
et d’équilibre aussi bien général que partiel, conservant le
plus souvent la dichotomie entre les phénomènes réels et les
phénomènes monétaires.
2.1. Les grandes tendances de l’économie classique
Richesse des nations, titre abrégé de l’œuvre de A. Smith,
est un ouvrage subdivisé en cinq livres qui abordent de
manière synthétique l’ensemble des problèmes de la science
économique moderne. Rétrospectivement, avec les mots
d’aujourd’hui, nous dirons qu’il juxtapose les analyses
microéconomiques et macroéconomiques, les analyses
monétaires et les analyses réelles. Il aborde l’économie
privée et l’économie publique, l’économie interne et les
relations économiques internationales, les problèmes de la
production avec le chapitre premier de la division du travail
et les problèmes de répartition de la valeur-travail entre le
salaire, le profit et la rente qui « sont les trois sources
primitives de toute valeur échangeable » (op. cit., p. 77,
Gallimard, 1976). Il consacre enfin de longs
développements à l’analyse des systèmes économiques.
Dans cet ensemble qui laisse une grande place aux faits de
son époque, il énonce plusieurs principes et lois de la
science économique. Ils seront repris, corrigés, élargis par
ses futurs disciples dans une perspective soit pessimiste, soit
optimiste mais, le plus souvent, sans remettre en cause le
mécanisme de la « main invisible ».
2.1.1. La « main invisible » et l’« Homo œconomicus »
Le fondement idéologique de l’économie classique est
l’individualisme. Il permet de justifier la doctrine libérale ;
il pose, en effet, la règle selon laquelle l’intérêt général est
une résultante des intérêts individuels. Il s’ensuit que le
bien-être général est d’autant plus éloigné que chacun dans
la société accepte la gêne et les sacrifices au nom de
l’intérêt général. Celui-ci sera en revanche réalisé si chacun
respecte les lois du marché ; ce qui revient à la proposition
suivante : « Donnez-moi ce dont j’ai besoin, et vous aurez
de moi ce dont vous avez besoin vous-même » (Adam
Smith, op. cit., p. 48). En d’autres termes : « Ce n’est pas de
la bienveillance du boucher, du marchand de bière ou du
boulanger que nous attendons notre dîner, mais du soin
qu’ils apportent à leurs intérêts. Nous ne nous adressons pas
à leur humanité, mais à leur égoïsme, et ce n’est jamais de
nos besoins que nous leur parlons, c’est toujours de leur
avantage » (op. cit., p. 48).
Les mécanismes du marché constituent la main invisible
qui assure l’harmonie des intérêts des individus considérés
comme rationnels. Ainsi, en cas de pléthore, le prix
diminue. Cette baisse du prix engendre une augmentation de
la demande tandis que l’offre se replie. Dans ces
mouvements inversés, l’offre et la demande se rencontrent
pour aboutir à une quantité et à un prix d’équilibre. Si,
brutalement, la pénurie se substitue à la pléthore, le prix
augmente, incitant les entreprises à accroître leur production
et dissuadant une partie des clients de se porter acquéreurs.
Le Français Antoine Augustin Cournot exprimera sous
forme de courbes, en 1838, ces relations connues sous
l’expression « lois de l’offre et de la demande » : l’offre est
une fonction croissante par rapport aux prix et la demande
est une fonction décroissante par rapport aux prix.
Ainsi, l’économie classique et l’économie néoclassique,
dont nous parlerons plus loin, correspondent à une
économie de l’échange marchand qui suppose la rationalité
des comportements des agents. Le modèle de rationalité est
illustré par l’Homo œconomicus. On sait depuis le premier
chapitre que c’est un agent indépendant (autonome, libre,
i.e. qui n’est influencé par personne), un agent calculateur
(rationalité) parfaitement informé par les prix, et dont les
calculs et les comportements aboutissent à la maximisation
des plaisirs et à la minimisation des peines. Dans les
théories classiques, l’Homo œconomicus est un automate
sans épaisseur sociale. John Stuart Mill, qui critiquera le
premier cette schématisation du sujet économique,
reconnaîtra son intérêt dans une perspective déductive
voyant « le genre humain comme occupé uniquement de
l’acquisition et de la consommation de la richesse »
(Système de logique déductive et inductive, 1843).
2.1.2. Le pessimisme classique : le phénomène de la rente
différentielle
Le courant pessimiste, qui s’est exprimé surtout à travers
le pasteur Thomas Robert Malthus (1766-1834) et le
financier David Ricardo (1772-1823), repose sur l’idée que
les sociétés humaines, après avoir connu une croissance des
richesses matérielles, seront confrontées à une situation de
stagnation. Cette phase, que l’on appelle l’état stationnaire,
repose sur la loi de Malthus (Principes de la population,
1798), indiquant, après observation des comportements en
Nouvelle-Angleterre, que les ressources alimentaires, au
cours du temps, suivaient une progression arithmétique (1,
3, 5, 7, avec une raison de 2), tandis que la population
croissait de manière géométrique (1, 2, 4, 8, avec une raison
de 2 pour une période de vingt-quatre ans, voir encadré et
figure 2.1). Cela s’expliquait par le fait que la croissance
démographique oblige, après que les terres les meilleures
ont été utilisées, à mettre en culture des terres de moins en
moins fertiles et de plus en plus éloignées de la zone de
consommation.
Encadré : la règle du doublement 1/72 et la loi de Malthus

Le nombre de 24 années pour le doublement


démographique correspondant à l’hypothèse d’une
croissance démographique de 3 % par an. Il est facile à
obtenir par application de la règle de 1/72. En suivant la
formule des intérêts composés, avec un taux d’intérêt de 1
% par an, la valeur du capital placé au début de la première
année (K1) double en 72 ans : 2 K1 = K1 (1 + 0,01)72. Avec un
taux de 2 %, on fait l’opération 72/2 ce qui donne un
doublement en 36 ans, avec 3 %, c’est 72/3 en 24 ans soit
une génération, etc.
Figure 2.1
. Loi de Malthus
Les coûts de production et les coûts d’approvisionnement
s’élèvent. Or, l’ensemble de la production étant nécessaire,
il s’ensuit que le prix de vente sur le marché doit couvrir les
coûts des produits provenant des espaces les moins fertiles
et les plus éloignés. De la sorte, les produits provenant des
terres exploitées en premier comportent, en plus d’un profit
normal, une rente qui rémunère leur fertilité et leur
proximité – i.e. des données naturelles indépendantes du
travail (idée déjà exprimée par Adam Smith, op. cit., livre
III, chap. 1, p. 208). Au fur et à mesure que l’espace
exploité s’agrandit, la rente augmente pour représenter une
proportion de plus en plus élevée du revenu national, pour
une proportion salariale stable, compte tenu de la croissance
du nombre de travailleurs qui se font concurrence. Le
revenu étant réparti en salaire, profit et rente, il devient
évident que la part des profits diminue. La baisse
tendancielle des taux de profit par la croissance de la rente
conduit à décourager l’effort productif. Le risque est grand
de voir précipiter l’avènement de l’état stationnaire. Or, il
n’est pas possible de compenser l’augmentation de la rente
par une diminution du taux de salaire, car celui-ci est à son
minimum dit salaire naturel de subsistance. C’est la fameuse
formule de la loi d’airain des salaires du socialiste
allemand Ferdinand Lassale (1825-1864).
En raison de cette loi et de l’excès des revenus des
propriétaires fonciers par rapport à leurs besoins, la
consommation est insuffisante. La baisse tendancielle du
taux de profit est aggravée. Mais on ne peut pas envisager
d’augmenter les salaires pour stimuler les ventes et éviter
les difficultés des entreprises, car chaque exploitant pris
individuellement considère qu’une augmentation de salaires
est synonyme de baisse des profits.
Certains moyens permettent cependant de reculer les
échéances. C’est le cas du libre-échange (voir encadré) qui,
en conduisant à la spécialisation internationale, permettra
aux travailleurs de se procurer les biens nécessaires à un
prix moins élevé qu’auparavant, autorisant ainsi la
diminution des coûts salariaux sans baisser le salaire réel.
C’est à ce titre qu’une ligue s’est formée, la ligue de
Cobden, pour demander l’abolition de la loi sur les blés
(Corn Laws) destinée à protéger les exploitants agricoles
britanniques de la concurrence étrangère.
John Stuart Mill (1806-1873), dans les Principes
d’économie politique (1848), indique les moyens de
préparer l’état stationnaire inéluctable. Il propose
notamment le contrôle des naissances, déjà avancé par
Malthus. L’état stationnaire est, de toute façon, une bonne
chose : « J’avoue, écrit Stuart Mill, que je ne suis pas
enchanté de l’idéal de vie que nous présentent ceux qui
croient que l’état normal de l’homme est de lutter sans fin
pour se tirer d’affaire, que cette mêlée où l’on se foule aux
pieds, où l’on se coudoie, où l’on s’écrase, où l’on se
marche sur les talons, et qui est le type de la société
actuelle, soit la destinée la plus désirable pour l’humanité,
au lieu d’être simplement une des phases désagréables du
progrès industriel » (Principes d’économie politique, tome
II, p. 304, 1848).
2.1.3. L’optimisme classique : les vertus de l’économie
privée
La tendance optimiste prend appui sur la division du
travail, l’économie de marché dans laquelle l’entrepreneur
joue un rôle primordial et la neutralité de la monnaie.
Certains éléments de l’optimisme classique sont donnés par
Adam Smith, mais ce sera surtout le Français Jean-Baptiste
Say (1767-1832) qui les développera.
Le chapitre premier de Richesse des nations expose les
avantages de la division du travail. La « grande
multiplication dans les produits de tous les différents arts et
métiers… est ce qui, dans une société bien gouvernée,
donne lieu à cette opulence générale qui se répand jusque
dans les dernières classes du peuple » (op. cit., p. 46).
L’importance de la division du travail est cependant limitée
par l’étendue du marché (op. cit., chap. 3), et ses bienfaits
dépendent du comportement de l’État et en particulier de
son attitude à l’égard de l’entreprise.
Adam Smith écrit : « Les grandes nations ne
s’appauvrissent jamais par la prodigalité et la mauvaise
conduite des particuliers, mais quelquefois bien par celles
de leur gouvernement » (op. cit., p. 174). En augmentant le
capital nécessaire au travail productif, en utilisant des
méthodes modernes de production, « l’économie privée et la
sage conduite des particuliers » mènent le plus souvent à
l’opulence universelle « malgré toutes les contributions
excessives exigées par le gouvernement » (op. cit., p. 179).
Il est tout de même préférable que les dépenses de l’État
soient limitées au financement de la défense, de
l’administration, de la justice, de l’entretien des routes, des
institutions de l’éducation et des travaux publics qui
profitent à toute la société. Cette liste limitative du domaine
du gouvernement que propose Adam Smith constitue la
définition de l’État gendarme.
La justification du libre-échange : la théorie des coûts comparés

Adam Smith démontre que le libre-échange augmente la


richesse matérielle du monde en incitant les nations à se
spécialiser dans les productions pour lesquelles elles
disposent d’un avantage absolu, i.e. un coût de production
plus faible en valeur absolue. David Ricardo va plus loin en
préconisant une division internationale du travail fondée sur
l’avantage relatif, i.e. sur le coût relatif ou coût comparatif
le plus faible.
Cette théorie repose sur l’hypothèse des rendements
constants ; autrement dit, le volume de la production croît
dans la même proportion que le nombre d’heures de travail.
Ricardo illustre ce phénomène en prenant deux pays,
l’Angleterre et le Portugal, qui produisent en économie
fermée (absence d’échange entre les pays ou autarcie) du
drap et du vin avec des coûts de production tels qu’ils sont
représentés dans le tableau ci-dessous.
Ce tableau montre que le Portugal possède des avantages
absolus pour les deux biens, mais son avantage relatif est
dans la production de vin. Le Portugal a donc intérêt à se
spécialiser dans la production du vin, qui ne lui coûte que
80 heures de travail l’unité, pour le vendre à l’Angleterre, et
cette dernière dans celle du drap, dont le coût comparatif est
plus faible (l’unité n’exige que 100 heures de travail). De ce
fait, et dès lors qu’un pays peut obtenir le bien qui lui
manque en l’important, les heures consacrées au drap, au
Portugal, sont disponibles pour produire du vin, et celles
consacrées au vin, en Angleterre, le sont pour le drap. Ainsi,
pour la même quantité de travail, la production mondiale de
drap passe de 2 unités à 220/100 = 2,20 unités, et celle du
vin passe également de 2 unités à 170/80 = 2,125 unités. La
production mondiale pour l’ensemble des deux produits
augmente par conséquent de 0,325 unité, grâce à la division
internationale du travail ou spécialisation internationale
[(2,20 + 2,125) – (2 + 2) = 0,325]

Le Français Frédéric Bastiat, disciple de Jean-Baptiste


Say, ridiculisera, dans les Petits Pamphlets, les Sophismes
économiques et Harmonies économiques (1850),
l’intervention de l’État et emploiera son brillant talent de
polémiste à défendre l’ordre social libéral. Il sera l’un des
inspirateurs des membres du courant dit anarcho-
capitalisme et libertarien. Jean-Baptiste Say, pour sa part,
insiste sur le rôle de l’entrepreneur : celui-ci est l’agent
fondamental du progrès. Le pessimisme associé à la limite
de l’étendue du marché n’a aucune raison d’être, car « le
fait seul de la formation d’un produit ouvre, dès l’instant
même, un débouché à d’autres produits » (Traité
d’économie politique, 1803). Voici ainsi énoncée la célèbre
loi des débouchés ou loi de J.-B. Say. C’est donc l’absence
de produits multiples qui limite les marchés. Par
conséquent, l’étendue des marchés ne doit pas être pensée
en termes d’espace. Même si « le commerce extérieur est
favorable à certaines productions », écrit-il, il ne faudrait
pas accorder une importance à « ce commerce plus grande
qu’elle ne l’est réellement. C’est l’industrie intérieure qui
favorise le commerce extérieur plutôt qu’elle n’en est
favorisée. C’est lorsque les manufacturiers savent créer des
produits fort utiles à très bon marché que le commerce
trouve à les vendre aisément » (Cours complet d’économie
politique pratique, 1830). La loi de J.-B. Say conduit
également à remettre en cause l’idée selon laquelle il existe
des crises de surproduction générale. L’impossibilité de
vendre des marchandises produites provient de la faiblesse
des revenus, elle-même due à la faiblesse de la production,
car la valeur de l’argent qui se présente sur le marché est
strictement égale à la valeur de la production. Keynes, pour
rendre compte des conceptions de J.-B. Say, utilise un
raccourci commode : « Les produits s’échangent contre les
produits. » Ou, en d’autres termes, « un produit n’est
surabondant que parce que d’autres viennent à manquer ».
La surproduction générale étant impossible, il s’ensuit que
le chômage général et durable est également improbable,
d’autant plus que la loi de Malthus permet d’envisager une
baisse des salaires dont l’effet est de réduire l’offre de
travail : « Les familles les plus accablées d’enfants et
d’infirmités dépérissent » (op. cit.).
2.1.4. Les critiques des analyses classiques
Les différentes tendances classiques sont l’objet de
critiques de nature diverse. La loi des débouchés de J.-B.
Say apparaît comme une naïveté aux yeux de K. Marx qui
affirme, avant J.M. Keynes, que le capitaliste n’amène pas
avec lui, au marché, l’acheteur de ses produits. Le marché
n’est pas du troc direct, selon Marx. Aussi la loi des
débouchés est-elle « un équilibre métaphysique des achats
et des ventes » qui se ramène à ceci : « Chaque achat est une
vente et chaque vente est un achat. Cela n’a rien de
consolant pour les détenteurs de marchandises qui n’arrivent
pas à vendre, ni donc à acheter » (K. Marx, Contribution à
la critique de l’économie politique, 1859, in : Œuvres, op.
cit., p. 354).
Auguste Comte (1798-1857) considère que les notions
utilisées par les économistes sont de pures entités
métaphysiques. Elles ne correspondent à aucune réalité
observable ; il faut dès lors remplacer l’économie par la
sociologie dont les lois consistent en une « coordination des
faits ».
Par l’étude des régimes économiques passés, l’école
historique allemande (ou historicisme) s’inscrit dans ce
positivisme d’Auguste Comte, tout en gardant certains
fondements mercantilistes (caméralisme). Les principaux
représentants de ce courant sont Guillaume Roscher, Bruno
Hildebrand et Charles Knies. C’est également sur une base
empirique que Jean Charles Léonard Sismonde de Sismondi
(1773-1842) critique l’optimisme de J.-B. Say et le
fatalisme des pessimistes.
Dans les Nouveaux Principes d’économie politique
(1819), Sismondi démontre que « l’action simultanée de
toutes les cupidités industrielles [conduit à] sacrifier
l’intérêt de l’humanité ». Les crises, comme celle de 1817,
résultent de la recherche du profit maximum par diminution
des salaires. Au chômage associé à la sous-consommation
s’ajoute le chômage technologique de la substitution du
capital au travail. Les luddites, ces mouvements de
travailleurs briseurs de machines, commencent en effet à se
produire un peu partout en Europe à cette époque.
Afin d’éviter une grande partie de ces problèmes,
Sismondi préconise une fiscalité redistributive prélevant une
partie des profits inemployés pour aider les plus défavorisés
et, par là même, permettre aux entreprises de continuer à
produire. Il propose également la participation des salariés
aux bénéfices ainsi que l’actionnariat ouvrier.
2.2. Les principaux aspects du courant néoclassique
Assez paradoxalement, le maintien de la tradition
smithienne à laquelle se livre le courant néoclassique
consiste à tourner le dos aux critiques historicistes et à la
démarche empirique pour développer une science
économique déductivo-nomologique. Dans une branche, qui
va surtout être développée par Léon Walras et Vilfredo
Pareto, à l’école de Lausanne, sous le nom d’économie pure,
la théorie est une construction déduite d’un système
axiomatique (ensemble des hypothèses) dont la cohérence
interne devient le seul critère de validation.
Cette économie pure se veut une économie fondamentale,
i.e. qu’elle ne tient pas compte de considérations spatio-
temporelles. La nature du système économique n’est un
problème pertinent que pour l’économie appliquée positive
et pour la politique économique. Les outils de l’analyse
néoclassique sont finalement en mesure de rendre compte
des comportements des agents, aussi bien dans une
économie de marché que dans une économie centralement
planifiée. Il est donc nécessaire d’attirer l’attention sur
l’erreur courante qu’il convient d’éviter de faire qui conduit
à assimiler la théorie néoclassique et la doctrine libérale. Il
convient également de ne pas assimiler la théorie
néoclassique avec la méthode mathématique d’analyse à la
marge qui revient à utiliser le calcul différentiel. Mais, dans
une première phase, l’économie néoclassique a été
développée dans le cadre du marginalisme et souvent par
des auteurs libéraux qui, sans renoncer aux fondements de
l’économie classique, proposent un changement de
perspective.

Figure 2.3
. Intersections entre les différentes
perspectives méthodologique (marginalisme),
théorique (néoclassique) et idéologique
(libéralisme)
Le changement de perspective résulte de la découverte de
la théorie de l’utilité marginale par trois auteurs travaillant
indépendamment : l’Autrichien Carl Menger (1840-1921) à
Vienne, l’Anglais William Stanley Jevons (1835-1882) à
Manchester, et le Français Léon Walras (1834-1910) à
Lausanne (Suisse) au cours des années 1870 et 1874. Le
raisonnement qu’ils adoptent, même s’il n’est pas nouveau,
consiste à envisager de très faibles variations d’une variable
déterminante, par exemple la quantité du bien consommé, et
d’analyser les effets engendrés en examinant les variations
de la variable déterminée que l’on peut appeler l’utilité ou le
plaisir. Ces petites variations sont dites variations
négligeables ou marginales. On appelle alors marginalisme
ce courant méthodologique qui, finalement, introduit en
économie le calcul différentiel et le calcul intégral même si,
à Vienne, le principe de l’utilité marginale est exposé sans
recours aux mathématiques.
Les trois fondateurs du marginalisme remettent sur le
devant de la scène l’Homo œconomicus et le problème de la
satisfaction de ses besoins avec des ressources rares, mais
l’analyse devient plus rigoureuse que par le passé. C’est ce
qui sera démontré en présentant la théorie de la valeur
subjective avant de voir rapidement la diversité des
recherches néoclassiques.
2.2.1. La théorie de la valeur subjective
Le paradoxe de l’économie néoclassique, au regard de
son objectif d’être une économie fondamentale et donc
abstraite, tient au fait que la nouvelle base de la valeur est
l’utilité et non le travail. Or, l’utilité est une notion qui
relève de la connaissance sensible.
À ses origines, l’économie néoclassique revient en effet
aux conceptions sensualistes de Condillac. Et c’est par une
approche empirique intégrale que Condillac établit que « la
valeur des choses est fondée sur leur utilité ». C’est
également par une approche empirique qu’il est conduit à
tenir compte de la rareté présentée par Galiani (1751) pour
écarter les objections formulées à l’encontre de la théorie de
l’utilité, comme celle du paradoxe de l’eau et du diamant.
Adam Smith fait en effet remarquer que l’eau, qui est
indispensable à la vie, a une moins grande valeur
marchande que le diamant, dont les usages sont très limités.
C’est Condillac qui donne la clé pour résoudre ce paradoxe
célèbre en évoquant le phénomène de rareté. « Dans
l’abondance, écrit-il, on sent moins le besoin parce qu’on ne
craint pas de manquer. Par une raison contraire, on le sent
davantage dans la rareté et dans la disette. »
« Or, puisque la valeur des choses est fondée sur le
besoin, il est naturel qu’un besoin plus senti donne aux
choses une plus grande valeur, et qu’un besoin moins senti
leur en donne une moindre. La valeur des choses croît donc
dans la rareté, et diminue dans l’abondance » (Le Commerce
et le gouvernement considérés relativement l’un à l’autre,
1776).
Le marginalisme reprend cet aspect de manière plus
précise pour donner une mesure de l’utilité et, par
conséquent, de la valeur.
2.2.2. L’utilité marginale : du plaisir mesurable à la
préférence
La mesure de l’utilité est un problème purement abstrait
mais fondé sur des hypothèses exprimées par l’Allemand
Hermann Heinrich Gossen, dès 1854, sous forme de deux
lois dont la première repose sur des études
psychophysiologiques. Elles déboucheront sur la conception
cardinaliste de l’utilité.
La première loi de Gossen indique que la satisfaction des
besoins donne un plaisir au consommateur avec une
intensité décroissante jusqu’à devenir nul lorsque le besoin
est saturé. Cela signifie, par exemple, que le fait de prendre
un deuxième verre d’eau donne moins de plaisir que le
premier. En se donnant une échelle d’évaluation des plaisirs,
on peut dire que le premier verre d’eau donne un plaisir de
20, le deuxième un plaisir de 16 seulement, le troisième de
12, le quatrième de 8, le cinquième de 4 et le sixième de 0.
On appelle utilité totale la somme des utilités (ou plaisirs)
procurées par l’ensemble des unités consommées. Avec six
verres d’eau, l’utilité totale est de 60. On appelle utilité
marginale l’utilité procurée par la dernière unité
consommée. On notera que l’accroissement de l’utilité
totale, dû à l’accroissement d’une unité supplémentaire du
bien consommé, est l’utilité marginale. Celle-ci est en
définitive la dérivée de l’utilité totale. Le plaisir total est
maximum lorsque l’utilité marginale est nulle. La baisse de
l’utilité marginale (20, 16, 12, 8, 4, 0), lorsque l’utilité totale
augmente (20, 36, 48, 56, 60) exprime donc la première loi
de Gossen.
Supposons, maintenant, que le consommateur d’eau soit
sollicité pour payer l’eau qu’il demande. Le problème est
alors de déterminer le prix d’un verre. Dans cette situation,
il doit confronter le plaisir que lui procurent l’eau et la peine
qu’il a à obtenir le bien qu’il échangera contre l’eau.
Comme il attache un grand intérêt au premier verre d’eau et
qu’il dispose de beaucoup de temps libre, il est prêt à
donner une grande quantité de son temps pour obtenir un
bien échangeable contre de l’eau. Pour un deuxième verre
d’eau, le sacrifice qu’il consent est plus faible, car le plaisir
marginal est plus faible, et il dispose aussi de moins de
temps à offrir pour obtenir ce verre d’eau supplémentaire.
Ce temps prend alors plus de valeur. Cela signifie que pour
avoir la même quantité d’eau, le consommateur offrira
moins de temps, ou bien pour le même temps il doit avoir
plus d’un verre d’eau, et ainsi de suite. Étant donné que
l’eau est un produit homogène, il n’est pas possible de
distinguer l’eau qui fera partie du premier verre de celle qui
sera servie dans le dernier verre. Dans ces conditions, c’est
le plaisir du dernier verre d’eau qui déterminera le prix
unitaire, i.e. la quantité de l’autre bien nécessaire pour que
l’échange ait lieu. Puisque l’utilité marginale décroît lorsque
les quantités consommées augmentent, on déduit que la
demande est une fonction décroissante du prix.
En fait, le consommateur compare le plaisir du bien et la
peine que lui occasionne l’effort nécessaire pour obtenir un
bien échangeable, que l’on peut appeler monnaie. Le
problème du prix devient alors un problème d’équilibre
entre des plaisirs et des sacrifices. Le consommateur
rationnel est celui qui utilise efficacement ces moyens pour
maximiser ses plaisirs et minimiser sa souffrance. Tant que
l’utilité marginale est supérieure au sacrifice marginal, le
consommateur a avantage à augmenter sa demande. Il
cessera lorsque la dernière unité lui procure un plaisir égal à
la peine. Au-delà, il est perdant.
Ce résultat correspond à la deuxième loi de Gossen. Plus
généralement, elle indique que, pour un revenu donné et
devant une variété de biens et de services, le plaisir total est
maximum lorsque les plaisirs procurés par les dernières
unités consommées sont, pour chaque bien, égaux. On parle
de loi d’égalisation des utilités marginales pondérées par
les prix. Le consommateur rationnel règle ainsi son
comportement de telle façon qu’il égalise les rapports entre
l’utilité marginale de chacun des produits et de leur prix.
Illustration des lois de Gossen : le schéma de W.S. Jevons
Illustrons ce phénomène de manière graphique pour le
cas de deux biens A et B. L’utilité marginale de A (UmA)
est portée sur l’axe des ordonnées à gauche, UmB sur l’axe
des ordonnées à droite, et les quantités de B de droite à
gauche. La première loi de Gossen permet de tracer les
courbes UmA et UmB. Elles se coupent en S. Ce point
indique les quantités de A et de B (S’) qui donnent la
surface la plus importante sous les courbes d’utilité
marginale. En effet, si le consommateur décide de
consommer la quantité a de A et une quantité b de B, il ne
gagne que la surface Sba’S’, tandis qu’il perd la surface
Saa‘S’. Soit une perte nette correspondant à la surface abS
par rapport à l’optimum obtenu en S.

Fig. 2.1
. (voir p. 72) Illustration
Cette deuxième loi de Gossen sert aussi à établir
l’équilibre dans l’échange. En adoptant cette fois la même
origine pour A et pour B, W.S. Jevons signale en effet qu’un
vendeur d’un bien B est aussi un demandeur d’un bien A.
La vente du bien B entraîne une diminution du stock
disponible en B. L’utilité marginale de B croît au fur et à
mesure que les quantités de B diminuent. L’acquisition du
bien A entraîne, en vertu de la première loi de Gossen, une
diminution de l’utilité marginale. Les rapports des quantités
y échangées constituent les prix p. Comme l’écrit Léon
Walras : « Si A était de l’avoine et que B fut le blé, et qu’un
agent eut proposé d’échanger 5 hectolitres de blé contre 10
hectolitres d’avoine, le prix proposé du blé en avoine serait
de 10/5, soit 2, et celui de l’avoine en blé serait de 5/10, soit
1/2 » (Éléments d’économie politique pure, 1874).
Donc :

et

.
les prix sont donc égaux aux rapports inverses des
quantités échangées. Le produit des prix est, par conséquent,
égal à 1.
Soit :

= 1.
la règle d’égalité des utilités marginales donne alors :
UmA/PA = UmB/PB. Il s’ensuit qu’à l’équilibre, le rapport des
utilités marginales est égal au rapport des prix : UmA/UmB =
PA/PB.
2.2.3. Les préférences, l’indifférence et l’énigme de la
valeur
Pour les auteurs néoclassiques, la théorie de l’utilité est
de nature logique, mais cette analyse repose sur un certain
nombre d’hypothèses simplificatrices susceptibles de
réduire ses capacités d’analyse de la réalité sociale. Ainsi
supposent-ils que le consommateur connaît parfaitement ses
goûts, les caractéristiques de chaque bien, le plaisir qu’ils
lui procurent, autrement dit que l’information sur les biens
est parfaite, ce qui est rarement vérifié dans la réalité, pour
ne pas dire impossible ou jamais. De même, ils estiment que
les goûts sont stables et que le temps est arrêté. Les biens,
enfin, sont supposés indépendants pour permettre
l’additivité des utilités procurées par chacun des biens.
L’approche cardinale de l’utilité – ou possibilité de
mesurer – adoptée par Menger, Jevons, Walras, Marshall,
Edgeworth et Fisher – peut cependant autoriser l’abandon
de l’hypothèse d’indépendance des utilités des différents
biens. L’utilité totale correspond dans ce cas à une surface
obtenue par combinaison des utilités respectives des
quantités de A et de B.
La prise en compte de l’interdépendance ne suffit pas à
rendre l’utilité cardinale réaliste, car il est impossible de
déterminer une unité de mesure. L’util, l’utilon ou tout autre
terme inventé pour désigner cette unité n’ont qu’un sens
conventionnel. Le consommateur ne peut pas affirmer que
l’utilité d’une maison de quatre pièces est cent fois plus
grande que l’utilité d’une maison de deux pièces, et deux
fois plus petite que celle d’un voyage autour du monde. Le
consommateur peut en revanche établir un ordre de
préférence. Cette approche ordinale de l’utilité, présentée
pour deux biens mais généralisable à n biens, est adoptée
par J.R. Hicks, P.A. Samuelson et E. Slutsky à la suite des
travaux de V. Pareto. Elle permet de dire que telle quantité
de A est préférée à telle quantité de B, que telle autre
quantité de A et telle autre quantité de B sont indifférentes.
P.A. Samuelson abandonne même l’idée d’indifférence au
profit du concept de préférences révélées qui correspondent
à la demande exprimée sur le marché. Pour un revenu donné
et pour des prix donnés des biens A et B, le consommateur
choisit une combinaison a de A et b de B. Il révèle ainsi ses
préférences. On peut démontrer par ailleurs que la demande
d’une marchandise varie toujours dans le même sens que les
variations du revenu du consommateur : si le revenu réel
diminue, la demande baissera (théorème fondamental de la
théorie de la consommation, selon Samuelson).
Pour Alfred Marshall, le débat sur le facteur qui
détermine la valeur est un faux débat, car, mutatis mutandis,
il revient à un problème de détermination de la lame qui
coupe dans une paire de ciseaux. Vilfredo Pareto (1848-
1923) généralise cette position en déclarant : « La chose
indiquée par les mots valeur d’échange, taux d’échange,
prix, n’a pas une cause ; et l’on peut déclarer désormais que
tout individu qui cherche la cause de la valeur montre par là
qu’il n’a rien compris au phénomène synthétique de
l’équilibre économique » (Manuel d’économie politique, p.
266, 1909).
L’équilibre économique dont il est question est l’équilibre
général, i.e. l’équilibre simultané de l’offre et de la
demande sur tous les marchés. Son principe est différent de
celui de l’équilibre sur un seul marché (équilibre partiel).
Dans ce dernier, les relations entre les marchés sont
négligées alors que, dans l’équilibre général, elles
deviennent essentielles. Le prix d’équilibre pour une
marchandise – prix auquel l’offre est égale à la demande –
ne peut être obtenu que si l’équilibre est réalisé
simultanément sur tous les autres marchés. En effet, pour
prendre un exemple, le prix d’une voiture dépend du prix de
la force de travail ; celui-ci dépend du prix des biens que le
salarié juge nécessaires pour lui ; le prix de ces biens
dépend à son tour des salaires et des coûts de divers autres
facteurs, et ainsi de suite… Or, tous ces différents prix ne
sont pas des données, mais des résultats des offres et des
demandes sur les différents marchés. Finalement, le prix
d’une marchandise, dans la théorie de l’équilibre général,
dépend d’un très grand nombre de variables
interdépendantes, une fois le goût du consommateur connu.
Ce sont : le revenu du consommateur – ou contrainte
budgétaire – qui dépend des quantités et du prix des
marchandises auxquelles il a contribué en tant que
producteur, le coût de production de la marchandise
demandée, le prix des autres marchandises, la demande pour
ces autres marchandises, le coût de production de ces
marchandises, etc.
La valeur est ainsi la solution de l’équilibre général,
comme Gérard Debreu (prix Nobel d’économie) l’a
formulée dans son ouvrage fondamental, Théorie de la
valeur : une approche axiomatique de l’équilibre
économique (thèse d’État, Paris, 1956, éditée par Dunod).
2.3. Le développement de l’économie néoclassique
L’économie néoclassique se confond avec la science
économique contemporaine pour tout ce qui relève de
l’analyse en termes de marché, avec un point de vue
microéconomique, mais pas seulement. En présentant les
écoles contemporaines, après avoir identifié les précurseurs
et défini les courants fondateurs, on se rendra compte que
l’économie néo-classique n’a pas ignoré les problèmes
macroéconomiques comme l’inflation, le chômage et les
cycles des affaires.
2.3.1. Les précurseurs
L’analyse à la marge avant la lettre, i.e. le raisonnement
économique utilisant les rapports entre de faibles variations
de plusieurs grandeurs pour lesquelles il existe une fonction
qui traduit leur relation, se rencontre chez un grand nombre
d’économistes du XVIIIe siècle. On pourrait citer Turgot,
avec sa loi des rendements non proportionnels
L’analyse de l’utilité marginale et de la productivité
marginale (augmentation de la production pour une unité
supplémentaire de facteurs) ressort des travaux de J.H. von
Thünen (1825) ; la découverte du surplus du consommateur
(différence entre le prix acceptable et le prix effectif) revient
à Jules A. Dupuit (1844) qui est aussi le concepteur de la
courbe en cloche d’évolution des recettes fiscales en
fonction du taux de l’impôt, que l’on attribue fréquemment
à A.B. Laffer – courbe de Laffer– – qui l’aurait dessinée sur
un bout de nappe en papier d’un restaurant à San Francisco
en 1974, et qui se résume par la formule « trop d’impôt tue
l’impôt » ; l’établissement des courbes d’offre et de
demande, la définition de l’équilibre en monopole puis
l’équilibre en duopole et l’intuition de l’équilibre général
sont dus à Augustin Cournot (1838). Et on a vu le rôle de
H.H. Gossen dans l’explication de la courbe de demande
(loi de l’utilité marginale décroissante).
2.3.2. Les courants fondateurs : Vienne, Lausanne,
Cambridge
Au début du marginalisme, on distingue trois écoles :
L’école de Vienne réunit Carl Menger et ses disciples
directs, F. von Wieser et E. Böhm-Bawerk. C’est une école
principalement littéraire et psychologique. Après le
problème de l’utilité marginale, elle s’intéresse à la
répartition des revenus et à la formation du capital. Il n’y a
pas d’unité idéologique. Même si l’individualisme
méthodologique est admis par tous, certains disciples sont
libéraux, d’autres sont des sociaux-démocrates.
La théorie autrichienne du capital et de l’intérêt sera
reprise par Knut Wicksell (1851-1926). Le grand apport de
Wicksell réside dans la distinction du taux d’intérêt naturel
et du taux monétaire en présentant les fluctuations
économiques comme le résultat des fluctuations du taux
monétaires par rapport au taux naturel. Une véritable école
wicksellienne se constituera en Suède avec pour principaux
disciples Erik Lundberg (1907-1987) qui analyse différentes
formes d’expansion et leurs conséquences, Erik R. Lindahl
(1891-1960) qui analyse le rôle du taux d’intérêt dans le
processus de l’équilibre monétaire et Gunnar Myrdal (1898-
1987) qui, après les travaux sur cet équilibre monétaire
wicksellien anticipant les travaux de Keynes d’une dizaine
d’années, s’est surtout consacré, après 1950, à l’analyse du
sous-développement économique, tout en occupant des
fonctions politiques en Suède. L’école suédoise s’est aussi
préoccupée des problèmes de répartition des revenus et en
particulier de la répartition des surplus ou gains de
productivité. Deux règles dans ce domaine ont été
énoncées :
- La règle de Wicksell consiste en l’accroissement des
revenus d’un montant équivalent à l’accroissement
de la productivité afin de maintenir la stabilité des
prix. Ce système exclut les titulaires de revenus
fixes du bénéfice de la croissance.
- La règle de Davidson propose une répartition plus
générale par la baisse des prix d’un montant
équivalent aux gains de productivité
L’école de Vienne, par la suite, avec une autre génération
d’auteurs qui vont d’ailleurs émigrer pour la plupart,
s’oriente dans différentes directions : mathématique
(Théorie des jeux de J. von Neumann et O. Morgenstern),
monétariste (F. von Hayek), praxéologique (L. von Mises,
L’Action humaine), technologique, systémique et
encyclopédique (J.A. Schumpeter, avec pour œuvres
majeures : Théorie de l’évolution économique, Cycles des
affaires, Capitalisme, socialisme et démocratie).
Les préoccupations de l’école de Cambridge, fondée par
Alfred Marshall (1842-1924) en Angleterre, sont tournées
essentiellement vers l’équilibre partiel, i.e. la détermination
du prix et des quantités d’équilibre pour un bien donné.
Dans une deuxième étape, elle s’intéresse à l’économie du
bien-être (Pigou), au problème des fluctuations
économiques, du cycle de l’activité économique et des
crises économiques, au rôle des banques et du commerce
dans ces cycles (Robertson, Keynes, Hawtrey). Après la
révolution keynésienne de 1936, l’école de Cambridge ne
peut plus être considérée comme néoclassique, d’autant plus
que certaines analyses contestent radicalement les concepts
clés du marginalisme et discutent de la signification de la
productivité marginale du capital10 et de la mesure du capital
(Joan Violet Robinson). L’école de Cambridge devient une
école néocambridgienne. L’héritage néoclassique se
poursuivra à Cambridge-États-Unis, du moins à travers ces
notions de capital et de productivité marginale (P.A.
Samuelson).
Indépendamment d’Alfred Marshall, Francis Isidro
Edgeworth (1845-1926), en Angleterre, donne une version
mathématique de la théorie néoclassique. C’est également
hors d’une école précise que John Richard Hicks (1904-
1989) propose dans un article retentissant (« Mr Keynes and
the Classics », 1938) la synthèse entre les apports de
Keynes et de l’économie néoclassique walrassienne. Cette
lecture particulière de Keynes constituera la macroéconomie
moderne. Nous en ferons l’objet d’une étude spécifique
avec les courbes ISLM dans un chapitre ultérieur de cet
ouvrage.
L’école de Lausanne, fondée par Léon Walras,
d’orientation mathématicienne, s’intéresse à l’équilibre
général et à l’économie du bien-être. Vilfredo Pareto
renonce à la mesurabilité des satisfactions et construit des
courbes d’indifférence (cf. plus loin le chap. 5). Le concept
d’optimum découle du refus d’introduire toute mesure et,
par conséquent, de l’impossible comparaison des utilités
interpersonnelles. Une situation est optimale au sens de
Pareto lorsqu’il n’est plus possible d’améliorer la
satisfaction d’un individu sans détériorer celle d’un autre.
L’optimum de Pareto deviendra un concept fondamental
pour l’économie du bien-être.
La problématique de Walras et de Pareto, après avoir été
longtemps négligée, constitue, depuis les années 1930, le
noyau central de la science économique néoclassique dans
le monde. Les travaux du Suédois Gustav Cassel (1932), de
l’Anglais John R. Hicks (Valeur et capital, 1938) à Oxford,
du Français Maurice Allais, de l’Américain Kenneth. Arrow
associé au Franco-Américain Gérard Debreu ont assuré le
regain d’intérêt du modèle walrasso-parétien pour lequel on
envisage des usages en politique économique. Après le
modèle de planification multisectorielle construit par Leif
Johansen pour la Norvège en 1960 (A Multi Sectoral Study
of Economic Growth, North Holland, 1960, 2d ed. 1974), on
admet que c’est l’Américain Herbert Scarf qui inaugure
cette voie en 1969, grâce au développement de
l’informatique qui permet de résoudre des problèmes
complexes comme ceux que pose un modèle d’équilibre
général calculable (MEGC)11.
2.3.3. Le déploiement de l’économie néoclassique
La présentation des écoles originelles a déjà donné une
idée du déploiement de l’économie néoclassique. Pour être
un peu moins incomplet, tellement la diffusion de la
problématique et des méthodes néoclassiques est générale,
on retiendra qu’aux États-Unis, après les premiers écrits de
John Bates Clark (1847-1938) consacrés à la vulgarisation
des travaux européens, après les travaux importants d’Irving
Fisher sur l’équilibre monétaire, la théorie de l’intérêt et
l’analyse statistique – relative notamment aux indices de
prix et de croissance –, sont apparues, entre autres, l’école
Chicago, avec Milton Friedman comme chef de file de cette
école monétariste, l’école des choix publics avec James M.
Buchanan et Gordon Tullock, l’école des anticipations
rationnelles dite nouvelle économie classique12 avec Robert
Lucas, Thomas Sargent, Neil Wallace, Robert Barro,
l’économie de l’offre avec Arthur B. Laffer.
L’école de Chicago se distingue par son ultralibéralisme
et la reconnaissance du rôle important de la monnaie, à
court terme, sur les équilibres réels. L’intervention de l’État
ne peut que perturber l’économie et, au mieux, elle est
inutile, car elle n’aboutit qu’à l’éviction du secteur privé.
Par l’effet d’éviction, une croissance des dépenses publiques
engendre une diminution des dépenses privées, le montant
total de la dépense nationale restant stable au mieux. Le
monétarisme indique que toute relance par la demande par
la création monétaire provoque une hausse générale des prix
et des salaires nominaux conformément aux conclusions de
la théorie quantitative de la monnaie. Il se produit alors,
dans une première phase, une augmentation de l’offre et de
la demande de travail, et ce pour deux raisons. La première
est l’illusion monétaire dont sont l’objet les salariés : ils
croient que la hausse des salaires nominaux est une hausse
en termes réels, car ils ne perçoivent pas la hausse des prix.
La deuxième est l’illusion monétaire que subissent les
entrepreneurs : ils pensent que la hausse des prix signifie la
chute des salaires réels, alors que les salaires ont augmenté
au même rythme que les prix. Cette double illusion
modifiera le volume de la production, mais elle ne durera
pas. À long terme la monnaie est neutre. Les entreprises et
les salariés se rendront vite compte que les résultats ne sont
pas conformes aux anticipations et adapteront leurs
comportements (écoles des anticipations adaptatives).
Alors, chacun reviendra à sa position de départ, mais dans
une économie qui connaîtra un niveau général des prix plus
élevé, pour un volume d’emplois inchangé.
Les théoriciens de l’école des anticipations rationnelles
(Robert Lucas, Thomas Sargent, Neil Wallace, Robert
Barro, etc.) qui forment la nouvelle économie classique
(NEC), reprenant une hypothèse de John F. Muth proposée
en 196113, considèrent que les agents économiques se
distinguent par les informations dont ils disposent, et chacun
décide en fonction de celles-ci de manière rationnelle, i.e.
en ayant un modèle préalable des relations entre le présent
et l’avenir. Les faits qui vont se produire dépendront alors
en partie des anticipations ou croyances des individus de ce
que sera le futur. L’hypothèse du comportement rationnel de
John Muth peut être fondée sur le fait que les individus sont
mieux informés et mieux formés à l’économie grâce à leurs
lectures, leurs voyages, à la dominance du langage
économique dans les médias, etc. Les décisions actuelles
sont prises en fonction des événements futurs et non pas
pour rectifier les illusions monétaires passées selon le
principe des anticipations adaptatives de Milton Friedman.
Cette hypothèse réduit encore le champ des politiques
économiques, puisque ces dernières donnent lieu à des
anticipations qui leur enlèvent tout effet. La neutralité de la
monnaie est une donnée même à court terme. Il n’y a plus
de place pour un effet d’illusion monétaire même le moins
durable qu’il soit possible d’envisager. Les fluctuations
économiques sont la réponse inévitable à tout choc exogène.
Cet aspect peut être illustré par l’augmentation des dépenses
publiques pour relancer l’économie (cf. fig. 2.3). L’action de
l’État se traduit par le déplacement de la courbe de D1 à D2
(augmentation de la demande). Les individus qui
connaissent la théorie économique pourront déduire qu’une
augmentation de la demande entraîne une élévation générale
des prix (P2), et non une hausse des prix relatifs de l’offre
(P1). Au lieu d’avoir une augmentation du revenu Y1 pour P1,
l’offre diminue (O1 passe en O2) pour maintenir le niveau Y0
du revenu national stable, avec un niveau général des prix
anticipé plus élevé (P2). Si le prix anticipé et le prix effectif
sont différents, il se produit des fluctuations économiques.
Ce phénomène résulte d’erreurs dans l’interprétation des
prix. La politique économique efficace consiste alors à jouer
sur ces erreurs et surtout à ne pas afficher ses intentions
pour bénéficier de l’effet de surprise.

Fig. 2.4
. Effets d’une augmentation de la demande
par un accroissement exogène de la dépense
publique sous l’hypothèse d’anticipations
rationnelles
L’école des choix publics va plus loin dans le rejet de la
thèse selon laquelle il existe un intérêt général d’une tout
autre nature que la somme des intérêts particuliers. Elle
considère que les hommes politiques et les bureaucrates
recherchent la maximisation de leur intérêt personnel – leur
maintien au pouvoir – sous le couvert de l’intérêt général. Il
faut, par conséquent, s’assurer d’un bon contrôle des
bureaucrates. L’une des voies consiste à réduire le poids des
dépenses publiques dans l’économie. La solution est
difficile à mettre en œuvre, car certains citoyens se
considèrent comme les bénéficiaires de ces dépenses dont la
charge incombe aux autres. Le phénomène du passager
clandestin (free rider) conduit à surimposer un groupe pour
fournir des biens collectifs coûteux à la production mais
gratuits à la consommation. Il ne reste plus alors qu’à se fier
à des indices de popularité ou fonctions de vote. On peut
penser que, dans ce cas, le gouvernement ou le bureaucrate
qui ne respecte pas l’intérêt général sera sanctionné par sa
non-réélection. L’école des choix publics indique qu’il n’en
est rien, car le bureaucrate adapte sa politique aux réactions
de l’électorat. Par exemple, dans un système de bipartisme,
la meilleure stratégie est de satisfaire l’électeur médian, i.e.
gouverner au centre. De même, à l’approche des élections,
Nordhaus indique que la meilleure stratégie est de diminuer
le chômage avec pour effet de relancer l’inflation. Celle-ci
sera combattue après les élections, avec pour effet éventuel
de relancer le chômage (W.D. Nordhaus, The Political
Business Cycle. Review of Economic Studies, 1975 ; en
français, on parle de « cycle politico-économique »).

Fig. 2.5
. Cycles politico-économiques (échelle du
chômage à droite, échelle de l’inflation à
gauche)
L’économie de l’offre est un retour à la tradition
classique, après avoir pris connaissance des outils d’analyse
keynésienne. Depuis la crise de 1973-1974, l’inefficacité de
la régulation de l’économie par la demande (l’augmentation
des dépenses publiques), l’importance de la hausse des
coûts de l’énergie pour les pays importateurs à la suite des
chocs pétroliers de 1973 et de 1979, la concurrence accrue
sur les marchés (ouverture des frontières, arrivée des jeunes
nations du tiers-monde) et la forte pression fiscale et
parafiscale14 ont conduit à s’intéresser à l’offre, i.e. à
l’entreprise et au travail. Selon cette école15, en effet,
l’intervention économique keynésienne finit par annihiler
tout dynamisme, exprimant de la sorte une « crise de l’État-
providence ». Cela veut dire que la croissance des dépenses
publiques, le développement des dépenses de la Sécurité
sociale sont sans effet sur la crise économique.
Le retour à la croissance économique passe par la fin de
l’État-providence. Cette dernière mesure présente différents
avantages qui sont complémentaires : une diminution du
taux moyen de l’impôt est une incitation à l’effort et à la
production, suscitant ainsi une baisse du chômage ;
l’augmentation de la production entraîne à son tour une
augmentation des recettes fiscales, malgré la baisse
préliminaire du taux ; l’augmentation du revenu disponible,
consécutive à la diminution du taux de l’impôt, assure des
débouchés à l’offre. Ce dernier point, bien que non explicité
par les économistes de l’offre (Robert Mundell, Arthur
Laffer), est probablement une des raisons du succès de la
théorie mise en pratique. Mais il est alors bien évident que
prendre en compte l’effet de la baisse de l’impôt sur le
revenu disponible des ménages et des entreprises conduit à
ne pas écarter les mécaniques de la demande et la théorie
keynésienne.
2.4. Les limites des analyses néoclassiques
Les théories néoclassiques séduisent par leur formalisme
et par leur cohérence interne. Issues de constructions
conventionnelles (approche axiomatique), elles donnent une
satisfaction intellectuelle aux amateurs de beaux problèmes.
Mais de tels jugements, qui insistent sur l’élégance
formelle, précèdent généralement une critique portant sur
l’irréalisme des hypothèses sur lesquelles elles sont fondées,
critique qui fut formulée pour la première fois par les
institutionnalistes américains, dont le chef de file fut
Thorstein Veblen.
Le reproche le plus courant adressé aux néoclassiques
dénonce le réductionnisme de leur approche. Par exemple,
Jean-Marie Chevalier signale que « l’homme est réduit à ses
deux seules fonctions de travailleur consommateur » (La
Structure financière de l’industrie américaine, p. 217,
Cujas, 1970). Et, même dans ces fonctions limitées, le
système conventionnel de l’Homo œconomicus est
difficilement assimilable à la réalité ou à une norme
exprimant les comportements souhaitables. L’Homo
œconomicus apparaît ainsi comme un mythe doué d’une
psychologie rudimentaire (cf. Paul Albou, Psychologie
économique, PUF, 1984).
La théorie néoclassique comme théorie des choix suppose
que tout est calculable, quantifiable en termes monétaires,
ce qui laisse de côté, nous dit René Passet, la dimension
qualitative mesurée approximativement. Elle suppose en
outre « que tous les effets externes – positifs ou négatifs –
sont clairement perçus par ceux qui les subissent, alors que
ces effets se diffusent dans l’espace et dans le temps », i.e.
concernent et concerneront des individus qui n’ont pas
révélé leurs préférences (René Passet, L’Économique et le
vivant, p. 52, Petite Bibliothèque Payot, 1983).
Ainsi, l’approche néoclassique est certes fondamentale,
mais elle omet de prendre en compte la dimension
historique et sociale qui constituera l’une des
caractéristiques majeures du marxisme que nous allons
examiner.
3. L’économie de Marx et l’économie marxiste : la
critique de l’économie politique
Le point de vue marxiste en économie est une critique du
système capitaliste dans son ensemble. Cette critique est
exprimée dans plusieurs œuvres de Karl Heinrich Marx
(voir encadré) et de Friedrich Engels. Ils ont écrit ensemble
plusieurs textes, le plus important étant le Manifeste du
parti communiste en 1848. Le premier est d’abord
philosophe, le second est économiste et aussi celui qui a
permis à Marx de subvenir à ses besoins, une fois la fortune
de sa femme consommée. La référence majeure du
marxisme reste Le Capital, Livre I, paru en 1867, du vivant
de Marx. À la suite du père Henri Chambre, on accordera
moins d’importance aux livres rédigés par Marx mais
publiés après sa mort, en ce sens qu’ils peuvent ne pas
refléter la pensée véritable de leur auteur qui n’a pas jugé
nécessaire de les publier de son vivant.
L’approche systémique qu’engage Karl Marx est une
analyse du circuit du capital que révèlent les schémas de
reproduction inspirés du Tableau économique de Quesnay.
Ces schémas ont servi d’instrument d’analyse et de modèle
pour la planification dans les pays socialistes. C’est dire
que, s’il y a un grand nombre de travaux d’auteurs marxistes
après Marx (Rosa Luxemburg16, Vladimir I. Lénine17,
Nicholas Boukharine et Evgenii Préobrajenski18, Paul
Baran19, Paul Marlor Sweezy20, Charles O. Bettelheim21,
Samir Amin, etc.), les outils forgés par Marx n’ont pas
fondamentalement été remis en cause par les économistes
marxistes. La pensée marxiste et les travaux marxiens ne se
confondent pas avec les systèmes économiques mis en place
au nom de l’idéologie marxiste depuis 1917 ou plus tard et
qui se sont effondrés depuis 1991.
Il existe plusieurs variétés du marxisme et celui-ci exerce
une importante influence sur certains groupes
d’économistes qui, sans se déclarer marxistes, tentent de
faire la synthèse avec d’autres courants. L’expression «
économie néomarxiste » a pu être utilisée pour désigner les
travaux ayant fait une telle option. On la retrouve chez
certains économistes radicaux américains, chez les
économistes de l’école de la régulation en France (Michel
Aglietta, Robert Boyer, Alain Lipietz,…), chez certains
néocambridgiens (Joan V. Robinson, Nicholas Kaldor…),
ou chez certains hétérodoxes tels que les Français Pierre
Dockès et Bernard Rosier.
Bien qu’il soit difficile d’étudier l’économie marxiste en
soi, indépendamment du matérialisme historique et
dialectique (voir encadré) qui constitue à proprement parler
le corps de la doctrine, la présente section se limitera à la
présentation de la théorie de la valeur et à l’analyse du
circuit du capital et des schémas de reproduction de la
valeur.
3.1. L’origine de la valeur : le travail social
3.1.1. La loi de la valeur
Pour K. Marx, suivant en cela W. Petty auquel il rend un
hommage appuyé et surtout D. Ricardo, « la substance de la
valeur est le travail » (Livre I du Capital). La valeur
d’échange d’une marchandise (voir encadré) exprime
rigoureusement la quantité moyenne ou sociale de travail
général nécessaire pour la produire. En d’autres termes, la
valeur de la marchandise ne se mesure pas au temps du
travail individuel – il y a en effet des individus plus ou
moins habiles se servant d’équipements plus ou moins
modernes – mais au temps de travail moyen nécessaire dans
la société : « Le temps socialement nécessaire à la
production des marchandises est celui qu’exige tout travail,
exécuté avec le degré moyen d’habilité et d’intensité et dans
des conditions qui, par rapport au milieu social donné, sont
normales » (K. Marx, Le Capital, Livre I). Le travail dont il
s’agit est un agrégat, i.e. un ensemble appelé travail général.
Il est formé par le travail direct, dit encore travail vivant, et
par le travail indirect, dit encore travail mort ou passé,
correspondant à la valeur des matières premières et des
équipements utilisés par le travail direct.
L’échange qui justifie ce recours au travail pour mesurer
la valeur d’une manière objective a pour finalité la
consommation. Pour l’acquéreur de la marchandise, celle-ci
a une valeur d’usage particulière. Si la marchandise est
l’objet de consommation final, la valeur d’usage disparaît
simplement. Si elle est destinée à la production d’autres
marchandises (consommation productive), sa valeur
d’échange disparaît en donnant naissance à une nouvelle
valeur d’échange. Cette dernière est strictement égale à
l’ancienne valeur d’échange lorsque la marchandise est un
moyen de production. On parle alors de capital constant
(CC). La nouvelle valeur d’échange est plus élevée que
l’ancienne valeur d’échange lorsque la marchandise est la
force de travail. On parle alors de capital variable (CV), et
l’écart entre les deux valeurs d’échange s’appelle la plus-
value (PL).
Dans ce dernier cas, pour lequel la marchandise est la
force de travail, Karl Marx précise que la valeur de celle-ci
est rigoureusement égale à la valeur des marchandises
nécessaires à sa propre reproduction. En d’autres termes, la
plus-value est alors la différence entre la valeur du travail
général et la valeur de la force de travail.
La plus-value résulte du temps extra passé au travail
après le temps nécessaire destiné à reproduire la force de
travail. Le travail dépensé dans le temps extra est du
surtravail.
La plus-value est ainsi la mesure exacte de l’exploitation
par les capitalistes, détenteurs des moyens de production, de
la force de travail, seule ressource dont disposent les
prolétaires, et le « taux de plus-value est donc l’expression
exacte du degré d’exploitation de la force de travail par le
capital » (Le Capital, IIIe section, chapitre 9, p. 771, in :
Œuvres, tome I, Gallimard, coll. La Pléiade). Ce taux est le
rapport entre la plus-value et le capital variable. Il s’exprime
encore par le rapport entre le surtravail et le travail
nécessaire.
La plus-value peut s’accroître selon deux procédés. Soit
par le prolongement de la journée de travail et l’accélération
des cadences ou l’intensification du travail, sachant que le
temps nécessaire reste constant ; on parle alors de plus-
value absolue. Soit les entreprises réalisent des gains de
productivité dans les secteurs qui fournissent les
marchandises nécessaires à l’entretien de l’ouvrier ou les
moyens de production de ces marchandises. « En faisant
diminuer les prix, l’augmentation de la productivité fait en
même temps tomber la valeur de la force de travail » (Le
Capital, IVe section, chapitre 12, op. cit., pp. 852-853).
L’augmentation de la plus-value constitue dans ce cas la
plus-value relative. Au niveau des unités élémentaires,
l’entreprise peut dégager une plus-value différentielle par
rapport à la moyenne de la branche ; il s’agit alors de plus-
value extra. Cette expression est synonyme de rente ou
surplus du producteur, dont on parlera plus loin (cf. chap. 6).
3.1.2. Le problème de la transformation de la valeur en prix
Dans la réalité observable, la loi de la valeur est masquée
par les prix et la plus-value par le profit. En effet, sur les
marchés, on ne voit que les prix, et le capitaliste s’intéresse
principalement à la rentabilité de tous ses capitaux et non
pas seulement à la rentabilité du seul capital avancé pour
payer la force de travail. Par conséquent, il faut distinguer le
taux de plus-value, qui est le rapport entre la plus-value et le
capital variable, et le taux de profit, qui est le rapport entre
la plus-value et le capital total avancé (capital constant +
capital variable). Si l’on imagine une situation dans
laquelle, pour des rapports CC/CV différents entre les
secteurs, les taux de profit sont différents, on comprend
aisément qu’elle ne sera pas durable, car les entreprises
abandonneront les secteurs à faible taux de profit pour aller
dans les secteurs à taux plus élevés. Il s’ensuivra une baisse
du taux de profit dans ces derniers, et une hausse dans ceux
qui perdront des entreprises. Finalement, le processus
aboutit à l’égalisation des taux de profit au taux de profit
moyen. Et c’est ce taux de profit moyen qui permettra de
déterminer les prix de production constituant le centre de
gravité autour duquel fluctueront les prix du marché. Pour
cette raison, les marchandises ne peuvent pas être vendues à
leur valeur. Ainsi, lorsque le taux de profit moyen est de 20
%, pour un taux de plus-value de 100 %, on obtient, avec 3
000 de capital constant et 1 000 de capital variable, pour un
secteur donné, une valeur de 5 000 et un prix de production
de 4 800, par application des formules suivantes :

Valeur CC + CV + PL 3 000 + 1 000 + 1 000 = 5 000

Prix de CC + CV + r (CC 3 000 + 1 000 + 0,2 (3 000 + 1


production + CV) 000) = 4 800

Le taux de profit (R) est calculé pour l’ensemble de


l’économie et non pas pour une entreprise ou pour un
secteur particulier. À ce niveau global, le profit total est égal
à la plus-value globale ; de même, la somme des prix de
production est égale à la somme des valeurs.
Ce problème de la transformation des valeurs en prix, dit
encore problème de la transformation de la plus-value en
profit, a suscité une abondante littérature dans les années
1970, reprenant la mise en évidence de l’erreur de logique
révélée au début du XXe siècle par L. von Bortkiewicz.
Cette erreur consiste dans la valorisation des biens de deux
manières différentes : en tant que facteurs, ils sont valorisés
en valeur ; en tant que produits, ils le sont en prix. Cela
voudrait dire que le capitaliste achète en payant des valeurs
alors qu’il vend avec des prix. Le même bien, selon que l’on
est vendeur ou acheteur, comporte une valorisation, soit en
prix, soit en valeur ! L’une des voies explorées pour
résoudre cette énigme de Marx est d’adopter un système
d’équations simultanées exprimant l’interdépendance entre
le taux de profit et l’ensemble des prix de production. Cette
solution, qui rejoint le modèle de Walras d’équilibre
général, revient à abandonner les valeurs, et donc le
marxisme.
3.2. La réalisation de la valeur : le circuit du capital
La réalisation de la plus-value est proprement un aspect
du circuit économique, que Karl Marx appelle circulation
capitaliste ou circulation du capital. En effet, dans le
vocabulaire marxiste, elle est le « moment du procès
économique qui consiste dans le passage du capital-
marchandise au capital-argent ».
La circulation capitaliste ou circulation du capital
comprend le cycle de production, en plus du cycle de
réalisation. Le mouvement est circulaire, dans la mesure où
le point de départ est le capital-argent (A) qui permet
d’acquérir du capital productif (P). La mise en œuvre de
celui-ci permet d’obtenir du capital-marchandise (M) qui,
par sa réalisation (la vente), procure du capital-argent (A*)
d’un montant supérieur à la somme du capital du point de
départ. Karl Marx présente le circuit de la manière suivante
dans le tome I du Capital :

Les trois formes du capital donnent lieu à trois


métamorphoses du capital.
La circulation du capital est à la fois une circulation de
marchandises et une circulation monétaire, sans se
confondre avec l’une ou avec l’autre. La circulation des
marchandises, ou circulation marchande, désigne les
échanges ininterrompus de marchandises, qui se font par
l’intermédiaire de la monnaie. L’échange entre les vendeurs
et les acheteurs est, en termes de parcours, un flux entre des
producteurs et des consommateurs. En ce sens, la
circulation marchande a un début et une fin. La circulation
des marchandises représente, en d’autres termes, le circuit
des flux réels ou physiques.
La circulation monétaire est un mouvement parallèle à la
circulation des marchandises et qui rend possible celle-ci.
Elle constitue, en d’autres termes, le circuit des flux
monétaires. À la différence de la circulation des
marchandises, la circulation monétaire n’a pas un début et
une fin, bien que la monnaie fasse l’objet de création et
quelquefois de destruction.
En tant qu’intermédiaire des échanges, la monnaie ne
circule que parce qu’il y a la circulation des marchandises.
Si la monnaie est « l’équivalent général dans le monde des
marchandises » (Le Capital, tome I, chap. 1), elle est aussi
argent, la forme première du circuit du capital et sa forme
finale.
En fait, la forme argent n’a pas la même valeur au début
et à la fin : la première métamorphose

a pour valeur la valeur de l’investissement total, i.e. CC


(capital constant) + CV (capital variable).
La deuxième métamorphose P →M ou métamorphose
réelle du capital donne une valeur supérieure aux coûts de
production, car le travail a pour caractéristique de faire
varier les valeurs. La valeur M est dès lors CC + CV + PL.
Dans la phase de réalisation de la valeur, on obtient

et A* – A = PL (plus-value).
3.3. Les schémas de reproduction de la valeur et les lois
tendancielles du capitalisme
La présentation précédente du circuit du capital ne fait
aucune place aux classes sociales et aux différents types de
marchandises. Leurs interventions transforment le circuit en
schéma de reproduction de la valeur.
Il existe deux types de marchandises : celles qui sont
destinées à la consommation finale (biens de
consommation) et celles qui sont destinées à la
consommation productive (biens de production). Les biens
de consommation finale sont produits par la section 2 et les
biens de production par la section 1. Pour chaque section
productive, que l’on peut appeler secteur d’activité, on a :
Section productive 1 = CC1 + CV1 + PL1 = Y1
Section productive 2 = CC2 + CV2 + PL2 = Y2
On note que Y1 + Y2 = Y ou produit social, et que, d’autre
part, CC2 = CV1 + PL1, i.e. que la valeur du capital constant
de la section de production des biens de consommation est
égale à la somme du capital variable et de la plus-value de
la section de production des biens de production.
Le salaire des prolétaires est totalement employé à la
consommation finale, tandis que le revenu des capitalistes,
obtenu après réalisation de la plus-value, est réparti entre les
deux types de marchandises. Les capitalistes disposent ainsi
d’un fonds de consommation et d’un fonds d’accumulation
(ou épargne).
Karl Marx envisage le cas hypothétique d’un fonds
d’accumulation nul. Ce cas correspond à la reproduction
simple. Lorsque le fonds d’accumulation est positif, la
situation est celle de la reproduction élargie.
3.3.1. Le cas « étrange » de la reproduction simple
Le cas étrange de la reproduction simple, pour reprendre
le mot même de Marx, correspond à l’égalité en valeur entre
l’offre et la demande de moyens de production, ou (ce qui
revient au même) à l’égalité en valeur entre l’offre et la
demande de biens de consommation finale. La valeur de la
demande de biens de consommation est égale à la somme
des salaires des travailleurs et des plus-values des
capitalistes.
3.3.2. La reproduction élargie
L’accumulation d’une partie de la plus-value sous forme
de capital constant et/ou variable modifie la condition
d’équilibre trouvée pour la reproduction simple ; car il
existe un excédent de moyens de production par rapport au
cas de la reproduction simple.
C’est cet excédent qui permet d’accroître ou d’élargir la
production. On voit ainsi la valeur de la production
augmenter : l’ensemble des grandeurs croissant à un rythme
annuel constant. C’est ce que l’on appelle la croissance
équilibrée marxiste ou croissance proportionnée.
Par le schéma de reproduction élargie, Marx fait un
apport qui le distingue nettement de tous les auteurs qui
l’ont précédé, même si l’héritage quesnaysien est évident,
comme on a pu le montrer. Avec la reproduction élargie, le
circuit économique se transforme en une spirale traduisant
le phénomène du capitalisme naissant engagé dans le
décollage économique, i.e., selon Walt W. Rostow, une
croissance économique à un taux élevé sur plusieurs
décennies (voir dans la troisième partie consacrée aux
problèmes économiques le chapitre : croissance
économique).
3.3.3. Les lois tendancielles
Les schémas de reproduction permettent d’établir des lois
tendancielles. La logique de la concurrence dans l’économie
capitaliste conduit les capitalistes à accumuler une partie de
la plus-value (i.e. croissance du capital constant) en vue
d’augmenter la production pour un coût salarial constant ou
moindre. La composition organique du capital (CC/CV)
s’élève. L’accumulation de la plus-value aboutit à
l’apparition d’une armée industrielle de réserve (chômage)
par substitution du capital constant au capital variable. Le
chômage a pour effet d’empêcher les salaires d’augmenter,
si ce n’est d’obtenir qu’ils baissent. Voici en résumé ce
qu’écrivait Marx dans Travail salarié et capital : « Plus le
capital productif s’accroît, plus la division du travail et le
machinisme gagnent en extension. Et plus la division du
travail et le machinisme s’étendent, plus la concurrence
entre les travailleurs s’intensifie, et plus leur salaire se
resserre » (op. cit., p. 228). Il en résulte une baisse
tendancielle du taux de profit (PL/[CC + CV]), car seule la
force de travail est source de plus-value.
Le progrès technique assure une contre-tendance par
augmentation de la plus-value relative, mais le phénomène
n’est pas durable. L’accumulation continue débouche sur
des crises récurrentes de surproduction au cours desquelles
les entreprises les moins performantes disparaissent.
Les entreprises en difficulté sont en fait rachetées par
celles qui ont une plus forte accumulation. Ainsi que Marx
l’écrit dans la conclusion du livre I : « L’expropriation
s’accomplit par le jeu des lois immanentes de la production
capitaliste, lesquelles aboutissent à la concentration des
capitaux » (op. cit., p. 1239). Cela constitue la deuxième loi
tendancielle du capitalisme, dite loi de concentration
progressive du capital et du pouvoir par la concentration des
entreprises. Les propriétaires expropriés viennent grossir le
prolétariat. Et, « à mesure que diminue le nombre des
potentats du capital qui usurpent et monopolisent tous les
avantages de cette période d’évolution sociale, s’accroissent
la misère, l’oppression, l’esclavage, la dégradation,
l’exploitation » (ibidem). Ce mouvement constitue la
troisième loi tendancielle dite loi de la prolétarisation et de
la paupérisation croissante. La classe ouvrière, prenant
conscience de cette exploitation, s’organise. « Le monopole
du capital devient une entrave pour le mode de production
qui a grandi et prospéré avec lui et sous ses auspices. La
socialisation du travail et la centralisation de ses ressorts
matériels arrivent à un point où elles ne peuvent plus tenir
dans leur enveloppe capitaliste. Cette enveloppe se brise en
éclats. L’heure de la propriété capitaliste a sonné. Les
expropriateurs sont à leur tour expropriés » (ibidem, p.
1239). C’est l’effondrement final du capitalisme.
3.4. Les limites de la théorie de Marx
Tous ceux qui ont parcouru les écrits de K. Marx sont
frappés par l’ampleur de son travail transdisciplinaire.
Certains, comme H.J. Sherman, vont même jusqu’à
reconnaître dans le marxisme « une science unifiée, qui
combine en un point de vue particulier des disciplines aussi
diverses que la philosophie, l’histoire, l’économie, la
sociologie et la science politique » (article « Marxisme »,
in : Douglas Greenwald éd., Encyclopédie économique,
Economica).
Le problème, avec cette science que constitue le
marxisme, est qu’elle se prête à de multiples lectures
divergentes qui obligent à la reproduction simple des écrits
du maître pour échapper à l’interprétation-trahison.
L’importance accordée au texte originel de Marx est telle
que le recours à des traductions doit toujours être précisé
avec le nom du traducteur…
Au-delà du système et de la doctrine marxistes, les
prophéties de Marx ne se sont pas réalisées. On attendait
l’avènement du socialisme en Angleterre, en France, en
Allemagne, et il s’est produit dans des pays qui n’avaient
pas réalisé leur décollage économique et qui ignoraient le
capitalisme industriel. Ainsi, Marx n’a pas pris en compte la
capacité d’adaptation du capitalisme.
Quelques rares travaux d’économistes marxistes
donneront des explications de cette évolution non prévue.
Ils insisteront sur l’impérialisme dont la fonction est
d’assurer des approvisionnements à bon marché en vue de
ralentir la baisse du taux de profit tout en améliorant les
salaires des ouvriers, afin de désamorcer la contestation du
régime (travaux de Rosa Luxemburg et de V.-I. Lénine).
Plus récemment, d’autres auteurs ont surtout cherché à
approfondir le concept de capitalisme monopoliste d’État.
Celui-ci est caractérisé de la manière suivante : « C’est, par
essence, le capitalisme par la permanence des rapports
fondamentaux d’exploitation ; c’est le stade de
l’impérialisme par l’extension des structures monopolistes ;
et, à l’intérieur de ce stade, c’est sa phase contemporaine
par le développement de l’intervention de l’État » (Le
Capitalisme monopoliste d’État, tome I, p. 9, Paris, Éditions
sociales, 1971).
Les tentatives pour amender les conjectures de Marx ne
font que traduire la difficulté majeure à les tester. En effet,
ces prédictions sont formulées en termes de lois
tendancielles, i.e. d’évolutions qui se réaliseront un jour ou
l’autre, sachant que, si l’on ne peut pas les vérifier
empiriquement sur une période donnée, c’est tout
simplement que le moment n’est pas arrivé pour que les
contre-tendances disparaissent. Ainsi, il y a bien des
concentrations d’entreprises, mais il y a aussi création de
nouvelles entreprises.
À un niveau plus analytique, on ne peut cependant nier la
profondeur du travail de Marx sur le machinisme, le
caractère précurseur de son analyse de l’interdépendance
des sections productives annonçant les systèmes de Léon
Walras et de Vassily Leontief (cf. chapitre 3, le tableau
d’entrées-sorties). Contrairement aux économistes
classiques, qui raisonnaient uniquement en termes réels,
conformément à la loi de Say impliquant la neutralité
monétaire, Marx a remis au premier plan le rôle de la
monnaie, comme on a pu le voir dans le circuit du capital. Il
précise explicitement que le vendeur n’amène pas sur le
marché son acheteur, et que l’équilibre sur le marché n’est
rien d’autre que l’égalité comptable qui indique que le
montant des ventes est égal au montant des achats.
Toutefois, dans les schémas de reproduction, base
fondamentale du système de Marx, la monnaie perd ses
qualités de facteur déterminant de l’équilibre réel. Le grand
mérite de J.M. Keynes, après les travaux précurseurs de K.
Wicksell, est de réintroduire l’interdépendance entre les
phénomènes réels et les phénomènes monétaires. C’est là un
aspect essentiel que l’approche en termes de régulation
prend en compte en partant des concepts fondamentaux de
l’analyse marxienne, tout en abandonnant ce qui est
contestable dans la théorie de Marx (voir encadré).
4. L’économie de Keynes et l’économie keynésienne ou
les questions importantes de l’économie
C’est à S.C. Kolm que nous avons emprunté l’idée selon
laquelle tout ce qui est fondamental est microéconomique,
et ce qui est important, macroéconomique (cité dans J.
Attali, M. Guillaume, Anti-économique, PUF, 1972). Il
semble peu exagéré d’étendre cette évaluation au rapport
existant entre l’économie néoclassique et l’économie
keynésienne.
En effet, même si l’approche néoclassique n’est pas
uniquement de nature microéconomique, ni toujours très
éloignée des contingences sociales et de l’application pour
être une économie pure, elle peut être néanmoins considérée
comme plus fondamentale par ses analyses des
comportements microéconomiques que la théorie
keynésienne qui est de nature macroéconomique et qui est
plus préoccupée par les problèmes de l’emploi socialement
plus importants. Il est certes bien évident que chaque
processus macroéconomique – comme la consommation
nationale, la production nationale, l’inflation, le chômage –
prend ses racines dans un comportement microéconomique,
selon la remarque de R.L. Heilbroner (Comprendre la
microéconomie, p. 18, Économica, 1974), mais la théorie
macroéconomique keynésienne se refuse d’analyser les
comportements d’individus, soit isolés, soit interdépendants,
avec l’hypothèse de la rationalité, totalement contradictoire
avec les déséquilibres économiques se traduisant par le
chômage et/ou l’inflation. Ainsi, elle s’intéresse aux flux
globaux, à l’emploi, à la croissance économique de la nation
et aux politiques économiques qu’il convient d’entreprendre
pour assurer la croissance économique permettant de se
rapprocher du plein-emploi de la population active.
À ce titre, on ne peut pas ne pas reconnaître que la théorie
macroéconomique keynésienne s’intéresse plutôt à ce qui
est important pour la société, sans nécessairement rejoindre
F.A. von Hayek lorsqu’il distingue la microéconomie
scientifique de la macroéconomie morale. La
macroéconomie keynésienne n’est pas nécessairement
normative. Elle ne se réduit pas à des principes de politique
économique ; les comptabilités nationales inspirées de la
théorie de Keynes montrent l’importance de l’approche
positive et descriptive qui ne peut être réalisée sans
l’élaboration de catégories scientifiques, élaboration à
laquelle la théorie keynésienne a largement contribué.
Le point de vue keynésien renoue avec l’analyse en
termes de flux, inaugurée par Quesnay et Marx. Il se
distingue cependant des points de vue antérieurs, car il
attribue à l’État un rôle fondamental de régulation. Alors
que l’État est absent dans l’ordre naturel du Tableau
économique des physiocrates et, dans le système marxiste, il
est le représentant de la classe dominante et, à ce titre, son
dépérissement est un des objectifs de la révolution
socialiste.
Chez Keynes, la fonction de régulation par l’État s’appuie
sur la théorie de la demande effective, qui ne peut être
comprise sans reconnaître l’importance de la demande de
monnaie dans la définition de l’équilibre macroéconomique.
Dès 1919, John Maynard Keynes attire l’attention sur ces
aspects d’interdépendance des phénomènes réels et
monétaires dans son ouvrage, Les Conséquences
économiques de la paix, dans lequel il souligne les dangers
inflationnistes et sociaux des exigences françaises et
britanniques vis-à-vis de l’Allemagne en matière de
réparations qui doivent se faire par des livraisons de
marchandises au lieu d’un paiement en monnaie.
Les faits lui donnèrent raison. Après avoir publié de
nombreux articles et ouvrages théoriques sur la monnaie et
la conjoncture économique, il publie en 1936 son œuvre
maîtresse, La Théorie générale de l’emploi, de l’intérêt et
de la monnaie, dans laquelle il expose de manière
synthétique et macroéconomique ce qui constituera le
système keynésien. Celui-ci donnera lieu à une
interprétation simplificatrice avec les travaux de John R.
Hicks, Alvin Hansen et Paul A. Samuelson, conduisant
récemment certains auteurs à distinguer la pensée de
Keynes du keynésisme ou keynésianisme.
4.1. La théorie de la demande effective et la politique
keynésienne
4.1.1. Les notions fondamentales de la théorie de la
demande effective
Le phénomène des crises économiques périodiques du
capitalisme industriel, décrit dès 1860 par le Français
Clément Juglar, a suscité une remise en cause des
hypothèses et des schémas classiques et néoclassiques d’un
monde irénique connaissant l’harmonie des intérêts.
Adam Smith, David Ricardo, John Stuart Mill, Léon
Walras, Henry George ont répliqué en dénonçant les
propriétaires fonciers, à leurs yeux responsables par leur
rente de la diminution du taux de profit. La confiscation de
la rente par un impôt ou par la nationalisation des terres était
ainsi un des rares points pour lequel l’intervention de l’État
était tolérée. Quelques voix, cependant, comme celles de
Malthus, de Sismondi, de Hobson (disciple de Marshall),
auxquelles il faut ajouter celle de Marx, s’élevèrent pour
situer les responsabilités ailleurs. Mais tous ces auteurs
hétérodoxes ont insisté sur le rôle de la demande effective
(i.e. la demande qui aura des effets, notion utilisée déjà dans
ce sens par Malthus), qui désigne ainsi la demande globale
anticipée par les entrepreneurs. La demande globale, dans
une économie ouverte, est la somme ou agrégat de la
demande d’investissement, de la demande gouvernementale,
de la demande étrangère et de la demande en biens de
consommation des ménages. Dans La Théorie générale,
Keynes raisonne en économie fermée, de sorte qu’il n’est
pas tenu compte des exportations (demande étrangère). Et,
pour simplifier, les dépenses publiques des administrateurs
peuvent être réparties en consommation et investissement.
La demande effective, assimilée ainsi à la prévision de
demande globale, détermine alors le comportement des
entrepreneurs. Comme ces derniers ne produisent que ce
qu’ils espèrent vendre, l’offre va s’ajuster à cette demande
effective et le niveau de l’emploi effectif sera alors celui qui
permet cette production. En d’autres termes, le plein-emploi
n’est pas garanti. En effet, contrairement à l’équilibre
classique signifiant, selon la loi de Walras, que la somme
nette des demandes excédentaires est nulle en valeur (i.e.
que si, sur un marché, la demande est plus grande que
l’offre, sur les autres elle est inférieure, de telle sorte que les
différences soient nulles), l’équilibre keynésien est
seulement un équilibre comptable. De ce point de vue,
l’équilibre, résultant de l’égalité entre les revenus distribués
et les dépenses de consommation et d’investissement, peut
se faire à un niveau de revenu de sous-emploi, en raison de
la thésaurisation d’une partie du revenu. Ce phénomène de
thésaurisation, que Keynes appelle préférence pour la
liquidité et que l’on identifie à la demande de monnaie,
s’explique par trois motifs et dépend du revenu national et
du taux d’intérêt.
Un individu thésaurise ou épargne pour faire face soit à
des achats futurs (motif de transaction), soit à des aléas de
tout genre (motif de précaution). Dans ces deux cas, la
préférence pour la liquidité est une fonction croissante du
revenu. Le troisième motif de préférence pour la liquidité, le
motif spéculation, est fonction du taux d’intérêt.
Ainsi, lorsqu’une obligation dont la valeur nominale est
de 100 € donne un intérêt fixe de 10 € au taux de 10 %, il
devient intéressant d’acheter ce titre, si son cours en Bourse
baisse, et de réduire ainsi l’encaisse spéculative. Par
exemple, à 50 €, le taux d’intérêt s’élève à 20 % (10 €
d’intérêt fixe divisés par le cours de 50 €). L’encaisse
spéculative augmente au contraire lorsque le cours de
l’obligation s’élève, car il vaut mieux prendre ses bénéfices,
i.e. vendre une obligation achetée 100 €, lorsqu’elle atteint
200 €, puisque le taux d’intérêt n’est alors plus que de 5 %,
tandis que la plus-value en capital est de 100 % (200 – 100).
Le taux d’intérêt est le prix de la monnaie qui s’établit par
la confrontation de l’offre autonome de monnaie par la
Banque centrale et de la demande de monnaie. Le niveau du
taux d’intérêt détermine sans doute le volume des encaisses
spéculatives mais aussi, de manière indirecte, le niveau de la
demande d’investissement. Celle-ci est liée, en effet, à
l’écart entre l’espérance de profit, que Keynes appelle
l’efficacité marginale du capital, et le taux d’intérêt.
L’investissement n’est avantageux que si l’efficacité
marginale du capital (bénéfice actualisé prévu divisé par le
montant de l’investissement) est supérieure ou égale au taux
d’intérêt. Keynes, par cette règle, rejoint la vieille doctrine
mercantiliste qui préconisait une politique de bas taux
d’intérêt. Pour le calcul du bénéfice, les entrepreneurs
tiennent compte du risque. Le taux d’actualisation reflète ce
risque : s’il est à 10 %, cela veut dire que la valeur de 100 €,
dans un an, a une valeur actuelle de 90 €. La valeur
actualisée est donc la valeur future au temps (n) rapportée
au taux d’actualisation appliquée pour la période envisagée
VA = Vn (1 + i) –n.
Un taux d’intérêt élevé peut en outre avoir pour effet de
réduire la part normale du revenu consacrée à la
consommation en incitant les ménages à épargner, réduisant
ainsi les débouchés et la rentabilité de l’investissement.
Toutefois, Keynes, pour simplifier, considère que la
consommation est une fonction croissante du revenu
national, mais le rapport entre la consommation et le revenu
diminue avec la croissance de celui-ci (loi de Keynes que
nous discuterons plus loin,).
Le schéma synoptique qui suit donne l’articulation des
principales catégories de la théorie de Keynes. Il faut
seulement préciser le concept de coefficient technique de
production évoqué ci-dessus. Dans la théorie de Keynes, le
volume de la production dépend du volume de travail et le
rapport entre le capital et le travail est supposé constant. On
parle, dans ce cas, d’une fonction de production à
complémentarité de facteurs. C’est une hypothèse
compatible avec le fait que l’analyse keynésienne est une
analyse de courte période : le progrès technique et la
substitution du capital au travail n’ont pas le temps
d’exercer leur effet.
Il en résulte que, lorsque les entrepreneurs déterminent le
niveau de production correspondant à la demande effective,
on déduit facilement le niveau de l’emploi nécessaire pour
réaliser cette production. Par exemple, si la production
nationale est Y, l’emploi L, et si a est le coefficient
technique que l’on appelle la productivité apparente du
travail, i.e. la production par travailleur, alors :
Y = aL ou L = Y/a.
Le niveau de l’emploi est le rapport entre la production
nationale et la productivité apparente du travail.
Fig. 2.6
. Schéma synoptique de la Théorie
générale… de J.M. Keynes
4.1.2. L’intervention de l’État et la régulation par la
demande
La théorie de la demande effective conduit à justifier
l’intervention de l’État pour soutenir et réguler l’activité
économique. Elle autorise donc la substitution de l’État-
providence à l’État-gendarme. Pour obtenir le plein-emploi,
l’État doit veiller à ce que la demande effective « ne
s’abaisse jamais en dessous de la limite à partir de laquelle
apparaîtrait un chômage généralisé » (cité par M. Stewart,
Après Keynes, p. 8, Le Seuil, 1970). Et l’État dispose pour
ce faire de moyens nombreux : l’augmentation des dépenses
publiques, la diminution des impôts en vue d’augmenter le
revenu disponible et de stimuler la consommation,
l’augmentation de l’offre exogène de monnaie pour abaisser
les taux d’intérêt afin d’augmenter les investissements sont
les principales mesures d’une politique économique
keynésienne. À celles-ci, il convient d’ajouter les mesures
d’inspiration keynésienne comme les revenus de transfert
(ou revenus sociaux) en faveur des groupes sociaux ayant
une forte propension à consommer. Ainsi, le système de
Sécurité sociale maintient un revenu aux personnes
malades, handicapées, âgées ou au chômage, et constitue la
principale institution de cet État-providence pourvoyeur de
ces revenus sociaux sans contrepartie pour les bénéficiaires.
Finalement, le principe de la politique keynésienne pour
lutter contre la crise consiste à maintenir les débouchés pour
la production. Et ce n’est pas la solution classique de la
flexibilité des salaires, se traduisant par la baisse de ceux-ci,
qui pourrait le faire, d’autant plus que les syndicats sont en
mesure de s’opposer à toute décision entraînant la
diminution du salaire nominal. Ainsi, le salaire est rigide à
la baisse.
4.2. Les développements de l’économie keynésienne
La Théorie générale est une véritable révolution
scientifique, dans la mesure où elle propose une façon
radicalement différente d’envisager les problèmes
économiques de celle des classiques et néoclassiques. Cette
révolution aurait aussi bien pu être qualifiée de «
kaleckienne », car le Polonais Michal Kalecki a fait, de
manière quasi simultanée, la même analyse que J.M.
Keynes. L’idée était dans l’air du temps, puisque G. Myrdal,
en Suède, présentait, avec quelques années d’avance, le
principe de l’équilibre monétaire et des déséquilibres entre
les anticipations (analyse ex-ante) et les réalisations
(analyse ex-post). Mais la Théorie générale bénéficie d’un
contexte favorable de remise en cause des politiques
économiques libérales22 – la crise des années 1930 – et elle
comporte un projet plus ambitieux dans le domaine de la
politique économique par rapport aux œuvres de Myrdal et
de Kalecki. Elle suscite un vif intérêt, aussi bien à
Cambridge autour de Keynes que dans différents autres
centres de recherche dans le monde, sans pour autant
étouffer l’économie néoclassique. Dès le départ, les
développements parallèles des deux courants
s’accompagnent d’emprunts réciproques et des travaux de
réinterprétation de l’une des théories par l’autre pour obtenir
un courant récent d’économie du déséquilibre.
4.2.1. Les prolongements de l’économie keynésienne
orthodoxe
a) La théorie de J.M. Keynes appelait la mise au point
d’outils d’analyse macroéconomique, aussi bien pour
vérifier ou à tester les fondements de la théorie elle-même
que pour aider les pouvoirs publics à comprendre la
conjoncture et à définir leurs stratégies face à des problèmes
macroéconomiques tels que le chômage, l’inflation et les
déséquilibres des échanges extérieurs.
L’élaboration des comptabilités nationales grâce,
notamment, aux recherches de Richard Stone et Simon
Kuznets, répondait à ces soucis. En France, les travaux de
François Perroux à l’ISEA (devenu ISMEA : Institut de
sciences mathématiques et économi-ques appliquées) avec
Jean Marczewski, ceux de Claude Gruson au SEEF (Service
des études économiques et financières), qui deviendra la
direction de la prévision du ministère de l’Économie,
participent à ce mouvement. La construction des modèles
économétriques macroéconomiques est alors possible. Les
pionniers dans ce domaine sont Jan Tinbergen, Lawrence
Klein. En France, cette perspective est poursuivie
notamment par Gaston Olive, Philippe Herzog, Raymond
Courbis, Pierre-Alain Muet, Patrick Artus, soit à l’INSEE,
soit dans des centres universitaires, soit à l’Observatoire
français des conjonctures économiques (OFCE), soit dans
des organismes privés.
b) J.M. Keynes, malgré quelques notes consacrées au
cycle, ne s’est intéressé qu’à la courte période. Sa boutade
est restée célèbre : « À long terme, nous sommes tous morts.
»23 Roy Harrod (1900-1978), Nicholas Kaldor (1908-1986)
et Joan Robinson (1903-1983) appliqueront à la croissance à
long terme la théorie keynésienne de la courte période, en
prenant en compte le progrès technique et le problème de la
répartition des revenus. Dans ce domaine de la croissance,
la théorie keynésienne et la théorie néoclassique ne se
distinguent formellement que sur quelques hypothèses. Les
modèles keynésiens raisonnent avec l’hypothèse de
complémentarité des facteurs de production, alors que les
modèles néoclassiques optent pour la substituabilité, avec
l’hypothèse déterminante de la flexibilité des prix des
facteurs (cf. chap. 4). Les modèles keynésiens envisagent la
possibilité d’une croissance régulière s’accompagnant du
sous-emploi, alors que les modèles néoclassiques raisonnent
en termes d’optimalité (Edmond Malinvaud, « Les
croissances optimales », Cahier du séminaire
d’économétrie, n° 8, 1965).
4.2.2. Vers la synthèse Walras-Keynes
a) Le Modèle IS-LM. Dès 1937, John Richard Hicks, dans
son article resté célèbre (« Keynes et les classiques »),
donne une interprétation néoclassique de la théorie
keynésienne connue sous le nom de schéma IS-LM.
L’équilibre global est obtenu par l’équilibre simultané sur
les marchés des biens et services23, de la monnaie (LM) et du
travail. Sur ces différents marchés, les fonctions d’offre et
de demande sont agrégées (i.e. somme des offres et somme
des demandes).
Dans ce schéma, Hicks montre que la théorie
keynésienne, en termes de flux comportant la rigidité du
salaire nominal à la baisse, est un cas particulier de
l’analyse néoclassique, en termes de prix ou de marché. Le
niveau de l’emploi dépend à la fois du niveau des salaires,
du taux d’intérêt, du volume de l’investissement, du volume
de la masse monétaire et du niveau du revenu national.
Avec les schémas de Hicks, qui seront repris par Alvin
Hansen, on n’est déjà plus dans la théorie keynésienne
orthodoxe. C’est le début de l’économie néokeynésienne,
que poursuivront Paul A. Samuelson, Don Patinkin, James
Tobin, Robert Mundell et un grand nombre d’autres
économistes post-keynésiens.
Le schéma IS-LM, en particulier avec R. Mundell, est
utilisé pour choisir entre la politique budgétaire de dépense
(IS) et la politique monétaire de surveillance des liquidités
(LM), en fonction de la fixité ou du flottement des taux de
change et du degré de mobilité internationale des capitaux.
On notera également que c’est en partant de la théorie
keynésienne corrigée par la prise en compte des
comportements individuels que Mundell a exprimé les bases
de l’économie de l’offre. Elle sera popularisée par A.B.
Laffer et l’expérience de la « Reaganomics » (la politique
économique du président Reagan aux États-Unis). Cette
théorie préconise de relancer l’offre par la fiscalité, en
favorisant les investissements et les activités productives
des entreprises et des particuliers.
b) L’économie du déséquilibre. Dans les années 1960-70,
les travaux de Robert Clower, Axel Leijonhufvud puis
Robert Barro et Herschel Grossman proposent un
mouvement d’intégration inverse consistant à voir dans le
modèle de Walras un cas particulier de la Théorie générale.
Cette version est poursuivie en France, notamment par Jean-
Pascal Benassy, Jean-Michel Grandmont, Pierre-Yves Henin
et Edmond Malinvaud.
Le fondement de cette nouvelle économie
néokeynésienne est l’hypothèse de l’information imparfaite.
Il n’y a plus de commissaire-priseur du modèle walrassien
qui crie les prix de manière gratuite pour arriver après
tâtonnements à un équilibre général avec dénouement de
tous les contrats d’achat et de vente, au même instant sur
tous les marchés. L’information est un bien rare dont
l’obtention implique un coût. Les agents économiques sont
alors obligés de considérer les prix comme fixes à court
terme. La flexibilité du modèle néoclassique standard est
abandonnée. Or, pour un prix fixe, la demande pour un bien
ou un service peut être soit trop élevée – et les demandeurs
seront rationnés –, soit trop faible – c’est alors l’offre qui
sera rationnée. L’équilibre se réalise non pas par les prix
mais par les quantités, comme dans le modèle keynésien.
Cet équilibre à prix fixe aura pour base l’élément le plus
petit du couple offre-demande. C’est ce que l’on appelle la
règle du côté court. Le côté long est rationné. Le
déséquilibre avant la transaction devient en fait un équilibre
avec rationnement. Il s’agit bien d’un équilibre, puisque le
total des achats est égal au total des ventes, bien que la
demande nette (demande moins offre) ne soit pas nulle.
Ce phénomène résulte du processus de décision duale.
Par exemple, le demandeur de biens de consommation
exprime sa demande sur le marché en cherchant à
maximiser sa satisfaction (demande notionnelle de la théorie
néoclassique) ; il va ensuite sur le marché du travail pour
offrir ses services, mais il reçoit un revenu inférieur à celui
qu’il espérait lors de la définition de sa demande notionnelle
de biens. Il est alors conduit à baisser sa demande effective.
L’effet de report dans la décision duale – l’agent visite les
marchés successivement au lieu du mécanisme de la
simultanéité de Walras – résulte de la prise en compte de la
fonction de réserve de valeur de la monnaie – i.e. la
préférence pour la liquidité, dans la théorie keynésienne.
Celle-ci aboutit à la séparation, dans le temps et dans
l’espace, de la relation d’échange
Dans le modèle de Walras, la monnaie est le énième bien
quelconque devant servir d’étalon ou de numéraire au sens
de Walras. Dans l’équilibre avec rationnement, la monnaie
est le non-bien : « La monnaie achète les biens » (Robert
Clower). On renonce à la loi des débouchés. La monnaie est
par conséquent la liquidité par excellence, qui permet de
réaliser les transactions sans attendre qu’il y ait un équilibre
général. L’agent économique se porte acquéreur sur le
marché dès qu’il dispose de monnaie, obtenue sur un autre
marché où il a été offreur d’un bien ou d’un service. Dans
ces conditions, la monnaie devient un propagateur des
déséquilibres. Ceux-ci sont de trois sortes :
Si les ménages perçoivent un rationnement sur le marché
du travail (offre de travail plus grande que la demande), leur
revenu sera plus faible que celui qu’autoriserait le plein-
emploi. Un effet de report se produit sur le marché des
biens. Sur celui-ci, si l’offre des entreprises excède la
demande des ménages, il en résulte une sous-consommation
et un sous-emploi. Ce cas de figure correspond au chômage
keynésien.
Si le chômage involontaire est associé à un rationnement
des ménages sur le marché des biens (demande de biens par
les ménages plus grande que l’offre par les entreprises), on
parlera de chômage classique. Ce phénomène est dû à des
salaires trop élevés et/ou à des profits trop faibles.
Si les entreprises sont rationnées sur le marché du travail,
l’effet de report affecte l’offre de biens. Lorsque l’excès de
demande de travail s’accompagne d’un excès de demande
de biens, des pressions inflationnistes s’exercent. Étant
donné que le modèle raisonne à court terme à prix fixes,
l’inflation n’a pas le temps de se déclarer : on parle
d’inflation contenue.
À la fin des années 1970 apparaissent des auteurs qui se
présentent comme des nouveaux économistes keynésiens
(N.E.K). Ils recherchent les fondements microéconomiques
de la théorie keynésienne. Ils gardent l’hypothèse de la
rigidité des prix à court terme24 (les prix sont fixés selon le
mode du marché en monopole) et utilisent les modèles de
concurrence imparfaite pour l’analyse des problèmes
macroéconomiques comme par exemple le chômage, les
fluctuations de l’activité économique. Les marchés sont
imparfaits et incomplets : on ne sait pas tout sur tout
(imperfection) ; toutes les stratégies potentielles des
différents acteurs sur le marché ne sont pas identifiées ou
identifiables (incomplétude) ; ces caractères se complètent
par l’asymétrie informationnelle qui débouche sur de
l’antisélection (sélection adverse) et le risque moral, et par
la prise en compte de l’hétérogénéité du facteur travail. Par
exemple, l’antisélection appliquée au marché du travail
conduit à préconiser d’éviter, pour celui qui cherche à
embaucher mais qui ne connaît pas les qualifications des
chercheurs d’emploi, de proposer des salaires plus faibles
que ceux du marché, comme une logique néoclassique
appliquée conduirait naïvement à le faire conformément à la
loi du marché (l’équilibre se fait par la baisse du prix
lorsque l’offre est plus grande que la demande). En effet, un
faible salaire conduirait à n’accueillir que les travailleurs les
plus incompétents. De leur côté, les chercheurs d’emploi à
haute compétence qui accepteraient un salaire faible – plus
faible que celui qui correspondrait à leur haut niveau de
compétence – annoncent (ou donnent un signal de), par
cette acceptation, leur faible niveau de compétence. Ils
risquent donc de ne pas être embauchés. L’absence
d’information du demandeur de travail (celui qui cherche à
recruter) avant l’embauche sur l’offreur de travail (celui qui
cherche un emploi) aboutit donc, dans les deux cas – offreur
et demandeur – à la sélection adverse. L’aléa moral ou
risque de moralité, on dit encore le hasard moral, peut être
illustré par le comportement du chômeur qui reçoit une
prestation sociale mais avec l’engagement de chercher du
travail et qui ne tient pas son engagement, et attend la fin de
la prestation pour se présenter dans des bureaux qui assurent
l’information sur les emplois disponibles. Ici le phénomène
d’asymétrie de l’information concerne la période qui suit le
contrat, celui qui paie ne connaît pas le comportement de
celui qui bénéficie de la prestation. Les auteurs les plus
représentatifs de ce courant de la NEK sont George Akerlof,
Joseph Stiglitz, Michaël Spence, Paul Romer, Olivier
Blanchard.
4.3. Portée et limites du courant keynésien
L’analyse macroéconomique moderne ne peut renoncer à
l’apport de la théorie keynésienne. Les comptabilités
nationales et les modèles macroéconomiques ont aidé les
gouvernements dans la définition de leur politique
économique. À ce titre, le développement du courant
keynésien peut ne pas être considéré comme étranger aux «
Trente Glorieuses25 », i.e. aux trente années d’expansion
enregistrées entre 1945 et 1975 par la plupart des nations.
Mais, avec l’apparition de la stagflation dès 1967 – faible
croissance économique accompagnée de croissance du
chômage et haut taux d’inflation – l’analyse keynésienne –
tout comme d’ailleurs l’analyse néoclassique standard –
montre ses limites.
La théorie de Keynes est conçue pour un espace supposé
fermé et connaissant une insuffisance de la demande
effective. Avec l’émergence des jeunes nations, l’apparition
de la société de consommation, la constitution de zones
économiques d’échange sans droits de douane comme le
Marché commun et l’adoption d’accords favorables au
développement des échanges internationaux – accords
Kennedy de 1967 au sein de l’AGETAC (Accords généraux
sur les tarifs douaniers et le commerce, ou GATT en anglais,
institué depuis 1948) et de l’OMC qui en prend la suite au
1er janvier 1995 –, le système keynésien s’est avéré moins
pertinent pour un espace national largement ouvert sur
l’extérieur.
L’interdépendance des nations oblige à élargir l’espace
keynésien à l’économie des zones intégrées (de type
Communauté économique européenne ou CEE qui
deviendra Union européenne, ALENA pour Association de
libre-échange nord-américaine, etc.) sinon à l’économie
mondiale, le seul espace keynésien véritable. L’apparition
d’une troisième révolution industrielle, avec les nouvelles
technologies d’information et de production, exige à son
tour un élargissement de la problématique keynésienne
centrée sur la demande et ignorant l’entreprise et les
conditions techniques de la production.
5. L’hétérodoxie économique
Il n’existe pas de courant hétérodoxe à proprement parler,
mais plutôt des individus isolés ou des écoles particulières
en marge des courants dominants auxquels ils peuvent faire
des emprunts.
Si l’économiste orthodoxe peut être assimilé à un
chercheur placé au centre du paradigme qui s’attache à
approfondir la théorie dominante, l’hétérodoxe peut alors
être comparé à un chercheur, situé à la lisière des
paradigmes concurrents, qui propose de nouvelles
hypothèses, de nouveaux problèmes, de nouvelles méthodes
en s’ouvrant davantage aux autres sciences sociales et
humaines ou en acceptant de reconnaître la pertinence de
chaque paradigme dominant en fonction de la nature des
problèmes.
Tout économiste insatisfait par le système d’hypothèses
du courant dominant devient un hétérodoxe ou un hérétique
à partir du moment où il propose soit un système alternatif,
soit des analyses indépendantes du système qu’il pratique
par ailleurs, en faisant appel à des méthodes et à des
hypothèses différentes. Lorsque le système alternatif est
cohérent pour constituer une théorie explicative générale et
lorsqu’il est pertinent au regard des problèmes de la société,
il peut déboucher sur un nouveau paradigme et un courant
reconnu, comme ce fut le cas avec J.M. Keynes et sa théorie
de la demande effective. Il y a ainsi plusieurs manières
d’être hétérodoxe, mais, le plus souvent, avec l’historicisme,
l’institutionnalisme et l’école perrouxienne (F. Perroux), il
s’agit de redonner plus d’épaisseur sociale aux analyses
économiques trop abstraites qui ignorent les comportements
réels et les phénomènes de pouvoir.
5.1. L’historicisme
C’est une doctrine basée sur l’étude des faits historiques
et sociaux, en vue d’en dégager les termes d’évolution. Elle
s’est développée en réaction à la démarche déductive de
certains classiques puis des néoclassiques. Pour ce courant,
appelé encore école historique allemande, les lois
économiques ne sont pas indépendantes des systèmes
économiques, et seule la connaissance de ceux-ci permettra
d’établir ces lois. Il faut par conséquent accumuler des faits.
La question que posent ceux qui refusent une telle approche
radicalement inductive est celle-ci : à partir de quel volume
de faits doit-on penser que c’est suffisant pour commencer
l’analyse ? (Voir K. Popper qui a intitulé l’un de ses travaux
consacrés à cette méthode La Misère de l’historicisme.)
Les principaux représentants de ce courant sont G.
Roscher (Précis d’un cours d’économie politique d’après la
méthode historique, 1843), B. Hildebrand (L’Économie
politique du présent et de l’avenir, 1848) et C. Knies
(L’Économie politique envisagée au point de vue historique,
1853).
5.2. L’institutionnalisme
Ce courant est apparu à la fin du XIXe siècle. Il est une
version américaine de la contestation historiciste à l’égard
de l’abstraction des écoles marginalistes. Mais si
l’historicisme s’est essoufflé, l’institutionnalisme n’a pas
cessé de susciter de nouveaux travaux et un intérêt soutenu
qui s’est traduit en particulier par l’attribution du prix Nobel
1993 à Douglass North et Robert William Fogel. Elle met
l’accent sur le rôle joué par les institutions dans l’évolution
de l’activité économique. Par institution, on entend les
règles du jeu dans la société. Thorstein Bunde Veblen
(1857-1929), fondateur du courant, définit l’institution
comme « des habitudes mentales prédominantes, des façons
très répandues de penser les rapports particuliers et les
fonctions particulières de l’individu et de la société » (Th.
B. Veblen, The Theory of Leisure Class, 1899. Traduction
française : Théorie de la classe de loisir, Gallimard, Coll. «
TEL », Paris, 1978). Dans un sens plus courant et plus large,
la notion d’institution désigne l’administration, les lois, le
droit, la justice, les modes de régulation, le pouvoir,
l’information, etc.
Cette école, qui s’est intitulée la « nouvelle économie »
inspire le courant radical américain. Ses apports à l’analyse
économique sont nombreux : la théorie de l’accélération de
John Maurice Clark (cf. chap. 4), le comportement
d’ostentation de certains consommateurs vu par T. Veblen,
la théorie du pouvoir compensateur (rôle des syndicats, des
associations de consommateurs) et de la technostructure,
étudiée par J.K. Galbraith , etc.
Le néo-institutionnalisme est également d’une grande
fécondité. Avec « la nature de la firme »26 (1937), Ronald
Coase explique l’existence de la firme par les coûts de
transaction. En 1960, avec son théorème éponyme, il
explique dans l’article « Le problème du coût social »27 «
que ce qui est échangé sur le marché, ce n’est pas, comme il
est souvent supposé par les économistes, des entités
physiques, mais les droits d’exercer certaines actions, et que
les droits que les individus possèdent sont établis par le
système légal ». En d’autres termes, l’échange porte sur les
droits d’utiliser les biens. Par conséquent les externalités
aussi bien négatives que positives n’apparaissent que
lorsque les droits de propriété ne sont pas clairement
définis. La formulation conventionnelle du théorème de
Coase indique que « dans un monde où les coûts de
transaction sont nuls, l’allocation des droits de propriété se
fera automatiquement de manière optimale, par le jeu des
échanges et des marchandages auxquels les agents
procèdent, et ceci quelle que soit la répartition initiale de ces
droits »28. L’optimum social peut être atteint par le marché
sans intervention de l’État, même dans des situations
comportant des externalités négatives. Avec Oliver
Williamson, qui reprend la théorie de la firme de R. Coase,
on a affaire à la nouvelle école institutionnelle qui étudie
l’opportunité du recours au marché ou à l’organisation (la
hiérarchie) en fonction des coûts de transaction attachés aux
opérations d’échange que doit faire une entreprise. Les
échanges internes, i.e. l’intégration, sont à prescrire dès lors
que les recours aux marchés sont fréquents et qu’ils portent
sur des biens fortement spécifiques à l’entreprise.
5.3. L’économie évolutionnaire
Il s’agit d’un courant29 qui a suscité un grand intérêt à
partir du début des années 1980 avec trois publications
fondatrices (deux livres et un article)30 et une revue
internationale spécialisée31. L’objet de l’économie
évolutionnaire ou économie évolutionniste est, selon les
indications de Richard Nelson et Sidney Winter, de «
comprendre le changement cumulatif, considérable et
complexe de la technologie et de l’organisation économique
qui a transformé la situation des hommes pendant quelques-
uns des siècles passés ». Cette idée de transformation est
empruntée au naturaliste Jean-Baptiste Lamarck, élève de
Buffon, en ce que les économistes évolutionnistes accordent
beaucoup d’importance à l’apprentissage qui facilite
l’adaptation. Mais c’est tout de même l’idée d’évolution,
selon le principe de sélection naturelle à la Darwin, qui est
manifeste dans l’appellation même du courant de recherche.
L’économie évolutionnaire s’inspire des théories
biologiques et institutionnalistes pour décrire le
développement et la transformation progressive des
systèmes et des organisations. L’un des précurseurs dans ce
domaine est Armen Alchian (« Incertitude, évolution et
théorie économique », JPE, 1950). Il propose l’abandon du
postulat standard de maximisation d’une fonction objectif
sous contrainte pour le remplacer par le principe selon
lequel les firmes sont guidées par la recherche de « règles de
conduite » permettant leur survie. C’est également la
substitution d’une logique de satisfaction, inspirée des
travaux de Hebert A. Simon , à une logique de
maximisation, elle-même couplée aux analogies
biologiques, qui conduiront S.G. Winter à affirmer, à l’instar
de la sélection écologique des espèces qui agit à long terme,
que c’est aux structures des firmes qu’il faut se référer pour
comprendre leur évolution. Les firmes formalisent des
règles de décision qu’elles appliquent d’une manière
routinière, jusqu’à ce que des circonstances exceptionnelles
les obligent à changer.
Héritière du programme de recherche institutionnaliste,
l’approche évolutionnaire de l’économie reprend l’idée
schumpétérienne – développée par Kenneth E. Boulding
(1910-1993) dans Evolutionnary Economics (1981) –, idée
selon laquelle l’entrepreneur innovateur, en changeant ses
comportements routiniers, est à l’origine de la dynamique
du système économique. Elle se caractérise par trois
orientations majeures :
- l’analyse du comportement des firmes en référence à
un principe de sélection qui agit sur l’évolution des
firmes en choisissant celles qui présenteraient les «
gènes » les plus adaptés au contexte concurrentiel ;
- l’interprétation du progrès technique et des
innovations comme un processus cumulatif,
localisé et spécifique. Il serait le résultat de facteurs
permanents – d’hérédité au sens biologique – qui
sont les « gènes » des firmes, et sont interprétés
comme des « routines » appliquées par les agents et
qui fondent leurs comportements ;
- la conception de l’environnement économique
comme un ensemble des évolutions possibles d’une
population d’organisations, tributaire d’un principe
de contingence et de variété, ce qui conduit à
attribuer une nature génétique aux enchaînements
sélectifs qui évoluent de façon irréversible.

C’est à R.R. Nelson et S.G. Winter (Une théorie


évolutionnaire du changement économique 1982) qu’il
revient d’avoir jeté les fondements d’une école
évolutionnaire dont la référence aux modèles biologiques de
type darwinien de sélection naturelle tient une place centrale
dans toute l’approche. Ainsi, si l’on prend en compte des
interactions récurrentes entre les agents, et l’hypothèse
cognitiviste qui fait des agents des sujets qui construisent
leurs comportements au cours d’apprentissages, ceux-ci se
font sur le long cours, par des mécanismes de répétition et
d’expérimentation, qui se surajoutent et se complexifient en
enrichissant les compétences des agents.
Cette compétence est retenue par les agents sous forme de
connaissances matérialisées et comprises dans les « routines
organisationnelles » qui prennent ainsi le statut de bien
collectif et spécifique du fait de l’expérience unique et
propre à chaque firme. Ce dernier point débouche sur la
proposition de G. Dosi, D.J. Teece et S.G. Winter (« Vers
une théorie de la cohérence de la grande entreprise », REI,
1990) sur le caractère « historiquement déterminé » de
l’évolution des firmes.
En fait, la nature des compétences accumulées et la
capacité à développer en son sein les apprentissages
nécessaires pour continuer à évoluer dans un environnement
changeant finissent par susciter une contrainte de sentier ou
dépendance de sentier (path dependancy) qui est le chemin
prédéterminé par la nature même des actifs spécifiques des
firmes (compétences, savoir-faire, etc.). Suivant la théorie,
c’est par le biais de ses « actifs secondaires » que la firme
peut être conduite à changer de trajectoires. En définitive,
les firmes ayant les routines les mieux adaptées à
l’environnement ont une meilleure croissance.
Dans l’ensemble des facteurs explicatifs des
performances différenciées des firmes et des nations au
cours du temps, les économistes évolutionnistes introduisent
les éléments ignorés par l’économie standard – les «
compétences » et les « règles » – qui ont pour
caractéristiques, elles aussi, de changer au cours du temps
avec tout ce que l’histoire implique : l’irréversibilité et le
poids du passé qui se traduit par une dépendance de sentier
ou contrainte de sentier. Ce poids du passé explique la
lenteur des changements cumulatifs, sédimentaires au lieu et
place de la révolution. Cela signifie que l’état actuel dépend
de la voie suivie par le passé et qui constitue les routines.
Celles-ci sont des automatismes pour gérer avec efficience
la complexité, elles correspondent à la mémoire
organisationnelle de la firme. Les routines changent mais en
suivant la transformation lamarckienne : les changements de
l’environnement suscitent une adaptation éventuelle. Mais
on peut aussi bien écrire que face à l’environnement
changeant, ne résistent que les routines les plus utiles selon
le processus de sélection naturelle darwinien32.
La fondation du courant évolutionniste ne s’est pas faite
sur une table rase dans cette période riche d’innovations
technologiques engageant les sociétés dans l’économie de
l’information. On trouve des traces d’un tel programme
aussi bien chez Alfred Marshall (Principes d’analyse
économique [1890] et Industry and Trade [1919]) que chez
Joseph A. Schumpeter (Théorie de l’évolution économique
[1939] et Capitalisme, socialisme et démocratie [1942]).
L’économie évolutionniste est d’ailleurs souvent qualifiée
de néoschumpétérienne dans les analyses des changements
technologiques. Comme cela a déjà été signalé, les
évolutionnistes trouvent aussi des racines chez Armen A.
Alchian avec son article de 195033. Il faut ajouter la dette
reconnue à l’égard de Herbert A. Simon par la prise en
compte de la rationalité limitée, le rejet du comportement
non réaliste de maximisation du profit des entreprises.
La théorie de Simon indique qu’il n’est pas possible
d’explorer un ensemble quasi infini de possibilités, par
manque de temps et par un manque d’information sur
l’existence même de ces possibilités. La rationalité limitée
signifie que « le décideur doit rechercher des solutions
alternatives, a une connaissance incomplète et inexacte des
conséquences des actions et choisit les actions dont il espère
qu’elles seront satisfaisantes », i.e. acceptables. Mais chez
Simon, la décision est délibérative, elle n’est pas le produit
des routines et du chemin de dépendance, elle résulte d’une
volonté d’agir pour atteindre des objectifs construits
consciemment. C’est cela qui constitue la rationalité
procédurale.
5.4. L’école socio-économique française
Elle s’est penchée sur l’analyse des structures pour
enrichir les approches paradigmatiques existantes. Cet
aspect est particulièrement visible avec les travaux de F.
Perroux lorsqu’il examine La Généralisation de la Théorie
générale (1949), ou reformule la théorie de l’équilibre
général par la prise en compte des inégalités des agents
(Unités actives et mathématiques nouvelles, 1975). Dans ce
dernier ouvrage, on retrouve l’important problème du
pouvoir, relativement négligé dans l’analyse économique
standard, mais présent chez J.A. Schumpeter qui a beaucoup
influencé Perroux.
« Marx mort, mais pas enterré » : les approches en termes
de régulation
L’école de la régulation est une forme particulière de
l’hétérodoxie à fondements marxistes. Elle est apparue dans
les années 1970, i.e. dans ces temps de crise toujours
favorables au dépassement des orthodoxies que les faits
tiennent en échec. L’originalité de l’approche en termes de
régulation est de tenter une synthèse entre la tradition
marxiste, l’apport keynésien et les travaux d’histoire
économique « pour renouveler des interrogations des
institutionnalistes ».
Elle se traduit par le maintien de la démarche holiste de
Marx, une distance critique à l’égard des lois tendancielles
pour s’intéresser « aux formes précises que prennent les
rapports sociaux fondamentaux, lors d’une phase historique
et pour une société données ».
La filiation marxiste conduit à privilégier une définition
structurale et holiste de ces formes institutionnelles :
fondamentalement, toutes dérivent soit du rapport
marchand, soit de la relation capital-travail.
Le problème général de l’approche en termes de
régulation est celui de la variabilité dans le temps et dans
l’espace des dynamiques économiques et sociales. Un tel
problème suppose l’articulation de l’histoire et de
l’économie, avec la définition de nouvelles catégories ou
concepts d’analyse. Le point de départ est celui du mode de
production caractérisé, pour le capitalisme, par des rapports
d’échange et de production (rapport salarial). La deuxième
notion essentielle est celle du régime d’accumulation qui
désigne « l’ensemble des régularités assurant une
progression générale et relativement cohérente de
l’accumulation du capital, i.e. permettant de résorber ou
d’étaler dans le temps les distorsions et déséquilibres qui
naissent en permanence du processus lui-même ». Le
régime d’accumulation peut être intensif (fordisme, 1945-
1975) ou extensif (fin du XIXe siècle). La seconde étape
consiste à caractériser la configuration exacte des formes
institutionnelles, i.e. la codification d’un ou plusieurs
rapports sociaux fondamentaux. Ce sont pour le
capitalisme : les formes de la contrainte monétaire (étalon-
or au XIXe siècle, étalon de change-or entre 1905 et 1925),
la configuration du rapport salarial, les formes de la
concurrence, les modalités d’adhésion au régime
international et enfin les formes de l’État. Chacun de ces
éléments constitue un sous-système du système plus général
formé par leur articulation. L’ensemble est complété par la
définition de son mode de régulation. Cette notion, d’où le
courant tire son nom, désigne « tout ensemble de procédures
et de comportements, individuels et collectifs, qui a la triple
propriété de :
- reproduire les rapports sociaux fondamentaux ;
- soutenir et “piloter” le régime d’accumulation en
vigueur ;
- assurer la compatibilité dynamique d’un ensemble
de décisions décentralisées sans que soit nécessaire
l’intériorisation par les acteurs économiques des
principes de l’ajustement de l’ensemble du système
».
Le mode de régulation peut être concurrentiel (marché)
ou monopoliste (par l’État).
Citations extraites de Robert Boyer, La Théorie de la
régulation : une analyse critique,
Agalma-La Découverte, 1986.

Les principaux représentants de ce courant socio-


économique français sont A. Sauvy (structures
démographiques, histoire, conjoncture et problèmes du
progrès technique), J. Marchal (analyse de la répartition des
revenus), A. Cotta (théorie du pouvoir et analyse des
corporations), P. Dockès qui propose dans l’Histoire
ambiguë (PUF, 1988) de « théoriser l’histoire et d’historiser
l’économie ».
Les deux plus récents mouvements de recherche
susceptible d’être rattachés à cette forme
d’institutionnalisme à la française sont l’approche en termes
de régulation (voir encadré) et l’école de la théorie des
conventions dont les principaux représentants sont en
premier lieu les auteurs du manifeste que constitue le
numéro spécial de la revue économique (volume 40, n° 2)
de mars 1989 : J.-P. Dupuy, F. Eymard-Duvernay, O.
Favereau, A. Orléan, R. Salais et A. Thévenot. À ces
auteurs se joindront plus tard notamment P.-Y. Gomez et Th.
Kirat.
Au modèle néoclassique orthodoxe qui suppose des
individus libres, informés et rationnels, la théorie des
conventions substitue une axiomatique plus réaliste par la
prise en compte des croyances, des imitations, etc. L’idée
selon laquelle les comportements efficaces sont encastrés
dans les institutions et la société n’est cependant pas
nouvelle. Les théoriciens des conventions rappellent eux-
mêmes que J.M. Keynes a été un précurseur dans ce
domaine avec la fameuse métaphore du concours de beauté
du chapitre 12de la Théorie générale : un concours est
proposé pour désigner les plus belles jeunes filles à partir
d’une centaine de modèles sur photographie. Le gagnant
sera l’électeur qui se rapprochera des cinq photographies les
plus choisies. Pour gagner, il faut donc retenir les
photographies que les autres choisiront et oublier ses
propres critères de beauté.
Les conventions sont donc des « dispositifs cognitifs
collectifs » qui peuvent être assimilés à « des écrans entre
les acteurs, qui leur permettent de décider et de calculer
librement, mais dans le cadre limité qu’elles fournissent.
Les individus sont donc libres, mais pas souverains » (P.-Y.
Gomez, Le Gouvernement de l’entreprise, modèles
économiques de l’entreprise et pratiques de gestion, p. 166,
InterEditions, 1996).
Il est bien évident que le survol qui vient d’être effectué
n’épuise pas l’hétérodoxie, à laquelle beaucoup
d’économistes auraient tendance à se rattacher
spontanément.
1 Ensemble des entreprises ayant le même type de produit comme activité
principale.
2 Ensemble des unités économiques produisant le même produit.
3 Le Norvégien Ragnar Anton Frisch (1895-1973) est l’un des pionniers de
l’économétrie et des travaux en comptabilité nationale.
4 Selon C.S. Peirce qui écrit : « La seule espèce de raisonnement susceptible
d’introduire des idées nouvelles, la seule qui soit, en ce sens, synthétique. »
(Collected Papers of Charles Sanders Peirce 2. 777).
5 Laurent Batsch, Capitalisme financier, Repères La Découverte, 2002.
6 Dans la Tour de Babel « Bab » (Genèse 11) signe porte et « el » est
l’approximation de « Ala » ou « ila » ou encore « ilu » qui désignent Dieu dans
les langues sémitiques.
7 Le principal caractère du marché idéal, pour Averroès, est l’information
parfaite.
8 La sentence du Français Jean Bodin, « Il n’y a de richesse… que d’hommes
», exprime une idée largement partagée à cette époque.
9 En fait « toute monnaie est fiduciaire » dans la mesure où la forme de
monnaie est de nature conventionnelle dans une société donnée. Mais
conventionnellement, on réserve l’expression monnaie fiduciaire au billet de
banque.
10 La définition de la productivité marginale du capital est simple : il s’agit de
la variation de la production rapportée à la variation du capital qui en serait la
cause, mais le problème est de donner la valeur de ce capital fait de différentes
générations d’équipement.
11 Pour une synthèse, cf. Antonio M. Borges, « Les modèles appliqués
d’équilibre général : une évaluation de leur utilité pour l’analyse des politiques
économiques », Revue économique de l’OCDE, n° 7, automne 1986.
12 La NEC intègre également la plupart des auteurs du courant des cycles
réels des affaires (RBC) : Robert G. King, Finn Kydland,. John B. Jr. Long,
Charles I. Plosser, Edward Prescott.
13 John F. Muth « Rational Expectations and the Theory of Price Movements
», Econometrica, volume 29, n° 6, pp. 315-335, 1961.
14 La pression fiscale correspond au rapport entre les prélèvements
obligatoires (impôts et cotisations sociales) et le PIB.
15 Supply side économics est une expression forgée en 1975 par le journaliste
Jude Wanniski.
16 Née en 1871 et condamnée à mort et exécutée en 1919 pour son
appartenance au mouvement révolutionnaire spartakiste. Sa principale
contribution est L’Accumulation du capital : contribution à l’explication
économique de l’impérialisme (1913).
17 Auteur notamment d’Impérialisme stade suprême du capitalisme.
18 Co-auteurs de L’A.B.C. du Communisme, 1919.
19 Économiste américain (1910-1964), auteur d’Économie politique de la
croissance (1957).
20 Économiste américain né en 1910, auteur de La Théorie du développement
capitaliste, 1942.
21 Il est intéressant de noter que la notion de transition systémique est présente
dans l’œuvre de Ch. Bettelheim, mais il s’agissait dans les années 1960, selon le
titre de son livre publié chez Maspéro, de « la transition vers l’économie
socialiste » (2e éd., 1968).
22 Sauf dans les relations économiques internationales, puisque certains pays
prenaient des mesures protectionnistes avec pour réponse de la part des autres
pays des mesures de rétorsion protectionnistes aggravant la dépression.
23 On trouve cet aphorisme dans le chapitre 3du Tract sur la réforme
monétaire (1923). Keynes signale qu’il est de toute façon difficile de prévoir.
C’est seulement en voyant le calme de la surface de l’océan que les économistes
peuvent se risquer à déclarer que le temps orageux a disparu.
24 Hypothèse explicite dans le modèle PAYM, acronyme des NEK : Parkin,
Akerlof, Yellen, Mankiw.
25 Cette expression populaire est le titre d’un important livre de Jean Fourastié
publié dans la collection Pluriel chez Hachette.
26 Ronald H. Coase, « The Nature of the Firm », Economica, 4, pp. 386-405,
1937.
27 Ronald H. Coase, « The problem of social cost », Journal of Law and
Economics, III, October, pp. 1-44, 1960.
28 Ronald H. Coase, « The Institutional Structure of Production », The
American Economic Review, September, 82 (4), pp. 713-9, 1992.
29 Pour une analyse détaillée, cf. Richard Arena, Nathalie Lazaric « La théorie
évolutionniste du changement économique de Nelson et Winter Une analyse
économique rétrospective », Revue économique, n° 2, vol. 54, 2003 ; Dosi G.,
Nelson R. « An Introduction to Evolutionary Theories in Economics », Journal
of Evolutionary Economics, n° 4, pp. 153-172, 1994.
30 Les livres sont ceux de Kenneth Boulding (1910-1993) en 1981 :
Evolutionary Economics, Sage et de Richard Nelson et Sidney Winter en 1982 :
An Evolutionary Theory of Economic Change. L’article est celui de Giovanni
Dosi en 1982 également : « Technical Paradigms and Technical Trajectories : the
Determinants and Directions of Technical Change and the Transformation of the
Economy », Research Policy, 11, pp. 147-162.
31 Journal of Evolutionary Economics.
32 Cf. l’article précurseur en 1964 déjà de Sidney G. Winter. « Economic
“Natural Selection” and the Theory of the Firm », Yale Economic Essays, 4,
printemps, pp. 225-272. Voir aussi : Dosi G., Nelson R., Winter S., The nature
and Dynamics Capabilities of the Firm, Oxford, Oxford University Press, 2001 ;
Morad Diani Economie évolutionniste et culture d’entreprise, thèse ULP
Strasbourg 1, 2003, le chapitre 2« état de l’art ».
33 « Uncertainty, Evolution and Economic Theory », Journal of Political
Economy, 58, pp. 211-221, 1950.
Chapitre 3
La comptabilité nationale
Dans la définition de l’objet de l’économie, il a été
indiqué que la rareté des ressources exige une tenue des
comptes. Cette comptabilité, utile même si elle est
informelle pour le ménage et explicite seulement au
moment de la déclaration fiscale des revenus, est obligatoire
et tenue selon des règles conventionnelles dans les
entreprises et dans tout ensemble social de quelque niveau
territorial soit-il, dès qu’il est question précisément de
rendre des comptes aux ressortissants, aux parties prenantes,
à ceux qui composent la collectivité, en donnant des
informations sur la manière avec laquelle les moyens mis à
la disposition de l’institution privée ou publique sont
employés. On parle de comptabilité nationale lorsque cette
comptabilité est effectuée par agrégation pour toutes les
opérations économiques et financières, réalisées au cours
d’un exercice annuel par l’ensemble des unités résidentes
dans le territoire économique national. Cette comptabilité
nationale peut cependant donner lieu à des comptes
trimestriels partiels mais plus rapidement disponibles et à
des comptes régionaux plus détaillés. L’objet de ce chapitre
est de présenter les notions et principes généraux de cette
comptabilité, sans négliger de signaler ses limites.
1. Fonctions et histoire de la comptabilité nationale
1.1. Une représentation simplifiée de l’économie nationale
Il est sans doute plus facile de se représenter le
comportement d’un acheteur, d’un investisseur, d’un
producteur, d’un épargnant que de se représenter les notions
de consommation nationale, de formation brute de capital
fixe, de produit intérieur brut, d’épargne des ménages.
Toutes ces notions abstraites véhiculées par les médias
constituent des agrégats construits à partir d’une
comptabilité particulière, de nature purement
conventionnelle, établie à l’échelle de la nation.
Selon le manuel de l’Insee (Système élargi de
comptabilité nationale série C. 140-141, 1987), cette «
comptabilité nationale est une technique de synthèse
statistique dont l’objet est de fournir une représentation
quantifiée de l’économie d’un pays. Description globale,
elle vise à présenter l’ensemble des phénomènes
économiques dans un cadre comptable cohérent ».
Cette définition reste valable pour le nouveau système dit
SEC base 20001 qui a remplacé, depuis janvier 2006, le SEC
1995 en vigueur depuis 1998. La comptabilité nationale
demeure un modèle, i.e. une représentation simplifiée de la
réalité. En tant que modèle, elle est nécessairement
structurée par les théories économiques. On sait que, de ce
point de vue, la théorie keynésienne a joué un rôle
déterminant. La comptabilité nationale est un modèle
descriptif. À ce titre, elle tient compte des instruments
d’observation utilisables. Sa cohérence dépend des sources
statistiques.
La comptabilité nationale est un modèle descriptif destiné
à l’information des pouvoirs publics, des entreprises et des
citoyens en vue de l’action. Elle doit donc tenir compte des
besoins des utilisateurs, en fait surtout ceux des pouvoirs
publics pour leur politique économique. Elle fournit des
informations sur le patrimoine, la production, la
consommation, l’épargne, la formation de capital, les
importations, les exportations, les prélèvements obligatoires
(impôts directs et indirects, cotisations sociales). Elle décrit
les flux ou transactions ou encore opérations économiques
qui ont eu lieu au sein du territoire économique national
entre les unités économiques résidentes que l’on désignait
par l’expression agent économique dans une ancienne
version de la comptabilité nationale, et entre ces unités et le
reste du monde. Le territoire économique dont il est
question comprend la métropole et les départements
d’outre-mer. Les unités résidentes sont des :
- entreprises non financières : entreprises en société et
entreprises individuelles,
- sociétés financières : banques, assurances,
- administrations publiques centrales (État, Sécurité
sociale) et territoriales,
- institutions sans but lucratif au service des ménages
(ISBLSM), comme par exemple les associations
sportives,
- ménages.
En permettant de connaître ce qui s’est réalisé au cours de
l’année écoulée, la comptabilité nationale devient une base
de données précieuse pour établir des prévisions du type
budget économique de la nation, afin de justifier le projet de
loi de finances de l’État, i.e. la politique budgétaire prévue
par les pouvoirs publics.
1.2. Histoire et formes de comptabilité nationale
L’évolution des théories, des instruments d’observation et
des besoins a conduit à l’évolution des systèmes des
comptes nationaux. Mais, bien avant les systèmes modernes
apparus au lendemain de la Seconde Guerre mondiale, des
travaux précurseurs ont été entrepris, pour évaluer le revenu
national ou la fortune nationale ou le produit net au niveau
de la nation, par William Petty (1680), Gregory King
(1696), Vauban (1707), François Quesnay (Tableau
économique, 1758), Lavoisier (1791). Il a cependant fallu la
grande dépression qui a suivi la crise de 1930 et la guerre
1939-45 pour juger nécessaire de disposer annuellement et
systématiquement d’une comptabilité nationale cohérente
dans la plupart des pays. Les pionniers dans les années
1930-50 sont principalement Simon Kuznets, Colin Clark,
Richard Stone, Ragnar Frisch, Jan Tinbergen et, pour la
France, François Perroux puis Claude Gruson. Des travaux
menés dans le cadre de l’ONU, qui déboucheront sur le
système SCN93 (Système de comptabilité nationale base
1993), chercheront une harmonisation sinon une
normalisation pour faciliter les comparaisons internationales
et une meilleure cohérence des comptabilités nationales
avec les autres systèmes internationaux normalisés de
statistiques, du type balances des paiements. Depuis
l’effondrement du système soviétique, qui avait son propre
système de comptabilité nationale appelé comptabilité du
produit matériel (CPM), le système des Nations Unies dit
SCN93 sert de modèle pour les différents espaces. Le
système européen des comptes SEC en est une adaptation.
Le système français qui applique le SEC a une longue
histoire. Il est le produit des travaux commencés en 1946,
au sein du SEEF, de manière autonome. Cette indépendance
s’estompe progressivement pour arriver au SECN ou
système de comptabilité élargie qui s’inspire du SEC 1970.
Le SECN est une mutation importante de la comptabilité
nationale comme l’indique André Vanoli2. Il fut mis en
place en 1976 avec une base pour calculer en francs
constants de 1971. Il a été réformé en 1987 avec un
changement de base pour 1980. Les principales réformes
sont : le transfert des hôpitaux du secteur marchand au
secteur non marchand, la modification de la nomenclature
des opérations financières et la prise en compte de divers
rôles des assurances. Le SEC 2000 apporte peu de
modifications au SECN.
Parmi ces modifications, on notera que :
- l’investissement brut (nouveaux investissements
augmentés des investissements de remplacement ou
amortissement) que l’on désigne
conventionnellement par l’expression formation
brute de capital fixe ou par son sigle FBCF est
élargi aux dépenses d’acquisition de logiciels, de
prospection minière, de réalisation d’œuvres
littéraires et artistiques y compris dans le domaine
audiovisuel (cinéma, télévision). Toutefois la FBCF
ne s’applique toujours pas à la totalité des
investissements immatériels. Les dépenses de R &
D, de formation, de mise en place des réseaux
commerciaux ou encore de réalisation d’une
campagne de publicité ne sont toujours pas
intégrées dans la FBCF au sein du SEC, malgré les
préconisations des comptables français.
- Une deuxième innovation est la distinction des
agrégats de consommation effective et dépense de
consommation. La consommation effective ou
consommation globale prend en compte les
dépenses des administrations qui peuvent être
individualisées i.e. destinées à un seul agent (les
ménages). Par conséquent, la dépense de
consommation est celle qui relève uniquement du
revenu disponible au sens strict, i.e. diminué du
revenu socialisé (comme les remboursements de
frais médicaux par exemple).
- Dans la classification des agents en secteur
institutionnel, l’appellation « sociétés non
financières » remplace celle de « sociétés et quasi-
sociétés non financières », l’expression «
institutions sans but lucratif au service des ménages
» est substituée à « administrations privées », et
enfin les « institutions de crédit » et les «
entreprises d’assurance » sont de nouveau réunies
dans les « sociétés financières ».

Pour la France, l’adoption du SEC conduit à une


revalorisation du PIB de 1,2 % en raison du rattachement
des DOM (départements d’outre-mer) au territoire
économique, tandis que les TOM (Territoires d’outre-mer)
demeurent une des composantes du Reste du monde.
Du point de vue de la synthèse des flux, les Comptes
économiques intégrés (CEI) remplacent le Tableau
économique d’ensemble (TEE).
Nous présenterons successivement les principales
conventions et définitions, les tableaux du cadre central, et
enfin la critique et les limites de la comptabilité nationale.
2. Conventions et définitions
2.1. Les sources d’information et les différents types de
comptes
Plusieurs institutions interviennent dans l’élaboration des
comptes de la nation : la Direction de la prévision et la
Comptabilité publique pour les comptes des administrations
publiques, la Banque de France pour l’information
concernant les opérations financières et les comptes
financiers, et l’Insee qui élabore les comptes des entreprises
et des ménages et construit la synthèse finale. À la lecture
de ces éléments, on voit que le SEC comporte divers types
de comptes. Ce sont, en utilisant les définitions de l’Insee :
- Les comptes du cadre central que nous analyserons
dans la section suivante.
- Les systèmes complémentaires qui sont des analyses
détaillées des comptes d’un secteur institutionnel
(administration, ménage, etc.) utilisant des grilles
d’opérations spécifiques. Par exemple, la
consommation finale est analysée par durabilité des
produits et selon les besoins auxquels ils répondent.
- Les systèmes intermédiaires sont des présentations
économiques de comptabilités d’agent obtenues à
partir de l’agrégation des comptes individuels,
assurant ainsi la liaison entre les données
microéconomiques et les données
macroéconomiques. Ils sont régulièrement établis
pour les entreprises (sociétés et entreprises
individuelles).
- Les comptes satellites sont des systèmes
d’information relatifs à un domaine particulier
(agriculture, transport, tourisme, protection sociale,
recherche…) structurant des données monétaires et
non monétaires et articulant l’analyse de
l’économie du domaine à l’analyse globale. Ainsi,
le compte satellite structure des données monétaires
qui appartiennent à plusieurs secteurs et fournit des
informations non monétaires (effectifs des
producteurs, parcs d’équipements, etc.) absentes
dans le cadre central. Il est, en effet, quelquefois
plus utile de connaître le nombre de lits dans les
hôpitaux que le montant des dépenses hospitalières.
2.2. Le cadre central
Le cadre central regroupe les comptes et tableaux de
l’activité économique qui décrivent :
- les mécanismes élémentaires par les comptes des
secteurs institutionnels dans un tableau économique
d’ensemble (TEE) qui regroupe tous les comptes
des secteurs et toutes les opérations économiques, y
compris avec le reste du monde,
- des agrégats, grandeurs synthétiques de l’économie
(PIB, RN, épargne nationale…) ;
- des indicateurs et des indices (mensuels, trimestriels)
qui donnent une connaissance de la conjoncture et
permettent de prendre des dispositions de conduite
2.2.1. L’unité statistique fondamentale du SEC est l’unité
institutionnelle
Celle-ci est caractérisée par une unité de comportement
ou une fonction principale, une autonomie de décisions, et
elle dispose souvent d’une comptabilité complète exprimant
l’unité du patrimoine. Par exemple, une entreprise
individuelle n’a pas un patrimoine séparé du ménage de
l’entrepreneur ; à ce titre, elle n’est pas une unité
institutionnelle distincte du ménage, contrairement à une
société.
2.2.2. L’économie nationale est constituée par l’ensemble
des unités résidentes
Les unités résidentes sont des unités qui ont un centre
d’intérêt durable (plus d’un an) sur le territoire économique.
Celui-ci comprend le territoire géographique métropolitain,
l’espace aérien national, les eaux territoriales, les enclaves
françaises à l’étranger (ambassades, bases militaires, etc.) et
les zones franches sous contrôle douanier français. Le
critère juridique de nationalité n’intervient pas : la
succursale d’une société étrangère mais exerçant son
activité en France est considérée comme unité résidente. Il
en est de même pour les travailleurs immigrés.
2.2.3. Les secteurs institutionnels
Les unités institutionnelles résidentes sont regroupées en
six secteurs institutionnels sur la base de la fonction
principale et de l’origine des ressources de ces unités. Les
opérations réalisées entre les unités résidentes et les unités
non résidentes sont retracées dans un compte particulier
appelé « Reste du monde ». C’est ce que décrit le tableau ci-
dessous
Les secteurs institutionnels:

Le secteur des administrations publiques exige une


analyse un peu plus détaillée, car il regroupe des
administrations de différents niveaux et l’administration de
la Sécurité sociale qui, juridiquement, relève du droit privé.
Les APU produisent des services non marchands destinés
aux ménages, d’autres qui sont des biens collectifs purs et
qui profitent à la collectivité (justice, police, défense
nationale, réseau routier…). Les APU effectuent également
des opérations de redistribution à partir de ressources qui
sont obtenues essentiellement à partir de prélèvements
obligatoires (impôts, cotisations sociales). C’est par ce
caractère que l’on peut justifier la présence de
l’administration de la Sécurité sociale dans le secteur des
APU.
Les APU regroupent trois composantes :
- les administrations publiques centrales (Apuc), dont
les compétences et le financement sont nationaux.
Elles comprennent l’État (budget général, budgets
annexes, comptes spéciaux du Trésor), les
organismes divers d’administration centrale
(Odac) : enseignement, lycées, universités, la
recherche avec le Cnrs, le Cea…) et divers autres
organismes (bibliothèques, musées, théâtres…) qui
disposent de l’autonomie financière pour produire
des services non marchands en gérant l’enveloppe
qui leur est attribuée (provenant de subventions ou
de taxes nationales).
- les administrations publiques locales (Apul)
comprennent les collectivités locales (régions,
départements, communes…) et les organismes
divers d’administration locale (aménagement du
tissu urbain, aménagement rural, Société
d’aménagement foncier et d’établissement rural
[safer]), interventions sociales (bureaux d’aide
sociale, caisses des écoles), organismes consulaires
(chambres de commerce, des métiers,
d’agriculture…) dont les ressources sont limitées à
un territoire local.
- les Administrations de Sécurité sociale (Asso), qui
distribuent des prestations sociales à partir des
cotisations obligatoires (ensemble du régime
général et des régimes spéciaux statutaires et
complémentaires).
Il convient de rappeler, d’une part, que le secteur
ménages comprend les entreprises individuelles et, d’autre
part, que toutes les unités publiques fortement
subventionnées (plus de 50 % des coûts de production)
peuvent être classées dans le secteur administrations, quel
que soit leur statut juridique.
2.2.4. Les principes comptables
Les comptes annuels correspondent à l’année civile.
L’unité de compte est l’euro (€). Fondamentalement, les
systèmes de comptes nationaux apparus depuis 1945 sont
des comptabilités en termes de flux. Le SEC comporte
cependant une évaluation du patrimoine, elle est limitée au
patrimoine qui fait l’objet de transactions, tout en excluant
un grand nombre des biens qui en font généralement partie
(antiquités, œuvres d’art pour les ménages, domaine public
naturel et biens durables militaires pour les administrations
publiques, etc.).
L’enregistrement du flux ou opération se fait selon le
principe de la comptabilité en partie double : un flux qui est
un emploi pour un secteur et en même temps une ressource
pour un autre. Il est effectué sur la base des droits constatés
lors de la livraison, au moment où sont dues les opérations
de répartitions et lors des transactions financières.
La production marchande (biens et services s’échangeant
sur le marché) est évaluée aux prix du marché dans
l’optique du producteur ou prix départ usine, i.e. hors
marges prélevées par le commerce et hors TVA (taxe à la
valeur ajoutée). Les emplois sont évalués au prix du marché
dans l’optique de l’acquéreur. Ce prix inclut les marges
commerciales et la TVA.
La production non marchande des administrations
publiques et des ISBLSM est évaluée par le montant des
coûts (consommations intermédiaires, salaires, impôts liés à
la production, consommation de capital fixe ou
amortissement économique).
Les importations sont évaluées CAF (coût, assurance,
fret). Le prix CAF comprend : la valeur de la marchandise à
la frontière du pays exportateur, les frais de transport
jusqu’à la frontière française, le service d’assurance-
dommages et la prime nette d’assurance-dommages entre
les deux frontières.
Les exportations sont évaluées FAB (franco à bord). Le
prix FAB comprend : la valeur de la marchandise au prix de
marché à la frontière française, les frais de transport jusqu’à
la frontière et les coûts de chargement sur tout moyen de
transport international.
2.2.5. Les comptes des secteurs institutionnels
Chacun des secteurs institutionnels dispose d’un compte
qui se décompose en huit sous-comptes de flux et en un
compte de patrimoine.
a) Les comptes de flux : PEADRUCF

Les huit comptes de flux sont articulés selon un schéma


complexe. Le plus important, du point de vue didactique, est
de comprendre que le solde d’un compte, ce qui permet
d’équilibrer les ressources et les emplois, devient l’entrée
principale du compte suivant. Ces soldes sont bruts si les
amortissements (consommation de capital fixe) ne sont pas
déduits. Les opérations qui apparaissent dans ces comptes
ne concernent pas nécessairement tous les secteurs. Par
exemple, la consommation finale ne concerne ni les sociétés
non financières ni institutions financières, tandis que les
recettes fiscales ne concernent que les administrations
publiques.
L’articulation des comptes de flux se fait selon le
séquençage suivant, formant l’acronyme ou sigle
PEADRUCF
Production, Exploitation, Affectation des revenus
primaires, Distribution secondaire du revenu, Redistribution
du revenu en nature, Utilisation du revenu, Capital,
Financier.
Le compte de production comporte en ressources la
production et en emploi les consommations intermédiaires
avec le solde de la valeur ajoutée brute (VAB) qui devient la
ressource principale du compte d’exploitation.
Dans ce compte d’exploitation, à la VAB s’ajoutent les
subventions d’exploitations. Les emplois sont les salaires et
les impôts indirects. Le solde est l’excédent brut
d’exploitation (EBE) qui est la première ressource du
compte d’affectation des revenus primaires.
Les ressources de ce compte d’affectation des revenus
primaires sont l’EBE, les revenus de la propriété reçus, les
revenus salariés, les impôts sur la production et des
subventions. Les emplois sont les revenus de la propriété
versés et le solde des revenus primaires.
Le compte de distribution secondaire du revenu comporte
en ressources les impôts et les cotisations sociales reçus par
les administrations publiques, les prestations sociales reçues
par les ménages. En emploi apparaissent les impôts versés
par l’ensemble des secteurs et le solde qui constitue le
revenu disponible brut (RDB)
Le compte d’utilisation du revenu a pour ressource le
RDB et en emploi la consommation finale effective, le solde
étant l’épargne brute.
Le compte de capital a pour ressource l’épargne brute
dégagée précédemment et pour emploi la FBCF avec pour
solde la capacité de financement ou le besoin de
financement.
Le compte financier indique la variation de l’actif
financier et la variation du passif financier.
b) Les comptes de patrimoine

En plus des comptes de flux, la comptabilité nationale


comporte une comptabilité patrimoniale. Le concept de
patrimoine de la comptabilité nationale repose sur la notion
de propriété ; il se définit comme l’état des avoirs détenus et
des dettes contractées par une unité institutionnelle, un
secteur institutionnel ou par l’ensemble de l’économie à un
instant donné.
Les comptes de patrimoine présentent les variations de
patrimoine qui permettent de rendre compte de l’état des
actifs et des passifs des différents secteurs et de l’économie
nationale, alimentés chaque année par les flux de
l’économie. Les actifs enregistrés dans les comptes de
patrimoine sont des actifs économiques, i.e. des biens
corporels ou incorporels servant de réserve de valeur sur
lesquels des droits de propriété peuvent être exercés,
individuellement ou collectivement, par des unités
institutionnelles et dont la détention ou l’utilisation au cours
d’une période déterminée peut procurer un revenu à leurs
propriétaires. L’ensemble des éléments composant le
patrimoine ne comprend que des actifs ayant fait – ou
susceptibles de faire – l’objet de transactions. Sont donc
exclus : le capital humain, le patrimoine naturel, le domaine
public naturel, les biens durables des ménages, les droits à
la retraite liés au système de répartition, etc.
Le solde d’un compte de patrimoine à une date donnée
est la valeur nette, qui se définit comme la différence entre
la valeur de tous les actifs financiers et non financiers (i.e.
l’ensemble des avoirs, cf. tableau des actifs non financiers)
et la valeur de tous les passifs financiers (i.e. les dettes) à la
date considérée.
Les éléments de l’actif financier d’une unité représentent
un droit sur le patrimoine d’une autre unité, alors que les
actifs non financiers n’en expriment aucun. Les exceptions
au principe de la double écriture pour les actifs financiers
sont l’or et des droits de tirages spéciaux (DTS)3 qui ne sont
la contrepartie d’aucun passif. Ils ne sont pas considérés
comme une dette pour leur émetteur.
Le patrimoine national est la somme des actifs non
financiers de l’ensemble des unités résidentes, majorée des
actifs financiers détenus par les unités résidentes vis-à-vis
des unités non résidentes et diminuée des passifs financiers
contractés par les unités résidentes auprès des unités non
résidentes. Cet agrégat correspond également à la somme
des valeurs nettes des secteurs résidents.
Les comptes de patrimoine d’ouverture et de clôture d’un
actif sont reliés par l’identité comptable fondamentale
suivante : la valeur du stock d’un actif donné dans le compte
de patrimoine d’ouverture plus la valeur totale des actifs
acquis moins la valeur totale des actifs cédés au cours de la
période comptable (les opérations sur actifs non financiers
étant comptabilisées dans le compte de capital et celles sur
actifs financiers dans le compte financier) moins la
consommation de capital fixe plus la valeur des autres
changements de volume – positifs ou négatifs – des actifs
détenus, ces variations étant comptabilisées dans le compte
des autres changements de volume d’actifs, plus la valeur
des gains nominaux de détention – positifs ou négatifs –
enregistrés au cours de la période dans le compte de
réévaluation, à la suite de la variation du prix des actifs
comptabilisés, est égale à la valeur du stock de cet actif dans
le compte de patrimoine de clôture.
2.2.6. Les opérations économiques
Les flux élémentaires sont regroupés en fonction de leur
nature dans des comptes d’opérations. Le SEC distingue
trois catégories d’opérations : les opérations sur produits, les
opérations de répartition, les opérations financières.
a – Les opérations sur produits

Le premier objectif des concepteurs de la comptabilité


nationale est de donner une évaluation de la richesse
produite au cours d’une année dans un pays, et d’indiquer
ses divers emplois. C’est dire que les opérations sur produits
(i.e. sur biens et services dans les versions précédentes de la
comptabilité), autrement dit essentiellement la production et
ses emplois, constituent le cœur de la comptabilité
nationale.
La production y est définie comme l’activité qui permet
de fabriquer des biens ou de fournir des services soit pour la
vente, soit pour son usage propre, soit pour une
consommation non marchande, et comme le résultat de cette
activité. Cette définition large s’applique aux entreprises,
aux administrations publiques, aux institutions financières,
aux ISBLSM et aux ménages.
Pour ce dernier par exemple, la location d’une pièce d’un
appartement à un étudiant est un service marchand.
L’appartement occupé par son propriétaire est un service
autoproduit et autoconsommé dont la valeur fictive est égale
au loyer qu’un locataire verserait pour un logement
équivalent. Mais, en raison de la difficulté d’évaluer les
travaux ménagers, ceux-ci ne sont pas comptabilisés comme
des services que le ménage se vend à lui-même, sauf s’ils
sont fournis par du personnel domestique. Dans le cadre de
l’économie souterraine, l’évaluation est une estimation
approximative. Cette économie souterraine correspond à
l’activité marchande non déclarée éventuelle des différentes
unités institutionnelles. Elle comprend les activités qui
cherchent à échapper aux prélèvements obligatoires (par
exemple, travail au noir, contrebande, etc.) et les activités au
caractère intrinsèquement illicite (production et commerce
de stupéfiants).
b) les opérations de répartition

Les opérations de répartition décrivent comment la valeur


ajoutée engendrée par la production est distribuée
fonctionnellement (salaire et cotisations sociales, revenu de
la propriété – intérêt, dividende, loyers d’actifs non
produits4 –, impôts…) puis redistribuée (transferts –
prestations sociales, subventions) entre les unités.
c) Les opérations financières

Elles décrivent comment les unités utilisent leur épargne


financière ou financent leurs activités. Plus généralement,
les opérations financières sont toutes les opérations
impliquant la création, le transfert de propriété ou
l’extinction d’actifs financiers (actions, obligations, crédits,
etc.). Elles peuvent être, ou non, la contrepartie d’opérations
non financières. Il faut noter que les intérêts sont enregistrés
en suivant le principe général des « droits constatés », qui
veut que les opérations soient enregistrées au moment de
l’événement économique qui leur a donné naissance, et non
au moment du paiement.
2.2.7. L’équilibre ressources-emplois et les principaux
agrégats
Les opérations sur produits permettent d’établir
l’équilibre entre les ressources et les emplois.
Les ressources sont constituées par la production, les
importations, les marges commerciales et de transport, les
impôts nets des subventions sur les produits.
La comptabilité nationale retrace aussi les emplois de la
production. Une partie de la production est exportée. La
production non exportée est utilisée, en même temps que les
importations, à satisfaire les emplois intérieurs. Une partie
est en fait simplement réemployée dans les processus
productifs, et est appelée pour cette raison consommation
intermédiaire : c’est le cas de l’acier utilisé pour la
fabrication de voitures, de l’électricité servant à éclairer et à
chauffer les bureaux. Une autre partie est utilisée pour la
consommation dite finale, par opposition à la consommation
intermédiaire. Une autre partie encore est investie :
l’expression employée par les comptables nationaux est
FBCF : formation brute de capital fixe. Enfin, une partie est
stockée, tandis que des prélèvements sont effectués sur les
stocks antérieurement constitués : la différence constitue les
variations de stocks.
Les emplois sont donc constitués par la somme de la
consommation finale [C], la formation brute de capital fixe
[FBCF], la consommation intermédiaire [CI], la variation de
stocks [VS] et les exportations [X].
En simplifiant, par la déduction de la consommation
intermédiaire dans la production totale pour obtenir la
valeur ajoutée brute, l’équilibre ressources-emplois
simplifié est, sachant que le produit intérieur brut au prix du
marché (noté Y) est la somme5 de la valeur ajoutée brute et
des impôts indirects (TVA, droits de douane) moins les
subventions :
PIB au PM = Σ valeurs ajoutées brutes + impôts indirects
(TVA + droits de douanes) - subventions
Y + M = C + FBCF + X + VS
On rappellera que la FBCF ou investissement total
(investissement net + amortissement ou consommation de
capital fixe) désigne l’acquisition de biens d’équipement
durables, les logiciels, les œuvres littéraires et artistiques
littéraires, les frais de prospection minière et pétrolière. Les
achats de logements par les ménages et les travaux
d’entretien et de réparation, sont classés en FBCF. Toutes
les autres dépenses des ménages, y compris les achats de
voitures ou de meubles, sont classées en consommation.
L’égalité exprimant l’équilibre comptable ressources-
emplois indique que l’agrégat fondamental dans le SEC est
le produit intérieur brut (PIB).
a) Le PIB au prix du marché peut être calculé selon trois
optiques différentes :
*optique production : somme des valeurs ajoutées brutes
+ TVA grevant les produits + droits de douane ;
*optique revenu : rémunération des salariés + excédent
brut d’exploitation + impôts liés à la production (y compris
la TVA) et à l’importation (droits de douane) + subvention
d’exploitation ;
*optique dépense : consommation finale sur le territoire
économique + FBCF + exportations – importations +
consommations intermédiaires des branches non
marchandes – ventes résiduelles des produits marchands des
branches non marchandes.

On appelle PIB non marchand la somme des valeurs


ajoutées des branches non marchandes.
b) Le revenu national au prix du marché :
RNPM = PIB – consommation de capital fixe + revenus
reçus du reste du monde – revenus versés au reste du
monde.
Le revenu national ainsi calculé s’identifie au produit
national net, le produit national brut étant le revenu national
augmenté de la consommation de capital fixe, soit encore :
PNB au prix du marché = PIB + revenus reçus du reste du
monde – revenus versés au reste du monde.
c) Le revenu national aux coûts des facteurs :
RNCF = RNPM – impôts liés à la production +
subventions d’exploitation.
d) Le revenu national brut disponible au prix du marché :
RND = consommation nationale + épargne nationale
brute.
Encadré Quelques définitions complémentaires

Agrégat : grandeur caractéristique d’une économie


donnée. Il est qualifié de brut lorsque l’on n’a pas soustrait
la consommation de capital fixe. Il est net dans le cas
contraire.
Amortissement économique ou consommation de capital
fixe : dépréciation subie au cours de la période considérée
par le capital fixe, par suite d’usure normale et
d’obsolescence prévisible, y compris une provision pour
perte de biens de capital fixe à la suite de dommages
accidentels assurables. La consommation de capital fixe ne
se confond pas avec l’amortissement fiscal ou
l’amortissement retenu dans la comptabilité d’entreprise.
L’évaluation du capital fixe est faite sur la base du prix de
remplacement et non au coût d’acquisition.
Branche : ensemble d’unités de production homogène
dont le contenu est défini par une nomenclature de niveau
plus ou moins fin. À chaque branche correspond un produit.
Déflateur du PIB : voir plus bas prix implicite.
Prix implicite du PIB ou déflateur implicite des prix :
valeur de l’indice des prix que l’on associe au PIB ou au
PNB. Il est égal à :

Prix courant (ou en € courant) et prix constant (ou en €


constant)
L’évaluation à prix courants est la valeur en monnaie
d’une variable constatée sur la base des prix de la période
d’observation. L’évaluation à prix constants, ou en termes
réels ou encore évaluation « en volume » est la valeur en
monnaie de la variable considérée pour la période
d’observation, mais calculée sur la base d’un système de
prix, relatif à une période ou année de référence appelée
période ou année de base. Plus simplement, il s’agit de
décomposer les variations dans le temps des valeurs en deux
éléments, l’un étant la « variation du prix » et l’autre la «
variation en volume ». Le calcul à prix constants peut se
faire selon deux méthodes :
- déflater la valeur à prix courants par un indice de
prix adapté ;
- multiplier la valeur courante de l’année de base par
un indice en volume.
Valeur et volume : modes d’évaluations synonyme
d’évaluation en prix courants et en prix constants.
Valeur = quantité (q0) x prix (p0), soit q0 x p0.
Volume = quantité de l’année n x prix de l’année de base
(p0), soit qn x p0, d’où :
Valeur = volume ×
.
Le rapport pn/p0 est l’indice de prix du produit élémentaire
considéré. Il est égal au rapport entre la valeur (qn x pn) et le
volume (qn x p0). Le volume est identique à la valeur à prix
constants. On dit encore valeur en termes réels. Une
variation de volume reflète à la fois des variations de nature
et des variations de répartition des emplois ou des
ressources.
3. Le tableau d’entrées-sorties (TES)
Les opérations sur produits donnent lieu à une
comptabilité matricielle détaillée exprimant les échanges de
produits entre les différentes branches de l’économie
nationale et les échanges qu’elles entretiennent avec le reste
du monde. On désigne par tableau d’entrées-sorties (TES)
cette comptabilité détaillée. Le TES présente en ligne les
produits ou sorties (outputs) et en colonne les branches ou
entrées (inputs). Le système du TES a été mis point par
Vassily Leontief en Union soviétique dans le cadre de la
planification impérative, mais les publications du premier
tableau d’échange industriel (TEI) sous la forme d’une
matrice input-output n’ont eu lieu qu’après son immigration
aux États-Unis et concernent uniquement l’économie
américaine.
L’élargissement de la notion de produit aux services s’est
traduit par l’adoption de l’expression TES à la place de TEI.
Le TES comporte quatre sous-tableaux ou cadres articulés
et un cartouche pour le calcul du PIB.
Le premier sous-tableau (A) est celui des entrées
intermédiaires, le deuxième (B), placé en dessous, est celui
des comptes de production et des comptes d’exploitation
des branches. Le troisième (C), placé en dessous du
deuxième, est le tableau des ressources en produits. Le
quatrième (D), placé à droite dans le prolongement des
entrées intermédiaires, est le tableau des emplois finals.
3.1. Comment lire un TES ?
a) Le tableau des entrées intermédiaires (cadre A) est une
matrice susceptible d’avoir 600 lignes et 600 colonnes avec
la nomenclature détaillée NAP 600. La ligne indique la
vente de produits aux autres branches. Les lignes sont des
emplois ou sorties. La colonne indique les achats ou
consommations intermédiaires par les branches. Ce sont des
ressources ou entrées. Les entrées en produits i dans la
branche i constituent des intra-consommations. Cette
consommation intermédiaire d’une branche d’un produit
appartenant à la même branche ne doit pas être confondue
avec l’autoconsommation qui est la consommation, par un
agent économique, de ses propres produits. Par exemple,
l’achat de tourteaux de soja par un agriculteur est de l’intra-
consommation, mais l’utilisation du lait qu’il produit dans
sa ferme pour ses propres besoins est de
l’autoconsommation.
La SEC ne prend en compte que l’intra-consommation.
Mais, lorsque le nombre de branches est au niveau 600,
seules les consommations de produits importés similaires à
celles de la branche sont comptées. Les autres sont
considérées comme de l’autoconsommation.
En principe, le cadre A devrait être une matrice carrée
avec une diagonale qui représente les intra-consommations.
En fait, on ajoute en colonne la branche commerce qui a des
consommations intermédiaires (locations de bureaux,
électricité, etc.) mais dont les produits sont ceux des autres
branches. De ce fait, la ligne commerce est vide, car les
marges commerciales correspondant à la production de la
branche commerce sont incorporées dans les produits des
autres branches. Afin de ne pas les compter deux fois en
ressources – incorporées dans les produits et productions de
la branche commerce –, elles sont soustraites dans la ligne
commerce du cadre C.
Le cadre A comporte une deuxième colonne
supplémentaire qui permet d’annuler la production imputée
de services bancaires.
b) Dans le cadre B, les comptes de production décrivent
la liaison entre la production effective des branches et la
consommation intermédiaire de biens nécessaires à celles-ci
(qui est la somme de chaque colonne du cadre A). La
différence entre la production et la consommation
intermédiaire est la valeur ajoutée brute (VAB).
Les comptes d’exploitation décrivent les opérations de
répartition de la VAB et éventuellement des subventions
d’exploitation entre les agents économiques : rémunération
des salariés, impôts liés à la production (autres que la TVA),
consommation de capital fixe, excédent net d’exploitation.
c) Le tableau C reprend en première ligne la production
effective des branches. À celle-ci vont s’ajouter d’autres
ressources en produits :
– les transferts qui permettent de passer de la production
effective à la production distribuée. En effet, une branche
peut avoir pour un même acte de production plusieurs
produits liés ou fatals. La ligne transfert permet d’affecter
les produits fatals aux branches où ils ont le caractère de
produit principal. Par exemple, la branche automobile a
comme produit principal l’automobile et un produit fatal tel
que des services de recherche marchands. Celui-ci sera
transféré à la branche services de recherche marchands ;
- les importations du produit de la branche (prix
CAF) ;
- les droits de douane sur importations ;
- la TVA, i.e. le solde entre la TVA facturée par le
producteur et la TVA déductible ;
- les marges commerciales ventilées selon l’emploi du
produit.
d) Le tableau des emplois finals (cadre D) indique en
colonne la nature des emplois finals par secteur
institutionnel :
- la consommation finale pour les ménages et les
administrations publiques. Pour les administrations,
cette consommation n’est composée que de leurs
propres services non marchands, car leur
consommation de biens et services marchands est,
par convention, intermédiaire. La consommation
finale est évaluée au prix d’acquisition, taxes
comprises ;
- la FBCF n’est un emploi que pour les industries. Elle
est évaluée au prix d’acquisition hors TVA
déductible ;
- la variation des stocks ne constitue un emploi que
pour les biens. Les services ne sont pas stockables ;
- les exportations sont un emploi pour la plupart des
branches, hormis le bâtiment et la plupart des
services. Elles sont évaluées au prix FAB, hors
TVA.
3.2. Comment utiliser le TES ?
Le TES traduit les structures économiques de la nation. Il
montre les interdépendances des branches et le degré de
complexité de l’économie. Une économie est d’autant plus
développée que le nombre de branches est élevé et que les
intersections entre les produits et les branches sont non
vides. Noircir la matrice (cadre A) dite de Leontief, du nom
de son premier constructeur – Wassily Leontief, prix Nobel
d’économie –, est un objectif d’une politique de
développement. Dans cette stratégie, le TES permet de
hiérarchiser les activités en mettant en évidence les
branches motrices, ou pôles de croissance, et les branches
entraînées.
Une branche motrice est celle qui, pour réaliser son
activité, achète une forte proportion de sa valeur aux autres
branches qui sont alors considérées comme entraînées. Les
branches du bâtiment et des travaux publics, les industries
de l’information, de la construction navale et les industries
d’armement militaire ont d’importantes consommations
intermédiaires en provenance de la plupart des autres
branches. Elles exercent sur elles des effets d’entraînement.
Pour être plus précis, une branche motrice présente un
coefficient technique global de production élevé. Par
coefficient technique de production, on entend le rapport
entre la somme des consommations intermédiaires de la
branche et la production totale de la branche. En vue de la
prévision, il est cependant nécessaire de calculer les
coefficients techniques de production simples. Il correspond
au rapport entre la consommation intermédiaire (xij) en
produit i par la branche j et la production totale de la
branche (Xj) : aij =

i indique la ligne, j la colonne. Un point à la place de l’un


des signes symboles i ou j indique que l’élément qu’il
remplace n’est pas pris en compte de manière particulière.
Le coefficient aij indique la valeur en produit i nécessaire
pour produire une unité monétaire du produit j.
En supposant stable la structure du système productif, on
peut prévoir quelle sera la répercussion en chaîne d’un
impact (variations du prix ou de la demande) en un point
quelconque de l’appareil de production. La constance des
coefficients techniques revient à faire l’hypothèse que la
technologie ne change pas, non plus que la productivité.
Dans le cadre de la politique économique, les pouvoirs
publics ne se limitent pas au seul critère du coefficient
technique de production global le plus élevé. Ils tiennent
également compte de la contrainte extérieure. En d’autres
termes, une branche peut présenter un coefficient technique
de production élevé, mais ne pas servir pour la relance
économique si, en même temps, son coefficient
d’importation est élevé. On peut alors préférer une branche
moins entraînante mais qui a l’avantage de comporter moins
de fuites conduisant à un moindre endettement externe.
Signalons que le rapport entre l’accroissement de la
production de la branche et l’accroissement initial de la
demande pour les produits de la branche s’appelle le
multiplicateur de branche.
Pour calculer les effets de la variation des prix, on se sert
de la matrice des coefficients des débouchés qui mesure la
fraction de l’emploi total du produit i consommé par la
branche j. La division se fait en ligne et non plus en
colonne : dij = xij/Xi.
Exemple d’une utilisation du TES
Illustrons le mode d’utilisation du TES par un exemple
simplifié comportant trois branches pour une économie
fermée. Les branches sont l’agriculture (I), l’industrie (II) et
les services (III). On utilisera les symboles suivants :
∑ = somme, CI = consommation intermédiaire, Yi =
demande finale du produit i, Xi. = total du produit i, X.j =
total production pour la branche j ; VA = valeur ajoutée.
Tableau d’entrée-sortie

On vérifie dans ce tableau que ∑VA = ∑Yi, i.e. que la


somme des valeurs ajoutées en économie fermée est égale à
la somme des produits finals.
Calculons la matrice des coefficients techniques de
production notée A. Par exemple, le coefficient a11 (= 0,50)
est obtenu en faisant le rapport entre x11 (= 300) et X.1 (=
600). De même, a23 est le rapport entre x23 (= 160) et X.3 (= 1
200), etc. Nous obtenons :

La branche motrice est ici l’agriculture avec un


coefficient égal à 0,50 + 0,12 + 0,05 = 0,67, précédant
l’industrie avec 0,50 et les services avec 0,33.
Supposons qu’une prévision permette d’envisager une
augmentation de la demande finale de 30 milliards d’unités
monétaires pour l’année suivante, concernant les produits
industriels. Voyons quelles en seront les conséquences pour
l’économie. Pour produire 30 milliards de plus, l’industrie
doit acheter plus de produits agricoles (30 x 0,01 = 0,3), de
produits industriels (30 x 0,39 = 11,7), de services (30 x 0,1
= 3). Il apparaît ainsi que la production agricole doit
augmenter de 0,3 milliard, la production industrielle de 11,7
en plus des 30 milliards, les services de 3. Or, pour avoir
une augmentation de la production agricole de 0,3, il faut
que l’agriculture achète davantage de produits agricoles (0,3
x 0,5 = 0,15), de produits industriels (0,3 x 0,12 = 0,046), de
services (0,3 x 0,05 = 0,015). Ce processus d’itération peut
être poursuivi ainsi pour les services, puis de nouveau pour
l’industrie, et ainsi de suite jusqu’à ce que les
accroissements soient infinitésimaux.
Ce processus itératif étant très long et même quasiment
interminable avec des matrices de 90 branches, on lui
préfère alors la solution matricielle.
À partir de la matrice des coefficients techniques, on écrit
un système à trois équations :
0,50X.1 + 0,01X.2 + 0,05X.3 + Y1 = X1
0,12X.1 + 0,39X.2 + 0,13X.3 + Y2 = X2
0,05X.1 + 0,1X.2 + 0,15X.3 + Y3 = X3
Soit en écriture matricielle = AX + Y = X, ou bien en
raisonnant sur les accroissements : A (ΔX) + ΔY = ΔX. Le
vecteur ΔY est connu. Ses composants sont : ΔY1 = 0, ΔY2 =
30, ΔY3 = 0.
L’écriture matricielle précédente peut encore s’écrire :
ΔY = (I – A) ΔX où I est la matrice unité (valeur 1 en
diagonale et zéro partout ailleurs). En inversant la matrice (I
– A), on obtient l’accroissement de la production ΔX que
suscite l’augmentation de la demande finale ΔY, soit : ΔX =
(I – A) –1ΔY.
De manière développée, on pose :

On voit que l’augmentation de la demande finale en


produits industriels de 30 milliards entraîne une
augmentation de la production agricole de 1,635 milliard,
des services de 6,06 milliards, tandis que la production
industrielle supplémentaire est de 50,79 milliards, et non
pas seulement de 30 milliards correspondant à l’effet direct.
Finalement, on obtient une croissance du produit final de
58,485 milliards d’unités monétaires.
4. Quelles sont les limites de la comptabilité
nationale ?
La comptabilité nationale est un système d’information
qui présente des limites, tant par sa nature que par sa
précision.
4.1. « Le produit national brut n’est pas le bonheur national
brut »
Les informations comptables sont, par nature, des
informations quantitatives. Et si, par commodité, on utilise
le produit national brut par tête ou le rapport entre le revenu
national et la population totale du pays comme indicateur de
niveau de développement ou de niveau de vie d’une nation,
on ne doit pas assimiler le PNB au BNB. Comme l’écrivait
le prix Nobel Jan Tinbergen : « Le produit national brut
n’est pas le bonheur national brut. »
La comptabilité nationale privilégie les évaluations
marchandes et monétaires, sous-estime le non-marchand
socialement organisé et ne fait aucun cas de
l’autoconsommation, de l’autoproduction et de l’économie
informelle. Par exemple, selon la remarque d’A.C. Pigou
(1877-1959) dans Economics of Welfare, p. 33, l’individu
qui épouse sa femme de ménage contribue à faire baisser le
revenu national.
Dans les pays sous-développés, un grand nombre de
services sont assurés hors marchés, alors que, dans les pays
développés, ce nombre est plus restreint. Par exemple, le
gardiennage des enfants en cas d’occupation ou de
déplacement momentané des parents directs est gratuit
lorsqu’il est assuré par la famille élargie dans les pays en
développement et il est payant dans les pays développé où
l’on fait plus souvent appel à un service marchand de
gardiennage (baby-sitting). Il en résulte une sous-estimation
du revenu moyen des uns ou une surestimation du revenu
moyen des autres. On signalera cependant que toute activité
marchande dans les économies développées n’est pas pour
autant prise en compte, car tout n’est pas toujours déclaré. Il
existe une économie souterraine ou économie informelle
qui peut représenter de 5 à 30 % du PIB selon les pays.
La comptabilité nationale enregistre les opérations sans
tenir compte de leurs conséquences sur les hommes. Toute
production est comptée positivement. À partir de ce
moment, toute inférence qualitative est contestable. En effet,
si une personne handicapée doit avoir recours à une
prothèse, la production de l’entreprise qui fournit cet article
augmente, entraînant l’augmentation du PIB. Le
raisonnement par l’absurde conduirait à préconiser que tous
les habitants soient amputés pour obtenir une prothèse afin
d’augmenter le PIB. On note aussi que la comptabilité
nationale additionne les productions ayant des effets
externes négatifs (activités polluantes, par exemple) et les
productions destinées à lutter contre les nuisances dues aux
premières. Plus généralement, comme le faisait remarquer
Bertrand de Jouvenel, le PNB est une addition de coûts et
non de satisfactions.
C’est la raison pour laquelle on a imaginé de corriger le
PNB en déduisant de sa valeur les coûts supportés pour
combattre les effets externes négatifs. Ce PNB corrigé ou
Net National Welfare (NNW) est peu opérationnel, car on ne
sait pas déterminer avec précision le seuil à partir duquel
une activité comporte des effets négatifs. En raison de cette
difficulté, on préfère généralement accompagner la
comptabilité nationale d’un tableau d’indicateurs sociaux
(taux de mortalité infantile ; indicateur d’inégalités sociales
du type origine sociale des élèves en classes scientifiques ;
taux de concentration des revenus ; durée du travail, etc.).
Les comptes satellites du SEC constituent d’utiles
compléments pour entreprendre une analyse qualitative
impossible par le seul cadre central, mais il n’existe pas un
indicateur synthétique de bien-être, car les indicateurs
sociaux ne peuvent pas s’additionner comme on le fait pour
les données comptables permettant d’obtenir le PNB.
Depuis 1990 et à la suite des travaux du Pakistanais
Mahbub ul Haq (1934-1998) et de l’Anglo-Indien Amartya
Sen (prix Nobel en 1998), le programme des Nations Unies
pour le Développement (PNUD), publie un « Indicateur de
développement humain » (IDH). Il s’agit d’un indicateur
composite combinant le revenu national par tête, le niveau
de scolarisation de la population adulte et l’espérance de vie
à la naissance. Si tous ces éléments sont objectivement
pertinents pour apprécier le progrès, il n’en demeure pas
moins évident que la pondération de ces variables dans
l’indice relève de choix subjectifs, de sorte que l’IDH
demeure un indicateur qui peut encore susciter des critiques.
4.2. Toutes les informations ne sont pas suffisamment
précises et fiables
L’agrégation de données par opération fournie par les
unités institutionnelles ne débouche sur des informations
précises que dans la mesure où les renseignements recueillis
sont fiables. Si l’hypothèse de la fiabilité est acceptable
pour les salaires, en revanche, pour les autres revenus, elle
peut être discutée, nonobstant le phénomène d’économie
souterraine.
En outre, pour les comparaisons dans le temps, il est
nécessaire de raisonner à prix constant. La référence à une
année de base répond à ce souci. Mais, à partir de l’année de
base, les années suivantes sont évaluées de façon relative
par l’estimation d’indices de volume et de prix, de telle
sorte que la précision va en diminuant d’année en année.
À ces problèmes de base s’ajoutent les changements de
nomenclature au cours du temps, qui rendent difficile
l’interprétation, sans un travail long et fastidieux de
transformations multiples des données.
Il convient enfin de reconnaître un aspect empirique à la
comptabilité nationale, qui conduit à se montrer réservé
pour certains de ces postes, comme la consommation de
capital fixe, l’évaluation de l’impact d’une dévaluation, la
variation qualitative des produits, etc.
Sachant en outre que, d’une part, la comptabilité
nationale donne lieu à de fréquents changements de
conventions et, d’autre part, qu’il existe différents types de
conventions en fonction des systèmes économiques, on ne
peut alors que reconnaître le caractère doublement relatif de
ce système d’information, expression d’un système de
valeurs et des problèmes du moment, comme l’a signalé M.
Cabiac (Introduction à la comptabilité nationale, EDF-
GDF, 1987, Miméo).
1 Ici, l’année de base indique l’année de référence pour les calculs en termes
réels, ou en prix constants, par opposition aux données en termes nominaux qui
correspondent aux prix courants, valeurs courantes ou encore valeurs nominales.
Le changement fréquent de l’année de base a pour objet de réduire la
déformation statistique se traduisant par une sous-estimation des valeurs pour les
années récentes, d’autant plus forte que la base est ancienne.
2 Dans Une histoire de la comptabilité nationale, Éditions de la Découverte,
2002.
3 Comme l’indique la fiche technique du FMI, le DTS est un instrument de
réserve international créé par le FMI en 1969 pour compléter les réserves
officielles existantes des pays membres. Les DTS sont alloués aux pays membres
proportionnellement à leur quote-part au FMI. Leur valeur est déterminée à partir
d’un panier de monnaies.
4 Le loyer d’un logement (qui est un actif produit) n’apparaît pas ici car il est
considéré comme un achat d’un service. Un actif non produit peut être un terrain.
5 Symbolisée par la lettre grecque Σ.
DEUXIÈME PARTIE
Les opérations économiques et
les marchés
Le chapitre consacré à la comptabilité nationale a permis
de voir que les principales opérations économiques sont la
production, la consommation, l’investissement et l’épargne.
L’approche en termes de flux révèle le caractère circulaire
de la relation entre production et consommation, via la
distribution des revenus. La production répond à la demande
des consommateurs, mais ceux-ci ne peuvent exprimer une
demande solvable qu’en disposant de ressources dont
l’essentiel est constitué par le revenu obtenu dans le cadre
même de la production.
L’approche en termes de comportement passe par le prix,
en ignorant le revenu, pour mettre en relation l’offre et la
demande. Ces notions plus générales et plus fondamentales
s’appliquent aussi bien aux facteurs de production, aux
moyens de financement, qu’aux biens de consommation.
Le chapitre IV portera sur l’analyse de l’entreprise et de
son activité. L’entreprise ou firme est une entité économique
autonome qui, par la combinaison de divers facteurs de
production (nature, travail, capital), produit des biens et des
services destinés au marché et distribue des revenus en
contrepartie de l’utilisation des facteurs. L’entreprise est
ainsi un centre de production, un centre de distribution des
produits, un centre de répartition des revenus. L’entreprise
pour produire exprime une demande de facteurs qui sont
offerts par les ménages (facteur travail) et par les autres
agents économiques pour les autres facteurs. La
rémunération de ces facteurs de production sera analysée de
manière fonctionnelle dans ce chapitre qui abordera, dans la
dernière section, les problèmes de répartition personnelle
des revenus.
Le chapitre V analysera la demande et la consommation
de biens finals tandis que le chapitre VI présentera la théorie
des marchés et les mécanismes d’établissement des prix.
D’un point de vue didactique, il est difficile de proposer
une progression logique et positive cohérente avec un choix
idéologique ou philosophique particulier. Par exemple la
notion de marché, qui sera approfondie dans le chapitre VI,
est indispensable dans l’analyse du comportement des
firmes à l’égard des facteurs de production. On peut aussi se
demander s’il ne faut pas commencer l’étude par la
consommation, même si logiquement on ne consomme que
ce qui a été produit. L’entrepreneur, qui cherche à faire un
profit – un écart positif entre les recettes et les coûts –, ne
peut ignorer les besoins des clients potentiels qui peuvent
être des ménages ou d’autres entreprises. Un tel ordre dans
les opérations renoue avec la conception humaniste selon
laquelle les besoins déterminent la production. Mais on doit
reconnaître qu’il est difficile d’établir un ordre de
détermination positif et d’éviter le débat pour désigner le
premier en termes d’ordre d’apparition de l’œuf ou de la
poule : un bien qui ne répond pas à un besoin peut-il être
produit longtemps, et un besoin peut-il s’exprimer pour des
biens qui n’existent pas encore ?
Certains économistes – les économistes radicaux – font
cependant remarquer qu’un tel débat est le produit d’une
idéologie marquée par l’absence de distanciation à l’égard
du système dans lequel on vit. Il existe des sociétés dans
lesquelles la filière humaniste est envisageable. On parle
alors d’une économie de besoin. En revanche, dans les
économies capitalistes, J.K. Galbraith évoque la filière
inversée : c’est la production qui détermine la
consommation. On parle alors d’une économie de profit.
Dans celle-ci, l’offre (ou la production) joue un rôle moteur
dans le changement économique et social.
L’importance accordée à la fonction commerciale dans
les entreprises, avec des services d’étude du marché qui
analysent en particulier les besoins, souligne les limites de
l’analyse en termes d’inversion de la filière : l’entreprise a
besoin de connaître le marché pour produire. On peut alors
dire que le progrès technique et les innovations de produits
ne signifient pas nécessairement une domination de la
demande par l’offre, mais probablement une réponse
nouvelle plus efficiente et/ou plus efficace à des besoins
immuables. Car en définitive, et pour prendre un seul
exemple, on n’a pas besoin d’une voiture, mais celle-ci est
un produit qui répond au besoin de se déplacer qui a
toujours existé, et les changements de modèles ne sont pas
que des incitations à remplacer sa voiture qui rend encore
service, puisque les nouveaux modèles sont d’une tout autre
qualité que les premiers apparus à la fin du XIXe siècle.
L’agent économique qui est à l’origine de cette évolution
est l’entrepreneur. C’est un individu qui prend le risque par
des innovations, dans une structure économique et sociale
aux formes juridiques les plus diverses désignée par le
terme entreprise ou firme, de réunir et de payer d’avance
d’autres facteurs de production, et dont le revenu est de
nature résiduelle. L’esprit d’entreprise n’habite pas
uniquement le propriétaire de la petite entreprise
individuelle, il peut être aussi une qualité des dirigeants
salariés des grandes entreprises aux multiples propriétaires
dénommés actionnaires ou associés. Les partenaires de
l’entreprise ou parties prenantes ne se limitent cependant
pas aux actionnaires. Le personnel, les fournisseurs, les
clients, la puissance publique, la société civile sont aussi
intéressés par l’activité de l’entreprise par les emplois
qu’elle offre, par les débouchés et les achats qu’elle
effectue, par les produits de qualité qu’elle propose à des
prix accessibles, par les impôts qu’elle paie, par le respect
de l’environnement et une stratégie de développement
durable qu’elle déploie, etc.
Chapitre 4
La production et la répartition des
revenus
La production est à la fois un processus – l’acte de
produire – et un résultat de ce processus que l’on peut
exprimer en quantités physiques (tonnes d’acier pour la
sidérurgie, nombre de barils pour l’extraction de pétrole,
nombre de clients servis pour un restaurant, etc.) ou en
valeur monétaire. La notion de chiffre d’affaires est plus
restreinte, dans la mesure où elle ne concerne que la
production vendue.
En tant que processus, la production consiste en une
combinaison de facteurs de production originels (nature,
ressources humaines) et dérivés (capital) dans un centre
appelé entreprise, en vue d’obtenir des biens et des services
– ou produits – destinés à la satisfaction des besoins des
agents économiques. La production n’est donc pas une
véritable création de richesses, comme on l’écrit souvent,
car un produit n’apparaît pas à partir de rien (la création est
toujours ex nihilo, i.e. cela ne suppose pas de facteurs
préalables). Pour produire, il faut du temps, du savoir, du
savoir-faire, des matières premières, des équipements, un
environnement qui facilite cette activité, etc. L’utilisation de
ces facteurs donne lieu à une rémunération qui permet à
leurs offreurs ou fournisseurs de disposer de revenus pour
faire face à leurs dépenses présentes ou/et à leurs dépenses
futures en plaçant ou en thésaurisant une partie du revenu
épargnée. Les rémunérations des facteurs correspondent ici
à la répartition fonctionnelle. qu’on distingue de la
répartition personnelle. L’analyse de celle-ci consiste en une
analyse de la distribution des revenus et à des politiques de
redistribution pour corriger des inégalités socialement
insupportables sans nuire au dynasmisme de l’activité
économique. Pour le centre de l’activité productive, ces
différentes rémunérations sont des coûts de production. La
relation entre le volume des facteurs de production et le
niveau de la production constitue une fonction de
production.
1. Les théories de la firme
La théorie néoclassique ne connaît que le producteur,
agent microéconomique sans aucune épaisseur sociale. Elle
ignore l’organisation, comme l’écrit Alain-Charles
Martinet1. La firme analysée en tant qu’organisation sociale
qui a des objectifs et une stratégie est l’objet de la nouvelle
économie institutionnaliste.
Ronald Coase, représentant de ce néo-institutionnalisme
écrit, dans son célèbre article « La nature de la firme »
(1937), que pour satisfaire ses besoins, l’agent économique
peut entreprendre de faire lui-même le produit ou bien le «
faire faire ». Cela signifie que la firme et le marché sont les
deux formes alternatives de coordination de la production
(en anglais cette alternative ou problématique coasienne
correspond à l’expression « make or buy »). Entre les deux,
il y a cependant place pour la coopération, les alliances, la
quasi-intégration, la sous-traitance et diverses autres formes
de l’impartition.
Dans le « faire faire », l’agent s’adressera au marché pour
obtenir les produits qui satisferont ses besoins. Mais encore
faut-il que ces produits soient disponibles sur le marché, que
les prix soient avantageux, que les vendeurs n’aient pas de
comportements opportunistes en ne proposant pas de
mauvais produits qu’ils font passer des bons, profitant de
l’ignorance de l’acheteur. Le recours au marché comporte
de la sorte des coûts de transaction dus à l’imperfection du
marché (on ne peut tout savoir sur tout). Ces coûts
consistent en coûts de recherche d’information, d’expertise
des produits à la livraison. Ils se rajoutent au coût du
produit. Produire soi-même, c’est l’activité de l’entreprise et
ce n’est pas sans coût non plus. On doit se demander si l’on
dispose des moyens nécessaires, des compétences
humaines, si les quantités produites permettent d’avoir un
coût plus faible que sur le marché qui, sauf spécificité de
l’utilisation du produit par un seul agent, est susceptible de
fournir le produit à un plus grand nombre d’acheteurs. Cette
approche comparative de la firme coasienne actualisée par
Oliver Williamson en 19732 aurait tendance à faire croire
que l’on produit pour soi et que l’excédent est vendu sur le
marché. Une telle conception a correspondu à une phase du
développement des sociétés humaines. La firme moderne
produit pour le marché. Elle peut être aussi bien une
entreprise individuelle qu’une entreprise en société. Dans le
premier cas, la propriétaire est une seule personne physique,
Dans le deuxième cas, la propriété de l’entreprise est
collective. Les propriétaires peuvent déléguer la direction de
l’entreprise à l’un d’entre eux ou à un technicien, et
quelquefois à un directoire de techniciens. Ce phénomène
de technostructure, selon l’expression de John Kenneth
Galbraith, s’est développé dès la fin du XIXe siècle. Et
James Burnham parle de révolution managériale selon le
titre en anglais de son livre de 1944 traduit en français :
L’Ère des organisateurs.
Si être propriétaire n’est pas une garantie de disposer de
compétences pour diriger efficacement une grande
entreprise, la délégation à des techniciens ne résout pas tous
les problèmes. L’autonomie des managers en particulier
suscite un besoin de contrôle de la part des propriétaires.
C’était déjà ce qu’exprimait l’analyse proposée par Berle et
Means, évoquée plus haut, sur les conséquences de la
séparation de la propriété et de la direction de l’entreprise.
Cette analyse en termes de contrôle et de gouvernance de
l’entreprise reprend de la vigueur dans les années 1970 par
deux importants travaux : l’un relève de la théorie des droits
de propriété, l’autre porte sur la théorie de l’agence.
Armen A. Alchian et Harold Demsetz proposent en 19723
de répondre de manière plus sophistiquée à la question
coasienne. Cette sophistication se manifeste par la prise en
compte de la dimension managériale au sens de gestion
interne des hommes dans l’organisation, des hommes qui
peuvent faire transférer sur d’autres, dans un travail en
équipe, les tâches pénibles, sans respecter le contrat de
travail. C’est donc une des premières prises en compte du
phénomène d’aléa moral dans l’analyse économique de la
firme.
Face à la contestation marxiste de l’autorité dans la firme
(années 1960), Alchian et Demsetz écrivent que la direction
de l’entreprise à l’égard des salariés « n’a ni pouvoir de
décréter, ni autorité, ni action disciplinaire différente dans le
moindre degré de la contractualisation marchande ordinaire
entre deux personnes » (passage au début de l’article, p.
777). Le contrat entre l’employeur et le travailleur salarié
est de même nature que le contrat entre l’épicier et son
client qui cherche à acheter une boîte de thon. La firme se
distingue cependant du marché par la nécessité de produire
en équipe, par complémentarité des facteurs de production.
Or dans un travail d’équipe, il est difficile d’identifier la
productivité de chacun pour aligner la rémunération « juste
». Afin d’éviter les resquilleurs, les passagers clandestins,
les auto-stoppeurs, il faut qu’un membre de l’équipe
surveille tous les autres avec une autorité reconnue. Ce
contrôleur fait des contrats avec chacun des facteurs. Il peut
renégocier les contrats individuellement, il reçoit en
contrepartie le produit résiduel et le droit de vendre son
droit de contrôle. La firme moderne est donc une structure
contractuelle.
Cette approche contractualiste de la firme prend une autre
direction, avec la théorie de l’agence, que celle de la
justification de l’entreprise et du profit comme rémunération
résiduelle du pouvoir de contrôle, face aux critiques
marxistes.
La théorie de l’agence analyse la relation propriétaire(s)
et direction salariée, dite relation d’agence, afin d’identifier
les problèmes et les solutions apportées avec leurs coûts et
avantages. Elle analyse ce type de situations dans lesquelles
un acteur dit agent affecte, par son comportement, les
intérêts d’un autre acteur appelé principal. La définition la
plus classique d’une relation d’agence est donnée par
Michael Jensen et William Meckling, dans leur article
historique de 1976 :
« Nous définissons une relation d’agence comme un
contrat par lequel une (ou plusieurs) personne (le principal)
engage une autre personne (l’agent) pour exécuter en son
nom une tâche quelconque qui implique une délégation d’un
certain pouvoir de décision à l’agent. » Cette relation
recouvre en fait « toute relation entre deux individus telle
que la situation de l’un dépende d’une action de l’autre » :
l’individu qui agit est l’agent, la partie affectée est le
principal4.
Comme déjà Berle et Means l’avaient signalé, le
propriétaire et le dirigeant salarié non-propriétaire n’ont pas
nécessairement la même fonction objectif. Ainsi dans le cas
d’une société par actions (société anonyme, société en
commandite par actions), le propriétaire actionnaire
recherche des dividendes de plus en plus élevés d’année en
année ; il peut rechercher aussi une augmentation de la
valeur de son action pour obtenir une plus-value financière
sur le marché secondaire ou marché de l’occasion des titres
de propriété, marché secondaire plus connu sous le nom de
bourse des valeurs mobilières. Le dirigeant ou manager,
quant à lui, peut vouloir rechercher la croissance de la
firme, ce qui conduira à ne pas distribuer tous les bénéfices
annuels sous la forme de dividendes ; il peut chercher aussi
à améliorer sa propre rémunération ; en tout cas, il peut
avoir des objectifs distincts pour ne pas dire éventuellement
opposés à ceux des propriétaires.
Par ailleurs, le propriétaire dit principal ou mandant, en
déléguant la gestion à un agent ou mandataire ou encore
délégué, prend un risque de ne pas avoir accès à toute
l’information. Ce risque est un risque moral sur le
comportement du directeur salarié. Il peut en effet exister un
phénomène d’asymétrie de l’information, en ce que l’agent,
par sa position, dispose de davantage d’information sur la
gestion de l’entreprise. Par un comportement opportuniste,
il peut masquer une partie de l’information qu’il délivre aux
actionnaires qui le contrôlent, afin de garder son pouvoir et
les attributs qui vont avec.
Actionnaire et dirigeant salarié n’ont pas nécessairement
des fonctions d’utilité ou des objectifs convergents. Comme
le fait remarquer Eugene F. Fama (1980), la divergence des
intérêts de chacun est accentuée par la différence des risques
encourus5. Pour l’actionnaire le risque se limite à la perte de
ses apports, mais il a la possibilité de ne pas « mettre tous
ses œufs dans le même panier ». Cette possibilité n’existe
pas pour le dirigeant qui ne peut pas être dirigeant dans
plusieurs sociétés différentes. Et si l’entreprise qu’il dirige
bat de l’aile, il risque d’être licencié, dévalorisant ses
compétences sur le marché du travail. C’est dire que le
risque encouru par le dirigeant est d’une tout autre
importance que la petite perte de l’actionnaire. La pérennité
de l’entreprise est donc un objectif plus important pour le
dirigeant que de se préoccuper de verser des dividendes aux
actionnaires. Mais il ne doit pas se mettre à dos les
actionnaires car ils ont la possibilité de le remercier en
vendant leurs actions à des gros investisseurs qui choisiront
un autre directeur. Il est donc de leur intérêt d’entreprendre
des investissements moins risqués et plus rentables à long
terme que ce qui serait souhaitable du point de vue de
l’actionnaire.
Le problème pour le principal est de trouver le moyen
soit de réduire l’asymétrie de l’information, soit d’agir sur
le comportement de l’agent afin que le principal ne soit pas
lésé ou pénalisé. La théorie de l’agence s’ouvre donc sur la
théorie des incitations, dont les développements doivent
beaucoup aux travaux de Jean-Jacques Laffont (1947-2004).
Une surveillance attentive de l’agent afin de faire respecter
les intérêts du principal comporte un coût – coût de
surveillance – auquel peut s’ajouter le coût de l’incitation
comme par exemple les stocks options (droit de se porter
acheteur pour un volume donné d’actions de la firme à un
prix privilégié6. Le dirigeant, à son tour, doit donner des
informations et des garanties qui représentent un coût pour
prouver qu’il respecte les intérêts des propriétaires. On parle
de coût d’obligation. Il faut aussi ajouter la perte résiduelle
ou coût d’opportunité qui correspond au manque à gagner
lié à l’existence même de la délégation. La perte résiduelle
est ici le manque à gagner par le principal et par l’agent si le
contrat avait été fait avec un autre. Ces trois coûts (coût de
surveillance et d’incitation, d’une part, coût d’obligation –
information et garanties – d’autre part, et perte résiduelle,
enfin) constituent des coûts d’agence.
Les parties prenantes de la firme ne se réduisent pas à ces
deux acteurs seulement : le propriétaire et le directeur ou
manager. Une approche plus extensive désigne par partie
prenante (en anglais : stakeholder) tout acteur impliqué par
l’activité de l’entreprise. Il s’agit, comme cela a été indiqué
en introduction de cette partie, de l’ensemble des salariés,
des fournisseurs de matières premières et des biens
instrumentaux, des institutions financières qui prêtent les
moyens de financer ces biens ou avancent la trésorerie et
répondent au besoin d’assurance, des clients dont le nombre
et la fidélité garantissent le maintien de l’activité productive
et, enfin, des pouvoirs publics avec les administrations
locales qui fournissent les biens collectifs. L’entreprise n’est
alors plus une organisation sociale mais une structure
contractuelle, un nœud de contrats entre différents acteurs7.
Ces acteurs se répartissent dans trois catégories : les facteurs
de production, les débouchés et les facteurs institutionnels
de la politique économique. La prochaine section analysera
les facteurs de production, réservant les chapitres V et VI
aux débouchés, les chapitres VII à XII à la politique
économique.
2. Les facteurs de production
Avant d’entreprendre l’analyse de chacun des facteurs de
production ou forces productives, il convient en premier lieu
de les recenser.
2.1. Y a-t-il une trinité factorielle ?
2.1.1. Nature, travail, capital
La trinité factorielle est la conception la plus courante.
Elle distingue la nature ou facteur terre, le travail ou
ressource humaine, et le capital.
Pour certains économistes, notamment marxistes, une
telle conception n’est pas neutre. Elle procède d’une
idéologie selon laquelle les facteurs sont situés sur un même
plan, en vue de justifier la rémunération du capital sous
forme de profit, et de pouvoir ainsi réduire la part de la
valeur ajoutée qui rémunère la force de travail.
Une analyse logique et un examen attentif des écrits des
économistes révèlent cependant qu’aucun doute n’existe sur
le caractère dérivé du capital. Il résulte de la combinaison de
la nature et du travail qui sont alors considérés comme des
facteurs originels. Par conséquent, les facteurs ne sont pas
sur un même plan.

Fig. 4.1
. Les facteurs de production et le circuit
économique
Mode de lecture : les flèches en lignes
continues sont les premières déterminations,
l’absence de flèche est synonyme de confusion
des valeurs et des périodes. Les lignes
discontinues rétroactives correspondent à une
deuxième phase. L’épargne permet le
financement de l’investissement, l’investissement
permet de constituer le capital, l’ensemble des
dépenses justifient l’activité de production.
2.1.2. Le facteur résiduel et la croissance endogène
D’un point de vue positif, la trinité factorielle n’est pas
satisfaisante, car l’expérience a montré que la production
peut augmenter sans qu’il y ait pour autant une
augmentation de même importance des facteurs identifiés. Il
existe ainsi des facteurs cachés, parce que incorporés dans
les facteurs visibles. Il peut s’agir de la qualité des matières
premières, de la main-d’œuvre, des équipements. Il peut
s’agir aussi de la qualité de l’environnement socio-
économique ou de l’organisation et de la dimension de
l’entreprise.
Tous ces éléments sont difficiles à isoler et ils sont mal
quantifiables. Lorsque, dans l’entreprise, la production
augmente sans qu’il y ait de croissance dans les facteurs
exogènes, comme par exemple le nombre de travailleurs et
le volume des équipements, et sans qu’il soit possible
d’identifier la cause de la croissance, Harvey Leibenstein
propose de nommer ce phénomène « efficience X », « X »
étant le symbole de ce qui est inconnu. Il peut aussi bien
caractériser la qualité des facteurs objectifs que le rôle de
l’organisation que l’économie standard a tendance à
négliger : les bonnes conditions de travail, l’adaptabilité, la
flexibilité organisationnelle, un bon climat social dans
l’entreprise, etc. sont quelques éléments qui relèveraient du
facteur X. En macroéconomie, on parle de facteur résiduel,
du résidu de Solow8 ou encore de tiers facteur en raison de
la méthode de sa mise en évidence. On ne peut le constater
qu’après avoir calculé l’influence directe des facteurs
traditionnels.
Plus récemment, un effort de recherche a été entrepris
pour tenter de réduire la part inexpliquée de la croissance.
Selon ces travaux, la croissance qui n’est pas expliquée par
les facteurs exogènes identifiables est en grande partie la
croissance due à des facteurs endogènes.
Les théoriciens de la croissance endogène (P. Romer, R.
Lucas, Ph. Aghion, Howitt, etc.) indiquent que le
phénomène peut être dû aux externalités positives produites
par la firme qui investit et par l’intervention de l’État. Le
propre de ces externalités est de profiter à l’ensemble des
firmes de l’économie considérée. Le phénomène
d’apprentissage au cours de la production (« learning by
doing », présenté en 1962 par K. Arrow et repris en 1986
par P. Romer), la diffusion du savoir dans la société, les
investissements publics en infrastructures, en éducation, en
recherche et développement (R & D) sont les principales
sources étudiées pour expliquer la croissance endogène.
L’expression croissance endogène se justifie doublement.
En premier lieu, les facteurs résiduels qui jouent un rôle
important dans la croissance de la production à long terme
peuvent être expliqués. En deuxième lieu, ces facteurs de la
croissance sont aussi des produits de la croissance elle-
même. Par exemple, les infrastructures de transport ne
peuvent être développées que si la puissance publique est en
mesure de les financer, or les recettes de l’administration
sont dépendantes du niveau du revenu national et même du
revenu par tête que l’on retient comme un indicateur du
développement économique. Ainsi, avec la théorie de la
croissance endogène, on retrouve le phénomène de la
causalité circulaire cumulative du développement déjà
présenté dans le premier chapitre.
Si l’on se sert de la présence d’un type de rémunération
comme révélateur de l’existence d’un facteur, tandis que le
niveau révèle la qualité du facteur, cette démarche inductive
conduit à rejeter l’approche trinitaire, dans la mesure où elle
ignore la distinction entre les capitalistes, qui perçoivent des
intérêts pour les capitaux prêtés, et les entrepreneurs, qui
constatent un profit éventuel après avoir rémunéré
l’ensemble des autres facteurs et vendu la production.
Toutefois, pour une analyse quantitative des facteurs, nous
ne progressons pas par rapport à la trinité. Le facteur
entreprise ou l’entrepreneur est qualitatif. Son influence sur
le niveau de la production est intégrée dans le facteur
résiduel.
2.2. La nature
Le facteur nature, dans sa capacité productive, se
manifeste par l’espace tridimensionnel, par les matières
premières végétales, minérales et animales. Relève
également de la catégorie matières premières l’énergie
primaire (pétrole, gaz, charbon, soleil, vent, marées,
hydroélectricité). Les éléments du facteur nature sont en
principe non transformés (sauf pour l’hydroélectricité,
classée conventionnellement dans les sources d’énergie
primaire). Le facteur naturel n’existe de manière autonome
que tant qu’il n’est pas exploité. Mais, une fois disponible
pour la production directe, le facteur nature n’est déjà plus
seul. Il est un produit, primaire sans doute dans le langage
conventionnel, qui incorpore du travail.
2.2.1. La nature naturante9
Mis à part les terrains de construction et les terrains
agricoles qui sont durables et, à ce titre, ne font pas l’objet
d’amortissement, i.e. de constatations de leur usure,
généralement le volume des éléments naturels et/ou le
temps d’utilisation des stocks disponibles sont limités. Ce
dernier caractère a été fortement ressenti dans les années
1930 (Paul Valéry déclarait : « Le temps du monde fini
commence », Regards sur le monde actuel, Gallimard) et
dans les années 1970 (crise de l’énergie de 1973). La
limitation et l’épuisement probable de certaines ressources
naturelles se traduisent par l’augmentation de leur prix.
Ce phénomène, déjà analysé par les classiques (cf. chap.
2) dans le cadre de la théorie de la rente foncière (terrain) et
de la rente tréfoncière ou minière (pour les richesses du
sous-sol), fonde une certaine vision pessimiste du monde
dans laquelle on trouve la thèse du déterminisme
géographique (voir encadré : le modèle du Club de Rome).
Le découpage « Nord-Sud », recouvrant la distinction
pays riches-pays pauvres, alimente cette vision de la nature
naturante héritée de la figure du cercle grec de l’éternel
retour des saisons, du cycle de vie : le rythme de l’activité
est dicté par le rythme de la nature. Les cycles des taches
solaires et des mouvements des planètes ont même été mis
en relation avec les cycles conjoncturels, à la fin du XIXe
siècle (Jevons, Moore). En 1951, Raymond Wheeler publie
un important ouvrage avec de nombreuses données
statistiques qui font apparaître l’existence de différents
types de cycles d’origine climatiques, de 100, 500 et 1 000
ans. Le climat est une combinaison de deux phénomènes :
d’une part, le degré d’humidité ou de sécheresse et, d’autre
part, la température. Il existerait des climats favorables au
développement des civilisations. Il s’agit des climats
tempérés avec une humidité moyenne. Les grands froids
humides ou secs, les grandes chaleurs sèches ou humides ne
sont pas favorables à l’activité humaine. Formulés ainsi, les
cycles de Wheeler apparaissent comme une évidence. Et
pourtant, il est préférable de les considérer comme des
hypothèses, car malgré les données qu’il a recueillies, le
nombre de cycles mis en évidence n’est pas suffisant pour
attester le phénomène.
Le sentiment que la nature est naturante, partagé
d’ailleurs par ceux qui ont recours à l’astrologie, n’est pas
nécessairement pessimiste, comme les physiocrates l’ont
exprimé. La terre est source de toute richesse, à condition de
respecter l’ordre naturel et de permettre aux paysans de
s’enrichir (cf. la maxime de F. Quesnay : « pauvres paysans,
pauvre royaume »). Mais c’est un optimisme tout relatif, car
même si l’univers est en expansion, à l’horizon de ce qui est
calculable pour l’humanité, il est difficile d’ignorer que les
ressources naturelles fossiles, d’accès plus aisé et donc
exploitées en premier lieu par l’homme, finiront par
s’épuiser.
Le problème du développement durable dans le rapport du Club de Rome
1972 : « Halte à la croissance ! »

À partir d’un modèle d’analyse systémique, i.e. prenant


en compte des sous-ensembles et les interactions existant
entre eux, Dennis et Donella Meadows ont rédigé un
rapport, à la demande du Club de Rome (club réunissant
diverses personnalités de différents pays), rendant compte
du comportement du modèle, dont les principales fonctions
sont : la population, le produit industriel par tête, le quota
alimentaire individuel, l’indice de pollution, le stock
résiduel de ressources naturelles non renouvelables.
Pour avoir une idée du comportement global du modèle,
hors de toute intervention pour économiser les ressources
naturelles ou pour augmenter la productivité agricole, il
suffit de reprendre la parabole du nénuphar qui double de
superficie chaque jour sur un étang et qui couvre cet étang
en trente jours, tuant ainsi toute vie aquatique. La question
que pose le préfacier du rapport est celle-ci : au bout de
combien de jours le nénuphar aura-t-il couvert la moitié de
l’étang ? La réponse est : le 29e jour. Cette parabole illustre
la situation de l’humanité au regard des ressources
naturelles qui la font vivre : elle est à l’aube de son 29e jour.
Ce modèle pessimiste a reçu de nombreuses critiques.
Certaines mettent l’accent sur les fonctions utilisées,
d’autres sur le caractère mécaniste et global du modèle en
ayant une mauvaise estimation des ressources disponibles.
En effet, les auteurs ont opté pour des évolutions
exponentielles pour les phénomènes importants comme
l’évolution démographique ou l’évolution de
l’investissement, négligeant ainsi des changements de
comportement probables, changements qui peuvent aussi se
manifester dans la consommation, susceptible de s’orienter
vers les services plutôt que vers une augmentation des biens
industriels.
L’offre est déterminée par la possibilité de disposer de
ressources naturelles renouvelables (comme l’eau par
exemple) et de ressources naturelles non renouvelables
(comme par exemple les ressources fossiles, y compris l’eau
au Sahara ou au sud de l’Espagne). Cette possibilité est
modulable par le jeu du progrès technique et le prix du
marché.
La demande est l’expression de besoins qui sont
fondamentalement déterminés par la croissance
démographique et le niveau de vie. Commençons par la
démographie
L’extrapolation des tendances donne 12 milliards
d’habitants en 2100 en utilisant la règle de la progression
géométrique du doublement en 72 ans pour 1 % annuel
corrigée par l’évolution à la baisse du taux de fécondité
(nombre d’enfants par femme de 15 à 49 ans) dans les pays
en développement (PED) et par l’augmentation de
l’espérance de vie à la naissance.
Les travaux du Conseil mondial de l’énergie CME
indiquent un doublement de la consommation d’énergie
jusqu’en 2030 et un quadruplement jusqu’à la fin du
prochain siècle (40 GTep10. La distribution des sources
d’énergie primaire se modifiera sur le siècle. Les énergies «
propres » et « renouvelables » pourront y participer à raison
de 25 à 36 %. Le reste devra être pris en charge par ce qui
restera des sources fossiles et par l’énergie atomique
inévitable pour limiter le plus possible l’émission des gaz à
effet de serre et surtout après, quand on aura épuisé les
réserves de sources fossiles.
La moyenne des prévisions situe la consommation
d’énergie en 2100 au quadruple de l’actuelle (2009), par
doublement de la population et doublement de la
consommation par tête (des besoins de 40 Gtep). En même
temps, les réserves d’énergies fossiles (charbon, pétrole, gaz
naturel) diminueront, leur extraction deviendra toujours plus
difficile, leur prix augmentera et le jour viendra où elles
seront épuisées. L’horizon de cet épuisement est difficile à
prévoir car, en période d’abondance (comme actuellement
pour le pétrole, le gaz et le charbon), la prospection est
ralentie sinon arrêtée et les réserves sont mal évaluées, ce
qui donne des remarques du type : « Cela fait 40 ans que
l’on nous dit qu’il ne reste plus que 40 ans de réserves de
pétrole dans le monde. »
Les réserves correspondent aux quantités dont l’existence
est certaine ou prouvées. En parallèle on calcule quelles
pourraient être les réserves possibles. Avec l’exemple du
pétrole, nous allons voir que les valeurs de réserves, même
prouvées, sont en fait très incertaines. Les calculs sont
incertains pour plusieurs raisons (économique, techniques,
politiques). La raison économique est connue : c’est le prix
de vente du produit qui détermine la rentabilité et donc le
montant des réserves exploitées. Par exemple, en 2007,
lorsque le prix du baril a franchi le seuil des 50 $ (il a même
atteint 147 $ en 2008), les réserves du Canada passent de 5
milliards de barils de pétrole classique à 180 milliards de
barils, car il était devenu rentable d’exploiter le pétrole
lourd des sables bitumineux.
Il y a aussi des raisons techniques. Le comportement d’un
gisement pendant sa phase de production est difficile à
prévoir. Le facteur de récupération (le pourcentage de
pétrole contenu dans le sous-sol qu’on parviendra à ramener
à la surface) n’est connu qu’à la fin de la vie du gisement.
Chaque compagnie pétrolière a aussi ses méthodes de calcul
des réserves. Les aspects politiques ne sont pas toujours
absents, car l’information sur le niveau des réserves est une
publicité sur le poids politique du pays. Toutefois, quels que
soient les problèmes de mesure, l’offre de pétrole, comme
pour toute matière première fossile, ne pourra pas toujours
suivre une demande toujours croissante.
Le maximum ou pic à partir duquel la production va
commencer à diminuer, lentement mais inexorablement, est
appelé Pic d’Hubbert, du nom du géologue américain King
Hubbert. À partir de toutes les données de production, de
réserves, d’historique des découvertes d’une matière
première donnée, Hubbert a montré en 1956 qu’il est
possible de prévoir la courbe de production mondiale de
cette matière première. Elle prend une forme d’une courbe
en cloche : croissance, sommet, déclin inexorable. Un débat
entre experts s’est instauré pour déterminer la date du pic.
Ce qui est certain, c’est que dans très peu de temps par
rapport à l’histoire de l’humanité, la plus grande partie de ce
que nous fournit la Terre se raréfiera (donc se renchérira) et
l’humanité devra de plus en plus vivre en autarcie, i.e. en
recyclant tout.
L’Annuaire sur l’avenir de l’environnement mondial en
2007 (Annuaire GEO 2007, lancé à la 24e session du conseil
d’administration du PNUE/Forum ministériel mondial sur
l’environnement) indique que les 80 scientifiques qui ont
participé à la rédaction du rapport préparatoire de la réunion
de Nairobi estiment qu’à moins que de nouvelles mesures
de gestion ne soient adoptées, la demande croissante de
fruits de mer et d’autres produits marins mènera à
l’épuisement des réserves halieutiques en 2050. Le
changement climatique risque d’aggraver la situation en
augmentant l’acidité des océans et des mers, et en favorisant
le blanchissement des récifs coralliens qui sont d’importants
viviers de poissons.
Dans son rapport bisannuel sur l’empreinte écologique de
l’homme sur son environnement, i.e. la mesure de la
pression qu’exerce l’homme sur la nature, le Fonds mondial
pour la nature (WWF) indique : « Sur la base des
projections actuelles, l’humanité utilisera (l’équivalent de)
deux planètes en termes de ressources naturelles d’ici à
2050. » L’excès de consommation par rapport à la
régénération des ressources atteignait déjà 30 % en 2008, 25
% en 2003 contre 21 % en 2001. En d’autres termes, la
Terre a mis un an et 4 mois et 16 jours à produire ce que les
activités humaines ont consommé durant l’année 2008.
Le WWF calcule l’empreinte écologique d’une
population en évaluant la surface productive nécessaire pour
répondre à sa consommation de ressources et pour absorber
ses déchets. Selon WWF, l’empreinte de l’humanité a
commencé à dépasser les ressources naturelles à partir des
années 1980 et a été multipliée par trois entre 1961 et 2003.
En 2003, elle représentait 2,2 hectares par habitant, alors
que la Terre ne peut offrir que 1,8 ha par tête, selon le
rapport.
En termes plus prescriptifs, les recommandations les plus
cohérentes avec cette prospective indiquent qu’il faut penser
à moins consommer, à moins polluer et s’en tenir à une
programmation d’une croissance zéro : c’est ce qu’on a
appelé, à la suite du premier rapport du Club de Rome, le
zégisme ou le retour des doctrines malthusiennes. C’est
l’horizon de l’état stationnaire prophétisé d’abord par
l’Arabo-Indien Ibn Ahmad Alberuni (973-1048), premier
précurseur discuté du darwinisme11, puis par le pasteur
Robert Malthus, le précurseur reconnu (1798), le financier
David Ricardo (1817), le philosophe John Stuart Mill
(1848) : la croissance perpétuelle est impossible.
2.2.2. La nature naturée
La vision industrialiste et humaniste (Saint-Simon, K.
Marx) rejette le déterminisme géographique, ou du moins
elle en limite la portée. Les facteurs primordiaux de
l’activité économique et de la répartition de ses fruits entre
les individus sont situés dans l’organisation sociale et dans
les logiques des systèmes sociaux. La nature est maîtrisable,
pour être mise au service de l’homme.
Cette conception de la nature naturée ou transformée peut
trouver de nombreux arguments empiriques : il suffit
d’évoquer l’agriculture hors sol, la possibilité offerte par la
climatisation pour travailler dans des lieux peu propices
auparavant, la découverte ou la mise au point de nouveaux
procédés et de nouveaux produits adaptés à certains sols et
certains climats (« révolution verte » en Inde, au Mexique),
etc.
Comme cela a déjà été signalé précédemment,
l’optimisme de la nature naturée ne peut cependant ignorer
le phénomène de l’épuisement des ressources minières,
même si l’augmentation des prix conduit à de nouvelles
découvertes. Les politiques économiques
d’approvisionnement et de gestion des ressources naturelles
inspirées par des motifs aussi bien stratégiques
qu’écologiques consisteront alors à réguler l’extraction, à
encourager le recyclage des déchets et des produits usés, à
inciter la mise au point de procédés qui économisent les
facteurs naturels, etc. C’est un peu l’esprit du slogan du
zégisme préconisant un taux de croissance zéro (zero
growth) à la suite du premier rapport du Club de Rome (voir
encadré).
Encadré Le développement durable dans le rapport Bruntland

le rapport de Madame Bruntland devant l’ONU (Notre


avenir à tous, 1987) désigne par développement durable un
développement qui cherche à satisfaire les « besoins
présents sans compromettre la capacité des générations à
venir à satisfaire leurs propres besoins ».
Les impératifs stratégiques ou objectifs critiques du
développement durable selon le rapport Notre avenir à tous
(p. 58) sont les suivants :
1 reprise de la croissance ;
2 modification de la qualité de croissance ;
3 satisfaction des besoins essentiels en matière
d’emploi, d’alimentation, d’énergie, d’eau et de
salubrité ;
4 maîtrise de la démographie ;
5 préservation et mise en valeur de la base de
ressources ;
6 réorientation des techniques et gestion des risques ;
7 intégration des considérations relatives à l’économie
et à l’environnement dans la prise de décisions.
Par la prise en compte des contraintes économiques,
sociales et environnementales, le développement durable
correspond à l’intersection de trois préoccupations ou
piliers. Il doit être équitable, du point de vue social et
économique, vivable du point de vue social et
environnemental et viable du point de vue environnemental
et économique (cf. schéma ci-après, tiré de l’article «
Développement durable » de Wikipédia).

Figure 4.0
. Les trois piliers constitutifs du
développement durable
Les prescriptions du rapport Bruntland (Notre avenir à
tous, 1987) sur le développement durable, puis le protocole
Kyoto (1991) pour limiter la pollution atmosphérique, et
l’institution subséquente du marché des permis ou droits de
polluer pour compléter ou se substituer à la taxe « pollueur-
payeur » relèvent de cette philosophie qui cherche à assurer
ou à léguer un avenir possible à nos descendants. Plus
explicitement, pour le rapport de Mme Bruntland, le
développement durable est ce qui « satisfait les besoins
présents sans compromettre la capacité des générations à
venir à satisfaire leurs propres besoins ».
2.3. Le facteur travail
2.3.1. Qu’est-ce que le travail ?
Le mot travail a plusieurs sens, dans le langage courant.
Par exemple, les femmes qui se préparent à un
accouchement sont dans une salle de travail ; en allant
prendre ses fonctions dans une entreprise, on dit que l’on va
au travail. On utilise quelquefois indifféremment emploi et
travail, de sorte qu’un individu qui recherche un emploi
déclare chercher un travail.
En tant que facteur de production, le travail est
l’ensemble des services correspondant aux ressources
humaines qui participent à la production et qui reçoivent
une rémunération sous forme de salaires, de traitements, de
gages (dans la conception étroite du travail) et d’honoraires
(dans la conception élargie intégrant le travail non salarié
que l’on devait honorer).
Le travail salarié et le travail non salarié peuvent faire
l’objet de subdivisions plus fines en catégories
socioprofessionnelles qui tiennent compte du secteur
d’activité (agriculture, industrie, commerce, service), du
statut (patrons, artisans, exploitants, professions libérales,
salariés, fonctionnaires, retraités, sans emploi) et de la
qualification (ouvrier, employé, cadre). Dans le cadre de ce
paragraphe, seul le travail salarié sera examiné, par la
présentation des notions d’offre de travail et de demande de
travail. Le problème du chômage, qui constitue la plus
importante forme de gaspillage du travail, ne sera examiné
qu’au chapitre 9, dans la 3e partie consacrée aux problèmes
économiques contemporains
2.3.2. L’offre de travail et la renonciation au loisir
D’un point de vue global, l’offre de travail correspond à
la main-d’œuvre. Le volume de la main-d’œuvre dépend de
données démographiques et de données sociales. Une
longue période caractérisée par de forts taux de natalité
annuels est suivie fatalement par d’importants volumes
d’offre de travail vingt ans après l’année de naissance de la
première cohorte, et cela sur une période aussi longue que
celle pour laquelle le taux de natalité était élevé. Les
données sociales concernent notamment l’importance de la
main-d’œuvre féminine dans la population active totale.
Statistiquement et conventionnellement, la main-d’œuvre
comprend la population active employée et les personnes
sans emploi qui en recherchent un, ainsi que les membres du
clergé. En sont exclus, selon les conventions en vigueur en
France, les étudiants, les retraités, les personnes retirées des
affaires, les ménagères non associées au travail d’un
membre de la famille. Plus récemment, les bénéficiaires de
stages en entreprise et des contrats emploi-formation sont
inclus dans la population active.
Au-delà de ces conventions, le facteur travail salarié,
pour une période donnée, est le produit du nombre de
personnes occupées par le nombre d’heures réalisées au
cours de cette période, en tenant compte des caractéristiques
moyennes de la population (niveau de formation et de
qualification, âge, etc.).
Les caractéristiques moyennes invitent ainsi à ne pas voir
dans le travail une simple force physique qui serait
indépendante de la formation, de la santé et de l’aptitude à
la mobilité. Tous ces éléments conduisent certains
économistes (Gary S. Becker) à définir le travail comme du
capital humain, dans la mesure où toutes ces qualités ou
caractéristiques intangibles constituent un stock d’aptitudes
acquises pour se procurer un revenu d’autant plus élevé que
les investissements en éducation ont été importants en
termes de dépenses effectives et de coûts d’opportunité
(pertes consenties en ne travaillant pas du fait de la
poursuite des études). Cependant, on distingue
habituellement les connaissances technologiques (ensemble
des connaissances dans la production) et le capital humain
nécessaire pour les acquérir ; Le capital humain est
couramment mesuré en durée de formation et
d’apprentissage
Avec la théorie du capital humain qui applique l’analyse
de l’entreprise aux choix de l’individu, on ne fait
qu’actualiser la vieille théorie de R. Cantillon (1755).
D’un point de vue microéconomique, perspective
d’origine de la théorie de Becker, l’offre de travail par un
individu aux caractéristiques moyennes obéit à la logique de
maximisation de ses satisfactions sur l’ensemble de sa vie.
Le travail est une renonciation au loisir pour se procurer un
revenu nécessaire à la consommation. L’individu moyen est
alors confronté à un arbitrage entre, d’une part, la
satisfaction que procure le loisir et, d’autre part, la
satisfaction obtenue par la consommation de biens. Le
principe de maximisation des satisfactions, qui caractérise
l’individu moyen, l’oblige à exiger un salaire de plus en
plus élevé au fur et à mesure qu’on lui demande de sacrifier
de plus en plus son temps de loisirs. Le temps de loisirs
devenant de plus en plus rare ou limité, sa valeur augmente.
L’offre de travail est ainsi une fonction croissante du
salaire, traduisant le jeu de l’effet de substitution entre le
loisir et le travail. Si le salaire diminue, le loisir augmente,
pour

Fig. 4.2
. : Offre atypique de travail
maintenir le niveau maximum de satisfaction :
l’augmentation de la satisfaction par le loisir compense la
baisse de la satisfaction par la consommation. Mais, pour
des niveaux déjà très élevés et pour des niveaux très faibles
du salaire réel, l’effet de substitution disparaît pour laisser la
place à l’effet de richesse dit encore effet de revenu. Par
exemple, un individu en travaillant 7 heures par jour à 40 €
de l’heure considère qu’il atteint, avec 280 €, juste le
minimum nécessaire pour faire vivre sa famille. Si,
brutalement, son salaire réel diminue de 50 %, il doit alors
doubler son offre de travail pour obtenir le même salaire
réel (quantités de biens). Autrement dit, si 280 € sont
nécessaires et si le taux de salaire passe à 20 € de l’heure,
alors l’offre de travail doit être de 14 heures par jour. Ces
phénomènes se retrouvent aussi pour les individus qui ne
peuvent plus améliorer leur satisfaction par la
consommation, en raison du salaire élevé qu’ils ont déjà
atteint. L’augmentation de salaire engendre alors une
diminution de l’offre de travail. La figure 4.1. montre ainsi
une courbe d’offre en forme de Z. Entre les points A et B,
l’offre de travail est typique : elle est croissante avec le
salaire réel W/P (salaire en équivalent de marchandises).
Au-delà de B et en deçà de A, l’offre de travail est
atypique : elle est décroissante lorsque le salaire augmente.
Lorsque le salaire est d’un niveau si faible qu’il oblige à
passer tout son temps au travail, toute amélioration de la
rémunération se traduit par un arbitrage en faveur du loisir,
le gain supplémentaire potentiel ne permettant pas d’en
profiter, de changer de modèle de consommation. Ce
phénomène est également valable à un niveau
macroéconomique. Lorsque le salaire s’est progressivement
amélioré au XIXe siècle en Europe, le travail des enfants de
moins de 8 ans a été interdit, en même temps que le travail
des femmes de 22 h à 6 h du matin, comme cela a été le cas
en France avec la loi adoptée en 1841 à la suite du rapport
du Dr Villermé ; mais il a fallu attendre 1936 pour voir
paraître les décrets d’application de cette loi de 1841. Dans
une perspective spatiale, avec des espaces de niveaux de
développement différents, la hausse des salaires avec le
développement économique ne suscite une immigration
qu’au-dessus du seuil A. Pour un salaire inférieur à A, les
coûts de l’immigration sont supérieurs aux avantages d’un
emploi. Lorsque le salaire augmente et arrive au point B, les
espaces qui ont fourni la main-d’œuvre connaissent à leur
tour un développement économique en mesure d’utiliser la
main-d’œuvre indigène.
2.3.3. La demande de travail par les entreprises : une
fonction décroissante du salaire
À première vue, il n’y a rien de surprenant à ce que la
demande de l’entreprise moyenne évolue de manière
opposée au prix, comme c’est généralement le cas pour
toute demande : lorsque les ressources sont limitées, un
produit dont le prix est élevé sera moins demandé que le
même produit avec un prix beaucoup plus bas. Mais,
lorsqu’il s’agit de la demande de travail, ce résultat est un
effet de la spécification de la fonction de production qui
consiste à faire l’hypothèse de rendements décroissants avec
des unités de facteur travail homogènes et divisibles, le
stock des autres facteurs restant constant.
En effet, à mesure que la force de travail augmente, la
production totale de l’entreprise augmente mais l’apport de
chaque travailleur supplémentaire diminue. Cette
contribution du dernier travailleur embauché est la
productivité marginale du travail. Elle s’obtient en faisant le
rapport entre la variation de la quantité produite et la
variation du nombre d’heures de travail. Le calcul de la
productivité marginale du travail est supposé donc possible,
ce qui n’est pas le cas dans le travail en équipe. Par
exemple, si trois personnes n’arrivent pas à descendre un
piano du sixième étage d’un bâtiment, et si l’arrivée d’une
quatrième personne permet de réaliser l’opération, il n’est
pas logique d’attribuer toute la rémunération à ce dernier.
En toute logique, l’entreprise rationnelle ne payera pas un
travailleur plus que ce qu’il rapporte mais, compte tenu de
l’homogénéité des travailleurs, il ne peut y avoir qu’un seul
niveau de rémunération dans l’entreprise. Si le taux de
salaire est donné par le marché, l’entreprise qui cherche à
maximiser son profit accroît l’emploi jusqu’à ce que la
productivité marginale – qui exprime sa demande de travail
– soit juste égale au taux de salaire. Si le salaire s’élève,
l’entreprise licenciera, tandis qu’elle embauchera si celui-ci
diminue. Si la productivité augmente de manière exogène,
l’entreprise embauchera jusqu’à ce qu’il y ait égalité de la
productivité marginale du travail et du salaire réel resté
constant : tant que le coût du travailleur supplémentaire est
plus bas que ce que ce travailleur permet de gagner, il est en
effet rationnel d’embaucher, jusqu’à ce que le salaire payé
soit égal au produit que permet de réaliser ce dernier
travailleur. Une diminution de la productivité marginale du
travail entraînera, selon le même raisonnement, des
licenciements.
La demande globale de travail est obtenue par addition
horizontale des demandes de chaque entreprise pour les
différents taux de salaire réel. Son allure est la même que
celle de l’entreprise moyenne ou représentative.

Fig. 4.3
. Demande de travail
Fig. 4.4
. : Équilibre sur le marché du travail
2.3.4. Le marché du travail
L’expression « marché du travail » est à prendre
conventionnellement pour comprendre le processus
d’ajustement logique de l’offre et de la demande de travail.
Dans ce processus logique, la confrontation de l’offre et de
la demande de travail conduit à un salaire d’équilibre
(W/P)*. Il indique que toutes les personnes qui souhaitent
travailler à ce prix seront embauchées (L*). C’est ce
qu’illustre la figure 4.4. Si la main-d’œuvre disponible est
LM (population active totale), l’écart entre LM et L* constitue
le chômage volontaire.
2.4. Le facteur capital : une marchandise qui produit des
marchandises
Il a déjà été indiqué que le capital est un facteur dérivé
désignant l’ensemble des moyens qui permettent de
produire des biens ou un revenu. Il est obtenu par un
investissement qui est une dépense fructifère. E. von Böhm-
Bawerk, éminent représentant de l’école marginaliste
autrichienne, utilise l’expression de biens indirects. Il
indique qu’ils sont obtenus par un détour de production
(Théorie positive du capital, 1890), exprimant par là que le
capital est la conséquence d’une consommation courante à
laquelle on renonce pour augmenter la production et la
consommation futures. Le détour de production apparaît ici
comme l’autre nom de l’investissement, que les comptables
nationaux appellent la formation de capital. Plus le détour
de production est long, i.e. plus les biens intermédiaires
exigent de temps pour les produire, plus la productivité (la
quantité de produit par heure travaillée) est grande.
Pour l’école de Cambridge, le capital est à la fois un
ensemble de biens matériels de production et un pouvoir
d’achat sur les autres biens. L’évaluation par les revenus
futurs ou la méthode de l’évaluation par la valeur travail
implique que le problème de l’imputation soit résolu. Il faut
pouvoir mesurer la part du travail et la part du capital dans
la valeur ajoutée, alors que l’un sans l’autre, la production
risque d’être nulle.
Notion obscure pour certains (Mrs. Joan V. Robinson)
sans ambiguïté pour d’autres (Paul A. Samuelson), le capital
est aussi l’objet d’un grand nombre de classifications qui
traduit la complexité de la notion. La définition des
différentes formes de capital et de l’investissement
constituera la matière du premier paragraphe. Les
problèmes du rendement du capital et la valeur de celui-ci
seront abordés ensuite.
2.4.1. Les formes de capital
Étymologiquement, le mot capital vient du latin capitalis,
dérivé de caput qui veut dire tête, chef. On retrouve cette
idée dans d’autres langues, comme par exemple l’arabe (Ras
El Mel où Ras est la tête). On dit par exemple qu’une armée
décapitée est une armée sans chef. Un chapeau est un
couvre-chef. Comme adjectif, capital est synonyme de
fondamental, essentiel, important, principal. Comme notion,
le capital désigne originellement le principal d’une dette, i.e.
une somme placée qui procure des intérêts et, par extension,
tout patrimoine ou richesse susceptible de procurer un
revenu. Par sa nature et par ses fonctions, nous définirons
alors le capital comme un ensemble des biens reproductibles
issus d’une combinaison primaire des facteurs de
production (nature et travail), qui permettent soit d’obtenir
un revenu soit, par un détour de production, d’accroître la
productivité du travail humain.
Le capital est un stock qui se constitue par le flux
d’investissements ou accumulation capitaliste. Pour K.
Marx, en plus d’être un facteur de production ou capital
technique qui permet d’augmenter la productivité du travail,
le capital est aussi un rapport social qui permet à son
détenteur – le capitaliste – d’exploiter la force de travail du
prolétaire (individu ne disposant que de sa force de travail
pour subvenir à ses besoins).
Les différentes formes de capital sont physique ou
matérielle, financière et humaine.
a) Le capital physique ou matériel est l’ensemble des
infrastructures (routes, ponts, ports, aéroports, voies ferrées,
canaux de navigation), des bâtiments, des machines et
matériels qui contribuent aux flux de produits et de revenus
présents et futurs. Le capital immatériel ou intangible est un
ensemble d’éléments hétérogènes comprenant les savoirs et
savoir-faire des individus constitutifs, avec la santé, du
capital humain (voir ci-dessous), le capital informationnel
(les brevets, les procédés de production et de transformation
des biens), le capital social et organisationnel au sens des
anthropologues et sociologues12 (système de gestion
politique, les relations sociales, les réseaux de solidarité, les
habitus qui résultent de l’apprentissage et de la formation
des habitudes, et qui sont le produit de l’histoire
individuelle et collective.
b) Dans sa forme financière – la forme première du
capital qui est la forme argent comme l’écrit K. Marx dans
le livre 1 du Capital –, le capital désigne l’ensemble des
disponibilités monétaires susceptibles d’être soit placées
auprès d’un organisme bancaire, soit mobilisées pour le
financement direct des entreprises. Les apports en capital
financier dans une entreprise forment le capital comptable
ou capital juridique dit capital social pour une société, ou
encore capitaux propres. Il convient de ne pas confondre
l’acception économique du capital social avec l’acception
sociologique de Pierre Bourdieu qui désigne par cette
expression l’ensemble des relations sociales d’un individu.
Le capital comptable, qui apparaît en ressources ou au
passif du bilan, permet de se procurer le capital technique,
qui apparaît en emploi ou à l’actif du bilan. Selon la
distinction faite par Adam Smith, le capital technique est
composé de :
- capitaux fixes ou, du point de vue de la comptabilité
générale d’entreprise, actif fixe comprenant les
immobilisations en terrains, en bâtiments, en
logements, en équipements collectifs et en
équipements pour la production. Les capitaux fixes
sont les biens de production qui participent à
plusieurs cycles de production. Ils ne s’usent que
partiellement (sauf les terrains, autres que les mines
et les carrières, qui ne s’usent pas). La dotation
annuelle aux amortissements est la constatation
comptable de cette usure annuelle. Dans une
perspective anthropologique, le capital
environnemental est un élément du capital fixe d’un
espace social. Ce capital environnemental
correspond aux ressources du milieu et au climat ;
- capitaux circulants ou actif circulant du point de vue
de la comptabilité et comprenant les stocks de
matières et de produits aussi bien finis que semi-
finis, les encours ainsi que la trésorerie (liquidités
en banque et en caisse). Les capitaux circulants sont
des biens qui ne participent qu’à un cycle de
production.
Dans la théorie marxiste, le capital est un rapport social
de production caractérisant le mode de production
capitaliste et qui, sous forme de valeur monétaire (le capital
argent : A), se présente avant tout comme un mouvement
d’accumulation ininterrompu reposant sur l’exploitation du
travail. Marx écrit :
« Acheter pour vendre, ou mieux, acheter pour vendre
plus cher, A – M – A’, voilà une forme qui ne semble propre
qu’à une seule espèce de capital, au capital commercial.
Mais le capital industriel est aussi de l’argent qui se
transforme en marchandise et, par la vente de cette
dernière, se retransforme en plus d’argent. Ce qui se passe
entre l’achat et la vente, en dehors de la sphère de
circulation, ne change rien à cette forme de mouvement »
(Le Capital, Livre 1, 1867).
Le capital commercial et le capital financier sont réunis
par Marx sous la dénomination commune de capital
marchand. La forme argent du capital permet de se
procurer, d’une part, le capital constant (ensemble des biens
qui apparaissent dans la valeur pour la part usée : bâtiment,
matières premières, etc.) et, d’autre part, les services de la
force de travail ou capital variable, en ce sens que la force
de travail est ce qui fait varier la valeur. Le capital variable
est l’argent nécessaire pour payer les salaires dont le
montant est inférieur à la valeur des biens que la
mobilisation de la force de travail permet d’obtenir. Cette
différence de valeur est la plus-value.
c) Le capital humain, déjà évoqué dans la section
consacrée au facteur travail, est le stock de compétences, de
connaissances, de savoirs et de savoir-faire, de santé
physique et mentale, qui participe à la détermination du
niveau de revenu actuel et futur d’une personne. Du point de
vue anthropologique, le capital humain et culturel ne
concerne pas l’individu, mais le groupe et désigne tous les
savoirs et savoir-faire, les valeurs partagées et l’expérience
sociale accumulée par les générations. Pierre Bourdieu
utilise plutôt l’expression « capital culturel » qui exprime la
dimension sociale. Il distingue le « capital culturel incorporé
», fruit de la socialisation différenciée selon les milieux
sociaux (langage, aptitudes scolaires diverses, façons de se
tenir et de se comporter en société…), le « capital culturel
objectivé » (tableaux, livres, instruments de musique, etc.)
et le « capital culturel institutionnalisé » qui correspond au
capital humain des économistes. Il est culturel dans la
mesure où les connaissances sont socialement reconnues par
un diplôme, par un titre ou par d’autres moyens. Bourdieu
utilise également la notion de capital symbolique pour
exprimer l’autorité reconnue ou que possède une personne
et correspondant à la somme de tous les autres capitaux
(économique, social, culturel).
2.4.2. Taux d’intérêt : prix d’usage du capital ou prix de la
monnaie ?
Sans avoir épuisé la diversité des formes du capital, on se
rend déjà compte qu’il n’est pas facile d’étendre à ce facteur
le raisonnement en termes d’offre et de demande, car le
concept de capital désigne un ensemble d’une grande
hétérogénéité. Il y a bien des individus et des institutions qui
ont des capacités de financement et d’autres qui sont dans
des situations de besoin de financement, mais les formes de
mobilisation des capitaux (émission de titres de propriété
sous la forme d’actions qui donne lieu à la perception de
dividendes en cas de distribution du bénéfice, émission
d’obligations en contrepartie d’un emprunt qui donne lieu à
la perception d’un intérêt au souscripteur de l’emprunt et
détenteur d’obligations) et les durées des opérations
(engagement à court terme, moyen terme, long terme) qui
peuvent être liées à la qualité (solvabilité) du demandeur de
capitaux, conduisent à une multiplicité des marchés de
capitaux avec de nombreux compartiments sur la même
place financière. Et pourtant ces marchés, lorsqu’ils sont
réglementés, ne s’appliquent principalement qu’à la forme
monétaire et financière du capital. Plus clairement, s’il y a
une bourse des valeurs mobilières réglementée, avec une
autorité de régulation du marché, dans la plupart des
grandes places économiques et donc financières et où l’on
cote, i.e. où l’on établit le prix des actions et des obligations,
en revanche il n’y a rien qui se rapproche de ce système
pour les biens de production du type machines-outils,
ordinateurs ou camions. Tous les jours, on est tenu informés
des cours des actions des grandes firmes cotées en bourse
ou pour l’indice synthétique et représentatif de cette bourse,
la bourse étant le marché de l’occasion des valeurs
mobilières. En revanche nous n’avons pas chaque jour une
indication du prix de l’occasion des camions, des bâtiments
ou des machines-outils.
Toutefois, la théorie économique classique, avec sa
conception dichotomique exprimant la neutralité de la
monnaie et justifiant le raisonnement en termes réels,
assimile l’offre et la demande de capitaux réels à l’offre et
la demande de capitaux monétaires. L’intersection de l’offre
et de la demande de capitaux détermine le taux d’intérêt
réel. Le raisonnement est établi sur la base de deux agents :
les entreprises qui demandent des capitaux et des ménages
qui arbitrent entre la consommation et l’épargne financière.
Cette dernière – ou capacité de financement – ne peut être
placée qu’auprès des entreprises. L’hypothèse signifie, en
particulier, que l’épargne non financière sous la forme
d’acquisition de logements par les ménages est nulle.
Selon les théories réelles de l’intérêt, l’offre de capitaux
par les ménages est un acte d’abstinence ou d’épargne.
L’épargnant qui cherche à optimiser sa satisfaction doit
obtenir une rémunération qui lui procurera des satisfactions
futures pour compenser la satisfaction par la consommation
de biens présents à laquelle il renonce. L’offre de capitaux
ou d’épargne est ainsi une fonction croissante du taux
d’intérêt. Il est la rémunération de l’abstinence. Plus le prêt
consenti est important et pour une période longue, plus le
sacrifice ou l’abstinence est coûteux, car le capital
disponible devient de plus en plus rare chez le prêteur. La
rémunération doit compenser ce sacrifice croissant.

Fig. 4
. 5. Offre de capital
La demande de capitaux par les entreprises a pour but de
produire des biens. La théorie traditionnelle raisonne avec
l’hypothèse de rendements décroissants. Cela signifie que
l’adjonction d’une unité supplémentaire de capital entraîne
une augmentation de la production totale, mais dans une
proportion plus faible que celle du capital. Ce rapport entre
ces deux accroissements (celui de la production et celui du
capital), que l’on appelle la productivité marginale du
capital, a ainsi une pente négative : elle diminue lorsque la
quantité de capital augmente (c’est le même raisonnement
que celui appliqué à la demande de travail). Le producteur
rationnel qui veut maximiser son profit doit alors chercher,
pour un taux d’intérêt donné, à acquérir une quantité de
capital telle que la productivité marginale du capital soit
égale au taux d’intérêt. La courbe de demande de capital
correspond à la courbe de la productivité marginale.
Lorsque le taux d’intérêt est proche de zéro, la demande
tend vers l’infini. En d’autres termes, lorsque la contrainte
de rentabilité ou de productivité n’existe plus, il n’y a
aucune limite pour emprunter, à condition que les biens de
production achetés mais non utilisés puissent être revendus
sans perte de valeur en vue de rembourser l’emprunt.

Fig. 4.6
. Demande de capital
Le taux d’intérêt d’équilibre iE se fixe à l’intersection des
courbes d’offre et de demande du capital réel. Il correspond
au coût d’usage du capital et au taux de rendement marginal
du capital lorsque la productivité est mesurée en unités
monétaires.

Fig. 4.7
. Taux d’intérêt et volume de capital
d’équilibre
Pour avoir le taux d’intérêt monétaire ou taux d’intérêt
nominal du marché, il suffit d’ajouter au taux d’intérêt réel,
qui est la productivité marginale du capital, le taux
d’inflation anticipé.
Cette théorie classique et monétariste présente des
limites.
a Le raisonnement en termes réels assimilant toute
demande de capitaux monétaires à une demande
indirecte de biens de production est critiquable, car
le besoin de financement de l’investissement ne
constitue qu’un des motifs de la demande de
monnaie. Il existe des demandes de crédit à la
consommation et des demandes qui répondent aux
différents motifs de préférence pour la liquidité
(transaction, précaution, spéculation). Par
conséquent le taux d’intérêt sur le marché n’est pas
nécessairement égal à la productivité marginale du
capital. Par ces motifs keynésiens de la préférence
pour la liquidité, le taux d’intérêt est aussi le prix de
la liquidité.
b Dans la détermination du taux d’intérêt, l’offre ne se
réduit pas à l’offre de capitaux, il faut aussi tenir
compte de la création monétaire, de l’épargne nette
(part du revenu courant non consommée) et de
l’épargne transférée d’un emploi à un autre dont la
déthésaurisation.
c D’un point de vue empirique, le taux d’intérêt
dépend :
- de l’offre et de la demande de fonds
prêtables, sur le marché des fonds
prêtables et non des capitaux,
- de la durée du prêt,
- du risque d’érosion monétaire (inflation)
- de la politique des autorités monétaires,
- du taux d’intérêt pratiqué sur les autres
places financières dans le monde, en
raison de la mobilité des capitaux
- du taux de prise en pension de la banque
centrale. Par exemple le taux d’intérêt
de la Banque centrale européenne (BCE)
n’est pas un prix de marché endogène
(i.e. déterminé par l’offre et la
demande), mais un taux exogène fixé
sur la base de considérations de gestion
de la valeur de l’euro et de l’évolution
acceptable du niveau général des prix à
l’intérieur de la zone euro.
2.4.3. La valeur du capital
On voit ainsi que, si les choses sont simples avec la rente,
prix de l’usage de la terre, ou avec le salaire, prix de la force
de travail, en revanche on ne peut pas dire que l’intérêt soit
le prix d’usage du capital. Parce qu’il est un ensemble de
biens et un pouvoir d’achat sur les autres biens, le capital est
difficilement évaluable, comme Joan Violet Robinson l’a
fait remarquer. L’hétérogénéité des biens dans l’entreprise
se traduit notamment par des équipements d’âge différent.
De ce fait, il n’est pas certain que la productivité marginale
du capital soit décroissante lorsque le volume du capital
augmente. En revanche, plus le millésime ou l’âge des
machines est ancien, plus la productivité du capital est
faible. La prise en compte de cet effet du progrès technique
adoptée pour programmer la production13 est inopérante
pour expliquer la valeur du capital.
Dans la pratique, on s’en tient encore à la méthode
d’Irving Fisher : la valeur du capital est la somme actualisée
des revenus escomptés dans l’avenir. Prenons un exemple et
supposons qu’un appartement loué rapporte un loyer annuel
de 20 000 € ; le marché financier propose pour tout
placement un taux d’intérêt (pour les obligations) ou de
rendement (pour les actions) de 5 %, ce qui signifie que le
revenu annuel à ce taux permet de récupérer la valeur du
capital en 20 ans ; la valeur de l’appartement est alors de :
20 × 20 000 = 400 000 €.
De la même manière, le capital humain est la somme des
salaires que percevra l’individu tout au long de sa vie active,
selon la définition de Karl Marx reprise par les théoriciens
de l’école de Chicago (G.S. Becker).
Le taux de rendement d’un appartement loué ne peut pas
être durablement inférieur ou supérieur au taux du marché
financier. S’il est inférieur, il y aurait pénurie
d’appartements à louer, et le loyer se relève. S’il est
supérieur, tous les capitaux chercheront à se placer dans la
location d’appartement engendrant un boum de la
construction et un trop plein d’appartements impossible à
louer sans baisser le loyer.
Qu’est-ce que l’actualisation ?

Actualiser, c’est rendre actuelle, ramener au présent une


valeur future. Actualiser une valeur à percevoir ou à
dépenser à la date tn, c’est ramener cette valeur à la date
d’aujourd’hui (to), sachant que des sommes d’argent d’un
égal montant nominal n’ont pas la même valeur à deux
dates différentes.
Pour comprendre le calcul, raisonnons avec le principe
des intérêts composés pour un placement. Si le taux
d’intérêt est de 5 %, un capital (K0) de 1 000 € placé donne
au bout d’un an une valeur K1 = 1 050 €.
K1 = 1 050 € = 1 000 + (0,05 × 1 000).
Si on laisse cette valeur en placement, au bout de la
deuxième année le montant s’élève à K2 = 1 102,50 €,
résultat de 1 050 x 1,05, ou encore de 1 000 (1,05)2. On peut
poursuivre ce processus jusqu’à la énième année et on aura :
Kn = K0 (1 + i)n.
Si, au lieu de voir dans i un taux d’intérêt mais un taux
d’actualisation, i.e. un taux de dépréciation du futur
exprimant la préférence pour le présent et non pas une
rémunération des capitaux, alors une somme K2 de 1 102,50
€ à percevoir dans deux ans devient équivalente à une
somme K0 de 1 000 € disponible aujourd’hui au taux
d’actualisation i = 5 %. Plus généralement, la formule de
l’actualisation est déterminée ainsi :

si Kn = K0 (1 + i) n alors ou K0 = Kn (1 + i)–n
La définition d’un taux d’actualisation est importante
pour le choix des investissements. En effet, si le taux est
élevé, tous les investissements qui présentent des taux de
bénéfices prévus inférieurs au taux d’actualisation seront
écartés. Inversement, lorsque le taux d’actualisation est
faible, de nombreux projets d’investissement pourront être
considérés comme rentables.
2.4.4. Formes et financement de l’investissement
L’investissement, comme cela a déjà été indiqué, est une
dépense fructifère – dépense permettant d’obtenir un revenu
plus important dans le futur – qui consiste en l’acquisition
de biens de production destinés soit à accroître les capacités
de production (investissement net = ΔK), soit à remplacer
les équipements dépréciés, usés, obsolètes. Dans ce dernier
cas, on parle d’amortissements :
dt = δKt – 1 où δ (delta) représente le taux de
dépréciation.
Par exemple, pour un équipement qui doit être remplacé
en 5 ans, le taux de dépréciation en dotation annuelle
constante est de 0,2.
L’investissement total ou, en comptabilité nationale, la
formation brute de capital fixe (FBCF) est la somme des
deux investissements :
Investissement total = ΔK + dt
La formation de capital exige une épargne préalable.
Lorsque l’agent économique n’en dispose pas, il fait appel à
l’épargne publique en s’adressant à des agents qui ont une
capacité de financement. Mais il y a une diversité des
formes d’investissement et de modes de financement.

a) Formes de l’investissement
Comme pour le capital, les classifications des
investissements sont nombreuses.
Du point de vue de l’entreprise, la classification
comptable identifie trois catégories d’investissement :
- les investissements matériels dits encore
investissements corporels (terrains, constructions,
machines, outillage…), physique, tangibles ;
- les investissements financiers (prises de participation
dans le capital social d’une autre entreprise, achats
de titres…) ;
- les investissements immatériels dits encore
intangibles. Ceux-ci correspondent aux dépenses en
recherche et développement (R & D), en
acquisitions de licences d’exploitation de brevets et
de marques, en formation professionnelle, en
publicité, en logiciels. On rappellera que la
comptabilité nationale a une conception plus étroite
de l’investissement immatériel ;
- les investissements incorporels regroupant les
investissements financiers et les investissements
immatériels.

La catégorie investissement matériel donne lieu à une


sous-catégorisation qui permet de retrouver les notions déjà
présentées : l’investissement net et l’investissement de
remplacement ou de jouvence. Cette dernière forme
correspond à l’amortissement. L’investissement net désigne
l’investissement d’expansion et de croissance.
L’investissement de remplacement et l’investissement
d’expansion peuvent être complétés par l’investissement de
modernisation. Assez souvent, mais pas nécessairement,
l’investissement de remplacement se fait avec des
équipements plus modernes, plus productifs, ce qui signifie
que la modernisation est compatible avec à la fois le
remplacement et l’expansion.
Le critère de leur mise en œuvre permet de distinguer les
investissements directs et les investissements de portefeuille.
Les premiers correspondent à des opérations d’acquisition
de biens de production ou d’unités de production. Ces
opérations peuvent se faire sur le territoire national par des
ressortissants ou par des étrangers, et dans d’autres pays par
des nationaux. Dans ce dernier cas il s’agit
d’investissements directs à l’étranger (IDE). Les
investissements de portefeuille correspondent à des
placements par acquisition de valeurs mobilières. Pour les
investissements directs, qui seront privilégiés ici, la
distinction entre investissement matériel et investissement
immatériel est l’une des classifications les plus courantes.
Par les effets sur l’emploi, on distingue les
investissements de capacité (augmentation de la capacité de
production) et les investissements de productivité ou de
substitution (substitution du capital au travail). À production
constante, les investissements de productivité soit font face
à la pénurie de main-d’œuvre et à la hausse consécutive des
salaires (effet Ricardo-Hayek), soit engendrent à court terme
la diminution du nombre de travailleurs dans le système
productif considéré, susceptible de conduire au chômage les
travailleurs remplacés.
Par leur facteur, on distingue en macroéconomie
l’investissement autonome ou indépendant à l’égard de la
demande de biens de consommation et l’investissement
induit par cette demande. Néanmoins, avant de présenter ces
deux catégories, il convient de signaler qu’il existe d’autres
déterminants de l’investissement qui seront détaillés plus
loin : l’incitation à investir de la théorie keynésienne de la
demande effective que sont le taux d’intérêt et le taux de
profit anticipé (efficacité marginale du capital), l’existence
d’une épargne dans l’entreprise, le niveau d’endettement,
d’éventuelles incitations fiscales. C’est notamment le cas
avec l’article 39 bis A du Code général des impôts en
France qui autorise la déduction du revenu imposable des
dépenses d’investissement des entreprises de presse (Voir
encadré plus loin). Le concept le plus général pour réunir
tous ces éléments est le coût d’usage du capital qui
correspond au coût de détention réel du capital. Il est égal
au produit du prix réel des biens d’équipement par un taux
d’intérêt réel augmenté du taux de dépréciation de
l’équipement et diminué de la variation du prix réel de
l’investissement. Nous y reviendrons plus loin en présentant
la théorie de Jorgenson. Examinons d’abord les effets
macroéconomiques des investissements autonomes et des
investissements induits sur l’activité.
– L’investissement autonome conduit à une distribution
de revenus donnant lieu, à court terme, à un accroissement
de la consommation qui ne peut être satisfait que par un
accroissement de la production dont l’obtention exige plus
de facteurs, ce qui signifie plus de travailleurs, et par
conséquent la distribution de revenus supplémentaires. Ces
derniers à leur tour engendrent un nouvel accroissement de
la consommation, de la production, de l’emploi, des
revenus, etc. Ce phénomène se poursuit par des
accroissements de plus en plus faibles qui dépendent de la
part du revenu supplémentaire consacrée à la consommation
domestique. Cette part est la propension marginale à
consommer. Elle se mesure en faisant le rapport entre
l’accroissement de la consommation (ΔC) et
l’accroissement du revenu (ΔY) qui lui a donné naissance.
La valeur de l’accroissement du revenu est égale à la valeur
de la dépense qui lui donne naissance, et la valeur de la
consommation supplémentaire est le produit du revenu
supplémentaire par la propension marginale à consommer,
qui est supposée constante.
Avec un exemple numérique, le schéma est le suivant,
pour un investissement initial de 1000 unités monétaires, et
une propension marginale à consommer de 0,80 :

Tableau 4.0
. Mécanisme du multiplicateur
Dans cette chaîne, le revenu supplémentaire de chaque
période est le produit de la dépense précédente par la
propension marginale à consommer. Il s’agit d’une
progression géométrique. La somme des revenus
supplémentaires est la somme de cette progression
géométrique :
1 000 + 800 + 640 + 512 + … + 0 = 5 000
Elle s’obtient par application de la formule suivante,
ΔY = [a (1 – rn →α)]/[(1 – r) où
(a) est le premier terme de la progression, ici c’est 1 000.
r est la raison de la progression, ici c’est 0,8.
Lorsqu’on multiplie un nombre inférieur à 1 par lui-
même, la valeur trouvée est plus petite que la valeur de
départ. En poursuivant cette multiplication n fois, avec (n)
qui tend vers l’infini, alors la valeur obtenue tend vers zéro.
On obtient :
ΔY = 1 000 × (1 – 0,8 n →α)/(1 – 0,8) = (1 000/0,2) = 5 000
Le mécanisme qui est décrit ici est l’effet multiplicateur
de l’investissement et de l’emploi. Sa mesure est l’inverse
des fuites, i.e. de ce qui ne revient pas dans le circuit
économique sous la forme de consommation. La fuite est la
part du revenu qui n’est pas consacrée à la consommation
domestique (épargne et importation).
Un tel mécanisme de croissance économique suppose que
tous les secteurs d’activité connaissent un sous-emploi de
leur capacité de production. Il faut en particulier qu’il y ait
un sous-emploi de la main-d’œuvre pour occuper tout
emploi nécessaire en vue de produire les biens et services
supplémentaires demandés. En d’autres termes le
multiplicateur ne fonctionne pas en cas de goulet
d’étranglement. En effet, dans le secteur responsable du
goulet, la hausse du prix face à la demande supplémentaire
est une éventualité, et par contagion, l’effet multiplicateur
n’est plus que nominal, i.e. qu’il se dégrade en inflation.
– L’investissement induit est l’investissement nécessaire
pour satisfaire une augmentation de la consommation. Selon
la théorie d’A. Aftalion (1909) et de J.M. Clark (1917),
l’investissement n’est pas autonome mais induit par
l’augmentation de la demande, selon un mécanisme
d’accélération. L’entreprise n’investit pas si les
équipements en place ne sont pas saturés et sont en mesure
de répondre à une augmentation de la demande de biens de
consommation. Si, en revanche, un capital de 500 destiné à
produire 100 de biens de consommation est sollicité pour
produire 120, il devient nécessaire d’augmenter les
capacités de 100 pour obtenir un capital de 600. Le rapport
entre le capital (K) et la production (Y), ou coefficient de
capital, indique la proportionnalité qu’il convient de
respecter en l’absence de progrès technique. Ce coefficient
de capital (ici K/Y = 500/100 = 600/120 = 5) constitue le
coefficient d’accélération β (bêta) ou tout simplement
l’accélérateur.
Avec la prise en compte du progrès technique incorporé
dans les équipements nouveaux, le coefficient
d’accélération est égal au coefficient marginal du capital
(ΔK/ΔY = β). Le montant de l’investissement induit (Ii) est
égal au produit de l’accélérateur et de l’augmentation de la
demande de consommation (ΔC) : Ii = ΔβC.
Le multiplicateur et l’accélérateur peuvent être conjugués
de la manière suivante : l’investissement autonome donne
naissance à un accroissement de demande (effet
multiplicateur), celui-ci pour être satisfait exige un
investissement induit (effet d’accélération). Cette
combinaison correspond au mécanisme de l’oscillateur en
ce sens que le phénomène peut déboucher sur des
fluctuations de l’activité économique (cf. encadré :
L’oscillateur de Samuelson)
L’oscillateur de Samuelson

C’est P.A. Samuelson qui, en 1939, présenta le modèle


linéaire de l’oscillateur de la manière suivante : Yt = c (Yt–1)
+ β (Ct – Ct–1) + G
Ce qui signifie que le revenu national de la période (t) est
la somme de la consommation (dépendant du revenu de la
période précédente), de l’investissement induit par
l’accroissement de la consommation (mécanisme
d’accélération) et des dépenses gouvernementales.
Illustration : Supposons que l’État investisse
périodiquement une somme de 100 u.m. La propension
marginale à consommer (c) est 0,5. Le coefficient (β)
d’accélération est de 2. L’examen du tableau ci-dessous
montre que le revenu augmente dans une première phase,
puis régresse. Avec des valeurs différentes pour c et pour β,
il est possible de trouver d’autres formes d’évolution pour le
revenu.
b) Modes de financement de l’investissement
L’opération d’investissement, en tant que dépense,
suppose des moyens de financement, i.e. une épargne.
Celle-ci peut être spontanée ou forcée.
L’épargne spontanée se traduit par deux formes de
financement : d’une part, un financement direct par
l’émission d’actions et d’obligations et, d’autre part, un
financement indirect par la transformation bancaire de
l’épargne des particuliers en moyens de financement. Le
financement indirect est dit également financement
intermédié. Il a représenté un mode de financement
important dans les pays développés entre 1950 et 1985,
période que John Richard Hicks désigne par l’expression
économie d’endettement. Le recours à l’endettement est un
moyen d’augmenter la rentabilité des capitaux propres, si
sur le marché le taux d’intérêt est largement inférieur à la
productivité marginale du capital dans l’entreprise. C’est ce
qu’on désigne à la suite de Knut Wicksell par effet de levier.
Cette situation ne peut pas durer, l’augmentation de
l’investissement fait chuter la productivité marginale du
capital, et le système bancaire trop sollicité augmente le
taux d’intérêt monétaire pour les crédits qu’il consent, car il
dispose de moins en moins de ressources. L’effet de levier
risque alors de se transformer en effet de massue, les
entreprises étant dans l’incapacité de rembourser leurs
dettes.
À partir de 1985, le financement direct prend le pas sur
l’endettement, se traduisant par le développement de
l’économie des marchés financiers selon l’expression de
J.R. Hicks. Les privatisations d’un grand nombre
d’entreprises dans plusieurs pays développés ont favorisé le
développement de l’actionnariat de masse et la
popularisation de la bourse des valeurs mobilières.
L’économie des marchés financiers doit beaucoup aussi à la
prise de conscience des limites du système de financement
des retraites par répartition du fait du vieillissement
démographique. Cela a suscité le développement du
système de retraite par capitalisation sous la forme de
placements en assurance-vie et en fonds de pension. Dans
ce contexte une augmentation du capital social par
l’émission de nouvelles actions trouvera facilement des
acheteurs, à condition que les perspectives de rentabilité de
l’entreprise soient perçues comme positives. Le marché
financier, dans ce contexte de recherche d’un placement de
l’épargne collectée par les fonds de pension, a la même
tolérance pour un financement par l’émission d’obligations.
L‘épargne forcée est un transfert de l’épargne au bénéfice
de l’investisseur par réduction du revenu réel disponible
pour la consommation des autres agents. Les trois formes
d’épargne forcée sont l’inflation, l’impôt et
l’autofinancement des entreprises. Dans ce dernier cas, le
phénomène d’épargne forcée n’existe que si les actionnaires
n’ont pas été consultés ou n’ont pas donné leur accord pour
mettre les bénéfices en réserve d’autofinancement, ce qui
peut arriver lorsqu’une faible partie du capital social est
représentée à l’assemblée générale où le conseil
d’administration détient une forte proportion des voix.

Fig. 4.8
. Formes de financement des
investissements
2.4.5. Les théories de l’investissement et le rôle du profit
On a jusqu’ici identifié la rente comme rémunération de
la nature, le salaire comme rémunération du travail et
l’intérêt comme rémunération du capital emprunté et
comme prix de la liquidité. Cependant, lorsqu’on s’intéresse
au demandeur des facteurs de production, l’élément
déterminant qui le motive à investir en se portant
demandeur de travail, d’équipements, de matières
premières, etc., est le profit. Celui-ci rémunère
l’entrepreneur, agent susceptible d’être indépendant des
apporteurs de capitaux et dont la fonction est de combiner
les facteurs de production pour obtenir des biens dont la
valeur est supérieure aux coûts assumés pour les obtenir. La
différence entre la valeur des biens vendus et les coûts
constitue le profit. Pour R. Cantillon, J.B. Say, J.A.
Schumpeter et F. Knight, le profit est la rémunération de
l’esprit d’entreprise. Plus spécifiquement, pour Schumpeter,
le profit constitue la contrepartie de l’assomption des
risques attachés à l’innovation technologique (nouveau
produit, procédé de fabrication nouveau, usage nouveau
pour des produits et des équipements existants, nouveaux
débouchés, nouvelle organisation de l’entreprise), qui
permet à l’entreprise de bénéficier d’une position de
monopole temporaire, tant qu’elle n’est pas imitée.
Pour Karl Marx, le profit est la part du travail non
rémunérée et confisquée par le capitaliste, alors que pour
Jean Marchal, le profit est le revenu de ceux qui possèdent
un pouvoir de marchandage à l’égard des fournisseurs de
facteurs et à l’égard des clients en aval de la production.
Au-delà des explications ou des justifications du profit,
les théories de l’investissement en font l’élément
déterminant, soit parce qu’il est incitatif, soit parce qu’il en
permet le financement.
Selon la théorie de Jorgenson (1967), le stock de capital
optimal est alors celui qui rend maximale la valeur
actualisée du profit de l’entreprise, soit :
Max. profit =

–it[P(t)Y(t) –w(t)L(t) – r(t)I(t)]dt

où Y = volume de la production, L = travail, I =


investissement, P = prix de la production, w = salaire, r =
prix de l’investissement, i = taux d’intérêt, t = temps.
L’intérêt de cette formule est son caractère général. Elle
permet de synthétiser, mais peut-être pas de comprendre
facilement, l’idée selon laquelle l’investissement est
envisageable s’il a des perspectives de profit (écart entre la
valeur de la production et l’ensemble des coûts) et si la
rentabilité dans l’entreprise est supérieure au taux d’intérêt
du marché. Ce critère correspond à la notion d’efficacité
marginale du capital proposée par J.M. Keynes dans la
Théorie générale. Selon J.M. Keynes l’efficacité marginale
du capital est le rendement escompté d’un bien en capital,
i.e. les revenus que l’utilisateur de ce capital espère en
retirer pendant la durée d’utilisation et la vente de sa
production, déduction faite des dépenses courantes de
production. Lorsque l’efficacité marginale du capital (qui
est finalement le rapport entre les bénéfices actualisés
prévus par les entrepreneurs et la somme de toutes les
dépenses actualisées prévues par les entrepreneurs) est
supérieure au taux d’intérêt monétaire, les entrepreneurs
sont incités à investir.
L’efficacité marginale du capital correspond à la notion
gestionnaire de taux interne de rentabilité qui est définie
comme le taux actuariel [r] des recettes annuelles [Ri] sur
[n] périodes qui réalise l’égalisation avec la dépense initiale
[D], soit :
où Σ signifie somme.
Certaines analyses empiriques indiquent que le motif du
profit n’est pas toujours déterminant. Une entreprise peut
renoncer à un investissement rentable si son financement
doit se faire par une perte d’indépendance, alors
qu’inversement, une autre entreprise, disposant de capacités
d’autofinancement, entreprendra un investissement même si
sa rentabilité est discutable. Dans d’autres situations, le
critère de choix et de décision en matière d’investissement
est le délai de récupération : l’investissement est décidé si le
délai de récupération de la dépense initiale est rapide, et le
choix se fera en faveur de l’investissement pour lequel le
délai de récupération est le plus bref.
D’un point de vue empirique, au niveau
microéconomique, il ne faut pas négliger, comme cela a
déjà été signalé, le rôle de la politique fiscale (déduction
fiscale des dépenses d’investissement du résultat soumis à
l’impôt) et budgétaire (subventions).
La décision d’investir (Dt) au niveau macroéconomique
dépendrait de trois facteurs, selon Michal Kalecki (Théorie
de la dynamique économique) :
- l’épargne totale (St) des capitalistes, pour le
financement interne, et des salariés, pour le
financement externe ;
- l’évolution d’une année sur l’autre du profit (Pt)
selon le principe de l’accélérateur de profit de
Tinbergen : l’augmentation des profits induit une
augmentation de l’investissement ;
- l’évolution du stock de capital (Kt) : les décisions
d’investissement seront d’autant moins importantes
que le stock atteint est élevé, afin de ne pas
accélérer la diminution du taux de profit.
Le modèle ci-dessus peut être enrichi par l’introduction
du principe de Kalecki dit principe du « risque croissant ».
Selon ce principe, le risque financier croît avec l’importance
de l’endettement. Aussi convient-il de respecter une
proportionnalité entre autofinancement et investissement.
3. La combinaison des facteurs de production : de
l’équilibre du producteur à la substitution des
facteurs
Nous nous intéresserons à la manière dont l’entreprise
moyenne combine les facteurs. Dans cette opération,
certains facteurs peuvent être fixes et d’autres variables à
court terme, sachant que le long terme est défini comme
l’horizon pour lequel tous les facteurs sont variables. Les
périodes sont donc conventionnelles, bien que, dans les
faits, notamment en matière de crédit, les conventions
définissent le court terme comme un horizon inférieur à
deux ans, le moyen terme étant compris entre deux et sept
ans et le long terme se situant au-delà de sept ans.
Les combinaisons productives, avant toute opération
d’investissement en équipements fixes, peuvent comporter
des proportions variables des facteurs pour obtenir le même
volume de production. On dit alors que les facteurs sont
substituables, alors que si les proportions étaient fixes, les
facteurs seraient dits complémentaires.
Afin de simplifier l’exposé, nous présenterons la fonction
de production à un seul facteur variable, puis la fonction à
plusieurs facteurs variables et substituables, sachant que, par
fonction de production, on entend la formalisation qui décrit
la relation entre le niveau de production et la quantité de
facteurs.
3.1. Les notions de productivité : la loi des rendements non
proportionnels
Afin de présenter les notions de productivité, nous
supposerons que l’entreprise ne peut faire varier qu’un seul
facteur noté F. C’est, semble-t-il, Turgot qui, le premier, a
énoncé la loi des rendements non proportionnels exprimant
une évolution variable de la production (Y) lorsque F
augmente.
Dans la détermination du prix des facteurs présentée
précédemment, c’est la loi des rendements décroissants de
la théorie classique qui a été retenue. Dans la réalité, le
processus productif peut connaître l’une des quatre phases
suivantes : rendements croissants, constants, décroissants,
nuls. Ces rendements sont présentés sur la figure 4.7. qui
correspond aux données du tableau 1. La représentation
graphique repose sur l’hypothèse que le facteur choisi est
parfaitement divisible, i.e. que les quantités utilisées varient
de manière continue. Il ne s’agit pas donc de travailleurs
supplémentaires ou d’équipements supplémentaires, mais de
temps d’utilisation d’un service. La productivité, tout
comme la production, peut être calculée en termes
physiques, mais lorsqu’il y a une diversité de produits, il est
plus commode de calculer en valeurs monétaires, ce qui
facilite l’agrégation. Par ailleurs, un calcul de la
productivité rigoureux doit veiller à ne pas attribuer à tel
facteur la production faite par d’autres. En d’autres termes,
lorsque la production est obtenue par transformation de
produits achetés préalablement, le calcul de la productivité
doit se limiter à la prise en compte de la seule valeur ajoutée
au numérateur, qui est rapportée sur le nombre d’unités du
facteur pour lequel on cherche à déterminer sa productivité.

Tableau 1
. Production et rendements
Tout volume sur la courbe des possibilités de production
est efficient.

Fig. 4.9
. Production avec un facteur variable
La production n’est positive que si le facteur de
production est positif. Le produit moyen et le produit
marginal sont positifs à partir de la valeur 1 du facteur.
L’augmentation du facteur, une fois atteint le maximum de
la production, n’engendre pas de modification de la
production. En revanche, si dès le départ le volume du
facteur est supérieur au volume pour lequel la production est
maximale, la nouvelle production totale peut être plus faible
que celle obtenue de manière incrémentale.
C : niveau de (y) pour lequel la pente de la tangente
menée de l’origine à (y) est maximale. La courbe PM qui
donne les valeurs de cette pente montre que le produit
moyen est maximal.
C’ : maximum du produit moyen et quantité de facteurs
pour laquelle le produit moyen est égal au produit marginal.
D : point d’inflexion de la courbe (y) correspondant à la
plus forte pente des tangentes possibles que la courbe (y)
puisse admettre.
D’ : maximum du produit marginal qui se définit comme
la pente de la tangente menée à la courbe du produit total,
quelle que soit l’origine de cette tangente.
S’-S : produit maximal. Au point S, la tangente à la
courbe est parallèle aux abscisses. La pente de la tangente
est donc nulle, ce qui veut dire que le produit marginal est
nul. C’est ce que montre S’.

Des rendements croissants (dans le tableau 4.2. : de la


quantité de facteur 1 à 3) correspondent à une production
qui augmente plus vite que le facteur. La dérivée partielle de
la production totale (y) par rapport au facteur (F) est
positive. Cette dérivée partielle est la productivité marginale
du facteur (Pm). Empiriquement, elle s’obtient en faisant le
rapport entre la variation de la production totale (∂y) et la
variation du facteur (∂F). L’allure de la fonction de
production est exponentielle. La pente de Pm est positive :
le travailleur supplémentaire produit plus que le travailleur
moyen. On dit encore que la productivité marginale est plus
élevée que la productivité moyenne (PM).
Des rendements constants (dans le tableau 4.2. : de la
quantité 3 à 4 du facteur) se traduisent par une augmentation
de (y) au même rythme que F. L’allure de la fonction de
production est linéaire, la dérivée ou Pm est une constante,
le travailleur supplémentaire permet d’obtenir une
production supplémentaire égale à la production du
travailleur moyen (Pm = PM).
Des rendements décroissants (dans le tableau 1: à partir
de la quantité 4 du facteur) signifient que l’augmentation de
la production Y est proportionnellement plus faible que
celle du facteur de production F. La pente de la productivité
marginale Pm est négative, mais Pm peut être supérieure à
PM tant que celle-ci croît. Elle devient inférieure au-delà du
maximum de PM. C’est cette partie décroissante inférieure à
la productivité moyenne qui constitue la courbe de demande
du producteur à l’égard d’un facteur de production. Par
exemple, pour le travail, avec un salaire égal à la
productivité marginale, l’écart avec la productivité moyenne
est un surplus pour le producteur. C’est ce que Proudhon
appelait le droit d’aubaine de l’entrepreneur capitaliste.
Avec les données du tableau précédent, si le salaire
conventionnel – i.e. indépendant du nombre de travailleurs
embauchés – est de 100 unités monétaires, le nombre
optimum de travailleurs à embaucher est nécessairement 6,
nombre pour lequel la productivité marginale est également
de 100 tout en étant inférieure à la productivité moyenne.
Avec un seul salarié, le tableau indique que la productivité
marginale est aussi égale au salaire, mais elle n’est pas
inférieure à la productivité moyenne. Embaucher un
travailleur ne rapportera rien au producteur. Le problème du
producteur demandeur de facteurs est d’obtenir l’écart le
plus important entre la valeur de la production totale et la
somme des salaires à payer aux travailleurs.
Symboliquement cela s’écrit ainsi : Max [y = f(F) – W = w
(F)]. Maximiser cette fonction, revient à trouver la valeur de
F pour laquelle les dérivées de y et de W s’annulent, ce qui
signifie qu’elles sont égales. Ces dérivées sont la
productivité marginale et le salaire marginal qui est ici le
salaire moyen conventionnel. Le tableau 4.3. donne
l’évolution du surplus à partir de l’exemple du tableau
précédent et le salaire conventionnel de 100 unités
monétaires. On vérifie que le surplus est maximum pour 6.
Certes, avec 5 travailleurs le surplus est le même, mais la
productivité marginale est plus élevée que le salaire, et tant
qu’un travailleur supplémentaire rapporte plus que ce qu’il
coûte, son embauche est toujours une aubaine. Dès que le
surplus devient nul, l’embauche s’arrête.
Tableau 4.2
. Détermination de la demande optimale de
facteur de production
3.2. La fonction de production à deux facteurs variables
Pour déterminer le niveau de la production Y en
combinant tous les facteurs de production étudiés, on
construit la fonction suivante :
Y = A F (L, K, H, N) où
Y = le PIB en termes réels
A = l’état de la technologie disponible, qui détermine la
productivité totale des facteurs (voir l’encadré sur la
productivité et le chapitre sur la croissance)
L = la quantité de travail
K = la quantité de capital physique
H = la quantité de capital humain
N = la quantité de ressources naturelles
F () = une fonction indiquant comment les facteurs de
production sont combinés
Pour simplifier, nous supposerons que le niveau de
production (Y) ne dépend que des quantités de travail (L) et
de capital (K). Avec la fonction de production à deux
facteurs variables, nous mettrons en évidence les
phénomènes de rendements d’échelle et l’équilibre du
producteur pour un budget donné et pour des prix des
facteurs connus.
3.2.1. Les rendements d’échelle
Avec la fonction de production à un seul facteur, nous
avons découvert la notion de productivité. Avec deux
facteurs, dont l’un est fixe, il est nécessaire de qualifier la
productivité du facteur fixe apparente. En principe, un
accroissement de capital pour une quantité de travail
constante augmente la productivité apparente du travail.
Lorsque les deux facteurs augmentent simultanément,
l’échelle de production est modifiée ; des rendements
d’échelle expriment alors la relation entre la variation de la
production et la variation des facteurs. Avec l’hypothèse
d’homogénéité appliquée au travail, aux équipements, aux
usines, etc., trois types de rendements d’échelle sont
envisageables.
Rendements internes d’échelle croissants : La fonction de
production illustrée graphiquement, par une représentation
dans l’espace à trois dimensions a une allure exponentielle
en joignant les différents niveaux de production obtenus par
les quantités croissantes de la combinaison fixe de travail et
de capital. Si chaque facteur de production est multiplié par
un coefficient λ quelconque, le volume de la production sera
multiplié par un coefficient supérieur à λ. Les rendements à
l’échelle sont croissants lorsque par exemple la production
triple alors que les volumes des facteurs travail et capital
n’ont été que doublés. Avec une spécification de la fonction
de production dite fonction Cobb-Douglas (voir encadré, p.
171), les rendements d’échelle croissants, compatibles avec
une productivité marginale décroissante pour chaque
facteur, correspondent à une fonction dans laquelle leur
somme est supérieure à 1. Par exemple dans l’exemple ci-
dessous, chaque productivité marginale (0,7 pour le travail
et 0,6 pour le capital) est inférieure à 1, mais leur somme est
supérieure à 1.
Y = A × L0,7K0,6
La courbe à un niveau donné de production indique
différentes combinaisons de travail et de capital qui
permettent d’obtenir ce même niveau de production. Cette
courbe (y1) est l’isoquant qui se dit aussi isoquante ou
isoproduit. Sa projection sur le plan KOL est (y1‘).

Fig. 4.10.1
. Rendements internes d’échelle croissants
Rendements internes d’échelle constants : la fonction de
production illustrée graphiquement, par une représentation
dans l’espace à trois dimensions, a une allure linéaire en
joignant les différents niveaux de production obtenus par les
quantités croissantes de la combinaison fixe de travail et de
capital. Si chaque facteur de production est multiplié par un
coefficient λ quelconque, le volume de la production sera
multiplié par le même coefficient λ. Les rendements à
l’échelle sont constants lorsque, par exemple, la production
triple à la suite du triplement des volumes des facteurs
travail et capital. La fonction Cobb-Douglas est alors de
degré 1, i.e. que la somme des productivités marginales est
égale à 1 :
Y = AL0,63K0,37

Fig. 4.10.2
. Rendements internes d’échelle constants
Rendements internes d’échelle décroissants : la fonction
de production illustrée graphiquement, par une
représentation dans l’espace à trois dimensions, a une allure
en forme de colline ou de motte de beurre en joignant les
différents niveaux de production obtenus par les quantités
croissantes de la combinaison fixe de travail et de capital. Si
chaque facteur de production est multiplié par un coefficient
λ quelconque, le volume de la production sera multiplié par
un coefficient plus faible que λ. Les rendements à l’échelle
sont décroissants lorsque, par exemple, la production ne fait
que doubler alors que les volumes des facteurs travail et
capital ont été préalablement triplés. Avec une fonction de
production de type Cobb-Douglas, la somme des
productivités marginales est inférieure à 1 comme dans la
spécification suivante :

Fig. 4.10.3
. Rendements internes d’échelle
décroissants
Les trois formes de rendements peuvent être successives.
C’est ce que représente la figure synthétique 4.8.4. L’allure
de la courbe (y) qui joint les différents niveaux de
production pour un volume fixe en travail a une forme en S
ou logistique. Sa projection (y’) sur le plan yOK permet de
retrouver la fonction de production à un seul facteur
variable. Ce facteur est ici le capital.
Fig. 4.10.4
. Trois types de rendements internes
d’échelle
La division du travail, l’indivisibilité des équipements, les
frais fixes – i.e. des coûts indépendants du volume de la
production – sont les principaux responsables des
rendements d’échelle croissants. Mais, au-delà d’une
certaine taille, la sous-utilisation des capacités et les
lourdeurs bureaucratiques, le manque de motivation dû à
l’anonymat, la montée des tensions sociales font apparaître
des rendements d’échelle décroissants.
Il est cependant difficile de mettre en évidence les
rendements d’échelle dans la mesure où le changement de
dimension se fait dans le temps. Or, sur une longue période,
la fonction de production n’est plus homogène, en raison du
progrès technique. Celui-ci est un facteur qualitatif qui
permet d’obtenir plus de produits avec les mêmes quantités
de facteurs. Nous l’avons déjà signalé en évoquant le
phénomène de la croissance endogène, l’apprentissage
(learning by doing), l’éducation, les nouveaux équipements,
le changement de l’organisation de l’entreprise, la
modification du climat social dans l’entreprise et d’autres
éléments encore, tenant à la qualité des matières premières
et aux innovations technologiques, le volume et la qualité
des infrastructures publiques, etc. expliquent ce phénomène
de progrès technique mesuré par les gains ou surplus de
productivité.
3.2.2. Les isoquants : la combinaison des facteurs de
production
Un isoquant, comme il a été défini ci-dessus, est
l’ensemble des combinaisons de facteurs de production qui
permettent d’obtenir le même niveau de production. Il y a
autant d’isoquants que de niveaux de production. Pour
faciliter l’analyse, les isoquants seront représentés en
projection sur l’espace à deux dimensions correspondant
aux facteurs de production K et L.
Le niveau de production peut être atteint soit avec une
combinaison fixe des deux facteurs qui sont alors dits
complémentaires (cf. figure 4.11. a), soit avec une
combinaison variable des quantités de travail et de capital
qui sont alors dits substituables de manière stricte ou
parfaite (fig. 4.11.b), ou substituables de manière imparfaite
(fig. 4.11.c).

Fig. 4
. 11. Fonctions de production à facteurs
complémentaires et à facteurs substituables
Lorsque les facteurs sont strictement complémentaires, il
n’existe, pour un niveau de production, qu’une seule
combinaison possible. Par exemple pour conduire un
tracteur agricole de 45 CV tirant une charrue équipée de 6
socs pour labourer un champ de 50 ha en une journée de 8
h, il faut un travailleur. Si l’on utilise deux tracteurs avec
deux charrues, mais sans changer le volume de travail, les
choses n’iront pas plus vite ou la superficie labourée en une
journée ne sera pas plus importante. Pour faire plus vite ou
pour une superficie plus importante en huit heures de temps,
il faut en plus du tracteur supplémentaire, un travailleur
supplémentaire. La complémentarité des facteurs de
production est souvent inévitable à court terme. En
revanche, à long terme, la substituabilité est une hypothèse
plus souvent acceptable. À long terme, en effet, des
techniques plus capitalistiques peuvent avoir le temps d’être
mises en place. Avec l’exemple du travail de labour, au lieu
de raisonner avec un deuxième tracteur, la substituabilité
consistera à imaginer un tracteur plus puissant avec une
charrue de 10 ou 12 socs à la fois, au lieu de 6
précédemment.
Avec des facteurs substituables, en supposant la
divisibilité de chaque facteur, les combinaisons possibles
sont nombreuses. Nous nous situerons dans ce cas. Pour un
isoquant donné, le rapport entre K et L constitue le
coefficient d’intensité capitalistique. On peut donc
envisager des solutions capitalistiques qui économisent du
travail (la combinaison K1-L1 dans la figure 4.12.) et des
solutions travaillistiques (la combinaison K2-L2 dans la
figure 4.12.) qui économisent du capital pour un même
niveau de production.

Fig. 4.12
. Cartes d’isoquants
Les isoquants, en tant que courbes de niveau, ne se
coupent pas. Le principe d’économicité ou efficience de la
combinaison productive – en écartant le phénomène de
chômage déguisé ou sous-emploi (correspondant à une
faible productivité des travailleurs par rapport à ce qui est
possible) – conduit à ne retenir que la partie de l’isoquant
pour laquelle l’augmentation de la quantité d’un facteur
s’accompagne nécessairement de la diminution de la
quantité de l’autre facteur. Il n’est pas économique, i.e.
rationnel, d’augmenter l’un ou les deux facteurs pour un
niveau de production inchangé. Ce principe conduit dans un
système d’axes représentant le travail et le capital à des
isoquants dont la pente est négative. En ne retenant que des
isoquants décroissants, il s’ensuit que le niveau de
production est d’autant plus élevé que l’isoquant est loin de
l’origine des axes.
On appelle taux marginal de substitution technique
(TMST) des facteurs en un point donné, la pente de
l’isoquant en ce point. Il exprime la quantité supplémentaire
ou additionnelle d’un facteur nécessaire pour compenser la
diminution de l’autre facteur, afin de maintenir le même
niveau de production14. En prenant le facteur travail et le
facteur capital, on dira que le taux marginal de substitution
technique du facteur capital au facteur travail est égal à la
quantité supplémentaire du facteur capital nécessaire dans
l’entreprise pour remplacer une unité du facteur travail sans
changer le niveau de production.
La valeur du TMST varie tout au long de l’isoquant (sauf
pour le cas particulier d’un isoquant linéaire). Plus on
s’approche de zéro pour l’un des facteurs, plus les quantités
de l’autre facteur doivent être importantes. Celui-ci est de
moins en moins productif, tandis que le facteur qui diminue
est de plus en plus productif. Ce phénomène n’est que le jeu
des rendements décroissants pour chacun des facteurs. On
peut d’ailleurs démontrer que le TMST est l’inverse des
productivités marginales des facteurs. Par exemple le taux
marginal de substitution du facteur capital au facteur travail
dans une entreprise est égal au rapport entre la productivité
marginale du travail et la productivité marginale du capital.15
La diminution de la productivité apparente du facteur
croissant et l’augmentation de celle de l’autre facteur se
traduisent par la convexité de l’isoquant par rapport à
l’origine. Une telle forme revient à exclure les fonctions
monofactorielles, i.e. la possibilité de produire uniquement
par du travail ou par du capital. La convexité signifie que la
combinaison de plusieurs facteurs est plus productive que le
recours à un seul facteur.
3.2.3. Le choix du producteur et de la contrainte budgétaire
On fait l’hypothèse que l’entrepreneur a un budget B
qu’il va utiliser au mieux, i.e. pour acheter des quantités de
K et de L dont les prix unitaires sont k et w, qui lui
assureront la production la plus élevée possible.
La somme des facteurs pondérée par les prix des facteurs
est égale au budget :

B = kK + wL. En prenant K pour ordonnée, on a :

Illustrons cela par un exemple numérique. Supposons que


le producteur dispose d’un budget B de 1 000 unités
monétaires journalières en vue de la location de facteurs de
Production L et K. Le facteur L se loue sur la base 100
unités monétaires de la journée (w). Le facteur K a un prix
(k) de 200 unités monétaires la journée. Le budget 1 000
peut être consacré soit totalement au travail par une
demande de 10 personnes/jour, soit totalement au capital par
une demande de 5 unités, ou à une combinaison linéaires
des deux facteurs selon les indications du tableau 4.4. ci-
dessous :
Tableau 4.4
. Budget du producteur et les isocoûts
La colonne (e) du tableau 4.3. indique que le budget B est
égal à la somme des dépenses prévisionnelles. Soit sous la
forme générale :
100 L + 200 K = 1 000
ou en exprimant K en fonction de L :
200 K = – 100 L + 1 000, soit finalement :
K = – 0,5 L + 5
On vérifie avec cette équation que la pente (– 0,5) est
l’inverse du rapport des prix. Cette pente est négative car
tout accroissement de la quantité d’un facteur doit
s’accompagner de la diminution de la quantité de l’autre
facteur.
Cette équation est celle de la droite du budget ou droite
d’isocoût indiquant toutes les combinaisons de facteurs
ayant le même coût. La figure 4.13. en est une
représentation. Tout ce qui est au-dessus de cette droite est
inaccessible à l’entreprise.

Fig. 4.13
. Droite d’isocoût
Pour déterminer la combinaison optimale des facteurs de
production, i.e. les quantités de facteurs K et L qui
permettent de réaliser le niveau de production le plus élevé,
il faut chercher l’isoquant pour laquelle le taux marginal de
substitution technique est égal à la pente de l’isocoût, pour
un seul couple de L et K. Graphiquement, les choses sont
claires, car cette définition correspond au seul point de
tangence entre l’isoquant et la droite d’isocoût. L‘optimum
du producteur ou équilibre du producteur est déterminé par
les quantités de travail et de capital qui permettent
d’atteindre le niveau de production le plus élevé, ce qui
correspond au plus haut isoquant qui puisse être en contact
avec la droite du budget.

Fig. 4.14
. Combinaison productive optimale
Graphiquement, la combinaison optimale de KOet LO
correspond au point de tangence E entre l’isocoût et le plus
haut isoquant (y2) accessible avec le budget disponible. y3
est inaccessible, tandis que y1 l’est, mais avec gaspillage des
ressources. Il est possible de produire y1 avec un budget plus
faible (ligne discontinue tangente à y1 et parallèle au budget
initial) par la combinaison K’ – L’.
La fonction Cobb-Douglas

En 1928, C.W. Cobb et P.H. Douglas ont donné une


formulation particulière de la fonction de production, qui
connaîtra un grand succès, notamment dans les modèles
macroéconomiques de croissance néoclassiques. Dans cette
fonction Cobb-Douglas homogène, linéaire de degré 1, le
niveau de production Y dépend de K, de L et d’une
constante structurelle A :
Y = AK_L_
où x et _ sont des paramètres positifs – coefficients
d’élasticité de la production par rapport au capital et au
travail – dont la somme est égale à 1. Une fonction (y) à 2
facteurs est dite homogène de degré n, si en multipliant les 2
facteurs par une constante m, la fonction est multipliée par
mn : F [mL, mK] = mny
Le sentier d’expansion des fonctions de production
homogène est une droite quelle que soit la nature des
rendements d’échelle. On sait que le degré de la fonction
indique la nature des rendements : (n < 1) rendement
décroissant, (n = 1) rendement constant, (n > 1) rendement
croissant.
L’équation de l’isoquant déduite de la fonction Y pour un
niveau donné de Y est :

Ce modèle de base a donné lieu à un grand nombre de


spécifications. Elles se sont traduites par la prise en compte
soit d’un progrès technique autonome qui dépend du temps
(Y = Ae_t K_L_), soit d’un progrès technique incorporé, avec
notamment les fonctions de production à génération de
capital. Celles-ci font l’objet à leur tour de nouvelles
spécifications en fonction des différentes possibilités de
substitution entre le capital et le travail avant et après
l’installation des équipements. On obtient alors :
1 la fonction putty-putty avec possibilité de
substitution avant et après ;
2 la fonction putty-clay où la substitution n’est
possible qu’avant l’installation des équipements ;
3 la fonction clay-clay qui raisonne avec des
coefficients de production rigides avant comme
après.

En ce point de tangence, le rapport des productivités


marginales est égal au rapport des prix des facteurs. En
d’autres termes, à l’optimum, les productivités marginales
des facteurs pondérées par les prix sont égales.
La modification du budget, pour un prix relatif (rapport
entre le prix du travail et le prix du capital) constant se
traduit par des droites d’isocoût parallèles à la première. À
chaque isocoût correspond un optimum. La liaison à partir
de l’origine des axes de tous les optima donne le sentier
d’expansion ou ligne d’échelle appelée encore l’eutope. Le
sentier d’expansion est une droite si la fonction de
production est homogène, quelle que soit la nature des
rendements.

Fig. 4.15
. Croissance du budget avec fixité des prix
relatifs
La modification des prix relatifs s’accompagne pour un
budget donné de deux effets prix : un effet de revenu et un
effet de substitution.

Fig. 4.16
. Combinaison productive avec
modification des prix relatifs (augmentation
du taux de salaire) : effet de revenu et effet
de substitution
Imaginons que le prix (w) en valeur absolue du travail
augmente et que le prix en valeur absolue du capital reste
constant. Cela signifie que le prix relatif du travail en capital
est modifié. Avec un même budget, s’il était totalement
consacré à l’achat de la force du travail, les quantités de L
accessibles deviendraient plus faibles qu’avant la hausse de
w, alors que si seul K était acheté, aucun changement
n’apparaîtrait. La hausse du prix d’un facteur revient ainsi à
réduire le budget réel au regard de ce facteur. La pente de
l’isocoût est modifiée. De KiLj qui correspond à la droite (1),
elle passe à KiL’j qui correspond à la droite (2) de pente plus
forte.
La combinaison optimale (K1-L1) () est obtenue avec un
isoquant d’un niveau plus bas (Y1). C’est le résultat de
l’effet de revenu ou de la diminution du budget réel. Il se
produit en même temps un changement dans le rapport
d’utilisation des facteurs. Le facteur dont le prix a augmenté
est relativement moins utilisé que l’autre. C’est l’effet de
substitution dont on se rend compte plus facilement avec
une droite de budget (2’) parallèle à la nouvelle (2) qui
serait tangente à l’isoquant de départ (Y2) : l’équilibre se
déplace de E0 à E’1.1. On voit ainsi une plus forte utilisation
du capital K par le passage de K0 à K’1 et une moindre
utilisation de L par le déplacement de L0 vers L’1.
Le coefficient d’élasticité de substitution (es) donne la
mesure de ce phénomène de variation de l’intensité
capitalistique (K/L) consécutif à la variation des prix relatifs
ou du TMST. Il se calcule en faisant le rapport du
pourcentage de variation de l’intensité capitalistique d
(K/L)/(K/L) et du pourcentage de variation des prix relatifs
d (w/k)/(w/k).
Lorsque les facteurs sont complémentaires, es = 0. La
substituabilité parfaite donne une valeur de es qui tend vers
l’infini. Avec la fonction Cobb-Douglas, es = 1, i.e. qu’une
variation de x % des prix relatifs entraîne une variation de
même proportion dans l’intensité capitalistique.
4. Les coûts de production et la fonction d’offre
Pour l’économiste, « on n’a rien sans rien », ce qui veut
dire que tout produit a un coût. Par coût, on entend le
sacrifice qu’il faut consentir, en temps ou en argent, ce à
quoi il faut renoncer, le montant des charges ou des devises
nécessaires ou associées à l’acquisition ou à la production
d’un bien ou d’un service. En principe, le coût est une
fonction croissante des quantités à produire.
La ligne d’isocoût, exprimant les différents emplois du
budget entre le travail et le capital, est une présentation
particulière du niveau donné des dépenses possibles. Elle est
établie indépendamment des quantités produites ou à
produire. La fonction de coût, en revanche, met en relation
les dépenses nécessaires et les quantités variables de
produit. Mais il est bien évident que le niveau de production
à choisir, s’il dépend du budget de l’entreprise ou des prix
des facteurs, dépend aussi du prix du marché.
L’entrepreneur confrontera le coût qu’exige la dernière unité
produite avec le prix qu’il peut retirer du marché. Il est aussi
évident que, si le prix du marché est inférieur au coût
unitaire, il n’a aucun avantage à produire dans le cadre
d’une économie de marché régie par la logique du profit.
Produire à perte est toujours possible tant que les ressources
le permettent et lorsque l’objectif est d’une tout autre nature
que la recherche d’un profit. C’est dire l’importance des
fonctions de coût pour déterminer la fonction d’offre.
4.1. La typologie des coûts
Pour produire, il faut des matières premières, des
équipements et de la main-d’œuvre. L’utilisation de chacun
de ces facteurs comporte un coût, et chacun de ces coûts est
un coût partiel, tandis que l’ensemble des coûts partiels est
le coût complet.
Dans l’entreprise, certains coûts varient avec le volume
de la production, d’autres non. Les premiers correspondent,
par exemple, aux matières premières, aux salaires, au
rendement, aux frais de transport, etc. Ils augmentent ou
diminuent suivant le niveau de production. Les seconds
correspondent aux loyers, aux amortissements fiscaux, au
gardiennage des locaux, aux salaires forfaitaires… Ils sont
fixes pour certains niveaux de production ou pour une
certaine échelle de production. Il faut un changement de
taille important pour obtenir une variabilité des coûts fixes.
On admettra que ces changements de structures se
produisent en longue période. Le coût fixe (CF) et le coût
variable (CV) sont eux aussi des coûts partiels, et le coût
complet, qu’il est préférable d’appeler coût synthétique, est
la somme du coût fixe et du coût variable :
CS = CF + CV.
Chacun de tous ces coûts peut être établi ou calculé pour :
- la totalité de la production, et on parle alors de coût
total (CT),
- une unité en moyenne, il s’agit alors du coût moyen
(CM) obtenu en divisant le total par la quantité :
CM = CT/y,
- une unité de produit additionnelle, ce qui correspond
au coût marginal (Cm). Il s’obtient en faisant le
rapport entre la variation du coût total et la
variation de la quantité : Cm = (CT2 – CT1)/(y2 – y1).
Cette notion de coût marginal ne se calcule que
pour la partie variable du coût complet.
Le terme « total » s’applique à la totalité des quantités
produites et non pas à la somme des coûts partiels. La
somme des coûts partiels est le coût complet ou coût
synthétique qui peut être total (CST), moyen (CSM) et
marginal (Cm). À court terme, le coût synthétique total
(CST) de l’entreprise est la somme du coût fixe total (CFT)
et du coût variable total (CVT). Il est, en d’autres termes,
l’ensemble des dépenses supportées pour la totalité de la
production.
CST = CFT + CVT
Les rapports entre chacun de ces trois coûts et la quantité
produite déterminent :
le coût fixe moyen :
CFM = CFT/Q
le coût variable moyen :
CVM = CFT/Q
et le coût synthétique moyen ou coût moyen complet :
CSM = CST/Q ou CSM = [(CFT/Q) + (CVT/Q)]
Les rapports entre la variation du coût synthétique total
ou du coût variable total, d’une part, et la variation des
quantités, d’autre part, constituent le coût marginal (Cm).
Lorsqu’on envisage des variations infinitésimales des
quantités produites, alors le coût marginal peut être assimilé
à la dérivée du CST ou du CVT. Tous ces éléments peuvent
être illustrés par les données du tableau 4.5.
La figure 4.17. représente les différentes courbes de coût
à court terme. Le coût synthétique total a une ordonnée à
l’origine positive, représentant le coût fixe total. Il évolue
ensuite comme le CVT : il croît plus lentement que la
production dans une première phase, puis plus rapidement
dans une deuxième phase. Ces deux phases se traduisent
respectivement par la décroissance puis la croissance du
coût marginal.
Le Cm est une courbe en U. La diminution du coût
marginal correspond à la phase de rendements croissants
dans la fonction de production ; lorsque le coût marginal est
constant, les rendements sont constants ; la hausse du coût
marginal correspond aux rendements décroissants dans la
fonction de production. La courbe du coût marginal est la
forme inversée de la courbe de productivité marginale, à
l’échelle près, puisque pour le coût marginal, l’abscisse est
la quantité de produit, tandis que pour la productivité, il
s’agit de la quantité de facteurs.
Tableau 4
. 5. Coûts de production à court terme

La courbe de coût synthétique moyen (CSM) est plus


ouverte que la courbe de coût variable moyen (CVM), en
raison de l’adjonction du coût fixe moyen qui est
asymptotique à l’axe des abscisses. Le minimum du coût
marginal correspond à la quantité pour laquelle les courbes
de CST et de CVT ont un point d’inflexion. La courbe de
Cm coupe la courbe de coût moyen à son minimum. Le
minimum du coût moyen correspond à la quantité pour
laquelle la pente de la tangente menée de l’origine à la
courbe de coût total est minimum.
L’importance des coûts fixes, toutes choses étant égales
par ailleurs, notamment hors contraintes de débouchés, est
ce qui est le plus déterminant de la quantité à produire et du
nombre de producteurs. Avec des coûts fixes élevés, la
production à grande échelle est nécessaire pour répartir ce
coût sur un grand nombre d’unités afin d’avoir un prix de
vente acceptable par la clientèle. Lorsque les coûts fixes
sont élevés et qu’il n’est pas possible de récupérer les
dépenses faites en revendant les équipements, on parle de
barrières à l’entrée (coût fixe élevé) et de barrières à la
sortie (coût irrécupérable). Le premier arrivé dans
l’industrie où ces phénomènes existent a un avantage sur
tous les autres candidats qui souhaitent entrer dans la
branche, car les coûts fixes diminuant très vite, autorisant
des rendements croissants, il peut fixer un prix plus faible
que celui que pourraient proposer les candidats à l’entrée
dans cette industrie16. Dans le tableau 4.5., en supposant que
le coût marginal est continuellement décroissant avec un
processus de production à
Fig. : 4.17. Courbes de coût de
production
l’unité, le producteur qui a déjà produit 4 unités, peut se
permettre de vendre le produit 600 unités. Il réalise de la
sorte un bénéfice de 50 unités monétaires par unité de
produit, tout en empêchant l’entrée de nouveaux
producteurs pour lesquels le coût synthétique moyen de la
première à la troisième unité sera plus élevé que le prix de
vente fixé par le premier producteur. Ce phénomène est ce
qui constitue un monopole naturel17 qui sera étudié plus loin.
À long terme, les coûts fixes augmentent. L’entreprise
change d’échelle, de taille ou encore de dimension pour
réaliser sa production. Les différentes dimensions sont
assimilées à des productions à des dates différentes, avec un
coût moyen à court terme pour chaque dimension ou échelle
de production. Les définitions des courbes de coût à long
terme sont différentes de celles présentées pour les coûts à
court terme. C’est ainsi que le CM à long terme (CMLT)
pour une quantité y est le minimum du CM à court terme
(CMCT), compte tenu de l’augmentation du facteur fixe. La
courbe de CM à long terme est alors la courbe enveloppe
inférieure des courbes de CM à court terme à différentes
dates. Les mêmes définitions s’appliquent au CT (coût total)
à long terme, mutatis-mutandis. En revanche, la courbe de
coût marginal à long terme n’est pas une courbe enveloppe,
mais elle est simplement dérivée de la courbe de coût total.
La phase décroissante du coût moyen à long terme
(CMLT) constitue la zone des économies internes d’échelle.
La phase croissante, qui commence à l’intersection avec le
coût marginal à long terme (CmL), représente les
déséconomies internes d’échelle.

Fig. 4.18
. Économies internes d’échelle et
désécononomies internes d’échelle
4.2. La fonction d’offre
Le producteur ne produit que si les recettes prévues
couvrent au moins les coûts de production. Il doit donc
chercher à connaître son seuil de rentabilité. L’offre qu’il
fait dépend aussi du prix qui doit au moins couvrir le coût
de l’unité produite. Or ce coût évolue en fonction de la
quantité déjà produite, et le prix du marché peut lui aussi
évoluer avec pour effet de modifier les conditions de
rentabilité de la production. Il nous faut donc examiner la
méthode de détermination du seuil de rentabilité, la
sensibilité ou élasticité de la production à la variation du
prix et, en dernier lieu, construire la courbe d’offre.
4.2.1. La notion de seuil de rentabilité et de point mort
Pour comprendre la nature de la fonction d’offre du
producteur, il faut faire les hypothèses simplificatrices selon
lesquelles le prix est donné, le producteur est rationnel et
maximise son profit. Le producteur rationnel doit en
premier lieu ne produire que si le prix de vente de son
produit est au moins égal au coût de revient complet que
nous avons assimilé ici au coût synthétique moyen. Le
chiffre d’affaires (le produit des quantités vendues par le
prix de vente) pour lequel le producteur ne fait ni perte ni
bénéfice est appelé seuil de rentabilité ou chiffre d’affaires
critique. Son calcul pour servir d’instrument de prévision
oblige à faire les hypothèses simplificatrices de
l’identification de tous les coûts (fixe et variable) pour un
seul type de produit, de la proportionnalité des coûts
variables en fonction des quantités du produit.
Algébriquement, si l’on désigne par (p) le prix, (y) les
quantités à vendre, (a) le coût variable moyen, (b) le coût
fixe total,
le chiffre d’affaires est : p × y ;
le coût complet ou synthétique total est : ay + b.
Le bénéfice est la différence entre le chiffre d’affaires et
le coût synthétique total :
py – (ay + b).
Le seuil de rentabilité correspond alors à : pY = aY + b.
Le volume des ventes nécessaires (point mort) est alors
celui pour lequel :
py – ay = b,
Cela signifie que la marge sur coût variable (py – ay) est
égale au coût fixe total.
Soit, par conséquent, un point mort de :
y = b/(p – a).

Fig. 4.19
. Calcul du seuil de rentabilité
La quantité optimale, ou optimum à vendre pour le
producteur rationnel, est celle qui permet de réaliser le
profit maximum. Une fois le seuil de rentabilité franchi, le
producteur proposera des unités additionnelles de son
produit tant que le coût additionnel ou coût marginal est
inférieur au prix de vente. Il s’arrêtera d’offrir des unités
additionnelles dès que le coût marginal est égal au prix de
vente.
En utilisant les courbes traditionnelles de coût
synthétique moyen (CSM) et de coût marginal (Cm), il
apparaît que le producteur doit produire les quantités pour
lesquelles le prix de vente est supérieur au CSM (coût
unitaire).
Comme la courbe du CSM est en U, la ligne de prix –
horizontale par rapport aux abscisses représentant les
quantités de produit (y) – coupe le CSM en deux endroits. Il
y a ainsi une zone économiquement acceptable où le profit
apparaît. Elle est comprise entre une quantité minimale ym,
qui correspond au seuil de rentabilité illustré
numériquement ci-dessus, et une quantité maximale yM au-
delà de laquelle la zone de perte réapparaît. La question est
de savoir quelle quantité de (y) permet de réaliser le profit
maximal.
On peut aisément démontrer que le profit maximal est
obtenu lorsque le Cm est égal au prix, en faisant la dérivée
de la fonction du profit total (différence entre les recettes
totales py et le CST dont le coût variable total est fonction
de y) et trouver la valeur de y pour laquelle cette dérivée est
nulle. Le profit étant noté Π, le problème s’écrit :
Max Π = [py – CST]
la dérivée de py est (p), la dérivée de CST est Cm.
Donc la valeur de y qui maximise Π est celle pour
laquelle le prix est égal au coût marginal :
p = Cm.
Raisonnons d’une autre manière. Supposons que le
niveau de y soit supérieur au niveau optimal. Dans ce cas, le
coût marginal est supérieur au prix de vente. L’entreprise
perd de l’argent sur chaque unité supplémentaire produite
au-delà de l’égalité entre Cm et le prix du marché.
Supposons alors qu’il soit inférieur, l’entrepreneur renonce
alors à une partie du profit, puisque le coût marginal est
inférieur au prix de vente. Il a intérêt à augmenter sa
production tant que Cm < p, puisque cette différence est
un profit marginal. Par conséquent, le profit est maximal
lorsque Cm = p.
La courbe de Cm constitue la courbe d’offre du
producteur : si le prix s’élève, la production augmente ; si le
prix baisse, la production suit jusqu’à ce que le prix soit
égal au minimum du coût moyen. En dessous du coût
moyen, les profits sont négatifs.
La courbe d’offre est par conséquent la partie de la
courbe du coût marginal qui est supérieure au minimum du
coût moyen. Elle correspond à une fonction croissante par
rapport au prix, dans les cas les plus ordinaires. Elle peut
cependant être atypique. On a vu, dans les années 1980, les
producteurs de pétrole augmenter leur production pour
compenser la baisse du prix afin d’obtenir des recettes d’un
niveau donné. Précédemment, pour l’offre de travail, une
forme atypique en Z a également été présentée.
4.2.2. L’élasticité de l’offre par rapport au prix.
La sensibilité de l’offreur à la variation des prix se
mesure par le coefficient d’élasticité. Celui-ci est le rapport
entre le pourcentage de la variation des quantités offertes
(_y/y) et le pourcentage de variation du prix (_p/p), donc :

eO/p =

soit encore :

eO/p =

En principe, eo/p est positif, sauf pour les offres atypiques.


Elle varie en tous les points de la courbe d’offre puisque p
et y sont eux-mêmes variables en tous les points. Il existe
cependant deux situations remarquables :
L‘élasticité nulle ou rigidité de l’offre correspond à la
fixité de l’offre par rapport au prix. La pleine utilisation des
capacités de production peut en être la cause. La courbe
d’offre est verticale par rapport aux quantités.
L‘élasticité infinie ou parfaite se traduit par une fonction
d’offre parallèle aux abscisses représentant les quantités.
Lorsque les capacités de production sont sous-employées
avec une main-d’œuvre disponible abondante, l’offre peut
augmenter sans pression des prix.
4.2.3. L’offre de la branche
L’agrégation des offres individuelles par addition
horizontale donne l’offre globale de la branche. Supposons
que la branche soit constituée de deux producteurs dont les
offres individuelles correspondent aux données du tableau
4.6. Graphiquement, le processus d’agrégation horizontale
est manifeste sur la figure 4.20.
Tableau 4.6
. L’offre de la branche

Fig. 4.20
. Agrégation des offres individuelles :
l’offre du marché
L’analyse en économie industrielle s’intéresse à la
structure de la branche pour mettre en évidence le pouvoir
de marché associé au degré de concentration établi par la
mesure de la distribution statistique des entreprises. Les
critères sont nombreux : l’effectif salarié des entreprises, les
chiffres d’affaires, les investissements, etc. L’outil le plus
simple est la courbe de Lorenz-Gini - – du nom de deux
statisticiens qui l’ont conçue et développée
mathématiquement pour le calcul du coefficient de
concentration.
Cette courbe est établie à partir des fréquences cumulées
d’une distribution statistique. Ainsi, pour les distributions
des chiffres d’affaires dans la branche, les abscisses
représentent les fréquences cumulées des entreprises de la
branche et les ordonnées les fréquences cumulées des
chiffres d’affaires. Lorsque la distribution des chiffres
d’affaires est égale, i.e. que toutes les entreprises sont de
même taille, on obtient une bissectrice, qui signifie par
exemple que 1 % des entreprises réalisent 1 % du chiffre
d’affaires du marché, 5 % des entreprises réalisent 5 % du
chiffre d’affaires du marché… et ainsi de suite jusqu’à 100
%. Une distribution tend à être concentrée, lorsque peu
d’entreprises font l’essentiel de la production de la branche
et qu’un grand nombre n’ont qu’un faible pourcentage.
Cette distribution se traduit par une courbe dont la concavité
est tournée vers le haut. Plus la moyenne de la distribution
est éloignée de la bissectrice plus la concentration est forte,
en sachant que cette moyenne correspond au point où la
tangente à la courbe est parallèle à la bissectrice (pour une
illustration voir l’exercice en fin de chapitre).

Fig. 4.21
. Courbe de concentration Lorenz-Gini.
Parmi les outils plus complexes, on signalera les
principaux indices de concentration suivants :
- le rapport entre la somme des poids des premières
unités et la somme des poids de l’ensemble des
unités. On obtient un pourcentage du type A1 = la
première entreprise représente X % de l’économie,
ou A10 = les 10 premiers revenus représentent Z %
du revenu national etc. ;
- l’indice de Herfindahl-Hirschman qui correspond à
la somme des carrés des poids des unités notés de i
à N (nombre de pays ou de marchés) pour une
variable donnée X (par exemple : le montant de ses
ventes réalisé dans un espace donné i) :

H = Σ[(Xi)/ΣXi]2
Le montant des ventes peut être remplacé par n’importe
quelle autre variable (effectifs salariés, le niveau des
investissements, etc.). L’indicateur de Herfindahl est une
fonction croissante de la concentration ou décroissante de la
dispersion. Par exemple si H est égal à 1, cela signifie que
les ventes sont effectuées en totalité dans un seul espace
(pays). Si H est égal 1/n, cela signifie que les ventes sont
également réparties entre les différents espaces ou marché.
L’indice de Herfindahl peut servir d’indice de
mondialisation d’une firme.
4.3. L’offre globale et le revenu disponible
L’offre globale de toutes les branches met en relation le
niveau général des prix et le niveau du revenu national réel,
tel que toute augmentation des prix entraîne une
augmentation du revenu national réel.
On notera que cette représentation n’est pas valable hors
de l’analyse statique en termes de marché, car la croissance
du revenu réel global sur une longue période dépend des
facteurs de production disponibles dans la nation. Dans ce
cas, la courbe d’offre se déplace vers la droite pour une
quantité de facteurs croissante ou à la suite de l’amélioration
de la qualité des facteurs.
En termes de flux, l’offre globale dans la nation
correspond aux ressources disponibles, i.e. à la somme du
produit intérieur brut et des importations. L’offre intérieure
se traduit aussi par une distribution de revenus. Il y a ainsi
les revenus du travail (salaires), les revenus des entreprises
individuelles (bénéfices industriels, commerciaux, agricoles
et bénéfices des professions libérales), les revenus des
placements et des titres de valeurs mobilières (intérêts et
dividendes) – actions, obligations. L’ensemble de ces
revenus issus de la production intérieure constitue le revenu
primaire. Celui-ci subit des prélèvements (cotisations
sociales, avoir fiscal) et bénéficie de réaffectations sous
forme de pensions, retraites, prestations de chômage pour
former le revenu avant impôts. À son tour, le revenu avant
impôts est l’objet de prélèvements – impôt sur le revenu,
primes d’assurances – ainsi que d’opérations de
réaffectation – prestations familiales ; assurance-maladie,
maternité, décès, accident du travail ; assistance ;
indemnités d’assurances ; subventions d’équipement. Après
ces différentes opérations de redistribution, on obtient le
revenu disponible, dont la principale utilisation pour les
ménages est la consommation que nous allons étudier au
chapitre suivant.
4.4. La répartition personnelle
L’analyse de l’importance et du mode d’établissement des
salaires, des revenus du patrimoine (intérêts, dividendes,
loyers et autres revenus fonciers) et des revenus mixtes
(revenus des entrepreneurs individuels) constitue, comme
nous l’avons déjà écrit, le domaine de la répartition
fonctionnelle. Lorsque l’analyse de la répartition porte sur la
distribution statistique des revenus dans la population sans
prendre en compte la nature ou l’origine du revenu, il s’agit
alors de répartition personnelle. L’analyse peut porter sur
l’une des formes seulement des revenus comme, par
exemple, les salaires.
4.4.1. La mesure de la distribution statistique ou
concentration des revenus
Les outils de mesure de la dispersion des revenus ou de la
concentration des revenus reprennent certains parmi ceux
déjà présentés dans l’étude du degré de concentration des
entreprises. Il s’agit en particulier de la courbe de Lorenz-
Gini. Parmi les autres outils simples et fréquemment
employés en utilisant les données pour la construction de la
courbe de Lorenz-Gini, il faut citer le rapport soit
interdécile, soit interquintile, soit encore interquartile Le
rapport interdécile, ou entre le percentile 90 et le percentile
10, est obtenu en faisant le rapport entre, d’une part, le
revenu total des 10 % de la population totale ayant le revenu
le plus élevé (P90) et, d’autre part, le revenu total des 10 %
de la population totale ayant le revenu le plus bas (P10).
Pour le quintile, le calcul se fait sur les groupes sociaux de
20 % (P80/P20), pour le quartile, le groupe représente 25 %
(P75/P25). De manière empirique, il possible d’envisager
des rapports non symétriques, comme par exemple le
rapport entre le revenu le plus élevé des 20 % de la
population et celui des 25 % de la population qui déclare le
revenu le plus bas. Plus la classe est étroite, plus l’indice
aura tendance à donner une forte dispersion. Le rapport
intercentile (le revenu des 1 % de ceux qui ont le revenu le
plus élevé divisé par le revenu des 1 % de ceux qui ont le
revenu le plus bas) est ainsi plus grand que le rapport
interdécile, qui est lui-même plus grand que le rapport
interquartile.
Vilfredo Pareto a proposé en 1896 une formule dite loi de
Pareto. Cette formule, qui concerne la distribution des
revenus dans la nation, spécifie qu’en tout temps et tout
lieu, la distribution des revenus est sensiblement la même.
Sa formulation mathématique simplifiée est :
Log N = Log A – λLog x
avec N le nombre de titulaires de revenus ayant un revenu
égal ou supérieur à x, A et λ étant des constantes.
Les vérifications empiriques de cette loi pour la
distribution des revenus et pour la répartition des
patrimoines n’ont pas donné des résultats concluants de
validité.
4.4.2. Les faits et les politiques de redistribution
Simon Kuznets18, sur une base empirique certes limitée au
cas des États-Unis d’Amérique pour une période courte de
l’histoire sociale de ce pays, a mis en évidence une courbe
en U inversé (ou courbe de Kuznets) de la distribution du
revenu au cours du développement économique.

Fig. 4.22
. Courbe en U inversé de S. Kuznets
La première phase de préparation du décollage
économique exige des moyens de financement associés à
l’épargne obtenue par la croissance de la concentration des
revenus (forte inégalité dans la distribution). Durant la
deuxième phase de « décollage et marche vers la maturité »,
la concentration reste forte, et dans la troisième phase de la
croissance auto-entretenue du pays développé, la
concentration se réduit sensiblement.
Les observations de Kuznets n’ont pas reçu de
nombreuses confirmations. Un fait certain concerne les
inégalités de revenus qui sont plus élevées que les inégalités
de salaire.
En France, le rapport interdécile extrême est d’environ de
3 (P90/P10). Il est resté stable depuis les années 1970. Aux
USA, il est plus élevé et a fortement augmenté. Des
différences de capital humain qui comprend la formation,
les capacités et les motivations, et des différences de
productivité des entreprises pour des salariés de même
niveau de formation sont les hypothèses les plus
couramment avancées pour expliquer les inégalités
salariales.
Pour remédier aux différences de capital humain, le
système éducatif devrait pouvoir être utilisé pour diminuer
les inégalités. Cependant, pour que cela soit réalisable, il
faudrait que chacun puisse accéder à l’éducation. Deux
instruments sont utilisés : les bourses destinées aux
étudiants économiquement défavorisés, et l’éducation
gratuite, mais cette dernière profite aussi aux étudiants plus
riches. Malgré ces outils, très peu de personnes d’origine
défavorisée font des études supérieures.
Pour l’ensemble des revenus, le rapport interdécile est de
5,7 en France. Deux raisons expliquent cette augmentation
de la fourchette par rapport aux inégalités de salaire. Par le
bas d’abord, cela tient au fait que l’on inclut les personnes
vivant des minima sociaux ou de retraites faibles. Par le
haut ensuite, parce que les revenus du capital sont
concentrés entre les mains de ceux qui ont déjà un haut
salaire. L’écart peut être corrigé par la prise en compte de la
taille des ménages et par les opérations de redistribution. La
correction par la taille des ménages donne 4,4. Cela
s’explique par le fait que beaucoup de revenus modestes
sont ceux de personnes seules touchant une faible retraite.

Les opérations de redistribution relèvent d’une politique


sociale ayant pour objectif de diminuer les inégalités sans
diminuer le revenu disponible. Pour cela, l’impôt progressif
est l’instrument le plus efficace, mais il a pour effet pervers
de réduire l’incitation productive et de susciter, si le taux
marginal de l’impôt est jugé trop élevé, l’évasion fiscale
conformément à la formule « trop d’impôt tue l’impôt » qui
exprime d’une autre façon la signification de la courbe de
Laffer.
L’impôt sur le capital a peu d’effet, car les personnes
assujetties sont souvent peu nombreuses et le risque
d’évasion fiscale réduisant l’assiette est encore plus
prononcé que pour l’impôt sur le revenu.
Les autres moyens de la redistribution comportent des
effets redistributifs négatifs ou antiredistributifs. Avec
l’assurance contre les risques sociaux (maladie, perte
d’emploi, vieillesse…), il s’agit de redistribuer le risque sur
de nombreux cotisants. Les prestations sont proportionnelles
aux cotisations, mais pour la santé, il ne s’agit plus
d’assurance, car tous les individus couverts ont droit aux
mêmes prestations, quelles que soient les cotisations. Pour
les retraites, les plus pauvres sont plus soumis au risque de
mourir tôt, ce qui conduit à une antiredistribution. Pour les
services publics (enseignement, bibliothèque municipale,
théâtre subventionné, salle de cinéma d’art et d’essai
subventionnée, etc.), on retrouve aussi dans une certaine
mesure un effet antiredistributif, dans la mesure où les biens
publics collectifs, qui sont par nature à la disposition de
tous, sont également à la disposition des plus riches. En
raison de ces effets pervers, il peut être justifié de supprimer
la gratuité des biens publics et d’adopter un revenu
minimum pour chaque ménage aux ressources faibles afin
de permettre à ses membres d’accéder à la consommation
des biens qu’ils jugent utiles.
1 Martinet, Alain Charles, « Théories de l’entreprise, management stratégique
et réalités des affaires », dans Gérard Charreaux et al, De nouvelles théories pour
gérer l’entreprise, Economica, collection Gestion, 1987.
2 Un premier article dans l’AER en 1973 : « Markets and Hierarchies : Some
Elementary Considerations », suivi en 1975 de son livre classique, Markets and
Hierachies : Analysis and antitrust implications.
3 « Production, Information Costs, and Economic Organization », AER, vol.
62 (5), pp. 777-795, déc. 1972.
4 Michael C. Jensen, William H. Meckling, « Theory of the Firm : Managerial
Behavior, Agency Costs and Capital Structure », Journal of Financial Economics
3, pp. 305-360, 1976.
5 Eugene F. Fama, « Agency problems and the theory of the firm », Journal of
Political Economy 88, 1980.
6 Les stocks options ont des effets pervers : le dirigeant peut utiliser une
information privilégiée pour exercer ses options au moment le plus favorable
pour lui et au détriment des autres actionnaires. Le surveillant ou contrôleur du
dirigeant salarié peut ne pas être insensible à une proposition de complicité que
ferait le dirigeant.
7 Cette conception est développée notamment par Armen Alchian, Harold
Demsetz (cf. ci-dessus) et Oliver E. Williamson, « Transaction Cost Economics.
The Governance of Contractual Relations », Journal of Law and Economics, n°
22, 1979, pp. 223-261.
8 Voir au chapitre 8la section consacrée au modèle de croissance proposé par
Robert Solow.
9 L’expression de Baruch Spinoza est évidemment détournée de son sens
philosophique premier. Ici la nature naturante est une autre manière de dire que
nous dépendons de la nature. La nature naturée désignera plus loin une nature
domestiquée mais aussi protégée dans le sens du développement durable.
10 GTep : milliard de tonnes d’équivalent pétrole.
11 Jan Z. Wilczynski : On the Presumed Darwinism of Alberuni Eight
Hundred Years before Darwin, SIS, Vol. 50, n° 4 (déc., 1959), pp. 459-466.
12 Cf. les conceptions de capital social : Pierre Bourdieu, « Le capital social »,
Actes de la recherche en sciences sociales, n° 31, 1980, p. 2. ; Robert D. Putnam,
Democracies in Flux : The Evolution of Social Capital in Contemporary Society
(Edited by Robert D. Putnam), Oxford University Press, 2002.
13 Robert Solow a tenu compte de cette critique cambridgienne, en
construisant une fonction de production à génération de capital. Plus le millésime
ou l’âge des machines est ancien, plus la productivité de ce équipement est
faible.
14 Avec y = f (K, L), TMST = – (dK/dL). Le TMST est la pente de l’isoquant.
15 Il suffit de faire les dérivées partielles de (y) par rapport à K et à L avec dy
= 0 (le niveau de production ne change pas) pour obtenir :– (dK/dL) = (f’L/f’K).
16 En anglais, ce principe correspond à l’expression “the first mover
advantage”.
17 Le monopole peut être la conséquence du “first mover advantage”. Le
premier sur le marché prend tout le marché : “the winner takes all market”.
18 « Economic growth and income inequality », American Economic Review,
vol. 45, n° 1, 1955.
Chapitre 5
La demande et la consommation
Les notions de demande et de consommation ont déjà été
rencontrées dans le cadre de l’analyse des facteurs de
production avec la demande de travail, la demande de
capital, et dans le cadre de la comptabilité nationale en
évoquant la consommation intermédiaire – celle qui est
l’objet de la transformation dans l’acte de production –, la
consommation effective, la consommation finale. Dans le
cadre ce chapitre, nous nous intéresserons uniquement à la
demande et à la consommation de biens finals, en
distinguant, d’une part, l’analyse microéconomique du
consommateur et, d’autre part, l’analyse macroéconomique
de la consommation.
En analyse microéconomique, la demande désigne
l’intention d’achat, tandis que la consommation correspond
à l’acte de satisfaction des besoins. Dans l’analyse
économique en termes de déséquilibre (ou équilibre avec
rationnement), on désigne ce résultat par l’expression de
demande effective qui n’a plus rien de commun avec celle
de Keynes, tandis que l’intention d’achat est qualifiée de
demande notionnelle. On voit bien que l’inconvénient de
l’expression de demande effective est le risque de confusion
qui est introduit avec l’expression malthusienne reprise par
J.M. Keynes qui désigne, non pas la demande réalisée, mais
au contraire la demande anticipée de consommation et
d’investissement au niveau global par les entrepreneurs.
En macroéconomie, la consommation globale est
l’ensemble des dépenses de la société en vue de la
satisfaction des besoins mais, à la différence de l’approche
microéconomique, la consommation globale est une des
composantes de la demande globale. Celle-ci comprend, en
outre, la formation brute de capital fixe, les exportations, les
dépenses publiques et la variation des stocks. L’analyse
microéconomique de la consommation et de la demande
retiendra notre attention dans la première section, tandis que
l’analyse macroéconomique de la consommation sera
abordée dans la seconde section.
1. L’analyse microéconomique de la consommation et
de la demande
Dans les deux premiers chapitres, nous avons déjà exposé
certains éléments de la théorie du consommateur : le
problème de l’utilité cardinale qui est mesurable en théorie
et de l’utilité ordinale donnant lieu à une échelle des
préférences, les deux lois de Gossen (décroissance de
l’utilité marginale, égalisation des utilités marginales
pondérées par les prix), l’intervention d’un grand nombre de
variables pour expliquer la nature et le volume des
consommations d’un individu, et la nécessité de simplifier
pour ne retenir que les prix des biens et le revenu du
consommateur, sachant que les biens sont disponibles. Ce
dernier aspect donne, par ailleurs, à la théorie du
consommateur la structure logique du processus de décision
rencontré dans la théorie du producteur qui consiste en un
problème de maximisation d’un avantage, compte tenu de la
contrainte budgétaire. Aussi, dans le cadre de cette section,
nous limiterons-nous à l’essentiel et à certains aspects
spécifiques en présentant l’équilibre du consommateur et la
fonction de demande.
1.1. L’équilibre du consommateur
Supposons qu’un individu dispose d’un revenu ou d’un
budget B et exprime l’intention d’acheter les biens
parfaitement divisibles x1, x2, … xn dont les prix sont p1, p2,
… pn. Un panier (ou vecteur) de consommation comprenant
un volume variable de chaque bien lui procure une utilité U.
L’individu est tout d’abord rationnel. Il a des préférences,
ses préférences sont transitives (si A est préféré à B, et si B
est préféré à C, alors A est préféré à C). En outre, le
consommateur apprécie la variété. Il peut préférer un panier
i composé de divers biens en une quantité donnée pour
chaque bien à un panier j comprenant les mêmes biens pour
des quantités différentes de chaque bien. Il peut
éventuellement trouver ces paniers i et j équivalents malgré
leur composition différente. Préférer i à j ou préférer j à i ou
encore trouver ces paniers indifférents revient à formuler
l’hypothèse de complétude des préférences.
Un panier composé d’une variété de biens sera toujours
préféré à un panier ne comprenant qu’un type de bien.
Mathématiquement, cela se traduit par la convexité des
préférences. Le consommateur est sensible à la plus petite
des variations de la quantité de biens dans le panier : on dit
que les préférences sont localement non saturables. Par le
principe de non-satiété, le consommateur préfère toujours
plus de biens à des paniers avec moins de biens, et même
lorsqu’il s’agit d’un bien seul (non associé à d’autres types
de biens), une plus grande quantité de ce bien est préférable
à une plus petite quantité. Aucun bien n’est nécessaire seul.
Le bien n’engendre pas d’addiction ou effet
d’accoutumance, i.e. que son utilité marginale ne croît pas
avec la quantité consommée, comme c’est le cas avec les
biens culturels (musique, lecture) et les drogues de toute
sorte qui suscitent un effet addictif. Enfin, il ne s’agit pas de
biens dont on découvre les qualités en les consommant (bien
d’expérience permanente, comme c’est le cas pour
l’information dans la presse quotidienne qui est différente
tous les jours), les préférences sont fixées dès le départ.
Le problème de l’équilibre du consommateur peut alors
s’écrire :
Maximiser U (x1 … xn) sous la contrainte que la dépense
totale ne soit pas supérieure au budget CB :
p1x1 … + pnxn = CB.
Ce problème est de même nature que celui du producteur
où (x1 … xn) se substituerait aux facteurs (K et L), où (p1 …
pn) aux prix des facteurs, et U remplaçant y.
Si l’hypothèse de mesurabilité de l’utilité est retenue (cas
correspondant à l’utilité cardinale), et en remplaçant les
biens (x1 … xn) par deux biens pour composer un petit
déjeuner avec V pour les viennoiseries et B pour la boisson,
le choix optimal du consommateur ou équilibre du
consommateur est obtenu lorsque le taux marginal de
substitution du bien B au bien V est égal au rapport des prix
des biens V et B, sachant que le taux marginal de
substitution du bien B au bien V est le rapport entre l’utilité
marginale du bien V et celle du bien B.
[(∂U/∂V)/(∂U/∂B)]} / (PV/PB)
Les préférences sont représentables graphiquement, en
passant par les courbes d’indifférence. Une courbe
d’indifférence, ou courbe d’isophélimité, est une courbe des
combinaisons des produits qui assurent une satisfaction
identique. Dans une approche cardinale, la courbe
d’indifférence peut être assimilée à une courbe de même
niveau tracée à partir de la colline du plaisir proposée par
Vilfredo Pareto. Pour Pareto, plus le point sur la colline est
élevé « plus la personne a de bien-être » (Manuel
d’économie politique, 1906).
L’utilité n’étant pas mesurable, la carte d’indifférence
indique l’ordre des préférences. Les combinaisons préférées
à d’autres sont situées sur des courbes supérieures. De la
même manière que pour les isoquants, deux courbes
d’indifférences ne peuvent être sécantes. La valeur de la
pente en un point de la courbe d’indifférence constitue le
taux marginal de substitution entre les deux biens B et V. On
peut démontrer que le taux de substitution (TMS) est égal au
rapport des inverses des utilités marginales des deux biens.
Bien qu’une courbe d’indifférence puisse être une boucle,
seule la partie décroissante obéit au principe d’économicité
ou d’efficience. Il n’est pas en effet rationnel d’augmenter
simultanément les quantités pour les deux biens pour une
satisfaction inchangée. En revanche, si la quantité pour un
bien diminue, il faut une augmentation de la quantité de
l’autre bien pour maintenir la même satisfaction. Par
conséquent, le TMS est négatif : il désigne la quantité du
bien B nécessaire pour compenser la perte d’utilité
consécutive à la diminution de la quantité du bien V dans la
consommation.
La figure adoptée indique que les préférences sont
convexes, i.e. que le TMS diminue au fur et à mesure que se
poursuit la substitution de V par rapport à B : c’est la
substituabilité imparfaite. Mais, comme pour la production,
on peut aussi envisager la substituabilité parfaite (courbe
d’indifférence linéaire), la complémentarité (courbe en
forme de droites perpendiculaires). Signalons que la
concavité signifie que la possibilité de substitution croît
avec la substitution.
La droite du budget du consommateur – avec D pour le
montant prévisionnel de la dépense – est obtenue de la
même manière : sachant que la contrainte s’écrit : p1B + p2V
= D, l’équation de la droite du budget est : B = – (V × p2/p1)
+ (D/p1).

Figure. 5.1. Équilibre du consommateur


L‘équilibre du consommateur ou choix optimal du
consommateur est alors la combinaison BO-VO des biens B et
V qui respecte la contrainte budgétaire et qui est située sur
la courbe d’indifférence la plus élevée. En d’autres termes,
l’optimum correspond au point de tangence entre la ligne
budgétaire et la courbe d’indifférence la plus élevée. En ce
point, le TMS est égal au rapport des prix, ce qui permet de
retrouver la deuxième loi de Gossen.
De la même manière que pour le producteur, on peut
envisager une variation du budget sans changement des prix
relatifs (voir, infra, les courbes d’Engel) et une variation des
prix relatifs sans changement de budget (voir, infra, la
fonction de demande). Dans ce dernier cas, il est également
possible de mettre en évidence deux effets prix ou effets
Hicks-Slutsky du nom des deux économistes qui les ont
exposés. Il s’agit d’un effet revenu et un effet de
substitution. L’effet de substitution indique que le produit
dont le prix augmente de manière relative voit sa part
baisser dans le panier optimal au profit du produit dont le
prix relatif a baissé. L’effet revenu signifie que la hausse du
prix relatif pour un produit est une baisse de pouvoir d’achat
se traduisant par une courbe d’indifférence d’un ordre moins
élevé que celui atteint avant la hausse du prix.
La figure 5.2. illustre le cas d’une baisse du prix relatif de
V, i.e. qu’avec la même quantité de B il est possible
d’obtenir en échange une plus grande quantité de V. Le fait
que [B1/V1] soit plus petit que [BO/VO] est l’expression de
l’effet de substitution. Le passage de la courbe
d’indifférence 2 à la courbe d’indifférence 3 est la
manifestation de l’effet de revenu.

Figure 5.2
. Effet de revenu et effet de substitution
1.2. Les fonctions de consommation microéconomiques et
les fonctions de demande du consommateur
1.2.1. Les lois d’Engel et l’élasticité-revenu de la
consommation
La fonction de consommation microéconomique met en
relation la variation du revenu et la variation du panier de
consommation. Les premières observations ayant abouti à
des mesures ont été faites par le Français Frédéric Le Play
en 1853 sur la base d’une enquête sur un faible échantillon
de ménages. En 1857 l’Allemand Ernst Engel propose des
données plus significatives Le statisticien allemand
constate, auprès d’un échantillon de 150 ménages en
Belgique, que leurs dépenses alimentaires représentent une
part d’autant plus élevée dans les dépenses totales que le
revenu est faible. En assimilant les différentes classes de
revenus des ménages à une évolution du revenu pour un
ménage, l’observation d’Engel revient à dire que les
dépenses alimentaires croissent moins vite que le revenu,
que les dépenses de logement suivent le rythme de
croissance du revenu, et que les dépenses de transport,
d’hygiène, de loisirs et de culture croissent à un rythme plus
élevé. Sur la base des évolutions enregistrées depuis 1970,
les « courbes d’Engel » correspondent à la figure 5.6. Les
évolutions sur la figure (a) de gauche sont en valeurs
absolues, celles sur la figure (b) à droite sont en termes
d’indice. Plus la pente de la droite est faible plus la dépense
peut être considérée comme répondant à un besoin
fondamental. Avec les droites représentant les données en
valeurs absolues, ce caractère est aussi souligné par
l’ordonnée à l’origine. Plus celle-ci est élevée et positive
plus la dépense est nécessaire. Ainsi les dépenses
alimentaires ont une pente faible et la plus forte ordonnée à
l’origine.
Fig. 5.6
. Courbes d’Engel
(a) Dépenses en fonction du revenu (b)
évolution de l’indice des dépenses en fonction de
l’indice de revenu
Ces différentes observations se résument comme suit par
la loi d’Engel simplifiée : plus le revenu est élevé, plus la
part des dépenses superflues dans le budget familial
augmente et plus la part des dépenses de première nécessité
diminue.
La part d’une dépense pour un poste donné dans le
budget familial constitue le coefficient budgétaire. En
France, par exemple, pour l’alimentation (boisson alcoolisée
et tabac compris), il passe de 0,287 en 1960 à 0,141 en
2000. La part des dépenses d’habillement est passée de 5,4
% à 2,7 % au cours de la même période. En revanche, la
part des dépenses de logement (comprenant le chauffage et
l’éclairage) a fortement augmenté de 10,7 à 19,1. La même
tendance est enregistrée pour les dépenses de transport et de
communication (passage de 9,8 % à 13,9 %), les loisirs et la
culture (de 6,2 % en 1960 à 7,1 % en 2000).
Les différents coefficients budgétaires moyens pour un
groupe social défini dans un espace donné servent de
coefficients de pondération pour calculer l’indice des prix
de détail.
Par exemple, si les prix des produits alimentaires dont le
coefficient budgétaire est de 0,15 augmentent de 3 % au
mois de février de l’année X, après correction des variations
saisonnières, leur contribution à l’indice général des prix
sera : 0,15 × 0,03 = 0,0045 soit 0,45 %.
La représentation géométrique de l’optimum du
consommateur par confrontation de la droite de budget et
des courbes d’indifférence permet de retrouver les courbes
d’Engel. Il suffit d’envisager une croissance du revenu
(déplacement de la droite du budget). La courbe qui relie les
différents optima constitue la courbe de consommation-
revenu dite encore courbe de niveau de vie. Elle traduit la
modification de la structure de la consommation avec la
variation du revenu.
La fonction microéconomique de consommation-revenu
est généralement croissante (fig. 5.7.), sauf pour les biens
inférieurs. Dans ce cas, la dépense diminue lorsque le
revenu augmente, le consommateur substituant des biens
dits supérieurs ou de meilleure qualité mais plus onéreux
aux biens inférieurs dits encore biens Giffen, du nom de
Robert Giffen qui a mis en évidence cette exception à la loi
générale de la dépense en fonction du revenu. Par exemple,
lorsque le revenu s’élève, on préférera des légumes et des
fruits frais et aux légumes secs ou aux pâtes alimentaires.
Des courbes d’indifférence aux courbes d’Engel

La croissance du revenu du consommateur avec une


structure des prix stable, détermine des points de tangence
de plus en plus élevés entre, d’une part, les droites
budgétaires que l’on peut assimiler à des droites de revenu
et, d’autre part, les courbes d’indifférence.
Sur la figure 5.7.a., la courbe qui relie les différents
équilibres obtenus constitue la courbe de consommation-
revenu. De cette courbe, on peut déduire la courbe d’Engel
pour chacun des deux biens. On voit du reste sur (a) que la
croissance de la part de B augmente plus fortement que
celle de V, puisque, au fur et à mesure que le revenu
augmente, la courbe de consommation-revenu tend à
devenir verticale par rapport à V. On voit ainsi la
déformation de la structure de la consommation, avec
l’augmentation du revenu. Pour le bien L, le niveau de
satiété sera rapidement atteint avec la croissance du revenu,
alors que pour le bien B, la croissance des dépenses est
exponentielle, le revenu augmente, ce qui est la
caractéristique des biens de luxe pour lesquels la satiété
n’est pas à l’ordre du jour.

Fig. 5.7
. Des courbes d’indifférence aux courbes
d’Engel
La sensibilité de la variation de la consommation à la
variation du revenu est mesurée par le coefficient
d’élasticité de la consommation par rapport au revenu (eC/Y).
Il est obtenu en faisant le rapport entre la variation relative
de la dépense (ΔC/C) et la variation relative du revenu
(ΔY/Y). En appelant, d’une part, propension marginale à
consommer le rapport entre l’accroissement de la
consommation (ΔC) et l’accroissement du revenu (ΔY) et,
d’autre part, propension moyenne à consommer le rapport
entre la consommation et le revenu (C/Y), alors le
coefficient d’élasticité-revenu de la consommation est le
rapport entre les propensions marginale et moyenne à
consommer :
soit encore

eC/Y est généralement positif, sauf pour les biens inférieurs.


Il est inférieur à 1 pour les biens de première nécessité (par
exemple, l’alimentation) et il est supérieur à 1 pour les
dépenses non prioritaires (par exemple, les loisirs). Le
coefficient d’élasticité mesure ainsi la vitesse de saturation
d’un phénomène. Un coefficient d’élasticité de la dépense
pour un bien donné inférieur à 1 s’applique aux dépenses
pour lesquelles la saturation est proche.
Le calcul des coefficients d’élasticité pour les différents
postes budgétaires donne en France des résultats quasiment
identiques en analyse longitudinale (évolution dans le
temps, sur une longue période, des dépenses et des revenus
pour l’ensemble des ménages) et en analyse transversale ou
horizontale (comparaison des budgets à un moment donné
entre différents ménages ayant des revenus différents dans
un pays) pour l’alimentation, la culture et les loisirs. Pour
les biens qui ont bénéficié du progrès technique permettant
d’en baisser le prix, le coefficient d’élasticité longitudinale
est plus faible que le coefficient d’élasticité à un moment
donné pour différents budgets. C’est notamment le cas pour
les dépenses vestimentaires.
1.2.2. La fonction de demande
La construction de la courbe de demande traditionnelle
[D = f(P)] peut être obtenue à partir de la courbe de
consommation-prix joignant les optima correspondant aux
différents niveaux du prix d’un des deux biens, sachant que
l’autre est de la monnaie (notons que le principe exposé ci-
dessous peut s’appliquer, d’une part, à la définition de
l’offre de travail en mettant en relation le revenu et le temps
de travail avec un taux de salaire variable et, d’autre part, au
choix entre le loisir et le revenu considérés comme deux
biens). La demande traditionnelle apparaît alors comme une
fonction décroissante par rapport au prix : une
augmentation du prix entraîne une diminution de la
demande, comme le montre la figure 5.5. en deux parties :
la partie du haut présente les équilibres successifs entre
courbe d’indifférence et droites d’isocoût à la suite de la
baisse du prix relatif du bien L ; la partie du bas est la
courbe qui joint ces différents équilibres successifs.

Fig. 5.8
. Courbe de prix-consommation
Deux représentations de la courbe de demande sont
possibles selon l’horizon temporel retenu (voir figure 5.9.).
À court terme, le prix apparaît en abscisse, il est considéré
comme une donnée déterminante pour le consommateur. À
long terme, le prix est en ordonnée, il est considéré comme
déterminé par le jeu entre l’offre et la demande : une forte
demande peut susciter un prix élevé. Celui-ci est une
incitation à produire. Cette augmentation de la production
s’accompagnera vraisemblablement d’une baisse du prix,
d’autant plus que la hausse initiale avant la production aura
découragé une partie de la demande. Les conventions ont
privilégié la représentation de la demande à long terme mais
en gardant le raisonnement de la courte période.

Fig. 5.9
. Demande à court et long terme
On passe de la demande individuelle à la demande du
marché en additionnant horizontalement les demandes
individuelles. Par exemple, si pour un bien x Louise
demande 2 unités pour un prix de 10, tandis que Yasmine
n’est pas demandeuse à ce prix, alors la demande du marché
sera de 2 pour le prix de 10. Si le prix passe à 8, Louise
demande 4 unités et Yasmine exprime l’intention de prendre
1 unité. La demande du marché est donc de 5. Lorsque le
prix passe à 6, Louise est prête à acheter 6 unités, tandis que
Yasmine est preneuse de 4. La demande du marché est donc
de 10. Il est possible de tracer la courbe de demande de
chaque individu et la courbe de demande du marché en
additionnant les points de chaque courbe individuelle
horizontalement (voir figure 5.7).

Fig. 5.10
. Demandes individuelles et demande du
marché pour le bien X
c) Cette loi générale de la demande comporte des
exceptions :
La première, déjà présentée ci-dessus, est l’effet Giffen.
La diminution du prix des biens inférieurs peut
s’accompagner d’une diminution de la demande. L‘effet
Giffen ou paradoxe de Giffen est un effet revenu particulier
qui pour être mis en évidence exige une approche en termes
de panier de biens substituables en utilisant les courbes
d’indifférence. En principe, dans le cas de biens normaux, la
hausse du prix d’un bien entraîne une augmentation de la
demande à l’égard des biens dont le prix est resté fixe (effet
de substitution) et une diminution de la satisfaction totale
(courbe d’indifférence d’un niveau plus bas : effet revenu).
Dans le cas des biens inférieurs, Sir Robert Giffen signale
que l’augmentation du prix des pommes de terre est suivie
d’une augmentation de la demande pour ce bien. Le
paradoxe de Giffen s’explique par la part élevée des biens
inférieurs dans le budget des ménages les moins fortunés :
les ménages sont obligés de réduire les dépenses pour les
biens ostentatoires, afin de se procurer les biens inférieurs
qui deviennent, malgré la hausse de leurs prix, les seuls
accessibles pour des groupes sociaux à revenu faible.
La deuxième est l’effet de snobisme ou effet d’ostentation
ou effet Veblen. Certains consommateurs recherchent les
produits les plus onéreux pour se distinguer. C’est Augustin
Cournot qui le premier – en 1838 – a révélé ce
comportement. Mais c’est l’Américain Veblen qui l’étudiera
dans le détail.
La troisième est l’effet d’imitation : le consommateur suit
le modèle de consommation dominant sans attacher une
attention aux prix ; on parle encore d’effet Tarde , du nom
du psychosociologue français Gabriel Tarde (1843-1904).
La quatrième est l’effet de mésinformation du prix dans
une situation d’asymétrie informationnelle précontractuelle :
le consommateur croit que le prix est un indicateur de la
qualité et que l’augmentation des prix ou l’écart positif des
prix avec un autre article est synonyme de meilleure
qualité ; ce cas correspond à l’effet de sélection adverse ou
antisélection mis en évidence en 1970 par George Akerlof à
propos du marché des voitures d’occasions (Market of
lemons, ou en français le « marché des tacots »).
La cinquième est l’effet d’anticipation : les
consommateurs n’achètent pas instantanément dès que les
prix baissent, ils attendent que la baisse soit plus prononcée
pour se porter acquéreurs. En revanche, dès que les prix
montent, les demandeurs se manifestent afin d’acheter à un
cours qu’ils jugent susceptible de s’élever encore.
La sixième est l’effet de consommation nulle dit encore
effet de revenu nul correspondant à la baisse importante du
prix très élevé d’un bien de luxe non suivie par une
augmentation de la demande. Si par exemple une voiture de
luxe est vendue annuellement en 1000 exemplaires au prix
correspondant à 100 fois le salaire minimum conventionnel
ou légal, une baisse de son prix pour le ramener à 50 fois ce
salaire, n’augmentera pas le nombre de personnes avec un
revenu leur permettant de se porter acquéreur de ce type de
bien. Si le prix baisse davantage, le risque est même de voir
les premiers demandeurs potentiels se détourner de ce
produit devenu trop populaire à leurs yeux. C’est ce qui
s’est produit pour l’Edsel un modèle luxueux de voiture à
un prix abordable proposé par le constructeur américain
Ford dans les années 1950.
La septième est le jeu de l’effet des prix magiques. Un
prix magique est un prix proche d’un seuil donné
correspondant à un changement de la classe de valeur
(passage de l’unité à la première dizaine, changement de
dizaine, passage de la neuvième dizaine à la centaine, etc.).
Le franchissement de ce seuil à la baisse d’un très faible
pourcentage entraîne une forte augmentation des ventes, et
une baisse plus importante du prix n’aura pas plus d’effet
sauf si un autre seuil est franchi. Empiriquement, les prix
magiques correspondent à des prix du type 9,95 unités
monétaires pour un article A, ou 999 unités monétaires pour
un article B. Les seuils déterminants sont ici 10 et 1 000
unités monétaires.
La huitième exception est le jeu de l’effet d’addiction ou
effet Marshall pour certains biens (tabac, alcool, drogue,
biens culturels) : l’augmentation du prix pour ces biens n’en
réduit pas la consommation pour les individus dépendants.
La neuvième exception est l’absence de produit
substituable. Dans ce cas, pour un produit jugé nécessaire,
la hausse du prix est acceptée
Le dixième cas correspond au prix psychologique. Ce cas
est particulier car il est une combinaison de certaines des
exceptions ci-dessus. Le prix psychologique est une
fourchette de prix établie par enquête auprès des
consommateurs. Le prix bas est celui en dessous duquel le
produit est dévalorisé aux yeux du consommateur et le prix
supérieur est le prix qui finit par dissuader d’acheter. La
méthode Adam propose par sondage de déterminer le prix
optimal de vente ou prix psychologique réunissant le plus
grand nombre d’acheteurs éventuels. Ce prix se situe entre
un maximum (effet revenu) et un minimum (effet qualité).
d) La sensibilité de la demande à une variation de prix est
mesurée par le coefficient d’élasticité de la demande par
rapport au prix. On peut calculer soit l’élasticité directe,
soit l’élasticité croisée :
L’élasticité-prix directe de la demande (eD/p) est le rapport
entre la variation relative de la demande du bien considéré
(ΔD/D) et la variation relative du prix de ce même bien
(Δp/p), soit encore :

Dans la loi générale de la demande, eD/p est négatif.


Lorsque la demande est linéaire, le coefficient d’élasticité
varie tout au long de la droite. Il est d’autant plus élevé en
valeur absolue, ou plus faible en valeur relative, que la
demande est au départ très faible. Il s’agit dans ce cas de la
demande pour un bien anormal, un bien nouveau, un bien
auquel le demandeur n’avait pas accès précédemment. Plus
le bien est banal, consommé depuis longtemps et accessible
au plus grand nombre, plus le coefficient d’élasticité est
faible en valeur absolue (proche de zéro) ou élevé en valeur
relative. La figure 5.11. illustre ces deux cas : le graphique
(a) pourrait correspondre à la demande de forfait de ski (en
France 10 % seulement de la population est concernée) ; le
graphique (b) pourrait s’appliquer à la demande de
chaussures classiques (tout individu ou presque peut être
demandeur de ce produit). Pour le forfait de ski, la hausse
du prix de 25 unités monétaires à 30 entraîne une baisse de
la demande de 5 000 forfaits hebdomadaires à 2 500 forfaits
hebdomadaires. Le coefficient d’élasticité est calculé ainsi :
Variation relative du prix :
[(30-25)/25] = 0,2 ou 20 %
Variation relative de la demande :
[(2500-5000)/5000] = – 0,5 ou – 50 % (la variation est
négative).
Le coefficient d’élasticité est alors le rapport de la
variation relative de la demande à la variation relative du
prix, soit :
(– 0,5/0,2) = – 2,5.
Ce coefficient signifie que l’augmentation du prix pour
un forfait de ski de 1 % entraîne une chute de la demande de
2,5 %. L’opérateur qui prend une telle décision, sans
modifier la qualité des services offerts, risque de conduire
les sociétés exploitantes à la faillite, puisque le chiffre
d’affaires hebdomadaire potentiel passe de :
5 000 × 25 = 125 000 unités monétaires
à 2 500 × 30 = 75 000 unités monétaires
soit une baisse du chiffre d’affaires de :
[(75 000 – 125 000)/125 000] = 22,22 %
Bien évidemment, le coefficient d’élasticité est différent,
en envisageant une baisse du prix de 30 à 25 unités
monétaires. Les variations relatives sont en effet différentes,
puisque la base de calcul est différente : 30 pour le prix de
départ au lieu de 25 et 2 500 pour la quantité demandée au
départ au lieu de 5 000. Le coefficient d’élasticité est alors
de – 6.
Dans le graphique b), en appliquant la même méthode,
vous trouverez que le coefficient d’élasticité est de – 0,5.
Vous constaterez qu’une opération de solde sur les
chaussures n’est pas toujours avantageuse (tout dépend du
coût marginal), car la baisse du prix de 40 % n’entraîne
qu’une augmentation des ventes potentielles de 20 % qui se
traduit en plus par une baisse du chiffre d’affaires de 28 %.
Sachant qu’il y a des coûts fixes, il se pourrait même que
cette faible augmentation des ventes soit accompagnée par
la diminution du bénéfice si ce n’est pas par l’apparition
d’une perte. Par conséquent la décision de modifier les prix
à la hausse ou à la baisse doit tenir compte non seulement
de l’élasticité et également de l’évolution des coûts de
production. Par exemple avec une demande fortement
élastique, une baisse du prix de 10 % engendrant une
augmentation des ventes de 30 %, soit un coefficient
d’élasticité de – 3, n’est pas nécessairement une aubaine si
le niveau de production a déjà atteint la phase des
rendements décroissants telle que l’augmentation des coûts
est supérieure à l’augmentation du chiffre d’affaires.

Fig. 5.11
. Formes particulières de demande
(a) demande de forfaits de ski b) demande de
chaussures
Faible élasticité et effet King

Lorsque l’élasticité est inférieure à 1, en valeur absolue,


on parle d’inélasticité. Ce phénomène s’observe pour les
produits agricoles et donne lieu à la mise en évidence de
l’effet King, du nom de l’économiste mercantiliste anglais
Gregory King qui a fait cette observation à la fin du XVIIe
siècle pour les produits céréaliers. En cas de croissance de la
production de 10 % des récoltes, il faudra une baisse des
prix de 50 % pour que la production soit totalement vendue,
entraînant ainsi l’appauvrissement des producteurs de 45 %.
Ce principe s’applique pour tout produit de première
nécessité. Ainsi il est vérifiable avec une production et une
demande de 1 000 tonnes de pommes de terre à 1 € le kilo
qui passe à 1 100 tonnes et à 0,50 € le kilo.
Le revenu la première année, est 1 000 000 _ 1 = 1 000
000 €.
Le revenu, la deuxième année, est 1 100 000 × 0,5 = 550
000 €.
La baisse du revenu est de 450 000 €, soit 45 %.
Le coefficient d’élasticité ici est :

Il existe trois cas de demande iso-élastique (élasticité


constante) :
• le premier correspond à une demande parfaitement
rigide. Les quantités demandées sont indépendantes
du prix et eD/p = 0. La droite de demande par rapport
au prix est perpendiculaire à l’axe des abscisses
(quantités) ;
• le deuxième est celui de la demande infiniment
élastique : la demande est infinie pour une baisse
infinitésimale du prix ; la droite de la demande est
alors parallèle à l’axe des quantités ;
• le troisième cas est celui d’une demande représentée
par une branche d’hyperbole équilatère donnant une
élasticité constante et de valeur égale à – 1.

Fig. 5.12
. Formes particulières
d’isolasticité – prix de la demande
L’élasticité croisée de la demande pour le bien i, à la suite
de la variation du prix du bien j, notée eDij/pj, est le rapport
entre la variation relative de la demande de i et la variation
relative du prix de j.

Lorsque eDij/pj est positif, cela signifie que l’augmentation


du prix du bien j entraîne celle de la demande du bien i. On
peut alors penser que i et j sont substituables. Cette
hypothèse sera confirmée si eDij/pi est aussi positif. Lorsque
eDij/pj est négatif, cela signifie que l’augmentation du prix de j
entraîne une diminution de la demande de i. Il pourrait
s’agir de biens complémentaires. Cette hypothèse sera
confirmée si eDij/pi est aussi négatif.
1.2.3. L’approche de Lancaster : la demande de qualité
L’approche en termes de courbe d’indifférence, d’effet-
prix (effet revenu, effet de substitution) est celle qui a été
proposée par J.R. Hicks dans Valeur et capital (en 1938). À
partir de 1966, Kelvin J. Lancaster introduit des hypothèses
plus réalistes, englobant le modèle de Hicks. D’après
Lancaster, le consommateur ne demande pas un produit en
soi, mais un produit ayant certaines caractéristiques. Or,
différents biens possèdent quelques caractéristiques
communes et d’autres spécifiques. Par exemple, la viande
de bœuf et les pommes de terre sont des biens alimentaires
qui ont certaines qualités communes, comme l’apport en
calories, mais on ne peut pas dire qu’ils sont
interchangeables du point de vue de la satisfaction qu’en
retirerait le consommateur. Cela conduit à définir pour
chaque bien ses caractéristiques, en les mesurant selon une
unité particulière. Le comportement du consommateur est
alors de déterminer un panier de biens ayant un ensemble de
caractéristiques optimal, compte tenu de son revenu et des
prix des biens.
Graphiquement, cela revient à porter sur les axes les
caractéristiques (A et B) communes aux deux biens et à
indiquer pour chaque bien donné (C1 et C2) la valeur totale
des deux caractéristiques qu’il permet d’obtenir avec un
budget donné. La droite joignant les deux points C1 et C2
indique les différentes combinaisons des caractéristiques
accessibles avec un revenu donné. Le point de tangence
entre cette droite et la courbe d’indifférence indique le choix
optimal (M).

Fig. 5.13
. Combinaison optimale des qualités de
deux biens
1.2.4. La difficulté d’une définition d’un choix collectif
Dans les développements précédents, nous n’avons
examiné que le comportement de la demande solvable à
l’égard de biens marchands, négligeant l’utilisation de
services collectifs pour laquelle le consommateur n’a pas à
se soucier de sa solvabilité, i.e. sa capacité à payer. Mais, si
les biens publics collectifs sont gratuits à la consommation,
ils ne sont pas pour autant des biens libres : leur production
exige des sacrifices et, de ce fait, un problème de choix se
pose. Ce problème intéresse les individus, car il s’agit de
l’affectation des impôts qu’ils ont payés. Faut-il alors
demander l’avis de tous les citoyens pour définir le volume
et la nature des biens collectifs qu’il convient d’offrir ?
– Le paradoxe d’Arrow, une redécouverte du paradoxe
de Condorcet, indique que des choix rationnels transitifs au
niveau individuel ne sont pas nécessairement transitifs au
niveau global. En d’autres termes, « si A est préféré à B et si
B est préféré à C », alors, pour un individu rationnel, « A
sera préféré à C ». Avec un autre individu, on pourrait avoir
B > A, A > B et B > C. Un troisième donnerait A > C, A >
B et C > B, et ainsi de suite. Après agrégation, avec une
telle liberté ou indépendance des choix, on pourrait obtenir
A > B > C > A, i.e. un système incohérent.
La fonction d’utilité sociale, dite encore soit fonction de
bien-être social, soit fonction d’utilité collective, ne
résulterait alors que d’une décision dictatoriale (K. Arrow,
Choix social et valeur individuelle, 1952).
Si l’on abandonne l’axiome d’indépendance, la difficulté
qui demeure est de connaître les préférences des
consommateurs, sachant que la production d’un bien public
exige un financement dont la source est l’impôt. Le principe
de non-exclusion qui caractérise le bien public collectif
conduit le consommateur à sous-estimer sa capacité à payer,
sachant qu’il peut consommer sans aucune gêne le bien,
sans en manifester la demande. Le système de prix par la
voie de la souscription pour produire le bien public collectif
est inopérant parce que la contribution de chacun est trop
faible, chacun cherchant à devenir un passager clandestin.
Il faut alors recourir à l’impôt. La dimension du bien public
collectif peut alors être définie selon deux méthodes : la
première repose sur la procédure BLS (Bowen-Lindhal-
Samuelson). Elle confronte la disposition marginale à payer
l’impôt, du côté du consommateur, et la contrainte
d’équilibre budgétaire, du côté de l’entreprise productrice. Il
faut alors que le coût marginal soit égal à la disposition
marginale à payer l’impôt. On parle d’équilibre de Lindhal
ou condition BLS. La deuxième est la procédure politico-
économique du vote majoritaire. Le niveau de prélèvement
fiscal est celui que l’agent médian accepte comme
contribution au financement d’un bien public dont il sait que
le volume dépend du montant des recettes obtenues. L’agent
médian est caractérisé par le fait que la moitié de la
population restante considère que le taux de l’impôt est trop
élevé et que l’autre moitié le trouve trop faible.
2. L’analyse macroéconomique de la consommation
Dans la section précédente, nous avons vu le
comportement du consommateur et du marché face à une
variation du prix absolu en monnaie et des prix relatifs pour
un revenu donné, et face à une variation du revenu de
l’individu ou de la société pour des prix donnés, sachant que
la demande s’exprime pour des produits donnés et que la
dépense correspond à des postes précis dans le budget des
ménages. Une telle analyse relève de la microéconomie des
comportements. Dans la présente section, cette perspective
est abandonnée au profit de l’analyse macroéconomique des
flux de dépense de consommation en fonction du niveau du
revenu global, en faisant abstraction de la structure des
dépenses et du prix de chaque produit. Cette perspective
s’applique à un espace donné et à l’ensemble des habitants
de cet espace ou à chaque groupe social de ce même espace.
La fonction de consommation macroéconomique a
d’abord été développée dans le cadre de la théorie
keynésienne. Elle donna lieu à des travaux empiriques
infirmant la forme donnée par Keynes. Des hypothèses
nouvelles ont été avancées pour expliquer les formes
observées.
2.1. La loi psychologique fondamentale de Keynes
Dans la Théorie générale, Keynes écrit que la relation
entre la consommation nationale (C) et le revenu national
(Y) obéit à la loi psychologique fondamentale selon laquelle
la consommation augmente avec le revenu, mais à un
rythme plus faible. Autrement dit, le rapport ΔC/ΔY, qui
constitue la propension marginale à consommer (notée c ci-
dessous) ou la dérivée de la fonction de consommation par
rapport au revenu [C = f (Y)], est inférieure à 1.
L‘épargne étant la part du revenu non consommée, il
s’ensuit qu’elle augmente à un rythme plus rapide que celui
du revenu. L’augmentation éventuelle du revenu étant
distribuée entre l’accroissement de la consommation et de
l’épargne, on déduit que la propension marginale à épargner
ΔS/ΔY (notée s ci-dessous) est également inférieure à 1.
Elle est, dans une économie fermée, le complémentaire de la
propension marginale à consommer par rapport à l’unité
obtenue en divisant l’augmentation du revenu national par
lui-même.
De manière plus symbolique, on a :
Y=C+S
d’où S = Y – C
ΔY = ΔC + ΔS
d’où ΔS = ΔY – ΔC
(ΔY/ΔY) = (ΔC/ΔY) + (ΔS/ΔY) = c + s = 1,
d’où
s=1–c
Si l’on admet que Keynes se situe dans le court terme, on
peut aussi admettre que la propension marginale à
consommer est constante. La spécification de la fonction
conduit à envisager le niveau de consommation indépendant
du revenu, i.e. la consommation incompressible Co positive
lorsque le revenu est nul. Il faut, en effet, un élément
constant dans la fonction C = f (Y) pour vérifier la loi
psychologique fondamentale de Keynes. Cela revient à dire
que la propension moyenne à consommer C/Y diminue
lorsque le revenu augmente. De sorte que l’on peut écrire :
C = cY + Co.
La figure 5.14.a. en donne la représentation graphique. La
bissectrice correspondrait à la situation hypothétique dans
laquelle tout revenu est consommé, avec égalité parfaite
entre consommation est revenu
En replaçant cette valeur de C dans l’équation de
définition du revenu national Y = C + S, on obtient, par
déduction, l’équation de l’épargne :
S = sY – Co
La figure 5.11.b. en donne la représentation graphique.
Il est évident que la mise à l’épreuve empirique de la loi
de Keynes implique une définition précise de la dépense de
consommation. En général, on accepte la définition
conventionnelle de la comptabilité nationale et on retient la
consommation effective qui recouvre l’ensemble des biens
et services que les ménages utilisent effectivement ou qu’ils
consomment, quelle que soit la manière dont ils sont
financés. En d’autres termes, la consommation effective
comprend les dépenses de consommation finale financées
directement par les ménages et l’ensemble formé par les
dépenses donnant lieu aux remboursements de la sécurité
sociale, les aides au logement, les dépenses de la collectivité
en éducation, en santé, etc.
Fig. 5.14
. Fonctions de consommation et d’épargne
keynésiennes
Fig. 5.11.a. et Fig. 5.11.b.
2.2. Les hypothèses explicatives de la stabilité de la
propension moyenne à consommer
Les tests statistiques réalisés par S. Kuznets (1946) et R.
Goldsmith (1955) n’ont pas permis de valider la loi de
Keynes, lorsque l’observation porte sur une longue période.
Il semblerait que la propension moyenne à consommer C/Y
soit constante à moyen et long termes (0,867 entre 1869 et
1898, 0,867 également entre 1884 et 1913, et même une
propension nettement plus haute pour la période 1904-
1913). Le phénomène révélé par Kuznets et Goldsmith a
donné lieu à quatre hypothèses explicatives : le revenu
relatif, le revenu permanent, le cycle de vie et les structures.
2.2.1. L’hypothèse du revenu relatif
Cette hypothèse avancée par J.S. Duesenberry en 1949
repose au départ sur une analyse sociologique en coupe
transversale (analyse des comportements dans la société à
une date donnée) : le groupe de consommateurs aux revenus
élevés trace la voie en donnant aux catégories à revenu
faible un modèle de consommation à reproduire. Ainsi, le
comportement d’un groupe de consommateurs est surtout
déterminé par le comportement du groupe au revenu le plus
élevé. Il s’ensuit, par le jeu de l’effet de démonstration ou
effet d’imitation, une propension moyenne à consommer
plus élevée dans le groupe à revenu faible. On retrouve ainsi
la loi de Keynes en coupe instantanée.
Pour la longue période, la constance de C/Y pour
l’ensemble des ménages est assurée en prenant en compte le
niveau le plus élevé du revenu global atteint dans le passé. Il
existerait ainsi un effet de cliquet ou un effet d’hystérésis de
la consommation correspondant au poids des habitudes
passées, comme le fait apparaître la reformulation proposée
par T.M. Brown en 1952. Lorsque son revenu baisse, le
consommateur tend à maintenir son niveau de
consommation antérieur, en accroissant sa propension
moyenne à consommer et en réduisant son épargne.
Duesenberry avance la thèse selon laquelle en période
d’expansion, la consommation augmente moins fortement
que le revenu, et en phase de récession, elle tend à se
maintenir à son niveau ou à baisser plus faiblement que le
revenu. Le problème, avec cette hypothèse du revenu relatif,
est le fait que, depuis 1945, la croissance économique ne
permet pas d’identifier le revenu le plus élevé sauf en
prenant le dernier revenu connu.
2.2.2. L’hypothèse du revenu permanent
Milton Friedman considère que la théorie de la
consommation keynésienne est de nature plus idéologique
que scientifique. En effet, pour lui, la loi de Keynes est
pessimiste du point de vue de l’évolution de l’économie de
marché capitaliste, car la diminution de C/ Y est synonyme
de diminution des débouchés pour la production capitaliste.
Cela comporte dans la logique keynésienne un risque de
stagnation de l’économie, d’où la justification keynésienne
de la nécessité de l’intervention de l’État pour relever la
propension à consommer et pour maintenir des débouchés.
M. Friedman fait observer qu’un tel pessimisme est le
produit de l’analyse en courte période de Keynes. Il néglige
le fait que le revenu des ménages évolue au cours du temps.
Keynes ignore également que les consommateurs font des
plans de dépenses sur une longue période, afin d’avoir un
rapport consommation/revenu le plus stable possible et
éviter de la sorte de subir les fluctuations inévitables du
revenu. La consommation n’est alors déterminée que
partiellement par le revenu courant dit encore revenu
transitoire ou revenu présent). Les agents prennent en
compte également leurs revenus passés et leurs revenus
futurs en utilisant leur mémoire et en anticipant leurs gains.
La somme pondérée et actualisée de ces trois revenus,
passés, présents et futurs, constitue le revenu permanent Si
le revenu transitoire augmente brutalement de manière
exogène à la suite d’une augmentation des dépenses
publiques en vue de susciter des débouchés à la production
permettant de réduire le chômage, l’effet en termes
d’augmentation de la consommation des ménages sera
faible, car ce supplément de revenu sera sans lendemain. On
dit qu’il y a effet de revenu permanent ou effet Friedman
lorsqu’il y a adaptation du volume et de la nature des
encaisses au revenu monétaire total perçu, compte tenu de la
conjoncture globale. Ce revenu peut révéler en effet soit un
excès soit un déficit par rapport au niveau du revenu
permanent et susciter un arbitrage entre consommation et
épargne d’une part, et entre encaisse transaction et encaisse
placement, d’autre part. Le maintien d’une consommation
permanente ou normale peut se traduire par une
déthésaurisation et par une vente des actifs financiers
(actions et obligations) en cas de déficit du revenu courant
ou par un accroissement des placements, en cas d’excès du
revenu courant.
Le revenu permanent détermine la consommation
permanente selon une proportionnalité qui dépend
uniquement du taux d’intérêt à long terme, lequel est
supposé connu, donc constant. Par conséquent, la
propension moyenne à consommer qui définit cette
proportionnalité est constante.
2.2.3. L’hypothèse du cycle vital
La théorie du cycle de vie est associée aux travaux de
Franco Modigliani (1912-2004). Ce dernier, après avoir mis
en évidence la difficulté de prévoir l’évolution de la
propension à épargner en raison des fluctuations des
revenus expose, avec R. Brumberg (1954) puis avec A.
Ando (1957 et 1963), la théorie du cycle de vie en mettant
en relation l’évolution du revenu et de l’épargne. Cette
théorie partage la philosophie générale décrite dans la
théorie du revenu permanent1. La spécificité est
l’introduction de différentes périodes dans la vie humaine,
périodes analysées en termes de comportements
économiques. Modigliani oppose, d’une part, les deux
périodes de la vie pour lesquelles la consommation est
supérieure au revenu – de 0 à 18 ou 20 ans, et au-delà de 65
ans – et, d’autre part, la période intermédiaire pour laquelle
le revenu est supérieur à la consommation, permettant ainsi
de constituer un patrimoine par l’épargne.

Fig. 5.15
. Hypothèse du cycle de vie
À un moment donné de la vie et à court terme, le
patrimoine est une constante, mais, au cours de la vie et sur
une longue période, le patrimoine varie. Il atteint le
maximum à la fin de la vie active, qui peut se situer à 60 ans
ou 65 ans selon les pays et les professions. Le rôle de
patrimoine est de lisser la consommation. L’hypothèse du
cycle vital indique que si les individus savaient la date de
leur décès, ils ne laisseraient aucun patrimoine derrière eux.
Par conséquent, le patrimoine jouerait ici le rôle du revenu
permanent présenté par Friedman. Autrement dit, la
consommation dépend du patrimoine. À court terme, en
revanche, la loi de Keynes s’appliquerait. Cette hypothèse
du cycle vital suscite de nombreux travaux et débats,
notamment à propos de l’influence du système de retraite
qui pourrait inciter à ne pas épargner en vue de faire face
aux besoins de consommation dans la période d’inactivité
(cf. « La théorie du cycle de vie », Annales d’économie et
de statistiques, n° 9, janvier-mars 1988).
Les critiques formulées sont principalement :
- La possibilité pour les individus d’emprunter sans
aucune limite de montant, avec pour seule
contrainte le remboursement de la dette,
- l’absence d’incertitudes dans différents domaines
(durée de la vie active, montant accumulé, date de
décès),
- la non-prise en compte de la solidarité
intergénérationnelle (égoïsme générationnel : on ne
laisse d’héritage à ses enfants qu’en raison de
l’ignorance de la date de décès).
Cette théorie du cycle vital reste bien une hypothèse car,
comme le rappellent Stéfan Lollivier et Daniel Verger : « Le
calcul du revenu permanent d’un individu suppose la
connaissance de tous les revenus qu’il perçoit au cours de
son cycle de vie, information évidemment indisponible. »2
2.2.4. Le rôle des structures sociales, psychologiques et
technologiques
Avec Duesenberry, on a déjà rencontré le problème de
l’imitation et de la démonstration. Ici, nous nous limiterons
à évoquer les changements de goût des consommateurs, le
rôle de la publicité et de l’action des entreprises.
Les changements de goût peuvent être spontanés, du fait
de l’éducation, de voyages, de découvertes, ou induits par la
publicité pour de nouveaux produits. Les changements de
goût s’accompagnent de dépenses plus élevées que pour les
produits abandonnés. Les produits durables de plus en plus
sophistiqués sont en effet plus onéreux. Par ailleurs, la
multiplication des produits présentés comme non
substituables entraîne une croissance des dépenses. Au total,
la propension moyenne à consommer ne peut pas baisser à
long terme.
Par cette publicité, par la sophistication et la
multiplication des biens, la relation C = f (Y) n’est plus à
sens unique : c’est parce que les biens sophistiqués et
nombreux sont désirés que les ménages cherchent à gagner
un revenu plus élevé. On ne consomme pas ce que l’on
gagne, mais on cherche à gagner pour consommer.
Évidemment un tel raisonnement oblige à introduire le
temps au-delà du court terme keynésien.
Par ailleurs, l’épargne n’est pas toujours la part du revenu
non consommée, i.e. un résidu. La variable d’ajustement
peut être au contraire la consommation. L’épargne peut être
affectée à une thésaurisation (détention de liquidités
inactives), à des placements sous la forme de prêts
rémunérés par un intérêt, et à l’investissement sous la forme
d’acquisition de biens de production et de logements. Une
augmentation du taux d’intérêt peut engendrer une hausse
de l’épargne en vue d’un placement, ce qui a pour effet de
faire baisser le niveau de la consommation compressible.
Par conséquent, la fonction de consommation dépend du
revenu et du taux d’intérêt.
Keynes, dans la Théorie générale, signale l’existence de
facteurs psychologiques susceptibles d’expliquer
l’instabilité du comportement du consommateur. Les
facteurs qui se résument par des anticipations pessimistes ou
optimistes ont été minimisés, alors que leur influence est
déterminante pour l’investissement. Les travaux de
psychologie économique (G. Katona, P.-L. Reynaud)
tendent à redonner un intérêt à cette dimension, mais ils
rencontrent l’obstacle de la pondération de ces facteurs
psychologiques.
1 M.R. Fisher : « Life-cycle hypothesis », article publié dans le dictionnaire
édité par J. Eatwell et alii sous le titre The New Palgrave : A Dictionary of
Economics, Londres, Macmillan, 1987.
2 Stéfan Lollivier et Daniel Verger : « Inégalités et cycle de vie : les liens entre
consommation, patrimoine et revenu permanent », Annales d’économie et de
statistiques, n° 54, 1999, p. 207.
Chapitre 6
Les marchés
1. Qu’est-ce qu’un marché ?
« Aller au marché », « faire son marché » sont des
expressions qui expriment assez bien les deux sens
populaires du mot marché en désignant un lieu (aller au
marché) et le processus soit de vente soit d’achat.
L’étymologie du mot « marché » peut être aussi bien le latin
mercatus qui vient de merx et mercis signifiant
marchandise, que le terme marka d’origine germanique
désignant, sous le terme français « marche », une province
frontalière d’un État et un district militaire établi sur une
frontière.
Du point de vue de l’économiste, le marché est la
rencontre d’une offre et d’une demande pour un bien ou un
service qui se concrétise par un accord sur un prix unitaire
des biens et services et les quantités sur lesquelles porte
l’échange. En économie industrielle, le marché désigne
l’ensemble des entreprises constituant la branche d’activité.
Du point de vue de la théorie microéconomique,
l’expression « passer un marché » indique bien que le
marché n’est pas un lieu mais un contrat comportant vente
et achat de biens ou de services à un prix dont la fixation
constitue ce marché. Toutefois, il existe des marchés
physiques, géographiquement situés, ou marchés concrets,
i.e. des lieux conventionnellement organisé pour permettre
aux acheteurs potentiels (demandeurs) et vendeurs
potentiels (offreurs) de se rencontrer avec présentation
effective des marchandises. Ces marchés qui sont des lieux
publics de vente ont divers noms : bourse, salon, foire, souk,
bazar, halle, etc.
Il peut aussi consister en un réseau d’informations sur
lequel les acteurs du marché se branchent, et porter sur des
biens à livrer immédiatement (marché au comptant) ou à
une date ultérieure (marché à terme).
En mercatique, comme cela a été indiqué dans le chapitre
consacré à la demande et à la consommation, le marché est
constitué par l’ensemble des clients actuels ou potentiels,
présents ou futurs d’une entreprise donnée.
Il existe cependant différents types de marchés en
fonction de divers critères de classification.
a) La date de disponibilité du bien : on distingue le
marché au comptant – décision d’échange et disponibilité
sont simultanées – et le marché à terme – décision et
disponibilité sont séparées dans le temps.
b) Le critère de l’espace pour les marchés concrets : on a
le marché local quotidien ou hebdomadaire, le marché
régional, le marché d’intérêt national, la foire internationale,
le marché mondial donc unique.
c) Le critère juridique : les marchés publics se
distinguent des marchés ordinaires.
d) La forme de la négociation. Les formes de marché sont
très nombreuses : gré à gré (à l’amiable), enchères
comportant différentes procédures (anglaises – à la hausse
–, hollandaise – à la baisse –, prix cacheté, au deuxième prix
cacheté). Le principe de l’enchère est d’offrir un prix plus
élevé que celui proposé précédemment par un autre dans le
cadre d’une adjudication en vue d’obtenir le bien ou le
service. On dit encore que les enchères publiques sont des
ventes à l’encan (vente au plus offrant).
Dans le cas des adjudications de bons du Trésor ou
d’obligations, deux formules sont utilisables :
- l’adjudication à la française. Le prix d’équilibre, i.e.
celui qui permet de placer le volume de « papier »
voulu par l’adjudicateur, est payé par chaque
adjudicataire. Cela revient à servir toutes les
demandes dans la limite des quantités offertes au
prix fixé par l’émetteur, ce prix étant le prix
marginal. Si l’émetteur enregistre 15 millions
d’euros de souscription pour une adjudication de
bons du trésor rémunérés à 5 %, et 25 millions
d’euros pour un taux rémunérateur de 5,5 %, alors
le taux de 5,5 % sera le prix unique en tant que prix
marginal si le Trésor atteint ses objectifs à 40
millions d’euros ;
- l’adjudication à la hollandaise ou enchère
hollandaise, dite encore enchère à prix descendant.
Chaque adjudicataire paye le prix auquel il a
soumissionné, pourvu qu’il soit inférieur ou égal au
prix d’équilibre. Il y a alors discrimination par les
prix. En reprenant l’exemple précédent, il y aura 15
millions d’euros de bons du Trésor à 5 % et 25
millions d’euros à 5,5 %.
e) La structure, elle-même déterminée par les
caractéristiques du bien (homogénéité ou hétérogénéité), le
nombre et la dimension des intervenants (atomicité ou
molécularité), les conditions d’entrée et de sortie du marché
et d’adaptabilité réciproque de l’offre et de la demande
(fluidité ou viscosité) et la qualité de l’information dont
disposent les intervenants sur les paramètres du marché
(transparence ou opacité). Dans ce cas, le nombre théorique
de marchés est encore plus grand. Le tableau de
Stackelberg1, ci-dessous, résume les différentes structures
sur la base du critère du nombre d’agents pour l’offre et
pour la demande, sachant que les produits sont homogènes,
et l’offre et la demande fluides.
L’objet de ce chapitre est d’analyser ces différents
marchés en privilégiant les formes fondamentales de la
concurrence pure et parfaite et du monopole. L’analyse sera
faite principalement en termes d’équilibre partiel, i.e. qu’un
seul marché sera pris en compte. Nous donnerons
cependant, dans la dernière section, une brève présentation
du phénomène d’interdépendance entre les marchés, qui
relève de l’analyse en termes d’équilibre général
Tableau 6.1
. Tableau de Stackelberg

2. La concurrence pure et parfaite


Dans le langage courant, le terme de concurrence désigne
la situation de lutte (on dit d’ailleurs competition en anglais)
qui existe soit entre demandeurs, soit entre offreurs. En
théorie économique, la concurrence a un sens très différent :
elle désigne une structure de marché comportant un grand
nombre d’offreurs et de demandeurs. Lorsque, en plus,
chaque intervenant est d’une si faible taille qu’il ne peut
influencer le niveau des prix à lui seul (hypothèse
d’atomicité), que la liberté de vendre et d’acheter est totale
(hypothèse de fluidité), que les biens ou services sont
rigoureusement identiques (homogénéité), que les facteurs
de production sont parfaitement mobiles d’une branche à
une autre (hypothèse de parfaite mobilité des facteurs), et
qu’enfin les intervenants sont parfaitement informés sur
l’ensemble des prix (hypothèse de la transparence ou
d’information parfaite), alors la concurrence est dite pure et
parfaite. Les conditions de la pureté sont l’atomicité, la
fluidité et l’homogénéité, celles de la perfection étant la
transparence et la mobilité.
Dans la réalité, ces conditions sont rarement réunies. La
concurrence pure et parfaite s’avère donc une construction
abstraite dont l’intérêt est surtout d’ordre normatif,
notamment pour apprécier les pratiques constatées.
Toutefois, il est possible de voir dans le marché des valeurs
mobilières une forme approchée de la concurrence pure et
parfaite. La bourse des valeurs, en tant que marché
secondaire, est souvent le lieu où un grand nombre de
particuliers cherchent à vendre un titre d’une société donnée
et d’autres particuliers en aussi grand nombre cherchent à se
porter acquéreurs de ces mêmes titres. La condition
d’atomicité bilatérale est respectée. Le cours de l’action est
connu de tous par la voie de la cotation officielle. La
condition de la transparence est respectée. Si le prix s’élève
au-dessus de celui que l’acheteur s’est fixé comme limite
maximum, il se produit une sortie du marché, et si le prix
est largement au-dessus du prix minimum attendu par les
vendeurs, il se produira des entrées du côté de l’offre. La
sortie et l’entrée ne sont pas bloquées, la condition de
fluidité bilatérale est respectée. Comme les transactions
concernent un titre particulier, la condition d’homogénéité
est respectée. La condition qui n’est pas évoquée ici est
celle de la mobilité qui est une condition surnuméraire en ce
sens qu’elle est impliquée dans la condition de fluidité. Si
l’offre est fluide, i.e. s’adapte instantanément à l’évolution
du prix, cela signifie qu’il n’y a pas de contrainte du côté de
la production et de ses facteurs.
Pour comprendre la valorisation positive dont le modèle
de concurrence pure et parfaite est l’objet, nous
présenterons les principes d’équilibre à court terme et à long
terme pour la firme et pour la branche. Ici, le court terme et
le long terme sont distingués sur la base de la fixité du
nombre d’entreprises (court terme) et de sa variabilité (long
terme).
2.1. Les prix et les quantités d’équilibre à court terme en
concurrence pure et parfaite
2.1.1. L’équilibre pour l’entreprise : égalité entre coût
marginal et recette moyenne
L’entreprise, du fait de l’atomicité, est un preneur de prix
(en anglais, l’expression est price taker, que l’on oppose à
price maker – faiseur de prix – qui serait le comportement
d’un monopoleur). Cela revient à dire que le prix est une
donnée pour l’entreprise – elle ne peut pas l’influencer,
quelle que soit la quantité qu’elle propose sur le marché. Par
exemple, si le prix p est de 100 u.m. l’unité, en vendant la
quantité y, soit 10 unités du bien qu’elle produit, sa recette
totale RT sera de 1 000 u.m. en faisant le produit entre le
prix et la quantité, soit l’opération suivante : RT = p × y.
En vendant une onzième unité, elle reçoit 100 u.m.
supplémentaires. L’augmentation de la recette totale à la
suite de l’augmentation d’une unité du produit vendu
constitue la recette marginale (Rm = recette procurée par la
dernière unité vendue). Le prix étant fixe, la recette
marginale est alors égale à ce prix qui n’est autre que la
recette moyenne RM, i.e. le rapport entre la RT et les
quantités vendues (y) : RM = RT/y ou encore : RM = p =
py/y

Fig. 6.1
. Recettes en concurrence pure et parfaite
pour la firme
Cela veut dire que toutes les quantités mises sur le
marché trouveront preneur. La droite RM ou des prix traduit
ainsi la demande qui est ici parfaitement élastique, i.e. que
si le producteur modifie son prix à la hausse d’une manière
infinitésimale, il perdra tous ses clients qui s’adresseront
aux autres producteurs qui sont en mesure d’offrir
instantanément le même bien avec les mêmes qualités.
Dans ces conditions, pour déterminer la quantité optimale
ou quantité d’équilibre que l’entreprise doit livrer sur le
marché, il suffira de confronter la recette totale prévisible et
le coût total prévisible pour différentes quantités de bien, et
de choisir celle qui dégage le profit le plus élevé. Il s’agit
donc de maximiser l’écart positif entre RT et CST.
Géométriquement, la confrontation de la droite de RT et
de la courbe de CST donne l’écart maximum, noté Π pour
profit, lorsque les tangentes à la RT et au CST sont
parallèles, i.e. lorsque leur pente sont égales. Ici, la tangente
au CST (en trait discontinu) est parallèle à la droite de RT.
La pente d’une tangente en un point d’une courbe est le
rapport entre la variation de la variable déterminée ou
expliquée et la variation de la variable déterminante ou
explicative. Dans les deux fonctions, la variable
déterminante est la quantité, les variables déterminées sont
respectivement la recette totale et le coût synthétique total.
Par conséquent, les pentes des tangentes sont la recette
marginale et le coût marginal.

Fig. 6.2
. Équilibre de la firme à court terme en
concurrence pure et parfaite
D’un point de vue analytique, il s’agit de rechercher la
quantité pour laquelle la dérivée du profit total est nulle, i.e.
que pour cette quantité, le profit marginal est nul. Ce
résultat peut être obtenu en égalisant le coût marginal – la
courbe d’offre – avec la recette marginale qui est ici
confondue avec la recette moyenne représentant la demande
adressée à l’entreprise. L’intersection de RM avec le coût
marginal Cm de la firme représentative au point E détermine
la quantité optimale à court terme. L’entreprise réalise un
profit unitaire égal à la différence entre la recette moyenne
et le coût moyen correspondant à la quantité optimale. Le
coût synthétique moyen CSM se situe alors au point N. Le
profit unitaire est par conséquent (E-N) qui apparaît en trait
épais dans la figure 6.2.b. Le profit total est la surface
correspondant au produit entre le profit unitaire et les
quantités vendues. Ce profit total correspond au rectangle «
p pN E N »
2.1.2. L’équilibre pour la branche : égalité entre l’offre
totale et la demande totale
La branche, ici, est l’ensemble des entreprises offrant le
même type de bien. La demande totale est la somme des
demandes individuelles. Elle est une fonction décroissante
du prix – le paradoxe de Giffen étant exclu. L’offre totale est
la somme des offres individuelles. Elle est une fonction
croissante des prix. L’équilibre est réalisé lorsque l’offre
totale est égale à la demande totale. On obtient P1, le prix
d’équilibre, et Y1 = (∑y), la quantité d’équilibre à court
terme comme l’indique la figure 6.3.a.
2.2. Les prix et les quantités d’équilibre à long terme en
concurrence pure et parfaite
Nous supposerons que la demande est stable et que les
entreprises possèdent les mêmes techniques de production.
L’existence d’un profit à court terme attire de nouveaux
offreurs sur le marché. La production offerte augmente par
déplacement de la courbe d’offre du côté droit, passant, sur
la figure 6.3.a. ci-dessous, de O1 à O2, puis à OLT.
L’absorption de cette offre supplémentaire se fait à des prix
plus bas, P2 puis PLT. La baisse des prix conduit chaque
entreprise présente sur le marché à réduire progressivement
ses quantités, comme on peut le voir sur la figure 6.3.b. :
yOCT (quantité d’équilibre à court terme) passe à yOLT (quantité
d’équilibre à long terme).
Pour la branche, l’offre totale a augmenté, passant de YOCT
à YOLT comme on le voit sur la figure 6.3.a. pour laquelle les
abscisses n’ont pas la même échelle que dans la figure 6.3.b.
de la firme représentative. L’entrée de nouvelles entreprises
s’arrêtera lorsque le prix sera égal au minimum du coût
moyen de l’entreprise représentative.
Par conséquent, en concurrence pure et parfaite, à long
terme, l’équilibre est obtenu lorsque RM = Rm = CM = Cm.
Le profit pur ou profit économique est nul, sachant que le
coût moyen prend en compte la rémunération jugée normale
du capital. L’augmentation de l’offre et la baisse du prix
jusqu’au minimum du coût moyen expliquent les analyses
apologétiques de la concurrence pure et parfaite.

Fig. 6.3
. Équilibre CPP à court et long terme
(a) Pour le marché (b) Pour la firme
2.3. Les qualités de l’équilibre de concurrence pure et
parfaite pour la branche
Un équilibre en concurrence pure et parfaite signifie que
tous les demandeurs qui ont proposé un prix égal ou
supérieur au prix d’équilibre seront satisfaits en réalisant un
surplus (ou quasi-rente) égal à la différence entre le prix
proposé et le prix du marché. De même, tous les offreurs qui
ont proposé un volume de produits à un prix égal ou
inférieur au prix d’équilibre seront satisfaits en réalisant un
surplus (ou quasi-rente) égal à la différence entre le prix
d’équilibre et le prix annoncé. Le surplus du producteur
correspond au profit économique de l’entreprise. L’équilibre
signifie qu’il n’y a ni pénurie ni excédent (voir encadré sur
les prix administrés).

Fig. 6.4
. Surplus du producteur et surplus du
consommateur
Le surplus collectif est la somme des surplus des
consommateurs et des surplus des producteurs. Il est
maximal à l’équilibre du marché. Il s’ensuit qu’un équilibre
de concurrence pure et parfaite est un optimum de Pareto
(premier théorème de l’économie du bien-être), et il est
possible de démontrer qu’un optimum en concurrence pure
et parfaite est un équilibre (deuxième théorème de
l’économie du bien-être2.
L’équilibre existe et il est unique, sauf pour les biens
libres, les biens non produits et lorsque l’offre est atypique.
Pour les biens libres, la pléthore débouche sur des prix
négatifs : il faudrait que le producteur paie le consommateur
pour enlever les marchandises trop abondantes. Avec les
biens non produits, le coût marginal prévisionnel est
supérieur à la demande à un niveau de production proche de
zéro. L’intersection entre l’offre et la demande se fait pour
des valeurs négatives de la production. La production zéro
correspond au bien inaccessible pour les consommateurs.
Avec l’offre atypique (voir marché du travail) plusieurs
équilibres sont possibles.
Hormis ces exceptions, l’unicité de l’équilibre peut être
démontrée en imaginant qu’un offreur cherche à attirer les
demandeurs par un prix plus faible que le prix d’équilibre.
La transparence joue, tous les demandeurs sont informés du
prix. La fluidité joue, tous les demandeurs se présenteront
auprès de cet offreur dont le produit a les mêmes qualités
que les autres. Mais l’atomicité intervient : l’offreur ne peut
satisfaire tous les demandeurs au prix qu’il a voulu faire. Il
est alors obligé d’être un preneur de prix, i.e. de remonter au
prix d’équilibre unique sur le marché.
Le prix d’équilibre n’est cependant pas nécessairement
stable à court terme. Les courbes d’offre et de demande
peuvent en effet se déplacer sous l’action du progrès
technique, du changement de goût des consommateurs3, etc.
L’équilibre est stable si la perturbation est suivie par un
nouvel équilibre identique ou différent de l’équilibre
précédent.
Par exemple, si brutalement la demande se déplace par un
accroissement dû à des facteurs exogènes, un nouvel
équilibre s’établira par l’intersection avec la courbe d’offre
originelle, soit par l’augmentation du prix pour résorber la
demande nette (écart entre la demande et l’offre pour le prix
de départ), soit par l’augmentation des quantités offertes
pour résorber le prix de demande nette (écart entre le prix de
la nouvelle demande pour une quantité originelle et le prix
d’équilibre originel). Le premier ajustement correspond à la
stabilité au sens de Walras, le second est la stabilité au sens
de Marshall, mais le résultat final est le même.
Prix administrés : pénuries et excédents
Le prix du marché est un indicateur de rareté qui assure
en même temps une fonction d’allocation (ou de
distribution) : les producteurs dont les coûts de production
sont plus faibles que le prix seront les seuls offreurs et les
demandeurs qui ont un revenu suffisant pour payer le prix
seront les seuls satisfaits. Les pouvoirs publics, par
idéologie ou sous la pression de l’électorat, sont
susceptibles de renoncer au critère de l’allocation par le
marché libre, qui ne tient aucun compte de l’intérêt social
d’une activité, ou de l’insolvabilité d’une partie importante
de la population qu’il serait « juste » d’aider. Dans ces cas,
les pouvoirs publics peuvent fixer autoritairement le prix
afin d’aider soit les producteurs, soit les consommateurs. La
pratique des prix administrés peut être un soutien des prix
par la fixation de prix planchers en vue d’aider les
producteurs. Le prix plancher conduit alors à une offre
supérieure à la demande. Dans le monde agricole, avec les
politiques de soutien des prix dans la plupart des espaces
économiques, conduisent fréquemment à ce phénomène de
pléthore. L’institutionnalisation d’un salaire minimal d’un
niveau élevé peut engendrer un excès d’offre de travail sur
la demande (chômage). L’aide aux consommateurs consiste
à fixer des prix plafonds pour certains produits et certains
services. La demande est alors susceptible d’être supérieure
à l’offre. Il en résulte une pénurie. Le blocage des prix dans
le cadre des politiques anti-inflationnistes aboutit au même
résultat, i.e. à masquer la hausse des prix mais pas la cause
consistant en une offre insuffisante. Le blocage des prix est
ainsi un facteur d’aggravation de l’inflation, toute chose
étant égale par ailleurs, notamment les anticipations.

Fig. 6.5
. Prix administrés
(a) Prix au-dessous du prix d’équilibre (b)
Prix au-dessus du prix d’équilibre
2.4. L’équilibration en dynamique : les modèles arachnéens
Jusqu’ici, nous avons raisonné en statique, i.e. sans prise
en compte du temps nécessaire à l’ajustement.
L’introduction du temps, ou analyse dynamique, conduit à
envisager trois formes d’oscillations dont une seule conduit
à la stabilité. Elles sont connues sous le nom de modèle du
Cobweb ou modèle de la toile d’araignée.
Le principe de construction consiste à donner des délais
d’adaptation à l’offre. Celle-ci est fonction du prix de la
période t – 1, tandis que la demande est fonction du prix
actuel. Le processus du Cobweb dépendra ensuite de la
valeur absolue des pentes respectives de l’offre et de la
demande, lorsqu’au départ il existe une demande nette non
nulle (D > 0 ou D < 0). Sur ces bases, comme le montre
les figures 6.6. ci-dessus, les oscillations sont amorties et
l’équilibre du marché est stable lorsque la pente de la
courbe d’offre est inférieure en valeur absolue à celle de la
demande ; elles sont explosives pour une pente de l’offre
supérieure en valeur absolue à celle de la demande ; elles
sont auto-entretenues pour des pentes de même valeur
absolue. Les fluctuations du prix et des quantités au cours
du temps peuvent être représentées de manière spécifique en
fonction du temps. Les figures 6.6. ont privilégié le prix.
Une représentation de l’évolution des quantités donnerait
des oscillations symétriques, on dit encore en opposition de
phases.
Fig. 6.6
. Les Cobweb
a) Fluctuations explosives b) Fluctuations
amorties c) Fluctuations stationnaires
3. Le monopole : la persistance du profit économique
3.1. Les différents monopoles
Le monopole est une structure de marché dans laquelle un
seul offreur représente à lui seul la branche. Il existe,
cependant, différents types de monopoles :
a le monopole bilatéral est une structure comportant
un offreur et un demandeur dans la branche. L’issue
de cette rencontre est incertaine. L’équilibre peut
être favorable soit à l’un, soit à l’autre ; tout dépend
des rapports de forces, i.e. de l’intensité des besoins
de l’un pour les produits de l’autre, sachant que
l’offre est une demande réciproque. La théorie des
jeux inaugurée par J. von Neumann et O.
Morgenstern rend bien compte de cette complexité
(voir ci-dessous le paragraphe 3.2.) ;
b le monopole contrarié est une confrontation entre un
offreur et quelques demandeurs qui peuvent se
coaliser pour transformer la structure en monopole
bilatéral si l’offreur est trop exigeant ;
c le monopole discriminant est une situation dans
laquelle l’offreur propose le même type de bien à
des prix différents, soit dans des espaces séparés –
la différence de prix doit être inférieure aux coûts
de transport entre les deux espaces pour ne pas se
faire concurrence par ses propres produits dans la
zone à haut prix –, soit lorsqu’il s’agit de services à
des demandeurs n’ayant pas les mêmes possibilités
d’achat. En termes commerciaux, le monopole
discriminant est une stratégie qui a pour objet pour
le producteur d’accaparer le surplus du
consommateur : le prix est fonction de ce que
chacun accepte de payer, il n’y a plus de prix
unique du marché ;
d le monopole pur, situation que nous allons
approfondir, est une structure de marché
caractérisée par la présence, d’une part, d’un seul
offreur pour un produit n’ayant pas de substitut et,
d’autre part, d’un grand nombre de demandeurs.
Bien que le monopole pur soit théorique, il existe
des cas de réels monopoles proches du modèle
théorique. Un monopole, dans ce cas, peut être
conféré par la puissance publique ou par la loi. Il y
a ainsi le monopole privé de l’inventeur pour
exploiter son brevet d’invention, le monopole
public dans certains domaines permettant à l’État
de se procurer des revenus ou d’orienter
l’économie, comme c’est le cas pour le commerce
extérieur dans certains pays en voie de
développement. Le monopole peut aussi résulter
d’une supériorité de la firme vis-à-vis de
concurrents potentiels, se traduisant par l’infériorité
de ses coûts au fur et à mesure de la croissance de
la production de la production. Au départ, les coûts
fixes sont très élevés. Toute unité supplémentaire de
produit ou tout client supplémentaire servi se
traduit par une forte baisse du coût moyen et du
coût marginal. Dans ce cas, qui est celui des
rendements d’échelle croissants, on parle de
monopole naturel. Ce phénomène a été souvent
observé dans certains pays et s’observe encore dans
d’autres pour les services réticulaires comme la
production et la distribution d’électricité, le
transport par chemin de fer, la communication par
réseau téléphonique. Toutefois, le réseau unique
peut être mis à la disposition des tiers pour susciter
la concurrence, comme cela a été fait dans le
domaine du téléphone en France. La procédure est
ici l’accès des tiers au réseau (ATR).
3.2. L’équilibre en monopole pur
3.2.1. Équilibre à court terme : égalité entre Rm et Cm
Le profit maximal est supposé être l’objectif de
l’entreprise en monopole. Il est obtenu lorsque l’écart entre
la recette totale et le coût total est maximal. Ce maximum
correspond à la quantité pour laquelle les tangentes à la
recette totale et au coût total sont parallèles. Or, les pentes
de ces tangentes sont les dérivées respectives de la recette
totale et du coût total. Autrement dit, la quantité optimale
YOM est celle pour laquelle la recette marginale (Rm) est
égale au coût marginal (Cm), ce qui se produit au point E de
la figure 6.7.
Le prix d’équilibre (P’ ou P) est alors donné par la recette
moyenne (RM) correspondant à la quantité optimale (cf. fig.
6.7. ci-dessous).
Fig. 6.7
. Équilibre de la firme en monopole
Le profit unitaire est l’écart entre RM et CM pour YOM. Le
profit total est la surface du rectangle PAA’P’.
On notera que, si la fonction RT est de type parabolique
(– ay2 + by), alors la pente de Rm sera deux fois plus forte
que celle de RM. On le vérifie en utilisant les définitions de
Rm et de RM :
Rm = RT’= – 2ay + b ; et RM = RT/y = – ay + b
3.2.2. Équilibre à long terme et tarification au coût
marginal
a) À long terme, en supposant un progrès technique nul,
la stabilité de la dimension de l’entreprise et une absence de
changement de comportement et du nombre des
demandeurs, l’équilibre du monopole reste identique à
l’équilibre obtenu à court terme. Le profit peut se maintenir,
contrairement à la situation de concurrence pure et parfaite.
Il en résulte que la production offerte en monopole est en
principe plus faible que celle d’une branche en concurrence
pure et parfaite et avec un prix plus élevé.
Le monopole confisque une partie du surplus du
consommateur correspondant au déplacement du prix de B à
P’ (fig. 6.7.) du prix de concurrence pure et parfaite obtenu
par l’égalité du coût marginal et de la recette moyenne. On
constate aussi que le surplus collectif diminue de la surface
du triangle P’BE, dit triangle de Harberger4 du nom de
l’économiste qui, en 1954, a mis en relief cette perte en
termes de bien-être. Le monopole présente ainsi un coût
social évident qui explique les critiques dont il est l’objet.
Dans la mise en évidence du coût social du monopole, on
a fait l’hypothèse implicite que le coût marginal en
monopole était identique à celui de la concurrence. Mais, du
fait de l’absence de lutte en monopole, une telle hypothèse
peut s’avérer non réaliste. Autrement dit, le monopoleur
n’est pas incité à minimiser ses coûts de production.
L’absence de motivation pour rechercher une allocation
efficace des ressources entraîne une diminution des profits.
Cette perte par rapport au profit théorique et potentiel
constitue, selon la terminologie de H. Leibenstein, «
l’inefficience-X » (Harvey Leibenstein, « Allocative
efficiency versus X-inefficiency », American Economic
Review, vol. 56, pp. 392-415, juin 1966). Toutefois, il n’est
pas plus certain que le prix en monopole soit fatalement
supérieur au prix de la concurrence pure et parfaite en
raison, d’une part, de la grande taille de la firme en
monopole et, d’autre part, de la possibilité de susciter des
concurrents par les prix élevés lorsqu’il n’y a ni barrière à
l’entrée ni barrière à la sortie. Dans ce dernier cas (étudié en
1982 par Baumol, Panzar et Willig), il s’agit d’un marché
contestable ou disputable qui permet de retrouver le prix de
la concurrence pure et parfaite sur un marché ne comportant
qu’un seul et unique offreur.
– La grande dimension permet en effet de réaliser des
économies d’échelle avec, par conséquent, un coût marginal
susceptible d’être plus faible que celui de la micro-
entreprise de la concurrence pure et parfaite. C’est ce
qu’illustre la figure 6.8. Le prix en concurrence pure et
parfaite est plus élevé et la quantité optimale (YOCPP) est
respectivement plus faible que le prix et la quantité optimale
en monopole (YOM).

Fig. 6.8
. Le monopole n’est pas fatalement
défavorable socialement
Dans la théorie des marchés contestables de Baumol-
Panzar-Willig5, il existe des concurrents potentiels
susceptibles d’entrer sans délai dans le marché. Cela résulte
à la fois de l’absence, d’une part, d’avantages spécifiques
pour la firme établie et, d’autre part, de coûts irrécupérables.
Les coûts irrécupérables ou coûts irréversibles sont les
dépenses effectuées sans pouvoir redéployer sans perte les
moyens acquis sur d’autres secteurs si la rentabilité n’est
pas confirmée. Dans ces conditions, la firme en place fixe
son prix au niveau du coût moyen. Tout prix supérieur au
coût moyen suscitera l’entrée de concurrents qui le
ramènera au prix de la concurrence pure et parfaite. Le
profit étant nul, les concurrents potentiels ne chercheront
pas à s’établir dans cette branche ou sur ce marché.
b) On signalera que, pour les monopoles publics
cherchant à maximiser le surplus global, l’équilibre est au
point B (fig. 6.7.), i.e. à l’intersection du coût marginal
(Cm) et de la recette moyenne (RM). La tarification au coût
marginal conduit donc à un prix plus bas qu’en monopole
pur (B au lieu de P’) et à une production plus élevée.
La tarification au coût marginal, lorsque le coût marginal
Cm est inférieur au coût moyen CM, implique que la
puissance publique prenne en charge le déficit
d’exploitation pour permettre à l’entreprise de poursuivre
son activité. Le recours aux subventions est aussi une
nécessité pour assurer l’équilibre de gestion des
organisations productives de spectacles vivants en raison de
l’absence de gains de productivité comme l’indique la loi de
Baumol et Bowen dans le spectacle vivant (les coûts
augmentent selon la moyenne nationale mais la productivité
est constante : il faut toujours le même temps et le même
nombre d’acteurs pour jouer l’avare de Molière).
4. Le marché avec un seul acheteur : le monopsone
Le monopsone est une structure de marché comportant un
demandeur face à un grand nombre d’offreurs. Lorsque le
bien est intermédiaire, le monopsone se transforme en
monopole pour le bien final qu’il produit. Dans ce cas,
l’équilibre du monopsoneur est obtenu par confrontation de
sa propre recette marginale, décroissante par rapport au prix,
et de sa propre courbe d’offre qui est plus élevée que celle
de ses fournisseurs. L’équilibre est réalisé à l’égalité entre sa
recette marginale et son coût marginal. La courbe de recette
moyenne située au-dessus de la recette marginale indique le
prix de vente qui assure le plus grand profit. Le prix d’achat
se lit sur la courbe de coût moyen situé en dessous du coût
marginal.
5. Concurrence imparfaite et théorie des jeux
La concurrence pure et parfaite, le monopole pur et le
monopsone pur sont trois structures très abstraites. La
réalité est composée de structures intermédiaires qui ont
pour nom oligopole, concurrence monopolistique. Ces
formes sont l’objet d’études en économie industrielle avec
fréquemment une application de la théorie des jeux. Nous
consacrons le premier paragraphe à la présentation des
notions essentielles de cette théorie, en notant

Fig. 6.9
. Équilibre en monopsone
tout de suite qu’elle peut être appliquée au marché de
concurrence pure et parfaite. Les autres paragraphes
exposeront les équilibres et les processus de leur réalisation
éventuelle sur les marchés de concurrence imparfaite
5.1. Notions de la théorie des jeux
La théorie des jeux est une approche formalisée,
modélisatrice de l’interaction stratégique entre des individus
rationnels. Elle peut être aussi bien explicative que
normative. L’histoire de la théorie des jeux fait remonter
l’idée aux auteurs qui ont introduit le calcul de probabilités
et l’analyse en termes d’anticipation pour la prise de
décision en avenir incertain. Blaise Pascal et d’autres
mathématiciens comme les frères et cousins Bernoulli (Jean,
Jacques, Daniel, Nicolas) sont les plus fréquemment
évoqués dans cette archéologie qui va jusqu’à Émile Borel
dans les années 1920. Mais tout le monde admet que les
développements modernes ont pour base le livre Theory of
games and economic behavior, difficile d’accès, souvent
cité et rarement lu, publié en 1944 par John von Neumann et
Oscar Morgenstern. Il fait suite à la démonstration du
théorème du minimax que von Neumann a proposée en
1928. Ce théorème donne une solution, plus générale que
celle imaginée par James Waldegrave deux cents ans plus
tôt, en termes de stratégies mixtes à un problème en
apparence insoluble conçu par Rémond de Montfort en
1713.
Dans tout ce vocabulaire nouveau il faut préciser tout de
suite le sens particulier de certaines notions, même si nous
les retrouvons plus loin de manière plus approfondie. Pour
von Neumann une stratégie pure est une décision ou une
action certaine ; une stratégie mixte est une distribution de
probabilités affectée par un joueur à l’ensemble des
stratégies pures. On appelle équilibre la solution du jeu tel
qu’aucun joueur n’a intérêt à modifier sa position, à changer
de stratégie. Le théorème du minimax s’énonce alors ainsi :
« Tout jeu à somme nulle et à deux joueurs, qui ont fait
leurs choix dans des ensembles finis de stratégies pures,
comporte au moins un équilibre en stratégies mixtes. »
L’Américain John Nash6 en 1950 généralise ce résultat
pour des jeux à n personnes par le théorème qui porte son
nom. Le théorème de Nash s’énonce ainsi :
« Tout jeu à n personnes et à un nombre fini de stratégies
pures comporte au moins un équilibre (en stratégies mixtes).
»
Cet équilibre, que par la suite on désignera par équilibre
de Nash, est défini comme « toute combinaison de stratégies
– une par joueur – telle qu’aucun joueur ne regrette son
choix après avoir constaté celui des autres joueurs ».
Nous présenterons les règles d’un jeu avant de donner
deux illustrations pédagogiques avec le monopole bilatéral
et le modèle canonique du dilemme du prisonnier
fréquemment évoqué pour synthétiser des situations où le
mieux est souvent l’ennemi du bien.
5.1.1. Les règles d’un jeu
L’Américain d’origine hongroise John C. Harsanayi
(1920-2000) résume en 4 propositions les composantes
minimales des jeux au sens de la théorie :
- les règles du jeu peuvent être des conventions
arbitraires ;
- elles doivent respecter les données scientifiques
connues (« lois de la nature ») ;
- elles doivent inclure l’allocation initiale des
ressources, y compris l’information et l’expertise
ou habileté du joueur ;
- elles doivent incorporer la fonction d’utilité
(cardinale) des joueurs.
Un jeu se définit alors par la combinaison des modalités
pour les douze critères suivants :
a) Les jeux à un joueur et les jeux à plusieurs joueurs. Les
jeux à un joueur sont dits des jeux contre la nature, i. e que
les autres joueurs sont sans réaction. Les jeux
évolutionnistes en sont une forme. Les jeux à plusieurs
joueurs caractérisent une situation d’interdépendance
stratégique, i.e. une impossibilité pour un joueur de se
comporter comme si les actions des autres joueurs
pouvaient être tenues pour données et indépendantes de ses
propres choix. On entend par stratégie une description
complète de la manière dont on se comportera en présence
de chaque circonstance possible, (Morton Davis Théorie des
jeux, ed. A. Colin). Les stratégies sont représentées dans une
matrice des gains ou avec un arbre de décision. La
représentation matricielle découle du théorème de Zermelo
(1912) qui indique que « dans un jeu à deux joueurs, en
information parfaite, l’un des deux joueurs peut être sûr de
gagner ou bien obtenir pour tous les deux la partie nulle ».
Tableau 6.2
. Matrice des gains pour un jeu unique,
simultané non répété
La matrice ci-dessus peut être représentée sous la forme
extensive d’un arbre de jeu. Ici la forme extensive du jeu
adoptée est horizontale, mais la plus courante est verticale :
du sommet A partent les branches correspondant aux
différentes stratégies de A. Chacune rencontre un nœud B
avec ses propres stratégies. La base qui est l’intersection des
deux stratégies donne la valeur du gain ou des pertes pour
chaque stratégie de chaque joueur.

Fig. 6.10
. Arbre de décision ou forme extensive
d’un jeu
A et B sont des nœuds correspondant à un choix entre
plusieurs actions : A1, A2, B1, B2
(a21, b21) est le vecteur des gains lorsque A joue l’action A2
et B joue B1
b) Les jeux à un coup et les jeux à plusieurs coups. Ces
derniers correspondent à des jeux séquentiels, itératifs.
c) Les jeux statiques ou jeux ordinaires et les jeux
répétés. Un jeu statique est un jeu dans lequel les joueurs
choisissent leur stratégie de manière simultanée. Un jeu
répété est un jeu ordinaire réitéré soit de manière illimitée
(jeu à horizon infini) soit de manière limitée dans le temps
(jeu à horizon fini). Le jeu répété peut comporter des
stratégies en boucle ouverte, i.e. que les joueurs ne prennent
pas en compte l’histoire, négligeant ainsi tous les jeux
précédents. Les stratégies au contraire peuvent être en
boucle fermée, par la prise en compte de toute l’histoire.
Une stratégie de rétroaction est aussi envisageable par la
prise en compte de la seule dernière action précédente.
d) Les jeux à choix simultanés et les jeux à choix
successifs
e) Les jeux à information complète et les jeux à
information incomplète : un jeu est à information complète
si chaque joueur connaît toutes les règles du jeu, toutes les
stratégies possibles pour lui-même et pour les autres
joueurs, les préférences des autres joueurs et toutes les
actions antérieures à la présente phase du jeu. L’information
est incomplète si au moins un des joueurs ne connaît pas la
structure complète du jeu.
f) Les jeux à information parfaite et les jeux à
information imparfaite : il s’agit ici de l’information des
agents sur l’ensemble des décisions prises antérieurement
par les autres agents dans un système économique donné.
L’information est imparfaite lorsque les décisions sont
simultanées avec absence de concertation préalable, et, plus
généralement, lorsque l’un des joueurs ne connaît pas la
stratégie adoptée par les autres joueurs.
g) Les jeux à information symétrique et les jeux à
information asymétrique.
h) Les jeux à communication possible entre les joueurs et
les jeux sans possibilité de communication entre les joueurs.
i) Les jeux à somme nulle (les gains des uns sont égaux
aux pertes des autres), et les jeux à somme non nulle (les
gains des uns sont supérieurs ou inférieurs aux pertes des
autres, ou encore tout le monde perd, ou tout le monde
gagne des sommes variables).
j) Les jeux dans lesquels l’intérêt des joueurs est soit
convergent, soit divergent, soit plus ou moins divergent. Les
formes de jeu sont alors soit des jeux non coopératifs
comme les duels, soit des jeux coopératifs.
k) Les jeux avec dédommagements (paiements latéraux,
pots de vin, compensations) possibles et les jeux sans
dédommagement.
l) Les critères de décision du joueur : s’il est possible de
recenser tous les avenirs possibles, i.e. les différents états de
la nature susceptibles de se produire à la suite de la
décision, mais sans qu’on puisse attribuer une probabilité à
ces situations futures, on peut employer l’un des cinq
critères suivants :
- le critère de Laplace : pour chaque décision on
calcule la moyenne arithmétique des gains
envisagés et on retient la décision qui présente la
plus forte moyenne. Ceci revient à la maximation
de l’espérance mathématique avec une probabilité
égale pour tous les états de la nature ;
- le critère de Wald ou du maximin : c’est la solution
de prudence maximum. Pour chaque décision, on
retient l’état de nature qui donne le gain le plus
petit (minimum). Devant ces minima, le joueur
choisit la décision pour laquelle le minimum est le
plus élevé. Il maximise le minimum d’où le nom de
maximin ;
- le critère du minimax : il s’applique au payeur. Il
s’agit dans les états de la nature, de retenir pour
chaque décision, ceux qui entraînent un paiement
maximum. Puis de choisir la décision pour laquelle
le maximum à payer est le minimum. Le joueur
minimise le maximum de ses pertes ; c’est
également un comportement de prudence maximum
comme pour le maximin ;
- le critère de Savage, dit encore minimax regret : il
consiste à établir un tableau des manques à gagner
attachés à chaque décision par rapport à la décision
la plus favorable pour chaque état de la nature. La
décision à prendre est celle qui minimise le regret
maximum ;
- le critère de Hurwicz : à chaque décision correspond
une moyenne pondérée des conséquences extrêmes.
La décision avantageuse est celle qui maximise
cette moyenne.
5.1.2. Illustrations de jeux non coopératifs à somme nulle et
à somme non nulle
Le premier objet de ce paragraphe est de faire
comprendre le mécanisme de la prise de décision avec les
critères du minimax et du maximin, dans le cadre d’un jeu
unique, simultané, à somme nulle, à information complète et
parfaite en prenant l’exemple simple du monopole bilatéral.
Pour apprécier la puissance de cet instrument qu’est la
théorie des jeux, vous pouvez remplacer l’acheteur par un
concurrent avec des stratégies de prix, de publicité, de
nouveaux produits, ou de distribution (pour reprendre les
variables des « 4 P » du marchéage ou marketing mix :
price, product, place, promotion). Le deuxième objet du
paragraphe est la présentation du dilemme du prisonnier,
modèle de référence constant dans un grand nombre de
domaines.

a) Monopole bilatéral : un jeu en information complète


et parfaite à somme nulle
Supposons que A soit l’offreur, i.e. celui qui reçoit le
paiement effectué par B, le demandeur, en termes de volume
physique. Dans une matrice des gains de A, nous
représenterons en lignes les tactiques de prix de A, et en
colonnes les tactiques de quantités de B, sachant que, sur un
marché, si l’offreur détermine le prix, c’est le demandeur
qui détermine les quantités, ou si, au contraire, l’offreur
choisit de fixer les quantités, alors le demandeur fixe le prix.
L’intersection entre la tactique de A et la tactique de B
détermine le montant des gains de A ou des paiements de B.
Si A propose un prix a1, au demandeur B, et si A est
rationnel, prudent, informé et cherche à anticiper la
meilleure action que peut entreprendre B, il identifiera la
tactique b3 comme la réponse qui lui sera la moins
favorable, car le paiement que fera B est le plus faible face à
la tactique a1 (10). Le raisonnement est à poursuivre suivant
la même logique pour les tactiques a2 et a3. Si maintenant,
c’est B qui essaye d’anticiper l’action de A, et si B est
prudent, rationnel et informé, il identifiera l’action a2
comme la meilleure tactique de A (i.e. celle qui est la plus
défavorable à B) face à la quantité b1 que B envisagerait de
demander, car avec a2 le paiement de B est maximum (60).
Ce raisonnement est à poursuivre selon les mêmes principes
pour les tactiques b2 et b3.

B sait que A, face à une tactique donnée, proposera une


tactique qui maximisera les paiements. Il doit, par
conséquent, pour chacune de ses actions, rechercher le
maximum que A risque de lui imposer, et choisir ensuite
l’action pour laquelle le maximum identifié est le plus petit
de tous. Ces maxima sont notés avec le symbole + pour
faciliter la lecture. Leurs valeurs sont respectivement 60
pour b1, 100 pour b2, 110 pour b3. Le minimum de ces
maxima, est obtenu par la tactique b1 qui a une valeur de 60.
Il s’agit donc ici de la stratégie de minimax. Elle s’applique
à celui qui paie.
A, pour sa part, sait que B cherchera à répondre à toute
tactique de prix par une tactique de quantité qui minimisera
le paiement. Par conséquent, A cherchera pour chacune de
ses actions le paiement le plus faible et choisira celle dont le
plus petit paiement est maximum. Sa stratégie est donc celle
du maximin (maximiser le minimum). Avec a1, le gain
minimum est de 10, avec a2, le gain minimum est de 20, avec
a3, il n’est que de 5. Par conséquent la meilleure stratégie
pour A est a2 puisque le gain minimum est le plus élevé.
Dans la matrice des gains (X1), la stratégie de B est indiquée
par des signes plus (+), celle de A par des signes moins (–).
On s’aperçoit qu’on ne débouche pas sur un équilibre, i.e.
que le plus grand des minima (20 = a2 – b2) n’est pas le plus
petit des maxima (60 = a1 – b1). Cette matrice ou ce jeu n’a
pas de solution, en ce sens que le résultat atteint n’est jamais
satisfaisant pour l’un ou l’autre des joueurs, et une
modification de la tactique est susceptible d’améliorer le
résultat. En revanche, dans la matrice X2, le couple C2D2 est
un équilibre. On vérifie la propriété de l’équilibre en
constatant que la valeur de l’équilibre 80 est la plus petite
dans sa colonne et la plus grande dans sa ligne (on parle
d’un point selle).
b) Le dilemme du prisonnier : jeu non coopératif à
somme non nulle
Le problème dit du dilemme du prisonnier a été conçu en
1950 par Myrrull Flood et Melvin Dresher. La référence aux
prisonniers est introduite plus tard par Albert Tucker.
Ce problème classique est une illustration d’une situation
de jeu non coopératif, dans laquelle la recherche de l’intérêt
individuel par chacun des joueurs, en l’absence de
concertation, conduit à un résultat collectivement
désavantageux. Le principe de prudence dans les règles du
minimax et du maximin conduit deux complices arrêtés par
la police à avouer leur délit et donc à faire 10 ans de prison
chacun. En effet si l’un avoue et dénonce son complice, il
bénéficiera de l’indulgence de la justice qui lui infligera 1
an de prison. Son complice qui a refusé d’avouer aura alors
une peine de 20 ans. Si aucun des deux suspects n’avoue, ils
seront libérés tous les deux.
Ne pas avouer peut donc avoir comme conséquences
finales : soit la liberté soit 20 ans de prison. Avouer c’est 10
ans ou 1 an de prison. Mais comme aucun joueur ne connaît
l’attitude de l’autre, la stratégie qui minimise le coût est
d’avouer, alors que l’intérêt collectif est de ne pas avouer.
Tableau 6.4
. Dilemme du prisonnier

Cet exercice permet de comprendre qu’un équilibre de


Nash qui consiste ici pour chacun à avouer n’est pas
nécessairement un équilibre de Pareto (l’optimum
optimorum ou optimum social de Pareto est de ne pas
avouer car chacun sera libre). Ce modèle ou paradigme au
sens linguistique a été fortement critiqué, mais il est
toujours utilisé. Les prisonniers du modèle sont des
individus sans dimension sociale, ignorant les conventions
dans les groupes sociaux (par exemple l’omerta de la maffia
sicilienne qui conduit à l’optimum parétien, mais on arrive
quelquefois à contourner ces conventions par des paiements,
des protections particulières des prisonniers qui collaborent
avec la police, et différentes autres formes d’incitations).
Pour résumer les critiques récentes, on soulignera donc
que les conventions sociales, l’introduction du temps (les
joueurs auront l’occasion de se revoir) et la morale mettent
en échec la rationalité court termiste de l’Homo œconomicus
illustrée dans ce dilemme du prisonnier. La coopération finit
par l’emporter7.
5.2. La concurrence monopolistique
La concurrence monopolistique, appelée quelquefois
concurrence imparfaite, est une structure mise en évidence
de manière quasi simultanée par E. Chamberlain et J.
Robinson, au début des années 1930. Elle tient à la fois de
la concurrence par le grand nombre d’intervenants, par la
transparence et par la fluidité, et du monopole par
l’hétérogénéité apparente des biens. La différenciation des
produits se manifeste par différentes voies : par l’emballage,
les marques, la durée de garantie, le service après-vente, la
présentation générale, le sourire et l’accueil sympathique du
vendeur, etc. Chacun de ces aspects à lui seul met en échec
le modèle de la concurrence pure et parfaite et donne
l’impression que chaque offreur est un monopoleur. De ce
fait, chaque offreur dispose d’une certaine autonomie pour
fixer son prix.
À court terme, il en résulte que l’équilibre, en
concurrence monopolistique, se détermine de la même
manière qu’en monopole (Cm = Rm). On signalera
seulement que la pente de la demande est moins forte qu’en
monopole, parce que si deux producteurs présentent des
différences de prix, sans rapport avec les différences de
qualité, le mécanisme de la concurrence entre en jeu. Une
autre différence éventuelle avec le monopole réside dans le
fait que les courbes de coût, en concurrence monopolistique,
peuvent être plus élevées, car chaque entreprise produit à
moins grande échelle que le monopoleur théorique.
L’absence de concurrence peut cependant favoriser le
gaspillage, et l’absence de surveillance des coûts pour le
monopoleur. On obtient alors des coûts plus élevés que ceux
qu’autoriserait la gestion rationnelle. On parle dans ce cas
d‘inefficacité-X.
À long terme, la concurrence monopolistique se
rapproche de la concurrence. Les profits à court terme
attirent de nouvelles entreprises. L’offre de la branche
augmente, s’accompagnant d’une baisse du prix, de la
diminution de la part de l’entreprise représentative et de son
profit pour une demande restée inchangée. L’équilibre sera
atteint lorsque le profit pur sera nul, i.e. lorsque la recette
moyenne sera tangente au coût moyen avec respect de la
règle générale d’égalité entre recette marginale et coût
marginal (voir fig. 6.11).
Fig. 6.11
. Équilibre en concurrence monopolistique
à court et long terme
Lecture du graphique : à court terme, l’équilibre correspond à
l’intersection de la recette marginale à court terme (Rm1) avec le
coût marginal (Cm) au point N1. Le prix (P1) correspondant se lit sur
la courbe de demande à court terme (D1), la quantité d’équilibre
étant YO1. Le coût moyen pour cette quantité est YO1T1 ; le profit
unitaire est alors la différence entre le prix p1 et le coût moyen T1.
La présence de ce profit attire les entreprises, de sorte que la
demande qui s’adresse à l’entreprise étudiée diminue pour passer à
D2 qui est tangente au coût moyen en P2. Ce point permet de
déterminer la quantité d’équilibre à long terme YO2. On voit ainsi
que le prix a baissé par rapport à l’équilibre de courte période
jusqu’à la disparition du profit pur.

Le prix de concurrence monopolistique est, en principe,


plus élevé et les quantités d’équilibre plus faibles que le prix
et les quantités d’équilibre de la concurrence pure et
parfaite.
5.3. Les oligosituations : de l’entente au combat
Les oligosituations peuvent être :
- un oligopole : quelques offreurs et un grand nombre
de demandeurs ;
- un oligopsone : quelques demandeurs et un grand
nombre d’offreurs ;
- un oligopole bilatéral : quelques offreurs et quelques
demandeurs.
Le faible nombre d’agents d’un côté et/ou de l’autre (le
préfixe oligo signifiant quelques) est susceptible, par des
ententes, des cartels, des consortiums, des trusts, des
konzerns, des pools, des centrales d’achat, de transformer
une oligosituation en un monopole ou en un monopsone ou
en un monopole bilatéral. Toutes ces associations d’offreurs
et/ ou de demandeurs sont généralement interdites
lorsqu’elles aboutissent à l’abus de positions dominantes,
faussant les règles de la concurrence (cf. la loi Sherman
antitrust aux États-Unis, le traité de Rome et le traité de
Maastricht pour l’Union européenne avec les articles 81 et
82, etc.). En limitant ce paragraphe aux seuls oligopoles, on
se rendra compte que les modèles d’équilibre sont
nombreux, compte tenu de la multiplicité des stratégies liées
au nombre et à la dimension de chacun des oligopoleurs.
L’oligopole, en principe, est caractérisé par des
entreprises de grande taille, mais certaines sont plus grandes
que d’autres. Par conséquent, il peut y avoir des leaders et
des suiveurs, mais en tout cas, du fait de la dimension,
chaque entreprise, quelle que soit sa position par rapport
aux autres, est susceptible d’influencer à elle seule le niveau
du prix du marché. Cela revient à dire que toutes les
conditions de la concurrence pure et parfaite sont réunies,
sauf celle de l’atomicité du côté des offreurs. Ceux-ci
présentent un caractère particulier qui est celui de
l’interdépendance, i.e. que l’action de l’un n’est pas sans
conséquence pour les autres.
5.3.1. La courbe coudée de la demande
Ce phénomène essentiel d’interdépendance est bien
révélé par la courbe coudée de la demande imaginée par
Paul Sweezy et reprise par George Stigler : lorsque
l’oligopoleur envisage de baisser son prix, il croit que la
demande ne suivra pas, les clients restant en majorité fidèles
à leurs anciens fournisseurs. Il croit également que, s’il
relève fortement son prix, ses clients le déserteront. Ce
comportement inélastique puis élastique de la demande
donne une courbe de demande brisée et une courbe de
recette marginale discontinue. De ce fait, si le coût marginal
passe par cette zone de discontinuité, toute variation de ce
coût marginal sera sans effet sur le prix correspondant au
point de cassure de la courbe de demande. L’oligopole,
puisque l’oligopoleur est incertain sur les réactions de ses
concurrents (vont-ils suivre à la baisse ou à la hausse du
prix ?), conduit à une rigidité des prix qui résulte d’une
mauvaise coordination des oligopoleurs. On parle cependant
ici de coordination implicite.

Fig. 6.12
. Courbe coudée de la demande
5.3.2. L’entente
Lorsqu’il y a entente parfaite entre les quelques
entreprises du marché, rappelons encore une fois que c’est
généralement interdit partout, la stratégie est de maximiser
le profit joint, à la condition que le produit soit homogène.
L’entente se réalise plus facilement en phase d’expansion,
i.e. lorsque l’entreprise n’a pas besoin de prendre les clients
de ses concurrents. La coordination parfaite constitue un
véritable monopole. Le prix unique rigide est donné par la
recette moyenne pour laquelle la recette marginale de la
branche est égale au coût marginal de la branche, obtenu par
addition des coûts marginaux de chaque membre de
l’entente. La quantité à produire par chaque entreprise est
celle pour laquelle le coût marginal de chacune d’elles est
égal à la recette marginale de la branche. Le profit de la
branche ou profit joint est maximal. Sa répartition entre les
partenaires reste indéterminée, mais le plus simple est la
répartition en fonction des quantités vendues par chacun.
5.3.3. Les oligopoles de combat
L’interdépendance associée à l’incertitude sur le
comportement de chacun des offreurs peut déboucher sur la
flexibilité, soit des prix, soit des quantités. Ces phénomènes
sont associés à des oligopoles de combat dont les formes
théoriques les plus simplifiées sont le duopole de Cournot,
le duopole de Stackelberg, le duopole de Bowley et le
duopole de Bertrand. Les noms de ces duopoles
correspondent aux auteurs qui les ont étudiés. Notons que
ces duopoles se prêtent bien à l’application de la théorie des
jeux de J. von Neumann et O. Morgenstern, présentée
précédemment.
a) Le duopole de Cournot est un duopole symétrique dit
encore duopole de double dépendance. Dans ce marché, le
prix dépend des quantités offertes par A (notées yA) et par
B (notées yB). La quantité totale sur le marché est donc :
Y = yA + yB
Chacun cherche à maximiser son profit sans exclure
l’autre. Si A se croit seul sur le marché, il offre une quantité
compatible avec le prix du marché, mais si B se manifeste,
alors il réduit son volume en fonction de ce qu’il considère
comme une donnée. B, à son tour, augmente sa part,
amenant A à réviser son offre. Si c’est B qui a commencé,
on aura les réactions de A, puis de B. Le système débouche
sur un équilibre correspondant à l’intersection E des courbes
de réactions de A et de B. Ce point d’équilibre détermine les
quantités que doivent offrir A (yAE) et B (yBE) pour que
chacun ait un profit maximal.
Fig. 6.13
. Courbes de réaction du duopole de
Cournot
Plus formellement, étant donné que la recette totale de A
dépend des quantités (yA) produites par A et des quantités
(yB) offertes par B et que le coût total de A ne dépend que
de sa propre production, alors le profit total de A est :
Profit A = RT (yA, yB) – CT (yA).
On raisonnera de même pour B pour avoir :
Profit B = RT (yB, yA) – CT (yB).
Avec ces équations, on peut alors établir les fonctions de
réactions de A et de B. On sait que le maximum par une
fonction est atteint lorsque sa dérivée première est
maximale. Par conséquent, pour A, il faut supposer que yB
est donné, puis rechercher yA qui rend le profit marginal de
A nul, et pour B, raisonner avec yA donné et rechercher yB
qui rend le profit marginal de B nul. En se donnant plusieurs
valeurs de yB, on obtient les différents niveaux optimaux de
production de A, et, avec plusieurs valeurs de yA, ce sont
ceux de B qui sont calculés. Lorsque les deux fonctions de
réactions sont identiques, l’équilibre stable est atteint. En
cet équilibre, aucun des duopoleurs ne désire modifier le
niveau de production.
En termes de théorie des jeux, le responsable de chaque
firme doit anticiper le choix de l’autre pour prendre la
décision qui maximise son profit. Le choix stratégique porte
sur la quantité à mettre sur le marché. La matrice des gains
est constituée par les profits associés à l’intersection des
stratégies en termes de quantités.
b) Le duopole de Stackelberg est un duople asymétrique,
comportant une firme dominante, l’autre acceptant de jouer
le rôle de satellite ou de suiveur. Par conséquent le jeu n’est
pas simultané, mais en deux temps. On dit qu’il s’agit du jeu
séquentiel.
La firme dominante agit en premier. La firme satellite
ayant observé le choix de production de la firme leader,
choisit son propre niveau optimal de production. Le point
d’équilibre se situe au point de tangence entre la courbe
d’isoprofits – courbe des combinaisons des productions qui
assurent des profits constants – de la firme dominante et la
courbe de réaction de la firme satellite.
c) Le duopole de Bertrand est un duopole de double
maîtrise par les prix, alors que dans le duopole de Cournot
la variable stratégique est celle des quantités. Dans le
duopole de Bertrand, les deux firmes ont des coûts
marginaux constants Cm1, Cm2 avec l’hypothèse Cm1 > Cm2.
Les deux firmes sont confrontées à une courbe de demande
de marché D (p), sachant que le bien produit est homogène.
d1 (p1, p2) = {[D (p1) si p1 < p2] ; [D (p1)/2 si p1 = p2] ; [0
si p1 > p2] }
Chaque duopoleur fixe le prix auquel il vendra son
produit en considérant le prix du concurrent comme une
donnée. Lorsque les prix sont différents, on comprend que
la demande s’orientera d’abord vers le duopoleur ayant le
prix le plus bas, sachant que les produits sont homogènes.
L’entreprise 1 peut s’emparer de la totalité du marché en
fixant un prix inférieur à celui de la firme 2 ; mais,
l’entreprise 2 a exactement le même raisonnement. Un tel
comportement débouche logiquement sur une guerre des
prix.
L’équilibre sera atteint lorsque le prix permet d’égaliser
l’offre totale à la demande totale. Le seul équilibre de ce jeu
est :
« la firme 1 fixe p1 = Cm2 et produit donc D (Cm2) unités
du bien considéré ;
la firme 2, elle fixe p2 tel que p2 soit égal ou supérieur à
p1 : elle ne produit donc rien. »
En d’autres termes, les deux entreprises doivent vendre
au même prix et ce prix correspond à celui qui résulterait en
concurrence pure et parfaite, ce qui est théoriquement
plausible dans un jeu à un coup, même si l’équilibre de
concurrence pure et parfaite dans un duopole est irréaliste.
Signalons qu’Edgeworth, en introduisant l’hypothèse
selon laquelle aucun duopoleur ne dispose de capacités
suffisantes pour satisfaire la demande totale à lui seul,
démontre que l’équilibre n’existe pas : le prix oscille entre
le prix de monopole et un certain prix plus bas, sur une
période indéfinie (cf. J. Bertrand, « Théorie mathématique
de la richesse sociale », Journal des savants, Paris, 1883 ;
F.I. Edgeworth, « La teoria pura del mono-polio », Giornale
degli economisti, 1897).
d) Le duopole de Bowley est un duopole de double
maîtrise par les quantités. Dans ce modèle, chaque
duopoleur se conduit en maître en inondant le marché de ses
produits. La conséquence en est la surproduction avec soit
une faillite de l’un ou des deux duopoleurs, soit un équilibre
concurrentiel comme pour l’équilibre de Bertrand.
6. L’équilibre général
6.1. Le processus d’équilibration
L’équilibre général est un équilibre simultané de
l’ensemble des marchés interdépendants tel qu’aucun
individu ne souhaite modifier le niveau de ses échanges
avec un autre individu. Pour chacun, les réalisations sont
conformes aux attentes : telle est la signification de
l’équilibre.
Plus clairement, les conditions de l’équilibre général sont
au nombre de quatre :
- chaque consommateur maximise sa fonction d’utilité
sous la contrainte budgétaire,
- chaque entreprise maximise son profit sous la
contrainte de la fonction de production,
- les quantités totales consommées sont égales aux
quantités totales produites pour chaque bien,
- la quantité totale de travail utilisée par les entreprises
est égale à la quantité totale de travail offert par les
consommateurs.
Avec ces conditions, en 1959, Kenneth Arrow et Gérard
Debreu ont pu démontrer mathématiquement l’existence de
l’équilibre général8.
L’interdépendance conduit, par exemple, un individu à
offrir une quantité d’heures de force de travail sur le marché
du travail en fonction du prix et de la quantité d’un bien
dont il a besoin et qu’il demande sur un autre marché. Mais
le prix de ce bien dépend du prix de la force de travail établi
sur le marché du travail.
Les échanges ne pourront avoir lieu que lorsque toutes les
offres et toutes les demandes sur les différents marchés des
différents biens et services se seront équilibrées. Le
processus d’équilibration peut être obtenu par tâtonnements.
Mathématiquement, il s’agit de trouver la solution d’un
système d’équations simultanées, comme dans la matrice de
Leontief qui est une forme de modèle d’équilibre général
(cf. chap. 3).
Le processus de tâtonnement, imaginé par Léon Walras,
suppose la présence d’une sorte de commissaire-priseur
situé au-dessus de tous les marchés et qui crie les prix
jusqu’à ce que la demande nette et l’offre nette soient nulles
sur tous les marchés. Le commissaire-priseur fait une
proposition de prix, offreurs et demandeurs réagissent. Le
commissaire-priseur constate alors la situation sur le
marché : si offre et demande s’équilibrent, l’ajustement est
terminé. Si certains biens sont trop demandés ou
insuffisamment, il modifie le prix et provoque ainsi une
variation de l’offre et de la demande jusqu’à ce qu’il y ait
ajustement. Le processus d’équilibre général est illustré par
le diagramme en boîte ou rectangle d’Edgeworth, encore
dénommé diagramme emboité de F.I. Edgeworth, à la
condition de se limiter à une économie à deux
consommateurs (I et II) et à deux biens (A et B), comme le
montre la figure 6.12.
Le consommateur I dispose d’une carte d’indifférence
pour les biens A et B. Il en est de même pour II. Avec un
revenu YI, le consommateur I se procure les quantités AI et
BI. Avec un revenu YII, le consommateur II obtient AII et BII.
Les quantités totales disponibles dans la société sont :
À = AI + AII et B = BI + BII.
Ces éléments peuvent être représentés dans une boîte
rectangulaire confrontant les courbes d’indifférence de I et
II. Les quantités de A et de B pour I se lisent selon le
schéma traditionnel, de gauche à droite à partir de l’origine
du bas pour A et de bas en haut pour B. Les quantités de A
et de B pour II se lisent dans le sens inverse de A : à partir
de l’origine du haut, de droite à gauche pour A et de haut en
bas pour B.

Figure 6.14
. Diagramme d’Edgeworth et courbe des
contrats
Les courbes d’indifférence pour I et pour II sont sécantes.
Un point d’intersection donné peut être choisi pour désigner
l’état de la répartition des biens A et B entre I et II. Le
rectangle d’Edgeworth permet de montrer que ce point n’est
pas optimal et qu’il est possible de modifier la répartition
pour arriver à un optimum de Pareto. Celui-ci correspond au
point de tangence de deux courbes d’indifférence, sachant
qu’il faut se déplacer le long de l’une des deux courbes
d’indifférence jusqu’à ce que celle-ci soit tangente avec une
courbe d’un niveau plus élevé. Il est certain que le bien-être
de l’un ne se modifie pas puisque sa courbe d’indifférence
est restée la même, tandis que le bien-être de l’autre s’élève.
Étant donné que le déplacement peut se faire le long de
n’importe quelle courbe d’indifférence (celle de I ou celle
de II), il s’ensuit qu’il existe une multitude d’optima de
Pareto. Ils sont représentés sur la courbe des contrats qui
joint les origines des axes en passant par les différents
points de tangence des courbes d’indifférence.
Initialement, la répartition de A et B entre I et II est
quelconque. Elle se situe, par exemple, au point M
correspondant à l’intersection des courbes d’indifférence I2
et II3.
Le point M, dans ce diagramme, n’est pas un optimum de
Pareto. Autrement dit, il est possible d’améliorer la
situation, soit de I, soit de II, sans détériorer celle de l’autre.
En effet, si le pouvoir contractuel de II est plus fort, il est
possible de passer de M à X, i.e. de s’élever de la courbe
d’indifférence II3 à la courbe d’indifférence II4 sans changer
la satisfaction de I qui reste sur la même courbe I2. On dira
que la répartition X domine la répartition M.
Si, au contraire, I est plus fort, il est alors possible de
passer de M à Z, permettant ainsi à I d’améliorer sa
satisfaction en se situant sur la courbe d’indifférence I3
supérieure à la courbe I2 sans modifier la satisfaction de II
qui reste à II3. La répartition Z domine la répartition M.
Les points X et Z sont des optima de Pareto : une fois en
l’un de ces points, toute amélioration du bien-être d’un
individu entraîne la détérioration du bien-être de l’autre.
L’optimum est ici déterminé par le point de tangence unique
entre les courbes d’indifférence des deux consommateurs.
Avec, au départ, une autre répartition des moyens entre I et
II, on se trouverait en un point autre que M, à l’intersection
d’autres courbes d’indifférence, débouchant sur d’autres
optima de Pareto.
La courbe de forme quelconque joignant tous les optima,
comprise entre les origines OI et OII, est appelée courbe des
contrats d’Edgeworth. Les agents rationnels placés dans la
situation initiale du point M ou N négocieront pour réaliser
leur transaction, i.e. passer un contrat d’échange, en se
déplaçant pour être sur l’un des points de la courbe des
contrats. L’ensemble des états compris entre X et Z situés
sur la courbe des contrats constitue le noyau de l’économie
ou le cœur de l’économie, i.e. l’ensemble des états qui ne
sont pas dominés. Tout autre point suscitera une coalition
bloquant l’échange.
6.2. Significations de la théorie de l’équilibre général
La théorie de l’équilibre général, conçue d’abord dans le
cadre du marché de concurrence pure et parfaite, a connu un
regain d’intérêt grâce aux travaux d’Arrow, puis de Debreu
qui envisage, par une approche axiomatique de la théorie
mathématique des ensembles, sa généralisation à toute
structure de marché. Mais on continue à s’interroger sur la
signification sociale de cette construction intellectuelle
considérée comme étant « de loin la plus élaborée de toutes
les sciences humaines » (S.C. Kolm).
6.2.1. Les deux théorèmes fondamentaux de l’économie du
bien être
La théorie de l’équilibre général est un système, i.e. un
ensemble cohérent de structures interdépendantes. Chaque
structure n’a de sens qu’en fonction des autres : c’est le
principe de cohérence ou d’interdépendance, et elle est en
même temps un sous-système comportant des éléments
interdépendants. Chaque sous-système est caractérisé par sa
propre fonction-objectif et ses propres contraintes, de sorte
que l’interdépendance générale est un état objectif
compatible avec une indépendance subjective de chaque
agent à l’égard des autres.
Dans ce système, le marché transmet gratuitement
l’information par les prix à des individus consommateurs et
à des individus producteurs qui agissent ainsi de manière
décentralisée, avec des préférences individuelles
indépendantes, en fonction de ces prix et de la contrainte
budgétaire propre à chacun pour arriver à un équilibre
général qui est en même temps un optimum collectif.
De manière positive, le commissaire-priseur de la Bourse
ou le Bureau central du Plan remplissent l’office de ce
qu’Adam Smith a nommé la « main invisible ». Tel est le
sens du premier théorème fondamental de l’économie du
bien-être dit théorème de la main invisible : tout équilibre
est un optimum. Dans cette logique de concurrence pure et
parfaite9 pour tous les biens, avec un marché pour chaque
bien, les signaux de marché (les prix) contiennent toute
l’information nécessaire pour que des agents rationnels
agissant de façon décentralisée (non coordonnée)
aboutissent à une situation telle que toutes les offres sur tous
les marchés soient égales aux demandes. Cela signifie
encore une fois que les offres nettes (excès de l’offre sur la
demande du fait d’un prix élevé) et les demandes nettes
(excès de la demande sur l’offre du fait d’un prix trop bas)
sont nulles, ce qui constitue la définition de l’équilibre et de
l’optimum, selon le théorème de la correspondance
biunivoque entre un optimum de Pareto et l’équilibre de
concurrence pure et parfaite. Plus spécifiquement le
deuxième théorème fondamental de l’économie du bien être
– tout optimum est un équilibre concurrentiel – indique qu’il
est possible de décentraliser un optimum centralement
défini. Il suffit d’envoyer de bons signaux en termes de prix
aux individus ayant chacun une dotation factorielle en
capital définie par le planificateur pour obtenir les résultats
de la concurrence pure et parfaite. Ce deuxième théorème
de l’économie du bien-être a été l’argument utilisé en faveur
du socialisme de marché et de l’intervention de l’État (cf. la
démonstration d’Alain Wolfelsperger dans Économie
publique, PUF, 1995, pp. 166-187).
6.2.2. La critique externe de la théorie de l’équilibre
général
Les questions qui ont suscité les travaux en économie
mathématique dans ce domaine de la théorie de l’équilibre
général sont celles de l’existence de l’équilibre et de
l’unicité de l’équilibre. Du point de vue interne, après que
les approches en termes marginalistes (calcul différentiel,
fonctions de production et de consommations continues,
dérivables) du système walrasso-parétien ont été
poursuivies, un renouvellement est proposé par G. Debreu
en termes axiomatiques et ensemblistes. L’existence de
l’équilibre est démontrée en utilisant le théorème du point
fixe de Kakutani (le principe du point fixe signifie que dans
un processus d’ajustement pour mettre fin aux excès ou
insuffisances de demandes, les prix finissent par ne plus
changer, ce qui définit un équilibre). Les problèmes de la
stabilité de l’équilibre et de l’unicité de l’équilibre en
revanche ne sont pas résolus, et les résultats de la théorie de
la valeur de Gérard Debreu rencontrent des obstacles
sérieux dans leur vérification empirique. Debreu lui-même,
en 1974 (« Excess Demand Functions », Journal of
Mathematical Economics, 1), deux ans après l’article de H.
Sonnenschein (« Market Excess Demand Functions »,
Econometrica, 40), puis de R. Mantel (« Homothetic
Preferences and Community Excess Demand Functions »,
Journal of Economic Theory, 12, 1976) arrive à la
conclusion que la stabilité n’est pas garantie, ou selon les
termes synthétiques et plus explicites d’Alan Kerman que «
l’équilibre est un état doté de certaines propriétés mais l’on
n’a aucune garantie qu’il puisse être atteint par un processus
raisonnable d’ajustement des prix10 ».
La logique interne de la théorie étant aussi inébranlable
que la cathédrale à laquelle la théorie de l’équilibre général
est souvent comparée, la critique s’est portée sur
l’irréalisme de son système d’hypothèses. Celui-ci
refléterait au mieux l’état du capitalisme de petites unités de
la seconde moitié du XIXe siècle. Dans les sociétés
modernes, avec les oligopoles publics ou privés, les
monopoles publics, les différenciations systématiques des
produits, les rigidités des prix à la baisse, le poids qui a
longtemps été croissant de l’intervention de l’État, la
référence à la théorie de l’équilibre général risque alors
d’être suspectée de réflexe idéologique fondamentalement
libéral et individualiste (J. Attali, M. Guillaume,
L’Antiéconomique, pp. 46-50, PUF, 1972).
L’individualisme est, en effet, implicite dans l’hypothèse
d’indépendance des préférences. Celle-ci revient à ignorer
les effets de domination, les rapports de conflit et de
coopération, de lutte-concours (cf. F. Perroux, Pouvoir et
économie, Bordas, 1971), et les effets d’imitation et de
socialisation de l’individu. De même, comme l’écrit John
Rawls : « Le principe d’utilité est incompatible avec une
conception de la coopération sociale entre des personnes
égales en vue de leur avantage mutuel » (Théorie de la
justice, p. 41, Le Seuil, 1987).
Le problème du no bridge est évacué ; or, comme l’écrit
encore J. Rawls : « Il n’y a pas de raison de supposer que les
principes destinés à gouverner une association humaine
soient […] une extension du principe du choix individuel »
(op. cit., p. 54).
Les théoriciens contemporains se sont cependant engagés
dans l’intégration progressive d’hypothèses de moins en
moins irréalistes. Dans ces conditions, l’optimum de Pareto
peut devenir inaccessible. Le problème serait alors de
trouver une solution de moindre mal appelée optimum de
second rang (selon Lipsey et Lancaster). Les concepts
d’optimum et de comportement d’optimisation peuvent
même être sans signification pratique, car, selon le Prix
Nobel Herbert Alexander Simon, les agents s’en tiennent à
des solutions seulement satisfaisantes. C’est le principe de
la rationalité limitée11 qu’il distingue de la rationalité
substantive ou parfaite de l’Homo œconomicus de
l’économie néoclassique standard. La rationalité est limitée
par les capacités cognitives de l’individu. L’individu
socialement situé ne peut pas tout savoir sur tout, d’autant
plus que la recherche de l’information complète est elle-
même coûteuse. L’individu se renseigne cependant dans un
environnement immédiat avant toute décision et prend celle-
ci après une comparaison limitée en faisant un choix
satisfaisant sans qu’il soit le meilleur. Par ailleurs,
l’environnement évolue, l’individu confronté à cette
évolution est alors un être apprenant. Dans un tel
environnement incertain, la rationalité ne peut plus être
substantive, i.e. parfaite, car ce qui peut arriver n’est pas
encore connu. L’individu qui prend une décision se sert de
son expérience, de son intuition, de sa mémoire. La
rationalité est alors procédurale en ce sens que l’individu
fait un choix approprié. Comme le précise Simon : « Le
comportement est procéduralement rationnel s’il est le
résultat d’une délibération appropriée. »12
En outre, il convient de ne pas passer sous silence la
procédure d’optimisation, si elle doit exister. En effet, le
processus pour atteindre l’optimum n’est pas
nécessairement parétien, car il existe autant d’optima de
Pareto qu’il y a de structures de répartition dans l’économie.
Ainsi, en examinant le diagramme ou rectangle
d’Edgeworth donné précédemment, on se rend compte que
rien ne permet de dire que l’optimum X est supérieur à
l’optimum Z. Le choix de l’un ou de l’autre dépend du
système social. À ce titre, il relève d’un jugement de valeur.
En d’autres termes, il n’y a pas de véritable optimum
optimorum (le meilleur des optima) déterminable avec la
neutralité scientifique.
Ces limites de caractère théorique n’interdisent pas le
développement de l’instrumentalisation du modèle
walrassien en économie appliquée sous la forme de modèle
d’équilibre général calculable .
6.2.3. Les modèles d’équilibre général calculable (MEGC)
Le MEGC constitue une application numérique du
modèle d’équilibre général de Walras, mais sans pour autant
reprendre la structure de la concurrence pure et parfaite. La
mise au point d’un algorithme de résolution par Herbert E.
Scarf13 à la fin des années 1960 et début 1970 a suscité
d’importants développements de ces modèles pour analyser
notamment l’impact de politiques économiques aussi bien
mondiales (ex. : l’impact du protocole de Kyoto sur
l’économie de tel ou tel pays, ou son impact sur l’économie
mondiale) que régionales ou sectorielles, en prenant en
compte les interactions dynamiques (ou rétroactions) que
peut engendrer une modification exogène portant sur une ou
plusieurs variables du modèle. Le MEGC ou encore MEGA
(modèle d’équilibre général appliqué) est donc un
instrument de simulation des effets (directs et indirects par
les rétroactions) d’une variation d’une variable sur tous les
comportements individuels. On peut considérer, dans une
certaine mesure, que le modèle matriciel de Wassily
Leontief est un précurseur de ce type de modèle, à la
différence près que le modèle de Leontief, de nature
macroéconomique, met en relation des branches alors que
les MEGC ont des bases microéconomiques.
Les MEGC sont très nombreux. Ils peuvent être unipays,
dans ce cas le reste du monde est exogène, ou multipays
avec des relations commerciales bilatérales et multilatérales,
le reste du monde n’étant plus exogène14.
6.3. Conclusion : l’extension fatale des marchés
L’objet de cette dernière section est de présenter sous un
angle socio-économique15 la lente construction sociale du
marché. Il s’agira, au-delà de l’illustration de l’encastrement
des relations économiques de marché dans les structures
sociales16, de montrer que le marché n’est pas un déjà là.
Aussi bien dans son fonctionnement que pour les biens et
services et les espaces éligibles, il est en effet le produit
d’une construction sociale probablement jamais achevée. Il
constitue l’objet central du droit commercial dont les
premiers éléments, très favorables d’ailleurs aux vendeurs
commerçants, sont présentés sous forme d’arrêts en écriture
cunéiforme et en langue akkadienne dans le Code
d’Hammurabi (roi babylonien vers 1730 av. J.-C.). Ce code,
qui comporte 282 arrêts touchant à tous les domaines de la
vie sociale, est une stèle découverte en 1901 à Suse, ville du
sud de l’Iran et mentionnée dans la Bible.
Hors quelques périodes limitées d’expériences socialistes,
dites d’économie distributive et qui ne lui étaient pas
favorables, le marché, manifestation de l’économie
commutative ou de l’échange, est un univers en expansion
encastré dans des structures sociales en évolution. Ce
caractère est plus fidèlement exprimé par le terme
d’institutionnalisation. Cela signifie que le marché n’est pas
une structure indépendante de la société et qui aurait ses
propres règles immuables, alors que la société, qu’il peut
d’ailleurs influencer à son tour dans un processus
dialectique, est en transformation permanente. L’expansion
du marché exige une monnaie acceptée par tous les
participants aux échanges et des conventions également sur
les unités de mesures et d’identification de la qualité des
marchandises. Les relations de long terme sont peu
compatibles avec les comportements opportunistes de l’état
sauvage, ce qui ne veut pas dire que les relations de marché
soient toujours des relations de confiance, ou bien que la
flibuste qui profite des asymétries de l’information n’existe
pas en finance17 ou sur d’autres marchés. En d’autres termes,
comme le reconnaît même ce défenseur de l’économie de
marché qu’est Ludwig von Mises, le marché n’a rien à voir
avec l’ordre naturel originel (L’Action humaine, PUF,
1985). Cela signifie encore que le marché obéit à des règles
construites au cours du temps. Même si les règles pérennes
sont celles qui ont fait leur preuve, ce sont toujours des
règles construites, qu’elles soient des conventions
informelles, des labels de qualité, ou des règles de droit
positif.
Il est évidemment possible d’éviter des règles, i.e. d’être
en présence d’un marché entre deux individus sur la base du
troc, celui-ci étant l’expression de la valeur subjective que
chacun accorde au produit qu’il demande en contrepartie du
produit qu’il offre. Les sections précédentes ont montré que
la théorie économique a pu aussi construire le modèle du
marché de concurrence pure et parfaite réunissant des
individus autonomes, informés, rationnels, sans histoire,
sans sexe, sans âge, sans patrie, sans religion, qui ne
recherchent que la plus grande quantité ou valeur des biens
qu’ils demandent, en contrepartie de la plus faible quantité
ou valeur des biens qu’ils offrent en paiement. Tout
intervenant sur ce marché est un Homo œconomicus qui n’a
aucune relation sociale avec les autres en dehors de cet
échange avec une monnaie, marchandise parmi les
marchandises. Il est un simple offreur de son produit en
paiement du produit pour lequel il est un demandeur. Une
fois le marché conclu, chaque Homo œconomicus est
satisfait et reste libre, contrairement à ce qui se produit dans
le système du don/contre-don. Mais les échanges dans ce
système ne peuvent avoir lieu que lorsque tous les acteurs
sur tous les marchés sont arrivés à un accord qui ne serait
établi et constaté que par l’intervention d’une autorité
artificielle centrale au-dessus de tous les marchés. C’est ce
que représente le commissaire-priseur dans les marchés aux
enchères.
Hors de l’économie pure walrassienne, les lois de l’offre
et de la demande ne gouvernent pas les relations d’échange
à la satisfaction de tous spontanément. C’est bien parce
qu’il existe des autorités de régulation des marchés que les
échanges se réalisent sans trop de distorsion par rapport à la
représentation théorique. L’anonymat des acteurs du modèle
d’économie pure n’est pas la règle. Les responsables des
grandes entreprises, issus des mêmes grandes écoles ou
université, n’agissent pas toujours en s’ignorant. La
dimension sociale préalable à la relation de marché permet
aussi de comprendre, par exemple, que ce n’est pas toujours
le comportement de maximisation qui est susceptible
d’expliquer la discrimination sociale à l’embauche. Dans ce
phénomène, l’employeur n’est plus un simple demandeur de
travail face à un allogène offreur de travail. Mark
Granovetter a observé que les réseaux sociaux, qui n’ont pas
toujours une logique marchande, sont ainsi le meilleur
moyen pour un cadre d’avoir un emploi plutôt que
l’appariement offre-demande par des démarches
individuelles d’information. Le marché du travail c’est donc
d’abord des relations sociales, sachant que les réseaux
amicaux sont plus performants que le réseau familial. C’est
la conclusion qui résulte du paradoxe de la plus grande
efficacité des liens faibles sur les liens forts, car l’apport en
information par les liens faibles est plus important que celui
que ferait le groupe social restreint d’appartenance au sein
duquel les liens sont forts18.
Du côté du consommateur, si celui qui se rend à
l’hypermarché ne connaît pas nécessairement le vendeur, il
arrive cependant qu’il connaisse son boulanger, son boucher
et d’autres offreurs de nombreux autres produits. De ce fait,
ces relations de long terme lui interdisent de reproduire le
comportement de maximisation de l’Homo œconomicus. Il
arrive donc que les relations personnelles, donc sociales, ne
soient pas absentes des relations d’échange qui ne sont en
aucune manière des relations entre individus asociaux. La
rationalité économique, de minimisation des coûts ou des
dépenses et de maximisation du produit ou des recettes
obtenues en contrepartie, est donc prise en défaut dans ces
relations personnelles ou dans les échanges du type du
commerce équitable. Affirmer cela ne signifie cependant
pas que les relations interpersonnelles résistent
imperturbablement à la logique marchande.
L’expansion du marché de produits est, dans certains cas,
une réponse institutionnelle à la raréfaction croissante de
certains biens qui obligent les pouvoirs publics à imposer le
marché. Cela correspond notamment au marché des permis
de polluer pour protéger un environnement menacé par les
rejets carboniques. C’est aussi le cas du marché des
fréquences hertziennes, un stock inextensible avec des
émetteurs-utilisateurs de plus en plus nombreux, pour éviter
le brouillage, le bruit et toute perturbation des
communications consécutive à la saturation des fréquences.
L’incitation à la recherche et à l’innovation pour le progrès
technique que l’on suppose source de progrès économique
et de progrès social, a conduit à la législation sur la
protection des droits de propriété industrielle et à
l’institutionnalisation du marché des brevets qui autorise le
monopole temporaire lucratif. Il y a aussi des marchés noirs,
illégaux, clandestins ou sauvages apparus récemment,
comme le marché de l’adoption d’enfants19, pour lesquels
l’interdiction est la manifestation en creux du droit positif
institutionnalisant. Mais si la première révolution
industrielle, avec les faibles rémunérations salariales qu’elle
a suscitées ou qui l’ont accompagnée, a donné naissance au
marché du travail des enfants, aujourd’hui l’enfant est un
bien de consommation et non plus un bien de production. Le
plaisir d’avoir des enfants dans les pays développés
l’emporte sur la recherche de bras supplémentaires pour
aider des parents dans la misère, ce qui peut donc expliquer
ces marchés de l’adoption.
Dans d’autres cas, l’expansion du marché des produits est
la réponse à la spécialisation croissante à grande échelle des
individus, des entreprises et des pays lorsque les coûts de
transaction – ceux qui correspondent à la recherche du
fournisseur fiable, à la vérification de la qualité des produits
– sont plus faibles que les coûts de coordination pour une
production autonome. Dans l’agriculture des pays
aujourd’hui développés, la polyculture-élevage vivrière
s’est ainsi progressivement effacée devant des
spécialisations pour les marchés géographiques de plus en
plus ouverts et sur différents espaces à la suite des traités
d’intégration régionale (du 25 mars 1957 instituant le
Marché commun européen, les différents accords du GATT
depuis 1948 et les négociations entreprises au sein de
l’OMC depuis 1995, etc.).
Qu’observe-t-on en conclusion ? Les espaces autarciques
d’économie complexe de reproduction simple correspondant
au circuit schumpétérien ou au cercle de l’éternel retour,
s’effacent devant la logique de la croissance fondée sur la
spécialisation ou division du travail qui n’est envisageable
que si celle-ci s’accompagne du développement du marché
dont les règles de fonctionnement seront construites
collectivement dans des négociations multilatérales pour ne
pas léser les derniers arrivés.
1 Heinrich Freiherr von Stackelberg (1905-1946) est un économiste allemand
né à Moscou, ayant fait fait d’importantes contributions à la théorie des coûts,
des marchés et du comportement sur le marché en duopole asymétrique
(distinction d’un leader et d’un suiveur). Le tableau qui porte son nom a pour
source Marktform und Gleichgewicht (Marché et équilibre) publié à Vienne en
1934.
2 Démonstration effectuée pour la première fois par Kenneth Arrow, dans une
communication au IIe symposium de Berkeley, 1951.
3 On doit reconnaître que le changement de goût et le progrès technique
relèvent des aspects structurels et par conséquent du long terme.
4 Arnold Harberger : “Monopoly and Resource Allocation”, AER proceedings,
44, mai 1954, pp. 77-87.
5 W. Baumol, J. Panzar & R. Willig (1982), « Contestable Markets and the
Theory of Industry Structure », New-York, Harcourt Brace Jovanovich.
6 Co-lauréat du Prix Nobel d’économie en 1994 avec J. Harsanyi et
l’Allemand W. Selten pour leurs travaux en théorie des jeux.
7 John M. McNamara, Zoltan Barta, Alasdair I. Houston « Variation in
Behaviour Promotes Cooperation in the Prisoner’s Dilemma Game », Nature, 15
avril 2004, 428, 745-8.
8 Les conditions d’existence de l’équilibre général sont des marchés de
concurrence pure et parfaite et complets, une dotation initiale du consommateur
permettant de survivre sans échange, la convexité des préférences (possibilité de
faire des combinaisons de produits), l’absence de rendements croissants et de
coûts fixes dans les entreprises.
9 Le résultat peut être étendu à un monopole sur un marché contestable ou
marché disputable, sachant qu’un marché est contestable en l’absence de toute
barrière à l’entrée pour des concurrents éventuels. On parle alors de théorème de
la main invisible faible. Cf. W. Baumol, J. Panzar, R. Willig, Contestable
Markets and the Theory of Industrial Structure, San Diego, Harcourt Brace
Jovanovich Publishers, 1982.
10 Alan Kirman : « Debreu Gérard. The Theory of Value, an Axiomatic
Analysis of Economic Equilibrium, », dans Xavier Greffe, Jérome Lallement,
Michel de Vroey : Dictionnaire des grandes œuvres économiques, Dalloz, 2002.
11 La rationalité limitée a donné lieu à plusieurs traductions ou explicitations :
rationalité imparfaite, rationalité atténuée, rationalité située, rationalité cognitive,
rationalité interactive.
12 H.A. Simon, « From substantive to procedural rationality ». Latsis Ed. :
Method and Appraisal in Economics, Cambridge University Press. 1976, pp.
131.
13 « An Example of an Algorithm for Calculationg General Equilibrium
Prices », AER, Vol. 59, n° 4, 1969 et The Computation of Economic Equilibra
(avec la collaboration de T. Hansen), Cowles Foundation, Monograph n° 24.
New Haven : Yale University Press, 1973.
14 Cf. Katheline Schubert, « Les modèles d’équilibre général calculable : une
revue de la littérature », Revue d’économie politique, 103, 6, 775-825, année
1993.
15 Philippe Steiner « Le marché selon la sociologie économique » SOCIUS
Working Papers nº 6, 2005, Centre de recherche en sociologie économique et des
organisations, ISEG, Université technique de Lisbonne.
16 Mark S. Granovetter, « Economic action and social structure : the problem
of embeddedness », American Journal of Sociology, n° 91, novembre 1985, pp.
481-510. article reproduit et traduit dans M. Granovetter, Le Marché autrement,
Paris, Desclée De Brouwer, 2000. Coll. « Sociologie économique ».
17 A titre d’exemple, la crise financière mondiale de septembre 2008 a révèlé
notamment des comportements de finance Ponzi portant sur des montants
dépassant 50 milliards de $.
18 Mark S. Granovetter, « The Strength of Weak Ties », American Journal of
Sociology, n° 78, pp. 1360-1380, 1973, article reproduit et traduit dans M.
Granovetter, Le Marché autrement, Paris, Desclée De Brouwer, 2000. Coll. «
Sociologie économique ».
19 Vivana Zelizer, « Repenser le marché, La construction sociale du marché
aux bébés aux États-Unis, 1870-1930 », Actes de la recherche en sciences
sociales, n° 94, septembre 1992, pp. 3-26.
TROISIÈME PARTIE
Problèmes économiques
contemporains
Les chapitres précédents ont été consacrés à la
présentation des principales notions en macroéconomie et à
la description des mécanismes d’équilibre de marché sur la
base des comportements microéconomiques du producteur
et du consommateur analysés à la suite de la variation des
prix. Il n’a pas été question de déséquilibre persistant ou de
problèmes économiques réels durables. L’objet de cette
partie est d’aborder ces problèmes et les actions entreprises
par les pouvoirs publics en vue de trouver éventuellement
une solution aux déséquilibres généraux. Il s’agira donc
d’une analyse de l’environnement économique réel d’un
point de vue macroéconomique. Les thèmes qui seront
abordés dans cette troisième partie porteront sur la
distinction des problèmes conjoncturels et des problèmes
structurels, les conceptions du rôle de la puissance publique
dans l’économie, les explications de la croissance et des
fluctuations qu’elle subit, tout en évoquant ses effets
stylisés, les modèles d’analyse de la conjoncture, les
problèmes de l’emploi, ceux de l’inflation et les problèmes
économiques internationaux.
Chapitre 7
Les problèmes économiques et le rôle
de l’État
L’environnement économique constitutif de la société des
hommes n’est pas celui de l’équilibre, de la stabilité, de la
perfection, mais celui de la turbulence, de l’instabilité, de
l’imperfection, du déséquilibre. Il faut cependant distinguer,
du point de vue économique, deux catégories conceptuelles
de problèmes en fonction de l’horizon temporel de leurs
manifestations : d’une part les problèmes conjoncturels,
contingents, immédiats, non durables et, d’autre part, les
problèmes structurels plus profonds, plus permanents, plus
durables. Les actions à entreprendre pour éviter et/ou pour
résoudre ces problèmes ne procèdent pas de la pure
connaissance scientifique. La démarche de nature
prescriptive ou normative relève du domaine des idéologies
et des doctrines qui portent notamment sur la conception du
rôle de la puissance publique ou plus simplement de l’État
dans l’économie. Ces actions sont cependant l’objet d’une
approche d’intention scientifique en termes d’analyse des
politiques économiques.
1. Les notions de conjoncture et de structure
Du point de vue macroéconomique, la conjoncture
économique est la situation générale de l’économie d’un
pays, ou d’un ensemble de pays, appréciée par les valeurs
que prennent à un moment donné les variables telles que le
PIB, la production industrielle, le taux de change, le taux
d’intérêt, l’emploi, le niveau général des prix, le niveau de
la consommation globale, l’opinion des chefs d’entreprises
ou des cadres sur l’état de l’économie, etc.
Quant à la structure, la définition est beaucoup moins
simple. Intuitivement on comprend que c’est l’enveloppe et
le support de l’activité économique. En faisant une synthèse
de différentes définitions proposées, on obtient la suivante :
« La structure est un système de relations, de rapports
relativement stables caractérisant un ensemble. » Les
principales structures d’une société globale qui
conditionnent l’activité économique sont le milieu naturel
(structure géographique), les structures démographiques, les
institutions, les idées et mentalités, et les structures
économiques proprement dites : moyens de production,
organisation économique, entreprise, banque, crédit,
répartition de la valeur ajoutée ou de la population active
entre les secteurs d’activité (primaire, secondaire, tertiaire),
etc.
1.1. Le carré magique de la conjoncture
Les problèmes conjoncturels, sont susceptibles de
s’estomper ou de disparaître rapidement de manière
spontanée, selon les économistes libéraux confiants dans les
lois du marché, ou par l’action de la puissance publique en
prenant des mesures de politique économique dite
conjoncturelle, selon les économistes interventionnistes qui
mettent l’accent sur les défaillances nombreuses et durables
du marché. On résume généralement ces problèmes
conjoncturels par le carré magique de Nicholas Kaldor1 qui
indique les quatre objectifs principaux de la politique
économique conjoncturelle (voir figure 7.1.). Ces objectifs
se résument ainsi : « Réaliser la croissance économique (1er
objectif) qui améliore le bien-être matériel, avec le plein-
emploi (2e objectif), dans la stabilité des prix (3e objectif) et
l’équilibre dans les échanges extérieurs (4e objectif). »
Le carré magique se présente comme un graphique
comportant quatre axes cardinaux. Chaque axe, avec son
échelle spécifique, correspond à un objectif de politique
conjoncturelle d’un pays.
Le taux de croissance est mesuré par le rapport entre la
variation du PIB, soit trimestriel quand c’est possible soit
annuel par rapport au PIB du trimestre précédent ou de
l’année précédente. La régression (ou la décroissance, mais
si c’est voulu seulement) correspond à un taux négatif.
L’inflation est mesurée par la variation d’un indice
approprié du niveau général des prix par rapport à l’indice
du mois précédent. Un taux négatif correspond à la déflation
si la baisse générale des prix s’accompagne d’une baisse de
l’activité économique (stagnation ou régression du PIB) et
de la dégradation du niveau de l’emploi.
Le taux de chômage est mesuré par le nombre de
demandeurs d’emploi à la date de la dernière enquête
rapportée à la population active en âge de travailler.
L’objectif de la politique de l’emploi est d’avoir un taux de
chômage le plus bas possible. Le plein-emploi théorique ou
taux de chômage nul n’a jamais été atteint. Il existe toujours
un chômage incompressible même si certains individus sont
en suremploi, en travaillant effectivement de manière
productive au-delà de la moyenne conventionnelle (pratique
des heures supplémentaires), pour faire face à la pénurie de
main-d’œuvre dans certains secteurs et dans certains
métiers. En général, un faible taux de chômage permet de
produire davantage. Il existe donc une corrélation négative
entre le taux de croissance de l’économie et le taux de
chômage.
L’objectif assignable aux relations avec le reste du monde
est plus délicat à définir et à mesurer. Il peut s’agir, dans
certains cas, d’avoir le plus faible déficit du commerce
extérieur (échanges de marchandises ou balance
commerciale), dans d’autres, la surveillance doit porter sur
la balance des opérations courantes, dite encore balance des
paiements courants ou balance des transactions courantes
(somme de la balance commerciale
Figure 7.1
. Carré magique
Lecture : la croissance du PIB est de 6 %, le
solde de la balance des paiements courants
(BPC) est un excédent représentant 3 % du
PIB, le taux de chômage est de 4 % et
l’inflation est de 0 %
et de la balance des invisibles qui correspond aux services et
transferts courants, et de la balance des revenus). Il y a au
moins trois raisons qui peuvent expliquer les difficultés
d’une définition d’un objectif pour la balance des opérations
courantes.
– La première, qui est la plus simple, est que les
exportations d’un pays ont un caractère exogène. Autrement
dit, ce sont les importations des autres, et il est difficile
d’obtenir que les agents économiques des autres pays
dépensent plus en achetant nos produits ou en venant faire
du tourisme plus souvent, plus nombreux, pour plusieurs
jours chez nous.
– La deuxième raison relève de l’état des rapports
économiques et politiques entre les nations. Un déficit de la
balance des paiements courants est un endettement externe
qui risque de mettre le pays sous la tutelle des pays
créanciers, ou des organismes internationaux comme le
Fonds monétaire international (FMI) si cet endettement est
durable. Un excédent n’est pas toujours non plus une bonne
affaire s’il est lui aussi durable, car il signifie que le pays
produit pour les autres sans compensation. Il ne faut pas
oublier en effet que le paiement en monnaie que font les
autres pays n’est pas une compensation, mais un crédit
consenti par le pays excédentaire qui devient donc créancier.
Si le paiement reçu est utilisé pour acheter des produits à
l’étranger, alors il n’y a plus d’excédent. Un pays
éternellement excédentaire est alors l’esclave des autres
pays. Un pays éternellement déficitaire ne peut être qu’un
pays dominant.
– La troisième raison est conjoncturelle, en ce sens que la
reprise économique dans certains pays à faibles ressources
naturelles et industries de biens d’équipement
s’accompagne d’importantes importations, alors que la
production destinée à l’exportation ne se fera qu’après avoir
importé ces biens de production. Un déficit dans ce cas de
reprise économique n’est donc pas une mauvaise affaire. De
la même manière, un excédent peut résulter non pas d’un
dynamisme des exportations, mais du ralentissement de
l’activité économique, qui s’accompagne d’une baisse des
importations des biens de production.
Dans tous les cas, le solde, qu’il soit négatif ou positif et
qu’il soit rapporté ou non au PIB de la période observée, n’a
pas de signification en soi. Un excédent commercial est
évidemment une bonne chose s’il est obtenu par des
exportations compétitives structurellement consécutives à
une spécialisation internationale conforme à la théorie des
avantages comparatifs. Et de la même manière, un déficit
n’est pas toujours un bon résultat, car s’il est durable, il
engendre un épuisement des réserves de change et suscite
un endettement préjudiciable à la souveraineté nationale
dans les petits pays.
L’explication du solde et sa durée importent donc plus
que son niveau. Il faut par conséquent analyser la balance
des paiements courants poste par poste pour mieux
apprécier l’état de la conjoncture et la signification
normative du déséquilibre externe. L’objectif en termes
externes est par conséquent de réaliser l’équilibre en
tendance. L’essentiel est que sur une longue période les
déficits soient compensés par les excédents.
Toutefois, le solde de la balance des paiement courants
peut être associé au niveau de développement économique
du pays analysé. Il existerait un cycle de la balance des
paiements, ou du moins des étapes qui peuvent être
représentées par la figure ci-dessous, qui met en relation le
solde (capacité de financement) et le PIB par habitant2 en
parité des pouvoirs d’achat3. Les étapes sont variables selon
les auteurs. Crowther (1957) et Charles Kindleberger (1963)
ont proposé un cycle en six étapes. Paul A. Samuelson
(1952) et Maurice Byé (1965) se limitent à quatre.

Figure 7.2
. Cycle du solde de la balance des
paiements
Les quatre objectifs du carré magique ne sont pas
indépendants les uns des autres et ils ne sont pas toujours
compatibles entre eux. Il s’ensuit que tenter d’assurer la
croissance économique avec le plein-emploi de la main-
d’œuvre, la stabilité des prix et l’équilibre de la balance des
paiements courants constitue une gageure qui justifie
l’expression « carré magique de la politique économique ».
Par exemple, une forte hausse des prix détruit la
compétitivité et suscite un déséquilibre de la balance
commerciale, les produits importés prennent la place des
produits domestiques, la croissance ralentit, donnant alors
naissance au chômage. Une baisse des prix peut aboutir elle
aussi au chômage, puisque l’évolution du prix est une
indication du niveau de la demande. Toutes ces
interdépendances expriment le délicat problème du réglage
fin (fine tuning) de la politique conjoncturelle.
1.2. Les problèmes structurels
Les problèmes structurels sont ceux qui ont des origines
lointaines dans le passé et ont des effets durables sur le
bien-être général des populations. Les difficultés du
décollage économique des jeunes nations, ou au contraire la
rapide assimilation des nouvelles technologies pour réaliser
un développement économique accéléré, les changements
de mentalité, la réduction progressive de la mortalité et plus
tard de la natalité suscitant dans cette phase une transition
démographique offrant une main-d’œuvre bon marché pour
l’industrie sont quelques aspects qui relèvent des problèmes
structurels pour les pays en développement ou qui ne se sont
pas encore engagés dans le développement.
Pour les pays dits aujourd’hui développés, le processus
s’est fait lentement, en commençant par un ensemble
d’innovations dans l’agriculture sur une longue période,
même si par commodité de langage ce cumul d’innovations
a été désigné par l’expression de révolution agricole (voir
encadré : De la révolution agricole à la révolution
industrielle). Il a permis le développement du surplus
agricole, le déversement de la population active
excédentaire en ville favorisant le développement de
l’industrie, foyer de multiples révolutions technologiques
allant de la navette volante dans le textile jusqu’au
perfectionnement de la machine à vapeur de Thomas
Newcomen (1712) par l’invention de James Watt (1er brevet
1769). Le progrès s’est poursuivi par le vaccin mis au point
par Edward Jenner contre la variole (1796) – de ce vaccin,
on dit qu’il constitue un changement radical et on parle de
révolution jennérienne, car ses conséquences
démographiques sont de première importance –, par la chute
de la mortalité, l’excédent naturel de plus en plus important
dans une phase dite de transition démographique séparant le
début de la baisse de la mortalité et celle de la natalité.
La figure 7.3. illustre ces phénomènes pour expliquer le
décollage économique des pays européens entre la fin du
XVIIIe siècle et la fin du XIXe siècle. De nos jours, pour ces
pays développés, les structurels sont d’une tout autre nature,
dans la mesure où certains sont des conséquences négatives
du développement et de la croissance passés. Ce sont
notamment la pollution de l’environnement ; la tendance à
l’épuisement des ressources naturelles fossiles ; la baisse de
la natalité et le vieillissement démographique ; les
déséquilibres régionaux avec des activités souvent
concentrées dans la capitale, et le désert ou presque
ailleurs4 ; l’insuffisance des infrastructures de transport, de
santé, d’équipements collectifs de loisirs, de recherche et
d’éducation ; l’urbanisation anarchique ; les inégalités des
revenus et les phénomènes d’exclusion sociale et de
pauvreté ; la globalisation des marchés, etc. Ces problèmes
structurels suscitent des politiques structurelles qui peuvent
être des politiques de développement dans les pays en voie
de développement. De manière analytique, on distingue
notamment les politiques agricoles, les politiques
industrielles, les politiques d’aménagement du territoire, les
politiques démographiques, familiales, sociales (logement,
éducation, santé, répartition et redistribution des revenus) et
les politiques d’approvisionnement.
Figure 7.3
. Facteurs du décollage économique en
Occident
Sources : pour la figure Ahmed Silem,
Encyclopédie de l’économie et de la gestion,
Hachette, 1991, et pour la notion de révolution
industrielle, Jacques Brasseul, Histoire des faits
économiques, A. Colin, 2003.
1.3. L’interdépendance structure/conjoncture
La distinction structure/conjoncture qui vient d’être
présentée est discutable, car il n’y a pas dans la réalité de
discontinuité marquée. Par exemple, le phénomène de la
croissance économique est autant conjoncturel par ses
déterminants de courte période constitutifs de la demande
globale (consommation des ménages, demande publique,
l’investissement des entreprises, demande étrangère donnant
lieu à des exportations), que structurel par le dynamisme
autonome de l’offre se traduisant par l’augmentation des
facteurs de production (croissance extensive par
l’augmentation de la population active –L-, et du volume du
capital – K-) et/ou le progrès technique suscitant des gains
de productivité (croissance intensive).
Dans une certaine mesure, la structure est une enveloppe
des conjonctures successives. Cela signifie que les
problèmes conjoncturels récurrents peuvent avoir une
origine structurelle et les problèmes structurels peuvent
résulter du cumul des conjonctures défavorables. Il ne faut
donc pas s’interdire d’imaginer une interdépendance entre
structure et conjoncture, ce qui est une façon possible de
tenter de concilier la vision court termiste keynésienne de la
demande et la vision long termiste néoclassique de l’offre.
2. Les fonctions de l’État et la notion de politique
économique
La définition des fonctions économiques de l’État, au
sens de gouvernement distinct de la société civile, est
fortement idéologique. Aussi convient-il de présenter
brièvement les grandes idéologies, avant d’analyser les
fonctions.
2.1. Les approches idéologiques de l’État
La conception du rôle de l’État s’inscrit dans un
continuum qui va de l’État gendarme ou État minimum des
libéraux qui limitent son rôle à la surveillance du marché
afin que tout le monde en respecte les règles, jusqu’au tout
État des économistes du socialisme soviétique, en passant
par l’État keynésien qui prend le relais des particuliers dans
tous les domaines lorsqu’il y a défaillance du marché, pour
ne pas évoquer le refus de l’État des libertariens
(minarchistes de l’État minimum et anarcho-capitalistes qui
refusent tout pouvoir à l’État)5 et des anarchistes ou
libertaires6 qui préconisent une société gérée en commun
(autogestion, associationnisme, fédéralisme), la démocratie
directe sans hiérarchie aucune, le mandat révocable à tout
moment, l’application de la formule communiste « à chacun
selon ses besoins et de chacun selon ses capacités ». Ces
deux conceptions extrêmes sont cependant sans exemple
historique hors expériences utopiques fugaces insérées de
toute façon dans des sociétés normalement régulées.

a) L’État minimum du libéralisme économique


Dans la conception libérale, l’État est le représentant de
la collectivité, mandataire des différents intérêts individuels.
Sa fonction est de fournir les biens publics collectifs définis
limitativement. Son rôle est celui d’un gendarme facilitant
la libre circulation des hommes et des biens. « État
gendarme » et « laissez-faire, laissez-passer » sont des
expressions d’une conception selon laquelle l’intérêt général
est la somme des intérêts particuliers. Dans La Route de la
servitude (1944)7, F.A. von Hayek définit les limites de cet
État minimum, en reprenant certaines justifications déjà
avancées par Adam Smith. Le rôle attendu de l’État est de «
créer les conditions dans lesquelles la concurrence sera la
plus efficace possible » et de remplacer la concurrence « là
où elle ne peut être efficace » en raison de l’existence
d’externalités. L’État doit intervenir pour éviter tout
monopole aussi bien privé que public. Mais l’État doit
fournir un service dès qu’il est avantageux pour la
collectivité et qu’il ne donne pas un profit suffisant pour
qu’une entreprise privée en soit le fournisseur. En d’autres
termes, dès qu’il y a risque de sous-production
d’externalités positives et de surproduction d’externalités
négatives, l’intervention de l’État est concevable et même
admise. Pour le reste, l’État doit éviter de perturber les
arbitrages et les décisions des entrepreneurs par des
interventions monétaires et budgétaires de contrôle de
l’évolution de la conjoncture. Dans cette perspective de
neutralité, F.A. von Hayek va jusqu’à préconiser la
privatisation de la banque d’émission de la monnaie (Prix et
production, 1931, éd. française Calmann-Lévy, 1975).

b) L’État représentant de la classe dominante


Dans une approche marxiste, c’est une théorie coercitive
de l’État qui est développée. L’État est le représentant de la
seule classe dominante et il est un appareil d’oppression au
service de cette classe dominante. Lors de la révolution
socialiste, la dictature du prolétariat se substitue à l’État
bourgeois pour ensuite s’engager vers le dépérissement de
l’État dans une société sans classe. Dans cette phase de
transition entre capitalisme et socialisme, l’État concentre
tous les pouvoirs, assure la gestion des entreprises qui sont
toutes de propriété collective, fixe les objectifs dans le cadre
d’une économie planifiée, détermine les moyens de
production à mettre en œuvre, fixe les rémunérations de
chacun. La faiblesse de cette conception est qu’elle
n’indique pas comment va s’opérer l’extinction progressive
de cette mainmise de l’État sur tous les actes de la vie
quotidienne dans la phase de transition. Comme l’indique
Robert Tremblay8, « cette théorie reste aveugle aux
conséquences d’une concentration étatique des pouvoirs
qu’elle préconise ».
c) L’État providence face aux limites du marché
La théorie institutionnelle ou doctrine interventionniste
ou volontariste fait de l’État le représentant de l’intérêt
général conçu comme différent de la somme des intérêts
privés. C’est la conception keynésienne et de tous ceux qui
reconnaissent l’échec du marché. La main invisible ne
fonctionne pas : le laissez-faire débouche sur des crises
économiques. L’État doit intervenir pour éviter que les
contradictions des intérêts individuels ne fassent éclater la
société. C’est l’État providence qui fournit les biens publics
collectifs et développe des activités à l’origine d’externalités
positives pour le secteur privé. Pour Keynes en particulier,
dans une économie en dépression, celle-ci est d’abord dans
les esprits, il faut donc que l’État casse par ses dépenses ce
pessimisme ambiant qui aggrave la dépression économique.
Les dépenses publiques constituent un amortisseur
conjoncturel et leur augmentation en cas de dépression
assure le retournement conjoncturel entretenant des
anticipations favorables à la croissance.
Cette conception selon laquelle l’État ne doit pas limiter
son rôle aux seules fonctions de justice, de défense
nationale et de police n’est cependant pas récente. On a
pensé et appliqué depuis longtemps des mesures correctrices
des faiblesses du marché. Dans cet esprit sont à signaler
pour les plus anciennes : l’assistance aux pauvres dans
l’Empire romain, la Zakat dans l’islam (l’aumône
obligatoire prélevée sur le revenu pour l’attribuer aux seuls
pauvres)9, la « loi sur les pauvres » instituée en Angleterre
en 1601 sous le règne d’Elizabeth Ire.
Du point de vue des idées, les travaux de Sismondi sont
précurseurs des systèmes modernes de sécurité sociale sous
les deux formes génériques : système bismarckien et système
béveridgien. Le premier est fondé en Allemagne par les lois
adoptées sous le gouvernement du Chancelier Bismarck en
1880 ; il correspond à un système d’assurance sociale
(redistribution horizontale – par exemple ceux qui
travaillent paient pour ceux qui ne travaillent pas –, la
redistribution est ainsi compensatrice d’une perte de revenu)
dans lequel les prestations sont la contrepartie de cotisations
établies en fonction du revenu. Le second, adopté au
Royaume Uni après la Seconde Guerre mondiale à la suite
des préconisations de sir William Beveridge, a pour objectif
de répondre gratuitement aux risques de la vie qui peuvent
toucher tout un chacun ; il est financé par l’impôt et aboutit
à une redistribution verticale (les riches paient pour les
pauvres).
2.2. Les trois fonctions de l’État selon Musgrave
C’est dans le prolongement de la conception
interventionniste que Richard Abel Musgrave10 a identifié en
1959 les trois fonctions de l’État, fonctions qui
correspondent aux domaines de la politique économique
destinée à corriger les mécanismes du marché qui ne sont
pas spontanément et nécessairement compatibles avec les
choix sociaux les plus favorables à la collectivité :
a) la politique de stabilisation de la conjoncture. Les
mécanismes de marché n’assurent pas spontanément
l’équilibre. L’évolution économique se fait dans le
déséquilibre, avec des fluctuations conjoncturelles
s’accompagnant soit de l’inflation, soit du chômage, soit de
la déflation, soit de la concomitance de l’inflation et du
chômage. La politique de stabilisation a pour fonction de
rétablir l’équilibre, mais les économistes libéraux
considèrent que les preuves sont rares pour attribuer les
déséquilibres aux dysfonctionnements du marché, alors que
la présence de l’État est permanente ou constante dans ces
phases de déséquilibre.
b) la politique d’allocation des ressources par des
subventions et des investissements publics (en
infrastructures, équipements collectifs, capital humain,
Recherche & Développement, etc.) opérés suivant un
rythme approprié pour assurer une croissance durable. Cette
politique allocative par la puissance publique est justifiée
par l’inefficacité inévitable du marché, car l’allocation par
le marché suppose la réalisation de cinq conditions pour être
optimale au sens de Pareto : (1) rationalité des agents, (2)
qui ont des comportements de prévision parfaite ou
interviennent sur des marchés à terme et contingents pour
tous les biens, (3) en étant preneur de prix, (4) rendements
non croissants (i.e. rendements constants ou décroissants) et
(5) indépendance des fonctions d’utilité et des fonctions de
production, ce qui signifie qu’il n’y a pas d’influence
réciproque des agents (absence d’imitation, d’effet externe,
de biens collectifs).
c) la politique de redistribution des ressources par la
fiscalité, les transferts sociaux (allocations familiales, aides
aux personnes indigentes, etc.) et la fourniture de biens
publics collectifs. En termes d’économie du bien-être, il
s’agit de transformer l’optimum en optimum optimurum, en
se situant sur la courbe sociale d’indifférence la plus élevées
qui soit compatible avec la frontière d’efficacité sociale.
Celle-ci désigne le lieu des optima parétiens sur un plan des
utilités pour deux individus ou groupes d’individus. Une
fois sur la courbe d’efficacité sociale, le groupe B ne peut
augmenter son utilité UB de M à N que si le groupe A
accepte de diminuer en même temps son bien-être, sans que
le bien-être social ne soit globalement amélioré, puisque la
courbe d’indifférence est la même. La politique de
redistribution, en revanche, devrait pouvoir permettre de
passer de la courbe d’indifférence 1 à la courbe 2, amener la
société au point Z.

Figure 7.4
. Effet de la politique de redistribution sur
la fonction sociale de bien-être
Ces trois fonctions de l’État sont susceptibles de donner
lieu à différentes politiques économiques pour chacune
d’elle. Elles ne sont pas incompatibles avec le libéralisme
économique, et il existe des politiques économiques
libérales. Il faut donc préciser ce que l’on entend par
politique économique. Celle-ci est le comportement délibéré
de la puissance publique se traduisant par la définition
d’objectifs économiques et sociaux et la mise en œuvre des
moyens nécessaires pour les atteindre.
2.3. La notion de politique économique
Pour parler de politique économique, il faut que l’action
ou l’absence d’action soit délibérée. Le caractère délibéré
ou voulu est fondamental : ne rien faire involontairement ou
ne rien faire parce qu’il a été décidé ainsi ne constitue pas la
même chose. En application de la doctrine du « laissez-
faire, laissez-passer », « ne rien faire » est ainsi une
politique économique libérale qui consiste à faire confiance
aux mécanismes du marché mais à la condition que tout le
monde en respecte les règles.
Les différents objectifs et les différents moyens utilisés
permettent de définir un grand nombre de politiques
économiques. On distingue trois grandes classifications :
a) selon l’objectif : politiques conjoncturelles (la
stabilisation dans les fonctions de Musgrave) et politiques
de développement ou politiques structurelles (l’allocation
des ressources et la redistribution dans les mêmes fonctions
musgraviennes),
b) selon les moyens : politiques budgétaires (nature et
volume des dépenses publiques, nature du système fiscal,
structure des taux de l’impôt, taux de pression fiscale),
politiques monétaires (définition du taux directeur de la
banque centrale, taux de change), politique de crédit
(garanties offertes aux emprunteurs, taux des emprunts pour
les ménages en fonction de leur revenu), politiques
réglementaires (normes à respecter pour les produits mis sur
le marché, lois antitrust respect des principes de la
concurrence, salaire minimum, etc.),
c) selon l’idéologie : nous avons déjà vu que les
politiques libérales (favorisant la libre entreprise, le libre-
échange, faisant respecter la propriété privée et la
concurrence dans le libre jeu des lois du marché) s’opposent
aux politiques interventionnistes. Il ne faut cependant pas
confondre l’interventionnisme remédiant à une crise
économique, palliant les faiblesses des initiatives privées,
avec ce que certains libéraux qualifieraient d’avatars
paroxysmiques : étatisme, dirigisme, planisme, socialisme.
De même, le libéralisme n’est nullement l’ordre naturel
dans lequel, suivant la formule de Thomas Hobbes, «
l’homme est un loup pour l’homme ». Ce n’est pas une
situation où tout est permis. Le libéralisme comporte des
règles, et une politique libérale consiste à faire respecter ces
règles. La politique interventionniste consiste en mesures
appropriées adoptées lorsque ces règles ne suffisent pas à
assurer le bien-être général.
2.4. Les règles de Tinbergen et de Mundell
Il existe des règles que les pouvoirs publics doivent
respecter dans la gestion de la relation entre objectifs et
moyens. Ces règles correspondent au principe de cohérence
et au principe d’efficience. Le principe de cohérence est
énoncé par le Hollandais et économètre Jan Tinbergen
(1903-1994), premier lauréat du prix Nobel d’économie.
Selon cette règle de Tinbergen, il ne faut pas avoir plus
d’objectifs que de moyens, ou encore la politique
économique doit avoir autant d’instruments que d’objectifs.
La règle mathématique stricte est : « un objectif par moyen,
et un moyen par objectif » (i.e. : il faut autant d’équations
qu’il y a d’inconnues). Le principe d’efficience est dû au
Canadien Robert Alexander Mundell, autre Prix Nobel. La
règle de Mundell indique que, parmi les moyens
disponibles, il faut choisir celui qui permet de réaliser avec
efficience l’objectif.
Le souci de la rigueur mathématique de Tinbergen est peu
respecté dans les faits, en ce sens qu’il arrive d’avoir
plusieurs moyens complémentaires pour atteindre un seul et
même objectif. Ce cas peut être illustré par la politique de
lutte contre le chômage entreprise en France en 1974-75 :
elle a pu associer des mesures réglementaires comme
l’autorisation administrative de licenciement, des mesures
budgétaires de financement de grands travaux publics pour
relancer l’activité et des mesures monétaires comme laisser
la monnaie nationale se déprécier (dévaluation de fait) pour
décourager les importations et favoriser les exportations. De
même, il est possible d’avoir un seul moyen pour plusieurs
objectifs différents, comme c’est le cas avec l’offre de biens
publics gratuits qui permet de réduire les inégalités sociales
et de relancer l’activité économique. Mais on ne peut pas
dire que c’est efficace : la politique de 1974 n’a pas réduit le
chômage, et l’offre de biens publics collectifs gratuits
profite à tous et non uniquement aux plus défavorisés.
1 Nicholas Kaldor (1908-1986) a conçu ce modèle d’analyse de la conjoncture
en 1972 pour l’OCDE (Organisation de coopération et de développement
économique).
2 source : Brahim Razgallahl “cycle d’endettement des pays », C.E.R.S.E.I.-3
D.I Université Panthéon-Assas (Paris II))., 2005.
3 La parité des pouvoirs d’achat est le taux de change qui permet d’acheter à
des conditions identiques le même type de produit dans deux pays différents, en
supposant les commissions de change nulles.
4 cf. pour la France le livre classique de Jean-François Gravier : Paris et le
désert français, 1947. Le graviérisme, notion apparue depuis la publication de ce
livre, est une dénonciation de ce déséquilibre qui justifie une politique de
décentralisation et d’aménagement du territoire.
5 Les précurseurs, les inspirateurs et les principaux représentants de ce
courants qui affirme le principe de l’ordre spontané, de la malfaisance de l’État
sont : l’Anglais Richard Overton (1599-1664), les Français Charles Dunoyer de
Segonzac (1786-1862) et Frédéric Bastiat (1801-1850), l’Américain dénonciateur
de l’État-bandit Lysander Sponner (1808-1887), le Belge Gustave de Molinari
(1818-1912), l’Autrichien Ludwig von Mises (1881-1973), son élève
l’Américain Murray Newton Rothbard (1826-1995), Robert Nozick (1938-2002),
David Friedman David, Bertrand Lemennicier, Pascal Salin.
6 Les principaux représentants sont : les Russes Mikhaïl Aleksandrovitch
Bakounine dit Michel Bakounine (1814-1876) et Piotr Alekseïevitch Kropotkine
(1842-1921), l’Ukrainien Nestor Ivanovitch Makhno (1889-1934), les Italiens
Carlo Cafiero (1846-1892) et Errico Malatesta (1853-1932), les Français Pierre
Joseph Proudhon (1809-1865), Elisée Reclus (1830-1905) et Daniel Guérin
(1904-1988).
7 The Road to Serfdom, Chicago, University of Chicago Press ; Londres,
George Routledge ; trad. fr., La Route de la servitude, Paris, Médicis, 1946.
8 Robert Tremblay, « Critique de la théorie marxiste de l’État »,
Philosophiques, volume 13, n° 2, automne 1986, pp. 267-289, publiée par la
Société de philosophie du Québec, 1986.
9 Le Coran, sourate 9, verset 60.
10 Musgrave R. (1959), The Theory of Public Finance, A Study in Public
Economy, International Student Edition, New York, McGraw-Hill Book
Company.
Chapitre 8
La croissance économique
L’objet de ce chapitre est de donner les éléments
fondamentaux pour comprendre le phénomène de la
croissance économique : sa mesure, ses facteurs, ses
caractères et ses effets.
1. Définition et mesure du taux de croissance
La croissance économique est l’augmentation sur une
longue période du produit intérieur brut en termes réels, i.e.
hors inflation. Elle se distingue de l’expansion qui se définit
par une augmentation du PIB, mais sur une courte période
dans un cycle conjoncturel. Elle se distingue aussi du
développement et du progrès économique et social. Ces
deux phénomènes, qui relèvent d’une approche plus
qualitative que quantitative, se manifestent sur une période
plus longue.
Avec la notion de progrès, l’évolution est évaluée par ses
conséquences sur le bien-être ; le progrès suppose un état
ultime, une finalité, un but ou un objectif à atteindre. Il en
résulte que la notion de progrès économique implique un
jugement de valeur positif relatif au processus considéré –
bien que certains parlent de désillusions du progrès ou des
dégâts du progrès –, ou sur un tout autre registre de la
progression de la maladie
Néanmoins, dans le langage courant, il semble admis de
parler de développement économique lorsque des pays dont
le revenu national par habitant est inférieur à la moyenne du
revenu mondial par habitant connaissent une augmentation
durable de ce revenu par habitant. Pour les pays dont le
revenu national moyen est supérieur au revenu mondial
moyen, c’est l’expression de croissance économique qui est
employée pour signifier l’augmentation du volume du
produit réel aussi bien global ou absolu que par habitant,
bien que les changements de structures continuent à se
produire comme, par exemple, les variations des parts des
activités dans la production nationale.
1.1. La mesure du taux de croissance
Le taux de croissance de l’économie entre deux périodes
tl et t2 est le produit par 100 du rapport entre, d’une part, la
variation de la valeur de la production entre tl et t2 et, d’autre
part, la valeur de la production de l’année t1.
Par exemple si, avec une évaluation à prix courants, la
production pour l’année tl est de 3 000 milliards d’€ et
qu’elle passe à 3 160 milliards d’€ à la fin de l’année t2 alors
le taux de croissance nominal est de :
100 x [(3160 – 3000)/3000] = 4 %
En termes d’indice à prix courants, la production de
l’année t2 est à un niveau de 104. On dit encore que la
production de l’année précédente a augmenté d’un facteur
de 1,04. Il s’agit ici d’un coefficient multiplicateur obtenu
en divisant l’indice annuel par 100.
Pour mesurer la croissance réelle, il faut déflater
l’augmentation nominale du PIB par un indice des prix
approprié, en faisant le rapport entre l’indice de la
production courante et l’indice des prix. Ici, l’indice des
prix qu’il convient d’utiliser est le déflateur du PIB et non
pas un indice des prix de détail qui, d’une part, ne concerne
qu’une partie des biens qui participent au PIB et, d’autre
part, porte aussi sur des biens importés qui, eux, ne
participent pas au PIB. Le PIB étant la différence entre la
valeur des productions et la valeur des consommations
intermédiaires, son calcul à prix constants est obtenu en fait
par la méthode de la double déflation, i.e. que la déflation
s’applique aux productions et aux consommations
intermédiaires. Néanmoins, cette double déflation permet
d’obtenir la variation en volume du PIB qui, comparée à la
variation en valeur courante, donne une variation implicite
de prix du PIB. L’indice obtenu de cette manière est l’indice
ou prix implicite du PIB ou déflateur du PIB, représentatif
de l’évolution générale des prix. Plus simplement, le prix
implicite du PIB ou déflateur du PIB peut encore se définir
par le rapport suivant :
déflateur du PIB = PIB nominal/PIB réel.
Si l’indice des prix est passé de l’indice 100 l’année t1 à
102,5 l’année t2, alors la croissance en volume, en termes
réel, ou à prix constants, au cours de la deuxième année,
est :
104/102,5 = 1,14 %,
soit un indice de la croissance en volume de 101,14 par
rapport à l’année précédente.
Si, au cours de la période, la population du pays a
augmenté de 0,5 %, la croissance économique réelle par
habitant, ou augmentation du niveau de vie, est alors de :
1,14 – 0,5 = 0,64 %.
Le taux de croissance annuel moyen sur plusieurs années
s’obtient en faisant la moyenne géométrique des produits
des variations annuelles, i.e. en faisant la racine énième du
rapport entre l’indice de l’année n et l’indice de l’année
d’origine. Pour simplifier l’écriture, la racine énième d’un
nombre X peut aussi s’écrire X1/n. Les calculs deviennent
plus simples en passant alors par les logarithmes sachant
que
log (X1/n) = (1/n) log X.
Par exemple, si l’indice en volume est passé de V0 = 210
à Vt = 250 pour t = 10 ans, alors le taux de croissance
annuel moyen (g) est :
g = [(250/210)1/10] – 1 = 1,76 %.
Si l’on dispose de taux annuels de croissance plutôt que
d’une suite d’indices annuels, il suffit de faire la racine
énième des produits des taux rapportés chacun à l’année
précédente, comme dans l’exemple suivant :
Soit les taux de croissance suivants au cours de 7 années :
2,5 ; 3 ; 3,25 ; 1,5 ; 1 ; – 1 ; 1,4.
Le taux de croissance annuel moyen est alors :
g = [1,025 – 1,03 – 1,0325 – 1,015 – 1,01 – 0,99 – 1,
014]1/7 – 1 = 1,66 %
On observe qu’ici la moyenne géométrique aboutit
pratiquement au même résultat que la moyenne
arithmétique. Cela n’est pas toujours ainsi. Pour voir la
différence, il suffit de prendre les taux de croissance de 6 %
et de 10 % pour les années t1 et t2 : la moyenne arithmétique
et de 8 %, alors que la moyenne géométrique est 7,7 %.
1.2. L’évolution de la croissance
La recherche de la croissance économique correspond au
désir d’accéder à un mieux-être matériel. Le monde
moderne semble indéniablement plus supportable pour les
hommes que celui du passé, mais on sait que cette
croissance ne peut pas être éternelle, tout en exigeant des
efforts de plus en plus intenses pour tenter vainement de
conserver le même taux. En effet si, par exemple, il est
facile de passer d’un PIB 1 000 unités monétaires en début
d’année à un PIB 1 100 unités monétaires à la fin de
l’année, réalisant ainsi un taux de croissance de 10 %. La
même augmentation de 100 unités monétaires l’année
suivante ne donne plus qu’un taux de (100/1100)100 = 9,09
%. Pour faire 10 %, il faudrait une augmentation de 110
unités monétaires. Un taux de croissance constant signifie
donc une croissance exponentielle. Ce qui ne peut pas se
poursuivre indéfiniment, comme le laisse comprendre la
boutade célèbre attribuée à Kenneth Ewert Boulding (1910-
1993) :
« Celui qui croit qu’une croissance exponentielle peut
continuer indéfiniment dans un monde fini est un fou, ou un
économiste. »
La croissance économique se fait en détruisant de
manière irréversible les ressources naturelles,
conformément au processus de l’entropie des
thermodynamiciens tel qu’il a été analysé par Nicholas
Georgescu-Roegen (1906-1994). L’entropie est la mesure du
désordre. Elle correspond au deuxième principe de la
thermodynamique. Selon ce principe, il y a toujours
dégradation et perte irréversible d’énergie. Cela signifie
qu’il est impossible de récupérer toute l’énergie dépensée
dans un travail, et qu’il ne peut donc y avoir, en économie,
de croissance perpétuelle. Il arrivera donc un moment où les
ressources naturelles par habitant diminueront
inéluctablement. La croissance de la consommation ne
pouvant plus se poursuivre, la décroissance1 s’imposera
d’elle-même. On peut cependant penser qu’une telle vision
pessimiste repose sur l’hypothèse d’un système clos, sans
doute acceptable en physique, mais que la capacité de
création des hommes semble avoir mis en échec pour
l’instant.
Au-delà de la problématique de la gestion au niveau
mondial des ressources naturelles limitées, l’objectif pour
des pouvoirs publics locaux est d’avoir un taux de
croissance acceptable, i.e. supportable par la société en ne
suscitant pas des disparités inacceptables du fait d’une
évolution trop rapide pour certains groupes sociaux. Une
trop forte croissance a en effet un prix, d’une part en termes
de surchauffe de l’économie – certains secteurs ne peuvent
pas répondre instantanément à la forte demande et
augmentent les prix en réponse pour signaler le phénomène
de rareté momentanée – et, d’autre part, en termes de
changements structurels inévitablement perturbateurs
impliquant, par exemple, la mobilité professionnelle
(changement de métier, changement de région). Mais une
faible croissance, et surtout un taux de croissance négatif,
lorsque la population active augmente, se paient aussi par
du chômage tout aussi inacceptable.
Toutefois un taux de croissance régulier sur une longue
période ne se décrète pas. On observe surtout une
irrégularité de la croissance économique dans le temps,
même au plus fort moment de la planification
macroéconomique qu’un grand nombre de pays ont adoptée
après 1945. Celle-ci avait pour base des prévisions à 4 ou 5
ans éclairées par une prospective à plus long terme
décrivant les futurs possibles, et suivies de mesures
indicatives, incitatives pour réaliser les actions jugées
nécessaires en vue d’atteindre le taux de croissance
programmé ou projeté. Les fluctuations du taux de
croissance, certes moins prononcées et moins nettement
cycliques que celles du XIXe siècle et des 40 premières
années du XXe siècle, se sont pourtant maintenues avec en
1973-75, 1979-81, 1993-1995 et 2008-2009 des taux de
croissance négatifs dans un grand nombre de pays
développés.
Tableau 8.1
. Taux de croissance annuel moyen

1.3. Les faits stylisés de la croissance


La section précédente a fourni quelques éléments sur les
grands traits de la croissance économique qui a pris
naissance avec la première révolution industrielle. Ce
phénomène s’est produit, comme cela a été résumé dans
l’introduction de cette troisième partie (voir figure III.2.), à
la faveur des idées nouvelles et des progrès techniques
cumulatifs dans l’agriculture qui ont permis de dégager un
surplus indispensable pour le développement urbain
favorisé par l’exode rural consécutif au gain de productivité.
Les innovations industrielles ont suivi. Même si la
modification des structures est envisageable sans qu’il y ait
croissance économique mais, jusqu’à nos jours, le
développement et la croissance ont toujours été associés
comme en rendent compte les six faits stylisés par Nicholas
Kaldor en 19612, confirmés largement par un grand nombre
de travaux dont ceux de Robert Barro et Xavier Sala-i-
Martin (La Croissance économique, McGraw-Hill, 1998).
Par faits stylisés, N. Kaldor désigne des faits empiriques
simples, assez largement observés et reconnus, qu’une
théorie devrait expliquer. Ces six faits sont :
1 la production par tête croit de manière continue,
2 le stock de capital par tête est croissant,
3 le taux de rendement du capital est constant,
4 le ratio capital-produit est constant,
5 les parts du capital et du travail dans le revenu
national sont constantes,
6 les pays ont des taux de croissance de la
productivité du travail différents.
Pour les années qui ont suivi le premier choc pétrolier
(1973), le fait stylisé le plus net est le ralentissement des
gains de la productivité multifactorielle (PMF), dite encore
productivité globale des facteurs ou productivité totale de
facteurs3. Dans les années 1960, le taux de croissance annuel
moyen de la PMF en France, selon les données de l’INSEE,
était de 3 %. Par la suite, le taux a été inférieur à 2 % entre
1974 et 1992, et inférieur à 1 % de 1993 à 2002. Le
phénomène est commun à la plupart des pays de l’OCDE,
comme le montre le tableau 8.2.
On rappellera que la PMF ou PGF est obtenue de manière
résiduelle. Elle correspond à la part de la croissance du PIB
ou de la valeur ajoutée brute une fois déduits les apports en
travail et en capital. Avec une fonction homogène, linéaire
et de degré égal à 1, α et β sont respectivement les parts des
salaires pour rémunérer le travail (L) et des autres revenus
pour rémunérer le capital (K) dans le revenu national. Les
lettres ln correspondent au symbole du logarithme népérien
(noté Log par le passé) dit encore logarithme naturel,
logarithme de base e.
En reprenant la fonction de production présentée dans le
chapitre 5, l’équation comptable de la croissance du PIB
(dY) au cours du temps (dt) est :

Dans cette relation, la croissance de la PMF correspond


à:

On l’appelle également le résidu de Solow (voir plus loin,


dans ce chapitre, le modèle de Solow). Par simplification, ce
résidu a été assimilé au progrès technique ou évolution
technologique. Il s’agit de la part de la croissance
économique qui n’est pas expliquée par le travail et le
capital. Ce résidu est composé, certes, du progrès technique,
mais également des coûts d’ajustement, des économies
d’échelle, des erreurs de mesure, du rôle de la puissance
publique, etc. Certains de ces éléments ont été identifiés et
mesurés spécifiquement dans le cadre de la théorie de la
croissance endogène.
Le premier fait ne signifie pas que le taux de croissance
par tête soit constant. De ce point de vue les travaux
d’Angus Maddisson révèlent clairement la rupture que
constitue la première révolution industrielle au XIXe siècle.
On le voit sur le tableau 8.3. On constate que le revenu par
habitant n’a pas pratiquement pas évolué de l’an zéro à
1820 pour être multiplié par 8,55 entre 1820 et 1998. Sur
cette période, le taux de croissance annuel du PIB par
habitant a été de 1,23 %, alors qu’il a été de 0 % (ou
légèrement négatif) sur la période 0 à 1 000 et 0,05 % sur la
période 1000 à 1820.
Tableau 8.2
. Productivité multifactorielle
La valeur de la PMF à une date donnée est :

Le coefficient de multiplication varie selon le pays. Par


exemple les calculs de Maddisson donnent un coefficient de
25,7 pour le Japon sur la période 1820-1989. Pour la France
il est de 13,2, celui de l’Italie est de 13,5. Celui du Royaume
Uni n’est que de 9,6. Pour cette période. Angus Maddisson
a montré que le taux de croissance est peu variable par sous-
période (le taux moyen a toujours été inférieur à 1,8 %) sauf
entre 1945-1973, sous-période pour laquelle le taux de
croissance annuel moyen a été de 3,5 % dans les pays
développés.
D’autres faits stylisés peuvent être ajoutés à la liste de
Kaldor.
Tableau 8.3
. Croissance mondiale
1) Les données d’Angus Maddisson révèlent, comme cela
a été remarqué, que le PIB par habitant a connu des
fluctuations sans qu’il y ait une synchronisation entre pays.
Dans la seconde moitié du XXe siècle, certains pays ont
rattrapé le niveau de vie des pays les plus riches, d’autres
non. Lorsque le rattrapage s’est produit, le taux de
croissance a été évidemment plus rapide que ceux réalisés
au XIXe siècle et début du XXe siècle par les pays qui ont
réalisé leur décollage économique précoce. Cependant, en
limitant l’observation aux taux de croissance du PIB réel
global et non plus par tête, Victor Zarnowitz4, dans un
article du JEL en 1985, constate notamment les deux faits
majeurs suivants :
a) les fluctuations cycliques tendent à être plus courtes
aux États-Unis qu’en Europe. Il a compté, entre 1854-1938,
21 cycles aux États-Unis (durée moyenne = 4 ans) et 16
cycles au Royaume-Uni (durée moyenne = 5 1/3 ans) ;
b) les fluctuations entre partenaires commerciaux tendent
à ¸être synchronisées. Avant la Seconde Guerre mondiale,
60 % des points de retournement aux États-Unis et en
Europe sont en phase. Après la Seconde Guerre mondiale,
un décalage conjoncturel est récurrent en ce sens que les
récessions américaines sont suivies avec un léger retard par
un ralentissement des taux de croissance en Europe et au
Japon, mais ce décalage tend à s’estomper depuis 1970 ;
c) les pays de l’Europe occidentale voient leur revenu par
tête converger depuis 1970.
2) Les inégalités de revenus entre pays ont augmenté très
fortement au cours du XXe siècle. Il existe une variation
considérable du revenu par tête entre les économies. Les
pays les plus pauvres ont des revenus par tête qui
représentent moins de 1 % de celui des pays les plus riches.
C’est ainsi qu’en 2006, avec les données du FMI calculées
en US $ et ajustées en parité de pouvoir d’achat5, le Malawi,
le pays le plus pauvre, présentait un revenu annuel par
habitant de 596 $, tandis qu’il était de 69 799 $ au
Luxembourg, le pays au revenu par tête le plus élevé. En
1991, le pays le plus pauvre était le Tchad avec 400 $ par
habitant et le pays le plus riche était les États-Unis avec un
revenu de 18 000 $. Le revenu du plus pauvre représentait 5
% du revenu du plus riche, et en 2006 ce n’était plus que
0,85 %. On constate donc que les inégalités se sont creusées
entre les pays.
3) Le fait précédent montre que les positions des pays
peuvent varier : le Luxembourg et la Norvège sont passés
devant les États-Unis entre 1991 et 2006. Sur une plus
longue période, l’Argentine qui était développée ou, du
moins, un pays riche dans les années 1930 s’est appauvrie
depuis la fin de la Seconde Guerre mondiale.
4) Le commerce international, l’ouverture commerciale et
la croissance économique sont liés. Cela correspond au fait
que les économies plus ouvertes tendent à croître plus vite
que les autres.
En conclusion, comme le montrent les travaux de Xavier
Sala-i-Martin portant sur des observations concernant plus
de cent pays6 :
- il n’y a pas un seul déterminant structurel simple de
la croissance ;
- le niveau initial du PIB est la variable la plus
importante et la plus robuste. Cela signifie que plus
le PIB est élevé, moins il croît vite. C’est
l’hypothèse de convergence conditionnelle qui
correspond à la théorie des latecomers ;
- l’importance du secteur public dans l’économie est
neutre mais pas la qualité du gouvernement. Ceux
qui sont à l’origine de l’hyperinflation, de déficits
publics excessifs avec une bureaucratie inefficace
ont de très mauvais résultats ;
- en comparant les deux Allemagne et les deux Corée,
ayant eu des systèmes économiques différents, il est
apparu que l’économie de marché et avec propriété
privée des biens de production a révélé sa
supériorité sur l’économie centralement planifiée
avec système de collectivisation des biens de
production ;
- les conditions préalables à la croissance présentées
par Karl Marx (l’accumulation primitive) et par
Walt W. Rostow ne sont plus nécessaires, car
chaque pays peut trouver des moyens pour
contourner l’absence de telle ou telle de ces
conditions (par exemple : les banques universelles
allemandes compensent l’insuffisance du marché
financier ; l’État favorise l’implantation
d’industries de base et d’entreprises de grande taille
en Russie ou au Japon). Le cas anglais ne constitue
plus une voie unique du développement et chaque
pays suit des cheminements différents.
2. Les théories et les modèles de croissance
Bien que l’histoire économique soit une discipline
ancienne (cf. notamment les différents travaux de l’école
historique allemande7, Le Capital de K. Marx, les multiples
travaux l’école des Annales en France qui correspond au
courant fondé en 1929 par Lucien Febvre et Marc Bloch et
porté par la revue Annales d’histoire économique et sociale,
les premières théories de la croissance et les premiers
modèles ont été conçus avant les observations empiriques
qui ont permis de dégager les faits stylisés.
2.1. Les théories classiques de la croissance
1) Les premiers énoncés remontent aux mercantilistes qui
ont formulé des doctrines d’enrichissement. Dans le
chapitre 2, nous avons vu que, pour les différents
mercantilismes, la croissance de la population qui fournit
des travailleurs (facteur de production) et des
consommateurs (les débouchés) en plus grand nombre, et le
taux d’intérêt bas (pour décourager l’épargne et faciliter les
investissements) sont les variables les plus déterminantes
dans une économie protégée avec un État qui encourage les
manufactures et qui s’occupe des pauvres.
2) Pour la physiocratie, expression du capitalisme agraire
dans un ordre naturel le moins perturbé possible par un État
minimum, et pour son chef de file François Quesnay, la
croissance est obtenue par les avances de la classe des
propriétaires. Ces avances sont des investissements qui
permettent de réaliser un produit net dans l’agriculture et
qui reviennent aux propriétaires.
3) Dans le cadre de l’économie classique orthodoxe, avec
Adam Smith en particulier, ces avances productives des
physiocrates deviennent du capital obtenu par une épargne
préalable. Celle-ci est constituée par le fait que tout ce qui a
été produit n’est pas totalement consommé afin d’augmenter
le produit du cycle productif suivant. En outre, la croissance
des richesses repose sur la division du travail et son
corollaire la liberté des échanges, dans un environnement de
libre entreprise et de libre initiative. La division du travail
ou spécialisation peut être à la source d’économies
d’échelle, même si dans la modélisation ricardienne de la
division internationale du travail, l’hypothèse retenue est
celle des rendements constants. Exception faite de ce
modèle, les rendements sont décroissants et rien
n’empêchera la réalisation de l’état stationnaire. On notera
que les idées d’Adam Smith seront reprises en 1928 par
Allyn Young (Les Rendements croissants et le progrès
économique) mais en présentant le progrès technique
comme un phénomène endogène et cumulatif.8
4) Dans la conception de Robert Malthus, classique
hétérodoxe et en bon premier énonciateur de la théorie de la
demande effective, la croissance des richesses est une
nécessité qu’impose la pression démographique. La
croissance économique se fera de manière cyclique et en
décalage avec le cycle démographique : la croissance des
subsistances au-delà des besoins favorise la croissance
démographique, la population active est
proportionnellement plus faible que la population qui n’a
pas encore l’âge de travailler, le salaire est élevé, les
conditions de vie sont favorables. La mortalité baisse, mais
les besoins en subsistance finissent par excéder les
ressources disponibles, le nombre de personnes qui
cherchent un emploi augmente, le salaire baisse jusqu’à son
niveau naturel – ce salaire naturel correspond au salaire
minimum de subsistance –, entraînant une dégradation des
conditions de vie et engendrant une forte mortalité. Cela a
pour conséquence une diminution de la population active de
la génération suivante, suscitant une augmentation du
salaire, et un nouveau cycle se reproduit.
5) D’un point de vue théorique, nous avons vu dans le
chapitre 2que Karl Marx ne propose rien de nouveau sur le
rôle de l’accumulation du capital dans la croissance
économique qu’il désigne par l’expression de reproduction
élargie. Il distingue celle-ci de l’état stationnaire purement
théorique dit de reproduction simple. Ses apports sont
cependant essentiels. Il est le premier à construire un
modèle formalisé de la dynamique du capitalisme en deux
sections productives (production de biens de production,
production de biens de consommation). En prolongeant les
travaux de Sismonde de Sismondi, Marx explique plus
logiquement les concentrations industrielles par leur
fonction qui est d’obtenir une croissance du profit absolu
compensatrice de la baisse du taux de profit. Associées au
progrès technique (cf. la section sur le machinisme dans Le
Capital, Livre 1, 1867), ces concentrations sont analysées
comme un moyen de réaliser des économies d’échelle et des
gains de productivité (correspondant chez Marx à la notion
de plus-value relative). La différence avec les classiques
tient aussi à l’idée selon laquelle la part du produit social
accumulé ne provient pas du sacrifice que consentent les
riches capitalistes qui ne consomment pas la totalité de leur
revenu, mais de la part croissante non rémunérée du travail
des salariés.
2.2. La conception schumpétérienne : le rôle des
innovations technologiques
Joseph Aloys Schumpeter, le néoclassique hétérodoxe par
excellence, rejoint sur bien des points l’analyse de K. Marx.
Comme lui, il distingue dans le cadre de l’économie
capitaliste l’état stationnaire théorique, qu’il désigne par le
terme de circuit ou flux circulaire, et l’évolution
économique9 ou dynamique économique, dite encore
développement économique. L’économie à flux circulaire
est une société dans laquelle il n’y a aucun changement
technologique. C’est la reproduction simple de K. Marx. La
dynamique ou bien le développement économique
correspond à une société dans laquelle les innovations
technologiques, mises en œuvre par des entrepreneurs
dynamiques qui prennent des risques dans une perspective
de profit rémunérateur, sont le moteur du changement et de
la croissance du produit social.
On rappellera que ces innovations technologiques chez
Schumpeter relèvent de cinq catégories différentes : la
production de nouveaux biens, l’introduction de nouvelles
méthodes de production, l’ouverture de nouveaux marchés à
la découverte et à la conquête de nouvelles sources de
matières premières et, enfin, une nouvelle organisation pour
l’industrie.
Les idées de Schumpeter reprendront vigueur avec le
courant de l’économie évolutionniste. De son côté,
l’institutionnaliste et historien de l’économie Douglass C.
North fait observer que les innovations ne tombent pas du
ciel, leur rythme en tout cas dépend de l’existence ou non
d’institutions stimulantes ou incitatrices, au premier rang
desquelles il place le droit de propriété ou le droit de
percevoir un revenu en contrepartie des efforts de recherche.
Il écrit :
« Qu’est-ce qui détermine le développement des nouvelles
technologies et des connaissances scientifiques
fondamentales ? Bien que son rendement social ait toujours
été élevé, le développement du progrès technique fut lent
tant qu’il n’exista pas un mécanisme permettant d’attribuer
son rendement privé aux inventeurs […]. Les inventions
existent depuis toujours, mais leur rythme lent et
intermittent s’explique par le caractère sporadique de
l’incitation à la recherche. En outre, les innovations
pouvaient facilement être copiées sans que l’inventeur ou
l’innovateur ne puisse en retirer les bénéfices. Jusqu’aux
temps modernes, l’absence de protection systématique des
inventions est la cause essentielle de la lenteur du progrès
technique. »
Douglass C. North : Structure and Change in Economic
History, Norton, 1981.
2.3. Le modèle Harrod-Domar
J.M. Keynes étant plus porté sur le court terme, il revient
à son disciple Roy Forbes Harrod10, en 1939, d’étendre les
outils de la théorie keynésienne à la croissance dans une
perspective de long terme. Evsey Domar11, aux États-Unis
en 1947, poursuit, pas longtemps il faut bien l’admettre,
cette orientation qui conduit Harrod à corriger sa première
version en 1948 dans Toward a Dynamic Economics. La
littérature réunit ces différentes contributions sous
l’expression « modèle Harrod-Domar ». L’intérêt de ce
modèle est de prendre en compte à la fois l’effet de court
terme de l’investissement (effet multiplicateur) concernant
l’augmentation de la demande qui s’adresse aux entreprises,
ainsi que l’effet de long terme d’augmentation de capacité
de production. Pour avoir une croissance équilibrée il est
nécessaire que ses deux effets ne soient pas divergents. Le
pessimisme keynésien affleure quant à la possibilité
d’obtenir une croissance équilibrée (stable), durable et de
plein-emploi (stabilité ou équilibre sur le fil du rasoir).
Avec des hypothèses acceptables en courte période
(complémentarité des facteurs de production, constance de
la propension à épargner et du coefficient de capital – K/Y),
mais discutable pour la longue période, le modèle de Harrod
indique que pour obtenir une croissance équilibrée, il faut
que le taux de croissance garanti gw soit égal au rapport
entre la propension marginale à épargner (s) et le coefficient
moyen de capital (v). Ce taux garanti n’est pas certain de
devenir le taux effectif, car rien n’oblige les investisseurs
individuels et autonomes à respecter ce rapport. De même, il
n’y a rien qui assure que le taux garanti soit le taux de
croissance de la population active afin d’éviter la croissance
du chômage. Si on a :
gw = (s/v), on peut écrire :
v – gw = s
Compte tenu de l’hypothèse de la constance de v, il
résulte de cette relation que la seule façon d’augmenter le
taux de croissance est d’augmenter l’épargne. On est alors
loin de l’euthanasie du rentier que prônait Keynes. Ce rôle
de l’épargne comme variable d’ajustement n’apparaît en fait
qu’avec les modèles postkeynésiens de croissance (ceux
notamment de Joan Robinson N. Kaldor et Michal Kalecki),
moins pessimistes que celui de Harrod.
2.4. Le modèle de Solow-Swan
Les premières modélisations de la croissance, dans une
perspective normative (croissance optimale) avec pour
arrière-fond le modèle d’équilibre général de Walras
affranchi de la statique, apparaissent en 1928 avec Franck
Plumpton Ramsey12 puis, en 1937, avec John von Neumann
(version en anglais publiée dans Review of Economic
Studies, en 1945)13. Dans son article rapporté et que publie
J.M. Keynes, F.P. Ramsey, raisonnant dans le cadre d’une
économie fictive gérée par un planificateur social, cherche
une réponse à la question : « Quel est le taux d’épargne
optimal dans une société ? » qui est à l’origine des modèles
de croissance optimale avec définition de la règle d’or. On
notera que Keynes a accepté l’idée classique de Ramsey
présentant l’épargne comme ce qui permet de financer
l’investissement qui, à son tour, permet la croissance de la
production. En quoi consiste alors la règle d’or qui recevra
différents énoncés bien plus tard14 ? Il s’agit de trouver le
taux d’épargne qui assure un sentier de croissance équilibrée
qui maximise la consommation/tête, celle-ci étant supposée
constituer le critère du bien-être social.
Avec J. von Neumann, la règle d’or est l’égalité entre le
taux de rendement du capital et le taux de croissance naturel
correspondant à la croissance démographique. La définition
de la règle d’or reviendra dans les années 1960 dans le
prolongement de la nouvelle modélisation néoclassique de
la croissance dite Solow-Swan, qui a été développée après
les tentatives d’inspiration keynésienne.
Avec E.S. Phelps, la règle d’or s’énonce ainsi : « Le stock
de capital qui maximise la consommation par tête est tel que
la productivité marginale nette du capital est égale au taux
de croissance de l’économie. » Plus rigoureusement, le taux
de croissance équilibrée est obtenu lorsque sont satisfaites
les trois conditions suivantes : égalité entre le taux de
croissance équilibrée et la productivité marginale du capital,
rémunération du capital à ce taux de croissance de la
population, taux d’épargne égal à la part des profits dans le
revenu.
Le retour à la dynamisation du modèle d’équilibre
général de Walras a été opéré à la faveur de la mise en
évidence des limites des modèles postkeynésiens de la
croissance. Le renouveau néoclassique après cette
parenthèse keynésienne est dû à trois auteurs qui, de
manière indépendante, entre 1955 et 1956, abandonnent la
fonction de production keynésienne à combinaison rigide
des facteurs, optant pour une fonction à substituabilité des
facteurs. Bien que Jan Tinbergen ait conçu un modèle de
croissance avec une fonction de production néoclassique et
une estimation empirique de ses paramètres en 194215, on
admet plus souvent que le précurseur de la modélisation
néoclassique est James Tobin en 195516. Son modèle qui
introduit la monnaie, la grande oubliée dans cette histoire
des facteurs de la croissance, n’explique pas comment
obtenir une stabilité de la croissance équilibrée. Le
fondateur reconnu des modèles néoclassiques de la
croissance est Robert Solow17 qui publie son fameux article
en février 1956 dans le QJE. L’Australien Trévor Swan18
propose quasiment le même modèle la même année, mais en
décembre, ce qui justifie l’appellation « modèle de
croissance Solow-Swan ».
Le pessimisme Harrodien disparaît avec le raisonnement
en termes de prix : la croissance équilibrée de plein-emploi
est possible, puisque à une augmentation de la population
active pour un niveau de production donné correspondra la
baisse du salaire qui réalisera l’ajustement, évitant ainsi le
sous-emploi. Cela a aussi pour conséquence de diminuer le
capital par tête, puisque le capital global K reste constant
alors que L augmente. Un tel phénomène correspond à un
appauvrissement. De la même manière, une hausse du taux
d’épargne, entraîne une augmentation de l’intensité
capitalistique (rapport K/L) se traduisant par
l’enrichissement de la population active.
Le modèle de Solow comporte plusieurs hypothèses
simplificatrices :
1) l’économie ne produit qu’un seul bien,
2) la fonction de production agrégée continue est à deux
facteurs substituables Y = F (K, L). Elle est homogène et de
degré un qui signifie des rendements d’échelle constants.
Cette fonction respecte les six conditions d’Inada19 qui
garantissent l’existence d’une solution strictement positive
au problème :
a. La production est nulle lorsque la quantité d’un des
deux facteurs est nulle.
b. La production tend vers l’infini lorsque la quantité
d’un des deux facteurs tend vers l’infini.
c. La productivité marginale des deux facteurs de
production est positive.
d. La productivité marginale des deux facteurs de
production est décroissante, ce qui conduit à l’état
stationnaire.
e. La productivité marginale de chaque facteur devient
très forte (tend vers l’infini) lorsque la quantité est très
faible (tend vers zéro).
f. La productivité marginale de chaque facteur devient
très faible (tend vers zéro) lorsque la quantité est très forte
(tend vers l’infini).

3) L’épargne, déduite de la fonction de consommation


keynésienne est proportionnelle au revenu S = sY avec 0
< s < 1 ; toute l’épargne est investie I = S, qui peut
s’écrire I = sY
4) Le capital accumulé se déprécie à un taux constant.
5) La population active augmente de façon exogène au
taux constant n.
6) Le marché est parfaitement concurrentiel, en économie
fermée.
7) L’État est absent.
8) Le progrès technique est ignoré dans une première
phase, puis il est introduit et considéré comme exogène.

Afin de faciliter l’analyse, le raisonnement se fait avec


une fonction de production rapportée au travail :
- le produit par tête y = Y/L,
- le capital par tête k = K/L,
- et de la même manière, l’investissement par tête i =
(I/L).
La production par tête s’écrit aussi :
Y/L = F (K/L, L/L) soit y = f (k)
La condition d’équilibre I = sY, devient I/L = sf (k).
L’investissement total, dans une formulation dynamique
est la somme de l’augmentation du capital et de
l’amortissement.
En adoptant la formulation par tête, l’équation
fondamentale du modèle de Solow est alors :
k°t = sf (kt) – (n + δ) kt, avec k0 donné.
Le taux de croissance de l’intensité capitalistique par tête
étant égal au taux de croissance de l’intensité capitaliste
globale diminuée du taux de croissance démographique n, il
existe un équilibre stationnaire k* stable déterminé par
l’équation :
f (k*) = [(n + δ)/s] k*
Le capital par tête converge vers un état stationnaire. Une
fois cet état atteint, le capital et le travail croissent au même
taux n et l’économie se trouve sur un sentier de croissance
équilibrée.
En 1957, Solow propose d’introduire dans son modèle le
progrès technique exogène (a) mais qui dépend du temps
(t) :
Y = f [K, a (t), L]
La conclusion pour ce nouveau modèle est formulable en
ces termes : la production, la consommation et le stock de
capital agrégé croissent au taux g qui est la somme du taux
de croissance démographique (n) et du progrès technique
(a) :
g=n+a
En représentant l’évolution du produit par tête en
fonction du capital par tête, on obtient la courbe de la figure
8.2. On constate que la pente de la courbe, représentant la
croissance du revenu par tête en fonction de la croissance du
capital par tête, est d’autant plus faible que le revenu est
déjà élevé. L’hypothèse des rendements marginaux
décroissants conduit à la conclusion que l’économie croît de
moins en moins vite au fur et à mesure qu’elle accumule du
capital. Ceci constitue l’expression fondamentale du
phénomène de la convergence absolue : les pays pauvres
finiront par rattraper les pays riches. Dans les travaux
empiriques pour tester l’hypothèse de convergence, on
distingue la β-convergence ou convergence des niveaux de
revenu des différents pays et la σ-convergence qui mesure la
réduction des inégalités de revenu (le σ étant le symbole de
l’écart type). Par ce phénomène de convergence, il apparaît
donc que l’accumulation du capital ne permet qu’une
croissance transitoire, eu égard aux quatre contraintes
structurelles du modèle :
a le taux d’épargne est fixe ;
b le taux de croissance démographique est exogène ;
c le taux de progrès technique est exogène ;
d la technologie est une fonction de production à
facteurs substituables.

Figure 8.2
. : Fonction de production par travailleur
Si, sur une longue période, ce principe de convergence
absolue a pu donner lieu à un début de validation formulée
également sous l’expression de la théorie du rattrapage20, de
nos jours, on n’observe pas de corrélation négative entre le
revenu par tête d’un pays et son taux de croissance.
Certes, lorsqu’on examine les taux de croissance de la
Chine depuis 1978, ceux de l’Inde ensuite et ceux des NPI
(nouveaux pays industrialisés) de l’Asie du Sud et du Sud-
Est (Corée du Sud, Hong Kong, Singapour, Taiwan), la
thèse d’Alexander Gerschenkron21 se trouve validée : les
pays dits latecomers réalisent des taux de croissance plus
élevés que ceux constatés pour les pays développés au
moment de leur décollage économique au XIXe et au début
du XXe siècle. Déjà, dès la fin du XIXe siècle, les États-Unis
d’Amérique rattrapaient et dépassaient le Royaume-Uni,
économie pionnière qui semblait s’essouffler. Puis, c’est au
tour des autres pays de l’Europe de l’Ouest, de l’Australie,
de la Nouvelle-Zélande et du Japon. On a bien remarqué
aussi que les taux de croissance de quelques pays
développés semblent s’inscrire dans une tendance de
ralentissement, mais on a vu aussi que l’économie pionnière
britannique s’est réveillée dans les années 1980 et que
d’autres pays riches présentent un fort taux de croissance,
pendant que des pays plus pauvres affichent un taux de
croissance plus faible.
Lorsque les contraintes structurelles sont différentes, il
convient de parler de convergence conditionnelle et non
plus de convergence absolue. Les trajectoires de deux pays
peuvent être différentes dès que la technologie et/ou le taux
d’épargne sont différents. La figure 8.3. montre qu’avec la
même intensité capitalistique, grâce au progrès technique,
différents revenus par tête et différents taux de croissance de
ce revenu par tête sont possibles. Le progrès technique
augmente ainsi l’efficacité du capital. On parle dans ce cas
de figure de neutralité progrès technique au sens de Solow
pour la distinguer de la neutralité du progrès technique au
sens de Harrod (le progrès technique augmente l’efficacité
du travail) et au sens de Hicks (le progrès technique
augmente l’efficacité des deux facteurs).
Figure 8.3
. Modèle de Solow avec progrès technique
exogène
Le progrès technique a pour effet de compenser la baisse
de la productivité marginale du capital afin de maintenir un
taux de croissance (g) stable et égal à (n + a). Sur la figure
8.4., la courbe de taux de croissance se déplace sur la droite
par effet du progrès technique qui apparaît entre la période t0
et la période t1.
2.5. Les modèles de croissance endogène
Le modèle de Solow n’explique pas la croissance. Son
objet est de donner les valeurs des variables par tête à long
terme dans le cadre de la concurrence pure et parfaite. Cette
structure de marché exige, pour une croissance équilibrée
stationnaire, l’hypothèse de la décroissance de la
productivité marginale du capital. L’État absent par
hypothèse, Solow faisait du progrès technique une manne
tombée du ciel au lieu d’être un résultat de
Figure 8.4
. Taux de croissance avec progrès
technique exogène
l’apprentissage et/ou des dépenses de recherche et
développement financées par les pouvoirs publics. Or, on
sait depuis longtemps que la production peut augmenter
sans modification de la quantité de travail et de capital, ce
qui veut dire qu’il faut analyser ces autres facteurs pour
tenter de comprendre ce qui les détermine. Et on a eu
l’intuition depuis longtemps également que, par exemple,
les pays qui font de la recherche, ceux qui investissent dans
la formation de leur population – investissement en capital
humain –, ou ceux qui ont d’importantes infrastructures
publiques réalisent des taux de croissance plus élevés que
les autres et ont un revenu par tête plus élevé. Les travaux
pionniers pour expliquer le résidu de Solow ont été ceux
d’Aukrust-Bjerke22, Kendrick23, Denison-Poullier24 et Carré-
Dubois-Malinvaud25.
Il a cependant fallu attendre les années 1980 pour avoir
les premiers travaux formalisés dépassant la
comptabilisation des contributions des différents facteurs de
la croissance. Ces travaux portent sur l’endogénéisation des
éléments constitutifs du résidu de Solow (la croissance qui
ne s’explique pas par la variation du travail et du capital). Et
si l’on peut expliquer le progrès technique, si les éléments
qui le composent sont des variables déterminées (expliquées
ou encore endogènes), alors il sera possible d’envisager des
politiques économiques pour augmenter le niveau du revenu
par tête à long terme.
La modification du taux de croissance par la politique
économique est ce qui correspond à la notion de croissance
endogène. Il est donc possible d’échapper de la sorte au
pessimisme relatif du modèle de Solow. Il ne s’agit que d’un
pessimisme relatif en ce que la croissance du revenu par tête
cesse avec l’arrêt de la croissance exogène de la population,
non compensé par le progrès technique, et bien que les
mesures natalistes du type allocations familiales soient
connues et pratiquées dans un grand nombre de pays.
L’abandon de certaines des hypothèses du modèle de
Solow s’est avéré inévitable pour intégrer les vieilles
avancées théoriques plus conformes à la réalité : les
externalités technologiques évoquées dès 1890 par Alfred
Marshall, la théorie schumpétérienne de l’innovation et le
phénomène de l’apprentissage en travaillant (Learning by
doing) exposé par Kenneth Arrow en 1960. À l’origine de
ce renouveau, on retient généralement l’article de Paul
Romer publié en 1986 dans la revue JPE26. Les
investissements nouveaux conduisent à des modifications
des comportements, suscitent des nouvelles connaissances
(il est nécessaire d’apprendre à se servir des nouveaux
équipements) et améliorent la productivité dans le processus
productif. Mais la théorisation du phénomène de la
croissance endogène n’est véritablement consolidée
qu’après le surprenant article de Robert Lucas : « On the
Mechanics of Economic Development »27. La surprise tient
au fait que R. Lucas, en tant que théoricien des anticipations
rationnelles, avance que l’intervention de l’État dans le
domaine de la politique conjoncturelle est inutile, puisque
les individus anticipent les effets de cette politique, ce qui
aboutit à sa neutralisation, alors qu’il revalorise le rôle de
l’État pour ce qui est de la croissance obtenue par des
investissements en capital humain. Puis c’est au tour de
Robert Barro28, habituellement considéré comme l’un des
cofondateurs de la NEC, à susciter le même type de surprise
lorsqu’il considère l’investissement public dans les
infrastructures de transport et de télécommunication comme
un facteur primordial de la croissance, même s’il n’existe
pas de facteur qui garantisse la croissance. Les facteurs
institutionnels jouent aussi un rôle : un État de droit, la
garantie des droits de propriété, la liberté du commerce à
l’intérieur et dans les échanges internationaux sont des
facteurs favorables à la croissance. R. Barro rejoint R.
Lucas, comme il l’a d’ailleurs déjà fait avec les
anticipations rationnelles, en ajoutant aux infrastructures
publiques l’éducation et la santé parmi les autres facteurs
déterminants de la croissance. L’éducation et la santé sont
des investissements en capital humain dont la fonction est
d’améliorer l’efficacité des autres facteurs.
Cet aspect est surtout mis en valeur par l’important travail
empirique de Mankiw, Romer et Weil (1992). Le capital
humain joue le même rôle dans la production que le capital
physique. En termes simples, les auteurs montrent que plus
le niveau de formation est élevé, plus la force de travail est
efficace, à technologie constante ; ceci permet, d’une part,
de compenser les rendements décroissants du capital
physique et, d’autre part, de soutenir la croissance sur le
long terme. Ce travail empirique a reposé sur l’analyse de
données des taux de scolarisation des 12-17 ans sur la
période 1960-1985, et son effet sur le niveau du PIB par tête
en 1985.
Comme le faisait remarquer P. Romer, l’intervention de
l’État est inévitable du fait notamment des externalités
positives qui n’incitent pas les entreprises qui en sont à
l’origine à développer les investissements de R & D de
manière optimale pour la société, puisqu’il n’existe pas de
procédure de marché pour permettre à l’entreprise de
récupérer la totalité des bénéfices. L’entreprise qui innove
ne peut pas cacher son innovation qui est alors imitable par
tout concurrent sans bourse délier. L’information
scientifique et technique est en effet un bien collectif, un
bien non rival avec une exclusion très limitée dans le temps.
La nouveauté technologique dans une firme qui a investi de
manière privée dans la R & D finit par être connue des
autres firmes qui, en disposant de cette connaissance mais
sans avoir investi dans la R & D, réalisent une économie
externe les mettant en situation de faire de meilleurs
résultats que celle qui a assumé tous les coûts de la R & D.
On sait en effet que par le jeu des externalités positives, le
bénéfice social (ou bien-être collectif) est plus grand que le
bénéfice privé de celui qui est à l’origine de l’effet. Par
conséquent, une politique publique incitative (protection de
la propriété industrielle – brevet –, subvention, fiscalité
avantageuse, garanties des emprunts pour financer la R &
D, etc.) à l’investissement dans la R & D, ainsi que les
investissements publics directs dans la R & D peuvent
engendrer une augmentation du bien-être collectif.
Les travaux empiriques tendent à donner crédit à ces
nouvelles théories de la croissance mais en les relativisant.
Par exemple, si Jie Zhang29 a montré que les subventions
publiques à l’éducation privée favorisent la croissance, en
revanche, un peu plus tôt, Mukti P. Upadhyay30 a montré que
les subventions publiques peuvent produire trop d’éducation
de haut niveau, engendrant une insuffisance de travailleurs
non qualifiés bloquant à terme la croissance. Dans leur
rapport au Conseil d’analyse économique de janvier 2004,
Philippe Aghion et Élie Cohen avancent l’hypothèse que le
rôle de l’éducation dépend du niveau de développement
économique. Dans le rapport Productivité et croissance de
Patrick Artus et Gilbert Cette au Conseil d’analyse
économique (juin 2004, Documentation française), le
complément économétrique apporté par Belorgey, Lecat et
Maury, en s’appuyant sur un large panel de pays, valide les
hypothèses de la théorie de la croissance endogène en
montrant que les différences de niveau de productivité entre
pays sont liées aux écarts de développement des
infrastructures publiques, aux écarts de variations de
l’importance de la production et de la diffusion des TIC
(technologie de l’information et de la communication) et
aux écarts de scolarisation. À ces écarts sur des variables
présentées ci-dessus, les auteurs relèvent le rôle de variables
macroéconomiques sur le niveau de la productivité et la
différence des taux de croissance de cette productivité par
pays comme, par exemple, le taux d’emploi (dont
l’influence est négative), et la variabilité de l’inflation (dont
l’influence est également négative) et la durée du travail
(avec des rendements très fortement décroissants). Comme
l’indique Gilbert Cette dans son rapport, ces résultats
confirment, en tout cas pour les années 1970-2002,
l’influence déterminante des investissements publics, des
investissements privés tout particulièrement en produits
TIC, des structures favorisant la mobilisation de l’épargne
(ici l’importance des crédits) et de la stabilité des prix. Mais
comme le signalent Acemoglu-Aghion-Zilibotti (2002), les
institutions les plus favorables à la croissance varient selon
le niveau du développement économique déjà atteint31.
Lorsque le pays a un faible niveau de revenu par tête, les
institutions ou politiques d’investissement sont efficaces,
tandis que pour des pays déjà développés, il faut faire place
aux institutions ou politiques d’innovation. En termes de
variable de l’éducation, cela signifie que le développement
de l’enseignement supérieur et de la recherche devra
s’imposer dans les pays développés qui sont sur la frontière
technologique, tandis que pour les pays loin de la frontière
technologique, leur stratégie devra être d’imiter les pays
développés, ce qui passe par des investissements dans la
formation élémentaire et secondaire. En d’autres termes,
dans les pays moins développés « l’investissement dans
l’éducation supérieure n’est pas une priorité »32.
1 Les principaux théoriciens ou travaux initiateurs du thème de la décroissance
sont : Robert Malthus en tant que précurseur, les travaux du Club de Rome
(Halte à la croissance, 1969) ; Nicholas Georgescu-Roegen, auteur du concept
de décroissance dans le titre de son livre publié en 1979 : Demain la
décroissance. Entropie, écologie, économie, Lausanne ; Pierre-Marcel Favre,
1979, dont les idées essentielles étaient déjà formulées dans Analytical
economics. Issues and Problems. Cambridge, HUP. Traduit en français sous le
titre La Science économique : ses problèmes et ses difficultés, Paris, Dunod,
1970 ; Serge Latouche, Le Pari de la décroissance, Paris, Fayard, 2006.
2 Nicholas Kaldor, « Economic Growth and Capital Accumulation », in F.
Lutz et D. C. Hague, eds, The Theory of Capital, Macmillan, London,1961.
3 Il y a une légère différence dans les calculs : La PTF est obtenue avec pour
dénominateur la moyenne géométrique pondérée des facteurs de production,
alors que la PGF résulte d’une moyenne arithmétique. Cf. Paul Dubois, «
Production et productivité », in X. Greffe, J. Mairesse, J.L. Reiffers,
Encyclopédie économique, Paris, Economica, 1990, tome 1, pp. 817-846.
4 V. Zarnowitz, « Recent Work on Business Cycles in Historical Perspective :
A review of Theories and Evidence », The Journal of Economic Literature 23,
pp. 523-580. 1985.
5 La parité de pouvoir d’achat (PPA) permet de mesurer la quantité de biens et
services qu’une devise permet d’acheter dans chacune des économies ayant des
monnaies différentes.
6 Xavier Sala I Martin, « 15 Years of New Growth Economics : What Have
We Learnt ? », UPF Economics and Business Working Paper, n° 620, 3 Juin,
2002.
7 En particulier le fameux opuscule de Max Weber : L’Éthique protestante et
l’esprit du capitalisme, 1904, ou celui de Werner Sombart : Le Capitalisme
moderne, 1916.
8 Cf. pour une présentation détaillée : Jean Arrous, Les Théories de la
croissance : La pensée économique contemporaine, t. 3, coll. Points, Le Seuil,
1999.
9 J.A. Schumpeter, Théorie de l’évolution économique, 1912, traduction
française (1935, retirage 2003), Dalloz, Paris.
10 « An Essay in Dynamic Theory », Economic Journal, 1939.
11 « Expansion and Employment », AER, 1947.
12 F.P. Ramsay, « A Mathemathical Theory of Saving », Economic Journal,
déc. 1928, vol. 38, n° 152, pp. 543-559.
13 J. von Neumann, « A Model of General Equilibrium », R. E. Studies, XIII,
1945-46.
14 Edmund S. Phelps (« The Golden Rule of Accumulation : A Fable for
Growthmen », AER, vol. 51, pp. 638-643, 1961), Jacques Desrousseaux («
Expansion stable et taux d’intérêt optimal », Annales des Mines, pp. 31-46,
novembre 1961), M. Allais (« The Influence of the Capital-Output Ratio on Real
National Income », Econometrica, vol. 30, pp. 700-728, 1962), Joan V. Robinson
(« A Neoclassical Theorem », Review of Economic Studies, vol. 29, pp. 219-226,
1962), etc. Comme le rappelle le dossier d’attribution du prix Nobel à E. Phelps,
le problème de l’accumulation optimale du capital a été analysé par Edmond
Malinvaud dès 1953 (« Capital Accumulation and Efficient Allocation of
Resources », Econometrica, vol. 21, pp. 233-273).
15 La version anglaise de l’article écrit en flamand est publiée en 1959 dans
L.H. Klaassen, L.M. Koyck et H.J. Witteveen, editors, Jan Tinbergen : Selected
Papers, Amsterdam.
16 J. Tobin, « A Dynamic Aggregative Model », Journal of Political
Economy, vol. 63 (2), pp. 103-15, 1955.
17 R.M. Solow, « A Contribution to the Theory of Economic Growth »,
Quarterly Journal of Economics, vol. 70 (1), pp. 65-94, 1956.
18 T.W. Swan, « Economic Growth and Capital Accumulation », Economic
Record, vol. 32 (2), pp. 334-61, 1956.
19 Ken-Ichi Inada, « On a Two-Sector Model of Economic Growth :
Comments and a Generalization », REStudies, vol. 30 (2), 1963.
20 Le rattrapage qui conduit à l’égalisation internationale des rendements des
facteurs est obtenu par le jeu des rendements décroissants dans les pays riches et
par l’usage de raccourcis technologiques dans les pays qui décollent plus
tardivement (latecomers).
21 Alexander Gerschenkron, Economic Backwardness in Historical
Perspective, Cambridge (Mass.), Harvard University Press, 1962.
22 Odd Aukrust and Juul Bjerke : « Real Capital. and Economic Growth in
Norway 1900-1956 », article, n° 4, Central Bureau of Statistics, Oslo, 1958.
23 John W. Kendrick, Productivity Trends in the United States, Princeton
University Press, 1961 pour le NBER.
24 Edward F. Denison et Jean-Pierre Poullier, Why Growth Rates Differ ?
Brookings Institution (Washington), 1967.
25 Jean-Jacques Carré, Paul Dubois et Edmond Malinvaud : Abrégé de la
croissance française, Un essai d’analyse économique causale de l’après-guerre,
Le Seuil, 1973.
26 Paul Michael Romer, « Increasing Returns and Long Run Growth »,
Journal of Political Economy, vol. 94, n° 5, octobre, 1986, pp 1002-37.
27 Robert Jr., Lucas, « On the Mechanics of Economic Development »,
Journal of Monetary Economics, Elsevier, vol. 22, n° 1, juillet 1988, pp. 3-42.
28 R. Barro, « Government Spending in a Simple Model of Endogenous
Growth », Journal of Political Economy, 1990.
29 Jie Zhang, « Optimal Public Investments in Education and Endogenous
Growth », Scandinavian Journal of Economics, 98, 3, pp. 387-404, 1996.
30 Mukti P. Upadhyay, « Accumulation of Human Capital in LDCs in the
Presence of Unemplyment », Economica, vol. 61 (241), pp. 355-78, août 1994
(trad. de LDCs : pays moins développés).
31 D. Acemoglu P. Aghion et F. Zibilotti : « Distance to Frontier, Selection
and Economic Growth », NBER Working Paper, n° 9191, 2002. L’essentiel du
contenu de ce document est repris dans Philippe Aghion et Elie Cohen ,
Education et croissance, rapport au Conseil d’analyse économique, n° 46, La
Documentation Française, juin 2004.
32 Aghion et Cohen, op.cit., pp. 29.
Chapitre 9
Les fluctuations économiques
L’objet de ce chapitre est de présenter les notions
essentielles pour comprendre la dynamique économique. La
première section exposera les différentes formes d’évolution
des données économiques. La deuxième section sera
consacrée à la présentation des principales causes exogènes
des fluctuations économiques, dites encore oscillations de
l’activité économiques. La troisième section présentera les
grandes catégories de cycles de l’activité économique. La
quatrième section abordera les méthodes de diagnostic
conjoncturel.
1. Les différentes catégories de fluctuation de l’activité
économique
L’activité n’est jamais en croissance continue et linéaire.
Elle n’est même pas permanente. Elle obéit à des rythmes1.
Déjà la Bible indiquait le rythme journalier et
hebdomadaire : « Et vint un soir et vint un matin : premier
jour2… et il s’est mis à se reposer le septième jour de toute
son œuvre qu’il avait faite. » (Genèse 1, I 5-II 3). L’activité
humaine, elle aussi, est soumise à une variabilité au cours
du temps : la journée, la semaine, le mois, la saison, l’année,
ou la génération. Ces rythmes peuvent avoir une base
sociale, cultuelle, climatique ou autre. Par exemple, la
consommation d’énergie n’est pas constante en cours de
journée. Il existe une alternance de périodes de forte
consommation, qui sont appelées les heures de pointes, et
celles de faible consommation ou heures creuses. Le même
phénomène se rencontre dans le transport de personnes (tout
autant individuel que collectif), la consommation de
programmes télévisés, etc. Dans le domaine de la
consommation des biens courants, il est possible de mettre
en évidence un pic des dépenses en début de mois et un
ralentissement dans la deuxième quinzaine dans les pays
ayant adopté la mensualisation des salaires. En France, la
consommation de films dans les cinémas et la
consommation de programmes de télévision sont
relativement faibles de fin mai à fin août. Le prix d’un kilo
de fraises en hiver, i.e. hors saison, est généralement plus
cher qu’en fin de printemps qui est la pleine saison dans
l’hémisphère Nord. Autres exemples d’activités
saisonnières que les étudiants sont en mesure de vérifier : la
parution de la presse quotidienne gratuite dans les périodes
d’activité universitaire, les activités de sports d’hiver dans
les Alpes.
Les mouvements économiques journaliers,
hebdomadaires, mensuels ou saisonniers sont prévisibles et,
par conséquent, ils ne sont pas surprenants pour les agents
économiques et pour les pouvoirs publics. Au-delà de ces
observations banales parfaitement maîtrisées et suscitant
une gestion programmable, l’analyse économique
s’intéresse surtout aux phénomènes perturbateurs de la
croissance économique, difficilement prévisibles, et qui sont
d’une tout autre ampleur par les problèmes sociaux qu’ils
engendrent comme le chômage, la précarité et la baisse du
revenu, sans toujours pouvoir leur donner des solutions
rapides. Leurs causes peuvent être externes ou exogènes au
jeu de l’économie, mais aussi internes ou endogènes à la
sphère de l’économie.
Il faut encore distinguer les fluctuations économiques
globales ou générales qui touchent l’ensemble de
l’économie, et les fluctuations spécifiques à un secteur
d’activité économique avec de faibles répercussions sur le
reste de l’économie. Mais deux ou trois secteurs peuvent
avoir des fluctuations spécifiques susceptibles d’expliquer
par leur opposition de phases un amortissement de leurs
effets sur le reste de l’économie. Il peut aussi arriver que les
fluctuations soient en phase et engendrent un effet de
résonance, i.e. une amplification des fluctuations générales.
Ces deux phénomènes s’observent aussi au niveau
international, par comparaison des niveaux d’activité de
plusieurs pays. Le phénomène le plus courant est l’existence
d’un secteur moteur ou leader, ou d’un pays leader. Les
autres secteurs ou pays deviennent suiveurs, produisant
alors un décalage conjoncturel pour leur taux de croissance
de leur valeur ajoutée brute ou de leur PIB (g).

Figure 9.1
. Formes de fluctuations pour deux
secteurs ou deux pays
Avant d’analyser les causes des fluctuations économiques
générales, il est nécessaire d’identifier dans les données
temporelles des grandeurs économiques ces variations de
l’activité économique qui ne sont pas saisonnières. Il s’agit
alors de procéder à la désaisonnalisation de la série
chronologique.
2. Les chocs exogènes sur l’économie
Le rythme de la croissance peut être affecté par des chocs
exogènes (induits par l’environnement extra-économique)
de caractère plus ou moins cyclique au sens de leur
récurrence qui se manifeste suivant une périodicité et selon
une amplitude entre le creux et le sommet de l’activité plus
ou moins régulières ou constantes. Il peut s’agir d’une
concomitance sans explication sur la relation entre les
phénomènes, comme par exemple les cycles des tâches
solaires (théorie de William Stanley Jevons). Mais le plus
souvent, la relation de détermination est argumentée. Ces
chocs sont de natures les plus diverses. Ils peuvent avoir
pour origine :
- les élections de niveau national qui se font à
intervalles réguliers et qui suscitent, dans ce cas,
des cycles politico-économiques (cf. chapitre 2) ;
- les changements climatiques qui obéissent à des
cycles. Les auteurs associés à l’étude de ces cycles
d’origine climatique sont principalement William
Stanley Jevons, Henry Ludwell Moore, Johan
Henryk Åkerman et Raymond Wheeler. Mais c’est
dans la Bible (la Thora ou Pentateuque) que l’on
trouve la première formulation du phénomène du
cycle climatique avec l’apologue de Joseph, dit «
des sept vaches grasses et des sept vaches maigres
», métaphore qui désigne, par évaluation du niveau
des eaux du Nil en fonction des pluies en amont et
de la période de sécheresse, le nombre d’années (7
vaches) de pléthore et de disette ;
- les évolutions démographiques qui sont à la base de
la théorie de Robert Malthus et la théorie du cycle
de fécondité, plus connue sous l’expression de
cycle d’Easterlin. Pour Malthus, nous avons déjà
exposé sa théorie démo-économique. En résumé,
l’évolution démographique cyclique en fonction des
subsistances disponibles par tête engendre un cycle
de l’activité générale. Richard A. Easterlin, dans
plusieurs publications3, actualise cette approche sur
des bases empiriques pour les États-Unis, mais sans
reprendre la théorie du salaire naturel minimal et de
la forte mortalité infantile qui lui est associée. Dans
le monde moderne, les familles peuvent planifier
les naissances, et les cohortes sont fonction des
niveaux de vie et de la facilité d’accès au marché
du travail de la cohorte précédente. Par exemple,
une insertion difficile sur le marché du travail et
une dégradation du niveau de vie par rapport à celui
des parents conduisent à une faible fécondité, au
développement du travail des femmes, tandis
qu’une amélioration sur ces deux chapitres – un
haut niveau de vie et une insertion facile sur le
marché du travail – est suivie d’une augmentation
de la fécondité ;
- les conflits entre les nations, mais leur caractère
récurrent n’est pas pour autant cyclique. Une
multitude d’autres chocs sont envisageables dont
les innovations technologiques déjà présentées dans
le chapitre 8mais sur lesquelles nous reviendrons
plus loin.
Pour les économistes de la théorie des cycles réels4, les
chocs ont des effets durables sur la croissance. Un choc
déclenche des fluctuations ou des oscillations qui
s’amortissent au cours du temps, mais l’économie ne
retrouve pas le sentier ou sa tendance à long terme identifiée
avant ledit choc. Cette théorie qui ignore les problèmes
monétaires et financiers a suscité diverses critiques.
La première critique est la contestation du réductionnisme
qui voit dans toute fluctuation la conséquence d’un choc
réel, car il n’y a pas que des cycles réels. Dans le cadre de
cette critique, on affirme que les variables monétaires et
financières ne sont pas sans effet sur la sphère réelle de
l’économie. Il suffira d’évoquer la crise financière avec le
krach qui s’est produit entre le 15 et le 22 septembre 2008 et
ses répercussions sur l’activité économique de la plupart des
pays pour exprimer la portée limitée de cette théorie des
cycles réels, qui revient à l’économie prékeynésienne. En
effet, lorsque les banques subissent une perte abyssale de la
valeur de leur patrimoine du fait de la chute des cours en
bourse, il y a une forte probabilité qu’elles ne se
comporteront pas pour les demandes de prêts qu’elles
recevront des investisseurs avec autant de nonchalance ou
d’insouciance que dans la phase qui précède le krach, celui
du paradoxe de tranquillité qu’évoque H. Minsky pour
expliquer les crises financières. Pour les ménages ayant
placé leur épargne financière sur des actifs en unités de
compte plutôt que sur des valeurs en monnaie de
transaction, la chute des cours entraîne celle de la valeur de
leur patrimoine. La reconstitution de l’épargne pour des
projets futurs programmés obligera certains à envisager une
diminution de leur consommation, ce qui n’est pas sans
effets sur l’économie réelle, sauf si la baisse des cours est
accompagnée d’une baisse générale des prix, l’encaisse
réelle restant alors stable.
3. Les théories des fluctuations endogènes et les cycles
généraux de l’économie
Les fluctuations du taux de croissance peuvent avoir des
origines internes à la logique économique. Plusieurs
théories ont été proposées dans le passé débouchant, dans
certains cas, sur des conceptions de cycles périodiques
généraux à périodicité variable selon la nature des causes de
la cyclicité.
Les décalages entre la perception du revenu et la dépense
(retard de Robertson), entre la dépense et la mise en œuvre
de la production (retard de Lundberg), les délais
d’ajustement en général, les mauvaises anticipations des
agents, la mobilité imparfaite des fac-teurs de production et
diverses autres rigidités sont les phénomènes le plus souvent
évoqués dans la persistance des fluctuations économiques.
3.1. Les phases du cycle des affaires
Les cycles économiques sont des fluctuations plus ou
moins régulières, de fréquences relativement périodiques et
d’amplitudes plus ou moins fixes de l’activité économique.
Les fluctuations cycliques sont, théoriquement, telles que le
graphique des indicateurs retenus (PIB, taux de croissance
du PIB, production industrielle, production agricole, etc.) en
fonction du temps ait une allure sinusoïdale, comme
l’indique la figure 9.2.
Fig. 9.2
. Cycle et la tendance
Le cycle comprend quatre phases : l’expansion, la crise,
la contraction, la reprise.
1 – L’expansion qui a pour synonymes prospérité, essor,
boum des affaires, est une phase d’augmentation du PIB,
avec des taux de croissance soutenus sur plusieurs années
(de 3 à 6 ans). Dans cette phase, les revenus, les
investissements, l’emploi, la consommation sont tous
orientés à la hausse, et cela très fortement au début du
processus. Toute demande de prêt ou de crédit est accordée
sans difficulté. Les taux d’intérêt sont au début de
l’expansion très bas, mais commencent à se tendre par la
suite, ce qui annonce la fin prochaine de l’expansion. Les
prix ont tendance à augmenter, faiblement au début, puis
plus fortement par la suite. Cette évolution des prix
conjuguée avec celle des taux de l’intérêt, s’accompagne du
ralentissement de l’investissement et du taux de croissance.
2 – La crise exprime la fin de l’expansion. C’est un
moment d’incertitude : l’économie va-t-elle repartir sur son
sentier d’expansion ou bien les gains de cette phase
d’expansion seront-ils remis en question ? Elle correspond
au sommet ou pic dans l’évolution du PIB. Dans le langage
courant, la crise est souvent confondue avec les problèmes
qui l’accompagnent et qui ne se manifestent que dans la
phase suivante de récession ou de dépression. Le terme crise
vient du grec krisis qui signifie décision. La crise est donc
un moment très court d’incertitude sur l’évolution de
l’économie qui peut aussi bien reprendre son expansion,
stagner ou revenir vers des niveaux de production et de
revenu plus faibles. Au cours du XIXe siècle et du début du
XXe siècle, les crises se sont succédé avec une périodicité de
10 ans environ : 1825, 1836, 1847, 1857, 1866, 1873, 1882,
1890, 1900, 1913, 1920, 1929.
Entre 1945 et 1973, les récessions ont remplacé les crises.
Il s’agit alors seulement d’une baisse du taux de croissance
exprimant un ralentissement de la croissance du PIB. La
récession comme perte de ce qui a été obtenu, i.e. de baisse
du niveau absolu du PIB, est réapparue à partir de 1973-
1974, suite au premier choc pétrolier (quadruplement du
prix du pétrole). Une nouvelle récession avec diminution du
PIB se produit avec le deuxième choc pétrolier de 1979-
1980 (doublement du prix du pétrole). Une troisième
récession est observée à la suite de la guerre de Golfe qui a
suivi l’invasion du Koweit par l’Irak en 1991, avec des
manifestations plus tardives en Europe par rapport aux
États-Unis.
3 – La contraction est une phase de diminution de
l’activité économique. Elle peut être soit une récession (qui
signifie aller en arrière) enregistrée en tant que telle après
deux trimestres consécutifs à taux de croissance négatif et
qui dure peu de temps, soit une dépression qui correspond à
une diminution plus sensible du taux de croissance, et cela
sur une plus longue période que l’année. Dans la phase de
contraction grave, des entreprises disparaissent, des emplois
sont détruits, le crédit est plus difficile à obtenir, la hausse
des prix est ralentie et laisse même la place à la déflation.
Mais la récession qui a suivi la crise de 1973 présente
l’originalité d’associer la hausse des prix avec les faillites et
le chômage. C’est ce que les Anglo-Saxons ont appelé la
Slumpflation (slump = dépression) que l’on peut traduire par
depflation et qui a fait suite à la stagflation apparue en
Grande Bretagne dès 1967.
La dépression rencontre un plancher constitué par les
dépenses incompressibles des ménages et des
administrations publiques. Mais il est probable qu’un
important désengagement de l’État puisse faire que ce
plancher soit très bas, sans pour autant nier qu’un déficit
public puisse être accompagné d’un effet d’éviction des
particuliers, avec en plus des ménages qui augmenteront
leur épargne pour payer les impôts futurs destinés au
remboursement des emprunts publics suscités par ce déficit,
comme l’indique l’axiome d’équivalence ricardienne entre
l’impôt et l’emprunt.
4 – La reprise apparaît à la fin de la récession ou de la
dépression. Cette reprise, et comme cela a été indiqué ci-
dessus, peut être automatique, par renouvellement des
équipements et reconstitution des stocks, mais elle peut
aussi résulter du comportement des investisseurs qui se
présentent pour emprunter, les taux d’intérêt ayant
fortement baissé au cours de la phase de contraction. Des
mesures de relance prises par les pouvoirs publics,
l’existence de nouvelles opportunités et le lancement de
nouveaux produits sont les divers autres facteurs de la
reprise. La reprise est aussi la conséquence des mesures
adoptées par les entreprises pour sortir de la dépression ou
de la récession.
La droite ajustée sur les différentes valeurs du PIB au
cours du temps constitue la tendance (ou trend en anglais).
L’ajustement graphique peut être fait à main levée entre les
points bas des fluctuations et les points élevés. Pour une
prévision plus rigoureuse des valeurs probables de la
prochaine période, on utilise différentes méthodes
économétriques (moyenne mobile, régression linéaire par
les moindres carrés, etc.),
3.2. La typologie des cycles généraux
Les cycles observés ne correspondent pas toujours à la
définition théorique. L’amplitude est variable, la reprise ne
se fait pas toujours au même niveau que par le passé, sauf
dans les économies naturelles qui cultivent le cercle de
l’éternel retour. La crise se fait à des niveaux d’activité
variables et généralement de plus en plus élevés. La phase
de dépression de l’activité économique est plutôt rare, de
sorte que la crise, point de retournement, se transforme en
récession qui désigne une phase de moindre croissance. La
périodicité des crises et des reprises est variable. Les cycles
généraux du plus long au plus court, avec indication de
l’auteur qui les a révélés en premier suivant en cela
partiellement la classification schumpétérienne5, sont :
- les cycles de Wheeler, d’origine climatique, de 100,
500 et 1 000 ans. Ces cycles ont été présentés dans
le chapitre 4en exposant le facteur naturel. On
rappellera seulement que selon Raymond Wheeler,
il existerait des climats favorables au
développement des civilisations. Il convient de
noter que l’historien anglais Arnold Toynbee (1889-
1975), le neveu de l’analyste de la Révolution
industrielle qui s’appelle aussi Arnold Toynbee6, est
à l’origine de la mise en évidence de cycles de
même périodicité pour les civilisations. Il en a
identifié 21. La naissance et le développement
d’une civilisation reposent sur une minorité
créatrice et le déclin est la conséquence de
l’affaiblissement des forces, le tout s’inscrivant
dans la dialectique du défi et de la réponse
(challenge and response). Un monde sans défi à
surmonter serait un monde atone de l’état
stationnaire ;
- le cycle de Kondratief7 ou cycle de longue durée de
50 à 60 ans. Depuis 1790 à 1940, il y aurait eu trois
kondratief. Un quatrième aurait commencé en 1940
avec pour sommet 1970-1973 et se serait terminé
vers 1995-2000. Ses facteurs sont des plus variés,
mais J.A. Schumpeter considère que le kondratief
serait lié à des révolutions industrielles et
technologiques. Dans la phase de croissance, les
entreprises utilisent les technologies qui ont été
mises au point dans la phase B de contraction,
phase dans laquelle l’inquiétude générale pousse à
la recherche de nouvelles idées, de nouveaux
produits, de nouvelles techniques pour sortir du
marasme. Une fois ces solutions trouvées,
l’économie repart, et on ne voit pourquoi maintenir
le même effort de recherche que celui soutenu dans
la dépression, puisque l’économie n’a pas de
problème. Mais ces technologies s’essoufflent.
L’arrivée de la crise est le moment inévitable, si ce
n’est pas un phénomène indispensable, qui fait
prendre conscience qu’un changement est
nécessaire pour aller de l’avant : c’est ce que
Schumpeter appelle « le processus de la destruction
créatrice » qui résulte de l’innovation. Il distingue
l’innovation majeure qu’on assimile à la révolution
industrielle et les innovations de moindre ampleur
mais rattachées et qui en assurent la diffusion. Ce
sont les grappes technologiques. À partir d’une
innovation majeure partent des ramifications, une
arborescence avec une multitude de branches qui
correspondent à des innovations particulières. Par
exemple, le microprocesseur inventé par Marcian
Hoff en 1971 et qui a servi à la fabrication du
premier ordinateur Intel 4004 est, de nos jours, dans
un grand nombre de produits qui dépendent de
l’électronique, ces biens vont de la téléphonie à
l’internet en passant par les appareils
photographiques numériques, les machines outils à
commande numérique, etc ;
- le cycle de Hansen-Isard ou hypercycle ou cycle du
bâtiment et des transports8, d’une durée de 18 à 22
ans. Il est spécifique à la Grande-Bretagne et aux
États-Unis ; on parle aussi du cycle de Kuznets,
mais dans ce cas, il s’agit de fluctuations du taux de
croissance au lieu d’une suite des phases
d’expansion et de contraction du PIB réel, et la
périodicité est légèrement différente (15-20 ans)9 ;
- le cycle de Juglar, également connu sous les
expressions de cycle moyen, cycle majeur de
conjoncture. Sa durée est de 6 à 10 ans. Il est sur le
rythme de l’amortissement des biens d’équipement,
même si dans la théorie de Clément Juglar (1819-
1905)10, l’explication privilégie l’abus de crédit par
les banques au-delà des réserves métalliques qui
constituent la contrepartie de la masse monétaire ;
- le cycle de Kitchin qui porte plusieurs
dénominations : cycle mineur, hypo-cycle, cycle
court, cycle des stocks. Sa durée est de 36 à 60
mois. Le statisticien anglais Joseph Kitchin11
considère que le cycle majeur est une enveloppe de
deux ou trois cycles mineurs qu’il a mis en
évidence en 1923. Mais c’est Moses Abramovitz en
194812 qui a montré que le cycle des stocks
(inventories en anglais) suivait le cycle de l’activité
économique générale, alors que Kitchin n’évoquait
que des causes psychologiques.
3.3 Les théories explicatives du cycle de conjoncture
La présentation des différents cycles ci-dessus a évoqué
certaines explications des fluctuations. En dehors du cycle
de conjoncture, elles sont généralement admises par la
communauté scientifique. Quant au cycle majeur de
conjoncture qui correspond au cycle de Clément Juglar,
plusieurs théories explicatives sont en concurrence, bien que
le plus souvent ces théories soient plutôt celles des crises
que celles des fluctuations.
Une crise, c’est l’arrêt du processus de croissance. Les
entreprises réduisent leur activité car les stocks
s’accumulent. A-t-on trop produit, ou bien les acheteurs
potentiels ne disposent-ils pas de moyens suffisants ? Dans
un premier temps, les théories économiques se sont
positionnées sur cette alternative très simplifiée.
- L’adhésion à la loi des débouchés de Jean-Baptiste
Say revient à nier l’existence de crise générale de
surproduction. Il peut y avoir surproduction dans un
secteur si d’autres secteurs ne produisent pas assez,
car les produits s’échangent contre les produits.
- Les précurseurs de Keynes et la théorie keynésienne
introduisent le rôle de la monnaie thésaurisée. Ce
qui est produit n’est pas consommé totalement. Il y
a insuffisance de la demande effective : constitution
de stock, ralentissement de la production, chômage.
La crise est le résultat soit de la sous-consommation
soit de l’excès d’épargne.
- Marx montre que la crise est la conséquence logique
de la contradiction du capitalisme, de la
concurrence et de la loi de l’accumulation qu’elle
suscite. La concurrence oblige le capitaliste à
augmenter son capital constant (phénomène de
suraccumulation) et à réduire sa base, le capital
variable. La suraccumulation du capital entraîne
une surproduction. La substitution du capital
constant au capital variable entraîne l’apparition
d’une armée industrielle de réserve (chômage) sans
moyen pour consommer. La crise est alors un
moment de nettoyage, de restructuration du
capitalisme par disparition des entreprises
incapables de supporter la concurrence.
- Le Français Albert Aftalion met l’accent sur les
décalages entre la date de la demande et le moment
où l’offre peut la satisfaire. L’investissement est en
opération au moment où la demande n’est plus là.
- Avec le Suédois Knut Wicksell le surinvestissement
résulte d’un taux d’intérêt du marché monétaire
inférieur au taux naturel (productivité marginale du
capital). Les entrepreneurs empruntent et
investissent puisque c’est une aubaine. Les
administrateurs de banques se rendent compte avec
retard qu’il faut relever le taux afin que le taux
monétaire corresponde au taux naturel. Dans cette
opération le taux augmente et dépasse le taux
naturel, les responsables des entreprises prennent
conscience un peu tard que les taux du marché sont
plus élevés que le taux naturel. Les investissements
s’arrêtent, la croissance s’arrête, la contraction se
produit. Les banquiers prennent conscience de ce
retournement avec retard. Le taux du marché baisse
progressivement et passe sous le taux naturel.
Lorsque l’écart entre le taux naturel et le taux
monétaire est important, les entrepreneurs
reprennent de nouveau les investissements,
relançant l’activité (cf. Intérêt et prix, 1898).
- L’explication wicksellienne influence la plupart des
théories monétaires du cycle de la première moitié
du XXe siècle : celle de F.A. von Hayek qui montre
la déformation de la structure de production par un
surinvestissement financé par un excès de création
monétaire, au lieu d’un financement par l’épargne
spontanée, tout rentrant dans l’ordre par l’inflation
qui constitue de l’épargne forcée (cf. Prix et
Production, 1931) ; celle d’Irving Fisher présentée
en termes de surendettement et de déflation, mais le
surendettement s’explique par des anticipations
d’un taux de profit supérieur au taux d’intérêt, du
fait des innovations technologiques susceptibles
d’être lancées (cf. « The Debt-Deflation Theory of
Great Depressions », Econometrica 1.3, 1933, pp.
337-357, voir la traduction et le commentaire de R.
Boyer dans le n° 3 de la Revue française
d’économie, 1988) ; celle de Ralph George Hawtrey
qui repose sur le comportement des banquiers qui
accordent facilement du crédit en se refinançant
auprès de la Banque centrale (en dépassant la
couverture métallique avant 1914), favorisant
l’expansion économique, la dépression survient
lorsque la Banque centrale ne peut plus fournir la
monnaie aux banques commerciales, la dépression
survient alors (cf. The Trade Cycle, 1926).
Avec la crise financière de septembre 2008 préparée par
la crise des crédits hypothécaires à risque (subprime) de
l’été 2007, l’explication par le comportement des banques a
suscité un nouvel intérêt, redonnant aux analyses de Hyman
Minsky une actualité que les crises financières sans impact
sur l’économie réelle des trente années précédentes avaient
conduit à négliger. Il faut cependant reconnaître que les
crises financières ont des effets variables.
Dans certains cas, elles donnent lieu à des contagions
entre places financières sans conséquences sur l’économie
réelle lorsque le choc initial est circonscrit à la sphère
financière (krach boursier du 19 octobre 1987) et dans des
pays à faible pouvoir économique (crise asiatique de 1997).
Dans d’autres, comme le krach d’octobre 1929 et celui de
septembre 2008, la crise financière et la crise réelle sont en
phase et se produisent d’abord dans une économie
dominante et/ou dans plusieurs pays simultanément. L’effet
de résonance est inévitable. La crise boursière annonciatrice
d’un ralentissement de l’activité économique se traduit par
la chute de la valeur des actions détenues par les entreprises
et par les institutions financières. Les entreprises avec un
actif dévalorisé ont des difficultés à emprunter pour financer
leurs investissements ou même pour avoir des facilités de
paiement. Les institutions financières ont elles aussi une
diminution de la valeur de leur portefeuille. Le crédit
qu’elles peuvent accorder est réduit. Une crise de liquidité
succède à une période d’insouciance, comme Minsky l’avait
expliqué avec son paradoxe de la tranquillité.
Encadré la crise de 2008
Le krach de septembre 2008 était annoncé depuis au
moins deux ans comme conséquence du développement de
la bulle immobilière facilitée par la politique d’Alan
Greenspan après le krach en douceur des années 2000-2003.
Les années qui ont suivi ont été celles où l’on a vu
s’appliquer, comme jamais aussi nettement et avec autant de
nonchalance, le principe du « paradoxe de la tranquillité »
selon la formule explicative des crises financières proposée
par Hyman Minsky. En effet, la préoccupation principale,
ou l’urgence, des pouvoirs publics dans le domaine
financier, dans la plupart des pays développés, était d’éviter
l’assèchement du crédit, de sortir des suites de l’éclatement
de la bulle internet (bulle spéculative, de regonfler les cours
boursiers, de redonner confiance aux investisseurs sur les
marchés financiers. Dans ce contexte, la croissance stable et
durable, qui relève des moyen et long termes, semblait
moins préoccupante, surtout dans les pays qui comptaient
sur l’effet démographique pour enregistrer de bons
indicateurs d’emploi. La crainte de la récession étant passée,
en l’absence de toute inflation dans des économies
développées et avec un taux de croissance relativement
stable, la politique a consisté un peu partout non seulement
à relâcher l’attention des gestionnaires de la finance, mais à
soutenir au-delà du raisonnable des opérations
d’acquisitions immobilières, notamment, pour ce qui est des
États-Unis, en vue de permettre l’accès à la propriété des
catégories sociales jusque là défavorisées. Cela a consisté en
une forte baisse des taux courts, suivie de celle des taux
longs, ayant pour effet le développement des emprunts
immobiliers des ménages. Les facilités pour emprunter et
acheter des appartements et des maisons ont fait monter les
cours de l’immobilier.
Du fait des taux courts faibles, la consommation à
tempérament se trouve dès lors en résonance avec la
demande immobilière. La flambée des prix de l’immobilier
suscite un effet d’enrichissement qui autorise toute nouvelle
opération financée par emprunt gagé sur l’immobilier. La
comptabilisation des actifs à leur valeur présente sur le
marché, en application des nouvelles normes IFRS, gonfle
les actifs des institutions qui ont consenti des prêts
hypothécaires ou de celles qui ont acquis les effets
représentatifs de ces prêts. Le système n’est qu’une
illustration de la finance Ponzi avec pour victime la planète
entière par le biais de globalisation financière, puisque les
banques du reste du monde investissaient dans les titres
émis par les banques dont l’actif ne cessait de se revaloriser
artificiellement.
Comme Christian Chavagneux l’avait annoncé dès 2006
dans l’éditorial du numéro spécial de la revue L’Économie
politique13 consacré à Alan Greenspan, « la dette des
ménages dépasse 120 % de leur revenu disponible, la
demande interne a soutenu la progression d’un déficit
extérieur équivalent à 6,5 % du PIB… Un jour prochain, ces
déséquilibres entraîneront une forte chute (des prix des
maisons, du dollar et de la croissance) dont le monde entier
aura du mal à se remettre ». La prédiction a été vérifiée. Les
causes de la crise financières sont en fait nombreuses :
- le laxisme des autorités monétaires des banques
centrales ;
- l’endettement des Américains et de l’Amérique avec
la croissance des déficits jumeaux (déficit du budget
de l’État fédéral et déficit de la balance des
transactions courantes) qui dès son ralentissement
met en difficulté les entreprises et les pays
fournisseurs ;
- l’inefficience des marchés financiers, i.e. une
information imparfaite et donc non fiable sur la
valeur des firmes ;
- des agences de notation ne disposant pas de
l’information fiable, qui appliquent aux produits
structurés risqués la note attribuée à l’émetteur. Une
banque saine qui vend à une autre banque, pour
avoir des liquidités et pouvoir prêter davantage (ou
pour se débarrasser de créances douteuses ?), ses
créances correspondant des prêts consentis pour
l’achat d’une voiture ou d’un appartement, ne
signifie nullement que, par cette opération de
titrisation, elle garantit la solvabilité du débiteur.
Ces notations non corrigées expliquent que les
meilleures banques ont ainsi acheté des créances ou
produits toxiques, alors que les risques élevés sont
affichés face aux rendements miraculeux. C’est à
cause de cette diffusion d’informations trompeuses
sur la valeur des créances que, par exemple, la
banque Lehman Brothers notée triple AAA (la
meilleure note) fin janvier 2008 est déclarée en
faillite le 15 septembre 2008 soit moins de 9 mois
plus tard ;
- l’usage de modèles mathématiques de prévision des
cours type brownien inadaptés aux situations à
risques élevés et à faible probabilité, comme l’ont
expliqué Olivier Le Courtois et François Quittard-
Pinon14 ;
- un prêteur en dernier ressort (PDR) paternaliste,
favorisant l’aléa moral, en ignorant les
préconisations de l’Anglais Walter Bagehot (1821-
1877), le premier à douter de la qualité de
l’information financière. Bagehot, constatant la
panique que suscitaient les crises financières à son
époque, préconisait de fournir de manière illimitée
les liquidités dont les banques avaient besoin pour
le financement de l’activité pour éviter de la sorte
une dépression plus profonde, mais ces liquidités
devaient être effectuées à des taux élevés en
comportant des garanties sérieuses (voir l’article de
Marc Flandreau envoyé le 25 septembre 2007, soit
un an avant la crise générale, au blog de
L’Économie politique15. Le paternalisme du PDR
s’est manifesté par le laxisme depuis la crise
financière asiatique de 1997. En effet, selon Michel
Aglietta16, la crise de 2008 n’est que la conséquence
d’un laxisme décennal à la Minsky sous la forme de
l’excroissance de la sphère financière, favorisant la
croissance de l’endettement à court terme des
ménages, des entreprises, des États, auquel s’ajoute
le financement de la spéculation immobilière, un
peu partout dans les pays développés. Dans ce
contexte, les excès des crédits hypothécaires à
risques ne sont plus qu’un épiphénomène dans cet
ensemble ;
- Les théoriciens de la synthèse néoclassique
keynésienne (J. R. Hicks, P.A. Samuelson, voir
chapitre 4ci-dessus) proposent, sous différents types
d’oscillateur, une explication par interaction du
multiplicateur, qui favorise la stabilité, et de
l’accélérateur (déstabilisateur du fait que
l’investissement suit plus que proportionnellement
la demande).
- D’autres auteurs évoquent le comportement de l’État
qui entretient artificiellement l’expansion puis
bloque les crédits (politique de stop and go ou
politique en coup d’accordéon).
4. Le diagnostic conjoncturel
Du point de vue du diagnostic, un retournement
conjoncturel est admis lorsque les données en rupture avec
la tendance passée sont observées pendant trois mois
consécutifs.
Pour un conjoncturiste, ce qui est important c’est de
pouvoir anticiper ces retournements conjoncturels. Des tests
conjoncturels qualitatifs (questionnaires qui recueillent
l’opinion des chefs d’entreprise sur leur activité actuelle et
future, indicateurs sur le moral des ménages) et des
baromètres sont construits par des instituts de conjoncture.
Ces différents indicateurs sont classés dans trois catégories
par rapport à une donnée de référence qui est généralement
l’évolution de la production industrielle qui donne une
bonne approximation de l’évolution du PIB (celui-ci étant
connu trop tardivement) : indicateurs avancés ou
précurseurs dits encore prodromes, indicateurs coïncidents
ou contemporains, indicateurs retardés ou confirmants.
À titre d’exemple, il est apparu que les indicateurs
monétaires et financiers sont des indicateurs avancés ; M1
est un indicateur avancé de 6 mois du PIB réel dans un
grand nombre de pays développés. Aux États-Unis comme
au Canada, un ralentissement de la croissance de M1 est
suivi d’une récession du PIB.
Les spreads de taux d’intérêt, différences entre un taux
court à trois mois et un taux long à dix ans, sont d’une
grande fiabilité en ce sens que l’on a souvent observé
qu’une réduction de l’écart de taux ou une inversion de la
courbe des taux annonce généralement un ralentissement ou
une récession. Les indices boursiers sont le produit des
comportements d’agents mieux informés sur les
perspectives économiques des firmes, mais les bulles
démontrent aussi, que les comportements grégaires sont la
manifestation d’une information imparfaite et incomplète.
Exception faite des bulles spéculatives qui ne sont pas si
fréquentes, l’avance des indices boursiers sur la tendance du
PIB n’est cependant que de trois mois. Erwan Gautier17 a
montré la grande fiabilité de ces indicateurs monétaires et
financiers pour les États-Unis où existent des séries
statistiques longues.
Le recours à un indicateur composite formé de plusieurs
indicateurs relevant de différents domaines est cependant
nécessaire car il n’existe pas d’indicateur avancé simple
fiable. Le diagnostic est plus sérieux lorsque plusieurs
variables prodromiques sont corrélées positivement.
2) le moral des ménages (indice de confiance) est un
indicateur coïncident,
3) le taux de chômage est un indicateur retardé (des
difficultés ne suscitent pas instantanément des licenciements
et une reprise se traduit d’abord par l’augmentation de la
productivité avant celle de l’embauche).
L’investissement suit les bénéfices réalisés,
conformément à la logique classique de l’épargne préalable,
mais l’emploi suit la consommation et non l’inverse, et cela
est en revanche conforme à la théorie keynésienne. C’est
ainsi qu’au Canada, Maurice Marchon a mis en évidence : «
Ce sont les dépenses de consommation qui devancent la
création d’emplois et l’augmentation du revenu personnel
disponible. Tout au long du cycle économique le taux de
croissance annuel des dépenses de consommation précède
l’accéléra-tion de l’emploi et en récession le taux annuel de
variation des dépenses de consommation décélère avant
celui de l’emploi. »18
Pour la France, les séries composantes qu’utilise l’OCDE
pour le calcul de l’indicateur composite avancé sont :
immatriculations de voitures de tourisme neuves (nombre) ;
indice de confiance des consommateurs (solde en %) ; taux
d’intérêt EONIA*19 (% par année) ; perspectives de
production (industrie manufacturière) (solde en %),
perspectives dans l’industrie (solde en %) ; stocks de
produits finis : niveau (industrie manufacturière) (solde en
%) ; indice du cours des actions SBF 250 (2000, base 100) ;
termes de l’échange20 (2000, base 100); écart de taux
d’intérêt (% par année) et nouvelles offres d’emploi
(nombre). La série de référence utilisée pour le calcul est :
indice de la production industrielle totale pour l’industrie
excluant la construction, corrigé des variations saisonnières,
2000 base 100.
5. Les modèles d’analyse de la conjoncture
L’analyse par les marchés, inspirée de la théorie de
l’équilibre général de Walras dans sa forme statique et a-
spatiale, ignore les déséquilibres du type chômage
involontaire, inflation avec modification des prix relatifs,
déficit ou excédent des échanges extérieurs. Dans ce
système, l’État, en outre, a pour seule fonction de fournir les
biens publics collectifs purs financés à l’équilibre par
l’impôt considéré comme une contribution.
Cette approche, que l’on qualifie de néoclassique, a
longtemps réduit le rôle de la monnaie aux deux seules
fonctions d’étalon et de transaction sans influence sur
l’équilibre réel. Une telle hypothèse est conforme à la
logique de la statique conduisant à la loi de Walras : la
monnaie est un énième bien dont le prix est égal à 1. Une
telle loi n’est que la reprise de la loi des débouchés de J.-B.
Say, selon laquelle « les produits s’échangent contre les
produits », et de l’hypothèse de la neutralité de la monnaie.
L’approche macroéconomique keynésienne attribue au
contraire à la monnaie, par sa fonction de réserve de valeur,
i.e. de moyen susceptible d’être épargné, un rôle de « pont
entre le présent et l’avenir ». Elle revient donc à prendre en
compte le temps. La monnaie n’est plus un bien quelconque
mais un instrument d’une nature spécifique dont la valeur
est indépendante de sa substance, susceptible d’être
demandé pour lui-même en vue, éventuellement, de réaliser
des opérations d’achat futures. Par cette épargne, l’argent
gagné n’est pas instantanément dépensé ; autrement dit, un
déséquilibre de flux se manifeste, même si, de manière
comptable, on vérifie toujours que l’épargne est égale à
l’investissement. En effet, affirmer une évidence du type «
les ventes sont nécessairement égales aux achats », c’est
exprimer un équilibre comptable qui, du point de vue des
macroéconomistes raisonnant en termes de flux et de circuit,
et non plus en termes de prix et de marché, n’implique
nullement la réalisation d’un équilibre optimal ou idéal.
Au demeurant, la réalité du chômage, son caractère
durable et le fait qu’il soit de masse et non pas d’exception
dans un grand nombre de pays ainsi que les multiples
dysfonctionnements des économies nationales et du système
monétaire international ont conduit au maintien d’une
recherche économique d’inspiration keynésienne très active,
ce qui revient à abandonner la démarche déductive avec ses
hypothèses irréalistes de l’équilibre général.
La position keynésienne revient à affirmer que l’équilibre
global est compatible avec un sous-emploi (chômage) ou un
suremploi (inflation). En d’autres termes, l’équilibre global
est un déséquilibre ex ante, i.e. lorsque les agents non
coordonnés font leurs prévisions. En revanche, ex post, i.e.
en réalisation, il est bien évident que les dépenses sont
égales au revenu ou à la production. Ce qui n’est pas vendu
constituera un investissement sous forme de stocks, de sorte
que, si l’épargne des agents consommateurs était ex ante (au
départ) supérieure à l’investissement (envisagé par les
producteurs), ex post l’augmentation de l’investissement par
les stocks rétablit l’équilibre comptable.
L’objet de cette section est de présenter progressivement
les mécanismes du modèle d’équilibre global et de donner
ensuite brièvement, sur la base du modèle conciliant
l’analyse en termes de marchés et l’analyse en termes de
flux, dit modèle IS-LM pour l’économie fermée et IS-LM-
BP pour l’économie ouverte, les principales stratégies de
politique conjoncturelle face aux problèmes du chômage, de
l’inflation et du déficit des échanges extérieurs.
5.1. L’équilibre global en termes réels
L’objet de ce paragraphe est de développer le modèle
keynésien esquissé dans le chapitre 2. Dans un premier
temps, l’économie sera supposée fermée (autarcie
complète), sans intervention explicite de l’État. Celui-ci sera
pris en compte dans une étape ultérieure, puis viendra le
tour du reste du monde, par le biais, respectivement, des
dépenses publiques et des impôts pour le premier, des
importations et des exportations pour le second.
5.1.1. Le schéma de la droite à 45 ° : les écarts
inflationnistes et déflationnistes
Dans une économie fermée, sans l’intervention de l’État,
la demande globale est constituée par la consommation (C)
et l’investissement (I), tandis que l’offre globale est la
somme de la consommation (C) et de l’épargne (S). La
valeur de ce qui est dépensé (Y) est égale à la valeur de ce
qui est produit (Y). Selon la loi de Jean-Baptiste Say, on a à
tout moment les égalités suivantes :
Y=C+I
Y=C+S
d’où il résulte en supprimant les éléments qui s’annulent :
I=S
John Maynard Keynes expose qu’il convient de prendre
en compte les désirs des consommateurs et les anticipations
que font les entrepreneurs de ces désirs. La loi de J.-B. Say,
dans ce cas, est une hypothèse qui n’est pas réaliste. Elle est
cependant très utile pédagogiquement, comme le montrera
P.A. Samuelson, dans la mesure où elle permet de révéler
l’écart entre la réalité et l’idéal selon lequel les prévisions
des entrepreneurs coïncideraient parfaitement avec les
désirs des consommateurs. Cet idéal correspond à la
bissectrice du système d’axes représentant le revenu
national ou production nationale en abscisses et la dépense
nationale en ordonnées. L’égalité entre ces deux ensembles
ne pourrait en réalité qu’être fortuite, car, compte tenu de la
rareté de l’information, les entrepreneurs, fort
probablement, surestimeront ou sous-estimeront le niveau
de consommation désirée des ménages. Il faut donc
distinguer les prévisions (ex ante) et les réalisations (ex
post).
Lorsque les entrepreneurs surestiment le niveau de
consommation des ménages, l’épargne est supérieure à
l’investissement des entreprises. En d’autres termes, la
production des entreprises en biens de consommation est
supérieure à la demande. L’écart entre les deux constitue un
écart déflationniste. La réduction de l’activité est nécessaire
pour retrouver l’équilibre. Compte tenu de la présence
syndicale et des acquis salariaux et sociaux, la déflation
n’est pas une baisse des prix et des salaires (trop rigides
nominalement), mais une diminution de l’emploi et de la
production. Autrement dit, contrairement à l’analyse
néoclassique, l’ajustement se fait non par les prix mais par
les quantités. Lorsque les entrepreneurs sous-estiment le
niveau désiré de consommation, alors c’est l’investissement
qui est supérieur à l’épargne, i.e. que la demande globale est
supérieure à l’offre globale. Il s’agit alors d’un écart
inflationniste. Les prix augmentent jusqu’à ce que
l’équilibre soit réalisé.
Ces deux situations sont représentées par la figure 9.1. ci-
dessous. L’allure de la courbe de demande globale est
donnée par la fonction de consommation (C = cY + Co).
L’investissement, ici, est une variable autonome, i.e. qu’il
est indépendant du revenu national (Y).
Dans ces schémas, YE désigne le revenu national
d’équilibre, YPE le revenu national de plein-emploi ou
produit national brut potentiel. Le point Z indique le seuil de
revenu à partir duquel le revenu est supérieur à la
consommation, dégageant ainsi une épargne positive. En
dessous de ce seuil, l’épargne est négative. Autrement dit, la
consommation se traduit par la déthésaurisation, consistant
à utiliser l’épargne accumulée au cours des périodes
précédentes à la période étudiée.
La partie hachurée indique les niveaux de revenu
inaccessibles compte tenu des facteurs disponibles. La
figure 9.1. (a1) illustre le phénomène d’écart inflationniste.
La demande effective (C + I) est au niveau A pour une offre
située en B, alors que l’économie est en situation de plein-
emploi. L’augmentation des prix fera déplacer d’une
manière purement nominale le revenu national de plein-
emploi YPE vers le revenu national d’équilibre YE. C’est une
augmentation en valeur sans augmentation de volume. Mais,
en termes réels, cela revient à une diminution de la demande
globale (C + I) du point E vers le point B. Le même
phénomène peut être représenté avec la confrontation de S
(épargne) et de I (fig. a2) et avec les courbes d’offre globale
et de demande globale en fonction des prix (fig. a3).
La figure 9.1. (b1) caractérise un écart déflationniste. Le
revenu national d’équilibre YE est inférieur au revenu
national de plein-emploi YPE. C’est un équilibre de sous-
emploi. Au point E, il y a bien égalité entre l’offre globale et
la demande globale, mais une partie des travailleurs est sans
emploi. Ex ante, la demande effective est en A, mais les
revenus sont en B, i.e. que les entreprises ont produit un
volume égal à B plus élevé que la somme des dépenses de
consommation des ménages et des dépenses
d’investissement des

Figure 9.3
. Équilibres globaux en termes réels
entreprises. Les entreprises constituent alors des stocks non
désirés. Ceux-ci obligent à réduire la production et, par
conséquent, le revenu distribué, jusqu’à ce que le point E
d’équilibre soit atteint. La réduction de la production
entraîne le sous-emploi. Ainsi, une partie des travailleurs
sera victime du chômage involontaire.
On notera que ce résultat peut être observé avec les
courbes de S et I (fig. b2) et avec les courbes d’offre et de
demande globales en fonction des prix (fig. b3).
5.1.2. L’effet multiplicateur
Les figures a1 et b1 montrent que le fait d’ajouter les
dépenses d’investissement à la consommation fait passer le
revenu d’équilibre de Z à E. La croissance du revenu (ΔY =
YE – YZ) est très nettement supérieure à I, de sorte que l’on
est autorisé à écrire :
ΔY = kI ou bien (ΔY/I) = k.
Il faut multiplier l’investissement I par un coefficient k
pour avoir la valeur de l’augmentation du revenu national.
C’est ce coefficient k que l’on appelle le multiplicateur
keynésien d’investissement.
En comparant les figures a1 et b1, on constate que l’effet
multiplicateur dépend de la propension marginale à
consommer, i.e. de la tendance à consommer une fraction du
revenu supplémentaire distribué. La dépense consécutive à
l’acte d’achat en vue d’investir ou de consommer est un
revenu pour les vendeurs. Ce revenu leur permet de
consommer à leur tour. Le phénomène d’épargne constitue
une fuite, puisqu’il a pour effet de réduire les achats et, par
conséquent, les revenus des agents situés en aval, par
rapport à ceux qui ont bénéficié d’une distribution de
revenus supplémentaires. On peut donc dire que l’effet
multiplicateur est d’autant plus important que la propension
marginale à épargner est faible. Par la technique de
dérivation, on montrera précisément que le coefficient de
multiplication, ou multiplicateur keynésien
d’investissement, est égal à l’inverse de la propension
marginale à épargner (s). Ce résultat, correspondant au
multiplicateur statique – ou instantané – a la même valeur
que celle du multiplicateur dynamique (prenant en compte
le temps). La technique de la dérivation nous oblige à
reprendre la fonction de consommation pour la réintégrer
dans la définition du revenu national correspondant à la
demande globale.
On sait que :
C = cY + Co.
Dans la définition de la demande globale, on remplace C
par son équation.
Y=C+I
devient
Y = cY + Co + I,
ce qui permet d’écrire :

Sachant que 1 – c = s,
on peut écrire :

Afin de neutraliser le terme de la consommation


incompressible, envisageons une augmentation de
l’investissement. L’effet multiplicateur se traduira par la
croissance du revenu national. En faisant le rapport entre les
deux accroissements, on obtient le multiplicateur qui n’est
autre que la dérivée de Y par rapport à I.
Il en résulte :

Ainsi, en économie fermée, le multiplicateur k est


l’inverse de la propension marginale à épargner. Il
correspond à la dérivée du revenu national par rapport à
l’une de ses variables exogènes. Puisque nous avons retenu
l’investissement net comme variable exogène, i.e.
déterminante du revenu national, il apparaît par conséquent
que le multiplicateur d’investissement est le coefficient par
lequel il faut multiplier la variation de l’investissement net
pour connaître le montant correspondant de variation de la
production et donc du revenu. Il exprime une propagation
d’une dépense qui en suscite d’autres. L’investissement
engendre des vagues successives de revenus se traduisant
par des dépenses de consommation nouvelles qui inciteront
les entreprises à augmenter leur production et engendreront
de nouveaux revenus, etc. C’est ce phénomène dynamique
qu’illustre l’exemple numérique présenté dans l’encadré du
chapitre 4.
5.1.3. L’intervention de l’État
Les dépenses publiques G0 sont supposées autonomes.
Elles s’ajoutent à C et à I0 pour former la nouvelle demande
globale en économie fermée. Les ressources publiques sont
des impôts T dont le montant peut être supposé lié à Y, pour
une partie. Cette part correspond à l’impôt de quotité.
L’autre partie, indépendante de Y, provient des impôts de
répartition. Les impôts T s’ajoutent à C et à S pour former la
nouvelle offre globale en économie fermée.
Demande globale en économie fermée :
Y = C + I0 + G0
Offre globale en économie fermée :
Y=C+S+T
Ex post, l’équilibre global correspond à l’égalité
suivante :
C + I0 + G0 = C + S + T
ou encore par simplification :
I0 + G0 = S + T.
Par conséquent, si des tensions inflationnistes se
manifestent avec I0> S, il suffit que les dépenses publiques
soient inférieures aux recettes fiscales pour dégager un
excédent budgétaire d’un montant égal à l’écart entre
l’investissement et l’épargne privés, afin de résorber l’écart
inflationniste.
De même, si I0 < S, alors les pouvoirs publics doivent
s’engager dans la voie du déficit budgétaire, dont le montant
doit être égal à l’écart entre l’épargne et l’investissement,
afin de supprimer l’écart déflationniste et éviter ainsi le
chômage.
Pour nous résumer,
si I0 > S, alors G0 < T,
et si S > I0, alors T < G0.
L’intervention de l’État introduit trois variables de
commande ou variables de régulation de l’économie : les
dépenses publiques G, les impôts T et également la
combinaison de ces deux variables primaires pour définir la
nature du solde du budget de l’État. De ce fait, on peut
envisager trois nouveaux multiplicateurs qui exprimeront la
propagation d’une dépense publique qui en suscitera
d’autres dans la nation, ou la propagation d’une réduction
du revenu disponible (Y – T) à la suite de l’augmentation
des impôts qui suscitera une réduction du revenu en chaîne,
dans la nation.
L’existence de l’impôt modifie l’équation de la fonction
de consommation. Celle-ci dépend dorénavant du revenu
disponible. Par conséquent, on obtient :
C = c (Y – T) + C0
et, en utilisant cette équation dans la définition de la
demande globale, on obtient :
Y = c (Y – T) + C0 + I0 + G0.
Les multiplicateurs suivants sont obtenus, par dérivation
partielle, d’abord par rapport à G0 puis par rapport à T, et en
envisageant, enfin, une croissance du budget équilibré (une
augmentation des dépenses dans un budget équilibré
accompagnée par une augmentation des recettes fiscales
d’un même montant) :
le multiplicateur des dépenses publiques :
kG = [1/(1- c)]
le multiplicateur des impôts :
le multiplicateur du budget équilibré, i.e. le
multiplicateur associé à une croissance positive et d’un
même montant des dépenses publiques et des recettes
fiscales en partant d’un budget déjà équilibré, est : kG + kT,
soit :

Ainsi, le multiplicateur des dépenses publiques a la même


valeur que le multiplicateur d’investissement calculé
précédemment ; le multiplicateur fiscal, ou des impôts,
donne une valeur plus faible en valeur absolue (si les impôts
diminuent, le revenu national augmente, et celui-ci diminue
si les premiers augmentent). Il apparaît également que le
budget équilibré n’est pas neutre, puisque, si le budget
augmente de 1 000 unités monétaires, le revenu national
augmente également de 1 000. On doit ce dernier
multiplicateur unitaire du budget équilibré à Haavelmo.
Avec la spécification de T = tY + T0, les multiplicateurs
seront alors :

5.1.4. L’équilibre global en termes de flux réels en


économie ouverte
La demande globale comprend à présent les exportations
(X0) supposées exogènes. Les importations apparaissent en
ressources. Elles dépendent partiellement du revenu national
par la propension marginale à importer (m).
Donc M = mY + M0.
Les définitions de la demande et de l’offre globales sont :
Demande globale en économie ouverte :
Y = C + I0 + G0 + X0
Offre globale en économie ouverte :
Y = C + S + T + M,
L’équilibre global correspond alors à l’égalité suivante :
C + I0 + G0 + X0 = C + S + T + M,
soit encore :
I0 + G0 + X0 = S + T + M.
Cette dernière égalité permet de voir que, si la demande
interne est trop forte par rapport aux ressources internes,
l’équilibre se rétablit par un déficit commercial (M > X),
mettant fin aux tensions inflationnistes. De même, une
faiblesse de la demande interne peut être compensée par un
excédent commercial (X < M).
L’équation du revenu national en économie ouverte
devient :

Les multiplicateurs d’investissement, d’exportations, des


dépenses publiques, obtenus chacun par dérivation partielle,
ont tous pour valeur :

Ils sont ainsi tous plus faibles qu’en économie fermée, les
importations jouant le même rôle de fuite que l’épargne.
Ce résultat ne tient pas compte de la nature des
importations ni du comportement des autres nations. Les
propensions marginales à importer et à épargner du reste du
monde, d’une part, et le fait que certaines importations
incorporent des produits nationaux précédemment exportés
(par exemple, importation de voitures allemandes en France,
équipées de carburateurs fabriqués en France), d’autre part,
conduisent à des formules de multiplicateurs plus
complexes, que nous ne pouvons examiner ici.
5.2. Le modèle de Hicks-Hansen
Il s’agit d’examiner ici le fonctionnement du modèle IS-
LM que nous avons déjà évoqué. On sait que c’est une
représentation synthétique exprimant l’intégration des
phénomènes réels et monétaires avec un maximum
d’économie de moyens. J.M. Keynes, qui en a pris
connaissance, ne l’a pas désavoué, sauf pour le peu de cas
fait aux anticipations dont nous avons vu la très grande
importance.
Le modèle IS-LM n’est pas une nouvelle théorie, mais un
langage de synthèse qui permet de comprendre les points de
vue keynésien et néoclassique. C’est ce que nous allons
tenter de montrer en prenant trois marchés : les marchés des
biens, de la monnaie et du travail (voir figure 9.2).
5.2.1. Les équilibres sur le marché des biens
Les différents équilibres réels sont représentés, sur la
figure 9.2., par la courbe IS. Chaque point de la droite IS
indique le taux d’intérêt i et le niveau du revenu national
d’équilibre réel YE (i.e. d’égalité entre I et S). IS est une
droite décroissante de YE par rapport à i, car, dans la théorie
keynésienne, l’investissement autonome qui détermine le
revenu national est lié de manière décroissante au taux
d’intérêt (i). En effet, plus (i) est élevé, plus il risque d’être
supérieur à l’efficacité marginale du capital qui constitue
l’incitation à investir des entreprises privées. En outre, plus
(i) est élevé, plus les agents transforment leur encaisse-
transaction en encaisse-spéculation, réduisant ainsi la
consommation non liée à Y, i.e. l’autre déterminant de Y.
L’« euthanasie du rentier », par la baisse des taux d’intérêt,
est, pour Keynes, une des principales solutions pour assurer
la croissance du revenu national Y.
Figure 9.2.a
. Équilibres réels
5.2.2. Les équilibres monétaires
Les différents équilibres monétaires représentés par la
figure 9.2.bapparaissent sur la courbe LM (égalité entre
offre de monnaie et demande de monnaie) dans le même
espace (Y, i).
Chaque point de la courbe LM indique les niveaux de (i)
et de Y d’équilibre entre l’offre exogène de monnaie et la
demande de monnaie. Celle-ci est fonction de (i), pour le
motif de spéculation, et de Y pour le motif de précaution et
le motif de transaction. L’augmentation du revenu exige
plus de moyens monétaires pour financer les transactions. Si
l’offre de monnaie ne bouge pas, alors le taux d’intérêt
augmente. Le même phénomène se produit si, au lieu du
revenu national réel Y, on choisit de prendre le niveau
général des prix. En théorie, la courbe LM comporte trois
parties :
- une partie horizontale correspondant à la trappe à
liquidité : i est au minimum et le revenu national est
faible ; la trappe à liquidité ou trappe monétaire
correspond à une demande de monnaie à élasticité
infinie,
- une partie oblique et de pente positive indiquant
qu’un taux d’intérêt croissant réduit l’encaisse-
spéculation avec un revenu croissant,
- une partie verticale qui traduit une rigidité du revenu
national au taux d’intérêt.
La confrontation de IS et de LM dans le premier quadrant
de la figure 9.2.cdonne l’équilibre global intégrant
l’équilibre réel et l’équilibre monétaire. Cet équilibre est
compatible avec le sous-emploi (YE).
Le deuxième quadrant représente la fonction de
production, Y = f (L), obéissant à la loi des rendements
décroissants. Y = f (L) signifie que le niveau du revenu
national (Y) dépend de la quantité de travail. La valeur de
YE correspond à LE ou niveau d’emploi d’équilibre, sachant
que LPE désigne le plein-emploi qui correspondrait au revenu
YPE. Le

Figure 9.2.b
. Équilibres monétaires
troisième quadrant donne l’équilibre sur le marché de
l’emploi : WE est le taux de salaire d’équilibre et WPE le taux
de salaire de plein-emploi.
L’avantage de cette représentation graphique complexe
est de permettre de comprendre les différentes politiques
économiques possibles pour obtenir la croissance du revenu
et pour se rapprocher du plein-emploi. C’est cet aspect qui
sera examiné dans la section suivante.
Figure 9.2.c
. l’équilibre ISLM et l’équilibre sur le
marché du travail
5.3. L’équilibre global réel et monétaire en économie
ouverte : le modèle IS-LM-BP de Mundell et Fleming
La prise en compte du reste du monde conduit à surveiller
la balance des paiements qui est la somme des soldes des
opérations courantes (BTC = importations et exportations
de marchandises et opérations de services), d’une part, et
des mouvements des capitaux, d’autre part. Une fois cette
information disponible, il faudra analyser les conditions de
compatibilité de l’équilibre externe avec l’équilibre interne.
5.3.1. L’équilibre des balances des transactions courantes
et des capitaux non monétaires
Dans la BTC, les exportations sont fonction du niveau
relatif des prix et du taux de change. Toute chose étant égale
par ailleurs, une tendance à la baisse des prix des produits
proposés à l’exportation et une dépréciation du taux de
change permettent d’augmenter le volume des exportations.
Elles sont autonomes par rapport au revenu national ou au
PIB. Les importations sont fonction des prix relatifs, du taux
de change et du revenu national ou PIB. Elles sont
croissantes en cas d’inflation interne ; elles sont
décroissantes en cas de dépréciation du taux de change ;
elles sont croissantes avec le PIB. La figure 9.3.a représente
la balance des transactions courantes (BTC) en fonction du
seul PIB. La droite BTC est obtenue par le solde entre la
droite des exportations autonomes (X0) et la droite des
importations [M = M (Y)].

Fig. 9.3
. (a) balance des Fig. 9.3. (b) balance des
transactions courantes capitaux non
monétaires
La balance des capitaux non monétaires (BKNM) a un
solde qui est une fonction croissante de l’écart entre le taux
d’intérêt national et le taux d’intérêt international. Un taux
plus élevé dans la nation qu’à l’étranger suscite un volume
d’entrée de capitaux (KE) plus important que celui de la
sortie de capitaux (KS). La droite BKNM peut être soit
verticale, en cas d’immobilité internationale des capitaux
(aucune élasticité par rapport à l’écart des taux d’intérêt),
soit horizontale en cas de mobilité parfaite, ce qui conduit à
assurer l’égalité constante entre le taux interne et le taux
externe.
Lorsque la balance des paiements est équilibrée, il n’y a
pas de mouvements de capitaux monétaires dont l’objet est
de compenser un déséquilibre. La droite BP représente les
différents couples (i et y) pour lesquels la balance des
paiements globale est équilibrée. La droite BP est la somme
de la BTC et de la BKNM. L’une est fonction du PIB (Y) et
l’autre du taux d’intérêt (i). Le taux d’intérêt et le PIB sont
positivement corrélés pour assurer un équilibre de la
balance des paiements. Par exemple un déficit de la BTC
qui apparaît avec une croissance du PIB doit s’accompagner
d’un taux d’intérêt très élevé ayant pour effet d’avoir une
entrée nette de capitaux. L’excédent de BKNM couvre alors
le déficit de BTC.
La pente de BP dépend de la propension marginale à
importer et de l’élasticité des capitaux par rapport au taux
d’intérêt. En cas de mobilité parfaite (élasticité parfaite),
BKNM est horizontale, la droite BP également. Cette
dernière se déplace vers le haut ou vers le bas à la suite des
déplacements de BTC et de BKNM. Les causes des
variations des balances partielles peuvent être réelles
(changement du niveau des exportations), financières
(variation du taux d’intérêt) et monétaires (changement de
la parité de la monnaie par appréciation ou dépréciation du
taux de change).

Fig. 9.3.c
. Équilibre de la balance des paiements
globale
Lecture : tous les points formés par le couple
(i, Y) sur BP constituent l’équilibre externe. Les
points au-dessus de BP sont des excédents,
comme par exemple Z1. Les points en dessous de
BP sont des déficits comme par exemple Z1.
En résumé, pour un taux de change stable, les
exportations sont exogènes tandis que les importations
dépendent du revenu national. La balance des capitaux
dépend de l’écart de taux d’intérêt pour la nation et le reste
du monde, et cette balance influence le taux de change qui
peut avoir des conséquences sur la balance des opérations
courantes et sur la balance des capitaux : lorsque l’écart de
taux d’intérêt est positif (taux interne > taux externe), sous
l’hypothèse de mobilité des capitaux, l’entrée de capitaux
est plus forte que la sortie ; la monnaie nationale se raréfie,
le taux de change s’apprécie ; le volume des importations
moins chères augmente, tandis que le volume des
exportations trop chères baisse. La droite BP représente les
différents couples de taux d’intérêt et de revenu national qui
assurent l’égalité entre la balance des opérations courantes
et la balance des capitaux.
5.3.2. L’équilibre externe et l’équilibre interne :
l’incompatibilité
L’analyse de la compatibilité entre les équilibres interne
et externe se fait en reportant la droite BP sur le graphique
IS-LM. Il y a compatibilité spontanée des équilibres internes
et externes lorsque l’intersection en IS, LM et BP se fait en
un même point. Cela serait un événement purement fortuit.
Dans la réalité, plusieurs cas de figure peuvent être
envisagés en fonction du niveau d’équilibre interne (il peut
être soit en dessous soit au-dessus de BP), du degré de
mobilité des capitaux (élevé, faible), du régime de change
(fixe, flottant).
La figure 9.4. ci-dessous illustre le cas de
l’incompatibilité dans une situation de déséquilibre externe
(les équilibres internes sont sous la droite BP), dans
l’hypothèse d’une forte mobilité des capitaux. En Eint, les
courbes IS et LM se rencontrent pour déterminer l’équilibre
interne complet. En E1, BP rencontre IS, l’équilibre
monétaire n’est pas réalisé. En E3, BP rencontre LM, c’est
l’équilibre réel qui cette fois n’est pas réalisé.
Spontanément, un déséquilibre extérieur peut se résorber
mais d’une façon défavorable à la croissance et à l’emploi.
En effet, le déficit engendre une baisse des réserves en
devises. Celles-ci, étant une contrepartie de la masse
monétaire, il s’ensuivra une diminution de cette dernière.
Par conséquent la réduction de la masse monétaire entraîne
le déplacement de LM1 vers la gauche (LM2). La baisse du
PIB freine les importations (déplacement sur la courbe IS
vers le haut et à gauche). Ces différents mouvements
aboutissent à un équilibre complet interne et externe
spontané (E1i-e-spon) en faisant que l’équilibre monétaire
rejoigne l’équilibre réel et l’équilibre externe.
En régime de change flexible, un déficit s’accompagne
d’une détérioration du taux de change. Cela entraîne une
plus grande compétitivité des prix se traduisant par un
déplacement de la droite BP vers le bas et un déplacement
de IS vers le haut et à droite. Les équilibres interne et
externe sont obtenus en E2i-e.
L’équilibre complet interne et externe, même de type E2
peut être un équilibre de sous-emploi. Si E3 est l’équilibre
souhaitable, plusieurs actions sont envisageables, en
fonction du degré de mobilité des capitaux et du système de
change. Dans le système des hypothèses précédentes, on
voit sur la figure 9.4. qu’une politique de forte croissance
des dépenses internes pour déplacer IS vers le haut et vers la
droite (IS3) permet d’obtenir un équilibre E3int-ext favorable à la
croissance économique et à l’emploi. La figure 9.4.b donne
le résultat final,

Fig. 9.4.a
. Principales configurations de IS-LM-BP
Fi g. 9.4.b. Équilibre complet IS-LM-BP
De part et d’autre du revenu national de plein-emploi, il
est possible d’identifier quatre types de déséquilibres qui
appellent des combinaisons particulières des politiques
monétaire (PM) et budgétaire (PB).

Fig. 9.5
. Déséquilibres en économie ouverte
1 Pierre Dockès et Bernard Rosier, Rythmes économiques, crises et
changement social, une perspective historique, La Découverte/Maspero, 1983.
2 On rencontre aussi la formule de l’alternance jour/nuit à la place de
soir/matin : « Il y a eu un jour, il y a eu une nuit. Premier jour. »
3 Richard A. Easterlin : Population, Labor Force, and Long Swings in
Economic Growth : the American Experience, New York, Colombia University
Press, 1968 ; « Relative Economic Status and the American Fertility Swing »,
dans E.B. Sheldon (ed.), Family Economic Behavior : Problems and Prospects,
Philadelphia, 1973 ; Birth and Fortune : The Impact of Numbers on Personal
Welfare, New York, Basic Books, 1980.
4 Les principaux travaux fondateurs sont : King, Robert, G. Plosser, Charles I.
Rebelo, Sergio T., « Production, Growth and Business, Cycles : I. The Basic
Neoclassical Model », Journal of Monetary Economics, 21, 1988, pp. 195-232 ;
« Production Growth and Business, Cycles II : New directions », Journal of
Monetary Economies, 21, pp. 309-341. Charles I. Plosser, « Understanding Real
Business Cycles », The Journal of Economic Perspectives, vol. 3, n° 3 (été,
1989), pp. 51-77. Kydland F.E. et Prescott E.C, « Time to Build and Aggregate
Fluctuations », Econometrica, 50, pp. 1345-1370, 1982 ; Long, J. et Plosser, C., «
Real Business Cycles », Journal of Political Economy, 91, pp. 39-69, 1983.
5 Joseph A. Schumpeter, Business Cycles : a Theoretical, Historical and
Statistical Analysis of the Capitalist Process, 1939. Dans cet ouvrage
Schumpeter expose en fait une théorie des cycles qu’il présente comme une
superposition de cycles plus courts dans des cycles plus longs : le kondratief
serait une courbe enveloppe de plusieurs Juglar, et un Juglar serait une courbe
enveloppe de plusieurs Kitchin.
6 On lui doit notamment Lectures on the Industrial Revolution, 1884.
7 The World Economy and its Condition During and After the War, 1922 ; «
The Long Waves in Economic Life », Archiv fur Sozialwissenschaft und
Sozialpolitik, 1926, (reproduit dans.REStat1935).
8 Walter Isard, « A neglected cycle : The transport-building cycle », REStud.,
pp. 149-158, 1942 ; Alvin H. Hansen, Fiscal Policy and Business Cycles, New
York, 1941.
9 Simon Kuznets, Secular Movements in Production and Prices, Houghton-
Mifflin, Boston and New York, 1930, et l’article « Equilibrium Economics and
Business », QJE, 1930.
10 Des Crises commerciales et leur retour périodique en France, en
Angleterre, et aux États-Unis (1862), peut être consulté sur le site web Gallica.
11 « Cycles and Trends in Economic Factors », REStat., 1923.
12 Role of Inventories in Business Cycles, 1948 ; Inventories and Business
Cycles, 1950.
13 Christian Chavagneux, « Les deux faces de Greespan », Greenspan,
magicien ou illusionniste ? L’Économie politique, no 29, 2006/1, pp. 5-6.
14 Olivier Le Courtois et François Quittard-Pinon, « Asia-Pacific Financial
Markets », Springer Netherlands, vol. 13, pp. 11-39, 2006.
15 http://alternatives-economiques.fr/blogs/flandreau/2007/10/04/bagehot-etc/
16 Michel Aglietta, La crise. Pourquoi on en est arrivé là ? Comment en
sortir ? Michalon, novembre 2008, 125 pages.
17 Source Erwan Gautier : « Les marchés financiers comme indicateurs
avancés des retournements conjoncturels : le cas américain », Bulletin de la
Banque de France, n° 153, septembre 2006, pp. 61.
18 « À la découverte d’indicateurs pour prévoir l’économie canadienne »,
juillet 2004, Mimeo, Institut d’économie appliquée, HEC Montréal.
19 « European Overnight Index Average ». Ce taux est issu d’une moyenne
pondérée des taux O/N traités par un panel de banques. L’Eonia est publié
quotidiennement par Euribor FBE Association et Euribor ACI Association et
sous le contrôle de la BCE. Taux de référence européen qui correspond à
l’acronyme français de Tempé qui signifie Taux moyen pondéré en euros.
20 Rapport entre le prix moyen des exportations et le prix moyen des
importations.
Chapitre 10
Les problèmes de l’emploi
La question de l’emploi est sans doute la plus importante
en économie par ses conséquences sur la vie sociale et la vie
de chacun. Elle est indissociable d’une économie salariale.
L’emploi est ce qui permet de procurer dignement les
moyens de subvenir à l’existence du travailleur et de sa
famille. La plupart des nations ont admis le principe du droit
au travail. Le droit au travail est le droit qu’a tout homme de
vivre en se procurant par son travail les ressources
nécessaires. L’emploi est tout travail apportant une
ressource à la personne qui l’effectue.
Après une brève section consacrée à la définition du
chômage, l’objet de ce chapitre est de présenter les théories
du chômage et les politiques de l’emploi.
1. Le chômage : définitions
Le problème de l’emploi concerne la population active
totale ou main-d’œuvre. Celle-ci regroupe la population
active occupée (PAO, on dit aussi population active
employée : PAE) et la population en âge de travailler à la
recherche d’un emploi qui constitue la population de
chômeurs évaluée par enquête annuelle.
La PAO comprend toutes les personnes (âgées de 16 à 65
ans) participant, contre une rémunération, à la production
des biens et services, ne serait-ce que pour une heure,
pendant une brève période de référence spécifiée, et toutes
les personnes pourvues normalement d’un emploi, mais
absentes de leur travail. Ne sont chômeurs que les personnes
de plus de 16 ans qui, au moment de l’enquête, sont à la fois
sans travail, à la recherche d’un travail et disponibles pour
travailler. Si les enquêtés avancent une raison de « non-
recherche », indépendante de leur volonté, ils sont comptés
comme chômeurs. Ce sont des personnes qui croient que le
travail n’est pas disponible dans leur localité de résidence ;
déclarent ne pas avoir le niveau de formation ou
d’expérience nécessaire pour un emploi ; sont trop jeunes ou
trop âgées pour être embauchées ; ont un handicap
personnel ; ont une promesse d’embauche ; attendent une
réponse de l’employeur. Les personnes inactives sont
classées selon la cause qui est à l’origine de leur inactivité :
les écoliers, les étudiants, les femmes au foyer, les retraités,
les rentiers, les infirmes ou malades, etc.
Selon la définition du Bureau international du travail (BIT), est
chômeur toute personne en âge de travailler qui est sans emploi
salarié et non salarié, est disponible pour travailler dans un emploi
salarié ou non salarié et est à la recherche d’un travail. Avec cette
notion, on calcule la PSERE (Population sans emploi à la recherche
d’un emploi). Toutefois, le BIT recommande de prendre en compte
également les personnes qui ne sont plus à la recherche d’un emploi
mais qui sont sans travail, disponibles pour travailler et qui ont pris
des dispositions pour prendre un emploi salarié ou non salarié à une
date ultérieure à la période de référence – période de l’enquête
(résolution adoptée par la XIIIe Conférence internationale des
statisticiens du travail, Genève, octobre 1982). On notera que, dans
cette définition statistique, on parle de recherche d’un emploi ; en
d’autres termes, l’offreur de travail est un demandeur d’emploi. Les
demandeurs de travail (entreprises, administrations…) sont donc des
offreurs d’emplois.

Les enquêtes conformes à cette définition sont effectuées


une fois par an, le plus souvent au mois de mars, mois le
plus neutre du point de vue de l’activité. Les effets
saisonniers, d’une part, de surdemande de candidats à un
emploi sortant du système scolaire et universitaire en
septembre et octobre, d’autre part, de suractivité de
préparation des fêtes de fin d’année et, enfin, de sous-
activité à l’approche de l’été sont ainsi éliminés. Pour
disposer d’informations mensuelles, on a alors recours aux
demandes d’emploi en fin de mois (DEFM), obtenues par
les services du ministère du Travail. Les recensements
généraux de la population permettent également d’obtenir
des informations précieuses mais avec une périodicité trop
longue.
Le chômage, phénomène jamais totalement résorbé car il
existe un chômage incompressible dit encore chômage
d’équilibre selon la formule de Lord Beveridge, s’est
surtout développé dans les années 1930, et plus récemment
vers la fin des années 1960 pour s’accélérer à partir de 1974
dans la plupart des pays pour donner naissance au
phénomène du chômage de masse et de longue durée
associé à la croissance de la population active, par
opposition au chômage d’exception ne touchant qu’une
faible proportion de la population et pour une courte durée.
À partir de 1983-1984, certaines nations enregistrent une
diminution du taux de chômage moyen (nombre de
chômeurs par rapport à la population active).
Formes et types de chômage
Chômage accidentel : chômage technique consécutif à un
événement non économique (cataclysme, etc.).
Chômage chronique, durable : chômage long, permanent
de nature structurelle.
Chômage classique : en économie du déséquilibre
(Benassy, Malinvaud), chômage lié à l’insuffisance des
capacités de production et au coût excessif du travail. Les
prix sur le marché des produits sont trop bas pour des
salaires trop élevés. Les entreprises ne jugent pas rentable
de satisfaire la demande et d’embaucher des offreurs de
travail.
Chômage conjoncturel : chômage tributaire de l’activité
économique ; comme celle-ci peut suivre une évolution
cyclique, le chômage conjoncturel peut être une composante
du chômage cyclique. Le chômage résiduel est la différence
entre le chômage total et le chômage conjoncturel.
Chômage cyclique : chômage lié à l’évolution de
l’activité économique et dont les formes sont le chômage
saisonnier et le chômage conjoncturel.
Chômage d’attente, de recherche ou chômage de
prospection : chômage volontaire correspondant à la
période d’investissement en information pour trouver le
meilleur emploi, sachant que le chômeur dispose d’un
revenu de remplacement pendant sa prospection.
Chômage d’équilibre ; taux de chômage incompressible
selon W. Beveridge. Il correspond au chômage frictionnel.
cf. chômage naturel.
Chômage d’exclusion, d’inadaptation : forme de
chômage structurel qui frappe les personnes inadaptées aux
conditions du marché du travail. Il peut être la conséquence
d’un chômage long. Il est compatible avec des offres
d’emploi non satisfaites.
Chômage de croissance : demandes d’emploi révélées
par l’expansion économique. L’implantation nouvelle d’une
entreprise dans une région, par exemple, suscite des
demandes d’emploi de la part des habitants de cette région
(phénomène mis en évidence par F. Eymard-Duvernay et R.
Salais, « Une analyse des liens entre l’emploi et le chômage
», Économie et statistiques, juillet-août 1975). Chômage de
masse : niveau élevé et persistant. Il se distingue du
chômage d’exception de niveau faible et non persistant.
Chômage déguisé : Sureffectif qui corresponde à une
faible productivité du travail.
Chômage démographique : chômage consécutif à la forte
croissance de la population active, suite à l’arrivée de
classes pleine sur le marché du travail au moment des
départs à la retraite les travailleurs des classes creuses.
Chômage frictionnel : situation momentanée caractérisée
par l’existence d’importantes offres d’emploi et,
simultanément, présence de nombreux travailleurs sans
emploi (rigidité) : phase intermédiaire entre deux emplois
due à l’information imparfaite du marché du travail. Pour
Beveridge, le chômage frictionnel est un chômage
d’équilibre.
Chômage inexpliqué : cf. chômage résiduel.
Chômage involontaire : situation des travailleurs qui ne
peuvent trouver un emploi, même en acceptant des taux de
salaires inférieurs au taux courant.
Chômage keynésien : en économie du déséquilibre
(Benassy, Malinvaud), chômage lié à l’insuffisance de la
demande effective. Les prix sur le marché des produits sont
trop élevés et les salaires trop faibles. La demande de biens
de consommation est insuffisante, les entreprises réduisent
leur activité et licencient la main-d’œuvre excédentaire.
Chômage marxien (armée industrielle de réserve) :
forme de chômage classique.
Chômage mixte : concomitance du chômage keynésien,
dans certains secteurs ou régions, et du chômage classique,
dans d’autres secteurs ou régions.
Chômage naturel : niveau de chômage compatible avec
la stabilité des prix (NAIRU : non accelerating inflation
rate of unemployment) ou niveau de chômage non
accélérateur des salaires (NAWRU : non accelerating wage
rate of unemployment). Il correspond au chômage dû aux
facteurs réels (structurels et frictionnels). Il est indépendant
des facteurs monétaires et conjoncturels. Synonyme :
chômage d’équilibre.
Chômage paradoxal (selon Philippe d’Iribarne, 1990,
PUF) : taux de chômage élevé et volume important d’offres
d’emploi non satisfaites sont concomitants. On en rend
compte par la courbe de Beveridge sous la forme d’une
relation inverse entre le taux de chômage et le taux
d’emplois vacants.
Chômage partiel : arrêt de travail d’un salarié consécutif
à une diminution des horaires ou à une fermeture
momentanée de l’entreprise. Il peut être technique,
conjoncturel ou encore structurel. Chômage récurrent :
situation de l’ensemble des personnes qui, sans se
considérer comme chômeurs, ne trouvent
qu’épisodiquement des emplois.
Chômage résiduel : situation de l’ensemble des
travailleurs, en chômage involontaire, qui, à tout moment,
sont recensés dans tout pays où en principe le plein-emploi
est réalisé. Il correspond au chômage inexpliqué.
Chômage saisonnier : forme particulière de chômage
cyclique correspondant à la situation des travailleurs de
certaines activités lorsqu’ils perdent régulièrement leur
emploi à certaines périodes de l’année, du fait du
ralentissement ou même de l’interruption périodique de
l’activité dans ces activités. Le chômage saisonnier disparaît
des calculs par le procédé de la correction des variations
saisonnières.
Chômage structurel : situation de longue période
caractérisée par l’inadaptation qualitative de la demande et
de l’offre du travail. Ces inadaptations sont des rigidités
aussi bien des salaires que des qualifications. La
saisonnalité de l’activité, la nouvelle technologie, les
nouveaux secteurs avec des métiers spécifiques mais une
main-d’œuvre non préparée, la disparition ou la diminution
d’autres activités aux métiers spécifiques mais sans
possibilité d’assurer une conversion professionnelle pour les
licenciés, l’arrivée des enfants de parents du baby-boum
dans une économie où la demande de remplacement a
remplacé la demande d’expansion sont quelques structures
déterminantes du chômage structurel.
Chômage technique : arrêt du travail pour des raisons
techniques, difficultés d’approvisionnement, destruction de
l’appareil de production, occupation des locaux,
intempéries, etc.
Chômage technologique : forme de chômage structurel dû
au développement du progrès technique, qui, d’une part,
conduit à la suppression de certains postes de travail, à la
disparition de certains métiers et, d’autre part,
s’accompagne de la difficulté d’adaptation de la main-
d’œuvre à la modernisation des entreprises.
Chômage transféré : chômage qui, à l’intérieur d’un pays
donné, frappe les travailleurs d’un certain sexe, d’un certain
âge ou d’une certaine catégorie professionnelle ou sociale
(le chômage peut être également transféré d’un pays à un
autre : « to beggar my neighbour policy »).
Chômage volontaire : situation du travailleur qui refuse
de travailler, soit en raison de convenances personnelles,
soit parce que le salaire proposé lui paraît insuffisant en
contrepartie de l’effort fourni. Chômage wicksellien :
chômage qui résulte des taux d’intérêt réels trop élevés,
selon la théorie de Knut Wicksell.

Le taux de chômage, qui est le rapport entre le nombre de


chômeurs et la population active totale ou main-d’œuvre,
varie cependant en fonction de l’âge, du sexe, des
caractéristiques ethniques et de la région. Par exemple, les
jeunes à la recherche de leur premier emploi, les personnes
de plus de 50 ans, les femmes, les travailleurs faiblement
qualifiés, les travailleurs immigrés en France ou les
Hispaniques et les Noirs aux États-Unis sont des groupes
sociaux à fort taux de chômage. Il arrive évidemment que
ces éléments soient conjugués, ce qui rend difficile l’analyse
des déterminants.
2. Les théories explicatives du chômage
Le modèle d’équilibre de la théorie standard ignore le
chômage involontaire qui est pourtant une réalité sous
diverses formes (voir encadré : Les formes de chômage). La
flexibilité des salaires, par la baisse du taux de salaire,
assure le rétablissement de l’équilibre en cas d’une offre de
travail nette. Mais dans la réalité, cette flexibilité ne
s’observe pas. J.M. Keynes, qui reconnaît ce phénomène de
rigidité, insistera pourtant davantage sur le phénomène de
l’insuffisance de la demande effective. Les différentes
formes de chômage permettent d’envisager deux
perspectives d’explication du chômage : les analyses
globales et les analyses microéconomiques fondées sur les
dérèglements des mécanismes du marché du travail.
2.1. Les analyses globales du chômage
Les explications globales du chômage insistent sur
l’insuffisance de la demande effective résultant de la sous-
consommation des masses et l’excès d’épargne des plus
fortunés. Leurs racines plongent dans les écrits
mercantilistes, ceux de Malthus et Sismondi. Elles ont été
développées dans le cadre des théories marxistes et
keynésiennes. Elles relèvent d’une analyse en termes de
flux.
L’approche en termes de prix ne voit dans le salaire qu’un
coût de production pour l’entreprise, négligeant l’aspect
revenu pour les ménages. Dans une approche en termes de
circuit, une baisse de salaire peut se traduire par une
diminution des débouchés et, par conséquent, de la demande
de travail par les entreprises. Ce phénomène se produit
également si une partie des revenus est thésaurisée.
Pour K. Marx le chômage est intrinsèque au mode de
production capitaliste, il résulte à la fois de la paupérisation
relative des travailleurs salariés, de la suraccumulation par
substitution du travail mort au travail vivant. Ce chômage
est nécessaire car il faut maintenir une armée de réserve
industrielle afin d’empêcher la hausse des salaires.
Toutefois le salaire doit être suffisant pour que les
travailleurs survivent et se reproduisent.
Avec J.M. Keynes, la théorisation repose d’abord sur
l’observation de la situation anglaise des années 1920 où la
rigidité des salaires à la baisse, alors que les prix baissent,
provoque une hausse des salaires réels et donc du coût du
travail qui empêchent l’embauche. Sur ce point et dans cette
période, Keynes ne s’oppose pas à l’interprétation classique
du chômage (voir ci-dessous la thèse de Jacques Rueff) qui
l’attribue à des salaires réels trop élevés. Cette conviction de
Keynes est renforcée par la dépression 1930 durant laquelle
les prix baissent, augmentant les salaires réels et le
chômage. Mais, à la différence des classiques, Keynes
considère que l’équilibre du marché ne peut se rétablir, pour
la simple raison que le marché du travail n’existe pas.
L’emploi est en effet réglementé par les syndicats et la
législation. Et même si les salaires baissent, du fait d’une
offre nette de travail, leur baisse générale provoque
inévitablement, dans une économie sans intervention
compensatrice de l’État, celle de la demande qui provoque à
son tour une baisse supplémentaire des prix. Or une baisse
des prix n’est pas une bonne affaire ; c’est au contraire la
hausse de prix qui permet de résorber le chômage, en vertu
de l’effet d’illusion monétaire, la hausse des prix étant
identifiées à la hausse des profits à salaires constants ce qui
est une incitation à produire plus et donc à embaucher. Par
conséquent, en reprenant ce raisonnement avec une baisse
des prix, les entrepreneurs victimes de l’illusion monétaires
anticipent une baisse des profits avec des salaires réels qui
sont restés trop élevés. La production va se ralentir et
finalement le chômage ne diminue pas et va même
s’aggraver. La solution, ou politique économique
keynésienne, est d’augmenter directement la demande
globale par des dépenses publiques, de stimuler la demande
par une politique monétaire expansive et de stimuler les
exportations (dévaluation de la monnaie), quitte à accepter
un peu d’inflation.
Une politique de dépenses publiques destinées à relayer
une demande privée insuffisante n’a pas fait la preuve de
son inefficacité dans le passé, aussi bien entre 1933 et 1939,
qu’au cours des années dites des trente glorieuses de forte
croissance économique (1945-1974). La corrélation positive
est évidente entre, d’une part, la croissance économique et,
d’autre part, la croissance du poids de la puissance publique
en termes aussi bien budgétaires que productifs par le
secteur public, confirmant de la sorte la loi de Wagner. Mais
depuis la rupture de 1974, cette corrélation n’est plus
établie. La croissance des dépenses publiques a même été
corrélée avec la hausse du taux de chômage dans certains
pays, ou bien ne s’est pas accompagnée de sa baisse. Au
début des années 2000, compte tenu des niveaux de
dépenses publiques et de prélèvements obligatoires (impôts
et cotisations sociales), déjà atteints dans un grand nombre
de pays développés, il peut sembler difficile de poursuivre
une politique de croissance des dépenses publiques. Pour les
économistes libéraux l’accroissement des dépenses s’avère
contre-productif, plus que jamais.
Une politique monétaire expansionniste dans la logique
keynésienne consiste à abaisser le coût du crédit pour
décourager l’épargne (euthanasie du rentier). Elle assure un
climat favorable à l’investissement et à la consommation.
Mais en France, par exemple, cela n’a pas eu d’effet
sensible sur la réduction du taux de chômage dans les
années 1990. Le même phénomène d’inefficacité a été
observé au Japon où pourtant le taux d’intérêt de la Banque
centrale a été inférieur à 1 % pendant près d’une décennie.
Il reste, dans cette batterie des formes de
l’interventionnisme keynésien, la politique des revenus.
Bien que tombée en défaveur dans la plupart des pays, elle
n’a jamais totalement disparu en France compte tenu du rôle
joué par le SMIC, régulé par l’État, dans la détermination de
l’ensemble des salaires. Elle est réapparue plus
massivement, quoique de manière indirecte, à travers les
deux lois sur les 35 heures, dites lois Aubry, qui, compte
tenu de la rigidité à la baisse des salaires réels, s’apparentent
à une politique de hausse de la masse salariale. Les effets à
attendre de telles interventions sont, là encore, très
contestés.
La faiblesse principale de l’analyse keynésienne et de
toutes les analyses globales est de faire l’hypothèse de
l’homogénéité du système économique, comme si un taux
de chômage national se retrouve dans toutes les régions,
dans tous les secteurs, dans toutes les professions. Or il y a
des disparités sectorielles, régionales, locales,
professionnelles. Il y a des secteurs qui recherchent des
travailleurs, pendant que d’autres sont en sous-activité. Il y
a des professions sinistrées, qui ne correspondent à aucun
emploi et des professions recherchées. L‘analyse néo-
keynésienne en termes de déséquilibres, sur la base des
fondements microéconomiques de la macroéconomie, a
beaucoup fait évoluer la théorie keynésienne en
reconnaissant la possible concomitance d’un chômage
keynésien (la demande de travail est inférieure à l’offre) et
d’un chômage classique (l’offre de travail n’est pas rentable
et ne rencontre donc pas de demande).
Il est donc évident qu’une politique globale qui ignore ces
phénomènes structurels est condamnée à l’inefficacité. Cette
inefficacité est en outre aggravée par un processus
inflationniste déclenché par une forte demande auprès des
secteurs, en situation goulet d’étranglement, qui ne trouvent
pas la main-d’œuvre pour faire face à cette demande
croissante.
2.2. Les explications du chômage fondées sur les
mécanismes de marché
Le chômage est un déséquilibre entre l’offre de travail et
la demande de travail du fait de coûts salariaux (salaires +
charges sociales) plus élevés que la productivité marginale
du travail, sur différents marchés du travail. Il faut expliquer
ces différences de niveau qui peuvent d’ailleurs ne pas être
constatées partout en même temps. Ces explications
abandonnent donc le globalisme au profit d’une analyse en
termes de structure. Elles reviennent à expliquer la rigidité
du salaire empêchant la baisse de l’offre de travail et
l’augmentation de la demande de travail sur la base de
facteurs exogènes (législation, réglementation et
conventions relatives à l’indemnisation du chômage, au
salaire minimum, seuils sociaux dans l’entreprise…) et de
facteurs endogènes liés au comportement des demandeurs et
des offreurs de travail. L’absence de flexibilité du salaire
réel conduit à un ajustement par les quantités (chômage) au
lieu d’un ajustement par les prix (baisse du salaire).
L’existence d’un salaire minimum légal (comme, par
exemple en France, le salaire minimum interprofessionnel
de croissance – SMIC) et l’indemnisation du chômage par
un système d’assurance ont depuis longtemps été dénoncées
(J. Rueff, 1931). Plus récemment sont apparues les théories
du job search ou du chômage de prospection (G. Stigler),
des contrats implicites de travail (M.N. Baily, D.F. Gordon
et C. Azariadis), du salaire d’efficience (H. Leibenstein et
J.E. Stiglitz), de la segmentation ou du dualisme du marché
du travail (M. Piore et P. Doeringer), des marchés interne et
externe du travail (« insiders/ outsiders » de A. Lindbeck et
D. Snower) de l’effet d’hystérésis (O. Blanchard).

a) Le salaire minimum et les institutions


En France, le SMIC (salaire minimum interprofessionnel
de croissance) est un prix administré des services du travail.
Un salaire minimum élevé suscite une offre de travail
supérieure à la demande. En outre, plus le SMIC est élevé,
plus il contribue à révéler des demandes d’emploi et plus les
offres d’emploi diminuent : un SMIC élevé rend
intéressantes la substitution du travail au loisir, d’une part,
et la substitution du capital au travail, d’autre part, puisque
la logique de l’entreprise, dans ce dernier cas, consiste à
embaucher un volume de main-d’œuvre tel que le salaire
soit égal à la productivité marginale. Or, celle-ci décroît
pour un volume de travail croissant. Le SMIC pourrait donc
conduire au chômage ceux dont la productivité est
inférieure à ce montant. En termes de politique économique,
les libéraux affirment que l’embauche de travailleurs
supplémentaires exige la suppression du prix plancher que
constitue le SMIC. La rigidité qu’il introduit débouche alors
sur du chômage institutionnel qui est une forme du chômage
structurel. Les réglementations sur les conditions de travail,
les horaires, les contraintes sur les licenciements, les
comités d’entreprise, etc. sont invoqués dans le même sens.
Les aspects institutionnels sont au cœur de la théorie du
contrat et de la théorie des conventions. Ces théories
remettent en cause la théorie néoclassique standard qui
envisage la relation de travail comme un rapport instantané.
En effet, la relation de travail est alors institutionnalisée et
revêt une certaine permanence étrangère à la logique de
marché. Cela entraîne une plus grande rigidité des salaires
qui peuvent s’éloigner du point d’équilibre et constituer une
entrave à la diminution automatique du chômage. La théorie
des syndicats est à rapprocher de ces phénomènes
institutionnels et conventionnels. Dans cette théorie, les
syndicats de travailleurs sont assimilés à des monopoles qui
utilisent leur pouvoir de marché pour obtenir un prix (un
salaire) plus élevé pour le travail des salariés. Cela conduit à
une diminution de la demande de travail. Cette approche,
qui est strictement l’inverse de la théorie marxiste dans
laquelle ce sont les employeurs qui sont en situation de
monopole et les salariés forcés de travailler pour survivre,
néglige de prendre en considération la fin du closed shop
(mode d’embauche qui suppose l’accord du syndicat unique
dans l’entreprise) un peu partout dans le monde et, surtout,
néglige les cas où les syndicats acceptent une baisse de
salaire pour éviter des licenciements, des délocalisations des
activités vers des régions à faibles salaires.

b) L’information imparfaite et le chômage de


prospection
Le phénomène du chômage volontaire associé à
l’assurance-chômage a donné lieu à de nouvelles analyses,
après celle de Jacques Rueff dans les années 1930. Ces
analyses insistent sur l’imperfection du marché du travail,
i.e. sur le manque d’informations dont disposent les offreurs
de travail. Ainsi, un travailleur peu satisfait des conditions
de travail dans son entreprise aura plus de difficultés à
rechercher un autre emploi que s’il était chômeur. Il ne peut
pas se contenter des annonces dans les journaux ou dans des
organismes de placement, car de telles annonces ne donnent
pas toute l’information jugée nécessaire. Le chômage de
recherche (job search) est alors d’autant plus opportun qu’il
existe des indemnités de chômage : assurance, revenu de
transfert. L’existence de ces revenus sociaux incite le
chômeur à refuser une proposition d’emploi si le niveau de
rémunération est jugé trop faible par rapport à un salaire de
réservation. Celui-ci est le niveau de salaire que le
chercheur d’emploi s’est fixé comme le niveau minimum
acceptable.
Le niveau élevé du salaire de réservation peut s’expliquer
par les anticipations du chercheur d’emploi, conçues sans
une information parfaite sur les conditions du marché.
Autrement dit, lorsque plusieurs propositions d’embauche
émanent de plusieurs entreprises différentes à des taux de
salaire inférieurs au salaire de réservation, le chercheur
d’emploi rectifie ses ambitions à la baisse. Mais on peut
voir, dans l’assurance-chômage et dans les aides publiques,
un facteur de chômage d’attente, dit encore de prospection
ou de recherche. Ces revenus hors travail contribuent ainsi à
la rigidité du salaire à la baisse. De la sorte, au chômage
volontaire s’ajoute un chômage structurel, de même nature
que celui qui est associé au salaire minimum.
Finalement, l’assurance-chômage et les revenus de
transfert (ou revebus sociaux) aboutissent à deux types de
chômage : (1) un chômage d’attente, qui est un chômage
volontaire ; (2) un chômage structurel, dans la mesure où les
revenus hors travail contribuent à la rigidité du salaire à la
baisse. Ces revenus, en effet, permettent au chômeur
d’annoncer un salaire de réservation non négociable dans
une première phase.
Cette théorie présente des limites évidentes en ignorant
les effets positifs de l’assurance-chômage et des revenus de
transferts. L’assurance-chômage et les transferts sociaux
sont en effet des amortisseurs conjoncturels, i.e. des moyens
qui permettent aux chômeurs de continuer à consommer et,
par conséquent, aux entreprises de poursuivre leur activité et
d’éviter, éventuellement, ainsi un chômage plus important
c) Les segmentations du marché du travail
Le marché du travail n’est pas un marché unifié, avec des
demandeurs et des offreurs de travail homogènes. Par
exemple, les petites entreprises locales n’ont pas le même
attrait que les grandes entreprises multinationales pour les
jeunes diplômés de l’enseignement supérieur à la recherche
de leur première expérience. Il existe un grand nombre de
critères de segmentation du marché du travail. Malgré les
déclarations des droits de l’homme, malgré les textes des
constitutions et autres lois suprêmes, il existe une
segmentation de fait par la nationalité, la race ou le sexe des
offreurs de travail. Les travaux empiriques dans ce domaine
sont nombreux1. Du point de vue théorique, ce sont les
distinctions proposées en termes de dualisme du marché du
travail (marché primaire/marché secondaire) et de marché
interne/marché externe qui ont suscité le plus d’intérêt.
La théorie du dualisme du marché du travail a été
proposée en 1971 par Peter Doeringer et Michael Piore2
(Internal Labor Markets and Manpower Analysis, 1971).
Ces économistes étendent aux États-Unis l’analyse
structurale en termes de dualisme économique conçue
originellement pour les économies en voie de
développement où l’on a observé la coexistence sans
échanges significatifs d’un secteur moderne et d’un secteur
traditionnel. Ils distinguent ainsi, d’une part, un secteur
moderne constitué par les grands services publics ou par de
grandes entreprises privées dynamiques proposant des
emplois qualifiés, stables, biens rémunérés comportant de
larges possibilités de promotions et une forte syndicalisation
et, d’autre part, un secteur de petites et moyennes
entreprises à l’avenir incertain, proposant des emplois
précaires, faiblement qualifiés et peu rémunérateurs, à des
travailleurs de faible formation, généralement non
syndiqués, issus de groupes sociaux défavorisés. Le premier
secteur constitue le marché primaire du travail. Il est
quasiment indépendant des fluctuations conjoncturelles,
tandis que le marché secondaire des emplois précaires,
instables et mal rémunérés contribue à l’adaptation du
système productif aux fluctuations conjoncturelles de la
demande
L’approche en termes de marché interne et externe du
travail est l’autre nom de la théorie du marché du travail en
termes d’insider/outsider. Elle est due à A. Lindbeck et L.
Snower (The Insider-Outsider Theory of Employment and
Unemployment, MIT 1989). Elle revient à une analyse sur la
base du mode gestion de la main-d’œuvre. L’expression «
marché interne » signifie que les salaires et la détermination
des emplois obéissent à des règles de type administratif, à
l’intérieur de l’entreprise, et le marché externe désigne la
relation de marché entre employeurs et chômeurs. Les
travailleurs qui sont dans la firme sont les insiders. Ceux qui
recherchent un emploi sont des outsiders : les salariés déjà
intégrés à une entreprise ne sont pas facilement
remplaçables par des externes car ils connaissent
l’entreprise, il y aurait des coûts à former leurs remplaçants,
des coûts de licenciement si, pour un emploi ouvert, la
candidature d’un externe au salaire bas serait envisagée…
de sorte qu’ils peuvent exiger des salaires plus élevés sans
risquer d’être licenciés. Cette théorie explique aussi
l’augmentation des salaires de ceux qui travaillent (insiders)
en période de chômage de masse (les chômeurs sont les
outsiders) par l’existence d’un marché d’emplois stables
dont les titulaires obtiennent à la suite de négociations des
rémunérations croissantes, pour participer à l’intégration et
la formation des nouveaux embauchés éventuels. Il est
difficile aux dirigeants de refuser, car aux coûts de
licenciement de ceux qui ont de trop fortes rémunérations,
d’embauche et de formation des chômeurs qui rendent déjà
non rentable l’opération de substitution de chômeurs au
salaire bas aux travailleurs aux salaires élevés, s’ajoutent,
d’une part, l’effet d’antisélection (ne viendront que les
chômeurs à faible compétence et à faible productivité) et,
d’autre part, la réaction des insiders qui n’accepteront pas
sans lutte de perdre leur rente de situation. Le niveau du
salaire est donc indépendant de la conjoncture, et le
chômage ne peut diminuer.
La relation entre productivité et salaire, fondamentale
dans la théorie des insiders/outsiders, est l’expression de la
théorie du salaire d’efficience.

d) La théorie du salaire d’efficience


Le salaire est la contrepartie de la peine que constitue le
travail, mais c’est aussi un stimulant qui aligne l’effort ou le
produit du travail à la rémunération proposée. Cette idée a
été exposée par divers économistes, mais la plus ancienne
formulation est due à Harvey Leibenstein (1922-1994)3, qui
faisait remarquer que dans les pays en voie de
développement, un salarié mieux nourri est un salarié plus
productif. Elle a fait l’objet de nouvelles analyses par
différents auteurs de la NEK dont Joseph Stiglitz, George A.
Akerlof et Janet L. Yellen. Le couple Akerlof-Yellen a
notamment réuni les principaux articles portant sur le salaire
d’efficience dans un livre qu’ils ont édité en 19864.
Grossièrement, l’idée générale n’est pas éloignée de la
vieille prescription de F.W. Taylor qui préconisait d’obtenir,
par son système de salaire au rendement (salaire différentiel
aux pièces)5, des salaires élevés pour attirer les meilleurs
travailleurs, laissant aux autres entreprises les travailleurs
les moins productifs, i.e. ceux qui n’arrivent pas à dépasser
le rendement normal. La théorie du salaire d’efficience est
donc une hypothèse de corrélation positive entre salaire et
productivité à partir de laquelle elle explique la rigidité des
salaires et le chômage involontaire. En effet, quand toutes
les firmes recherchent les travailleurs les plus efficients en
leur proposant le paiement d’un salaire supérieur au salaire
d’équilibre, un chômage durable de nature involontaire
apparaît.
Le fondement managérial du salaire d’efficience est celui
de l’incitation en situation d’asymétrie de l’information. Les
salariés ne composent pas une masse homogène et
l’entreprise, ne sachant pas toujours bien distinguer un
salarié qui travaille bien d’un autre, doit inciter les salariés à
bien travailler en les payant plus que le salaire qui
correspondrait strictement à leur travail. Leur salaire élevé
les incite à travailler avec efficience afin de conserver leur
travail. La productivité s’aligne sur le salaire. La qualité du
travail ou sa spécificité empêche les chômeurs d’y accéder.
La demande de travail par les entreprises est de moins en
moins importante si le salaire d’efficience est élevé. Par
conséquent le chômage involontaire sera élevé. Le chômage
résulte de la plus faible demande de travail, puisque la
même production peut être réalisée avec moins de
travailleurs, et ce chômage est en outre nécessaire pour
exercer une menace sur les salariés.
Le problème, avec la théorie du salaire d’efficience, est
de pouvoir déterminer la productivité de chacun, dans les
systèmes de production actuels impliquant un travail
collectif au sein de grandes organisations incapables de
combattre les phénomènes de passager clandestin et de «
l’inefficience X », selon l’expression de H. Leibenstein.

e) La théorie des contrats implicites de travail


Le principe de base de la théorie du contrat implicite est
l’assimilation d’une stagnation salariale ou une faible
croissance du salaire en période faste à une assurance-
emploi. Elle démontre qu’il est plus avantageux pour le
salarié et pour l’entreprise de maintenir le niveau du salaire
nominal que de recourir à la baisse, dans les phases de
récession. Les salariés, qui ont une forte aversion pour le
risque, préfèrent d’une certaine façon s’assurer auprès des
entreprises contre l’incertitude portant sur leurs revenus, par
des contrats de long terme qui réduisent la sensibilité des
salaires aux fluctuations de la demande. Dans les périodes
de conjoncture favorable, les salariés reçoivent un salaire
réel inférieur à leur productivité marginale, et inversement.
En effet, pour le salarié, la rigidité à la baisse est une
compensation de la faible croissance pendant les périodes
de haute conjoncture, voire de stabilité en cas de reprise de
l’activité. Les firmes, dont l’aversion pour le risque est plus
faible que celle des salariés, ne sont pas perdantes, d’autant
plus que c’est pour elles un moyen de conserver un
personnel qualifié. Les entreprises préfèrent ces contrats, car
en moyenne, la valeur attribuée par les salariés à l’assurance
ainsi fournie par les entreprises permet à celles-ci de les
rémunérer à un salaire plus bas. En cas d’évolution
péjorative pour la firme, l’ajustement se ferait donc par des
licenciements et non au moyen des salaires (ajustement par
les quantités au lieu d’un ajustement par les prix).
Cette théorie encourt de nombreuses critiques notamment
celle qui consiste à se demander dans quelle mesure les
travailleurs préfèrent la sécurité du salaire à celle de
l’emploi. Mais on peut amender la théorie du contrat
implicite en considérant que la pratique de la thésaurisation
du travail (labour hoarding) fait aussi partie de l’assurance.
En cas de difficultés conjoncturelles, la firme ne licencie pas
le surplus de main-d’œuvre, elle fonctionnera en sous-
emploi. Ce chômage déguisé est aussi avantageux pour
l’entreprise, si la thésaurisation du travail n’est pas trop
longue. Elle dispose en effet par cette thésaurisation d’une
main-d’œuvre compétente susceptible d’être
immédiatement opérationnelle dès que la reprise
économique se manifeste. En outre, elle fait l’économie de
la formation de nouveaux embauchés, tout en économisant
les coûts des licenciements et les coûts du recrutement.

f) Le chômage d’inadéquation
Il s’agit moins d’une théorie que du constat empirique
d’une forme de chômage structurel qui résulterait de la
coexistence de structures rigides d’offres et de demandes de
travail par qualification, qui ne coïncideraient pas : si les
salariés ont des compétences peu utiles pour les entreprises
et ne peuvent apprendre les compétences utiles, tandis que
les entreprises ont des demandes précises pour lesquelles il
n’y a pas de salariés disponibles, et si elles ne peuvent
substituer d’autres salariés à ceux qu’elles recherchent, un
chômage d’inadéquation peut apparaître. On peut penser
qu’un tel chômage n’est pas négligeable pour les
travailleurs âgés (peu requalifiables) ou pour les chômeurs
de longue durée déqualifiés, phénomène abordé aussi dans
le cadre des effets d’hystérésis des problèmes passés.
g) L’hypothèse d’hystérésis
Présentée notamment par Olivier Blanchard et Lawrence
Summer en 19866, l’hypothèse est fondée sur le postulat
selon lequel lorsqu’un système évolue, il ne retrouve que
difficilement sa direction de départ. Ce phénomène de
physique est appliqué en économie pour expliquer
l’augmentation du taux de chômage naturel, malgré la
reprise de la croissance économique. En d’autres termes, le
chômage serait résistant à la croissance. Le taux de
chômage d’équilibre serait alors convergent avec le taux de
chômage effectif antérieur.
La détérioration du capital humain est l’une des causes de
cet effet d’hystérésis qui se traduit par la persistance du taux
de chômage : plus une personne a été inactive longtemps
plus sa capacité de travail ou employabilité sera détériorée.
Les chômeurs de longue durée sont donc victimes d’un effet
d’éviction au bénéfice des qualifiés (Henri Sneessens,
19957, que l’on cherche éventuellement à recruter en allant
les chercher dans d’autres entreprises.

h) Conclusion
D’un point de vue empirique, les théories de la
segmentation sont souvent validées. Le dualisme du marché
du travail s’est accru à partir du milieu des années soixante-
dix. D’une part, le chômage touche davantage les
travailleurs les moins qualifiés et, d’autre part, le recours à
des formes d’emploi précaire s’est alors fortement
développé. Les modèles de marché dual expliquent à la fois
le rationnement sur le marché de l’emploi primaire, et la
possibilité de chômage pour les autres salariés. Le chômage
serait la résultante de l’existence d’une quasi-rente salariale,
que les salariés du secteur primaire peuvent s’approprier,
soit par l’exercice d’un pouvoir syndical, soit par leur
pouvoir « d’insiders » dans le cadre de négociations
salariales. L’ajustement global ne se fait pas au sein de
l’autre secteur dit « secondaire », car la flexibilité du salaire
est contrariée par un système d’indemnisation du chômage,
une législation de salaire minimal et une rémunération
fondée sur un salaire d’efficience. Ce sont autant de facteurs
qui font que l’équilibre du marché du travail n’est pas
atteint.
Toutefois ces différentes explications par le marché du
travail demeurent partielles et contingentes et ont donc des
limites tout comme les approches globales keynésiennes et
marxistes. Il y a des périodes de fort chômage et des
périodes de presque plein-emploi. Est-ce à dire que les
insiders ont changé de comportement, ou qu’il n’est plus
question de salaire d’efficience ? Il y a des spécificités
nationales, régionales et sectorielles déjà évoquées comme
limites des théories globales qui n’apparaissent dans aucune
de ces théories pour expliquer les écarts de taux de chômage
entre les pays ou entre les secteurs. L’inadaptation des
produits à la demande, l’inadaptation des structures
économiques à la concurrence internationale qui ne se réduit
pas au seul aspect de la compétitivité par les prix, etc.,
peuvent expliquer les difficultés spécifiques dans certains
pays et dans certains secteurs conduisant à la faiblesse de la
croissance et au maintien d’un taux de chômage élevé.
La conclusion qui s’impose après ce survol d’un grand
nombre d’explications aussi bien macroéconomiques que
microéconomiques et managériales, c’est qu’une théorie
générale de l’emploi est difficilement imaginable
aujourd’hui, même si elle a pu être écrite en 1936.
3. Les politiques de l’emploi
Les instruments dont disposent les pouvoirs publics sont
la politique monétaire, la politique budgétaire et la politique
réglementaire. Cette dernière consiste à édicter des règles,
des normes, à formuler des autorisations, des interdictions, à
fixer des quotas, à définir les procédures que doivent
respecter les agents économiques, etc. Le contrôle des prix,
la définition du Salaire minimum, l’autorisation
administrative de licenciement adoptée en France en 1975 et
supprimée en 1986 sont quelques exemples parmi d’autres
de réglementations qui appartiennent à la logique de la
régulation conjoncturelle.
La déréglementation opérée ces dernières années dans
plusieurs pays, qui n’est pas synonyme de la dérégulation
(bien qu’elle soit la traduction de l’anglais deregulation),
s’inscrit dans une logique libérale, alors que la
réglementation est souvent associée à l’interventionnisme
ou au dirigisme.
L’objet de cette section est de privilégier les politiques
budgétaires et les politiques monétaires dans la perspective
de la croissance économique et de l’emploi, en utilisant le
modèle IS-LM. Ce modèle revient à faire l’hypothèse que la
croissance économique est le seul moyen de rapprocher le
niveau de l’emploi d’équilibre (LE) du niveau du plein-
emploi (LPE).
Dans cette section, nous cernerons les facteurs de
déplacements de IS et de LM et les effets de ces
déplacements.
3.1. La politique budgétaire d’expansion
a) Les facteurs du déplacement de IS vers la droite pour
obtenir une croissance du revenu national d’équilibre sont
principalement :
a1 – l’augmentation autonome de la consommation des
ménages ;
a2 – l’augmentation autonome de l’investissement ou une
augmentation de l’investissement anticipant un changement
technique, une hausse de la demande, une hausse de salaire
réel ;
a3 – l’augmentation autonome des dépenses publiques de
fonctionnement et/ou d’équipements ;
a4 – la diminution du taux de l’impôt. Son effet est de
relancer la consommation et l’investissement. Il peut
intervenir de plusieurs manières : sous forme d’une
diminution de l’impôt sur la consommation (TVA : taxe sur
la valeur ajoutée) ou de l’impôt sur le revenu, d’un
amortissement accéléré autorisé pour les investissements,
d’une déduction fiscale pour les investissements nouveaux,
etc.
Ces différents moyens ne sont pas équivalents en termes
d’effets sur l’emploi et de moins-value fiscale pour l’État.
La diminution de la TVA sur les biens de consommation
touche tout le monde, elle peut donc se traduire par une
augmentation du pouvoir d’achat notamment des catégories
sociales les plus défavorisées qui sont les plus disposées à
augmenter leurs achats si cette éventualité est accessible.
Lorsque la TVA représente une part importante des recettes
publiques, comme c’est le cas encore en France, la baisse du
taux aboutit à d’importantes moins-values fiscales dans
l’immédiat en attendant les rentrées plus importantes du fait
de la reprise permise par la baisse de la TVA. Mais la
reprise n’est pas assurée, car ces moins-values, en cas
déficit budgétaire, entraînent un endettement public
susceptible de susciter, du fait de l’emprunt nécessaire pour
son financement, une hausse des taux d’intérêt. Cette hausse
risque de freiner les investissements et de réduire les
chances d’avoir une forte croissance pourvoyeuse
d’emplois. La diminution des impôts sur le revenu peut
inciter les individus à travailler davantage, à éviter
l’installation des entreprises dans des paradis fiscaux ou tout
simplement dans des pays à fiscalité directe avantageuse.
Mais une telle mesure n’a pas d’effet sur la consommation
immédiate, puisque les bénéficiaires de cette mesure sont
ceux qui acquittent un impôt sur le revenu, i.e. ceux qui
n’augmenteront pas leur consommation. Une diminution de
cet impôt permet d’augmenter le revenu discrétionnaire de
ce groupe aux effectifs nettement moins importants que
celui des consommateurs. En termes de moins-value fiscale,
l’importance de celle-ci dépend de la part des impôts sur le
revenu dans les recettes budgétaires et de la manière
d’opérer la baisse dans un système d’impôt progressif. Avec
un tel système, si la baisse ne concerne que la dernière
tranche au taux le plus élevé, la moins value est négligeable
dans un pays présentant une structure de recettes
budgétaires comme celle de la France ; si la baisse concerne
la suppression des premières tranches de l’impôt pour les
ménages dont le revenu fiscal est inférieur à un certain
montant, l’opération peut être favorable à la consommation
sans moins-value fiscale, compte tenu de l’augmentation
des recettes de la TVA associées à l’augmentation de la
consommation de la classe moyenne bénéficiaire de la
suppression des premières tranches ;
a5 – la diminution de la propension moyenne à importer,
accompagnée d’une orientation de la consommation vers les
produits domestiques, à la suite éventuellement de droits de
douane nouveaux, de contingentements à l’égard de certains
produits ou de certains pays, d’une campagne de reconquête
du marché intérieur (préférence nationale, patriotisme
économique), etc. ;
a6 – l’effet d’anticipation sur l’inflation, conduisant à une
augmentation de la demande ;
a7 – l’augmentation autonome des exportations, mais qui
peut s’expliquer aussi par des subventions à l’exportation,
par la détérioration des termes de l’échange en raison de
forts gains de productivité dans les branches exportatrices,
se traduisant par la baisse des prix des produits exportés (les
termes de l’échange net marchand étant le rapport entre le
prix des exportations et le prix des importations).
Signalons qu’une augmentation des exportations et une
diminution des importations peuvent résulter d’une
dévalorisation ou d’une dépréciation de la monnaie
nationale à l’égard des monnaies du reste du monde. Dans
ce cas, le succès de l’opération dite « de dévaluation » exige
certaines conditions et des délais. Les conditions
correspondent au théorème des élasticités critiques, exprimé
ou reformulé par Alfred Marshall, Abba Lerner et Joan
Robinson : afin d’éviter les effets pervers d’une dévaluation
(aggravation du déficit), il est nécessaire que la somme des
élasticités-prix à l’importation et à l’exportation soit
supérieure en valeur absolue à 1. Les délais se traduisent par
la courbe en J : à la suite de la dévaluation, les importations
programmées sont maintenues mais leurs prix en monnaie
nationale s’élèvent, tandis que le reste du monde ne verra
ses commandes nouvelles satisfaites qu’après un délai
correspondant au temps d’enregistrement des commandes et
de mise en œuvre de la production. L’inertie momentanée
des importations et des exportations se traduit par une
aggravation du déficit qui s’estompera ensuite pour
déboucher sur un excédent.
b) L’effet de la variation de IS sur Y est lié, d’une part, à
l’expansibilité de i (inverse de l’élasticité) par rapport à la
demande globale et, d’autre part, à la pente de la courbe de
LM.
Une forte expansibilité, ou une droite de IS à faible pente,
s’accompagne d’une forte croissance de Y lorsque LM est
horizontale (i = minimum, trappe à liquidité). Dans cette
situation, le multiplicateur keynésien associé à un
déplacement de IS est intégral. Si LM est verticale, le
multiplicateur associé à une augmentation de la demande
globale est nul : tout déplacement de IS vers le haut
s’accompagne d’une hausse du taux (i) et des prix, Y
n’augmente que de manière nominale. La hausse du niveau
général des prix et du taux d’intérêt, ou paradoxe de Gibson
qui sera étudié plus loin, absorbe l’augmentation de la
dépense qui n’est alors que nominale : on achète moins en
dépensant davantage, et les dépenses publiques
supplémentaires n’ont fait qu’évincer des dépenses des
agents privés qui étaient précédemment programmées.
L‘effet d’éviction est total. Lorsque LM est oblique avec une
pente positive, le déplacement à droite de IS s’accompagne
d’un effet multiplicateur non nul mais partiel par rapport à
la situation d’abondance monétaire pour laquelle le taux i
était au minimum. Dans cette situation, une augmentation
de la demande globale s’accompagne nécessairement de la
hausse du taux d’intérêt (i) et de celle des prix. Les agents
dont l’encaisse réelle a diminué se retireront du marché pour
maintenir constante leur encaisse en termes réels. L’effet
d’éviction, ici, est égal à la différence entre le niveau Y
qu’aurait permis une croissance de LM assurant la stabilité
de i et le niveau effectif de Y obtenu sans déplacement de
LM.

Figure 10.2
. Politiques de croissance des dépenses
publiques
Si on fait l’hypothèse de taux de change fixes et si l’on
admet la parfaite mobilité des capitaux entre les nations, ce
dernier résultat ne durera pas. En effet, la hausse du taux i
va attirer les capitaux étrangers, engendrant une croissance
de la masse monétaire et mettant ainsi fin à l’effet
d’éviction. La courbe LM redevient horizontale. En
revanche, en cas de taux de change flexibles avec mobilité
des capitaux, la politique budgétaire a une efficacité plus
réduite. Les politiques de relance s’accompagnent alors
d’un déficit commercial (cf. 1981-1982, en France).
3. 2. La politique monétaire d’expansion
a) Les facteurs de déplacement de LM peuvent être
notamment :
a1 – L’augmentation de la masse monétaire à la suite de
diverses mesures telles que le désencadrement du crédit, la
diminution des réserves obligatoires que les banques
commerciales doivent déposer à la Banque centrale sans
rémunération et qui sont proportionnelles à leurs
engagements, l’intervention de la Banque centrale sur le
marché libre de l’argent consistant à racheter les bons du
Trésor ou des effets publics et des effets de commerce des
banques commerciales qui doivent être éligibles dans le
cadre d’accords de pension. Cette intervention constitue la
politique d’open market. Dans le cas présent, i.e. de soutien
de l’activité économique, l’open market consiste
principalement en opérations de refinancement.
a2 – L’augmentation de la masse monétaire par achat de
devises par la Banque centrale, à la suite d’une entrée de
capitaux ou d’un excédent de la balance commerciale.
a3 – La baisse du niveau général des prix qui se traduit
par un effet de richesse dit encore « effet d’encaisse réelle »,
ou effet Pigou, équivalent à une abondance nouvelle de
monnaie par rapport à la situation qui a précédé ce
mouvement.
a4 – La diminution de l’incertitude qui réduit la demande
de monnaie pour motif de précaution.
a5 – Une diminution autonome de la demande de
monnaie.

b) L’effet de la variation de LM sur le niveau de Y est lié,


d’une part, à la pente de LM et, d’autre part, à la sensibilité
de IS à la variation de i, comme on l’a déjà vu.
Lorsque LM est horizontale (trappe à liquidité),
l’intersection avec IS, dont la pente est négative, n’est pas
modifiée par un déplacement de LM. Avec un tel cas de
figure, la croissance économique pourvoyeuse d’emplois ne
peut être obtenue que par la politique budgétaire en
déplaçant IS vers la droite.
Lorsque LM est verticale, on sait que la politique
keynésienne de la demande n’a aucun effet. Toute dépense
supplémentaire est absorbée par la hausse des prix. En
revanche, la politique monétaire d’expansion par
déplacement de LM vers la droite assure une croissance
maximale de Y. Dans ce cas de figure, l’augmentation de la
masse monétaire fait baisser le taux (i). Celui-ci suscite, à
son tour, une croissance de l’investissement (déplacement
sur IS et non de IS), d’où il résulte une croissance de Y.
C’est la solution néoclassique, dite encore monétariste.
Avec une pente oblique et positive, le déplacement de LM
entraîne une croissance de Y plus faible que précédemment,
toute chose étant égale par ailleurs. L’effet multiplicateur
dépendra des pentes respectives de IS et de LM. Dans tous
les cas, un déplacement de LM par croissance de la masse
monétaire entraîne une baisse du taux i. Si l’on se place
dans le cadre des changes flexibles et de mobilité des
capitaux, cette baisse de i engendre une fuite des capitaux,
suivie d’une dépréciation du taux de change dont l’effet est
de réduire les importations et d’augmenter les exportations,
i.e. d’augmenter Y et l’emploi. Mais si les taux de change
sont fixes, avec une forte mobilité des capitaux, le rôle de la
politique monétaire est de tenter d’éviter des changements
de parité. Elle perd toute efficacité pour assurer la
croissance interne qui est alors du ressort de la politique
budgétaire.
Figure 10.3
. Politiques monétaires d’expansion et
politique mixte
Lecture : Avec IS1 le déplacement de LM n’a pas d’effet
sur YE1. Avec IS2, le revenu d’équilibre passe de YE2 à Y1E2 à
la suite du déplacement de LM1 en LM2. Le taux d’intérêt
d’équilibre diminue de i1 vers la trappe à liquidité pour
laquelle le taux est i0 Avec IS3, le déplacement de LM1 en
LM2 se traduit par une croissance du revenu d’équilibre en
passant de YE3 à Y1E3 et une baisse du taux d’intérêt du taux iM
au taux i3. Une politique mixte combinant une croissance de
LM et de IS qui passe de IS2 en IS’2 aboutit à la croissance
du revenu d’équilibre qui passe de YE2 à Y2’E2 pour un taux
d’intérêt inchangé.
3.3. La combinaison des stratégies budgétaires et monétaires
(policy-mix)
L’intersection de IS, ni rigide ni infiniment élastique,
avec LM, ni rigide ni infiniment élastique, semble refléter la
situation la plus courante. Dans un tel cas, la croissance
économique et le rapprochement du revenu de plein-emploi
peuvent être obtenus par une combinaison des politiques
budgétaires et des politiques monétaires. Les effets
multiplicateurs des déplacements de IS et de LM sont
conjugués avec une relative stabilité du taux d’intérêt.
Politique budgétaire et politique monétaire ne sont donc
pas incompatibles. De plus, nous avons raisonné jusqu’ici
en supposant, sans le préciser, que l’accroissement de IS
n’est pas financé par création monétaire mais par l’emprunt.
Or, il est possible de ne pas exclure le recours à ce que l’on
appelle la monnaie externe. Nous avons vu enfin que, selon
le régime de change et en fonction de la réglementation
concernant les mouvements internationaux des capitaux, on
peut également combiner les politiques monétaires et
budgétaires, mais en leur réservant des domaines
spécifiques.
3.4. Limites de l’analyse de la politique économique par le
modèle IS-LM
Le raisonnement adopté jusqu’ici a privilégié la
représentation du quadrant 1 de la figure 9.2. donnée plus
haut dans le chapitre 9. La prise en compte du marché du
travail oblige à envisager une troisième stratégie – la
politique des revenus – en plus des politiques budgétaires et
monétaires. Le troisième quadrant de la figure 9.2. montre,
en effet, que toute croissance du revenu implique, par le
biais de la croissance de l’emploi (quadrant 2), une baisse
du taux de salaire réel. Une telle solution ou une telle
conséquence peut sembler incompatible avec le système
keynésien, dans la mesure où la baisse du salaire réel
s’accompagne d’une diminution de la consommation et, par
conséquent, de la demande globale8. La baisse du salaire
réel pose donc le problème des débouchés à la production.
En outre, cette baisse conduit à une offre de travail plus
faible que la demande de travail. En d’autres termes, il faut
supposer une augmentation exogène de l’offre de travail :
déplacement de la courbe dans le sens de L, dû par exemple
à l’arrivée de nouvelles générations de la population active.
Au-delà de l’argumentation externe par la courbe de
Phillips (voir encadré), le fait d’envisager un déséquilibre
sur le marché du travail – puisque, pour WPE, l’offre est
supérieure à la demande – oblige à reconnaître que le
schéma IS-LM n’est pas satisfaisant. C’est ce constat qui a
conduit au développement de l’économie du déséquilibre.
On voit, de ce fait, qu’il convient de distinguer le chômage
keynésien et le chômage classique.
La baisse du salaire réel a des résultats mauvais ou
médiocres sur l’emploi lorsque le chômage est keynésien,
i.e. lorsqu’il relève d’une insuffisance de la demande
effective au sens de Keynes. La hausse du salaire réel est
alors favorable à l’emploi, par le biais de la croissance de la
consommation que cette augmentation de salaire réel
autorise. Toutefois, ce résultat est incertain si l’on prend en
compte l’extérieur, car l’augmentation du salaire réel
s’accompagnera d’une augmentation des importations de
manière mécanique, en fonction de la propension marginale
à importer. On sait, en effet, que M = mY. En outre, toutes
choses étant égales par ailleurs comme la productivité du
travail8, l’augmentation du salaire réel peut réduire la
compétitivité de l’économie nationale, entraînant ainsi une
réduction des exportations et une croissance des
importations au-delà du mouvement dû à la croissance des
revenus. Pour sa part, le maintien du salaire réel stable ne
produit aucun effet (pour une analyse plus approfondie de
ces mécanismes, cf. X. Greffe, Politique économique,
programmes, instruments, perspectives, p. 205, Économica,
1987).
Lorsque l’économie connaît un chômage classique, i.e.
lié à l’absence d’opportunité de profits, l’augmentation de
l’emploi peut alors être obtenue par la diminution du salaire
réel, à la suite soit d’une diminution du salaire nominal, soit
d’une augmentation du niveau général des prix. En d’autres
termes, les entreprises n’embaucheront que lorsqu’elles
estimeront que l’opération est profitable, ce qui serait le cas
avec la baisse du coût du travail.
L’analyse en termes d’équilibre par isoquants et isocoûts
donne le même résultat. Une baisse du salaire réel entraîne
un effet de substitution du travail au capital avec un effet de
revenu positif correspondant à un niveau de production plus
élevé, pour les optima techniques obtenus au point de
tangence entre l’isocoût et l’isoquant.
La faiblesse principale de ce raisonnement néoclassique
et microéconomique est de ne pas pouvoir rendre compte de
la conjoncture, de ce qui se passe maintenant ou qui se
produira à court terme. Il est en effet difficile d’imaginer
que le monde actuel est celui de la substitution des
travailleurs aux équipements et cela instantanément.

10.4. Effet d’une baisse du salaire sur la


production et sur l’emploi dans une
approche néoclassique standard
3.5. Les politiques empiriques de l’emploi
Du point de vue pratique, on distingue trois grands types
de politique de l’emploi.
La première est la défense de l’emploi. Elle consiste en
mesures destinées à freiner les licenciements et les
suppressions d’emploi, à favoriser la création d’emplois
publics, à pratiquer une forme de partage du travail par une
réduction de la durée de travail.
La deuxième revient à une gestion de la population active
par le développement des préretraites et des aides au retour
pour les travailleurs étrangers acceptant de regagner leur
pays.
La troisième est le traitement économique et social. Le
traitement économique relève de la politique de l’offre par
une diminution du coût du facteur travail, par la diminution
des charges sociales notamment, et par une stimulation de
l’activité via une diminution des taux d’imposition. Dans
certains cas, ce traitement est réservé aux entreprises qui
agissent en faveur l’emploi des populations particulières
(jeunes, seniors…). Le traitement économique en termes de
politique d’offre, par la baisse du coût du travail, est alors
susceptible d’éviter ou du moins de réduire des
délocalisations. Le traitement social cherche à corriger les
mécanismes d’exclusion en favorisant l’insertion ou la
réinsertion dans la vie professionnelle (stage de formation,
formation en alternance…). Tout ce qui améliore la qualité
de la main-d’œuvre relève aussi d’une politique de l’offre.
Les mesures sociales peuvent être spécifiques à certaines
zones urbaines fortement stigmatisées par un fort taux de
chômage.
Dans les années 1990, il y a eu au niveau de l’Union
européenne l’adoption d’une stratégie européenne pour
l’emploi (SEE) définie par quatre piliers : l’employabilité,
l’esprit d’entreprise (notamment en aidant la création et la
gestion des nouvelles entreprises), l’adaptabilité, l’égalité
des chances (lutter contre les discriminations et les
inégalités sur le marché du travail et les suppressions
d’emploi). Le pilier le plus sollicité est l’adaptabilité, plus
aisée à mettre en œuvre. Il fait appel à des mesures de
formation et de flexibilité dans les termes du contrat de
travail pour permettre à chaque partie de mieux s’informer
sur les conditions de travail pour le fournisseur du service,
sur les compétences et les diverses qualités attendues par le
demandeur de travail. La flexibilité, pour ne pas être
désavantageuse pour les travailleurs, a été complétée par la
sécurité des revenus. On parle indifféremment de flexicurité,
flexisécurité pour désigner les dispositions, en vigueur
notamment au Danemark, qui combinent la flexibilité des
emplois (en particulier, les entreprises peuvent licencier
assez facilement) avec la sécurité du revenu pour les salariés
(bonnes indemnités de chômage, aide efficace à la recherche
d’emploi).
1 À titre d’exemple, voir pour une étude récente : Mouna Viprey, « Les
discriminations raciales sur le marché du travail français », Confluences
Méditerranée, n° 48, hiver 2003-2004.
2 Voir aussi M.J. Piore, « Dualism in the labour market », Revue économique,
janvier 1978.
3 Harvey Leibestein, Economic Backwardness and Economic Growth : Studies
in the Theory of Economic Development, université de Californie, John Wiley &
Sons, 1957, réédité en 1963, cf. le chapitre 6reproduit dans George A. Akerlof et
Janet L. Yellen, Efficiency Wage Models of the Labour Market (edited by),
Cambridge Univ. Press, 1986.
4 Voir note précédente.
5 La pièce est plus fortement rémunérée si la production dépasse la norme
pour un temps de travail donné.
6 « Hysteresis and the European Unemployment Problem », Fisher Stanley,
NBER Macroeconomic Annual, vol.1, Cambridge, MIT, 1986, pp 15-78.
7 Henri R. Sneessens, « Croissance, qualifications et chômage », R.F.E., IX,
1995, pp. 1-33.
8 Il convient en effet de préciser qu’il faut rapporter le salaire réel horaire à la
productivité pour appréhender la compétitivité coût de la main d’œuvre : coût
unitaire de main-d’œuvre = Taux de salaire horaire/Productivité.
Chapitre 11
Le déséquilibre inflationniste et les
politiques de stabilité des prix
L’inflation, qui vient du latin inflare signifiant enfler ou
gonfler, est un déséquilibre global ayant pour manifestation
une augmentation générale, durable, cumulative ou auto-
entretenue des prix dans une économie de marché
connaissant la liberté des prix. Dans les économies
pratiquant la fixation administrative des prix, l’inflation se
manifeste par l’allongement des délais de livraison ou des
files d’attente des demandeurs pour un grand nombre de
produits Cette définition exprime implicitement que
l’inflation est un déséquilibre entre la demande et l’offre,
mais ne l’explique pas. Il faut aussi se demander à partir de
quel rythme de hausse des prix et pendant combien de
temps le processus inflationniste est patent. C’est ensuite
seulement que seront analysés ses effets économiques et
sociaux et ses causes, qui seront suivis de la présentation
des politiques anti-inflationnistes
1. Définition, mesure et effets de l’inflation
Le prix de vente des biens et services se détermine sur le
marché par la confrontation de l’offre et de la demande. En
conséquence, la variation des prix traduit généralement
l’existence ou l’apparition soudaine d’un déséquilibre entre
l’offre et la demande. L’agrégation, au niveau
macroéconomique de ces déséquilibres lorsqu’ils sont
durables et cumulatifs, correspond soit à l’inflation, qui
signifie, via la hausse générale des prix, une perte de
pouvoir d’achat de la monnaie du fait de son abondance
plus grande que celles de marchandises, soit, via la baisse
générale des prix, la déflation. On signalera que ces deux
phénomènes sont à distinguer de la désinflation, qui désigne
une baisse progressive du taux de l’inflation. Du fait de
l’association de la déflation avec le problème du chômage
étudié précédemment, le problème de l’inflation, sera, de ce
fait, privilégié ici comme problème à analyser.
1.1. Les différents types d’inflation
La typologie de la nature, des formes et des causes de
l’inflation donne les classifications suivantes :
a) En fonction du critère du rythme de la hausse des prix :
- inflation latente ou larvée (moins de 3 % par an
environ),
- inflation rampante (entre 3 et 6 %),
- inflation ouverte ou inflation déclarée (entre 6 et 10
%),
- inflation galopante au-dessus de 10 %,
- hyperinflation au-dessus de 50 % par mois, selon
Phillip Cagan1, au-dessus de 1000 % par an selon
McConnell2.
Ces seuils, tout comme les expressions, sont variables
selon les auteurs. Une inflation de 100 000 %, comme ce fut
le cas les derniers mois de 1923 en Allemagne (les prix
doublaient toutes les 49 heures dans les deux derniers mois),
ou au Zimbabwe en 2008 (11,2 millions de % par an dans
les six derniers mois de 2008), ne peut pas être rangée dans
la même classe qu’une inflation de 100 % par an. Les agents
économiques renoncent à utiliser une monnaie qui perd si
vite sa valeur. On parle de fuite devant la monnaie. Les
effets des différents rythmes ne sont pas identiques sur le
taux de croissance de l’économie, la répartition des revenus,
la nature et les volumes des investissements, les taux
d’intérêt, les soldes des échanges commerciaux et de
services avec le reste du monde.
Le critère du rythme renvoie donc aux effets de
l’inflation. Ces effets peuvent être positifs ou favorables à la
croissance économique si c’est une faible hausse des prix,
en ce que celle-ci apparaît comme un indicateur d’une
demande non saturée. Les effets sont négatifs lorsque la
hausse est forte, en faussant les calculs économiques, en
modifiant la répartition des revenus, en favorisant les
catégories qui perçoivent des revenus variables et en
appauvrissant celles qui perçoivent des revenus fixes. Les
effets sur la consommation et le patrimoine sont incertains,
car si l’on applique la théorie d’Arthur C. Pigou, par le jeu
de l’effet d’encaisse réelle ou effet Pigou, en cas d’inflation,
les ménages épargneront davantage, réduisant donc leur
consommation pour maintenir une valeur constante à leur
patrimoine. Mais il faut distinguer l’inflation subie de
l’inflation anticipée. Or en cas d’inflation anticipée, les
ménages peuvent être conduits à acheter le plus tôt possible
les biens qui seront plus chers plus tard.
b) En fonction de son contexte :
- dans les pays en voie de développement, l’inflation
de développement, obtenue par une forte croissance
de l’investissement, s’oppose à l’inflation de sous-
développement ou inflation de pénurie ;
- plus généralement, on oppose l’inflation de
croissance dite encore inflation de prospérité à
l’inflation de pénurie ;
- on oppose l’inflation chronique ou structurelle à
l’inflation conjoncturelle qui accompagne la phase
d’expansion dans le cycle de conjoncture.
c) Selon les causes :
- inflation par la demande ou « pull inflation ». Les
prix sont tirés vers le haut par la demande qui est
supérieure à l’offre ;
- inflation monétaire. La croissance de la masse
monétaire au-delà de la croissance des biens
produits suscite une demande supérieure à l’offre.
C’est donc une forme d’inflation par la demande ;
- inflation de crédit. L’expression est utilisée par J. A.
Schumpeter pour désigner l’augmentation du crédit
en période d’essor plus rapide que celle des
marchandises3. C’est donc une forme d’inflation
monétaire ;
- inflation par les coûts ou « push inflation ».
L’augmentation des divers coûts de production (les
matières consommées, les salaires, les charges
sociales, les impôts et taxe que doivent acquitter les
entreprises, les charges financières, les charges
locatives) et de distribution pousse les prix de vente
à la hausse ;
- inflation importée. Elle correspond à la hausse
générale des prix consécutive aux diverses relations
économiques établies avec le reste du monde, se
traduisant par l’arrivée de devises étrangères
suscitant l’accroissement de la masse monétaire
(inflation monétaire ci-dessus), l’augmentation des
exportations (inflation par la demande),
l’augmentation des coûts des produits primaires
importés (inflation par les coûts) ;
- inflation budgétaire. Elle correspond à une
croissance des dépenses publiques avec un déficit
budgétaire financé par création de monnaie ou par
emprunt auprès d’agents à capacité de financement
dont l’effet net est une augmentation de la demande
globale par l’augmentation de la demande
publique ;
- inflation des profits. Elle correspond dans la théorie
marxiste à la hausse des prix pour avoir une hausse
en valeur absolue du profit, afin de freiner la
tendance générale à la baisse du taux de profit),
etc. ;
- inflation structurelle. Elle peut avoir diverses
origines comme par exemple l’existence de
monopoles, d’ententes entre les entreprises ou plus
généralement d’absence de concurrence, d’un
pouvoir syndical fort, d’un important secteur abrité
de la concurrence étrangère et en même temps d’un
faible ou d’une absence de secteur exposé
dynamique, et de comportements d’alignement des
hausses des rémunérations dans les secteurs sans
croissance de la productivité sur les hausses des
rémunérations des secteurs à forts gains de
productivité. C’est ce qu’avait signalé William J.
Baumol4 en présentant le secteur des services à
faible croissance de la productivité ou à
productivité constante, comme un secteur qui
développe l’inflation lorsque les rémunérations du
secteur s’alignent sur celle de l’industrie qui
connaît des gains élevés de productivité. Dans ce
dernier cas, on parle, à la suite de Serge Christophe
Kolm d’inflation de productivité5.
d) En fonction de ses composantes. On distingue, d’une
part, l’inflation sous-jacente, dite encore inflation
fondamentale, et, d’autre part, l’inflation globale. L’inflation
sous-jacente ou fondamentale désigne l’évolution du niveau
général des prix débarrassée de sa composante
conjoncturelle. Par exemple, l’Insee publie un indice
d’inflation sous-jacente excluant les prix soumis à
l’intervention de l’État et les produits à prix volatils, i.e. qui
subissent des mouvements très variables dus à des facteurs
climatiques ou des tensions sur les marchés mondiaux.
Ainsi les produits frais, l’énergie, le tabac et les tarifs
publics sont exclus. C’est un indice désaisonnalisé.
1.2. Mesurer l’inflation
Il existe plusieurs indicateurs de l’inflation, en fonction
des préoccupations des agents économiques et de leur
activité. Ils vont de l’indice des prix à la consommation à
l’indice du prix implicite du PIB, en passant par des indices
catégoriels du type indice de la construction, indice des prix
de gros et indice des prix par forme de vente (comme par
exemple l’indice des prix de la grande distribution). Ici nous
nous limiterons à l’IPC et à au prix implicite.
a) L’IPC
Pour défendre le pouvoir d’achat des ménages ou celui
des salariés, l’indice des prix à la consommation (IPC) est
l’instrument qui donne l’information recherchée sur
l’évolution moyenne et pondérée des prix affichés (donc
toutes taxes comprises) entre deux périodes sur un territoire
donné, en tenant compte des soldes et des promotions, mais
en excluant les réductions privées. Les biens et services pris
en compte sont ceux qui sont sur le marché, peu importe
leur pays d’origine. Ils correspondent aux produits achetés
par les ménages représentatifs de la population. La variation
du prix des produits est pondérée par le coefficient
budgétaire de ce produit dans le panier de biens et services
achetés par ces ménages. Sont exclus de l’IPC les services
hospitaliers privés, l’assurance-vie, les jeux de hasard. Le
problème souvent évoqué pour l’IPC est l’effet qualité, i.e.
les situations de disparition de certains produits remplacés
par d’autres plus chers, et de la modification de la qualité
d’autres produits qui peuvent être aussi plus chers. En
France, l’IPC calculé par l’Insee, mesure l’évolution « pure
» des prix, i.e. à qualité constante des biens et services.
L’Insee estime l’effet qualité à un niveau négligeable
(environ 0,3 %). L’évolution du pouvoir d’achat est alors le
rapport entre l’évolution du revenu disponible brut et l’IPC.
Mais il faut bien convenir, que l’IPC ne correspond pas
nécessairement à la réalité vécue par chacun, les prix
peuvent évoluer différemment dans différentes villes et
régions d’un pays. En outre, ce qui est calculé n’est pas
toujours ce qui est ressenti. Par exemple, l’inflation perçue
en France a été notamment plus forte que l’inflation réelle à
partir de l’adoption de l’euro en 2000, alors que dans la
phase de préparation au changement de l’unité monétaire,
les écarts étaient négligeables après avoir été importants
auparavant dans le sens, cette fois, de la sous-estimation de
l’inflation réelle6.
b) L’indice implicite des prix du PIB
L’indice implicite des prix du PIB mesure les variations
de prix des biens et services produits par un pays donné. Il
est donc plus large que l’IPC, en ce que, d’une part, il
concerne tous les agents économiques, et pas seulement les
ménages et, d’autre part, l’ensemble des biens et services de
consommation et de production ; mais par un certain aspect,
il peut paraître moins large, dans la mesure où les
importations sont exclues.
Il prend en compte les prix des biens et services utilisés
pour la consommation intermédiaire et des biens de
production en général (y compris les équipements). Il est
obtenu en divisant le PIB mesuré à prix courants par le PIB
mesuré à prix constants. Il correspond donc à une moyenne
pondérée des indices de prix des éléments suivants : les
biens et services consommés par les ménages, les dépenses
des administrations publiques au titre des biens, services et
salaires, les immobilisations, la variation des stocks, les
exportations de biens et services et, avec le signe négatif, les
importations de biens et services. Cet aspect est discutable,
car une hausse du prix des importations peut être une source
d’inflation pénalisant les exportations qui seraient moins
compétitives si des importations à prix plus élevés étaient
incorporées dans des biens produits localement puis
réexportés.
c) L’IPCH
Dans les pays de l’Union européenne, on calcule l’indice
des prix à la consommation harmonisé (IPCH), en plus de
l’indice des prix de détail dans chaque pays, identifiant en
particulier l’inflation sous-jacente spécifique pour chacun
d’eux. L’IPCH est l’indicateur qui permet de vérifier le
respect du critère de convergence portant sur la stabilité des
prix, dans le cadre du traité de l’Union européenne
(Maastricht). L’IPCH est l’indicateur principal pour la
définition de la politique monétaire dans la Zone euro. Pour
la Banque centrale européenne (BCE), l’IPCH ne doit pas
connaître une progression annuelle supérieure à 2 % dans la
Zone euro.
Comme l’indique l’Insee : « Dans le cas de la France,
l’IPC et l’IPCH ont des évolutions assez voisines, reflets de
leur proximité méthodologique. IPC et IPCH diffèrent
toutefois sur leur champ : celui de l’IPCH est la dépense de
consommation finale monétaire des ménages. L’IPCH suit
les prix “nets” des remboursements des administrations
alors que l’IPC suit les prix “bruts”, représentatifs des prix
d’achat des produits consommés. Les indices et
pondérations calculés sont donc différents dans les secteurs
où la prise en charge par la collectivité nationale est
importante (santé, services de protection sociale). »7
1.3. Les effets de l’inflation
Les conséquences de l’inflation dépendent de leur
rythme, comme cela a été indiqué plus haut dans la
typologie de ses formes. Ces conséquences procèdent du
rythme de la croissance, de la structure de la répartition des
revenus, de l’arbitrage entre consommation et épargne et
des relations avec le reste du monde. On sait que certains
effets sont positifs et d’autres négatifs.
a) Le premier effet positif est de favoriser la croissance
lorsque le taux de l’inflation est faible. L’augmentation des
profits justifie les investissements et, en même temps, donne
les moyens de leur financement. Le deuxième effet positif
est, quel que soit son taux, l’allégement de la dette des
débiteurs (ou emprunteurs). Le troisième effet est
d’avantager les titulaires de revenus indexés sur l’inflation,
comme c’est le cas pour les profits. Un quatrième effet qui
découle plus directement de la croissance économique
associée à l’inflation est la diminution du taux de chômage.
Mais la courbe de Phillips revue par Lipsey (voir encadré et
la figure 11.2.) est une interprétation qui ne fait pas cas du
faible rythme de l’inflation pour obtenir une croissance
économique. Elle donne même une idée contre-intuitive
selon laquelle l’inflation forte et le chômage faible sont
corrélés. La variable déterminante est moins l’inflation que
l’emploi. Plus le chômage est faible, plus le pouvoir de
marchandage des salariés est fort, ce qui engendre une
hausse des salaires et des prix.
La courbe de Phillips et les politiques de « stop and go »
La courbe de Phillips représente la relation décroissante
et non linéaire entre le chômage et le taux de croissance des
salaires nominaux, sur la période de 1861-19578. Plus le
taux de chômage diminue, plus le taux de croissance du taux
des salaires s’élève. Le fonctionnement du marché du travail
permet d’expliquer ce phénomène : plus le chômage est
faible, plus se manifeste la rareté pour le facteur travail et,
par conséquent, plus son prix (salaire) s’élève. Une
abondance de travailleurs réduit le pouvoir de marchandage
des syndicats, de ce fait la hausse du salaire est faible.

Figure. 11.2. Courbe de Phillips


Si l’on suppose, à la suite de Lipsey (1960) et de
Samuelson et Solow (1960), que l’augmentation des
salaires, une fois déduits les gains de productivité,
s’accompagne de l’inflation par les coûts, compte tenu du
poids élevé de la masse salariale dans le revenu national, on
peut alors dire que l’inflation est d’autant plus forte que le
chômage est faible. Réciproquement, en utilisant la logique
keynésienne, il semblerait que plus l’inflation est faible, i.e.
plus la croissance des salaires et donc de la consommation
est faible, plus le chômage est important. Une telle
interprétation permet de rendre compte des politiques dites
« en accordéon », plus connues sous l’expression de
politiques de « stop and go » : pour relancer l’économie et
réduire le chômage, on accepte les coûts de l’inflation dans
une certaine mesure ; lorsque les inconvénients de
l’inflation l’emportent sur ses avantages – parmi les
inconvénients, on citera le déséquilibre de la balance
commerciale, la modification de la répartition des revenus
privilégiant les titulaires de revenus variables au détriment
des revenus fixes –, les pouvoirs publics prennent des
mesures de refroidissement de l’économie, engendrant
l’apparition d’un chômage conjoncturel et une diminution
de l’inflation.
Les phénomènes de stagflation et de slumpflation, i.e. de
concomitance du chômage et de l’inflation, depuis le milieu
des années soixante et jusqu’au début des années 1980,
infirment la loi de Phillips. Certains auteurs avancent
cependant que la loi de Phillips est toujours vérifiable mais
pour un taux de chômage naturel plus élevé. D’autres (M.
Friedman) soutiennent que le mécanisme n’apparaît qu’à
court terme, période pendant laquelle les valeurs nominales
ont une influence. En revanche, à long terme, en remplaçant
le salaire nominal par le salaire réel, la courbe de Phillips
est une droite verticale définissant le taux de chômage
naturel.
En effet, Edmund Phelps (1968) et Milton Friedman
(1968) soutiennent qu’il existe un taux de chômage naturel,
et toute politique économique qui se donnerait pour objectif
un taux de chômage inférieur n’obtiendrait qu’une inflation
plus forte, après une diminution non durable du chômage.
Le raisonnement est le suivant :
- la politique de dépenses gouvernementales, dans un
premier temps, suscite la création d’emplois
(passage de C1 à C2 dans la figure ci-dessous),
mais en même temps elle s’accompagne de hausse
des prix (passage de P1 à P2 vérifiant le principe de
la courbe de Phillips : la diminution du chômage se
paie en inflation) que les agents n’observent
qu’avec retard ;
- dans un second temps, en se rendant compte de cette
inflation non anticipée, les agents modifient leur
comportement réel pour s’adapter à cette nouvelle
situation en revenant à leur position réelle
précédant l’intervention de l’État. Le niveau du
chômage revient en C1 mais avec une inflation de
P2. Le niveau C1 constitue ici le niveau du chômage
naturel, i.e. le taux de chômage qui n’accélère pas
l’inflation ou NAIRU (Non accelerating inflation
rate of unemployment). Une nouvelle courbe de
Phillips peut être tracée au-dessus de la première,
traduisant le phénomène d’anticipations
adaptatives. En cas de nouvelle politique
économique de réduction du chômage en dessous
de C1, une troisième courbe, avec un niveau
d’inflation plus élevé pour C1, s’ajoutera aux deux
précédentes, et ainsi de suite. L’ensemble constitue
la courbe de Phillips augmentée des anticipations
adaptatives.

Figure. 11.3. Courbe de Phillips


augmentée des anticipations
b) Les effets négatifs de l’inflation sont plus nombreux.
L’inflation a par certains aspects les effets d’un
euphorisant : elle donne les apparences d’une croissance des
revenus, des valeurs, sans rapport avec la réalité. La
croissance des bénéfices est plus nominale que réelle, et des
déconvenues ne sont pas impossibles, si les bénéfices sont
distribués en dividendes en oubliant leur caractère nominal.
En effet, en situation de forte inflation, on ne se rend pas
toujours compte que les équipements qu’il faudra
renouveler un jour coûteront plus chers que le montant des
amortissements constitués pour leur remplacement.
– Elle est une diminution du revenu réel des titulaires de
revenus fixes : les salariés, les rentiers, les retraités, les
élèves boursiers et autres allocataires de subventions dont
les montants ne sont négociés qu’épisodiquement, bien
après avoir constaté la hausse de prix ; à ces catégories
s’ajoutent les épargnants et les créanciers dans la mesure où
les taux d’intérêt qui les rémunèrent sont inférieurs à
l’inflation. Les bénéficiaires sont les agents débiteurs.
L’inflation favorise les agents structurellement emprunteurs,
dont le plus important est l’État, les ménages qui accèdent
par emprunt à la propriété de leur habitation. Le taux
d’intérêt fixe négocié avant l’emballement des prix conduit
à des taux réels négatifs par la suite. Toutefois, le taux
d’intérêt sur le marché suit l’évolution des prix. En effet, la
hausse des prix des marchandises oblige à avoir un volume
de moyens de paiement plus important, or pour cela, il
faudra payer plus cher, ce qui veut dire que le taux d’intérêt
qui rémunère les moyens de paiement empruntés en plus
grande quantité augmente avec le niveau général des prix.
C’est ce qui constitue le paradoxe de Gibson. Il s’agit d’un
paradoxe dans la mesure où l’inflation est la baisse de la
valeur de la monnaie, mais ici le taux d’intérêt n’est pas le
prix de la monnaie mais le prix de la monnaie empruntée.
Le taux nominal de l’intérêt anticipé est alors la somme du
taux réel et du taux de l’inflation, comme l’a indiqué Irving
Fisher en expliquant ce paradoxe.
L’inflation pénalise l’épargne financière. Elle favorise la
consommation et les placements en actifs réels constitués
par des valeurs refuge, comme par exemple l’or dont le prix
augmente plus fortement que l’inflation globale anticipée.
Les comportements spéculatifs et le gaspillage des
ressources se développent, ce qui est préjudiciable à
l’investissement productif et par conséquent au
développement à long terme, même si la consommation
entretient la croissance à court terme. L’inflation revient
dans ces cas à faire de la monnaie officielle une monnaie
fondante, i.e. une monnaie qui perd de la valeur tous les
jours, ce qui pousse ses détenteurs à l’utiliser le plus
rapidement possible. L’expression « fuite devant la monnaie
» est sans doute préférable puisque moins polysémique et
non instituée mais constatée, car la notion de monnaie
fondante, dite encore monnaie franche ou monnaie
estampillée, est un système positif préconisé par l’Argentin
d’origine belgo-germanique Silvio Gesell (1860-1930) à
qui, d’ailleurs, J.M. Keynes rend un hommage appuyé dans
La Théorie générale. Le système gesellien a été
partiellement appliqué dans les systèmes productifs
alternatifs comme par exemple les SEL (systèmes
d’échange local). Il comporte un taux d’intérêt négatif : la
valeur de l’argent placé diminue au cours du temps de
l’intérêt qu’il faut payer à l’institution qui recueil l’épargne,
le but étant de consommer pour favoriser la production et
diminuer le chômage. On comprend donc ce qui justifie
l’hommage keynésien formulé en ces termes : « L’avenir
aura plus à tirer de la pensée de Gesell que de la pensée de
Marx. »9
– En régime de change fixe, l’inflation dégrade la
compétitivité des prix, freinant les exportations et favorisant
les importations, le tout conduisant à un déséquilibre des
opérations courantes avec le reste du monde. Ce
déséquilibre pour une économie sans contrôle des changes,
avec une libre circulation des capitaux, s’accompagne d’une
fuite des capitaux avec pour effet une diminution des
réserves de change. Les capitaux ne reviendront qu’après
une dépréciation officialisée par une dévaluation de la
monnaie. Or cette déva-luation , qui non seulement est une
détérioration des termes de l’échange10, présente aussi le
risque d’être un sillon tracé sur la surface de l’eau. Le risque
qu’elle soit une mesure vaine repose sur le jeu des
élasticités critiques. La dévaluation comporte deux effets
prix : d’une part, le prix des produits importés va augmenter
artificiellement, suscitant une inflation par les coûts en cas
d’inélasticité de la demande locale à l’égard de ces produits
étrangers et, d’autre part, le prix en monnaie étrangère
baisse pour les produits exportés, engendrant une inflation
par la demande.
2. Les explications de l’inflation
Dans la typologie des formes de l’inflation, un
paragraphe a été consacré aux causes du phénomène, mais
sans les discuter. Dans le cadre de cette section, nous
proposons de dépasser cette pure litanie des notions pour
nous demander si l’inflation n’est pas due, en dernière
analyse, à la seule demande qui s’exprime au moyen de la
monnaie considérée comme équivalent général. Il nous faut
commencer par le rappel du lien entre le volume de la masse
monétaire et le niveau général des prix.
2.1. La monnaie comme facteur permissif de l’inflation
En d’autres termes, dans une économie sans monnaie, il
est possible que, par exemple, à un moment donné, une
paire de chaussure s’échange contre 8 kg de blé, alors que
préalablement, elle s’échangeait contre 10 kg de blé. Le
pouvoir d’achat de la paire de chaussures en termes de
volume de blé a baissé, mais il se pourrait que ce pouvoir
d’achat ne soit pas modifié pour l’acquisition d’autres biens,
car l’augmentation du pouvoir d’achat du blé peut être due à
une baisse spécifique du volume de ce bien, ou encore la
baisse du pouvoir d’achat de la paire de chaussures est aussi
spécifique et pourrait s’expliquer, par exemple, soit par une
moindre demande, soit par une production plus
volumineuse.
En revanche, lorsqu’il existe un équivalent général des
marchandises, la baisse du pouvoir d’achat de cet
instrument par l’augmentation de son volume se fait à
l’égard du plus grand nombre de marchandises. C’est ce
qu’exprime la théorie quantitative de la monnaie. Toute
augmentation du volume de la masse monétaire est
accompagnée d’une augmentation proportionnelle des prix,
pour une vitesse de circulation de la monnaie constante.
On en rend compte par l’équation des échanges d’Irving
Fisher11, équation tautologique en elle-même qui devient
l’expression de la théorie quantitative de la monnaie sous
les hypothèses de constance du volume des marchandises et
de la vitesse de circulation de la monnaie.
Le prix moyen (P) des transactions (ou de marchandises)
multiplié par le nombre constant de transactions (T) (ou le
volume constant des marchandises) est égal à la masse
monétaire (M) multipliée par la vitesse de circulation de la
monnaie (V) :
P×T=M×V
« Un volume supérieur de monnaie achetant le même
volume de marchandises, il faut que les prix montent. C’est
exactement comme du beurre que l’on étend sur du pain : si
l’on met plus de beurre il faut que la couche soit plus
épaisse. Le pain représente la quantité de marchandises ;
l’épaisseur du beurre, le niveau des prix. Supposons encore
que la circulation de la monnaie décroisse. Les prix
baisseront. Si nous disposons de moins de beurre pour notre
tartine, la couche sera plus mince. » (Irving Fisher, The
Money Illusion, Adelphi Company, 1928, trad. Illusion de la
monnaie stable, Payot, 1929.)
Si le volume de la monnaie augmente trop fortement et de
manière continue, toute épargne en équivalent général
signifie perte de pouvoir d’achat des montants nominaux
épargnés. La fuite devant la monnaie en est la conséquence.
Cela se traduit par l’augmentation de la vitesse de
circulation de la monnaie, les agents économiques préférant
les biens réels aux encaisses monétaires. Or, une telle fuite
entretient la hausse des prix, autrement dit une baisse de la
valeur de la monnaie.
L’essentiel de la contestation de la théorie quantitative
revient à la discussion des hypothèses concernant la vitesse
de circulation de la masse monétaire et du volume des
transactions possible à court terme. En revanche, personne
ne semble remettre en cause la corrélation positive au cours
de l’histoire, et cela dans différents pays, entre
l’accroissement de la masse monétaire et le taux d’inflation.
On peut alors facilement admettre avec Milton Friedman
que « l’inflation est partout et toujours un phénomène
monétaire », mais à la condition de préciser que c’est par le
biais de la monnaie que la demande de biens et de services
se manifeste. Il ne s’agit donc pas d’une croissance de
l’offre de monnaie qui excède la croissance des biens et des
services, ce qui pouvait exister à l’époque des monnaies
métalliques, les découvertes de gisements aurifères étant
indépendantes de la demande de marchandises, mais d’une
demande de biens et de services qui croît plus vite que celle
de l’offre de ces biens et services, et qui exige plus de
moyens de paiement. La demande de monnaie, dans le cadre
d’une économie à monnaie fiduciaire avec banque centrale,
précède donc l’offre de monnaie. On dit que l’offre de
monnaie est endogène. C’est une monnaie de crédit qui est
déterminée par la demande de marchandises. Telle est la
conception dite du banking principle ou banking school et
correspondant à la théorie de K. Wicksell présentée pour
expliquer le cycle par la nature des écarts entre taux
d’intérêt naturel et le taux monétaire. Le principe de la
monnaie de crédit ou banking principle s’est imposé face au
principe de la monnaie exogène dit du currency principle
défendu par David Ricardo et inspirateur du Bank Act dit
aussi l’Act de Peel (1844). L’exogénéité du currency
principle est synonyme de rigidité de l’offre de monnaie.
On parle de verticalisme de l’offre de monnaie : toute
augmentation de la demande de monnaie engendre une
hausse du prix de la monnaie prêtée, ce prix étant le taux
d’intérêt. Avec l’endogénéité du banking principle, l’offre
de monnaie est parfaitement élastique : on parle
d’horizontalisme
On doit cette expression nouvelle, bien qu’elle date de
1959, à Jacques Le Bourva (voir encadré). L’offre de
monnaie qui serait exogène signifierait qu’il suffit que la
Banque centrale décide de créer de la monnaie pour que les
agents économiques se précipitent pour emprunter sans
savoir à quelle dépense ou à quel autre usage (qui peut être
la thésaurisation) ils destineront l’argent emprunté.
Encadré Offre de monnaie endogène ou offre de monnaie
exogène et règle de Taylor
Extrait de Jacques Le Bourva : « La théorie de l’inflation,
le rapport des experts et l’opération de décembre 1958 »,
Revue économique, vol. 10, n° 5, 1959, pp. 713-754,
l’extrait correspond aux pp. 719-720.
« Deux attitudes s’opposent quant aux conditions dans
lesquelles s’ajustent l’offre et la demande de monnaie. Pour
les uns (quantitativistes et Keynes) la quantité de monnaie
est fixée par le système bancaire de façon indépendante » et
une augmentation de la demande de monnaie est suivie
d’une élévation du taux de l’intérêt… « Pour les autres
(Banking school et Wicksell), les banquiers ne fixent pas
une quantité, mais un prix. Le système bancaire adopte un
taux (ou ensemble de taux) sur le marché monétaire et il
prête ensuite tout ce que les emprunteurs demandent à
condition qu’ils offrent des garanties suffisantes. Cette
politique correspond à ce que D.H. Robertson a nommé le
principe du crédit productif. »

Quel taux d’intérêt la Banque centrale doit-elle fixer ?


Cette question qui découle de l’horizontalisme reçoit
cependant et paradoxalement une réponse par la règle de
Taylor qui est la forme réduite d’un modèle économétrique
avec offre de monnaie exogène12. John B. Taylor13 (1993)
remarque que la politique monétaire américaine est bien
décrite par une règle de fixation du taux d’intérêt selon la
formule suivante :
le taux d’intérêt devrait être modulé par les autorités
monétaires au cours du cycle à un niveau égal au taux
d’intérêt d’équilibre (lequel dépend de la croissance
potentielle), plus 50 % de l’écart d’inflation (l’inflation
effective moins l’inflation visée), plus 50 % de l’écart de
croissance.
it = r + â {(panticipé - pcible) + åt }
où :
- it désigne le taux d’intérêt nominal de court terme de
Taylor,
- r : le taux d’intérêt réel d’équilibre ex ante supposé
constant,
- panticipé : le taux d’inflation anticipé,
- pcible : le taux d’inflation visé par les autorités
monétaires.
- åt : l’écart de production à son potentiel (écart en
PIB effectif et PIB tendanciel). Il exprime les
capacités de production inemployées. S’il est élevé,
il peut jouer un rôle modérateur des tensions
inflationnistes.
2.2. L’augmentation des coûts est-elle une cause suffisante
d’inflation ?
Lorsqu’on cherche à comprendre la situation dans
laquelle les coûts de production augmentent, on vérifie
généralement que les offreurs de facteurs de production
disposent d’un plus grand pouvoir de marchandage vis-à-vis
des demandeurs. Il en est ainsi lorsque l’offre de facteurs est
plus faible que la demande de facteurs. En outre, la
répercussion de la hausse des coûts de production sur les
prix n’est possible que si les entreprises s’attendent à ne pas
perdre leur clientèle. En d’autres termes, la poussée de prix
par les coûts suppose la présence d’une demande finale peu
sensible à la variation des prix. En conséquence, il est
difficile d’imaginer une pure inflation de coût, dans un
système de concurrence parfaite sur les marchés des
facteurs et des produits.
Les politiques de recherche des gains de productivité,
préconisées pour combattre l’inflation par les coûts,
reviennent à obtenir une croissance de la production par
unité de facteurs plus importante que celle des coûts. Sur le
marché des produits, cela aboutit à une croissance de l’offre
globale, si les gains de productivité ne sont pas compensés
par la diminution de l’offre de facteurs (comme, par
exemple, une diminution de la durée du travail).
L’imperfection des marchés des facteurs peut cependant
être à l’origine de l’inflation par les coûts, du fait du
comportement monopoliste des syndicats de travailleurs,
des cartels d’offre de matières premières, d’énergie ou de
moyens financiers, ou du fait d’une augmentation exogène
des impôts ou des bénéfices des entreprises qui ont, elles-
mêmes, un pouvoir de monopole sur le marché des produits
finals.
Dans ces différents cas, la politique économique
consistera à combattre le pouvoir de monopole par la
réglementation des concentrations, sans nuire aux
économies d’échelle, à encourager l’augmentation de la
dimension des petites entreprises très sollicitées pour mettre
fin au goulet d’étranglement, et à inciter au développement
de produits ou de facteurs de substitution ou d’économies
factorielles (par exemple, après 1973, l’augmentation du
prix du pétrole a donné lieu au développement des énergies
nouvelles et à des programmes d’économies d’énergie).
S’agissant du pouvoir syndical, les solutions sont moins
évidentes.
Les petits syndicats qui se font concurrence auprès des
travailleurs sont tentés par la surenchère en revendiquant
des hausses de salaire de plus en plus fortes en vue d’attirer
des adhérents. Un syndicat puissant accède quant à lui à un
pouvoir de monopole. Dans les deux cas, le risque est grand
de ne pas échapper à la célèbre spirale prix-salaire ou
salaire-prix. L’augmentation des prix suscite des
revendications de défense du pouvoir d’achat se traduisant
par l’augmentation des salaires ; les entreprises satisfont
d’autant plus facilement ces demandes qu’elles sont en
mesure de les répercuter sur les prix, entraînant de nouvelles
revendications, et ainsi de suite. La solution par la
croissance de la productivité n’est envisageable que si un
certain consensus social est réalisé sur le partage du surplus
économique correspondant au gain de productivité.
2.3. L’inflation est-elle toujours associée à une
augmentation de la demande ?
L‘inflation par la demande peut résulter d’une
augmentation exogène de la consommation, de
l’investissement, des dépenses gouvernementales ou des
exportations. Elle peut aussi être induite par l’augmentation
de la masse monétaire. Ces deux catégories de causes sont
résumées par la figure 11.5. ci-dessous. Le premier quadrant
représente le schéma IS-LM. Le glissement de IS1 en IS2
exprime l’augmentation exogènes des dépenses, tandis que
le glissement de LM1 vers LM2 correspond à
l’hypothétique augmentation exogène de la masse
monétaire. Le deuxième quadrant reproduit les courbes
d’offre et de demande globales en fonction du niveau
général des prix. On observe que IS1 et LM1 déterminent un
revenu d’équilibre YE1 auquel correspond le niveau général
des prix P1. Avec IS2, le revenu d’équilibre est YE2 et le
niveau général des prix est P2, plus élevé. Le même résultat
est obtenu avec LM2 confronté à IS1. En vertu de la courbe
de Phillips-Lipsey (la hausse des salaires étant remplacée
par le niveau général des prix), on constate sur le troisième
quadrant qu’une augmentation des prix est associée à une
diminution du chômage, celle-ci pouvant être la cause de
celle-là : plus on s’approche du plein-emploi, plus le
pouvoir de marchandage des syndicats est fort.
Figure 11.5
. Logique keynésienne de la courbe de
Phillips :
une augmentation de la demande entraîne
l’inflation et la diminution du chômage. Le
même résultat est obtenu par une augmentation
de la masse monétaire.
Les politiques anti-inflationnistes, dans ces situations,
consistent soit à augmenter l’offre par l’accroissement des
importations, l’augmentation de la durée du travail et
l’augmentation de la productivité, soit à réduire la demande.
Dans ce cas, plusieurs tactiques peuvent être envisagées :
augmenter les impôts pour réduire la consommation, freiner
la croissance des dépenses publiques, augmenter le taux
d’intérêt (les divers taux directeurs de la banque centrale)
pour décourager l’investissement et les achats à
tempérament, contrôler le crédit de manière sélective en
favorisant les entreprises dont la production est insuffisante
et en pénalisant les secteurs spéculatifs.
On constate généralement que l’inflation, lorsqu’elle est
plus rapide que celle des principaux partenaires
commerciaux de la nation, est suivie d’une dévaluation
destinée à rendre l’économie nationale compétitive en
termes de prix mais, comme cela a été indiqué plus haut,
une telle mesure n’est pas anti-inflationniste, car elle
renchérit sur les produits importés indispensables. Puisque
la dévaluation a pour effet d’augmenter les prix des produits
importés, exprimés en monnaie de la nation qui a dévalué,
et de diminuer les prix des produits exportés, exprimés en
monnaie étrangère, elle s’accompagne donc d’une relance
de l’inflation à la fois par les coûts (augmentation des prix
des biens intermédiaires importés) et par la demande
(augmentation de la demande domestique et de la demande
d’exportation). Comme cela a été signalé plus haut, les
conditions de réussite d’une dévaluation, par application du
théorème des élasticités critiques ou conditions Marshall-
Lerner-Robinson, sont déterminées par les élasticités des
importations et des exportations, d’une part, et la capacité
des producteurs nationaux à faire face à une augmentation
de la demande éventuelle, d’autre part.
Il existe une forme particulière d’inflation de la demande
que nous n’avons pas évoquée et qui résulte d’une baisse
exogène de l’offre. Ce phénomène dit d’inflation de pénurie
se produit notamment dans les périodes de guerre, l’appareil
de production étant sollicité par l’effort de guerre. On le
rencontre également dans des nations qui ont procédé à
d’importantes collectivisations en supprimant toute
incitation à produire sous forme de stimulants matériels. Le
développement des marchés noirs en est souvent la
conséquence, avec sur ces marchés des prix très largement
supérieurs aux prix du marché officiel.
Ainsi, l’augmentation de la demande n’est pas toujours
une condition nécessaire pour déclencher le processus
inflationniste. Il arrive aussi que la diminution de la
demande puisse être à l’origine de la hausse générale des
prix. La chute des ventes conduit les entreprises à
augmenter leurs prix pour stabiliser la valeur de leur chiffre
d’affaires. La croissance des coûts fixes, sans croissance de
même importance de la demande réelle, aboutit au même
phénomène. Et lorsqu’il se produit une croissance de la
main-d’œuvre durant cette période, l’inflation et la
croissance du chômage deviennent concomitantes. La pente
de la courbe de Phillips-Lipsey devient positive. On est
alors en présence de la stagflation. La diminution ou la
stabilité de la demande globale avec d’importantes capacités
de production inemployées peut être assimilée à une
poussée des coûts. Les politiques économiques préconisées
pour faire face à cette situation de stagflation consistent à
combiner les politiques d’offre et de demande précédentes :
- politique de l’offre en réduisant les coûts de
production (diminution de la fiscalité des
entreprises) et en incitant à la croissance de la
production ;
- pratique du salaire de partage (M. Weitzman, Y.
Bresson) consistant à déterminer une partie fixe du
salaire et une autre liée aux résultats de
l’entreprise ;
- politique de flexibilité des prix à la baisse par
l’incitation à la concurrence et le transfert des gains
de productivité sur les prix ;
- politique gradualiste de désinflation destinée à
combattre les anticipations inflationnistes en
proposant des prévisions d’objectifs
gouvernementaux à des niveaux d’inflation de plus
en plus faibles ;
- ouverture de nouveaux débouchés pour réaliser des
économies d’échelle assurant la baisse des coûts,
donc des prix, et la croissance de l’emploi.
1 Phillip Cagan, « Monetary Dynamics of Hyperinflation », 1956, Milton
Friedman, editor, Studies in the Quantity Theory of Money, University of
Chicago Press, 1956.
2 Campbell R. McConnell et Stanley L. Bru, Macroeconomics, McGraw-Hill,
7e édition, 1996.
3 Joseph Alois Schumpeter, Marcello Messori, Théorie de la monnaie et de la
banque, traduit par Claude Jaeger, publié par L’Harmattan, 2005, page 184.
4 William J. Baumol, « The Macroeconomics of Unbalanced Growth : The
Anatomy of Urban Crisis », AER, 57, 1967, pp. 415-426.
5 Serge Christophe Kolm, « L’inflation de productivité », Revue économique,
n° 6, novembre 1970, pp. 1006-1011.
6 Insee, « Pouvoir d’achat perçu et pouvoir d’achat mesuré : comment
expliquer le décalage ? », La Note de Veille, n° 14, mardi 6 juin 2006, p. 1.
7 http://www.insee.fr/fr/methodes/default.asp?page=sources/ope-ipch.htm
8 Alban William Phillips, « The relationship between unemployment and the
rate of change of money wages in the UK 1861-1957 », Economica, 1958.
9 Pour un exposé détaillé de l’œuvre de Silvio Gesell, cf. Denis Clerc et
Johannes Finckh : « Silvio Gesell : un prédécesseur de Keynes ? », Alternatives
économiques, 158, avril 1998.
10 Avec la condition de l’équilibre de la balance commerciale, en cas de
dévaluation, il faut exporter davantage de produits nationaux pour un volume
constant de produits importés. Si avant la dévaluation une heure d’un travailleur
domestique s’échangeait contre une heure d’un travailleur étranger, après une
dévaluation de 50 %, il faudra deux heures de travail domestique incorporées
dans les produits exportés pour obtenir une heure de travail incorporée dans les
produits importés.
11 Irving Fisher, The Purchasing Power of Money, and its Determination and
Relation to Credit, Interest and Crises, 1911, réédité par Kessinger Publishing
(25 juillet 2007).
12 Stéphane Auray, Patrick Fève, « Estimation de la règle de Taylor et
identification de la politique monétaire », Revue économique, vol. 54, 2003/3,
pp. 511-520.
13 John B. Taylor, « Discretion versus Policy Rule in Practice », Canergie
Rochester Conference on Public Policy, 39, 1993, pp. 195-214.
Chapitre 12
Les problèmes économiques
internationaux
Les problèmes associés aux échanges internationaux ont
été constamment évoqués dans les chapitres consacrés
l’histoire de la pensée économique, à l’emploi et à
l’inflation. Le modèle IS-LM-BP a permis de présenter
l’effet de la variation du taux d’intérêt aussi bien sur le
solde commercial que sur le solde de la balance des
capitaux. Mais il a été signalé que les échanges avec le reste
du monde relèvent en grande partie d’un domaine sur lequel
l’action des pouvoirs publics a peu d’influence.
1. Les variables du commerce international
On sait que le volume des importations est endogène. Il
dépend en effet du revenu national, mais on peut agir sur ce
volume par la variation du taux de change afin d’agir sur les
prix. Il est aussi faisable de prendre des mesures de
contingentement en volume ou même d’interdiction des
importations de tel produit ou des produits en provenance de
tel ou tel pays.
On sait également que les exportations sont exogènes et
déterminantes à court terme, via le multiplicateur, du niveau
du revenu national. On a aussi signalé que pour profiter
d’une dévaluation, la croissance des exportations suppose
l’existence de capacités de production non saturées et d’une
croissance de l’offre compétitive correspondant à une
demande internationale sensible à la baisse des prix des
produits susceptibles d’être exportés.
2. Libéralisme ou protectionnisme
En histoire de la pensée économique, les exportations ont
été évoquées chez les mercantilistes comme un facteur
d’enrichissement, tandis que les importations étaient posées
comme une perte pour la nation, justifiant des mesures
protectionnistes. Ces idées reviennent au-devant de la scène
dès qu’une crise globale frappe les économies. Elles
réapparaissent sous le slogan : « Nos emplettes sont nos
emplois. »
La théorie de la division internationale du travail, au
contraire, illustre que le libre-échange avec spécialisation
améliore le bien-être de tous les pays. Néanmoins, il faut sur
ce point signaler que Jadish Bhagwati, malgré une franche
adhésion à la doctrine du libéralisme économique, reconnaît
que l’insertion dans l’économie mondiale par certaines
spécialisations inappropriées peut conduire à une croissance
appauvrissante, par le biais de la détérioration des termes de
l’échange. Ainsi, un pays dont les exportations sont
essentiellement constituées par un produit primaire et qui
domine les exportations de ce produit se trouvera dans ce
cas. La croissance économique entraînera une augmentation
des exportations du produit qui aura comme effet de faire
baisser son prix par rapport aux produits importés, et donc
d’entraîner une consommation plus faible puisqu’il lui
faudra exporter beaucoup plus pour importer moins (par
exemple : le Brésil et les exportations de café avant 1930).
La détérioration des termes de l’échange peut aussi provenir
d’un renchérissement des importations (cas des pays
importateurs de pétrole), entraîné par l’accroissement de la
demande d’importations, elle-même conséquence de la
croissance.
Un autre cas illustrant la paupérisation et la
désindustrialisation à terme par la spécialisation dans une
activité primaire correspond à ce que l’on désigne par
l’expression « dutch desease » (maladie hollandaise) ou «
syndrome hollandais ». Ce phénomène a, en fait, surtout été
observé dans le cadre de la monoexportation
d’hydrocarbures rentière en Russie, à Brunei et en Algérie :
la rente obtenue par les exportations des hydrocarbures
suscite l’inflation interne, le recours à l’importation de toute
chose, tout en n’incitant pas à des efforts soutenus pour
diversifier l’activité.
Tous ces éléments ont été présentés dans une perspective
d’échanges internationaux entre des espaces disposant d’un
pouvoir de décision autonome des États. De nos jours la
libre circulation des capitaux et des personnes au niveau
international est encouragée par des organisations
internationales réduisant le pouvoir de gestion des pouvoirs
publics locaux. C’est le phénomène dit de la mondialisation
dont la plus évidente manifestation est la globalisation des
marchés, selon la formule de Theodore Levitt1, avec plus
particulièrement la globalisation financière résultant des
interdépendances des principales places financières (bourses
de valeurs mobilières) entre lesquelles se font les arbitrages
des investisseurs.
3. La mondialisation et les théories du commerce
international
La mondialisation n’est pas un phénomène récent2. Il
suffit pour relativiser le phénomène d’évoquer les
mouvements migratoires, les colonisations au XIXe siècle,
les investissements russes financés par les capitaux des
autres pays européens, désigne de nos jours une tendance à
la généralisation des échanges entre les différents pays du
monde, bien que certains soient encore peu concernés. Il y a
même des regroupements régionaux de plusieurs pays,
comme par exemple l’Union européenne, qui freinent
l’extension de la mondialisation, justifiant la formule selon
laquelle l’économie mondiale est une économie d’archipel3.
Ces intégrations territoriales se justifient par la recherche
des avantages de la grande dimension, mais cela se fait
étape par étape, en commençant par l’union douanière, puis
le marché commun, l’union économique et monétaire.
3.1. Les effets recherchés de la globalisation et les théories
du commerce international
La globalisation est un phénomène complexe aux
multiples causes. Elle est en partie la conséquence des
accords de libre-échange entre plusieurs pays autorisant, de
la sorte, les économies d’échelle par élargissement des
débouchés. Elle est en partie aussi l’effet de l’action de
firmes multinationales qui agissent pour obtenir l’adhésion
au libre-échange des pays d’implantation. La globalisation
est en partie également le fruit de la volonté de
développement des pays pauvres qui pratiquent la politique
des zones franches. Celles-ci sont des zones de
transformation des produits importés en franchise de droits
de douane et qui ne sont toujours pas soumis à un impôt
après transformation. En 2009, on a recensé plus de 850
zones franches dans le monde. La mondialisation plutôt que
la globalisation est inscrite dans les institutions
internationales au lendemain de la Seconde Guerre
mondiale (voir encadré).

Les institutions internationales et le processus de


mondialisation :
L’organisation du GATT ([General Agreement on Tariffs and
Trade] que l’on traduit en Accord général sur les tarifs douaniers et
le commerce ou Agetac), adoptée en 1948, a pour but de faciliter
l’expansion du commerce international, en négociant des réductions
des droits de douane, des contingentements, des accords
préférentiels, des barrières non tarifaires, en codifiant les aides
nationales aux exportations, en généralisant le principe de la clause
de la nation la plus favorisée, à l’exception des pays en voie de
développement (PVD) qui reçoivent un traitement spécial pour leurs
exportations de produits manufacturés (Système généralisé de
préférences).
Les négociations commerciales multilatérales, ou « Rounds »
entre pays signataires du GATT, ont permis de réduire les droits de
douane entre ces nations et de progresser vers le libre-échange.
Le Dillon Round (1960-61) a permis l’application générale de la
clause de la nation la plus favorisée. Le Kennedy Round a permis
une réduction moyenne de 35 % des droits de douane. Le Tokyo
Round s’est déroulé dans des conditions difficiles du fait de la crise
économique mondiale, des changes flottants, du renouveau du
protectionnisme. Il a cependant abouti à une réduction des droits de
douane qui concerne environ 10 % du commerce mondial, ainsi
qu’une réduction des diverses barrières non tarifaires (valeurs en
douane, marchés publics), et des subventions aux exportations. Les
accords de l’Uruguay Round le 15 décembre 1993 à Genève, entre
117 pays membres ont mis fin aux cycles des négociations au sein
du GATT. La mise en œuvre et la gestion de l’accord seront assurées
par l’Organisation mondiale du commerce qui se substitue en 1995
au GATT, conformément à l’accord de Genève et à sa ratification
lors de la réunion du 15 avril 1994 à Marrakech. Les résultats de
l’Uruguay Round sont substantiels :

- les prérogatives des États sont limitées,


chaque pays membres ne peut conserver
qu’une seule mesure spécifique qu’il doit de
toute façon faire disparaître avant la fin 1999
(c’est le cas pour les restrictions de l’Union
européenne aux importations de voitures
japonaises) ;
- les pays membres peuvent prendre des
mesures antidumping, comme par exemple le
recours pour les États-Unis à l’article 301 du
Trade-Act, mais seulement pour une durée
limitée ;
- les tarifs douaniers sont abaissés d’un tiers, et
près de 40 % du commerce international se
feront en franchise totale ;
- l’agriculture, les textiles, les services (hors
transport maritime protégé par les États-
Unis) et la propriété intellectuelle (hors les
industries culturelles, pour lesquelles
l’Europe, sous la pression de la France, a
obtenu la non-intégration, à la suite d’un
important mouvement populaire de défense
de l’exception culturelle) sont intégrés dans
le GATT
L’Organisation mondiale du commerce (OMC), décidée à la
réunion du 15 avril 1994 à Marrakech, qui réunit la plupart des pays
de la planète, a pour objectif de libéraliser et d’étendre le champ des
échanges commerciaux au niveau mondial par la mise en place de
règles communes applicables à tous les pays et assorties de pénalités
en cas de non-respect. Ces règles tendent à la suppression des
barrières douanières et fiscales ou accords spécifiques nationaux.
L’échec de la conférence de l’OMC à Seattle (USA) en décembre
1999 a montré les résistances à certains aspects de la mondialisation
des échanges commerciaux. La difficile conclusion des négociations
de Doha ouvertes en 2001 confirme les réticences à une
mondialisation perturbatrice pour les structures en place et donc
pour les équilibres sociaux des pays pratiquant une politique
protectionniste dans certaines branches ou secteurs. On précisera
que les négociations de Doha (Doha Round ou Agenda de Doha)
portent sur l’ouverture des marchés agricoles et de services ; la
propriété intellectuelle ; les liens entre commerce et investissement,
commerce et politique de la concurrence, commerce et
environnement ; la transparence des marchés publics ; le commerce
électronique ; les transferts de technologie et la coopération
technique. Elles envisagent, d’une part, pour tous ces points un
traitement particulier pour les pays les moins avancés (PMA) et,
d’autre part, de mettre en place des éléments de régulation et
d’encadrement du marché au niveau international

La mondialisation n’est pas sans effets positifs.


L’ouverture internationale représente plus de choix en
termes de biens et de services offerts aux consommateurs ;
c’est aussi la libre circulation des nouvelles technologies,
une large diffusion du progrès technique qui améliore le
bien-être dans le monde ; c’est également la possibilité
d’accéder à des biens moins onéreux conformément à la
théorie de la spécialisation sur la base des avantages
comparatifs ou coûts relatifs naturels, dans certains cas, et
avantages comparatifs acquis ou conquis, dans d’autres, ce
qui a pour effet une augmentation du niveau de vie et du
pouvoir d’achat ; c’est l’interdépendance des nations,
garante de la paix, car lorsque les nations dépendent les
unes des autres, les relations pacifiques sont le moyen de
maintenir les approvisionnements indispensables à chacun
des pays. La spécialisation internationale permet
d’augmenter la productivité, de réaliser des économies
d’échelle, d’améliorer le niveau de vie des parties prenantes
à ces échanges. Même les pays à faible productivité seront
gagnants dans la mesure où les salaires également faibles
assurent la compétitivité. Les facteurs abondants dont les
prix étaient trop bas en l’absence de spécialisation, en étant
employés de manière plus intensive dans l’économie qui se
spécialise, subissent une hausse de leur prix. Les pays qui
importent les produits incorporant des facteurs abondants
dans le reste du monde abandonnent les produits onéreux
obtenus avant la spécialisation par des facteurs rares en
interne. Les facteurs rares voient leur prix baisser du fait de
l’entrée de produits incorporant ces facteurs plus abondants
à l’étranger. Les coûts de production des entreprises baissent
en utilisant ces facteurs dont le prix a baissé. Ce double
phénomène, en l’absence de mouvements internationaux des
facteurs, conduira à la convergence des prix des facteurs
(théorème de Stolper-Samuelson) 4 et à la convergence des
niveaux de vie des différentes économies, selon le
complément fait par Paul A. Samuelson à la théorie de la
spécialisation fondée sur la dotation en facteurs d’Elie
Hecksher et de Bertil Ohlin, et que l’on désigne depuis 1948
par l’expression « théorème HOS » (chaque lettre
correspondant à la première des noms des auteurs). Le
théorème HOS a été conçu dans le cadre d’un modèle 2
pays/ 2 produits/2 facteurs. En 1968, Jaroslav Vanek
généralise la portée du théorème HOS pour plus de 2
produits et pour plus de 2 facteurs. On parle du modèle
HOV (Jaroslav Vanek, « The Factor Proportions Theory :
The n-factor Case », 1968, Kyklos).
HOS ou HOV restent des modèles plutôt normatifs et
assez peu positifs, malgré la validation contingente apportée
par le paradoxe de Leontief (voir encadré). En effet, la
théorie néoclassique du commerce international à laquelle
se rattache le théorème HOS ne permet pas d’expliquer tous
les échanges entre les pays, et en particuliers les échanges
intra-branches. Ainsi des Français achètent des voitures
allemandes, italiennes, etc., et des Allemands, des Italiens
achètent des voitures françaises. Mais en France, les
voitures étrangères sont différentes des voitures étrangères
et il en est de même pour les pays qui importent des voitures
françaises. Le commerce international ne s’explique pas
seulement par l’offre, la demande joue aussi un rôle pour
expliquer les échanges entre pays de même niveau de vie.
Dans l’exemple des échanges intra-branche évoqué ici et
ayant pour objet les voitures, il s’agit d’un comportement
d’ostentation que Bernard Lassudrie-Duchène5 désigne sous
l’expression de demande de différence.
L’importance de la demande interne est cependant
préalable à l’exportation, selon S. B. Linder6. L’exportabilité
dépend du succès du produit sur le marché interne. Le blue-
jean ou la boisson au cola n’ont été exportés qu’après que le
marché intérieur américain a été conquis et ne permettait
plus une croissance des profits. La demande intérieure
importante constitue la demande représentative.
À la même époque, Michael Posner étend la théorie
schumpétérienne de l’innovation technologique portant sur
des produits nouveaux qui se vendront sur le marché
domestique et à l’exportation tant que les firmes à l’étranger
n’auront pas mis au point un produit concurrent. Cette idée
originale de l’écart technologique n’a cependant pas la
prétention d’expliquer tous les échanges internationaux et
elle fait peu de cas de la demande de différence présentée
plus haut. Quelques années plus tard, en 1966, Raymond
Vernon reprend l’idée de l’innovation dans le cadre de la
théorie du cycle de vie du produit. Le pays de la firme qui
innove est exportateur dans la première phase du cycle de
vie du produit. Le pays importateur, d’un niveau de revenu
par tête plus faible, va imiter le produit. Une fois la
technologie maîtrisée, il devient exportateur, tandis que le
pays d’origine de l’innovation devient importateur net dans
la phase de sénescence du produit pour lui, mais les pays
d’un niveau de vie encore plus faible que le premier
imitateur deviennent importateurs à leur tour et engagent
ensuite un processus d’imitation qui fera d’eux des
exportateurs de ce produit vers les pays plus développés.
Encadré : Le paradoxe de Leontief*
Les États-Unis exportent des produits incorporant plus de
facteur travail que ceux qu’ils importent, alors que leur
dotation en facteur indiquerait une spécialisation inverse.
Ce paradoxe a suscité un grand nombre de controverses et
d’explications. Ainsi, on peut dire que les États-Unis
disposent d’une main-d’œuvre qualifiée en abondance
relative, et qu’on retrouve cette main-d’œuvre dans les
exportations.
L’absence de prise en compte du facteur ressources
naturelles peut aussi fausser les résultats. Si les importations
américaines utilisent beaucoup de ressources naturelles, à la
place du facteur capital, et que les biens équivalents
américains, que Leontief utilise à la place des biens
importés eux-mêmes pour son estimation, utilisent
beaucoup de capital au lieu de ressources naturelles, on aura
des intensités capitalistiques différentes : faible pour les
biens importés, forte pour les biens américains équivalents.
Il faudrait en fait mesurer les contenus en capital des
importations américaines d’après les fonctions de
production étrangères et non américaines.
*Source : « Domestic Production and Foreign Trade : The
American Capital Position
Re-examined », 1953, Proceedings of the American
Philosophy, vol. 97, pp. 332-349 ; trad. dans Bernard
Lassudrie-Duchêne (sous la dir. de), Échange
international et croissance, Paris, Economica, 1972.
3.2. Les limites du libre-échange et les coûts sociaux de la
globalisation
Les hypothèses de la théorie classique et de son
prolongement néoclassique ne sont pas réalistes. Le
commerce intrabranche, le commerce intrafirme7, les
mouvements internationaux des capitaux sont quelques faits
aisément observables qui démontrent l’irréalisme de
certaines hypothèses du modèle HOS ou HOV. Sur un autre
point plus théorique, dès 1923, Frank D. Graham indique
qu’une spécialisation dans des activités à rendements
décroissants et à coûts croissants dans des pays de produits
primaires et une spécialisation pour des pays riches dans des
activités industrielles à rendements croissants peuvent
engendrer une baisse du bien-être dans les pays pauvres et
éventuellement une baisse du bien-être mondial. Tel est
l’énoncé du paradoxe de Graham8.
Le commerce international ne satisfait pas les conditions
de la concurrence pure et parfaite. En introduisant des
rendements croissants avec les économies d’échelle, d’une
part, et la concurrence imparfaite, Paul Krugman associé à
Elhanan Helpman, exposent en 1985 les limites du libre-
échange (Market Structure and Foreign Trade, MIT Press,
1985) qui peuvent justifier une dose de protectionnisme9
pour permettre d’accéder à des rendements croissants et de
conquérir des avantages comparatifs, car il n’y a pas que des
avantages exogènes, une fatalité ou les hasards historiques,
il y a aussi des avantages conquis, des avantages endogènes.
C’est ce qui constitue l’objet de la politique commerciale
stratégique, une politique de subvention ou de soutien à
certaines activités, tout en sachant que cette politique n’est
pas sans effets pervers, comme par exemple le risque de
favoriser des secteurs rentiers, sans dynamisme10.
Nombreuses sont les études qui ont montré l’absence de
corrélation entre l’ouverture du commerce extérieur par
abaissement des droits de douane et la croissance
économique du pays. Après Paul Bairoch11, Gilbert Etienne,
Francisco Rodriguez et Dani Rodrik ont exprimé sur des
bases empiriques solides leur scepticisme à l’égard des
prescriptions libérales qui découlent de la théorie
néoclassique du commerce international12. D. Rodrik va
même jusqu’à affirmer que, le plus souvent, c’est à l’abri de
tarifs douaniers que les pays les plus avancés doivent leur
croissance passée13. Mais des études tout aussi
convaincantes confirment l’opinion favorable au
libéralisme. C’est notamment le cas des chercheurs du Cerdi
qui concluent leur étude empirique en écrivant : « On peut
soutenir l’idée que la politique d’ouverture commerciale est
favorable non seulement au rythme, mais aussi à la stabilité
de la croissance. Ce résultat contribue à justifier les
politiques de libéralisation commerciale menées au cours
des vingt dernières années dans les pays en développement
comme dans les pays développés. »14
André Grejbine, de son côté, distingue le commerce
aliénant et le commerce stimulant. Le commerce
international est stimulant lorsqu’il a lieu entre pays de
niveau de développement comparable, par exemple entre
pays développés, car les échanges portent sur des
productions similaires. Chaque pays peut aisément
remplacer ses importations par des productions nationales.
L’échange ne met pas en cause l’indépendance économique,
il est stimulant parce qu’il permet d’augmenter la diversité
des produits offerts aux consommateurs, et de mettre en
concurrence des industries comparables. Au contraire,
l’échange entre pays de niveau de développement très
différent est aliénant parce qu’il porte sur des produits qui,
le plus souvent, ne peuvent être remplacés par une
production nationale. Il aliène donc l’indépendance
économique nationale puisque chaque pays dépend de
l’autre. C’est le cas des échanges Nord-Sud où les pays
développés dépendent des produits primaires des PVD,
alors que ceux-ci dépendent des importations de produits
manufacturés des premiers.
Évidemment, la mondialisation suscite des craintes dans
les pays qui subissent les délocalisations des activités
productives. En effet, le développement de filiales à
l’étranger et, dans sa forme extrême, la délocalisation des
entreprises produisent du chômage dans les zones
abandonnées. D’un point de vue politique, certains auteurs
signalent le renforcement du pouvoir des entreprises
multinationales sur les représentants élus démocratiquement
dans les États. Socialement et culturellement, on évoque
l’uniformisation des sociétés et des cultures dans le village
global prophétisé par le Canadien Marshall McLuhan en
1962, dans son livre La Galaxie Gutenberg.
La mondialisation ne touche pas tout le monde avec les
mêmes effets ni selon la même intensité. Par exemple, les
pays africains participent encore faiblement au commerce
international et leurs exportations sont pour les deux tiers
des produits primaires qui reçoivent pour leur extraction
l’essentiel des faibles montants des investissements directs
étrangers (IDE). Ces IDE ne sont pas travaillistiques, alors
que les pays africains connaissent une forte croissance de la
population active. Afin d’assurer un minimum d’emplois au
plus grand nombre de personnes possible, les budgets
publics ont plus une finalité sociale qu’économique. Les
infrastructures à l’origine des externalités positives sont
insuffisantes pour attirer les IDE. Les investissements en
capital humain sont trop faibles, la main-d’œuvre qualifiée
est rare. La productivité du travail est partout très faible, les
salaires sont en conséquence. La faible productivité,
l’absence d’une culture industrielle, la démocratie et l’état
de droit non généralisés sont autant de facteurs défavorables
à l’attraction des IDE dans les secteurs créateurs d’emplois.
L’Afrique n’est donc pas un bénéficiaire net des échanges
internationaux, ce qui pousse les jeunes gens au chômage à
tenter l’aventure de l’immigration clandestine, car la libre
circulation des hommes n’est pas encore une réalité pour
tous.
La spécialisation en suivant le théorème HOS ou HOV ne
permet pas toujours d’échapper à la spécialisation
appauvrissante dans certains pays pauvres, comme l’ont
montré Caroline Daymon, Céline Gimet, Bernard Guilhon
et Nathalie Roux15, dans le prolongement de la théorie de la
croissance appauvrissante de J. Bhagwati, présentée ci-
dessus.
La mondialisation heureuse, pour reprendre la formule-
titre du livre d’Alain Minc (Plon, 1998), trouve son terrain
dans les pays développés, comme par exemple en Europe,
même si certains coûts sociaux liés à la délocalisation sont
aussi présents. L’essentiel des échanges internationaux en
Europe se fait entre pays européens. Plus généralement, la
mondialisation ne met pas en échec la loi gravitaire de
Newton revisitée par les économistes et les géographes sous
l’expression de modèle gravitaire. La proximité
géographique, culturelle, historique et de niveau de vie
explique l’essentiel des échanges. Plus des _ des échanges
internationaux se font dans un rayon de 1 200 km au
maximum. Et plus un pays est de grande taille, plus le
volume de ses échanges représente une part importante du
commerce mondial. En corollaire, plus un pays est de faible
dimension, moins il sera attractif. C’est dire que la
balkanisation des pays africains est loin d’être un facteur
favorable à l’intégration de ces pays dans le commerce
mondial, commerce qui joue le rôle moteur de la croissance
économique et du développement.
1 Theodor Lewitt, « The globalization of markets », Harvard Business Review,
1983.
2 Le terme en français apparaît pour la première fois, semble-t-il, dans le titre
d’un article du journaliste Paul Fabra, lors du lancement des négociations du Gatt
dites Kennedy Round : « Vers la mondialisation des échanges », Le Monde du
29-30 avril 1964, mais cette mondialisation était limitée aux rapports entre les
États-Unis et l’Europe.
3 Robert Boyer, Philippe Dewitte, Pierre-Noël Giraud, Mondialisation : au
delà des mythes, La découverte, 1997.
4 Le théorème s’énonce ainsi : « La hausse du prix d’un bien améliore la
rémunération nationale du facteur utilisé le plus intensément pour sa fabrication
et dégrade celle des autres facteurs. »
5 Bernard Lassudrie-Duchêne, « La demande de différence et l’échange
international », Économie et sociétés, Cahiers de l’ISEA, 1971, 6.
6 Staffan Burenstam Linder (1931-2000), An Essay on Trade and
Transformation, John Wiley and Sons/ Almqvist & Wiksell, 1961.
7 Ensemble des échanges internationaux qui s’effectuent au sein d’une même
entreprise entre les différents établissements ou unités de production. Le
commerce intrafirme reprèsente un tiers du commerce mondial en 2005.
8 Cf. René Sandretto, Le Commerce international, Édition Armand Colin,
Cursus, 1994.
9 Voir aussi le livre populaire de Paul Krugman, bien qu’il soit une critique de
la « pop économie », La Mondialisation n’est pas coupable : vertus et limites du
libre-échange, La Découverte, Paris, 1998.
10 Paul Krugman, « The Narrow and Broad Arguments for Free Trade », AER,
Papers and Proceedings, vol. 83, n° 3, mai 1993. Voir aussi Michel Rainelli, La
Nouvelle Théorie du commerce international, La Découverte, Paris, 1997 ;
Steven Coissard, « La théorie au service de la politique économique », thèse de
doctorat ès sciences économiques, Université Pierre Mendès-France, Grenoble 2,
soutenue le 12 décembre 2004.
11 Paul Bairoch, Victoires et déboires, Tome I, Éd. Gallimard, 1997.
12 F. Rodriguez, D. Rodrik, « Trade Policy and Economic Growth : a
Skeptic’s Guide to the Cross-National Evidence », NBER Working Paper, n°
7081, april 1999, publié en 2000 dans NBER Macroeconomics Annual, Ben
Bernanke and Kenneth Rogoff, eds. Cambridge, MA, MIT Press.
13 D. Rodrik, « Trade Policy Reform as Institutional Reform », Development,
Trade, and The WTO : a Handbook, p. 9, 2002.
14 Jean-Louis Combes, Patrick Guillaumont, Sylviane Guillaumont-
Jeanneney, Pascale Motel-Combes, « Ouverture sur l’extérieur et instabilité des
taux de croissance », CERDI, CNRS et Université d’Auvergne, 16 décembre
1999.
15 « Spécialisation appauvrissante : le cas du secteur textile-habillement dans
les pays méditerranéens », Communication au colloque international organisé par
le laboratoire ps2d de Yasmine Hammamet, http://
www.ps2d.com/upload/file/Daymon_guillon_roux.pdf
Conclusion
La politique économique est, par excellence, le domaine
d’analyse de la macroéconomie. Mais il est bien évident
aussi que les problèmes qui peuvent justifier une régulation
centrale par les pouvoirs publics, comme ceux du chômage,
de l’inflation et de la stagflation, ne se manifestent pas, dans
tous les secteurs ni dans toutes les régions à la fois, dans les
mêmes termes et dans les mêmes proportions que ce qui est
mis en évidence au niveau de l’économie nationale. Il
s’ensuit que les politiques économiques présentées,
appliquées globalement, sans prise en considération des
différences régionales, sectorielles, et même de certaines
spécificités microéconomiques, risqueront de voir leur
efficacité mise en échec. Il faut bien insister sur le fait que
l’objet de cette troisième partie est une analyse simplifiée
partant d’un modèle abstrait formulé en 1937 – ISLM –,
enrichi par la prise en compte des flux internationaux de
marchandises, de services et de capitaux dans différents
environnements réglementaires. Les nouvelles théories aussi
bien des nouveaux économistes classiques que des
nouveaux économistes keynésiens ont aussi montré qu’il est
indispensable de retrouver les fondements
microéconomiques de la macroéconomie, et les hétérodoxes
nous invitent à faire appel à la théorie la plus performante
pour expliquer les faits, sans perdre de vue le caractère
moral et politique de la science économique.
Bibliographie
L’objet de cette bibliographie est d’indiquer quelques
titres pour mieux comprendre certains développements qui
peuvent être trop complexes dans ce livre, ou pour un
approfondissement des points trop simples, sans aller
cependant jusqu’aux livres réservés aux spécialistes.
Manuels d’initiation, dictionnaires & lexiques
Lexiques et dictionnaires
Beitone A. & alii, Dictionnaire des sciences
économiques, Armand Colin, nouv. éd. 2007.
Blancheton B., Sciences économiques, coll. « Maxi fiches
», Dunod, 2009.
Silem A., Albertini J.-M., Lexique d’économie, Dalloz,
10e éd, 2008 (a servi de base pour les encadrés
définitionnels de ce volume).
Manuels niveau 1
Albertini Jean-Marie, Les Rouages de l’économie
nationale, Éditions de l’Atelier, 2008 (1re éd. : Économie et
Humanisme, éditions Ouvrières, 1960).
Clerc Denis, Déchiffrer l’économie (1re éd. : Syros), La
découverte, 2004.
Généreux Jacques, Économie politique, 3 tomes, coll.
Fondamentaux, Hachette, 2000.
Samson Ivan (dir.) : L’Économie contemporaine en 10
leçons, Sirey, 2004.
Tulkens H., Mercier P., Jacquemin A., Fondements
d’économie politique, 3e édition, 2001, De Boeck.
Manuels niveau 2
Blanchard O., Cohen D., Macroéconomie, Pearson
Éducation, 3e éd., 2003.
Jalladeau Joël, Introduction à la macroéconomie, De
Boeck Université, coll. Prémisses, 1993.
Kempf Hubert, Macroéconomie, Dalloz, coll. Mémentos,
nouvelle édition, 2003.
Lipsey R.G., Steiner P.O., Analyse économique, Cujas.
Picard Pierre, Éléments de microéconomie théorie et
applications, Montchrestien, 5e éd., 1998.
Samuelson P.A., Nordhaus W., L’Économique,
Économica, 1998.
Stiglitz, Joseph, Principes d’économie moderne, De
Boeck, 2000.
Varian Hal R., Introduction à la microéconomie, 6e
traduction de la 5e éd. amér., De Boeck, 2003.

Vous aimerez peut-être aussi