Vous êtes sur la page 1sur 65

République du Bénin

6**************************************************************************
**************************************************************************
FRATERNITE- JUSTICE- TRAVAIL
*********
Ministère de l’Enseignement Supérieur et de la Recherche
Scientifique (MESRS)
*********

Université d’Abomey-Calavi (UAC)


*********
Centre Interfacultaire de Formation et de Recherche en
Environnement pour le Développement Durable (CIFRED)
*********

Cours de Macroéconomie
et de Microéconomie

Chargé

Dr Alfred DOSSA
Maître de Conférences du CAMES
Enseignant – Chercheur au CIFRED - UAC

Cours de Comptabilité Budgétaire Janvier 2024

1
SOMMAIRE
Partie Libellé Pages
1ère Généralités 4 - 20
Macroéconomie et Microéconomie 21 - 22
2ème Macroéconomie 23 - 48
Microéconomie 49 - 65

2
PARTIE 1 : GENERALITES

3
CHAPITRE 1 : HISTOIRE DE LA PENSEE ECONOMIQUE

I. Les Origines
Les premières réflexions économiques sont nées en Grèce antique : Platon aborde l’économie
comme la gestion de biens et des personnes de la façon la plus juste possible. Il est pour le
socialisme aristocratique, avec une communauté des biens et la division du travail en 3
classes : les magistrats/philosophes (ne produisent pas d’argent), les gardiens et les
producteurs/travailleurs (seuls à avoir le droit de propriété), précurseur de la période
classique. Pour lui, accumuler de la richesse n’est pas bien, donc on doit laisser seulement la
propriété des biens aux producteurs. Platon cherche à partager tout de même les biens en se
basant sur le collectivisme. Aristote fait la différence entre l’économie (dite naturelle : faire
des actions productives en donnant satisfaction aux besoins de chacun) et le chrématistique
(dit économie d’argent : faire de l’argent pour faire de l’argent sans donner de satisfaction). Il
fait donc la différence entre valeur réelle (valeur d’échange) et valeur subjective (économie
naturelle).

II. Mercantilisme
C’est une conception de l’économie (XVI-XVIII) où l’on s’intéresse à la relation entre
croissance économique et commerce extérieur. La croissance économique est l’accumulation
de biens (colonies, matières, métaux précieux, ...) à l’époque on parle de développement dans
les colonies, où la richesse est donc le stock d’or est d’argent et où la vente est un jeu à
somme nulle (exportateurs = gagnants, importateurs = perdants). Les mercantilistes sont pour
l’enrichissement via le commerce extérieur, permettant de dégager un excédent de balance.
Cet excédent va se faire grâce à l’industrialisation (économie à rendement croissant : plus l’on
produit sur une machine, moins le produit coûte cher, pensée néoclassique) ou grâce aux
politiques protectionnistes ce qui équivaut à établir des barrières tarifaires (droits de douanes)
afin de limiter les importations.

1. Le Bullionisme
Né en Espagne et appliqué peu après la découverte de l’Amérique, c’est le fait que la richesse
d’un pays repose sur les métaux précieux et l’or car ils sont impérissables. Ainsi l’or et
l’argent ne doivent pas sortir d’un pays.

2. Le Colbertisme
Né en France, c’est aux yeux des mercantilistes la richesse nationale dans l’industrie à travers
le progrès industriel (impliquer les forces de la nation : hommes, techniques, capitaux, par un
protectionnisme éducateur et exclusivement industriel, en mettant en place des subventions
pour l’exportation) et la valeur qualité (normes, produits de luxe, Versailles, et tout ce qui
peut être en compétition) qui sont les prémisses des barrières non-tarifaires.

III. La Physiocratie
Fondée par François Quesnay, c’est la circulation des richesses dans l’économie. Il précède
Adam Smith grâce aux modalités de création de richesses, mais aussi les diagrammes de flux
et de stocks (fonctionnement de l’économie), comment circulent les richesses.
Pour les physiocrates, la richesse (de l’ensemble Etat + Individus) se fait grâce à l’agriculture,
la richesse vient du travail (on reprend les théories grecques), et l’industrie et le commerces
sont des richesses stériles car ce n’est qu’une transformation des matières premières. Il y a 3
classes économiques en reprenant Platon : les paysans (producteurs), les stériles (marchands
et industriels), les propriétaires. Va précéder le courant classique.
Ricardo = classique = libéraux

4
CHAPITRE 2 : LES CLASSIQUES
I. Introduction
Les classiques sont à l’origine de la pensée générale, de la globalisation, de la mondialisation
(politique et économique), de l’Europe et de ce qui a formé notre monde et notre pensée. Ils
définissent la science économique comme science qui étudie la formation et la répartition des
richesses créées dans une économie. L’objectif essentiel est d’expliquer les problèmes
d’accumulation du capital sur le long terme, c.à.d. la croissance économique. Le classique est
une période créée grâce à Smith en 1776 et qui doit sa fin après Mill en 1848. Le XVIIIème
siècle est un temps de révolution industrielle, avec un courant capitaliste, c’est à ce moment-là
que les Classiques ont voulu développer une approche scientifique de l’économie en
expliquant les phénomènes de croissance, de développement et de répartition des richesses
entre classes sociales. Ils fondent le libéralisme grâce à certain nombre commun de théories
(analyse de la valeur, répartition de la richesse, …).

II. La doctrine libérale


3 principes fondateurs : la propriété privée, l’ordre naturel, liberté individuelle.
2 concepts :
- La main invisible : le meilleur moyen d’enrichir la nation est de laisser faire les individus à
travers la concurrence, donc « l’ordre naturel ». Si on laisse les individus agir naturellement et
de manière libérée, ils vont satisfaire l’intérêt général, même de façon inconsciente. C’est en
recherchant l’intérêt personnel que l’individu va travailler de manière plus efficace pour
l’intérêt de la société.
- l’Etat minimal : état qui n’intervient pratiquement pas ou très peu dans l’économie, tout en
assurant les fonctions régaliennes (armée, justice, éducation, diplomatie, ...) et la production
de services non rentables (entretien, ...)

III. La création de richesses


Il y a 3 principes importants :
- La théorie de la valeur : Les classiques anglais (Smith et Ricardo) privilégient la valeur
d’échange (quantité de travail incorporée dans le produit). Le travail est principale source de
richesse et de valeur. Les Classiques Français (Say) prônent la valeur d’usage (expression du
désir que les agents éprouvent de l’usage ou l’utilité des biens ou services qui est assez
subjective, et repose surtout sur l’utilité espérée des biens. L’utilité est principale source de
richesse et de valeur.
- Le rôle de la monnaie : c’est juste un instrument d’échange, un voile, et ses autres
expressions de la valeur et de réserve de valeur sont des aspects particuliers de sa fonction
primaire. Créer de la monnaie ne créé alors pas de richesses et n’a pas d’impact sur la sphère
réelle monétaire (ce qui est faux en soit).
- Le rôle de l’épargne et/ou l’investissement : c’est grâce à ça que nous avons de la
croissance, qui est le progrès dans la division du travail et l’utilisation d’outils de plus en plus
perfectionnés (rôle essentiel à l’investissement et l’épargne). L’épargne des ménages et des
entreprises va avancer le progrès et donc la croissance.

IV. L’analyse de la répartition


Ricardo pour analyser les revenus, présente la société avec 3 classes sociales :
- Les travailleurs : il touche un salaire, le salaire de subsistance (salaire minimum pour la
survie de la famille), dépend du prix des biens nécessaires à l’ouvrir et sa famille.
- Les propriétaires : il touche une rente (revenu touché par l’exploitation d’un terrain). Au fur
et à mesure que l’on exploite une terre, elle devient de moins en moins fertile. Le calcul de la
rente vient de la loi des rendements décroissants et donc la qualité (fertilité) des terres.

5
- Les capitalistes : il fait du profit en investissant dans le système, et ce qui l’en reste sont les
profits. Plus le salaire et la rente des employés sont élevés, plus les profits sont bas.

V. L’offre
La Loi des débouchés (Say) : La problématique des classiques est principalement celle de la
formation des richesses. Leur analyse est donc centrée sur la production et l’offre. Tout
produit terminé crée des débouchés pour d’autres produits : à chaque fois qu’un producteur
augmente son activité, il crée en même temps de nouveaux salaires pour ses employés et un
surcroît d’activités pour ses distributeurs.
Un produit ne crée pas sa demande, il peut y avoir des crises de surproduction de tel ou tel
bien, mais pas de crises de surproduction générales et durables. Si un produit ne trouve pas de
preneur, ses producteurs cesseront de le produire et s’orienteront vers d’autres produits, il n’y
a que des engorgements sectoriels et momentanés à cause d‘une mauvaise prévision des
entreprises. Les crises ne sont alors pas endogènes économiquement, mais dues aux chocs
exogènes (guerres, sécheresse, famine, …).
Malthus et Sismondi, opposés à cette loi, théorisent en disant que l’offre n’est pas égale à la
demande, souvent une offre supérieure à la demande (crise de sous-consommation), dû à une
épargne excessive ou une thésaurisation, et donc en conséquence il y a un recul de l’activité
économique. Cette théorie va être reprise par Keynes.

VI. La critique de Marx


Critique de la pensée classique par Marx par :
- l’exploitation de la force de travail : l’entreprise s’enrichit grâce à la plus-value (différence
de valeur entre la force de travail fournie par l’ouvrier et le salaire de subsistance qu’il
perçoit). Il y a donc paupérisation (=rendre plus pauvre) de la classe exploitée (prolétaires).
- la baisse du taux de profit : le taux de profit tend à baisser car la plus-value diminue, les
travailleurs fournissant moins de travail (fatigue). Les capitalistes vont devoir remplacer les
travailleurs improductifs par des machines ce qui va créer une armée industrielle de réserve
(chômeurs).
- Les crises de surproduction : elles sont liées au déséquilibre entre l’offre et la demande. Les
prolétaires n’ayant pas les moyens d’acheter les biens qu’ils produisent, et les entreprises
n’ayant qu’une idée approximative des débouchés.
Selon Marx, la doctrine qui doit se substituer au capitalisme est le socialisme, càd la propriété
collective des moyens de production. Cette doctrine a pour objectif de rénover l’organisation
sociale dans le but de faire prévaloir l’intérêt général avant l’intérêt individuel. Le socialisme
(économique) existe encore dans certains pays qui tendent maintenant à libéraliser
l’économie.

6
CHAPITRE 3 : LES NEOCLASSIQUES

I. Introduction

Les néoclassiques sont les premiers à réellement parler du marché. Ils naissent de la
révolution marginaliste dans les années 1870. Ils deviennent la principale école de pensée
jusqu’à la crise de 1929 et l’avènement du keynésianisme, puis redeviennent dominant après
les chocs pétroliers dans les années 1970 comme courant « néolibéral ». Il y a 3 courants de
NC : les anglais (Jevons), les suisses (Walras, Pareto) et les autrichiens (Menger). Ils ont pour
doctrines le libéralisme économique, mais ne sont pas d’accords avec l’approche anglaise du
classique sur le concept de valeur de travail et sur la représentation de la société sous forme de
classes sociales (on représente la société comme marché). Ils se rapprochent plus de Say
(valeur d’utilité) et avec le marché comme lieu de socialisation des agents économiques : tout
le monde est offreur, demandeur ou les deux à la fois.
Les NC tentent de démontrer scientifiquement la supériorité du libéralisme économique en se
référant au modèle de Concurrence Pure et Parfaite. Sa version la plus élaborée cherche à
déterminer un ensemble de conditions suffisantes pour rendre compatibles les décisions
individuelles des agents économiques, soit : l’équilibre sur tous les marchés (homogénéité des
produits, la circulation, …), une norme sur l’organisation des marchés où l’on tend vers la
perfection.

II. Le marginalisme
Le marginalisme vient du fait que les calculs économiques se faisaient à la marge comme
déterminant de la valeur des biens, il y a formalisation mathématique de l’économie avec
analyses microéconomiques. Ils cherchent à renforcer les conclusions libérales des penseurs
classiques mises à mal par d’autres penseurs comme Marx, en reformulant les hypothèses de
base de l’analyse économique. Cette nouvelle approche passe par la définition d’une nouvelle
théorie de la valeur fondée sur l’utilité. L’utilité marginale est la valeur qui dépend de l’utilité
qu’apporte la consommation d’une unité supplémentaire, utilité qui est elle-même
décroissante. En effet les classiques anglais avaient fondé leurs analyses sur la théorie de la
valeur travail ouvrant ainsi la voie aux analyses marxistes. L’analyse NC dérive d’une étude à
la marge des phénomènes économiques.
Pour l’individualisme méthodologique va encadrer et régir la société grâce au rationalisme :
- selon la théorie du producteur, on embauche tant que la productivité marginale du travail est
supérieure au salaire (= rapporter plus que ce que ça nous coûte).
- selon la théorie du consommateur, c’est adopter une attitude rationnelle pour maximiser
l’utilité. Hiérarchiser ses préférences pour s’orienter vers le plus utile.

III. L’équilibre partiel


Pensé par Marshall, l’équilibre partiel est l’analyse de l’équilibre sur un seul marché, sans
tenir compte des interactions avec les autres marchés (analyse du marché du travail sans tenir
compte de la démographie, application aux marchés des B&S, des capitaux, du travail, …).
Le marché des B&S ; à l’équilibre : Offre B&S = Demande B&S, pour un prix P* (*=équilibre),
où P est la valeur d’ajustement. Pour chaque consommateur, la demande est une relation
décroissante entre prix et quantités. Pour chaque entreprise, l’offre est une relation croissante
entre prix et quantités.

7
Graphique d’équilibre sur le marché des B&S :

x = quantités de B&S
f(x) = prix
P* = prix d’équilibre
Q* = quantité d’équilibre

IV. L’équilibre général


Walras a pensé à un équilibre qui vient aider et corriger l’équilibre partiel (trop restreint car
elle n’étudie qu’un seul marché sans tenir compte des autres).
Sur tous ls marchés de l’économie, on retrouve Offre Globale = Demande Globale. Il y a alors
« création » d’un commissaire-priseur qui va centraliser les quantités offertes et demandées
puis affiche les prix par un processus de tâtonnement (ajustements successifs) tant que l’Offre
et la Demande ne sont pas identiques, idem pour l’échange car il y a compatibilité entre les
décisions des offreurs et des demandeurs.

V. L’optimum social
Pareto de son côté, s’appuie sur Walras pour dire que si l’équilibre général est respecté, alors
l’optimum social également. Si l’équilibre n’est pas un optimum parétien (situation où l’on ne
peut améliorer la satisfaction d’un agent sans nuire à au moins celle d’un autre agent), alors
l’Etat doit intervenir en tant qu’Etat correcteur, pour corriger les défaillances du marché
(pouvoir de marché, externalités négatives, fournitures de biens collectifs/publics, politique de
répartition)

8
CHAPITRE 4 : LE KEYNESIANISME

I. Introduction
Keynes a écrit la théorie générale de l’intérêt, de la monnaie et de l’emploi. Cette œuvre,
marquée par l’entre-deux guerre avec un nouveau capitalisme (monopoles, syndicats, rigidité
des prix) et la crise de 1929, veut résoudre les problèmes et d’atteindre le plein emploi.
Keynes pose alors une nouvelle conception de la politique économique et du rôle de l’Etat, où
l’emploi est lié à la croissance. Pour obtenir le plein emploi, il faut accroitre la production
nationale et pour cela augmenter la demande, au besoin en augmentant le déficit budgétaire en
distribuant de meilleurs salaires : la dépense publique, moralement justifiée, devient le moteur
de la croissance : interventionnisme étatique.
Innovations de Keynes :
- Logique de circuit : on oublie les équilibres, et on étudie les flux entre agents.
- perspective macroéconomique centrée sur les agrégats
- intervention de l’Etat

II. La demande effective


C’est la demande anticipée par les entrepreneurs lorsqu’ils décident d’investir. L’anticipation
de la demande détermine le niveau de production et de l’emploi, càd la fixation du volume de
production correspondant et déterminent ainsi le niveau d’emploi requis.
La décision d’investissement quant à elle, dépend de l’arbitrage entre le taux d’intérêt i, le
rendement tiré d’un investissement financier (placement) et de l’efficacité marginale du
capital e.
TRI : taux de rendement interne du capital :
Si e > i alors c’est un investissement productif
Si e < i alors c’est un placement

Anticipation des entreprises Demande effective Niveau d’emploi


Pessimistes Insuffisante Sous-emploi
Optimistes Suffisantes Plein-emploi

III. Monnaie et Taux d’intérêt


3 motifs de détentions de monnaie
- motif de transaction : financer les transactions entre agents.
- motif de précaution : faire face aux aléas.
- motif de spéculation : espérer tirer profit des meilleures opportunités de placement.

Motif 1 (Y) : Transaction + Précaution, la demande de monnaie est liée au revenu. Le M1 est
une fonction croissante de Y.
Motif 2 (i) : Spéculation, la demande de monnaie est liée au taux d’intérêt. Le M2 est une
fonction décroissante de i.

La fonction de demande de Monnaie


Md = M1 (Y) + M2 (i)
x = Demande de monnaie
f(x) = i

9
Le taux d’intérêt est une variable purement monétaire, déterminé par l’équilibre entre la
demande de monnaie et l’offre de monnaie sur le marché, c’est le lien entre sphère réelle et
sphère monétaire.
Si le taux d’intérêt est bas, nous n’avons pas intérêt à placer l’argent. Le spéculateur préfère
alors détenir son épargne sous forme d’encaisses monétaires : la demande de monnaie est
forte. Si le taux d’intérêt est élevé, le spéculateur renonce à la liquidité en achetant des titres :
la demande de monnaie est faible.

IV. Les politiques macroéconomiques


Les politiques de relance peuvent faire intervenir la politique budgétaire et/ou la politique
monétaire. L’économie peut passer alors d’un équilibre sous-optimal (faible demande, faible
offre, chômage, sous-utilisation du capital, moral en chute, anticipations négatives) à un
équilibre satisfaisant (plein-emploi, demande et offre plus fortes, anticipations positives,
restauration de la croissance). Dans le cas d’une relance budgétaire, on augmente la demande
interne en augmentant les dépenses de l’Etat (constructions, investissements, …) et/ou en
augmentant les revenus disponibles des agents (baisse des impôts, hausse des prestations
sociales). Le souci est que cette politique va créer des déficits et une dette publique.
Dans le cas d’un politique monétaire, la banque centrale augmente l’offre de monnaie,
encourage la demande de crédits par les ménages et entreprises et donc augmente l’activité
économique d’ensemble. En diminuant le taux de rendement de la monnaie, une politique
monétaire expansive fera baisser le cours de la monnaie fac à l’étranger, ce qui augmentera le
solde de la balance commerciale. Il y aura cependant une hausse de l’inflation et une hausse
des coûts des biens imposés. De même qu’après une politique de relance, il y a souvent
instauration d’une politique de rigueur, qui va ramener le déficit à des niveaux raisonnables,
ou permettent de diminuer l’inflation.

10
CHAPITRE 5 LES PRINCIPES DE L’ECONOMIE

Introduction
Le terme économie est dérivé d’un terme grec qui signifie « celui qui tient la maison ». Un
ménage et une économie doivent prendre de nombreuses décisions : qui travaillera ? Que
produire ? Quelles sont les ressources ? Qui consommera ? La gestion des ressources dans
une société est importante car ces ressources sont rares. Rareté signifie que la société ne peut
satisfaire les besoins de tout le monde. L’économie est l’étude de la manière dont la société
gère ses ressources rares. Les économistes étudient :
- comment les individus décident (principes 1, 2, 3 et 4) ;
- comment ils interagissent (principes 5, 6 et 7) ;
- comment les forces et les tendances affectent l’ensemble de l’économie (principes 8 et 9)

1- Comment les gens prennent leurs décisions

Principe n°1 : les gens doivent faire des choix pour obtenir une chose qui nous tente, il nous
faut en général renoncer à une autre chose que l’on aime. Prendre une décision revient donc à
comparer 2 objectifs.
Considérons des parents qui doivent décider comment dépenser le revenu familial. Ils peuvent
acheter de la nourriture, des vêtements ou s’offrir des vacances. Ou bien, ils peuvent
économiser une partie de leurs revenus pour leur future retraite ou pour financer l’éducation
de leurs enfants. Chaque franc qui sera dépensé sur l’un de ces biens ou services est un franc
qui ne sera plus disponible pour un autre bien ou service.
Quand les individus sont regroupés en sociétés, ils sont confrontés à d’autres types de choix.
Le choix traditionnel oppose « le beurre aux canons » . plus l’on dépense en défense
nationale pour protéger nos côtes contre une éventuelle agression (les canons) moins il restera
à dépenser pour améliorer notre niveau de vie à l’intérieur (le beurre).
La société doit aussi choisir entre efficacité et équité. L’efficacité c’est la capacité d’obtenir le
plus possible à partir des ressources rares de la société. L’équité consiste à distribuer
équitablement entre les membres de la société les produits de ces ressources.
En d’autres termes, l’efficacité se réfère à la taille du gâteau et l’équité s’intéresse à la façon
de le partager → les 2 objectifs sont en conflit.
Principe n°2 : le coût d’un bien est ce à quoi l’on est prêt à renoncer pour
l’obtenir prendre une décision implique d’être capable de comparer des coûts et des bénéfices
des diverses options possibles. Mais dans de nombreux cas, le coût d’une action n’est pas
aussi évident qu’il le paraît.
Ex : étudier à l’université (renoncer au salaire pendant le temps des études) ou travailler
Le coût d’opportunité d’un bien, c’est ce à quoi on renonce pour obtenir le bien désiré. Il faut
être capable d’évaluer le coût d’opportunité associé à chaque action possible.
Principe n°3 : les gens rationnels pensent en termes marginaux de nombreuses décisions
de la vie courante impliquent des petits ajustements à la marge d’un plan d’action préexistant.
Les économistes appellent ces ajustements des changements marginaux. la plupart du temps,
les meilleures décisions sont prises en raisonnant en termes marginaux.
il faut comparer les bénéfices et les coûts additionnels d’un choix :

11
- bénéfice marginal à BM
- coût marginal à CM
Les changements marginaux dans les coûts ou bénéfices motivent les gens à changer leur
comportement. Un décideur rationnel n’engage une action que si et seulement si le bénéfice
marginal de celle-ci est supérieur à son coût marginal.
Principe n°4 : les gens réagissent aux incitations dans la mesure où les individus prennent
leurs décisions en comparant coûts et bénéfices, leur comportement changera quand les coûts
ou les bénéfices changeront. En d’autres termes, les gens réagissent aux incitations.
L’influence des incitations sur le comportement des agents économiques est un point
extrêmement important pour les hommes politiques à l’origine des politiques publiques.

2- Comment les gens interagissent


Principe n°5 : l’échange peut être profitable à tous les échanges entre 2 nations profitent
aux 2 partenaires même si on parle de concurrence entre pays.
Les individus profitent de leur capacité d’échanger. Dans une économie, chaque famille est en
concurrence avec toutes les autres et la concurrence engendre des bénéfices.
L’échange avec les autres permet à chacun de se spécialiser dans les activités qu’il fait le
mieux (agriculture, confection, construction). Grâce aux échanges, les gens peuvent s’offrir
une plus grande variété de biens et services à moindre coût.
Principe n°6 : en général, les marchés constituent une façon efficace d’organiser
l’activité économique dans une économie de marché, les décisions de l’organisme central de
planification (cf pays communistes) sont remplacées par les décisions de millions
d’entreprises et d’individus. Les entreprises décident de leur production et de leurs emplois et
les individus choisissent l’entreprise pour laquelle ils vont travailler et ce qu’ils achèteront
avec leurs revenus.
Ces firmes et ces ménages sont en relation au sein du marché, où les prix et l’intérêt
individuel guident les décisions à prendre.
Les entreprises et les individus actifs sur un marché se comportent comme s’ils étaient guidés
par une main invisible qui favorise l’émergence de résultats favorables à tous. Les prix sont
l’instrument par lequel la main invisible organise l’activité économique. Les prix reflètent à la
fois la valeur d’un bien pour la société et son coût de fabrication.
Quand le gouvernement empêche les prix de s’ajuster librement à l’offre et la demande, la
main invisible ne peut plus jouer son rôle de coordinateur. C’est pourquoi, les impôts nuisent
à l’efficacité de l’allocation des ressources : ils déforment les prix et donc les décisions des
ménages et entreprises.
Principe n°7 : le gouvernement peut parfois améliorer les résultats du marché

Quand les marchés échouent, il y a 2 raisons qui poussent le gouvernement à intervenir :


- améliorer l’efficacité
- promouvoir l’équité.
Grâce à la main invisible, les marchés allouent en général les ressources de manière efficace
mais elle est parfois en panne.
Les économistes utilisent le terme défaillance de marché pour désigner une situation dans
laquelle le marché seul ne parvient pas à allouer les ressources efficacement.

12
La défaillance de marché peut engendrer une externalité qui est l’impact sur le bien-être
d’autrui des actions d’un individu.
La défaillance de marché peut également trouver son origine dans le pouvoir de marché qui
représente la capacité d’un individu ou d’un petit groupe de manipuler indûment les prix du
marché et à ce moment-là la main invisible est encore moins capable d’assurer une
distribution équitable de la prospérité économique (objectif de l’impôt sur le revenu ou du
système de sécurité sociale).

3- Comment fonctionne l’économie dans son ensemble


Principe n°8 : le niveau de vie dépend de sa capacité à produire des biens et services
Le niveau de vie peut être mesuré de plusieurs manières comme le revenu par tête ou le
produit national. Les différences dans les niveaux de vie entre les pays s’expliquent par des
différences de productivité des pays. La productivité est la quantité de biens et services
produites par heure travaillée. Si la productivité est alors le niveau de vie, la relation entre
productivité et niveaux de vie a de profondes implications en matière de politique publique.
Afin d’améliorer les niveaux de vie, les hommes politiques doivent augmenter la productivité
en favorisant une meilleure formation des travailleurs, en mettant à leur disposition les outils
de production adéquats et la meilleure technologie possible.
Principe n°9 : les prix montent quand le gouvernement imprime de la monnaie
L’inflation est l’augmentation du niveau général des prix. Une des causes de l’inflation est
l’excès de croissance dans la quantité de monnaie en circulation car quand le gouvernement
crée de grandes quantités de monnaie nationale, la valeur de celle-ci diminue.
Principe n°10 : à court terme, la société doit choisir entre inflation et chômage
On considère souvent que réduire le taux d’inflation contribue à augmenter momentanément
le taux de chômage, expliqué par la lenteur d’ajustement de certains prix (on dit qu’ils sont
rigides à court terme). Ce compromis à court terme entre inflation et chômage est décrit par la
courbe de Phillips.

13
CHAPITRE 6 : VOCABULAIRE, MODELES ET HYPOTHESE
EN ECONOMIE
1- Vocabulaire
- rareté : caractère limité des ressources de la société
- économie : étude de la manière dont la société gère ses ressources rares
- efficacité : capacité de la société à tirer le maximum de ses ressources rares
- justice ou équité : capacité de répartir équitablement les fruits de la prospérité entre tous
les membres de la société
- coût d’opportunité : ce à quoi il faut renoncer pour obtenir quelque chose
- changement marginal : petit ajustement d’un plan d’action
- économie de marché : économie qui répond sur les décisions décentralisées des ménages et
des entreprises se rencontrant sur les marchés des biens et services pour allouer les ressources
- défaillance de marché : situation dans laquelle le marché, livré à lui-même ne parvient pas
à allouer les ressources efficacement
- externalité : effet du comportement d’un agent sur le bien-être d’un tiers
- pouvoir de marché : capacité d’un agent économique (ou d’un petit groupe d’agents)
d’influer sur les prix du marché
- productivité : quantité de biens et services produite par heure travaillée
- inflation : hausse du niveau général des prix de l’économie
- courbe de Phillips : compromis de court terme entre inflation et chômage

2- Modèles et hypothèses économiques


2.1- Modèles
2.1.1- Le modèle de flux circulaire
Le modèle des flux circulaires nous permet de représenter simplement toutes les transactions
économiques entre les ménages et les entreprises et nous aide à représenter l’économie en 2
branches d’analyse : la micro-économie et la macro-économie. Dans le modèle de flux
circulaire ne figurent que 2 types d’agents économiques, les ménages et les entreprises.
Celles-ci produisent divers biens et services en consommant plusieurs facteurs tels que le
travail, la terre, le capital (immeubles et machines). Ces facteurs sont appelés facteurs de
production. Les ménages consomment les biens et services produits par les entreprises et
détiennent les facteurs de production.
Ménages et entreprises se rencontrent sur 2 types de marché. Sur le marché des biens et
services, les ménages sont acheteurs et les entreprises vendeuses. Plus particulièrement, les
ménages achètent les biens et services produits par les entreprises. Sur le marché des facteurs
de production, les ménages sont vendeurs et les entreprises acheteuses. Sur ce marché, les
ménages fournissent aux firmes les facteurs dont ces dernières ont besoin pour produire les
biens et services.
La boucle intérieure du schéma représente la circulation des biens et services entre ménages
et firmes. Les ménages vendent aux entreprises l’utilisation de leur travail, de leur terre ou de
leur capital sur le marché des facteurs de production. Les entreprises utilisent ces facteurs
pour produire les biens et services et vendent ceux-ci aux ménages sur le marché des biens et
services. La boucle extérieure du diagramme représente le flux correspondant de dollars. Les
ménages dépensent de l’argent pour acheter aux entreprises leurs biens et services. Les firmes
utilisent une partie du produit de leurs ventes pour acheter les facteurs de production, comme
les salaires de leurs employés. Ce qui reste constitue le profit des propriétaires des entreprises
qui sont directement ou indirectement des ménages.

14
2.1.2- Le circuit économique complet
La comptabilité nationale compte 6 secteurs institutionnels définis à partir de leur fonction
principale et de leur ressource principale.

N° Secteurs Fonction principale Ressource principale


institutionnels

1 Les ménages (dont les Ils consomment des biens et Leurs revenus proviennent de
entreprises des services leur activité, de leur patrimoine
individuelles) ou de prestations sociales

2 Les sociétés non Elles produisent des biens et Leurs ressources sont issues de
financières des services marchands et la vente de leur production
investissent

3 Les sociétés Elles collectent l’épargne et Leurs revenus sont issus de


financières (dont les la recyclent sous forme de leurs services marchands
entreprises prêts ou de placements financiers
d'assurance) financiers
4 Les administrations Elles produisent des Leurs ressources proviennent
publiques (Etat) services non marchands et des prélèvements obligatoires
redistribuent des revenus (impôts, taxes…)

5 Les institutions sans Elles produisent des Leurs ressources sont des
but lucratif au service services non- marchands ou adhésions, des dons et/ou des
des ménages à but non lucratif subventions versées par les
(ISBLSM) administrations publiques ;
6 Le reste du monde X &M X-M

2.1.2- Le modèle de la frontière des possibilités de production


La frontière des possibilités de production est un modèle qui indique les combinaisons
possibles de production compte tenu de la quantité de facteurs de production disponibles et de
la technologie en cours.

15
- Efficacité
On dit qu’un résultat est efficace si l’économie tire le maximum des ressources rares dont elle
dispose.
- Arbitrage
L’un des 10 principes de l’économie affirme que les gens doivent faire des choix. La frontière
des possibilités de production illustre l’un de ces choix. Une fois atteint un niveau efficace de
production, on ne peut augmenter la production de l’un des biens qu’en diminuant la
production de l’autre.
- Coût d’opportunité
Un autre des 10 principes de l’économie affirme que le coût d’un bien est ce que à quoi l’on
est prêt à renoncer pour l’obtenir. On parle de coût d’opportunité.
- Croissance économique
La frontière des possibilités de production indique le choix qui existe à un moment donné,
mais il peut varier avec le temps. Par exemple, une avancée technologique pourrait accroître
le nombre d’ordinateurs fabriqués à l’heure ; dès lors, pour une même production de voitures,
l’économie pourrait produire davantage d’ordinateurs.

2.2- Les hypothèses : Propositions qui font l’unanimité en économie :


Voici quelques propositions de l’économiste Gregory N. Mankiw (2012)1 auxquelles
souscrivent la plupart des économistes, basées sur divers sondages. Voici la liste, ainsi que le
pourcentage d'économistes qui sont d'accord :

N° Hypothèses Taux de
validation
11. Le plafond des loyers réduit la quantité et la qualité de l’habitat 93%
disponible
22. Les taxes et les quotas à l’importation réduisent le bien-être 93%
économique général
3 Les taux de change flexibles constituent une organisation monétaire 90%
internationale efficace
43. La politique fiscale exerce une influence simulatrice sur une économie 90%
en situation de sous-emploi
54. Si le budget doit être équilibré, cet équilibre doit être lié au cycle 85%
économique et non à l’année
6 Les versements en espèces (aux nécessiteux) sont préférables aux 84%
transferts en nature
75. Un déficit budgétaire important exerce un effet négatif sur l’économie 83%
86. le salaire minimal accroît le chômage des jeunes et des travailleurs non 79%
qualifiés
9 Le gouvernement devrait réorganiser son système de prestations 92%
sociales selon le principe de « l’impôt négatif sur le revenu »
10 Les permis de polluer négociables constituent un meilleur moyen de 78%
contrôler la pollution que les plafonds de pollution
11 L'écart entre les fonds et les dépenses de la sécurité sociale deviendra 85%
insoutenable dans les cinquante prochaines années si les politiques
actuelles restent inchangées

1
Gregory N. Mankiw (2012) : Principes de l’économie. 7è édition Rustica, 891 p.

16
CHAPITRE 7 : LES LOIS EN SCIENCE ECONOMIQUE
La science économique a formulé de nombreuses lois : loi des débouchés, loi de Wagner, loi
d’Engel, loi de Gresham, loi de Malthus, loi psychologique fondamentale, etc. Le statut
épistémologique de ces lois est discuté. Par exemple, la loi des débouchés n’est vraie que
dans une économie de troc (ou si l’on considère que la monnaie est neutre) ; la prétention à
l’universalité de la loi de R. Malthus (1766-1834) a été contestée par K. Marx (1818-1883),
la loi psychologique fondamentale de J. M. Keynes (1883-1946) est vraie à un moment donné
du temps, mais non pour rendre compte d’une évolution historique, etc. En toute rigueur, il
serait préférable de parler de conjectures plutôt que de lois. Ces conjectures ont une
indiscutable portée heuristique, mais elles ne peuvent prétendre à une validité universelle.
Pour A. Marshall (1842-1924), toutes les lois économiques sont tendancielles.

- Loi d’airain des salaires


La loi d’airain des salaires, formulée par F. Lassalle (1825-1864), un socialiste allemand,
affirme que le taux de salaire a tendance à se fixer au niveau du minimum physiologique de
subsistance. Cette loi a été vivement critiquée par K. Marx (1818- 1883) qui considérait que la
loi d’airain des salaires n’était pas une loi naturelle et que la valeur de la force de travail
dépendait des conditions sociales de production.
- Loi d’Engel
La loi d’Engel énonce que : « La part relative des dépenses alimentaires dans la
consommation diminue lorsque le revenu augmente. » C’est la seule loi qu’E. Engel (1821
1896) ait dégagée. Son étude s’est appuyée sur les budgets de familles ouvrières (Les
conditions de la production et de la consommation du Royaume de Saxe, 1857) en utilisant les
données recueillies par E. Ducpetiaux (Les budgets économiques des classes ouvrières en
Belgique, 1855) et de F. Le Play (Les ouvriers européens, 1856).
- Loi de finances (initiale)
La loi de finances, couramment appelée budget de l’État, est un texte de loi qui prévoit et
autorise, pour chaque année civile, l’ensemble des recettes et dépenses de l’État. La loi de
finances doit respecter les règles budgétaires. La loi de finances annuelle regroupe le budget
général de l’État, les budgets annexes et les comptes spéciaux du Trésor.
- Loi de finances de règlement
Une loi de finances de règlement, ou loi de règlement budgétaire, est une loi qui constate a
posteriori les résultats financiers de l’année civile et qui approuve les différences éventuelles
entre les résultats et les prévisions de la loi de finances initiale, complétée éventuellement par
une loi de finances rectificative.
- Loi d’Okun
La loi d’Okun établit que le taux de chômage est d’autant plus élevé que le gap d’Okun est
important. Ce dernier désigne l’écart entre le taux de croissance effectif (constaté dans
l’économie) et son taux de croissance potentiel (qui résulterait du plein-emploi des ressources
productives). La loi d’Okun a été formulée par A. Okun (1928- 1980).
- Loi de finances rectificative
Une loi de finances rectificative, appelée aussi collectif budgétaire, est une loi qui modifie en
cours d’année la loi de finances initiale. Les modifications touchant les recettes et/ou les
dépenses sont souvent liées aux évolutions conjoncturelles et aux décisions de la politique
économique.
- Loi de Gresham
Selon la loi de Gresham, « la mauvaise monnaie chasse la bonne ». Cet énoncé, attribué au
chancelier britannique Th. Gresham (1519-1579), signifie que dans une économie, lorsque

17
deux monnaies circulent parallèlement et que, pour des raisons diverses, l’une d’entre elles est
préférée par le public, elle est thésaurisée. De ce fait, elle disparaît plus ou moins rapidement
de la circulation. Seule demeure alors, pour assurer les transactions, la monnaie considérée
comme « mauvaise ».
- Loi de Kaldor-Verdoorn
La loi de Kaldor-Verdoorn met en évidence le fait que le taux de croissance de la
productivité est une fonction croissante du taux de croissance du stock de capital par
travailleur. Cette loi économique repose sur l’hypothèse d’un progrès technique incorporé
au capital.
- Loi de King
Formulée par Ch. Davenant (1656-1714) et attribuée à G. King (1648-1712), elle énonce
qu’en cas d’insuffisance de l’offre dans le secteur agricole, une baisse relativement faible de
la quantité offerte se traduit par une augmentation proportionnellement plus forte du prix du
produit considéré. Cela résulte de l’inélasticité de la demande des consommateurs par rapport
au prix de ces produits.
- Loi de l’offre et de la demande
Processus par lequel la flexibilité du prix, toutes choses égales par ailleurs, conduit à un prix
d’équilibre qui assure l’égalité des quantités offertes et demandées sur un marché. Bien que
consacrée par l’usage, l’expression « loi de l’offre et de la demande » n’énonce pas une loi
scientifique.
- Loi de la valeur
La loi de la valeur a été formulée par K. Marx. Elle indique que la valeur d’échange des
marchandises est déterminée par la quantité de travail socialement nécessaire pour la
produire. Les rapports d’échange entre les marchandises sont donc déterminés par les
quantités relatives de travail nécessaires pour produire ces marchandises. Même si les prix ne
sont pas égaux à la valeur des marchandises, en moyenne et à long terme, les échanges, au
sein d’une économie de marché se produisent conformément à la loi de la valeur. Cette loi de
la valeur s’applique aussi à la marchandise particulière qu’est la force de travail. C’est ainsi
qu’une heure de travail qualifié sera payée en moyenne plus cher qu’une heure de travail non
qualifié. Pour Marx (Critique du programme de Gotha, 1875) la loi de la valeur s’applique
même dans la première phase de la société communiste. Ce n’est que dans une phase
supérieure, quand l’abondance est réalisée, que l’on peut renoncer à la loi de la valeur.
- Loi de Malthus
Selon la loi de Malthus (du nom de Th. R. Malthus, 1766-1834), la population tend à
s’accroître selon une progression géométrique, alors que les subsistances s’accroissent selon
une progression arithmétique. Les sociétés humaines sont donc menacées en permanence par
une tendance à la surpopulation absolue qui est la cause de la pauvreté. Malthus est donc
conduit à condamner les lois sur les pauvres qui, en favorisant la natalité, maintiennent la
pauvreté.
- Loi de Wagner
Pour A. Wagner (1835-1917), « une portion relative toujours plus grande et plus importante
des besoins collectifs d’un peuple civilisé en progrès se trouve satisfaite par l’État »
(Finanzwissenschaft, 1883). Personnalité marquante de ce que l’on a nommé le socialisme de
la chaire, cet économiste explique la croissance des dépenses publiques de plusieurs façons :
– le développement économique rend nécessaire l’accroissement des fonctions
d’administration publique comme l’adduction et l’épuration des eaux, les transports publics,
l’éclairage, la sécurité, etc.
– un pays dont le niveau de développement est élevé a des besoins importants dans les
domaines de l’éducation, de la santé et de la culture ;

18
– la croissance économique entraîne dans certains secteurs la création d’oligopoles ou de
monopoles qui justifient le contrôle de ces entreprises par l’État. A. Wagner cite le cas des
chemins de fer en Allemagne que seul l’État pouvait financer.
- Loi de Walras
La loi de Walras, formulée dans le cadre du modèle d’équilibre général, indique qu’en
situation de concurrence pure et parfaite, la somme nette des demandes excédentaires est
nulle à l’équilibre. Autrement dit, la valeur totale de tous les biens demandés est identique à
la valeur totale de tous les biens offerts. En effet, si on constate une quantité offerte supérieure
à la quantité demandée sur un marché, il y aura une quantité demandée supérieure à la
quantité offerte sur un autre marché, de telle sorte que la somme des demandes excédentaires
est nulle.
- Loi des débouchés
La loi des débouchés a été formulée par J.-B. Say (1767-1832). Pour lui « les produits
s’échangent contre des produits », c’est-à-dire que l’offre crée sa propre demande. En effet,
la contrepartie de la valeur de la production est intégralement distribuée sous forme de
revenu et les agents économiques ne thésaurisent pas, ils consomment et placent la partie du
revenu non consommée. La loi des débouchés (ou loi de Say) fonde l’économie de l’offre
selon laquelle il n’y a pas lieu de craindre une insuffisance des débouchés. Le niveau de
l’activité économique dépend des conditions de l’offre, la demande en découle
automatiquement. Cette conception repose aussi sur la dichotomie réel/monétaire. Pour J.-B.
Say, la monnaie est neutre, les grandeurs réelles se déterminent entre elles et toute économie
est en fait conceptualisée comme une économie de troc.
- Loi des rendements marginaux décroissants
Selon la loi des rendements marginaux décroissants, lorsque l’on augmente la quantité d’un
facteur de production, l’autre restant fixe, on constate que :
– dans un premier temps la productivité marginale de ce facteur augmente, c’est la phase
des rendements marginaux croissants ;
– dans un second temps la productivité marginale diminue, c’est la phase des rendements
marginaux décroissants. C’est dans cette phase que se situe l’équilibre du producteur.
Il ne faut pas confondre les rendements marginaux ou encore rendements factoriels avec les
rendements d’échelle. Les premiers concernent la courte période (un facteur reste fixe,
l’autre varie) et les seconds la longue période (les deux facteurs sont variables).
L’hypothèse des rendements marginaux décroissants est une nécessité logique du modèle de
concurrence parfaite. Si les rendements étaient croissants, l’efficience productive
augmenterait avec le niveau de production et une situation de monopole naturel s’établirait
sur le marché, ce qui n’est pas compatible avec l’hypothèse d’atomicité du marché. À
technologie donnée, il est presque toujours impossible d’accroître sans fin les rendements
(c’est-à-dire la productivité), ce qui corrobore la loi des rendements décroissants. La loi des
rendements décroissants avait déjà été présentée par D. Ricardo (1772-1823) dans son analyse
de la rente foncière.
- Loi organique relative aux lois de finances (LOLF)
La loi organique relative aux lois de finances (LOLF) détermine le cadre juridique des lois de
finances. Il s’agit d’un « ensemble de programmes concourant à une politique définie ». Un
programme est un regroupement de « crédits destinés à mettre en œuvre une action ou un
ensemble d’actions relevant d’un même ministère et auxquels sont associés des objectifs
précis, définis en fonction de finalités d’intérêt général, ainsi que des résultats attendus et
faisant l’objet d’une évaluation ». Une action est un élément d’un programme et regroupe des
crédits ayant la même finalité. La LOLF s’inscrit dans une logique de « performance » : les
crédits ne sont plus attribués par Ministère mais affectés à une action qui s’inscrit dans un

19
programme. La lisibilité accrue permet de vérifier plus facilement que les objectifs fixés à une
politique publique ont été atteints. Par ailleurs, chacune des 34 missions fait l’objet d’un vote
par les parlementaires (et non plus seulement les dépenses nouvelles comme antérieurement).
- Loi psychologique fondamentale
La loi psychologique fondamentale est un postulat formulé par J. M. Keynes (1883-1946) qui
exprime « qu’en moyenne et la plupart du temps, les hommes tendent à accroître leur
consommation à mesure que le revenu croît, mais non d’une quantité aussi grande que
l’accroissement du revenu » (Théorie générale de l’emploi, de l’intérêt et de la monnaie,
1936). Keynes ne donne aucune justification empirique à cette loi qui s’appuie selon lui, sur
des données intuitives relatives à la nature humaine.
- Lois de Gossen
H. H. Gossen (1810-1858) a exprimé le principe de l’utilité marginale décroissante, repris
par la théorie néoclassique. Il postule que la jouissance supplémentaire décroît avec les doses
additionnelles consommées (1ère loi de Gossen). Selon la deuxième loi de Gossen, pour
obtenir le maximum de satisfaction, le consommateur doit égaliser les utilités marginales des
biens pondérées (divisées) par les prix. Selon la troisième loi de Gossen, les individus
réalisent des échanges de biens entre eux, de telle sorte qu’il y a égalisation de la satisfaction
procurée par la dernière unité de bien obtenue par chaque individu.

20
PARTIE 2 : LA MACROECONOMIE
ET LA MICROECONOMIE

21
• La macroéconomie est un domaine de la science économique qui se consacre a l’étude du
fonctionnement d’ensemble du système économique. Alors que la microéconomie prend
pour point de départ le comportement des agents économiques (le consommateur, le
producteur) et analyse la coordination de leurs décisions décentralisées, la macroéconomie
prend pour point de départ des agrégats calcules au niveau de l’économie globale (la
production, la consommation, l’épargne, etc.) et s’efforce de construire des modèles qui
rendent compte des relations entre ces agrégats. La définition ci-dessus a longtemps été
admise et on la retrouve encore souvent dans les manuels de macroéconomie. On a d’ailleurs
parle d’un no bridge entre la microéconomie (étudiée dans le cadre de la théorie néoclassique)
et la macroéconomie (étudiée dans le cadre keynésien). Mais depuis les années 1970, les
choses ont beaucoup évolue. En effet, la macroéconomie contemporaine est dorénavant
microonde, elle prend donc elle aussi pour point de départ, l’étude des comportements
individuels. M. de Vorey propose de distinguer deux types de modèles :
– les uns, issus des travaux de L. Walras et du modèle Arrow-Debreu, sont hautement
abstraits et ne prétendent pas avoir de portée pratique immédiate. Ils constituent la
microéconomie ;
– les autres sont plus simples, plus concrets et plus orientes vers les questions de politique
économique. Ils constituent la macroéconomie. Pour de Vroey (2009): «Nous proposons donc
de concevoir la macroéconomie comme une modalité particulière de l’équilibre général. »

• La microéconomie est une approche économique fondée sur l’individualisme


méthodologique. Elle vise a rendre compte du fonctionnement global de l’économie en
prenant pour point de départ l’étude des comportements optimisateurs d’agents économiques
individuels (producteurs et consommateurs). L’approche microéconomique ne se limite pas a
l’étude des comportements individuels, elle analyse l’interaction entre les agents sur les
marchés en termes d’équilibre partiel ou d’équilibre général. Elle a connu un
développement important dans le cadre du modèle de concurrence pure et parfaite.
L’approche microéconomique s’est aussi développée dans un cadre de concurrence
imparfaite, en analysant grâce a la théorie des jeux les comportements stratégiques des
agents. La Nouvelle économie keynésienne (NEK) élabore depuis plus de vingt ans, des
analyses microéconomiques visant à expliquer la persistance de déséquilibres au niveau
macroéconomique (théorie des contrats implicites, théorie du salaire d’efficience, etc.). Par
ailleurs, le champ d’analyse de la microéconomie s’élargit et touche des domaines souvent
éloignes du champ traditionnel de l’économie : la famille et les comportements
démographiques, le champ politique, la délinquance, etc. Il faut éviter les associations
simplistes entre microéconomie et théorie néoclassique.

En définitive, la Macroéconomie est l’approche qui consiste à analyser les liens entre des
variables économiques globales, de grands agrégats censés représenter la situation
d’économies nationales, tandis que la Microéconomie est l’approche qui consiste à analyser
les phénomènes économiques en partant des choix individuels des agents.

22
MACROECONOMIE

23
Chapitre 1 : Le produit intérieur brut
Le produit intérieur brut (PIB) représente une mesure de la production et une approximation
de la richesse créée. Il constitue un agrégat essentiel pour apprécier les performances d’une
économie. Deux indicateurs doivent plus particulièrement retenir l’attention : le produit global
(et sa croissance) ainsi que le produit par tête (PIB rapporté au nombre d’habitants).

1. DÉFINITIONS
Le produit intérieur brut constitue une approximation de la richesse créée par les agents
économiques résidant dans un espace donné au cours d’une période de temps (généralement
l’année). Le PIB est égal à la somme des valeurs ajoutées des branches productives de
l’économie (somme des valeurs ajoutées brutes + taxes sur la valeur ajoutée + droits de
douanes – subventions à l’importation).
La valeur ajoutée est la différence entre la valeur de la production finale et les consommations
intermédiaires engagées pour l’obtenir (biens et services utilisés pour produire).
Le PIB global d’une économie est exprimé en valeur, c’est-à-dire en unités monétaires
courantes. Une part de sa croissance résulte d’une progression nominale des variables
économiques. Le calcul d’un PIB en unité monétaire déflatée est réalisé pour évaluer la
croissance réelle du PIB, sa croissance en volume.
Le PIB peut être décomposé en un PIB marchand et un PIB non marchand.
PIB = PIB marchand + PIB non marchand
Le PIB marchand comptabilise les valeurs ajoutées réalisées par les branches marchandes de
l’économie (sociétés non financières, sociétés financières, entreprises individuelles).
Le PIB non marchand comptabilise les valeurs ajoutées réalisées par les administrations
publiques et les institutions à but non lucratif.
Le produit national brut (PNB) se définit, quant à lui, comme étant égal au produit intérieur
brut plus les revenus de facteurs reçus de l’étranger moins les revenus de facteurs envoyés à
l’étranger.

2. L’ÉQUILIBRE EMPLOIS RESSOURCES


Toute production de biens et services au sein de l’économie engendre une distribution de
revenus du même montant dont la dépense constitue une demande permettant d’écouler la
production. Du fait de cet équilibre emplois ressources plusieurs décompositions du PIB sont
possibles.

a) Approche par la production


PIB = ∑VA + Tp – Sbp
Avec :
∑VA : la somme des valeurs ajoutées hors taxe ;
Tp : les impôts sur les produits ;
Sbp : les subventions sur les produits.
b) Approche par les revenus
PIB = W + EBE + RMB + T – Sb
Avec :
W : les salaires ;
EBE : l’excédent brut d’exploitation ;
RMB : le revenu mixte brut ;
T : les impôts ;
Sb : les subventions.
24
Le RMB représente le profit brut des entreprises. Il est obtenu en soustrayant de la valeur
ajoutée la rémunération des salariés et les impôts liés à la production versés par les
entreprises. Le RMB représente, quant à lui, l’EBE des entreprises individuelles.

c) Approche par la demande


PIB = CF + FBCF + ΔSks + X – M
Avec :
CF : la consommation finale ;
FBCF : la formation brute de capital fixe ;
ΔSks : la variation de stocks ;
X : les exportations de biens et services ;
M : les importations de biens et services.

3. LE PRODUIT PAR TÊTE, UN INDICATEUR DU NIVEAU DE VIE


La croissance du produit par tête (PIB par habitant) signifie une progression de la quantité de
biens et services à la disposition des individus. La progression du revenu par tête mesure
l’évolution du niveau de vie des populations. Le tableau ci-dessous fait ressortir la position
dominante des États-Unis sur ce critère avec un PIB par habitant de près de 37 798 dollars en
2006 nettement supérieur à celui des autres pays les plus industrialisés, 27 764 dollars pour le
Japon, 27 734 pour la France. De même, l’écart de niveau de vie entre les pays du G7 et les
pays en voie de développement représentés dans le tableau par l’Algérie (6 425 dollars), le
Maroc (3 938 dollars), l’Afrique subsaharienne (1 852 dollars seulement), ressort de façon
criante. Le PIB par habitant relativement élevé de la Norvège (40 905 dollars) et de l’Irlande
(36 860 dollars) signifie un haut niveau de vie dans ces pays. Dans le cas de l’Irlande, le fait
de dépasser le Royaume-Uni (28 756) est très symbolique ; cela montre – de surcroît – la
réalité du rattrapage économique. Néanmoins ni l’Irlande, ni la Norvège, ne soutiennent la
comparaison avec le Royaume-Uni, l’Allemagne ou le Japon en termes de poids économique.
Le PIB par tête est un indicateur de niveau de vie et non puissance économique.

4. LE PRODUIT GLOBAL, FONDEMENT DE LA PUISSANCE ÉCONOMIQUE

La croissance du produit global fonde à long terme la puissance économique d’une nation.
La puissance économique a des avantages qui peuvent être cumulatifs. Le progrès technique
étant un moteur de la croissance, le produit global révèle une avance technologique qui peut
aller de pair avec une domination militaire. Dans ce cas, l’économie dominante possède une

25
capacité à influencer les règles du jeu international en matière monétaire, financier et
commercial (voir bien sûr l’exemple des États-Unis depuis la Seconde Guerre mondiale). Par
ailleurs la profondeur du marché financier (liquidité et acceptabilité d’une devise comme le
dollar) et la garantie d’une rentabilité du capital renforcent le statut de monnaie internationale
de la devise de la « superpuissance ». L’émission de monnaie internationale offre ensuite des
marges de manœuvre importante en matière de politiques économiques : possibilité plus
grande d’accumuler des déficits courants, possibilité d’abaisser davantage les taux d’intérêt
du fait de prime de risque inférieure, douce insouciance concernant le change. Ces séquences
participent de l’auto-entretien d’un leadership mondial que deux exemples historiques
peuvent nourrir : l’Angleterre avant 1913 et les États-Unis depuis 1945.
Le tableau ci-dessus propose une hiérarchie des économies nationales suivant le produit
global courant et le produit global correspondant à la parité des pouvoirs d’achat (PPA) des
monnaies nationales. Il fait ressortir l’ampleur de la domination américaine en termes de
produit global (13 276 milliards de dollars en 2006, soit plus du quart du PIB mondial, 48 273
milliards de dollars), seule l’Union européenne avec 14 545 milliards de dollars en 2006
rivalise en termes de puissance économique avec les États-Unis sans, pour autant, lui
contester son leadership mondial faute d’intégration politique. Le Japon est, sur la base du
produit global courant, la deuxième puissance économique mondiale avec un PIB de 4 360
milliards de dollars.

Le cas complexe de la Chine mérite une attention particulière. Son produit global courant
s’élève pour 2006 à 2614 milliards de dollars. Ce chiffre résulte d’une conversion en dollar,
au cours de change courant, du PIB exprimé au préalable en yuan. Compte tenu « du relatif
faible niveau de développement » de la Chine, le pouvoir d’achat en biens et services d’un
dollar en Chine est environ 3 fois supérieur à ce qu’il est aux États-Unis d’où l’intérêt de
proposer un PIB correspondant à la PPA (intégrant de facto la sous-évaluation réelle de la
monnaie chinoise, le yuan). Sur cette base, la Chine apparaîtrait paradoxalement dès
aujourd’hui comme la deuxième puissance économique mondiale, assez loin devant le Japon.
Le même phénomène est à l’œuvre pour l’Inde, la Russie, le Brésil, puissances montantes. Le
produit intérieur brut constitue une mesure exclusivement quantitative des performances des
économies, il n’intègre pas les conséquences sociales et environnementales du processus
d’accumulation. La notion de développement (et ses variantes) cherche à intégrer des
dimensions plus qualitatives du bien-être humain.

5. QUELS OBJECTIFS VISER EN MATIÈRE DE CROISSANCE ?


À court terme, les autorités peuvent avoir pour objectif que la croissance effective de
l’économie soit égale à sa croissance potentielle (croissance qui correspond à une pleine
utilisation des capacités de production). À plus long terme, les responsables doivent
dynamiser le potentiel de croissance par des politiques structurelles qui visent à développer
les forces motrices de la croissance. Solow (1957), père du modèle néoclassique de
croissance, met en avant deux moteurs exogènes : le progrès technique conçu comme un don
de la sphère scientifique à la sphère économique et la population. Les théories de la croissance
endogène, apparues à partir de 1986 (travaux de Romer), s’inscrivent en réaction contre cette
conception exogène. Elles mettent l’accent sur le stock de capital technique et humain et
également sur le fait que des externalités positives issues de la formation (Lucas, 1988) et de
la recherche (Aghion et Howitt, 1991) sont à l’origine de la croissance économique. Il en
découle la vision d’une croissance qui peut être influencée par les politiques économiques et
la reconnaissance d’une efficacité de l’intervention des administrations publiques.

26
Chapitre 2 : Les revenus
L’évolution du revenu disponible brut (RDB) conditionne celle du pouvoir d’achat des
ménages. Le RDB résulte des revenus primaires versés et des choix politiques opérés en
matière de redistribution.

1. LES REVENUS PRIMAIRES

Le revenu primaire est la somme des revenus de facteurs de production. Le terme primaire
signifie qu’il est calculé avant tout prélèvement fiscal ou social et toute redistribution. Les
revenus primaires des ménages rémunèrent leur participation aux activités productives, ils
constituent la rémunération du travail et du patrimoine. Les revenus du travail sont constitués
des salaires et traitements.
Les revenus du patrimoine se composent :
- des intérêts reçus (par les détenteurs d’obligations par exemple) ;
- des dividendes reçus (par les détenteurs d’actions) ;
- des loyers (qui rémunèrent la propriété immobilière et foncière).
Des revenus mixtes (revenus du travail non salarié) rémunèrent le travail et le capital dans le
cas des entreprises individuelles (professions libérales, entreprises agricoles…)

2. LES INÉGALITÉS DE REVENUS


La répartition des revenus primaires résulte du « jeu du marché » et des rapports de
forces au sein de la société (pouvoirs des syndicats en particulier). Le degré d’inégalités peut
facilement être mesuré à travers le calcul d’indicateurs de concentration (indice de Gini,
intervalles interquantiles…). Les inégalités de revenus constituent la base des mécanismes
d’incitations qui contribuent à la recherche de l’efficacité économique. Celui qui s’engage
plus dans le travail, qui est plus efficace, qui innove davantage, qui prend des risques doit, a
priori, être récompensé par un revenu plus élevé. Les écarts de revenus récompensent en
principe l’aptitude à être efficace dans la production, la contribution « à la valeur ajoutée
globale ».
A contrario, la redistribution des revenus se justifie elle aussi au nom de la solidarité, du vivre
ensemble. Les individus n’ont pas des capacités productives égales. Pendant l’éducation des
déterminismes différents s’exercent sur les individus et les empêchent d’atteindre les mêmes
niveaux de productivité dans le travail. La redistribution doit compenser les handicaps et les
inégalités.

3. LE DEGRÉ D’INÉGALITÉ : UN CHOIX POLITIQUE

Il n’existe pas de norme d’équité en matière de distribution des revenus. Chacun peut porter
une appréciation sur la situation. Partant la question devient de nature politique. Le vote doit
déterminer une orientation sur la question des inégalités. Historiquement l’offre politique voit
s’opposer des tenants de l’accroissement des inégalités (libérer les énergies…) et des tenants
de la réduction des inégalités (nécessaire solidarité). Il convient de se situer entre deux cas
polaires (imaginaires). D’un côté à droite dans le tableau ci-dessous, la forme absolue du
libéralisme qui est la jungle. Il n’y aurait pas de place pour celui qui aurait des handicaps et
serait dans l’incapacité de participer à la production, il devrait être laissé sur le bord de la
route, sans revenu, ni soin… De l’autre, à gauche sur le schéma, l’égalité absolue qui conduit
à une société figée. Les individus s’engagent peu dans le travail et innovent peu. Cette
situation pourrait correspondre à une économie de type soviétique (ETS) sans mécanisme
d’incitation. La perspective est ici la stagnation et le gaspillage des ressources.

27
L’ambition de Keynes était de parvenir à dépasser cette opposition entre efficacité
économique et efficacité sociale. Chez Keynes la redistribution peut, sous certaines
hypothèses, ramener l’économie vers un équilibre de plein-emploi. Pour Rawls (Théorie de la
justice sociale, 1971) les inégalités économiques et sociales se justifient à condition d’être
liées à des fonctions ouvertes à tous et surtout de profiter à tous à travers la dynamique
d’activité qu’elles engendrent. Si les inégalités produisent une société de rentiers, inertielle
avec une forte reproduction sociale, elles doivent être combattues.

4. LES OUTILS DE REDISTRIBUTION DES REVENUS


Afin de réduire les inégalités dans la répartition des revenus primaires et d’apporter des
revenus à ceux qui n’en ont pas, les pouvoirs publics opèrent une redistribution. Des
prélèvements sont opérés et des prestations sont accordées (elles sont appelées revenus de
transferts). Les prélèvements sont constitués par :
- les cotisations sociales ;
- des impôts directs sur le revenu ;
- des impôts directs sur le patrimoine.
Les revenus de transferts sont :
- les prestations versées par les organismes de sécurité sociale au titre de la couverture de
certains risques de la vie (maladie, vieillesse, famille, emploi) ;
- le RMI (Revenu minimum d’insertion) qui constitue en France depuis sa création en 1988
un revenu de transferts. Cette allocation est versée par les Conseils Généraux ; en 2008 près
de 1 100 000 personnes en bénéficient.

5. LE REVENU DISPONIBLE BRUT


Le revenu disponible brut des ménages est un revenu après cotisations sociales et impôts
directs mais avant transferts sociaux en nature. Il est disponible pour la dépense de
consommation finale et l’épargne. Le partage de ce revenu entre consommation immédiate et
épargne dépend du niveau des taux d’intérêt (approche néoclassique), du niveau de revenu
(approche keynésienne). En comptabilité nationale le revenu disponible brut des ménages est
égal à la somme de l’excédent brut d’exploitation, de la rémunération des salariés, de la
rémunération du travail de l’entrepreneur individuel (voire de sa famille), des profits bruts de
l’entreprise, des revenus de la propriété (dividendes, intérêts…), des prestations sociales en
espèces moins les cotisations sociales et les impôts sur le revenu et le patrimoine versés.

28
Chapitre 3 : La consommation
L’analyse économique et sociale de la consommation est plurielle et complexe. Au niveau
microéconomique les comportements individuels de consommation (maximisation de la
satisfaction, l’arbitrage entre consommation présente et future…), ainsi que les propriétés des
différents biens sont étudiés. Au plan macroéconomique de grands déterminants de la
consommation sont isolés.

1. DÉFINITION
La consommation désigne l’utilisation d’un bien ou d’un service qui entraîne à terme sa
destruction. La consommation peut avoir deux buts : la production de satisfactions et la
production de biens. Lorsqu’elle est productive de satisfactions, la consommation est dite
finale. La consommation finale des ménages concerne principalement des biens et services
marchands (denrées alimentaires, vêtements, voitures…) et aussi des services non marchands
(forfait hospitalier, droits d’inscription à l’Université…). Lorsqu’elle est productive de biens,
la consommation est dite intermédiaire ou de capital fixe (amortissement).

2. PROPRIÉTÉS DES BIENS


La demande de biens réagit de manière différente à la variation des revenus et des prix. De
grandes typologies peuvent être proposées. Un bien est dit inférieur si sa demande diminue
lorsque le revenu augmente : son élasticité-revenu est dans ce cas inférieure à zéro
(historiquement c’est le cas du pain par exemple). Un bien normal présente une élasticité-
revenu positive et inférieure à l’unité. Un bien supérieur est un bien dont la demande
augmente plus de proportionnellement suite à une progression du revenu, son élasticité-
revenu est supérieure à 1. L’effet Veblen désigne le fait que l’élasticité prix de la demande est
positive pour certains biens de luxe et certains groupes sociaux. La hausse du prix du bien, le
rend plus désirable aux yeux de certains qui considèrent son prix élevé comme une source de
distinction. On évoque un effet de snobisme. Dans l’ouvrage Théorie de la classe de loisir
(1889), T. Veblen montre plus largement le caractère social des comportements de
consommation. Des biens substituables sont concurrents au sens ou la variation du prix de
l’un influence fortement la demande de l’autre (l’élasticité de la demande de l’un par rapport
au prix de l’autre est élevée, le beurre et la margarine par exemple). Un bien rival est un bien
dont la consommation ou l’usage par un individu exclut sa consommation ou son usage par un
autre individu.
Un bien collectif est un bien indivisible dont la consommation par un individu ne réduit pas la
quantité (ou le montant) de ce même bien encore à la disposition des autres individus
(exemples : route, éclairage public, jardin public…).

3. LA STRUCTURE DE LA CONSOMMATION
Le coefficient budgétaire est la part qu’une dépense de consommation (d’un bien ou d’une
catégorie de biens) représente dans le total des dépenses de consommation. La loi d’Engel
désigne le fait que le coefficient budgétaire des dépenses de premières nécessités
(alimentation) diminue lorsque les ressources des ménages progressent.
L’effet Giffen constitue une exception à cette « règle » : la hausse du prix d’un bien inférieur
peut s’accompagner d’une hausse de sa demande. Si un bien occupe une grande place dans le
budget des ménages, la hausse de son prix provoque une baisse du pouvoir d’achat du revenu
et conduit le ménage à accroître la demande de ce bien inférieur qui se substitue à d’autres.
L’économiste Giffen étudie le cas particulier de la pomme de terre en Irlande au XIXe siècle.
La structure de la consommation diffère selon le niveau de vie des différentes catégories
sociales. Le coefficient budgétaire des dépenses de premières nécessités est plus élevé pour

29
les catégories populaires que pour les catégories moyennes et supérieures. À l’inverse les
coefficients budgétaires des biens de moindre nécessité comme les loisirs sont plus élevés
dans les catégories supérieures.

4. LES PROPENSIONS À CONSOMMER


Le revenu (noté Y) est égal à la consommation (C) plus l’épargne (S). Les notions de
propensions moyenne et marginale à consommer sont centrales en économie depuis la
publication du livre de Keynes Théorie générale de l’emploi de l’intérêt et de la monnaie
(1936). La propension moyenne à consommer désigne le rapport entre consommation et
revenu, la part du revenu qui est consommée C/Y.
La propension marginale à consommer (c) désigne la part de la dernière unité de revenu
consacrée à la consommation DC/DY. La loi psychologique fondamentale de Keynes
désigne le fait que la propension marginale à consommer soit décroissante avec le revenu.
Cette baisse relative de la consommation (ou son corolaire l’excès d’épargne) contribue à
expliquer l’insuffisance de la demande.

5. LES DÉTERMINANTS MACROÉCONOMIQUES DE LA CONSOMMATION


Au plan macroéconomique de grands déterminants de la consommation peuvent être isolés.
Chez Keynes (1936), la consommation à la période t (Ct) dépend du revenu courant (Yt) :
Ct = Co + c Yt
Avec :
Co : une consommation incompressible ;
c : la propension marginale à consommer.
Cette fonction de consommation fonde le raisonnement en termes de multiplicateur. La
théorie du revenu relatif élaborée par Duesenberry (1949) postule que la propension à
consommer d’un ménage dépend certes de son revenu mais aussi d’un effet de démonstration
exercé par les ménages des catégories supérieures qui poussent vers le haut la consommation
des catégories inférieures. Dans l’ouvrage Une théorie de la fonction de consommation (1957)
Friedman transpose l’analyse microéconomique de la consommation (travaux de Fisher) au
niveau macroéconomique. La consommation est principalement fonction du revenu
permanent, c’est-à-dire le revenu moyen anticipé sur l’ensemble de la vie. Il dépend des
revenus actualisés du travail et des actifs possédés.
L’approche en termes de cycles de vie, développée par Modigliani, Brumberg et Ando, insiste
sur le fait que les flux d’endettement et d’épargne permettent aux ménages d’obtenir durant
leur vie un profil de consommation stable à partir de revenus fluctuants. En période de
jeunesse, l’emprunt permet de consommer ; en période d’activité, l’épargne progresse et un
patrimoine est constitué ; à l’âge de la retraite, la consommation est alimentée par une «
désépargne ».

30
Chapitre 4 : L’investissement
L’investissement est une variable particulièrement décisive en économie. Il est à la fois une
composante de la demande et un puissant moteur de l’offre productive.

1. DÉFINITIONS ET TYPOLOGIE
L’investissement consiste fondamentalement à engager du capital dans le processus de
production. Par nature il constitue un pari qui revient à échanger une satisfaction immédiate
et certaine contre un espoir de gain. L’investissement matériel réalisé par l’entreprise est
qualifié d’investissement productif (équipements, machines…). À côté de cet investissement
de nature corporel, un investissement immatériel est réalisé (dépenses de recherche et
développement, de formation, acquisition de licences, de logiciels, dépenses de formation, de
publicité…). Si l’investissement brut (le nouveau flux annuel d’investissement) est supérieur
à l’amortissement (évaluation annuelle de la perte de valeur d’actifs ou de biens de production
frappés d’usure ou d’obsolescence) le stock de capital progresse. L’investissement net
représente la différence entre l’investissement brut et l’amortissement.
Investissement de remplacement, de capacité et de productivité :
- L’investissement de remplacement (ou de renouvellement) est destiné à maintenir les
capacités de production, il compense l’obsolescence et/ou l’usure des équipements.
- L’investissement de capacité (ou d’extension) est destiné à accroître le potentiel productif de
l’entreprise.
- L’investissement de productivité est destiné à rationaliser la production, à intégrer le progrès
technique dans la combinaison productive.
Au sein d’une économie le taux d’investissement se mesure par le rapport FBCF sur PIB. La
formation brute de capital fixe est constituée de l’investissement productif des entreprises,
de l’investissement des administrations et de l’investissement des ménages (achats de
logements). La FBCF doit être distinguée des placements financiers qui, eux, constituent une
épargne.

2. RENTABILITÉ ET FINANCEMENT DE L’INVESTISSEMENT


Un investissement n’est réalisé que si sa rentabilité économique est positive. Au niveau
microéconomique la valeur actualisée nette (VAN) d’un projet d’investissement peut être
calculée. Elle revient à comparer le coût initial de l’investissement (Io, t) à la somme
actualisée des recettes attendues de l’investissement (Ri) pendant les T périodes à venir.

Si la VAN est positive, l’investissement est réalisé ; si elle est négative, il ne l’est pas. Selon
John Maynard Keynes l’efficacité marginale du capital désigne la rentabilité attendue de
l’investissement, les recettes attendues des projets ne sont pas « certaines », elles résultent des
anticipations des chefs d’entreprise. Le financement interne de l’investissement provient des
capacités d’autofinancement des entreprises (profits conservés en réserve). Le financement
externe est constitué soit par l’émission de titres de différentes natures (obligations, actions),
soit par un recours à l’emprunt.
L’entreprise peut émettre des obligations, c’est-à-dire des titres de créances qui représentent
une partie d’un emprunt à long terme. Le plus souvent elle verse aux détenteurs du titre une
rente annuelle et rembourse le capital à échéance.
L’entreprise peut aussi émettre des actions c’est-à-dire des titres financiers représentatifs
d’une partie du droit de propriété sur une entreprise. Le souscripteur de l’action contribue au
financement de l’entreprise en échange d’un droit de vote lors de l’assemblée générale (qui

31
élit le conseil d’administration) et d’un droit au partage des bénéfices à travers la perception
d’un dividende.
L’emprunt est un financement obtenu le plus souvent auprès d’une banque. Le coût de ce
mode de financement est constitué par le taux d’intérêt.
Un effet de levier de l’endettement se déclenche lorsque la rentabilité d’un projet
d’investissement est supérieure au coût de l’endettement destiné à le financer. Dès lors que le
taux de profit est supérieur au taux d’intérêt, l’entreprise est d’autant plus incitée à s’endetter.
Dans le cas contraire on évoque un effet de massue.

3. LES DÉTERMINANTS DE L’INVESTISSEMENT


Les déterminants de l’investissement sont nombreux, la prise de décision complexe, il est
difficile d’établir empiriquement l’influence d’un facteur.
a) L’état de la demande anticipée
Keynes a mis en exergue le fait que l’investissement dépendait de l’état de la demande
anticipée, c’est-à-dire de l’idée que le chef d’entreprise se fait de la demande qui lui sera
adressée à l’avenir, ces anticipations mobilisent les animal spirits de l’entrepreneur.
b) Le coût relatif du capital et du travail
La hausse du coût du travail (salaire et cotisations sociales) peut inciter le chef d’entreprise à
substituer des machines aux travailleurs. Le prix relatif des facteurs peut également influencer
le choix de la technologie adoptée.
c) Le taux d’intérêt
Le taux d’intérêt représente le coût du capital. En principe toute chose égale par ailleurs la
baisse des taux d’intérêt dynamise l’investissement puisqu’un plus grand nombre de projets
d’investissement deviennent rentables. Mais empiriquement l’influence des taux est difficile à
établir.
d) Les profits
Le « théorème » de Schmidt (ancien chancelier Allemand) a popularisé l’idée que les profits
constituent un moteur de l’investissement : « les profits d’aujourd’hui sont les investissements
de demain et les emplois d’après-demain ». Une hausse des profits permet de financer les
investissements par le canal de l’autofinancement. Plus la rentabilité économique de
l’investissement n’est grande, plus l’incitation à investir est forte. Le taux de rentabilité
économique (ou taux de profit) est le rapport entre le profit réalisé et le capital engagé.
e) La structure financière de l’entreprise
Dès lors que les marchés financiers sont imparfaits, la structure financière de l’entreprise
influence l’investissement. L’endettement accroît le risque de faillite alors que la possession
de fonds propres obtenus par émission d’actions le réduit. En cas de difficultés l’entreprise
peut toujours interrompre le versement de dividendes alors qu’elle ne peut cesser celui des
intérêts. Une banque est hésitante à prêter à une entreprise endettée et peut exiger une prime
de risque sur le taux d’intérêt.

32
Chapitre 5 : L’épargne
L’épargne est la partie non consommée du revenu. Elle constitue un agrégat fondamental au
centre de controverses théoriques. Pour les néoclassiques, il ne saurait y avoir
d’investissement sans épargne préalable ; pour Keynes, elle est un résidu et ne saurait être
encouragée.

1. DÉFINITIONS
L’épargne représente la partie non consommée du revenu. En termes macroéconomiques,
c’est la différence entre le revenu national et la consommation globale. L’épargne nationale
inclut l’épargne des ménages, des entreprises et des administrations (éventuel excédent
budgétaire). L’épargne est un flux qui alimente le patrimoine des agents (qui, lui, est un
stock). Rappelons que le patrimoine d’un agent est l’ensemble de ses avoirs (actifs financiers,
logements..) et de ses dettes à un moment donné.
- Pour le ménage l’épargne peut être motivée :
• par le souhait d’accroître sa consommation future ;
• par un besoin de précaution (pour faire face au risque de dépenses imprévues) ;
• par la volonté de se constituer un patrimoine qui lui assure une reconnaissance sociale
et peut être légué aux générations futures.
- Pour l’entreprise, l’épargne est motivée par le souhait de dégager une capacité
d’autofinancement utile pour financer par la suite des investissements.
- Pour les administrations publiques, l’épargne est rare. Un solde budgétaire excédentaire peut
constituer une réponse à une situation d’urgence en termes de soutenabilité de la dette
publique.

2. LES TAUX D’ÉPARGNE


Le taux d’épargne nationale est le rapport entre l’épargne brute des résidents et le produit
intérieur brut. Pour les sociétés non financières (SNF), on peut définir un taux d’épargne par
rapport à la valeur ajoutée qu’elles génèrent (taux d’épargne des sociétés non financières =
épargne brute des SNF/valeur ajoutée brute des SNF).
Le taux d’épargne des ménages est égal au rapport entre l’épargne brute des ménages et le
revenu disponible brut des ménages. Pour les ménages, il est pertinent de distinguer le taux
d’épargne financière du taux d’épargne non financière. Le taux d’épargne financière est le
rapport entre la capacité de financement et le revenu disponible brut (RDB) alors que le taux
d’épargne non financière est le rapport entre la FBCF (formation brute de capital fixe) des
ménages et ce même RDB.
Pour les ménages, la notion de propension marginale à épargner désigne la part de la
dernière unité de revenu affectée à l’épargne. La propension marginale à épargner est
croissante avec le revenu.

3. LES FORMES DE L’ÉPARGNE DES MÉNAGES


L’épargne des ménages peut-être non financière ou financière. L’épargne non financière est
constituée d’achats de logements et de terrains essentiellement. L’épargne financière prend
plusieurs formes et peut être classée suivant son degré de liquidité. L’épargne liquide se
présente sous la forme de dépôts bancaires rémunérés (livret A, LDD, comptes chèques
rémunérés…). Elle est bien adaptée aux besoins de précautions des ménages, son rendement
est plutôt faible. Les placements financiers sont constitués par l’achat d’actions,
d’obligations, de part de FCP, d’assurance-vie… Le rendement de ces produits est plus élevé
mais leur niveau de risque est plus grand. Ces placements sont plutôt destinés à ceux qui

33
souhaitent se constituer un patrimoine. L’agent qui épargne doit naturellement opérer un
arbitrage entre la liquidité et le rendement du produit d’épargne.

4. LES DÉTERMINANTS DE L’ÉPARGNE


Pour les néoclassiques, l’épargne est une fonction croissante du taux d’intérêt. Pour I.
Fisher, plus le taux d’intérêt, défini comme le prix de la renonciation à la consommation
présente, est élevé, plus l’incitation à épargner sera grande. Chez les néoclassiques, elle est un
moteur de la croissance car elle finance l’investissement. Toute épargne prend la forme de
titre financier et finance de l’investissement (v. la loi de Say). Sur le marché des fonds
prêtables, le taux d’intérêt réel assure l’équilibre entre l’offre de fonds (demande de titres
financiers) et la demande de fonds (offre de titres) qui émane des entreprises. Le taux d’intérêt
d’équilibre nous renseigne sur le rapport entretenu par les agents économiques avec le temps.
Plus le taux est faible, moins la préférence pour le présent est marquée.

Pour les keynésiens, l’épargne constitue un résidu, c’est la part du revenu qui n’a pas été
consommée. Plus le revenu est élevé, plus l’épargne est élevée (la propension marginale à
épargner augmente avec le revenu). Pour Keynes comme pour les néoclassiques ex post,
l’épargne est égale à l’investissement mais Keynes inverse la causalité ex ante. Ex ante
l’investissement cause l’épargne. L'approche démographique en termes de cycles de vie
développée par Modigliani, Brumberg et Ando insiste sur le fait que les flux d'endettement et
d'épargne permettent aux ménages d'obtenir durant leur vie un profil de consommation stable
à partir de revenus fluctuants. En période de jeunesse, alors que les revenus sont inexistants,
l'emprunt permet de consommer. En période d'activité, les revenus sont élevés, l'épargne
progresse et un patrimoine est constitué. Durant la période de retraite, la consommation est
alimentée par une « désépargne ».

34
Chapitre 6 : Le développement
économique
La notion de développement vise à introduire des considérations qualitatives pour apprécier
les performances d’une économie. Les conceptions et les critères du développement
apparaissent pluriels, voire éclatés.

1. CARACTÉRISATIONS DU DÉVELOPPEMENT
Historiquement le développement désigne la transformation des sociétés et véhicule l’idée de
progrès. Depuis le milieu du XXe siècle, la notion s’est chargée d’un sens plus précis :
l’amélioration de la qualité de vie des hommes. Par rapport à la croissance économique, le
développement vise donc à réintroduire des caractéristiques plus qualitatives pour
apprécier les performances d’une économie.
François Perroux donne une définition du développement très usitée depuis « le
développement est la combinaison des changements mentaux et sociaux d’une population qui
la rendent apte à faire croître, cumulativement et durablement, son produit global réel »
(1961). Par la suite Perroux paraît réintroduire plus ouvertement l’homme en précisant que le
développement désigne « le changement des structures mentales et sociales qui favorisent
l’entraînement mutuel de l’appareil de production et de la population au service de cette
dernière » (1972). Parmi la multitude des autres conceptions du développement celle de
A. Sen doit être mentionnée. Il conçoit le développement « comme un processus d’expansion
des libertés réelles dont jouissent les individus ». Dans l’ouvrage Development as Freedom
(1999), Sen affirme : «l’expansion des libertés constitue à la fois la fin première et le moyen
principal du développement, (…) le « rôle constitutif » et le « rôle instrumental » de la liberté
dans le développement.»

2. LE DÉVELOPPEMENT DURABLE
Le développement durable (ou soutenable) est défini par le rapport Brudtland (1987)
comme « un développement qui répond aux besoins du présent sans compromettre la capacité
des générations futures à répondre aux leurs ». Ce concept attire depuis l’attention sur les
conséquences environnementales de la croissance économique (émission de gaz à effets de
serre, épuisement des ressources naturelles…).
Au plan théorique deux visions s’opposent derrière cette définition du développement
durable. La première d’inspiration néoclassique fonde la soutenabilité exclusivement sur une
base environnementale. Elle cherche au niveau microéconomique à valoriser monétairement
les éléments naturels afin de pouvoir les analyser dans un calcul coûts-bénéfices. Cette
conception débouche sur la mise en place de mécanismes d’incitations (permis de polluer…).
Au plan macroéconomique dans la lignée du modèle de Solow, les économistes cherchent à
fournir des fondements théoriques à la relation vertueuse entre croissance et qualité
environnementale (rapport Stern de 2006). Ils cherchent à formuler une règle de soutenabilité
assurant le maintien de la valeur par tête du stock total de capital de la société en postulant
une parfaite substituabilité entre les différentes formes de capital (physique, humain, naturel).
La deuxième approche – qualifiée d’hétérodoxe – se veut plus globale en intégrant les
dimensions environnementale, sociale et économique du développement. Elle est associée au
maintien d’un stock de capital naturel dit « critique » et rejette le principe de la substituabilité
des facteurs au profit de leur complémentarité. Elle s’oppose à la valorisation monétaire des
éléments naturels. Elle peut déboucher sur l’idée de décroissance.

35
3. LES INDICATEURS DE DÉVELOPPEMENT
Parmi les indicateurs de développement, deux sont particulièrement répandus et scrutés :
l’IDH et l’IPH.
a) L’IDH (Indice de développement humain)
Cet indice a été créé par le Programme des Nations unies pour le développement en 1990, il
combine trois critères : la longévité (espérance de vie), le savoir (alphabétisation) et le
niveau de vie (PIB par tête).
Les résultats 2007 (Rapport mondial sur le développement humain), qui se fondent sur les
statistiques 2005 de 177 pays membres des Nations unies, font apparaître la hiérarchie
suivante. L’Islande est en tête, juste devant la Norvège et l’Australie.

Lorsque l’on compare la hiérarchie internationale sur les bases du PIB par tête et sur la base
de l’IDH, la principale différence concerne la place des États-Unis qui rétrogradent en termes
d’IDH (12e position).
b) L’IPH (Indice de pauvreté humaine)
L’indice de Pauvreté humaine a été créé par le PNUD en complément de l’IDH. Pour les pays
en développement il repose sur trois variables :
- le risque de mourir avant 40 ans ;
- le taux d’analphabétisme des adultes ;
- les conditions de vie mesurées par l’accès aux services de santé, à l’eau potable et la sous-
nutrition chez les enfants de moins de cinq ans.
Pour les pays développés, il tient compte en plus « du manque de conditions de vie décente »
appréhendé par le pourcentage de personnes vivant sous la demi-médiane du revenu
disponible des ménages.

36
Chapitre 7 : La pauvreté
La pauvreté est une notion relative, sa définition et sa mesure sont particulièrement
conventionnelles. Le concept n’a notamment pas le même sens au sein d’une économie en
voie de développement et d’une économie parmi les plus « avancées ».

1. UNE NOTION RELATIVE


La notion de pauvreté est très relative, « on est toujours le pauvre de quelqu’un » comme le
dit un adage populaire. La pauvreté n’a d’abord pas le même sens dans les économies
avancées et les économies en voie de développement. Une conception relative prédomine
dans le premier cas alors qu’une approche absolue fait davantage sens dans le second.
Par-delà ces conceptions la pauvreté renvoie fondamentalement à des manques en termes
d’avoir, de pouvoir, de santé, voire même de considération.

2. APPROCHE MONÉTAIRE : PAUVRETÉ ABSOLUE ET PAUVRETÉ RELATIVE


a) Pauvreté relative
Par convention au sein d’une société un individu est considéré comme pauvre si son revenu
est inférieur à 50 % (ou 60 %) du revenu médian (le revenu associé à l’individu qui,
lorsque l’on classe les individus par ordre croissant de revenu, est en position médiane, il y a
autant de personnes qui ont un revenu inférieur au sien que de personne dont le revenu est
supérieur). Cette approche est utilisée pour mesurer la pauvreté dans les économies du Nord
(exemple français ci-après).

En France au cours des trente dernières années le nombre de pauvres a eu tendance à diminuer
: il était de 4,36 millions en 1979 contre 3,73 millions en 2005. La France présente
aujourd’hui l’un des taux de pauvreté les plus bas du monde (6,3 %). Il convient de ne pas
oublier que le choix du seuil est important : dans le cas de la France si, pour 2005, on retient
le seuil de 60 % au lieu de 50 % le nombre de pauvres passe de 3,73 millions à 7,13 millions.
b) Pauvreté absolue
Sur cette base un individu est considéré comme pauvre s’il dispose de moins de un dollar ou
de moins de deux dollars par jour pour vivre. Cette approche est plus adaptée à la situation
des pays émergents ou en voie de développement.
Les estimations de la Banque mondiale font ressortir qu’en Asie de l’Est et du Pacifique
(Chine incluse), la part des individus vivant avec moins de deux dollars par jour est passée de
84,8% en 1981 à 40,7% en 2002. En Amérique latine cette proportion s’est réduite (de 29,6%
à 23,4 %). En Afrique subsaharienne la proportion est passée sur la même période de 73,3% à
74,9 %. En Asie la mondialisation économique s’est accompagnée d’une réduction de la
pauvreté alors qu’en Afrique subsaharienne la pauvreté a persisté malgré l’ouverture
économique.

37
3. APPROCHE NON MONÉTAIRE DE LA PAUVRETÉ
La conception de la pauvreté humaine a évolué au cours de la période récente vers une
approche dite non monétaire centrée sur les manques des individus en termes de santé, de
pouvoir, de capacité, voire de considération. L’IPH et le BIP 40 illustrent ce mouvement.
a) L’IPH
Ainsi l’Indice de pauvreté humaine (IPH) a été créé par le PNUD (Programme des Nations
unies pour le développement) en complément de l’IDH. Le calcul de l’IPH-1 adapté aux pays
pauvres repose sur trois variables :
- le risque de mourir avant 40 ans ;
- le taux d’analphabétisme des adultes ;
- les conditions de vie mesurées par :
• l’accès aux services de santé,
• l’accès à l’eau potable,
• la sous-nutrition chez les enfants de moins de cinq ans.
Le calcul de l’IPH-2 – adapté aux pays riches – combine quatre indicateurs :
- indicateur de longévité,
- indicateur d’instruction,
- indicateur de conditions de vie,
- indicateur d’exclusion.
b) Le BIP 40
Il s’agit d’un Baromètre des inégalités et de la pauvreté (BIP). C’est un indicateur synthétique
des inégalités et de la pauvreté créé en 2002 par des militants (collectif réseau d’alerte sur les
inégalités) en réaction et en référence au PIB et au CAC 40 (indice phare de la Bourse de
Paris). Le BIP est construit à partir de 58 critères qui concernent six dimensions (le travail, le
revenu, le logement, l’éducation, la santé, la justice).

38
Chapitre 8 : La monnaie
La monnaie est un bien économique qui est accepté en paiement de biens et services et en
remboursement de dettes. À travers son rôle d’intermédiaire, elle fluidifie les échanges.

1. LA DÉMATÉRIALISATION DE LA MONNAIE
À travers le temps les formes de la monnaie ont évolué. Une tendance historique à sa
dématérialisation est identifiable. La monnaie est constituée à l’origine, dans les sociétés
traditionnelles, de marchandises (coquillages, animaux, métaux). Peu à peu, l’utilisation du
métal se répand (cuivre, argent, or, divers alliages) pour des raisons pratiques, essentiellement
du fait de ses propriétés (rareté, facilité de transport et de transformation). Au XIXe siècle, la
monnaie fiduciaire (billets) parvient à vaincre la réticence des individus qui, à la suite de
catastrophes monétaires (ruine du système de Law, épisode des assignats révolutionnaires),
peinaient à associer papier et valeur. Jusqu’au début du XXe siècle, les billets émis par les
Banques centrales restent d’ailleurs théoriquement convertibles en métal pour asseoir la
confiance des agents. Aujourd’hui la monnaie est essentiellement scripturale. Cette monnaie
scripturale est constituée par l’ensemble des soldes créditeurs des comptes à vue gérés par
les institutions financières. Le terme monnaie électronique est parfois utilisé ; il désigne en
réalité le moyen de faire circuler la monnaie scripturale. Cette tendance historique à la
dématérialisation de la monnaie traduit une montée de la confiance des agents économiques
dans le système de paiement.

2. LA VALEUR DE LA MONNAIE
La valeur d’une unité monétaire est fondée sur la quantité de biens et services qu’elle permet
d’acquérir. Partant, la valeur interne de la monnaie est égale à l’inverse du niveau général
des prix. Le gonflement de la quantité de monnaie en circulation (l’inflation) se traduit par
une baisse de la valeur de la monnaie. Sur ces bases, une monnaie forte est une monnaie qui
conserve sa valeur sur le long terme. Une monnaie faible voit son pouvoir d’achat en
marchandises se réduire à travers le temps. La valeur externe de la monnaie nationale dépend
de l’évolution de son cours de change vis-à-vis des autres devises. À long terme, une monnaie
faible voit son cours de change se déprécier mais, à court terme, l’évolution des cours de
change ne peut constituer un indice fiable de force d’une monnaie (le cours euro/dollar fluctue
ainsi beaucoup alors que l’on est en présence de deux monnaies fortes).

3. LES FONCTIONS DE LA MONNAIE


La monnaie exerce trois fonctions au sein de l’économie.
- Elle est un intermédiaire des échanges, elle fluidifie les transactions par opposition au troc
qui les ralentit. Cette fonction permet de résoudre le problème de la double coïncidence des
désirs nécessaire à l’échange en situation de troc.
- Elle est une unité de compte, elle permet d’étalonner les valeurs. La valeur de tous les
biens peut être exprimée en termes d’un seul bien. Dans une économie de troc, si l’on a n
biens il faut établir n (n – 1)/2 rapports d’échange alors que dans une économie monétaire
(n – 1) rapports d’échange sont établis.
- Enfin sa propriété de liquidité lui permet de jouer un rôle de réserve de valeur pour faire
face à des situations imprévues, voire pour spéculer (analyse de John Maynard Keynes). La
détention de monnaie peut être en certaines circonstances plus avantageuses que la détention
de titres financiers (si les taux d’intérêt augmentent et le cours des titres baisse). Le fait que la
monnaie puisse être ou non désirée pour elle-même constitue le centre d’une controverse
théorique sur sa neutralité.

39
4. LA MESURE DE LA QUANTITÉ DE MONNAIE : LES AGRÉGATS
MONÉTAIRES
Pour mesurer la quantité de monnaie au sein d’une économie, des agrégats monétaires sont
définis. Ils constituent des grandeurs synthétiques qui regroupent des actifs monétaires ou
quasi monétaires détenus par les agents non financiers auprès des institutions financières.
Les agrégats se distinguent par le degré de liquidité des éléments qui les composent. Au sein
de la zone euro, aujourd’hui trois grands agrégats sont pris en compte M1, M2 et M3 :
- M1 : agrégat étroit qui comprend la monnaie fiduciaire et les dépôts à vue détenus auprès
des institutions financières monétaires ;
- M2 : agrégat intermédiaire qui comprend M1 plus les dépôts remboursables avec un préavis
inférieur ou égal à trois mois (dépôts d’épargne à terme) et les dépôts d’une durée inférieure
ou égale à deux ans (dépôts à court terme) détenus auprès des IFM et de l’administration
centrale ;
- M3 : agrégat large qui comprend M2 plus les instruments négociables, les titres d’OPCVM
(Organisme de Placement Collectif en Valeurs Mobilières. Un organisme financier qui a pour
vocation : La collecte de l'épargne auprès des investisseurs pour la placer dans des valeurs
mobilières selon des critères bien défini) monétaires et les titres de créance d’une durée
initiale inférieure ou égale à deux ans émis par les IFM.
Notons que les institutions financières monétaires (IFM) sont un ensemble d’institutions
financières qui forment le secteur émetteur de monnaie au sein de la zone euro. Elles
comprennent l’Euro-système, les établissements de crédits résidents, les institutions
financières résidentes dont l’activité consiste à recevoir des dépôts ou de substituts des dépôts
d’entités autres que les IFM et qui consentent des crédits et/ou effectuent des placements en
valeurs mobilières.

40
Chapitre 9 : Les banques
Les banques sont des institutions financières qui recueillent les dépôts d’épargne des agents
économiques, accordent des crédits aux particuliers et aux entreprises et proposent des
services financiers de diverses natures.

1. UNE INSTITUTION CAPITALISTE


Le développement des banques épouse l’histoire du capitalisme. À la fin du Moyen Âge, lors
de l’éclosion du capitalisme en Italie du Nord, les banquiers lombards transforment
radicalement l’activité des changeurs de monnaies en développant des comptes à vue. Cette
innovation majeure est rendue possible par l’invention de la comptabilité en partie double et
de la lettre de crédit. Le compte à vue permet d’intensifier l’activité des marchands qui n’ont
plus à transporter leurs fonds. Les premières banques sont alors familiales (les Médicis en
Italie, les Fugger en Allemagne) et installées dans les grandes villes. Les activités de prêts se
développent par la suite auprès des monarques qui financent des guerres dans le cadre de
l’affirmation des États nations en Europe, mais également pour financer des activités
commerciales au long cours dans un environnement de mondialisation.
À la suite de faillites retentissantes comme celle du système de Law (1716-1720), la Haute
Banque parvient à établir la confiance dans les banques grâce à une gestion prudente et à la
garantie d’importants fonds propres. Elle se consacre aux activités bancaires les plus nobles
(escompte de lettre de change, crédits internationaux, placement d’emprunts d’États…). Les
grandes dynasties ont pour noms Rothschild, Baring, Mallet… Au XIXe siècle, l’expansion
des banques commerciales (crées en sociétés de capitaux) accompagne l’industrialisation
(émergence des Big Five au Royaume-Uni (Barclays, Midland Bank, Lloyds, National
Principal Bank, Westminster Bank), création du Crédit Mobilier des frères Pereire (1852), du
Crédit Industriel et Commercial (1859), de la Société Générale en 1864, du Crédit Lyonnais
1863 en France, de la Darmstadter Bank (1853), de la Dresdner Bank (1872) en
Allemagne…).
Si ces établissements financent incontestablement des projets innovants, beaucoup leur
reprochent de ne pas avoir suffisamment soutenu l’activité économique. Le XXe marque la
démocratisation de la banque avec le développement de l’utilisation du chèque et de la
monnaie scripturale, la densification des réseaux d’agences. En France durant les Trente
Glorieuses et jusqu’à la loi de déréglementation bancaire de 1984, ce développement va de
pair avec une spécialisation bancaire (Crédit Agricole pour les crédits à l’agriculture…).

2. TYPOLOGIE DES ACTIVITÉS BANCAIRES


On distingue deux grands types de banques suivant la nature des activités exercées : banque
commerciale et banque d’investissement, mais cette distinction a en définitive peu de sens
tant sont nombreux les grands groupes qui exercent toutes les activités bancaires (le terme
banque universelle peut les désigner).
a) Les banques commerciales (banques de dépôts ou de détails)
Elles ont fondamentalement une activité d’intermédiation entre agents à capacité de
financement et agents à besoins de financement. Elles effectuent cette activité grâce à un
réseau d’agences plus ou moins dense et l’outil internet. Elles travaillent principalement avec
une clientèle de particuliers (ménages, très petites entreprises) et de professionnels
(entreprises de plus grandes tailles). Elles recueillent des dépôts (épargne des ménages pour
l’essentiel) et accordent des prêts (crédits immobiliers, financement de projets
d’investissement, crédits à la consommation…). La banque se rémunère par le différentiel de
taux entre taux débiteurs et taux créditeurs et surtout sous forme de diverses commissions (sur
l’utilisation des cartes bancaires, frais de dossiers, de gestion de compte…).

41
b) Les banques d’affaires (banques d’investissement)
Ces banques sont spécialisées dans les prises de participation dans des sociétés, dans
l’ingénierie des rapprochements d’entreprise (conseils en fusions acquisitions), de
l’introduction des entreprises en Bourse ou encore dans le placement de grands emprunts. Au
niveau mondial, les grandes banques d’affaires ont pour nom Goldman Sachs, Meryll Lynch,
Lazard…Si, à la suite de la crise de 1929, le Glass-Steagall Act (1933) a imposé aux États-
Unis une séparation entre activité de banque de détail et activité de banque d’investissements
afin de garantir la stabilité bancaire et financière, la déréglementation financière a battu en
brèche cette séparation et permis l’émergence de grandes banques universelles (Citigroup et
Bank of America aux États-Unis, la BNP et la Société Générale en France…). Aujourd’hui les
banques ont même développé des activités dans le domaine de l’assurance.

3. BANQUES ET CRÉATION MONÉTAIRE


Les banques commerciales participent au processus de création monétaire sous l’égide de la
Banque centrale qui détient seule le droit de battre monnaie. Une banque crée de la monnaie
dès lors qu’elle accorde un crédit : ce crédit se traduit par une création de monnaie scripturale,
par un dépôt à vue pour son bénéficiaire qui peut mobiliser ces fonds. Selon une formule
consacrée, les crédits font les dépôts. Cette monnaie est ensuite détruite lorsque le crédit est
remboursé. La création de monnaie est contrôlée par la Banque centrale qui influence les
conditions du refinancement des banques de second rang (à travers le maniement du taux
directeur, les obligations en matière de réserves obligatoires…). La Banque centrale
approvisionne les banques en billets et organise la compensation des chèques que les banques
reçoivent de leurs clients.

4. BANQUE ET MARCHÉ FINANCIER


La montée en puissance des marchés financiers, de la finance dite directe en liaison avec
l’apparition de nombreuses innovations techniques et financières ont pu faire craindre au
cours des années 1980-1990 la disparition des banques. La collecte de dépôts diminue, les
agents préférant placer leur épargne sur les marchés financiers (actions…). Les entreprises
font davantage appel aux marchés financiers pour financer leur projet (émission de billets de
trésorerie sur le marché monétaire, d’actions et d’obligations). Le financement bancaire
apparaît moins attractif, plus complexe et coûteux. Les banques ont répondu à ce défi en
développement une activité d’intermédiation de marché
(SICAV, FCP…) dans un environnement mouvant et risqué. Les banques conservent des
avantages vis-à-vis des marchés, ces éléments garantissent leur pérennité. Elles sont expertes
en collecte et en traitement de l’information. Elles sont donc mieux à même d’évaluer les
risques (de crédit) grâce à leurs expertises sectorielles. De plus, elles peuvent offrir un
financement « sur mesure » aux entreprises ainsi qu’un accompagnement dans le
développement de la firme.

42
Chapitre 10 : Les banques centrales
Les banques centrales sont, en quelque sorte, les banques des banques. Une Banque centrale
dispose du monopole d’émission de la monnaie sur un territoire donné et exerce un contrôle
sur le système monétaire et financier. Les principales fonctions d’une Banque centrale sont la
conduite de la politique monétaire et l’exercice du rôle de prêteur en dernier ressort.

1. LA QUESTION HISTORIQUE DU MONOPOLE D’ÉMISSION


Aujourd’hui les banques centrales disposent de monopole d’émission sur leur « territoire ».
Mais l’idée qu’un monopole puisse être accordé à une banque a été très discutée au XIXe
siècle en Europe et aux États-Unis. En France, la Banque de France (créée en 1800) obtient un
monopole national d’émission en 1848 ; aux États-Unis, il faut attendre 1913 pour voir
émerger un Federal Reserve System. Les partisans du free banking pensent que l’activité
d’émission de monnaie ne doit pas échapper au jeu de la concurrence. Il convient de laisser au
marché le soin de sélectionner les monnaies qui conservent leur valeur du fait de la bonne
gestion des banques émettrices. Malgré les souvenirs de l’instabilité financière du XIXe siècle
attachée à la pluralité des monnaies, le courant du free banking est resté vivace aux États-Unis
au XXe siècle autour de F. von Hayek et G. Selgin. Les partisans du monopole d’émission
ont toujours avancé l’argument de la stabilité financière et de la réduction du risque
systémique. La monnaie est un bien collectif et n’a d’existence que par la confiance que lui
accordent les agents. Il appartient à l’État de garantir cette confiance ainsi que la stabilité en
confiant à une seule banque – sous contrôle – le privilège de battre monnaie.

2. LES FONCTIONS DES BANQUES CENTRALES


Historiquement les banques centrales ont exercé trois grandes fonctions. Elles ont été
banquier de l’État. En échange des revenus associés au monopole d’émission des billets, les
États exigeaient des « avances directes » ou indirectes qui permettaient aux Trésor nationaux
de répondre à leurs besoins de financement. Ces besoins financiers du Trésor apparaissent
historiquement comme un déterminant de l’autonomie opérationnelle des Banques centrales.
Face à un besoin financier fort, les pouvoirs publics sont (et seront vraisemblablement)
toujours tentés de se tourner vers la Banque centrale pour obtenir de l’aide. Ils ont
intrinsèquement la légitimité pour intervenir dans les affaires monétaires. Depuis quelques
années néanmoins, du fait de la priorité accordée à l’objectif de stabilité des prix, les liens
financiers entre Banques centrales et gouvernements ont été coupés et cette fonction a
disparu. La Banque centrale exerce une fonction de prêteur en dernier ressort (PDR). Elle
garantit la stabilité financière en venant au secours d’institutions financières en difficulté.
Cette fonction est apparue à la fin du XVIIIe siècle en Angleterre. Pour les partisans d’une
définition fonctionnelle de la Banque centrale (Goodhart, Capie, Schnadt), une banque ne
devient une Banque centrale qu’à partir du moment où elle joue ce rôle. Plusieurs principes
peuvent guider cette action curative de la Banque centrale. Pour Walter Bagehot (Lombard
Street, 1873), le prêteur en dernier ressort doit accorder des prêts à toute banque non liquide
mais solvable, sans restriction sur la quantité de crédits mais en appliquant un taux de
pénalité. Face à l’impossibilité pour les banquiers centraux de faire dans l’urgence la
différence entre des situations d’illiquidité et des situations d’insolvabilité, le principe dit du
too big to fail est appliqué dans les actions de sauvetage au XXe siècle. Une aide est apportée
à toute institution financière dont le poids fait peser un risque systémique élevé. La
défaillance d’une institution de grande taille aurait trop d’effets induits et menacerait la
continuité des paiements au sein de l’économie. Le soutien apporté en France au Crédit
Lyonnais dans les années 1990 par la Banque de France se justifie ainsi. Cette intervention
pose un problème d’aléa moral : sachant qu’elle sera secourue en cas de difficultés, une

43
banque de second rang peut prendre davantage de risques (dans l’octroi de crédits ou sur les
marchés financiers). La Banque centrale est la seule institution à pouvoir exercer pleinement
cette fonction de PDR. Pour pouvoir approvisionner un système en liquidité, il convient en
effet d’être émetteur de monnaie ultime. Une institution comme le FMI qui souhaiterait
s’affirmer comme PDR international se heurte à cette incapacité.

3. LA CONDUITE DE LA POLITIQUE MONÉTAIRE


La Banque centrale conduit la politique monétaire, elle approvisionne l’économie en liquidité.
Elle dispose de plus ou moins de marge de manœuvre dans la définition des objectifs de la
politique monétaire et dans le maniement d’instruments lui permettant d’atteindre ses
objectifs. La question de l’autonomie de la Banque centrale est en arrière-plan de ces degrés
de liberté. Aujourd’hui, la politique monétaire accorde la priorité à l’objectif de stabilité des
prix. La politique monétaire a changé de statut depuis le début des années 1980. Elle est
aujourd’hui un instrument indirect de soutien de la croissance à travers l’ancrage des
anticipations inflationnistes et moins un outil direct de contrôle de l’activité (comme avec les
politiques de stop and go des années 1960).

4. LES ACTIONS INTERNATIONALES DES BANQUES CENTRALES


En principe, les Banques centrales ne sont pas en charge du choix du régime de change, ni de
la définition de la politique de change d’une économie. Ces prérogatives appartiennent aux
gouvernements. La Banque centrale ne fait que mettre en œuvre les choix politiques. Au sein
de la zone euro, la situation est de ce point de vue plus complexe, la responsabilité de la
politique de change fait l’objet d’un partage relativement flou entre le Conseil des ministres
des Finances et la BCE. Les Banques centrales coopèrent en certaines occasions : elles
peuvent mettre en œuvre des interventions concertées sur les marchés de change pour éviter
des « désajustements » des cours de change. Elles peuvent se coordonner pour approvisionner
le système en liquidité et faire face ensemble à une crise financière (réaction de la Fed et de la
BCE face à la crise des subprimes en 2007-2008). Elles peuvent aussi se concerter pour
définir une réglementation bancaire. La BRI s’efforce de coordonner ce type d’actions. Elle
abrite plusieurs comités : le Comité sur les systèmes de paiements et de règlements, le Comité
sur le système financier mondial et le Comité de Bâle sur le contrôle bancaire. Dans le cadre
du Comité de Bâle, elle définit des règles prudentielles que les banques commerciales
doivent appliquer dans le monde entier et dont les Banques centrales sont chargées de
superviser la bonne application.

44
Chapitre 11 : Le Fonds monétaire
international (FMI) et la Banque Mondiale
(BM)
A- Le Fonds monétaire international (FMI)
Le Fonds monétaire international est une institution essentiellement chargée de promouvoir la
coopération monétaire internationale et d’assurer la stabilité du système monétaire
international.

1. LES OBJECTIFS DU FMI ET LEUR ÉVOLUTION


Le FMI voit le jour lors de la conférence de Bretton Woods en juillet 1944. Son instauration
manifeste la volonté des États-Unis d’imposer un nouvel ordre monétaire et financier
international en réaction contre l’instabilité de l’entre-deux-guerres.
Au départ, le FMI a pour principales missions de faciliter le maintien des parités fixes au sein
du régime de Bretton Woods et d’assurer la continuité internationale des paiements en portant
assistance à des pays qui ont des difficultés pour équilibrer leur balance des paiements. Le
FMI intervient par l’octroi de crédits et à travers des conseils économiques. À l’époque, la
doctrine du FMI paraît largement d’inspiration keynésienne, la plus grande attention est
portée directement aux objectifs d’activité. À partir des années 1960, sa doctrine devient plus
libérale en particulier sous l’influence de son service des études économiques. Depuis
l’effondrement du système de Bretton Woods dans les années 1970, le FMI s’est engagé dans
de nouvelles activités de promotion de la stabilité au sens large (gestion de la dette des pays
du Tiers-monde, plus tard de la transition des économies de l’est de l’Europe vers le
capitalisme, puis des crises dans les pays émergents). Ce repositionnement conduit le FMI à
occuper pour partie le champ de la Banque mondiale et pose la question de la concurrence ou
de la complémentarité entre les deux institutions.

2. LES PROGRAMMES D’AJUSTEMENTS STRUCTURELS ET LE CONSENSUS


DE WASHINGTON
Durant les années 1980-1990, le FMI conditionne son aide aux PVD à la mise en œuvre de
programmes d’ajustements structurels (PAS) d’inspiration libérale. L’idée consiste à
libéraliser le fonctionnement de ces économies en vue d’accélérer leur insertion dans une
mondialisation perçue alors comme une sorte de paradigme du développement. Les PAS
menées par le FMI (et la Banque mondiale) ont été résumés en dix points par John
Williamson (1990). Ces faits saillants, partagés par l’ensemble des autorités économiques
américaines (Fed, agences économiques du gouvernement…) fondent ce que Williamson
appelle le consensus de Washington :
- Rigueur budgétaire : recherche de l’équilibre budgétaire à moyen terme afin de limiter
l’endettement des États.
- Action sur les dépenses publiques à travers une réduction des subventions qui introduisent
des distorsions sur les marchés.
- Promotion d’une politique de stabilité monétaire basée sur la libéralisation des taux
d’intérêt.
- Promotion de l’ouverture économique : les exportations doivent devenir un puissant moteur
de la croissance.
- Libéralisation des échanges.

45
- Recherche d’une attractivité vis-à-vis des IDE.
- Privatisations afin de réduire le poids de l’interventionnisme étatique.
- Déréglementation des marchés intérieurs (des capitaux, du travail…).
- Réforme fiscale orientée vers l’élargissement du nombre de contribuables, le développement
de la TVA et la baisse des taux marginaux de l’impôt sur le revenu.
- Renforcement des droits de propriétés.
Ces plans associés à la promotion de politiques macroéconomiques rigoureuses, à une
libéralisation interne et externe n’ont pas eu les effets attendus en matière de développement.
Stiglitz dans La grande désillusion (2002) dénonce le fait que ces « thérapies de choc »
accentuent l’instabilité au Sud. Les associations altermondialistes (comme ATTAC en France)
dénoncent le fait qu’elles ont servi les intérêts du Nord et n’ont pas fait reculer la pauvreté et
les inégalités. Au cours des années 2000, ces politiques ont été amendées et un nouveau
consensus a émergé : il ne saurait y avoir une voie unique vers le développement ; par ailleurs
l’importance des institutions et des particularités structurelles et culturelles des économies est
reconnue.

3. ORGANISATION ET FONCTIONNEMENT
Le siège du FMI se situe à Washington. Il compte aujourd’hui 185 États membres. La
structure dispose de 2 700 salariés environ, originaires de 165 pays. La gestion courante du
FMI est assurée par un conseil d’administration composé de 24 membres. Huit membres sont
permanents (États-Unis, Royaume-Uni, France, Allemagne, Japon, Chine, Russie et Arabie
Saoudite). Les 16 autres sont élus par les pays membres. Le directeur général (Dominique
Strauss-Kahn depuis septembre 2007) dirige, en collaboration avec trois directeurs adjoints,
les services du FMI et préside le conseil d’administration. Le budget administratif du FMI est
de 980 millions de dollars. Chaque pays membre verse une contribution au prorata de sa
part dans le commerce international (le versement s’effectue à hauteur de 25 % en or
jusqu’en 1976, le reste en monnaie nationale). Ces sommes peuvent servir à octroyer des
crédits aux pays qui en font la demande, souvent pour maintenir les parités sur le marché des
changes. Chaque pays dispose d’un droit de tirage proportionnel à sa contribution. Les crédits
sont accordés dans des conditions de plus en plus strictes à mesure que les montants
augmentent. Depuis la remise en cause du consensus de Washington, le volume des crédits
octroyés par le FMI baisse et avec lui ses recettes. L’encours des prêts atteint, en 2007, 28
milliards de dollars (répartis sur 74 pays).

4. UNE INSTITUTION CONTRÔLÉE PAR LES ÉTATS-UNIS


Le mode de décision du FMI est basé sur la répartition des droits de vote en fonction du
montant de la cotisation des États membres (principe « un dollar, une voix »). Les votes se
répartissent aujourd’hui de la sorte : États-Unis 16,79 % ; Japon 6,02 % ; Allemagne 5,88 % ;
France 4,86 % ; Grande-Bretagne 4,86 % ; Chine 3,66 %… Pour prendre des décisions, une
majorité qualifiée de 85 % des droits de vote est nécessaire. Les États-Unis disposent depuis
l’origine de l’équivalent d’un droit de veto dans la mesure où ils disposent en permanence de
plus de 15 % des droits. Aujourd’hui l’UE avec plus de 30 % des droits dispose aussi d’une
capacité de blocage. Aujourd’hui de nombreux défis restent à relever pour le FMI :
l’accumulation de déficits courants par les États-Unis, les forts mouvements des cours de
change, la constitution d’un véritable prêteur en dernier ressort au niveau mondial.

B- La Banque Mondiale (BM)


La Banque mondiale a été créée en juillet 1944 lors de la conférence de Bretton Woods et
officiellement mise en place en décembre 1945. C’est une organisation internationale en
charge des questions de développement économique et de lutte contre la pauvreté. Elle
46
accorde des prêts à long terme pour financer des projets spécifiques portés par des
gouvernements ou des entreprises souvent publiques, parfois privées.

1. LA BANQUE MONDIALE : UNE APPELLATION GÉNÉRIQUE D’UN GROUPE


D’INSTITUTIONS
La Banque mondiale est composée de la BIRD (Banque internationale pour la reconstruction
et le développement) et l’AID (Association internationale de développement). L’appellation
courante Banque mondiale désigne en réalité ces deux institutions. La BIRD a été créée en
1944. Elle accorde des prêts et une aide aux pays en développement solvables, à revenus
intermédiaires. L’AID a été créée en 1960. Elle constitue un guichet concessionnel du groupe
de la Banque mondiale. Elle accorde des prêts à long terme sans intérêt aux pays les plus
pauvres. Si les prêts ne donnent pas lieu à des versements d’intérêt, ils donnent lieu au
paiement d’une commission de service (0,75 % sur le montant décaissés). Les crédits de
l’AID sont remboursables sur 35 à 40 ans avec une franchise de dix ans pour le
remboursement du principal. Plus qu’une vingtaine de pays qui recevaient un soutien de
l’AID sont devenus assez prospères pour ne plus faire partie de cette catégorie et accéder aux
prêts de la BIRD. Parmi ces pays, on met mettre en exergue la Chine, le Chili ou encore le
Costa Rica.
Par ailleurs plusieurs autres institutions font parties du groupe Banque mondiale :
- la Société financière internationale, créée en 1956, qui soutient les initiatives du secteur
privé en faveur du développement ;
- l’Agence multilatérale de garantie des investissements (1988) ;
- le Centre international pour le règlement des différends relatifs aux investissements (1966).

2. ORGANISATION ET FONCTIONNEMENT DE LA BANQUE MONDIALE


Comme le FMI, la Banque mondiale a son siège à Washington. L’institution compte, en 2007,
185 pays membres. Elle est dirigée par un Conseil des gouverneurs qui dispose de tous les
pouvoirs : admettre un nouvel État, augmenter ou réduire le capital social de l’institution,
suspendre un État membre, conclure des accords avec d’autres organismes internationaux…
Ce conseil se réunit au moins une fois par an. Des administrateurs sont en charge de la gestion
opérationnelle de la Banque mondiale. Ils sont 24 ; 5 sont nommés par les principaux
actionnaires (Allemagne, États-Unis, France, Japon, Royaume-Uni) et 19 autres représentent
l’ensemble des autres pays membres. Ces administrateurs constituent le conseil
d’administration. Ils se réunissent en général deux fois par semaine au moins pour superviser
les activités de l’institution. Le président de la Banque mondiale est officiellement choisi par
les administrateurs mais, en vertu d’un accord tacite les États-Unis, principal actionnaire de la
Banque mondiale, le choisit pour un mandat de cinq ans renouvelable. Depuis juillet 2007, la
Banque mondiale est présidée par Robert Zoellick. La Banque mondiale fonctionne comme
un établissement de crédit en prêtant des fonds empruntés sur les marchés financiers (le
capital versé par les pays membres sert de garantie à ses emprunts). Elle n’a pas pour objectif
de faire des profits : ses bénéfices sont redistribués chaque année aux pays les plus pauvres.

3. LES ACTIONS DE LA BANQUE MONDIALE


Au départ, la Banque mondiale soutient l’oeuvre de reconstruction de l’Europe (jusqu’en
1949), elle accorde ainsi un premier prêt à la France immédiatement après guerre. Par la suite
elle finance des actions en faveur du développement des pays du Tiers-monde. Dans les
années 1960, à travers notamment l’AID (qui prête des fonds à taux nul aux pays les plus
moins avancés), elle intervient dans la lutte contre la pauvreté (financements de projets de
développement ruraux, soutien à l’éducation…).

47
Depuis les années 1980, elle cherche à coordonner ses actions avec celles du FMI à travers
la mise en place de programmes d’ajustements structurels dans les pays du Sud. Le FMI se
concentre sur les politiques macroéconomiques de stabilisation alors que la Banque mondiale
conserve une approche plus structurelle et sectorielle (transport, énergie, barrages…). Ces
politiques ont été accusées d’être responsables des échecs du développement, en particulier en
Afrique (surendettement, maintien de taux de pauvreté élevé…). Avec la remise en cause du
Consensus de Washington, les deux institutions doivent affronter une crise de légitimité. De
plus en juin 2007, le président de la Banque mondiale Paul Wolfowitz, accusé de népotisme,
est contraint à la démission et affaiblit un peu plus l’institution. La Banque mondiale se
concentre aujourd’hui sur la lutte contre la pauvreté après avoir défini sept domaines
d’action privilégiés :
• l’éducation pour tous ;
• la lutte contre le SIDA ;
• la santé maternelle et infantile ;
• l’approvisionnement en eau et l’assainissement ;
• le climat de l’investissement et le financement ;
• le commerce ;
• la viabilité écologique.

48
MICROECONOMIE

49
CHAPITRE 0 : RAPPELS

1- DERIVEE D’UNE FONCTION

Le concept de pente est habituellement associé aux droites. Nous définissons d'ailleurs la
droite comme étant une fonction pour laquelle la pente est constante. En d'autres mots, quel
que soit le point où l'on regarde, l'inclinaison de la droite est la même. Or, en général, nous
travaillerons avec des fonctions qui ne sont pas nécessairement des droites, et pour lesquelles
la pente varie d'un point à l'autre. Il nous faut donc introduire la notion de dérivée, qui permet
d'obtenir la pente pour ces fonctions non linéaires.

Définition intuitive : La dérivée d'une fonction est définie comme étant la pente de sa droite
tangente en un point spécifique. L'illustration qui suit permet de visualiser la droite tangente
(en bleu) d'une fonction quelconque en deux points distincts. Remarquez que l'inclinaison
de la droite tangente varie d'un point à l'autre. La valeur de la dérivée d'une fonction
dépend donc du point où nous décidons de l'évaluer. Par abus de langage, nous parlerons
souvent de la pente de la fonction plutôt que de la pente de sa droite tangente.

2- CROISSANCE ET DECROISSANCE
Il existe une relation directe entre la croissance ou la décroissance de la fonction et la valeur
de sa dérivée en un point.
- Si la valeur de la dérivée est négative en un point, cela indique que la fonction est
décroissante en ce point.
- Si la valeur de la dérivée est positive en un point, cela indique que la fonction est croissante
en ce point.
Notation : Nous représentons la dérivée d'une fonction par un symbole primé.
Par exemple, écrire f ‘(x) représente la dérivée de la fonction f évaluée au point x. De même,
écrire (3x + 2)’ indique que l'on effectue la dérivée de la fonction (3x + 2) au point x.

3- DERIVEES USUELLES
Nous présentons ci‐dessous la liste de dérivées les plus importantes. Quoique ces formules
puissent être démontrées formellement, nous ne ferons que les énoncer. Nous vous
recommandons de les apprendre et de les maîtriser. Ne parler que des dérivées des fonctions
polynomiales.

50
Dérivée des fonctions usuelles :

4- OBTENTION D’UN MAXIMUM OU D’UN MINIMUM


Étapes pour obtenir et identifier un maximum ou un minimum local d'une fonction f(x) :
- Faire la dérivée de f(x).
- Identifier toutes les valeurs critiques : valeurs de x où la dérivée s'annule, c’est-à-dire
f ‘(x) = 0 (ou la dérivée n’est pas définie ou la dérivée n’existe pas)
- Pour déterminer si un maximum ou d'un minimum est obtenu en ce point, vérifiez la
croissance ou la décroissance de la fonction autour de chacun des points critiques (test de la
première dérivée). Ne pas parler de dérivée seconde et de concavité…

51
Exercice :
Déterminer les minimum et maximum locaux des fonctions f et R de l'exercice précédent. Si
vous avez du temps faire l’étude des 4 fonctions. Faire un tableau des signes + ou –
autour des points critiques.

52
CHAPITRE 1 : MICROECONOMIE (OBJETS ET METHODES)

Au centre de l’analyse microéconomique se trouve la question de l’allocation des ressources


rares entre des usages alternatifs dans les économies modernes et le rôle que jouent les prix et
les marchés dans ce processus. Cette question couvre une large partie des analyses, qu’elles
soient sur l’organisation des marchés, sur les stratégies des agents économique ou sur le rôle
des institutions. Une partie non-négligeable des travaux analyse néanmoins la manière dont
ces ressources sont créées et le rôle des phénomènes du type l’innovation des entreprises dans
cette création. La meilleure compréhension de ces phénomènes que cherche à atteindre
l’analyse microéconomique vise aussi à renforcer les capacités de prédiction et de contrôle :
les concepts et les causalités que les économistes ont développés dans leur tentative de mieux
comprendre les mécanismes économiques ont fourni les bases nécessaires à l’élaboration des
politiques en vue d’influencer les résultats de ce processus (comme les politiques
industrielles, par exemple).
Grâce au développement des techniques de type recherche opérationnelle ou de gestion
scientifique, les concepts de la microéconomie ont été utilisés pour aider la prise de décision
rationnelle dans les affaires. Les concepts, relativement abstraits, de cette approche ont donc
donné lieu à des prolongements et à des applications qui influencent chaque jour le
fonctionnement du processus économique. Nous allons maintenant aborder les composantes
principales des théories microéconomiques.

1- Les Biens et services ou marchandises


Ils forment les objets centraux de l’activité économique car ce que l’on appelle « activité
économique » concerne par définition la production et l’échange des marchandises. Nous
distinguons une marchandise d’une autre en observant trois caractéristiques :
- leur nature et attributs physiques qui déterminent la manière dont elles satisfont les besoins
des consommateurs et des producteurs ;
- le lieu où elles sont disponibles ;
- la date à laquelle elles sont disponibles.

Par exemple, le charbon et le pétrole brut sont des marchandises de natures différentes. Le
pétrole brut qui sera disponible demain à Iran est aussi une marchandise différente du pétrole
brut qui sera disponible à Paris. De même, le charbon qui est disponible à Marseille
aujourd’hui est différent du charbon qui sera disponible à Marseille l’hiver prochain. Ces
exemples illustrent la caractéristique principale qui distingue les différents biens : ils ne
peuvent être considérés comme des substituts parfaits dans la production ou la
consommation : on ne peut supposer qu’un agent pourra consommer indifféremment l’un ou
l’autre de ces biens (car soient ils sont de nature différents, soit ils sont disponibles à des
moments ou des lieux différents). Nous devons donc distinguer les biens du point de vue ces
trois dimensions. Dans ce cours nous tiendrons compte des différences de nature et de date de
consommation. La notation que nous allons adopter pour représenter les différents biens va
donc tenir compte de ces deux caractéristiques. Ainsi, un bien l, détenu par l’agent i, à la date
t et en quantité x, sera noté par :

53
2- Les Prix
Sur les marchés, les biens s’échangent contre de la monnaie (ce qui est différent d’un système
de troc où les biens s’échangent contre des biens). Par conséquent, dans un système de
marché, on associe un prix à chaque bien : le prix auquel les agents échangent une unité de ce
bien sur le marché. Il est clair qu’en général on n’observera pas un seul prix pour un bien
donné mais si le système de marché fonctionne efficacement, on devrait observer un prix
quasiment unique pour les unités du bien qui sont identiques du point de vue des
caractéristiques que nous avons distinguées : la nature ; le lieu et la période de disponibilité.
On parle alors de la loi du prix unique.

Le prix d’un bien peut être exprimé de deux manières. Premièrement, nous pouvons choisir
un certain bien dans l’économie comme numéraire ; tous les prix sont alors exprimés en
termes de ce bien. Si par exemple le numéraire est l’or, le prix de chaque bien indique
combien d’unités d’or il faut donner en échange d’une unité de ce bien.

Le prix de l’or est naturellement égal à 1. En principe n’importe quel bien peut être retenu
comme numéraire (sur certaines îles on utilisait les coquillages comme numéraire).
Néanmoins certains biens conviennent mieux que d’autres à cette fonction pour faciliter les
transactions de marché. Les biens qui ne sont pas divisibles, ou qui sont encombrants ou
encore qui se détériorent facilement ne peuvent convenir en tant que moyen de paiement.
Nous devons aussi préciser que dans cette optique le numéraire ne correspond pas vraiment à
un moyen d’échange ou à la monnaie. Il s’agit uniquement d’une unité de compte, ou d’une
unité de mesure pour les prix d’une économie. Une fois le numéraire fixé, les prix expriment
le taux de change entre les biens et ils ont la dimension (unités de numéraire/unités du bien).
Par conséquent, ces prix ne sont pas indépendants des unités de mesure des différents bien.
Par exemple si l’on double les unités de mesure de tous les biens sauf le numéraire, il faudrait
multiplier par deux tous les prix.
L’autre manière que nous pouvons utiliser pour fixer les prix n’implique pas l’utilisation d’un
numéraire. En effet, nous pouvons décider qu’il existe une unité de compte abstraite qui n’est
pas la quantité d’un bien physique. Il s’agit de l’unité qui est utilisée dans l’enregistrement
des transactions dans les comptes : si une unité d’un bien est vendue alors le compte est
crédité du prix de ce bien (nombre d’unités de compte qui correspond à ce bien) et si une
unité d’un bien est achetée, le compte est débité du même nombre d’unités de compte (de
nouveau le prix du bien). On donne en général un nom à cette unité de compte : l’Euro, le
Yen, le Dollar ou la Livre sterling, le FCFA…. Si les comptes sont tenus dans des unités
différentes, un taux de change entre ces unités doit être établi avant que les transferts d’un
compte à l’autre puissent avoir lieu. Nous noterons ces prix monétaires sous la forme :
pl = le prix du bien l
Ces prix, exprimés en termes d’unités de compte, correspondent à la manière dont les prix
sont fixés dans la réalité. Ils ont été adoptés à la suite du développement d’un système
bancaire (pour tenir les comptes). Néanmoins on peut rétablir une correspondance claire entre
ces prix en termes d’unités de compte abstraite et les prix en termes de taux de change entre
les biens. Supposons qu’il y ait n biens dont les prix en euro sont p1, p2, . . . , pn. Nous
pouvons alors prendre le prix de n’importe quel bien, par exemple le bien n, et former n ratios
qui expriment le prix des biens en termes de ce bien qui devient alors le numéraire :

54
Nous pouvons interpréter chaque rj,, j = 1, 2...n ; comme étant le nombre d’unités du bien n
qu’on doit échanger contre une unité du bien j : les taux de change en termes de
marchandises avec n comme numéraire. Chaque rj a maintenant la dimension (unités du
bien n / unités du bien j) :

Ainsi chaque rj nous indique le nombre d’unités de bien n que nous pouvons acheter en
vendant une unité du bien j et en consacrant tout ce revenu (pj unités de compte) à l’achat de
bien n. Les rj sont des prix relatifs.

3- Les marchés et l’équilibre du marché


Dans l’utilisation courante du terme, un marché correspond à un lieu particulier où certains
types de marchandises sont vendus et achetés ; par exemple, le marché des fruits et des
légumes, le marché du livre... Dans l’analyse économique, le concept de marché est beaucoup
plus général : un marché existe à partir du moment où deux ou plusieurs individus sont prêts à
effectuer des échanges de marchandises quelque soient le lieu et la date. Ainsi le mot marché
indique une situation d’échange. L’analyse du fonctionnement des marchés est le problème
central en microéconomie puisque le processus d’allocation des ressources est un processus
de marché : toute allocation des ressources est le fruit du fonctionnement des marchés. Par
conséquent, pour chaque marchandise, un marché doit exister et toute chose qui ne peut pas
être échangée sur un marché n’est pas une marchandise, du point de vue de la microéconomie.

On doit aussi distinguer les marchés comptants (spot markets) des marchés à terme (forward
markets). Sur un marché comptant, on passe un accord qui implique que l’échange de
marchandises soit accompli dans la période présente. Sur un marché à terme, la transaction
concerne les marchandises qui seront livrés dans une période future. Une économie avec un
système complet de marché est une économie où il existe tous les marchés comptants et à
terme pour assurer l’échange de toutes les marchandises qui seront disponibles à tous les lieux
et à toutes les dates. Dans une telle économie, les accords concernant toutes les transactions
présentes et futures seraient conclus dans la première période et toutes les activités de marché
seraient terminées à la fin de cette période. Le reste du temps serait consacré à la réalisation
de tous les engagements de la première période. Les économies réelles ne possèdent
naturellement pas un tel système de marché. A chaque période il existe des marchés
comptants pour effectuer les transactions concernant cette période et quelques marchés à
termes pour les transactions dans le futur. Par conséquent, à chaque période un sous-ensemble
relativement petit de la totalité des marchandises peut être échangé. On observe donc une
suite de systèmes de marché, un à chaque période, et l’activité de marché a lieu normalement.

Nous allons maintenant nous intéresser au fonctionnement d’un marché.

Le fonctionnement d’un marché résulte dans la détermination du volume des transactions sur
ce marché et du prix auquel ces transactions ont lieu (prix de marché). Le marché d’un bien et
service réalise la confrontation des offres et des demandes et il conduit à la détermination
d’un prix. A un moment donné, nous allons observer sur un marché des vendeurs qui essaient
de vendre le bien à des prix différents et les consommateurs qui cherchent à l’acheter au prix
le moins cher possible. En fonction des rencontres entre ces agents, les prix des biens
disponibles vont changer. Etant donné que nous considérons que les unités échangées sur le
55
marché sont identiques du point des vues des trois caractéristiques, les échanges ne vont se
stabiliser que quand le marché atteint un prix unique auquel tous les consommateurs qui
voulaient acheter le bien à ce prix pourront le faire et tous les vendeurs qui voulaient le vendre
à ce prix trouveront un acheteur : les décisions d’achat et de vente seront parfaitement
compatibles dans ce cas et nous appelons un tel état du marché l’équilibre du marché et le
prix correspondant, le prix d’équilibre. Nous pouvons représenter l’équilibre d’un marché
dans la figure 1.1.

On représente en abscisse les quantités totales proposées (pour l’achat et pour la vente) sur ce
marché à une période donnée, pour des différents prix de marché. La courbe décroissante
correspond aux quantités que les agents sont prêts à acheter pour chaque prix de marché (la
demande) : plus le prix est élevé, moins d’agents désirent acheter de ce bien. La courbe
croissante correspond aux quantités que les agents acceptent de vendre sur le marché pour des
différents prix (l’offre) : plus le prix est élevé, plus ils sont prêts à vendre.

Le seul prix où les désirs des acheteurs et ceux des vendeurs coïncident est p* : c’est le prix
d’équilibre ; il égalise l’offre et la demande sur le marché. A ce prix, tous les agents qui
étaient prêts à vendre ce bien vendent exactement les quantités qu’ils désiraient vendre et tous
les acheteurs achètent exactement les quantités qu’ils désiraient acheter. Ces quantités sont
égales à Q*, la quantité d’équilibre. On observe que pour tous les autres prix on a :
– soit la demande supérieure à l’offre (demande excédentaire - le cas de p1) ;
– soit l’offre supérieure à la demande (offre excédentaire - le cas de p2).

On peut aussi imaginer qu’à partir d’une des deux situations précédentes, on tende vers la
situation d’équilibre grâce à un ajustement des prix. Si l’on part d’une situation d’offre

56
excédentaire, on observe que le prix est trop élevé pour que toutes les quantités que les
vendeurs voudraient écouler soient achetées. Dans cette situation, ils peuvent être amenés à
réviser leur prix à la baisse de manière à attirer de nouveaux consommateurs et vendre toute
leur offre. Cette baisse doit alors continuer jusqu’à p* pour que toute l’offre puisse être
absorbée par la demande. En partant de p2, on tend donc vers P*

Jusqu’ici nous avons parlé d’acheteurs et de vendeurs. Nous allons voir plus précisément dans
le paragraphe suivant qui sont les agents économiques que nous allons considérer dans ce
cadre microéconomique.

4- Les agents économiques


L’unité de base de l’analyse microéconomique est donnée par les agents économiques
individuels (d’où le terme microéconomie). Ces agents sont généralement de deux types : les
consommateurs et les firmes (ou producteurs, ou entreprises). Un consommateur est un
individu qui peut posséder un certain stock de marchandises (sa dotation initiale qui fait partie
de sa richesse) et qui choisit une certaine quantité de chaque bien qu’il décide de consommer.
Ces quantités et sa dotation initiale déterminent alors les quantités de chaque marchandise
qu’il désire de vendre ou d’acheter sur les marchés correspondants. On peut aussi raisonner en
considérant que la dotation initiale du consommateur prend la forme d’un revenu exprimé en
termes d’un numéraire ou d’unités de compte. Mais cette approche exclut l’analyse du
comportement du consommateur en tant qu’offreur de certaines marchandises.

Une firme est un décideur individuel qui procède à la production de marchandises par la
combinaison de différents facteurs de production (inputs) grâce à des procédés techniques.
Ces inputs sont des marchandises que la firme peut posséder en partie dans sa dotation
initiale. Elle doit acheter le reste sur les marchés correspondants. Certains inputs peuvent ne
pas être des marchandises : la lumière du soleil dans l’agriculture, par exemple. La distinction
entre les consommateurs et les firmes réside dans la nature de leur activité économique : les
consommateurs achètent des biens pour consommer et les firmes achètent des inputs pour
produire d’autres biens. Naturellement dans la réalité les choses sont plus complexes que dans
ces simplifications théoriques. En effet une unité de consommation correspond souvent à une
famille qui regroupe plusieurs individus et les décisions sont souvent des décisions de groupe.
Mais si les décisions des ménages respectent un minimum de rationalité et de cohérence notre
approche perd son caractère restrictif. De même, s’il existe encore des firmes individuelles, la
majeure partie de la production des marchandises est effectuée par des grandes corporations
qui peuvent contenir parfois des milliers d’individus et des structures organisationnelles
complexes. De nouveau, notre approche du processus général d’allocation des ressources est
simplificatrice mais elle reste suffisante tant que nos prédictions et nos résultats ne sont pas
infirmés par le comportement des firmes. On peut aussi se référer à d’autres travaux en
économie qui étudie surtout l’organisation des firmes.

Il est aussi artificiel de séparer les individus en consommateurs et en producteurs ; beaucoup


d’individus participent à la prise de décision à la fois dans la sphère de consommation et de
production. Mais il ne faut pas penser qu’il s’agit des individus distincts mais des facettes de
mêmes individus. De manière générale, il est aussi possible de construire une théorie où les
individus prennent en même temps des décisions de production et des décisions de
consommation. Néanmoins, la distinction que nous adoptons perd son caractère restrictif si
l’on se rappelle que l’attention est surtout consacrée à l’allocation des ressources par le
système de marché et les comportements individuels seront agrégés (qu’il s’agisse des
demandes ou des offres) sur chaque marché. Alors les consommateurs et les producteurs d’un

57
bien vont souvent apparaître aux côtés opposés du marché de ce bien (respectivement du côté
de la demande et du côté de l’offre).
5- La rationalité
Quel que soit la classification adoptée entre les producteurs et les consommateurs, deux
éléments principaux caractérisent l’approche microéconomique. Le premier est l’adoption des
décideurs individuels comme l’unité de base de l’analyse. Le second est l’hypothèse selon
laquelle le décideur individuel est rationnel. Le concept de rationalité qui sera utilisé doit
être clairement défini. Nous dirons qu’un processus de décision rationnel prend la forme
suivante :
1. Le décideur énumère tous les alternatifs qui sont disponibles et il écarte les alternatifs qui
ne sont pas réalisables ;
2. Il tient compte de toute l’information disponible ou qu’il vaut la peine de collecter dans
l’établissement des conséquences du choix de chaque alternatif ;
3. En fonction de leurs conséquences, il classe les alternatifs selon son ordre de préférence.
Cet ordre doit satisfaire certaines conditions de cohérence et de complétude ;
4. Il choisit l’alternatif qui a la position la plus élevée dans cet ordre : il choisit l’alternatif
dont il préfère la conséquence à celle de tous les autres alternatifs disponibles.

Ces conditions semblent assez bien correspondre à l’utilisation courante du terme rationalité.
Néanmoins il est possible que certaines personnes se comportent d’une manière qui pourrait
apparaître comme irrationnelle selon cette définition : dans la prise de décision ils peuvent
ignorer des alternatifs réalisables connus ou ils peuvent se laisser influencer par des alternatifs
irréalisables, ils peuvent ignorer ou négliger de collecter certaines informations sur les
conséquences des alternatifs, ils peuvent se contredire dans le classement des alternatifs voire,
ils peuvent choisir un alternatif dont ils ont déjà évalué la conséquence comme étant
inférieure à une autre. Par conséquent, la rationalité est une hypothèse de notre analyse et ce
n’est pas une tautologie : cette hypothèse peut ne pas être vérifiée pour certains individus.
Mais avant de décider qu’il s’agit d’une décision irrationnelle, il faut bien vérifier toutes les
conditions et en particulier la condition (2) : la collecte d’information demande souvent
beaucoup de temps et elle n’est pas toujours gratuite. Essayez de connaître tous les prix
pratiqués sur Marseille ou Paris pour un type donné d’ordinateur ; vous passerez beaucoup de
temps dans les magasins ou sur Internet ! Donc la négligence apparente d’une information
peut être causée en réalité par le coût qu’il faudrait subir dans sa collecte et donc elle peut être
tout-à-fait rationnelle. Il faut néanmoins noter que de nombreuses observations indiquent que
les agents économiques réels ont trop souvent des comportements qui s’écartent ce cette
hypothèse. Depuis les travaux d’Herbert Simon et de Kahneman et Tversky, les
économistes développent aussi un cadre analytique qui ne fait pas recours à une hypothèse de
rationalité forte et qui cherche à respecter un certain réalisme cognitif. Le cadre de la
rationalité reste néanmoins une simplification commode que beaucoup d’analyses continuent
à adopter et on va le garder dans l’exposition des ces analyses dans cet ouvrage. Des cours de
microéconomie plus avancés et des cours de théorie des jeux vous proposeront des analyses
qui cherchent à faire l’économie de cette hypothèse.

6- Méthodes d’analyse
L’approche microéconomique suit une ligne de développement relativement systématique
(voir Figure 1.2). On commence avec les modèles des décideurs individuels, un
consommateur type et une firme type. Sous l’hypothèse de rationalité ces modèles prennent la
forme de problèmes d’optimisation sous contraintes : le décideur est supposé à chercher
l’alternatif le meilleur parmi un ensemble d’alternatifs disponibles (vérifiant les contraintes)

58
pour lui. En précisant relativement bien la nature de ces problèmes d’optimisation et en les
résolvant, on est capable d’établir certaines caractéristiques et propriétés des choix du
décideur. De plus, en étudiant comment le choix optimal se modifie suite à des modifications
des paramètres du problème (surtout des prix) on peut établir certaines relations de
comportement comme les courbes de demande et d’offre (on fait alors ce qui est appelé la
statique comparative).

Un des buts principaux des modèles de décision est de nous permettre d’imposer certaines
restrictions sur les comportements des agents, de manière à exclure ceux qui ne sont pas
compatibles avec les hypothèses de la théorie ou, du moins, de clarifier sous quelles
hypothèses on peut imposer des restrictions particulières (des courbes de demande
décroissantes, par exemple).

La prochaine étape de l’analyse consiste à agréger les relations de comportements sur un


groupe d’agents économiques : sur un marché, la demande globale des acheteurs d’une part et
l’offre globale des vendeurs d’autre part. Ces relations agrégées peuvent ensuite permettre
d’analyser le fonctionnement d’un marché pris isolément ou d’un système de plusieurs
marchés interdépendants. Dans le cas le plus général, on considère le système de marché pour
une économie dans sa totalité et on étudie comment est déterminée l’allocation des ressources
par le fonctionnement simultanée de ce système de marché.

Quel que soit le niveau retenu, la méthode d’analyse est la même : la méthodologie
d’équilibre. L’équilibre (statique) d’un système est défini comme une situation où les forces
qui déterminent l’état du système sont en équilibre, par conséquent, les variables du système
n’ont plus à changer. Un équilibre d’un système d’agents économiques (que ce soit un marché
isolé ou toute l’économie) peut exister quand deux conditions sont satisfaites :
– les décideurs individuels ne désirent plus changer leurs plans ou leurs réactions ;
– les plans des décideurs individuels sont compatibles entre eux et donc ils peuvent se
réaliser.

59
Le concept d’équilibre est important car il nous donne un concept de solution pour nos
modèles. Les forces en action dans un système économique donné (un marché isolé par
exemple) une fois définies, nous nous demandons quel sera le résultat de l’interaction de ces
forces. La réponse est donnée par le concept d’équilibre : nous établissons les propriétés
d’équilibre du système et nous prenons ces propriétés comme le résultat que nous cherchons.

Cet état correspond à ce que nous observerions une fois que tous les problèmes de
coordination de décisions ont été résolus sur le marché. Il faut naturellement établir au
préalable l’existence et les propriétés (en particulier l’unicité et la stabilité) de cet équilibre.
Cette approche ne supprime pas l’intérêt que nous pouvons avoir pour les autres états du
système, états de déséquilibre dans lequel la question de la coordination des décisions
économiques est importante. L’analyse de ce type d’état est en général beaucoup plus difficile
que celle des équilibres.

60
CHAPITRE 2 : LA THEORIE DES CHOIX

Nous sommes tous des consommateurs. Nous avons tous des préférences. Nous devons donc
tous effectuer des choix. Le choix d’acheter tel livre plutôt que tel autre, le choix d’acquérir
moins de biens aujourd’hui mais d’épargner plus pour en acquérir davantage demain, ou
encore, le choix de travailler beaucoup (ce qui donne la possibilité de disposer de nombreux
biens) ou de travailler moins. Comment les consommateurs effectuent-ils leurs choix ?
Trois éléments sont essentiels pour répondre à cette question, qui est à la base de la théorie
micro-économique. La consommation d’un bien crée plus ou moins de satisfaction. Les biens
sont rarement gratuits et les ressources dont disposent les consommateurs rarement
inépuisables. L’objectif du consommateur rationnel consiste alors à tenter de maximiser sa
satisfaction, tout en respectant les contraintes qui pèsent sur lui.

1 La théorie de l’utilité cardinale


On supposera que les consommateurs sont capables de mesurer, de chiffrer, la satisfaction liée
à la consommation d’une quantité déterminée d’un bien ou d’un panier de plusieurs biens.
1.1 L’utilité marginale
L’utilité marginale d’une consommation est définie comme l’utilité de la dernière unité de
bien consommée. Selon une hypothèse classique, l’utilité marginale finit toujours par être
décroissante. Ainsi, le supplément d’utilité fourni par des unités croissantes d’un bien va en
diminuant jusqu’à devenir nul au point de satiété. Il s’agit de la première loi de Gossen. Cette
« loi » est purement empirique et ne repose que sur le bon sens.
1.2 L’utilité totale
L’utilité d’un bien est définie par son aptitude à satisfaire des besoins. L’utilité totale est
la somme des utilités marginales. L’utilité totale croît à taux décroissant (si on accepte la
décroissance de l’utilité marginale) et atteint son maximum au point de satiété ; au-delà
l’utilité totale diminue puisque l’utilité marginale devient négative.

61
1.3 Formulation mathématique de l’utilité
L’utilité marginale s’écrit :

Supposons que l’utilité totale, pour le consommateur, dépende de la consommation de deux


biens X et Y, le raisonnement pouvant se généraliser à n biens. Alors la fonction d’utilité sera
une fonction de deux variables :
Ut (x, y)
Le calcul de l’utilité marginale du bien X passe par le calcul de la dérivée partielle de Ut par
rapport à la variable x. En effet, la dérivée partielle mesure l’influence d’une très petite
variation de la variable x sur la fonction Ut, sachant que la variable y est considérée comme
une constante. Dans ce cas, l’utilité marginale s’écrit :

Supposons que le consommateur fasse varier à la fois les quantités de biens X et de biens Y
par rapport à une structure de consommation initiale. La variation de l’utilité totale résultant
de ces modifications s’écrit :

2 Théorie de l’utilité ordinale

2.1 L’étude des préférences des consommateurs


Soient trois paniers A, B et C composés de n biens dans des quantités variables. Soit la
relation binaire notée ≥ où A ≥ B signifie que le panier A « est préféré ou indifférent » au
panier B. Cette relation vérifie deux conditions :
1) la relation est réflexive : tout panier est préféré ou indifférent à lui-même (A ≥ A) ;
2) la relation est transitive : si le consommateur estime que A ≥ B et B ≥ C alors : A ≥ C.
Ces deux conditions, qualifiées parfois d’axiomes, définissent « le préordre des préférences
du consommateur ». De plus, on dira qu’il s’agit d’un « préordre complet » dans la mesure où
la condition n° 3 est satisfaite :
3) la relation est dite « complète » car pour tout couple de paniers, on a soit A ≥ B soit B ≥ A.
La théorie ordinale de l’utilité fait donc l’hypothèse que les préférences du consommateur
correspondent à un tel préordre complet. À cette relation de préordre complet, on peut
associer une relation d’équivalence notée ∼ et définie par : A ∼ B si et seulement si A ≥ B et
B ≥ A.
Le lien avec la fonction d’utilité est immédiat :
– si A est préféré ou indifférent à B alors Ut(A) est supérieure ou égale à Ut(B)
– si A est équivalent à B alors Ut(A) est égale à Ut(B)

62
Il existe une dernière condition importante à connaître : il s’agit de l’hypothèse de « non-
satiété » ou encore appelée « hypothèse de non-saturation » :
4) soient X et Y deux vecteurs de consommation, c’est-à-dire :
X = (x1, x2, ..., xn) et Y = (y1, y2, ..., yn)
où xi et yi représentent les quantités du bien n°i . Si ces vecteurs sont tels que yi ≥ xi pour tout
bien i, sauf au moins pour un bien, pour lequel on aura yi > xi , alors on dira que Y est préféré
à X. On dit qu’il y a non-saturation des préférences. L’axiomatique des préférences que nous
venons de rappeler permet d’élaborer une théorie ordinale de l’utilité, fondée pour l’essentiel
sur la notion de courbe d’indifférence ou courbe d’iso-utilité.

2.2 Les courbes d’indifférence


La fonction d’utilité ordinale associe un indicateur de satisfaction aux diverses quantités
de biens consommés par l’individu rationnel. D’un point de vue graphique, il vaut mieux
se limiter à la prise en compte de deux biens X et Y. Ainsi, on peut poser que : U = f (x, y).
Graphiquement, ce type de fonction doit être représenté dans un espace à trois
dimensions. Cependant, afin de simplifier l’analyse, on se ramène souvent à une
présentation classique dans l’espace à deux dimensions. En effet, un niveau donné
d’utilité, noté U0, peut être atteint grâce à différentes combinaisons des deux biens X et Y
: U0 = f (x, y)

Puisque la fonction est continue, cette égalité peut être satisfaite par un nombre infini de
paniers de biens. Ainsi, on appelle « courbe d’indifférence » (ou « courbe d’iso-utilité
») le lieu géométrique de toutes les combinaisons de biens qui procurent un même
niveau d’utilité.
Les deux paniers A et B sont donc équivalents ; on peut écrire : (xa, ya) ∼ (xb, yb)
L’utilité augmente au fur et à mesure que l’on se déplace vers le haut et la droite : c’est la
conséquence de l’hypothèse de non-saturation des préférences. Sans changer les
quantités consommées de biens Y, si un individu rationnel consomme davantage de
biens X, alors sa satisfaction augmente et il se situe sur une autre courbe d’indifférence,
plus haute, par exemple U1 ou U2 . Pour une fonction d’utilité, l’ensemble des courbes
d’indifférence constitue la « carte d’indifférence » du consommateur.

63
2.3 Le taux marginal de substitution ou TMS
Dans le cas de deux biens X et Y, le TMS du bien Y au bien X est égal à la quantité
additionnelle de biens Y dont le consommateur doit disposer pour compenser la
réduction d’une unité de la consommation de biens X, à utilité inchangée. Autrement dit,
le TMS correspond au rapport entre la variation de consommation du bien porté en
ordonnée et la variation induite de consommation du bien porté en abscisse, à
satisfaction constante ; le TMS est aussi égal au rapport des utilités marginales des deux
biens :

3 L’équilibre du consommateur
3.1 Approche algébrique
Supposons que le consommateur dispose d’un revenu R qu’il répartit en achats de biens
X et Y selon des quantités x et y. Le prix unitaire du bien X est noté p et le prix unitaire du
bien Y est noté q. Le consommateur rationnel est conduit à résoudre le problème suivant
:
Maximiser : Ut = f (x, y)
Sous la contrainte : R = xp + yq

Ainsi, le consommateur atteint l’optimum lorsque :


– les utilités marginales pondérées par les prix sont égales ;
– ou lorsque le rapport des utilités marginales est égal au rapport des prix.
Ce résultat important est parfois appelé « seconde loi de Gossen ».

3.2 Approche graphique (cf. Figure 1.2)

64
Afin de représenter la contrainte de budget sur le graphique où figure la carte
d’indifférence du consommateur, il est nécessaire de déterminer les courbes de niveau
associées à cette contrainte :

Ces courbes de niveau sont appelées « droites de budget ». Il y a autant de droites de


budget que de valeurs R0. Toutes ces droites sont parallèles puisque le coefficient
directeur est constant. Le choix optimal du consommateur consiste donc à trouver un
panier de biens respectant la contrainte et situé sur la courbe d’indifférence. On constate
que la seule position optimale (encore appelée « équilibre ») est celle où la droite de
budget est tangente à une courbe d’indifférence. Tant qu’une courbe d’indifférence
coupe une droite de budget en deux points, cela signifie que l’on peut encore trouver
une courbe d’indifférence « plus haute », ayant un point commun avec la contrainte
budgétaire et permettant d’accroître la satisfaction de l’agent.

65

Vous aimerez peut-être aussi