Académique Documents
Professionnel Documents
Culture Documents
INTRODUCTION
Le point de départ de l’activité économique réside dans certaines catégories de sentiments tels
que le désir de se nourrir, se loger, se vêtir, etc, que les humains éprouvent et qu’ils
s’efforcent de satisfaire par des moyens qu’ils chercheront dans leur environnement.
Cependant, en tant que matière d’enseignement, l’analyse économique est relativement
récente. En outre, Adam Smith (1723-1790) en publiant son ouvrage, La Richesse des nations,
en 1776, est considéré comme le pionnier de l’analyse économique moderne. L’étude de
l’économie suscite par ailleurs plusieurs interrogations dont celle-ci nous semble
fondamentale : pourquoi étudier l’économie ?
2- Définition de l’économie
Plusieurs définitions de l’économie sont proposées par des auteurs selon leur époque et leur
courant de pensée. Selon Paul A. Samuelson dans l’Économique 1, les économistes
contemporains sont généralement d’accord sur une définition libellée à peu près comme suit :
« la science économique recherche comment les hommes et la société décident, en faisant
ou non usage de la monnaie, d’affecter des ressources productives rares à la production
à travers le temps de marchandises et services variés et de répartir ceux-ci, à des fins de
consommation présentes ou futures, entre les différents individus et collectivités
constituant la société. Elle analyse donc les coûts et profits qui résultent de meilleures
structures d’utilisation des ressources ».
3- Objet de l’économie
La science économique pour se distinguer des autres sciences sociales et humaines qui ont
aussi pour objet l’être humain, se définit une façon particulière d’étudier les comportements
humains qui lui est propre. Elle part du constat que les hommes éprouvent des besoins
illimités mais que les ressources dont ils disposent pour les satisfaire n’existent qu’en nombre
limité (phénomène de rareté) et qu’en conséquence ils doivent faire des choix. La science
économique est ainsi perçue comme la science des choix ou science des décisions.
En somme, l’économie en tant que science s’attache dans un premier temps à décrire,
mesurer, et comprendre les choix effectués par les agents économiques. Dans un second
temps, elle cherche à bâtir des lois et des modèles pouvant servir à guider l’action politique.
2-1- La multiplicité
Elle exprime le fait qu’il est quasiment impossible de dresser une liste exhaustive des besoins
dans la mesure où on distingue les besoins qui possèdent un caractère absolu, que l’on ressent
quelle que soit la situation des autres individus, et ceux qui ont un caractère relatif, que l’on
éprouve au contact des autres.
2-2- La satiabilité
Elle exprime le fait que l’intensité d’un besoin diminue au fur et à mesure qu’il est satisfait.
C’est le cas notamment des besoins à caractère absolu (boire et manger par exemple).
2-3- L’interdépendance
Elle désigne le fait qu’il peut exister des liens entre des besoins. Par exemple, l’achat d’une
voiture engendre le besoin de carburant.
1- Définition
Un bien est un moyen ou une ressource qui permet de satisfaire un besoin. L’économie ne
s’intéresse qu’aux biens rares, que l’on appelle biens économiques, et écarte donc du domaine
d’étude les biens libres qui, par opposition aux biens rares, sont disponibles en abondance,
comme l’air, l’eau, le soleil, le vent.
Les biens économiques se caractérisent par le fait qu’ils nécessitent un sacrifice pour être
produits (ils sont issus du travail humain ou sont susceptibles d’être commercialisé), tandis
que les biens libres s’obtiennent gratuitement et sans travail humain.
1- Notion de rationalité
La rationalité suppose en effet que l’acteur choisit toujours la ou les actions qui, parmi celles
qui lui sont disponibles, lui permet(tent) d’atteindre le mieux possible l’objectif qu’il
2- Notion d’arbitrage
Les agents économiques effectuent des choix afin de maximiser leur satisfaction en fonction
de leur moyen. Ces choix sont des arbitrages économiques entre différentes possibilités. Les
agents économiques sont considérés comme rationnels. C’est la rationalité qui conduit leur
arbitrage.
Remarque : Les opérations effectuées entre les agents résidents et les agents non-résidents
sont retracées sous le nom de « Reste du monde » ou « Extérieur ».
1- Définition
Une opération économique est un acte par lequel un agent économique manifeste sa
participation à la vie économique.
De manière générale, un équilibre est une situation dans laquelle chaque acteur individuel
atteint au mieux son objectif particulier étant données les actions entreprises par les autres
acteurs et le contexte institutionnel qui les délimite. Exprimé autrement, un équilibre est une
situation dans laquelle aucun acteur individuel n’a d’intérêt particulier à modifier son
comportement.
A un système de prix d’équilibre, les décisions individuellement optimales des uns et des
autres sont par définition mutuellement compatibles. Pour chaque bien de l’économie, la
quantité totale de ce bien que souhaitent consommer l’ensemble des consommateurs est, à
l’équilibre, précisément égale à la quantité totale de ce bien produite et vendue par les
entreprises.
NB : L’insistance parfois trop importante que mettent les économistes sur les situations
d’équilibre n’est pas exempte de tout vice. En particulier, elle tend à occulter tous les
phénomènes de transition qu’entraîne le passage d’une situation d’équilibre à une autre.
L’étude du passage d’un équilibre à un autre est parfois appelée statique comparative. Comme
son nom l’indique, la statique comparative consiste en une comparaison de deux situations
(statiques) d’équilibre distinctes. La statique comparative répond ainsi à des questions de type
: qu’est-ce qui arrive à la consommation (d’équilibre) de sucre en poudre lorsque les revenus
des consommateurs augmentent ? Comment variera la quantité consommée (d’équilibre) de
véhicules à carburant diesel suite à une augmentation de la taxe actuellement prélevée sur ce
type de carburant ?, etc. Quand les micro économistes répondent à des questions de ce genre,
ils comparent deux situations d’équilibres : celle prévalant avant le changement examiné
(revenu dans un cas, taxe sur carburant diesel dans l’autre) et celle prévalant après le
changement.
Les économistes font apparaître des lois qui semblent gouverner le comportement des agents.
Une loi est fondée sur des hypothèses plus ou moins contraignantes qui représentent des
simplifications de la réalité. Hypothèses et lois permettent alors de construire des modèles qui
donnent une représentation théorique du fonctionnement de l’économie. Comme dans toute
démarche scientifique, les modèles sont confrontés aux faits : la validité d’une théorie repose
sur la capacité de ses conclusions à expliquer les faits.
4- Microéconomie et macroéconomie
4-1- Définition
L’analyse microéconomique relève de l’individualisme méthodologique et prend pour point
de départ l’analyse économique à l’échelle d’un agent. Elle choisit un agent type puis, pour
passer aux grandeurs globales, elle propose d’agréger les décisions individuelles. A l’inverse,
la macroéconomie s’intéresse aux relations entre les grandeurs globales. Donc, en
microéconomie, le point de départ est l’analyse à l’échelle d’un agent économique, tandis
qu’en macroéconomie il se situe à l’échelle de tous les agents économiques. Remarque : Les
Une décision macroéconomique peut par effet d’annonce avoir des conséquences au niveau
microéconomique.
NB : il est important de noter que la macroéconomie ne s’appuie pas toujours sur une théorie
particulière des comportements individuels. Par exemple, quand une entreprise décide seule à
son niveau de diminuer les salaires de ses employés pour augmenter ses profits, elle peut
atteindre ses objectifs. Par contre, lorsque toutes les entreprises décident de diminuer les
CONCLUSION
L’économie, en tant que science et en tant qu’art, est étudiée pour toute une série de raisons :
pour comprendre les problèmes qui se posent aux citoyens et aux familles ; pour aider les
gouvernements tant des nations avancés que des nations sous-développées à promouvoir une
forte croissance et à améliorer la qualité de vie, tout en évitant la dépression et l’inflation ;
pour analyser les modèles les plus caractéristiques de comportements social ; pour
comprendre et changer les inégalités de la répartition du revenu et des chances.
Associée à d’autres sciences humaines ou sociales – la psychologie, la sociologie, l’histoire,
la science économique utilise les méthodes déductives de la logique et de la géométrie et les
méthodes inductives faisant appel à l’observation statistique et empirique.
INTRODUCTION
L'histoire de la pensée économique examine les grandes théories économiques de manière
rétrospective. La réflexion économique apparaît chez les philosophes grecs (Aristote, Platon),
qui étudient l'économie domestique et la gestion de la cité. Au Moyen Âge, c'est la morale
chrétienne qui inspire la pensée économique (Saint Augustin, Saint Thomas d'Aquin). Entre le
XVI et le XVIIIe siècle, les mercantilistes, qui préconisent l'abondance de métaux précieux,
l'intervention de l'État et le développement de la population, rendent la réflexion économique
autonome, mais ne constituent pas encore un courant économique structuré. Au milieu du
XVIIIe siècle, les Physiocrates, avec François Quesnay, donnent une analyse économique
globale sous forme de circuit et peuvent être considérés comme des précurseurs. À partir de la
fin du XVIIIe siècle, de véritables analyses théoriques se développent, avec des économistes
dont les idées se rapprochent suffisamment pour pouvoir être considérés comme appartenant à
des « écoles de pensées ».
Par ailleurs, Platon envisage également un communisme intégral (et donc une société sans
propriété privée) qui passe par un strict contrôle « collectif » des pratiques et des relations
économiques. Lorsqu’il s’interroge dans Les Lois sur les cités possibles qui seraient à même
de se rapprocher de cet idéal, Platon y confirme que prospérité et richesse ne doivent pas être
une fin en soi et que les seules quêtes de ces cités doivent être la justice et l’harmonie sociale,
fondées sur le respect des vertus morales cardinales (sagesse, courage, justice, tempérance).
On voit ainsi la distinction entre les biens utiles à la vie, et les biens superflus. L’activité
économique doit donc se limiter à la satisfaction des besoins familiaux, et ne pas rechercher
l’enrichissement, sans quoi elle remet en cause l’ordre naturel. Aristote est le premier à définir
les trois fonctions monétaires : étalon des valeurs, moyen d’échange et réserve de valeur
(instrument d’épargne). De son point de vue, la monnaie est avant tout un « moyen »
d’échange. Puisque telle est sa nature, faire de la monnaie une finalité de l’activité
économique, une richesse en elle-même, est donc lui faire jouer un rôle contre-nature, et va
donc à l’encontre de l’ordre naturel. C’est donc par perversion que la monnaie est devenue «
principe et fin de l’échange commercial ». L’activité économique est donc condamnée dès
lors qu’elle s’écarte de la seule juste satisfaction des besoins familiaux ; l’enrichissement
(monétaire) est banni et la pratique de l’usure (bien souvent confondue avec celle de l’intérêt)
est également condamnée : faire payer un intérêt, c’est faire du profit avec la monnaie elle-
même, c’est encore une fois faire de la monnaie la finalité et non le moyen de la transaction,
alors qu’elle n’a pas été instaurée pour cet usage.
2- L’économie médiévale
L’économie au Moyen Age est dominée par la religion, par le dogme et la foi, essentiellement
dans la formulation qu’en a donné Saint Thomas d’Aquin (1226 - 1274) dans sa Somme
Théologique, qui s’inscrit parfaitement dans le prolongement d’Aristote. Elle est basée sur :
- la méfiance vis-à-vis de la richesse
On s’en tient à la parole biblique : « il est plus facile à un chameau de passer par le chas d’une
aiguille qu’à un riche d’entrer dans le royaume des cieux ».
la condamnation de l’usure
L’usure et l’intérêt étaient interdits condamnés (« tu ne prêteras point ton argent à intérêt, et tu
ne prêteras point tes vivres à usure ».
La loi de l’offre et de la demande est donc connue mais elle est rejetée comme immorale.
Le rôle de l’État
Pour les mercantilistes, l’État doit intervenir dans l’économie, car la meilleure manière de
garantir un commerce extérieur excédentaire est que l’État mette en place une politique
tarifaire protectionniste. Il doit ainsi favoriser les importations de produits de base et de
matières premières, et l’exportation de produits finis et manufacturés. Il doit au contraire
décourager, voire interdire les importations des produits finis et manufacturés et les
exportations de produits de base et de matières premières.
Plus généralement, ils réclament une intervention systématique de l’État dans tous les
domaines de la vie économique visant à pérenniser, protéger et développer l’activité des
marchands : établir des règlements qui protègent les métiers nationaux de la concurrence
extérieure, dicter des normes de fabrication très strictes afin d’évincer la concurrence
extérieure (protectionnisme de norme), adopter une politique fiscale qui n’écrase pas trop les
artisans, les marchands et les financiers, etc.
Le mercantilisme français
Il est principalement « industrialiste ». Il préconise l’enrichissement de l’État, mais est
surtout caractérisé, à partir de la fin du XVIe siècle, par l’accent mis sur la nécessité du
développement de l’artisanat et de l’industrie à l’intérieur du royaume. En outre l’État doit
donner l’exemple en créant des manufactures (usines). Il est représenté par des hommes tels
que Jean Bodin (15301596), Antoine de Montchrestien (1575-1621) ou Jean-Baptiste Colbert
(1619-1683).
Le mercantilisme anglais
Il fait l'apologie de l'enrichissement par le commerce en général et le commerce maritime en
particulier. En effet, les auteurs anglais recommandent diverses mesures dont : l'augmentation
des droits de douane, source de recettes pour l’État et en même temps moyen de réduction des
importations ; la subvention des exportations pour accroître la compétitivité de l'économie ;
l'accumulation de métaux précieux en vue d’augmenter la masse monétaire, de maintenir des
taux d'intérêt très faibles, de stimuler l’investissement et la production. Il est représenté par
Thomas Gresham (1519-1579), Thomas Mun (1571-1641), William Petty (1623-1687),
David Hume (1711-1776), Josiah Child (1630-1699), John Locke.
2- Les physiocrates
2-1- Définition
La physiocratie est une doctrine du XVIIIe siècle qui soutenait que la terre (c’est-à-dire
l’agriculture) était la seule source de richesse. Les physiocrates considéraient par ailleurs la
paysannerie comme la seule classe productive, les autres activités (industrie, commerce) étant
considérées comme stériles. La physiocratie est l’œuvre d’économistes français dont le chef
de file est le médecin François Quesnay (1694 -1774), auteur du tableau économique (1758).
1- Les classiques
Les économistes classiques sont contemporains de la révolution industrielle. L'appellation «
classique » est due à Karl Marx qui constate chez les différents auteurs de cette époque une
convergence de critères d'analyse : une même théorie de la valeur, une étude des rapports de
classe, une défense du libéralisme économique. Les principaux auteurs classiques sont :
Adam Smith (1723-1790), Recherche sur la nature et les causes de la richesse des
nations (1776) ;
Thomas Robert Malthus (1766-1834), Essai sur le principe de population (1798) ;
Jean Baptiste Say (1767-1832), Traité d'économie politique (1803) ;
David Ricardo (1772-1823), Principes de l'économie politique et de l'impôt (1817) ;
John Stuart Mill (1806-1873), Principes de l'économie politique (1848).
Cependant, Ricardo précise que le salaire naturel n'est pas absolument fixe et constant, mais
qu'il varie dans le temps et selon les lieux.
Le panier de biens qu'il permet d'obtenir dépend du contexte social. Les propriétaires fonciers
sont eux rémunérés grâce à la rente que leur procure la terre qu'ils louent. Or, pour accroître la
production agricole, il est nécessaire de mettre en culture des terres de moins en moins fertiles
(loi des rendements décroissants). Les récoltes réalisées sur ces terres sont moins importantes
que sur les premières, pour un même volume de travail. Il en résulte que le loyer de la terre est
moins élevé (sinon personne ne voudrait de ces terres), et les prix des produits agricoles plus
élevés. Par différence avec le loyer des terres les plus fertiles, on obtient la rente des
propriétaires terriens qui possèdent les meilleures terres.
Pour Ricardo, la hausse du salaire naturel consécutive à la hausse des prix des denrées
agricoles (puisque le salaire naturel se fixe au niveau du minimum de subsistance) grève les
profits des entrepreneurs. Il faudrait pouvoir payer le blé moins cher pour faire baisser le
salaire naturel. En ayant recours, par exemple, aux importations de blé en provenance de
l'étranger.
On retrouve cette idée dans le principe de la « main invisible » d'Adam Smith. Selon ce
principe, tout individu qui poursuit un intérêt purement individuel, voire égoïste, œuvre pour
l'intérêt collectif, ou la prospérité générale.
Pour Jean-Baptiste Say (1803), les crises générales de surproduction sont impossibles,
simplement parce que « les produits s'échangent contre les produits ». Cette « loi des
débouchés », ou loi de Say, a été reformulée par Keynes (1936) sous l'expression « l'offre crée
sa propre demande ». La production crée un montant de revenus distribués nécessairement
égal en valeur à cette production, puisque le prix d'un bien comprend des revenus distribués
aux salariés, aux autres producteurs auprès desquels l'entreprise s'approvisionne, aux
propriétaires de l'entreprise, voire à l'État sous forme d'impôts et taxes. Ces mêmes revenus
donnent lieu à une consommation et à une épargne.
L'épargne est intégralement investie car sinon son détenteur se priverait d'une rémunération
possible. Finalement, que cela soit sous forme de biens de consommation, ou de biens de
production, les revenus contribuent entièrement à une demande de biens auprès des
producteurs.
Si globalement la valeur des biens produits est égale à la valeur des biens demandés, il se peut
tout de même que des déséquilibres sectoriels apparaissent. Mais, si sur un marché l'offre est
supérieure à la demande, c'est qu'il existe nécessairement au moins un autre marché pour
lequel la demande est supérieure à l'offre. Dans ce cas, J.-B. Say montre que les mécanismes
de l'offre et de la demande conduisent à un rééquilibrage dans tous les secteurs, sans qu'une
intervention de l'État soit nécessaire.
Pour les économistes classiques en général, l'État doit se contenter de remplir ses fonctions
régaliennes (Police, Justice, Armée), même si l'on trouve déjà chez Adam Smith l'idée que
Enfin, Ricardo (1817) et Smith (1776), notamment, sont des partisans du libre-échange. Ils
montrent que chaque pays a intérêt à ouvrir ses frontières, et à se spécialiser dans les
productions pour lesquelles il est avantagé, car le total des richesses produites par l'ensemble
des pays en situation de libre-échange, est supérieur au total produit en autarcie. D'ailleurs,
Ricardo prône le libre échange pour favoriser l'importation en Angleterre de blé français.
L'abolition des corn laws en 1846 marquera la victoire du libre-échangisme sur le
protectionnisme. Favorisant la baisse du prix du blé, et donc du salaire naturel, l'ouverture des
frontières anglaises devait permettre aux capitalistes d'accroître leurs profits, donc leurs
investissements pour poursuivre la révolution industrielle.
En effet, l'exploitation est rendue possible par le fait que les prolétaires n'ont à vendre que leur
force de travail pour subsister, force de travail qui nécessite, pour être mise en œuvre, des
moyens de production détenus par d'autres, les bourgeois capitalistes. Ce qui distingue le
capitaliste du prolétaire c'est que seul le premier détient la propriété privée des moyens de
production. Si la journée de travail est de 8 heures et que 5 heures suffisent pour assurer
l'entretien de la force de travail (salaire fixé au minimum de subsistance), la plus-value
dégagée est donc de 3 heures.
L'appropriation de la plus-value constitue le fondement de l'exploitation des prolétaires par les
capitalistes.
Marx indique que la concurrence entre capitalistes conduit à l'achat de machines toujours plus
récentes parce qu'elles intègrent le progrès technique et plus productives (elles permettent de
produire plus de marchandises dans un même temps de travail). La loi de l'accumulation
(investir toujours plus de plus-value réalisée) amène à une suraccumulation de capital. Ainsi,
capital variable v. Il en découle une hausse de c qui conduit à faire baisser le taux de profit.
v
Les insuffisances de la théorie de la valeur travail, sur lesquelles butaient Ricardo et Marx eux
mêmes, ont conduit les auteurs néoclassiques à l'abandonner au profit de la valeur utilité que
l'on retrouvait déjà dans les écrits d'Aristote, mais aussi chez Richard Cantillon (1697-1734)
et Condillac (1714-1780). Ce qui fait la valeur d'un bien n'est pas la quantité de travail
nécessaire à sa fabrication, mais l'utilité qu'il procure à celui qui le consomme. Plus
précisément, la valeur d'un bien résulte de la dernière unité du bien consommée. Celle-ci est
décroissante à l'image de la satisfaction qu'apporte la consommation successive de crêpes : si
la première satisfait la gourmandise et la faim, la dixième risque d'écœurer et être source de
désutilité, ou insatisfaction. En somme, il faut distinguer l'utilité totale d'un bien (celle
procurée par les 10 crêpes mangées) qui est en général croissante, et l'utilité marginale (celle
apportée par la consommation de la dernière unité) qui est, elle, décroissante. Mais
Pour John Maynard Keynes, dans Essais sur la monnaie et l'économie, 1930 : « Le long terme
est un horizon peu intéressant. À long terme nous serons tous morts. Les économistes
n'apportent rien si, en pleine tempête, tout ce qu'ils trouvent à dire c'est qu'une fois l'orage
passé, la mer sera calme».
Si les idées keynésiennes ont longtemps inspiré les politiques économiques menées dans les
pays développés pendant les trente glorieuses, la crise des années soixante-dix a parfois
conduit à les contester.
2-1- Le monétarisme
Pour les monétaristes dont le chef de file est Milton Friedman, de l'École de Chicago, l'origine
de l'inflation est toujours monétaire. Par une reformulation de la théorie quantitative de la
monnaie, Friedman montre qu'il faut procéder à un contrôle strict de la masse monétaire en
circulation dans l'économie. Il conteste en outre l'efficacité des politiques keynésienne de
soutien de la demande. Selon lui, les ménages pensent que le supplément de revenu dont ils
bénéficient, à l'occasion de ces politiques, n'est que transitoire. Ne voulant pas s'habituer à un
niveau de consommation trop élevé, ils préfèrent épargner ce surcroît de revenu. L'effet sur la
demande est donc nul.
Pour sa part, la théorie des jeux permet de souligner que la poursuite d'intérêts individuels ne
conduit pas toujours à l'intérêt général, ou que l'équilibre obtenu n'est pas efficace au sens de
Pareto. Elle trouve une application dans la compréhension des décisions d'entreprise en
situation de concurrence imparfaite, comme dans la coordination internationale des politiques
économiques.
Au total, la nouvelle microéconomie s'éloigne du modèle purement libéral, elle modifie la
vision d'une économie régulée par la concurrence pure sur des marchés parfaits. Elle inspire
autant le courant de la nouvelle économie keynésienne que le courant de la nouvelle économie
classique.
INTRODUCTION
La croissance économique est une notion relativement récente dans l’histoire de l’humanité.
Elle constitue cependant le phénomène majeur qui va bouleverser les comportements
traditionnels des sociétés. L’étudier, c’est d’abord la présenter et comprendre les mécanismes
qui l’animent, mais c’est aussi prendre la mesure des mutations qu’elle entraîne tant sur le
plan économique que social.
PIBn PIBn1
TC 100
PIBn1
3- La croissance équilibrée
Les économistes parlent généralement de croissance équilibrée, c’est-à-dire d’une croissance
telle que le taux d’accroissement de l’offre soit égal à celui de la demande sur le marché des
biens et services. Les forces du marché seraient ainsi autorégulées, dès qu’une hausse des prix
apparaît, la demande diminue, et l’offre s’ajuste. Une croissance équilibrée satisfait les
conditions du carré magique : création d’emplois, faible niveau d’inflation, budget et balance
commerciale équilibrés.
Adam Smith (Recherches sur la nature et les causes de la Richesse des Nations, 1776),
met en évidence le rôle de la division du travail (surplus, marché, gains de
productivité) comme facteur de croissance. Cette division du travail se trouve
renforcée par la participation du pays au commerce international (théorie de l’avantage
absolu). L’optimisme de Smith apparaît à travers les traits d’une croissance illimitée
(elle dure tant que l’on peut étendre la division du travail et le marché) ;
Robert Malthus (Essai sur le principe de population, 1798) considère que la croissance
est limitée en raison de la démographie galopante. Il attribue la misère en Angleterre
au décalage entre deux lois : la loi de progression arithmétique des moyens de
subsistances et la loi de progression géométrique des populations. La sortie de cet état
passe par la mortalité, la baisse de la natalité et le célibat ;
David Ricardo (Des principes de l’économie politique et de l’impôt, 1817) souligne
que la croissance est limitée par la loi des rendements décroissants. La valeur ajoutée
se répartit entre trois agents : les propriétaires fonciers (rente foncière), les salariés
(salaire de subsistance) et les capitalistes (profit). Précisons que le profit des
capitalistes est résiduel, c’est-à-dire qu’il intervient une fois le salaire et la rente
foncière payés. Lorsque la population s’accroît, il convient d’augmenter la production
agricole, or les nouvelles terres mises en culture sont de moins en moins productives.
Le coût de production va donc s’élever, entraînant inévitablement la hausse des
salaires et de la rente foncière. Les profits vont se réduire jusqu’au moment où les
capitalistes ne seront plus incités à investir. L’économie atteint la situation d’état
stationnaire. Afin de retarder cette situation, Ricardo préconise d’augmenter les gains
de productivité dans l’agriculture grâce au progrès technique et de s’ouvrir au
commerce international (théorie de l’avantage comparatif) ;
Karl Marx (Le Capital, 1867) a été le premier économiste à proposer un modèle
formel de croissance, à l’aide de ses schémas de reproduction élargie. Il considère que
la croissance est limitée dans le mode de production capitaliste en raison de la baisse
tendancielle des taux de profit. En effet, la recherche d’une plus-value toujours plus
importante (notamment grâce à des salaires bas, que Marx appelle ‘‘minimum de
2- Les postkeynésiens
A la suite de la crise de 1929, de nombreux économistes inspirés par les travaux de J. M.
Keynes, vont s’interroger sur les possibilités d’une croissance équilibrée. Les modèles de
Domar et Harrod vont chercher à rendre compte des conditions et caractéristiques essentielles
de l’équilibre d’une économie capitaliste en croissance. Le point de départ de Domar est de
considérer que l’investissement exerce une double influence sur l’économie :
Dans un premier temps, il s’agit de l’effet revenu. A court terme, l’investissement
constitue une demande supplémentaire et entraîne une hausse des revenus via le
principe du multiplicateur. L’effet revenu associé à une augmentation de
l’investissement de I , est égal à I 1/ 1 c c’est-à-dire I 1/ s où s (1 c)
Robert Solow (Prix Nobel en 1987) attribue l’origine de la croissance par tête au montant de
capital technique investi (machines, équipements, logiciels, infrastructures…). Lorsque
l’investissement par tête dépasse le montant de la dépréciation du capital par tête existant,
chaque travailleur dispose d’un équipement plus performant et peut produire davantage.
Toutefois, lorsqu’on augmente le capital par tête, la production augmente, mais pas de façon
proportionnelle (c’est le principe des rendements décroissants). Ainsi à force d’augmenter le
capital par tête, va venir un moment où la production par tête augmentera moins vite que cela
ne coûte. La croissance par tête va cesser, c’est ce que Solow appelle l’état régulier. L’état
régulier dépend du coût relatif du capital. Si ce dernier diminue (un renchérissement du coût
du travail incitera les entreprises à substituer du capital au travail), alors l’investissement par
tête va augmenter de nouveau jusqu’à ce qu’un nouvel état régulier soit atteint.
Pour résoudre cette situation, Solow a dû imaginer l’intervention d’un autre facteur, le progrès
technique, pour expliquer la croissance à long terme. Ce facteur permet de produire plus. Il
est miraculeux car il engendre des externalités positives.
Pour Romer (1986), le changement technique provient d’une idée mise en forme et testée.
Cependant, entre l’émergence d’une idée nouvelle et sa mise en œuvre concrète, il peut y
avoir un très long chemin (test, essais-erreurs, etc) qui nécessite le concours de plusieurs
personnes. Bref des coûts de mise au point qui peuvent être très élevés. En revanche, une fois
ces étapes franchies, si l’idée est acceptée, le produit qui en résulte peut être multiplié avec un
coût bien moindre (ainsi le premier disque compact, le premier ordinateur ont nécessité des
efforts colossaux de la part de ceux qui les ont mis au point, cependant leur reproduction à
l’identique a été beaucoup plus facile). Le propre des idées qui provoquent des changements
techniques, est qu’une fois les plâtres essuyés, elles donnent naissance à des rendements
croissants (les exemplaires suivants coûtent beaucoup moins chers), voire fortement croissants
(duplication d’un logiciel). Si bien que pour celui qui s’est efforcé de transformer l’idée en
produit, le risque existe que des concurrents en profitent et que lui ne récupère jamais son
investissement initial, alors que ces concurrents s’enrichissent. Des droits de propriété
intellectuelle limiteront ce risque : brevets ou copyright protègent l’inventeur qui dispose d’un
monopole d’exploitation (limité dans le temps) sur l’œuvre ou le produit tiré de son travail. Le
changement technique sera d’autant plus intense que les innovateurs espèreront en tirer un
profit important.
Le capital physique, c’est l’équipement dans lequel investit une entreprise pour la production
de biens et de services. Romer (1986) a cependant renouvelé l’analyse en proposant un
modèle qui repose sur les phénomènes d’externalités entre les firmes : en investissant dans de
nouveaux équipements, une firme se donne les moyens d’accroître sa propre production mais
également celles des autres firmes concurrentes ou non. L’explication donnée à ce
phénomène réside dans le fait que l’investissement dans de nouvelles technologies est le point
de départ à de nouveaux apprentissages par la pratique. Parmi les formes d’apprentissage, on
peut citer l’amélioration des équipements en place, les travaux d’ingénierie (agencement des
Le capital humain a été mis en évidence par deux économistes de l’École de Chicago,
Theodor Schultz et Gary Becker, et est au centre des études menées par R.E Lucas (1988). Le
capital humain désigne l’ensemble des capacités apprises par les individus et qui accroissent
leur efficacité productive. Chaque individu est en effet, propriétaire d’un certain nombre de
compétences, qu’il valorise en les vendant sur le marché du travail. Dans ce schéma,
l’éducation est un investissement dont l’individu attend un certain retour. Il est alors naturel
de souligner que la tendance plus que séculaire dans les pays occidentaux à un allongement de
la durée moyenne de la scolarité est une cause non négligeable de la croissance.
Dans ce contexte, il pourra incomber à l’État de créer des structures institutionnelles qui
soutiennent la rentabilité des investissements privés et de subventionner les activités
insuffisamment rentables pour les agents économiques et pourtant indispensables à la société.
5- L’École de la régulation
La théorie de la régulation est une théorie économique qui tente d’expliquer le passage de la
croissance à la crise, sans invoquer de chocs externes. A partir des travaux fondateurs de
1-3- Le décollage
Durant la phase de décollage, la société finit par renverser les obstacles économiques,
sociaux, culturels et politiques qui s’opposaient à son émancipation. Dès lors, la croissance
devient une fonction normale de l’économie. D’une manière générale, la cause du décollage
fût essentiellement d’ordre technologique. L’économie n’a pu démarrer que lorsqu’un capital
social s’est constitué et que le progrès technique est passé de l’agriculture à l’industrie. Cette
croissance est avant tout quantitative, elle se traduit par une hausse des taux d’investissement
et d’épargne réels (de 5% à 10%). Les capitaux étrangers ont constitué une grande proportion
des investissements réalisés. La mécanisation et l’industrialisation se développent rapidement
grâce au réinvestissement des profits, elles entraînent avec elles, l’essor des services et
stimulent la demande. La classe des entrepreneurs s’élargit.
Dans leur ouvrage « Abrégé de la croissance française », Carré, Dubois et Malinvaud ont
montré qu’une partie significative de la croissance économique française s’expliquait non par
l’augmentation des quantités de facteurs de production utilisés, mais par l’introduction du
progrès technique. Alors que le taux de croissance de l’économie française avait été de 5,2%
par an de 1951-1973, les contributions des facteurs travail et capital étaient respectivement de
0,55% et 1,55%. Le progrès technique expliquerait à lui seul plus de 3% de cette croissance.
Le progrès technique joue en effet un double rôle sur la croissance économique. Il stimule la
demande (création de nouveaux biens et nouveaux besoins, amélioration des produits arrivés à
maturité ou en déclin). Il stimule l’offre (amélioration de la productivité des équipements,
meilleure organisation du travail) tout en modifiant l’utilisation des facteurs de production. Il
contribue, d’une part à la substitution du travail qualifié au travail non qualifié (l’introduction
de machines plus sophistiquées nécessite des niveaux de qualification plus élevés, on observe
Madison (1994, 2001) a proposé une étude de la croissance et de la productivité du travail sur
longue période (1870-1998). Sur ces presque 130 années, la production par emploi a été
multipliée par un facteur d’environ 12 en France et 8,5 aux États-Unis. Compte tenu de la
baisse de la durée moyenne du travail sur la période, les gains de productivité sont près de
deux fois plus importants en termes horaires : la production par heure travaillée a été
multipliée respectivement par environ 24 et 15,5.
Il distingue cinq grandes phases : une première phase correspond à la première révolution
industrielle (1820-1870) durant laquelle l’Europe et les pays neufs (États-Unis, Canada,
Australie, Nouvelle Zélande) réalisent plus de la moitié de la croissance mondiale ; une phase
plus diffuse (1870 – 1913) ; une période de ralentissement (1913-1945) ; les trente glorieuses
(1945-1973), soit l’âge d’or de la croissance pour les pays occidentaux ; enfin une phase de
ralentissement dans les anciens pays industrialisés (à partir des années 80).
CONCLUSION
La croissance économique est un phénomène accompagné généralement de changements
structurels. Elle se distingue des notions telles que l’expansion, le progrès et le
développement. Depuis la révolution industrielle, la croissance a fortement contribué à
l’amélioration des conditions de vie des populations. Toutefois ces dernières décennies, les
mécontentements nés des catastrophes environnementales (écologiques et spatiales) lui sont
en partie imputables. La théorie de la croissance endogène met l’accent sur quatre facteurs qui
influencent le taux de croissance économique : les rendements croissants grâce aux gains
d’échelle ; l’intervention de l’État, notamment par l’investissement dans les infrastructures ; la
recherche-développement ou l’innovation et la connaissance ou capital humain qui
s’accumule.
INTRODUCTION
Le marché du travail est le lieu théorique de rencontre entre l'offre de travail et la demande de
travail. L'offre de travail émane des travailleurs qui proposent leur force de travail, alors que
la demande de travail provient des entreprises qui ont besoin de la force de travail pour
produire. La demande de travail constitue l'offre d'emplois, alors que l'offre de travail
représente la demande d'emplois. On peut ainsi considérer l'offre de travail comme l'ensemble
des capacités physiques et intellectuelles que les hommes mettent en œuvre pour produire des
biens et services nécessaires à leurs besoins. La demande de travail, ou offre d'emplois,
représente l'ensemble des activités rémunérées proposées par les agents économiques
producteurs de biens et services.
Deux types de déséquilibres se rencontrent sur le marché du travail : la pénurie d'emplois ou
la pénurie de main d'œuvre. Toutefois, le déséquilibre majeur de ces dernières décennies, sur
le marché du travail, est le chômage. Lorsqu'il se prolonge, il débouche sur l'exclusion d'une
partie des travailleurs : ils n'ont plus accès à l'emploi tant la suspicion d'improductivité qui
pèse sur eux est forte. En outre, le chômage conduit les agents économiques à faire des
prévisions pessimistes, en matière de consommation et d'investissement, prévisions qui
rejaillissent sur l'activité économique et le niveau de l'emploi. Lutter contre le chômage
devient une nécessité sociale et économique. Au préalable, il faut en connaître les causes.
1- L’offre de travail
La contribution du facteur travail peut s'expliquer par une plus grande utilisation de celui-ci
(aspects quantitatifs) ou par une efficacité accrue (aspects qualitatifs).
Productivité du travail
2- La demande de travail
2-1 L'évolution des emplois
Les emplois proposés par les entreprises sont de plus en plus des emplois de types particuliers
: on parle de formes particulières d'emploi, ou encore de formes précaires d'emplois (FPE).
Les FPE concernent l'ensemble des emplois qui ne sont pas des contrats à durée indéterminée
(CDI), c'est-à-dire des emplois marqués par l'absence de relation stable et durable entre
employeur et salarié.
Le chômage, au sens du BIT, est la situation des personnes en âge de travailler qui sont sans
emploi, à la recherche d'un emploi, et disponibles pour occuper un emploi. Il convient de
préciser que la définition indique que seul le travail rémunéré est pris en compte (dans le
cadre d'une activité salariée ou non salariée, c'est-à-dire indépendante). Le chômage se
caractérise non pas par une absence de travail, mais par une absence d'emploi rémunéré.
Taux de chômage =
On peut par ailleurs déterminer la part du chômage, qui est un indicateur qui rapporte le
nombre de chômeurs à la population totale (et non plus seulement aux actifs).
NB : L’étude des taux de chômage n’est pas suffisante pour comprendre l'ampleur du
chômage. Elle doit être complétée par des analyses plus fines, prenant en compte les flux
d’entrée et de sortie du chômage. On détermine à cet effet des indicateurs de fluidité tels que :
La vulnérabilité est le risque de tomber au chômage. Elle est mesurée par le rapport du
nombre de personnes au chômage depuis moins d'un mois à la population active occupée.
NB : Les jeunes se caractérisent par une forte vulnérabilité, mais aussi par une forte
employabilité, tandis que les travailleurs âgés s'illustrent quant à eux par une faible
vulnérabilité et une faible employabilité.
Le chômage a fortement augmenté depuis le milieu des années 1970. Toutefois, certaines
catégories sont clairement plus touchées que d’autres (les femmes, les jeunes, les non
diplômés et, parmi les catégories socioprofessionnelles, les ouvriers et les employés - Source
INSEE). Pour les chômeurs de longue durée, la situation est particulièrement difficile car la
probabilité de retrouver un emploi est faible. Au-delà du chômage, la croissance du sous-
emploi passe aussi par le développement des emplois précaires et du temps partiel. Le risque
de chômage diminue à mesure que le niveau de diplôme s’élève.
Au total, le chômage sur le marché du travail n'existe pas puisque l'offre et la demande
s'ajustent et déterminent un prix, le salaire réel pour lequel les individus arbitrent leur temps
en faveur des loisirs. Il ne peut y avoir que du chômage volontaire au sens où, pour un salaire
donné, les individus préfèrent l'oisiveté au travail. Selon Arthur-Cécil Pigou (1933), le
chômage est volontaire car il résulte de travailleurs qui n'acceptent pas de salaires réels plus
faibles.
3- Le chômage involontaire
On peut dire qu'il existe du chômage involontaire, en référence à la théorie classique, s'il
existe des individus prêts à travailler pour un salaire inférieur à celui du marché du travail,
pour une qualification équivalente, et qui ne trouvent pas d'emploi.
Le chômage keynésien est celui qui résulte d'une insuffisance de la demande effective, c'est-
à-dire de la demande globale anticipée. Si les entreprises font des anticipations pessimistes,
elles investissent moins et embauchent moins, contribuant de fait à une faible progression de
la demande, et donc à un accroissement du chômage. Les débouchés pour une entreprise
dépendent des revenus versés par les autres entreprises, c'est-à-dire des anticipations faites par
ces autres entreprises sur l'évolution de la demande. En somme, la demande effective chez
Keynes (ou demande globale anticipée) est le résultat des décisions de production de toutes
les entreprises sachant que chacune décide en anticipant la décision des autres...
Bien entendu, si elles font toutes des anticipations optimistes, les effets sur l'emploi sont
positifs. On comprend pourquoi les effets d'annonce des gouvernements sont essentiels pour
influencer les anticipations des ménages, et donc des entreprises : répéter inlassablement que
Le salaire d'efficience est le niveau optimal de salaire qui permet d'atteindre la productivité
maximale du travail de celui qui le perçoit. Comme la baisse des salaires serait source de
démotivation, il convient de maintenir leur niveau. Ce faisant, les salaires versés dans les
entreprises sont supérieurs au salaire d'équilibre, sur le marché du travail néoclassique, qui
garantirait la résorption du chômage. Dans tous les cas, il existe donc des individus qui
souhaiteraient travailler pour un salaire inférieur à ceux pratiqués par les entreprises et qui ne
trouvent pas d'emploi, il s'agit de chômeurs involontaires.
Mais le salaire d'efficience prend aussi sa source dans la théorie des incitations (théorie qui
étudie la manière d'inciter les agents à se comporter d'une manière attendue). La théorie des
incitations repose sur le modèle Principal/Agent (ou Mandant/Mandataire) de la théorie de
l'agence, avec asymétrie d'information : le principal est moins informé que l'agent qui dispose
d'informations privées sur ses propres actions. Malheureusement, la satisfaction du principal
dépend de l'information cachée de l'agent. Il s'agit donc de lui proposer des contrats de travail
Enfin, Shapiro et Stiglitz (1984), dans le modèle dit du « tire-au-flanc », ont lié la théorie du
salaire d'efficience au risque moral, ou encore aléa moral. Au moment de l'embauche,
l'entreprise ne peut pas toujours détecter avec précision les individus « paresseux », en raison
de l'asymétrie d'information qui existe entre le recruteur et le recruté : seul ce dernier sait s'il
est un « tire au flanc » ou non... En leur proposant un salaire supérieur à celui qu'ils pourraient
trouver sur le marché du travail, l'entreprise va encourager les salariés à maintenir à un niveau
élevé leur effort productif. En effet, adopter un comportement de « tire au flanc » ne serait pas
rationnel car les risques d'être détecté et licencié existent, avec la certitude de ne pas trouver
un emploi aussi bien rémunéré ailleurs.
Cependant, si toutes les firmes raisonnent ainsi, elles vont toutes choisir des salaires voisins et
aucune ne se distinguera des autres (le différentiel de salaire incitatif disparaît). De toutes les
façons, les salaires fixés dans les entreprises demeurent supérieurs à celui du marché du
travail concurrentiel, ce qui engendre un chômage involontaire durable.
Par conséquent, on observe de nouveau, en période de chômage, des individus qui sont prêts à
travailler à un salaire inférieur à celui que versent les entreprises à leurs employés, et qui ne
trouvent pas d'emploi. Il s'agit là encore d'une forme de chômage involontaire. En
complément, le modèle des contrats implicites peut s'envisager en raisonnant sur la
productivité des travailleurs. Au début de l'embauche, leur productivité est faible en raison
d'une période nécessaire à l'apprentissage, à la familiarisation avec l'organisation et les
procédures de l'entreprise. Ils perçoivent un salaire qui serait donc supérieur à leur
productivité réelle (ils reçoivent une « indemnité »). Cette productivité s'accroît dans le temps
grâce à l'expérience, sans que leur salaire soit pour autant modifié (ils versent une « prime »).
Ce marché secondaire regroupe surtout des entreprises de petite taille pour lesquelles les
recrutements se font surtout en externe (marché externe du travail). On remarque que la
mobilité entre les deux secteurs est réduite, et que le dualisme s'observe à l'intérieur même des
A priori, on pourrait penser que le marché secondaire fonctionne selon un mode concurrentiel,
alors que le marché primaire serait imparfait. Toutefois, les chômeurs ne sont pas «
volontaires» car ils accepteraient de toute évidence un emploi du secteur primaire, même à un
taux de salaire inférieur à celui que proposent les firmes, y compris sur le marché secondaire.
Selon Lindbeck et Snower, un conflit oppose non pas les employeurs et les employés, mais
les insiders (qui disposent d'un emploi dans la firme) et les outsiders (les chômeurs), les deux
catégories étant définies par rapport à une entreprise donnée. Moins les insiders sont
nombreux plus ils peuvent obtenir, par l'intermédiaire des syndicats, des salaires élevés
pénalisant ainsi la création d'emplois et donc l'embauche des chômeurs. On peut alors
expliquer l'hysthérèse du chômage, ou effet d'hystérésis (persistance d'un phénomène après
que les causes qui en étaient à l'origine ont disparu), selon Blanchard et Summers (1986). En
effet, plus le nombre de chômeurs (outsiders) est important, plus le nombre d'insiders est
faible, plus les salaires négociés sont élevés, moins le nombre d'emplois créés est grand.
L'effet d'hystérésis peut aussi s'expliquer, notamment pour les chômeurs de longue durée, par
la théorie du capital humain. Une longue période d'inactivité conduit à une perte de capital
humain pour les chômeurs (perte d'expérience, inadaptation aux nouvelles techniques et
technologies) qui les rend encore moins employables. Des actions de formations sont rendues
nécessaires pour reconstituer le capital humain des chômeurs de longue durée.
Les théories de la négociation partent de la réalité de la fixation des salaires : les contrats de
travail résultent en grande partie de conventions collectives, et sont donc négociés entre les
institutions représentatives (syndicat/patronat). Les salariés trouvent un intérêt à l'action
syndicale dès que celle-ci élève le salaire au-delà de leur salaire de réserve (ou salaire de
La défense d'un niveau de salaire au-delà du salaire d'équilibre sur le marché du travail, par
les syndicats, conduit à réduire le nombre d'emplois proposés par les entreprises, donc à la
pérennisation du chômage. C'est ce que met en évidence le modèle des droits à gérer de
Nickell (1982) : les négociations entre firmes et syndicats ne portent que sur le niveau des
salaires (l'emploi est déterminé unilatéralement par la firme). Dans ce cas, le salaire est
d'abord négocié entre firme et syndicat, puis la firme détermine le niveau de l'emploi en
égalisant salaire et productivité marginale. Ainsi, toute hausse du pouvoir de marchandage du
syndicat entraîne une hausse du salaire négocié et donc une baisse de l'emploi. L'action
syndicale serait donc défavorable à l'emploi. On constate que ce type d'analyse remet
violemment en cause l'existence même des syndicats : ils seraient non seulement inutiles,
mais aussi néfastes pour les chômeurs.
La flexibilité du salaire réel permet de réguler les déséquilibres sur le marché du travail. Les
interventions publiques sont, dans cette optique, source de rigidités et donc de chômage. Le
salaire minimum, les allocations chômage et le contrôle des licenciements conduisent à un
salaire réel supérieur au salaire d’équilibre. La lutte contre le chômage passe par la
restauration des mécanismes concurrentiels sur le marché du travail.
V*
U* U
CONCLUSION
Comprendre et cerner le phénomène du chômage a fait dire à Bernard Gazier, spécialiste de
l'économie du travail, qu'il s'agissait d'aller « de la mesure du flou au flou de la mesure ». La
définition et la mesure sont arbitraires et ne règlent pas totalement le problème du chômage :
les frontières entre 1'emploi, l'inactivité et le chômage ne sont pas clairement identifiées. Les
causes du chômage sont multiples. On peut cependant recenser des causes conjoncturelles,
INTRODUCTION
Si la hausse des prix est un phénomène ancien, l’usage du terme inflation est récent ; les
dictionnaires économiques du XIXe siècle ne le mentionnaient pas encore. Ce n’est qu’au
début du XXe siècle, notamment au sortir de la première guerre mondiale, que le mot est
apparu, et signifiait une hausse abusive de la quantité de monnaie.
La maîtrise de l’inflation est un des éléments du carré magique de Kaldor, c’est à dire un des
quatre objectifs majeurs de la politique économique au même titre que la croissance, le plein
emploi et l’équilibre extérieur. A ce titre, la stabilité des prix est recherchée. Pourtant, les
objectifs en termes d’inflation ont évolué au cours du temps.
Pendant les années 1950 et 1960, l’inflation était tolérée, c’était un moindre mal. Dans les
années 1980 et 1990, elle était combattue avec vigueur par les banques centrales. Depuis la
crise de 2008, plusieurs banques centrales ont pratiqué des politiques d’abondance monétaire,
allant même jusqu’à monétiser la dette publique, ce qui peut laisser craindre un retour futur de
l’inflation. Comment expliquer alors ces changements d’attitude ? L’inflation serait-elle
devenue bienfaisante ou moins néfaste ? Nous répondrons à toutes ces questions dans ce
chapitre. Après avoir défini l’inflation, nous présenterons les causes, les conséquences ainsi
que les moyens mis en œuvre pour lutter contre l'inflation.
2- La déflation
Elle se définit comme la baisse du niveau général des prix. Elle est généralement associée à
une récession, c’est-à-dire à une diminution du produit intérieur brut. Il s'agit du phénomène
inverse à celui de l'inflation. La plupart du temps, elle est associée à une récession
économique avec une hausse du chômage.
La déflation n'est pas un phénomène souhaitable en économie car elle témoigne d'une
difficulté à écouler la production et d'une insuffisance de la demande. Elle signifie
concrètement moins d’entrées d'argent, moins de revenus donc de croissance et plus de
chômage. Ce phénomène s’est produit pendant la grande dépression des années 30. On
désigne par politique déflationniste une politique qui vise à contracter la demande globale par
une baisse des salaires par exemple pour baisser les coûts et les prix.
3- La désinflation
C’est la baisse du taux d’inflation : le niveau général des prix augmente toujours mais à un
rythme moins important qu’auparavant.
Exemple : si l’inflation passe de 10% à 7% puis à 4%, le niveau général des prix augmente
toujours mais à un rythme moins rapide.
4- L’hyperinflation
Elle est définie par un taux d’inflation d’au moins 50% par mois (soit un taux annuel
supérieur ou égal à 12 975%). Par exemple une hyperinflation a été observée entre 1921 et
1925, parallèlement dans quatre (4) pays : l’Allemagne, l’Autriche, la Hongrie et la Pologne,
où elle s’est caractérisée par une évolution de la masse monétaire et du niveau des prix.
5- La stagflation
Elle désigne une période au cours de laquelle on observe de manière concomitante une
inflation élevée et un ralentissement de la croissance économique accompagné d’une hausse
du chômage. Caractéristique de la situation du début des années 70, précisément après le
premier choc pétrolier (1973), le phénomène de stagflation remet en cause les théories de
Phillips qui établissaient une relation inverse entre le taux de chômage et le taux d'inflation.
1- Formule de calcul
L’indice des prix à la consommation est un indice de Laspeyres des prix. Il mesure l’évolution
du niveau moyen des prix d’un « Panier de provisions » dont la composition est gardée
identique à celle de la période de base.
q p
Il se détermine de la manière suivante : I t /0 ( p) 100
0 t
q p
0 0
2- Application
Les mesures en 2003 et en 2005 des prix unitaires et des quantités consommées des articles
A, B, C et D sont données dans le tableau ci-après :
A 5 10 7 80
B 20 12 30 25
C 10 50 12 90
D 3 20 4 200
I 2/0
q Q2
j
0
j
100
q Q0
j
0
j
Il peut être comblé par la hausse des prix ou par une hausse de la production.
Pour le courant keynésien, l’inflation est le résultat plus ou moins inéluctable de la croissance
économique et des hausses de salaires qu’elle engendre. L’inflation par les coûts rejoint donc
l’idée d’inflation de croissance. La croissance exerce une pression sur les ressources
disponibles, et notamment une hausse des salaires, d’où la hausse de la demande et des coûts,
ce qui peut faire apparaître une spirale inflationniste.
Michel Rocard, dans L’inflation au cœur, 1975, adoptait ce type d’analyse : « L’économie
française serait passée d’une économie de concurrence à une économie de domination. Or, en
économie de domination, le prix de vente qui était l’arbitre de l’économie de concurrence
devient une variable dominée par l’entreprise, et fixée par l’entreprise elle-même en fonction
de ses critères propres ».
L’inflation arbitre en quelque sorte le fonctionnement social. Christian Goux, 1972, explique
l’inflation par l’affrontement entre salariés et entrepreneurs ; les premiers défendent leur
niveau de vie tandis que les seconds leurs profits nécessaires à l’investissement. Pour Marx,
l’inflation est le résultat d’un conflit entre patrons et salariés, mais aussi le moyen
d’augmenter les profits. Plus la masse des capitaux engagés est élevée, plus le prix des
produits doit être élevé pour financer et rentabiliser cette accumulation du capital. En outre, la
concentration des entreprises pousse au monopole et à la hausse des prix. On ne peut ici citer
toutes les explications structurelles de l’inflation tant elles sont nombreuses.
Pour terminer, on peut mentionner celle de Charles Levinson, L’Inflation mondiale et les
Firmes multinationales, 1976, pour qui l’inflation est due aux FMN qui ont un pouvoir
excessif, elles ont souvent une situation d’oligopole ou de monopole, elles ont la possibilité de
se soustraire aux mesures anti-inflationnistes prise dans tel ou tel pays en jouant sur leurs
Le débat sur les conséquences de l’inflation est complexe. Tous les économistes s’entendent
pour voir dans l’hyperinflation un mal absolu. Les débats sont plus vifs, en revanche, dès lors
que les taux d’inflation restent raisonnables. Pour certains, l’inflation est nécessaire car elle
serait un « lubrifiant » indispensable au bon fonctionnement de l’économie alors que, selon
d’autres, combattre les tensions inflationnistes est une priorité pour les politiques
économiques.
La charge de remboursement d’un emprunt à taux fixe devient moins lourde dans un contexte
de hausse des prix. L’inflation diminue le coût réel de l’endettement en fonction de la
différence entre le niveau des taux d’intérêt nominaux et le niveau général des prix. Ainsi
l’inflation favorise les agents structurellement endettés comme l’État et les entreprises. Par
ailleurs elle améliore, « toutes choses égales par ailleurs », la rentabilité financière des
entreprises. En effet, en période d’inflation, les entreprises sont d’autant plus incitées à
recourir au financement externe que leurs taux de profit internes sont supérieurs au taux
d’intérêt des capitaux empruntés. Une telle situation élève la rentabilité de leurs fonds propres
(effet de levier). Les entreprises se trouvent ainsi stimulées par les perspectives de gains et
incitées à investir. L’inflation induit donc une croissance de la production et de l’emploi.
D’après la courbe de Phillips, qui établit une relation inverse entre l’inflation et le chômage,
un haut niveau d’emploi apparaît compatible avec un taux d’inflation élevé. L’inflation peut
aussi favoriser le crédit à la consommation et, donc, la consommation. L’effet peut être
amplifié si les ménages anticipent l’inflation (ils préfèrent acheter aujourd’hui des produits
qu’ils paieraient plus cher demain).
Ces effets positifs pour la croissance économique peuvent toutefois être contrebalancés par
des évolutions défavorables.
Cependant, ces prévisions sont rarement parfaites ; par ailleurs, elles conduisent le plus
souvent à accentuer les tensions inflationnistes. Certains considèrent pourtant que l’inflation
permet d’atténuer les tensions autour du partage de la valeur ajoutée. En effet, dans une
économie en croissance, il est normal que les prix relatifs évoluent (en fonction des gains de
productivité et des déséquilibres entre l’offre et la demande). L’inflation permettrait de
dissimuler ces évolutions et de les rendre plus acceptables, dans la mesure où tous les prix et
revenus augmentent.
En économie de marché, les prix relatifs doivent refléter les raretés relatives afin d’orienter les
agents économiques dans l’allocation de leurs ressources.
L’inflation bouleverse les prix de telle sorte qu’ils ne reflètent plus les fondamentaux de
l’économie. Les entreprises ne sont plus à même d’anticiper correctement l’évolution de leurs
coûts et de leurs recettes. Cela complique dangereusement l’évaluation de la rentabilité de
certaines stratégies, de l’investissement en particulier. On aboutit à des comportements
attentistes (des projets rentables ne sont pas entrepris par peur du risque) ou, au contraire, à
des investissements dont la rationalité économique n’est pas assurée mais dont la rentabilité
est artificiellement poussée à la hausse en raison de la baisse du poids réel des dettes. Dans les
périodes suivantes, les capacités de production risquent de ne pas correspondre à l’état de la
demande et de contraindre les entreprises à des ajustements brutaux. La croissance devient
plus chaotique et incertaine.
Elle est un fondement des politiques de relance menées dans les années 1960 (à l’image des
politiques de «stop and go» en Grande-Bretagne) : lorsque le chômage atteint un niveau jugé
insupportable, l’État relance l’activité au risque d’une accélération de l’inflation ; lorsque
celle-ci menace l’équilibre extérieur et la stabilité de la monnaie, une politique restrictive est
engagée pour enrayer l’inflation au prix d’une hausse du chômage.
Dans ce cas, l’État peut agir sur l’inflation en réduisant la demande, c’est-à-dire le revenu
disponible des ménages. Pour cela, l’État doit réduire le déficit budgétaire en réduisant les
dépenses publiques (baisse des allocations, réduction du nombre de fonctionnaires,
ralentissement du programme de travaux publics,…) et en accroissant la pression fiscale
(TVA, IGR,…).
La réduction du déficit budgétaire (baisse des dépenses et hausse des impôts) permet d’agir
directement sur le niveau de la demande globale.
Le recours à l’emprunt sur les marchés financiers plutôt que le financement monétaire pour
couvrir le déficit budgétaire s’est par ailleurs généralisé dans la majorité des pays de l’OCDE.
Cette politique vise à fixer des normes de progression des revenus compatibles avec la
stabilité des prix. En théorie, les salaires doivent progresser en fonction des gains de
productivité. Dans la pratique, ces politiques ont toutefois cherché à protéger le pouvoir
d’achat des salariés, et les salaires ont été indexés sur l’inflation. Ces indexations favorisaient
les anticipations inflationnistes; c’est pourquoi elles ont été supprimées dans tous les pays de
l’OCDE à partir des années 1980. Les politiques de revenus représentent par ailleurs une
intrusion de l’État dans le mécanisme de répartition primaire. Cette intrusion est peu
appréciée des économistes libéraux, qui estiment que seuls les mécanismes de marché
permettent d’aboutir à une répartition optimale des revenus.
Inspirée par les analyses de l’économie de l’offre dans les années 1980 (Laffer, Gilder et
Stigler), elle vise à lutter contre les entraves à la concurrence en vue de limiter les marges de
manœuvre en matière de prix. Elle repose sur le démantèlement des monopoles, notamment
dans les services publics en réseaux (téléphonie, électricité, gaz, transports). Les opérations de
concentration risquant de déboucher sur des positions dominantes sont écartées. Les ententes
en matière de prix et de répartition des marchés sont interdites et condamnées.
L’État peut donc s’efforcer de restaurer les lois du marché en permettant que se développe la
concurrence, facteur de baisse des prix (lutte contre les ententes, les abus de position
dominante).
Cet instrument a été fréquemment mobilisé, en France, au cours des « Trente Glorieuses ». Il
permet de stopper momentanément l’augmentation des prix. Cependant, il agit sur les
symptômes et pas sur les causes. La sortie du blocage des prix peut être l’occasion de
phénomènes de rattrapage et, donc, d’un redémarrage de l’inflation.
CONCLUSION
L’inflation a depuis longtemps constitué un problème majeur de déséquilibre macro-
économique. Elle modifie la répartition initiale des revenus et favorise les agents endettés au
détriment de ceux qui détiennent des revenus fixes. Elle est source de déséquilibres extérieurs
et de blocages de la croissance car elle fausse l’allocation des ressources. Elle est longtemps
apparue comme un moindre mal pour favoriser la croissance économique et l’emploi. Cette
capacité à arbitrer entre l’inflation et le chômage a été remise en cause par les économistes
monétaristes.
INTRODUCTION
Le phénomène de l’endettement est une conséquence naturelle des activités économiques. Il
survient du fait que certains pays ou institutions ont des excédents financiers et d’autres des
besoins de financement. L’endettement permet donc à un pays d’investir des capitaux au-delà
de ses propres disponibilités financières en empruntant des excédents de capitaux. La dette
ainsi créée est supposée générer la croissance et favoriser le développement. Toutefois, pour
générer des ressources et pouvoir rembourser l’emprunt, ce dernier doit être utilisé de manière
efficace et dans des secteurs productifs. Aussi, dès le lendemain de leur indépendance et dans
la perspective de parvenir au développement économique et social, les pays africains se sont
rendus compte que les infrastructures d’équipement et de production déjà en place étaient
insuffisantes pour amorcer un quelconque décollage économique. L’écart entre le besoin
d’investissements nécessaires et les ressources disponibles était énorme. C’est pourquoi la
plupart de ces pays ont dû s’appuyer sur un fort endettement qu’ils doivent désormais gérer,
l’augmentation des besoins ayant très vite dépassé les capacités de financement.
Le Club de Paris est un groupement des principaux États créanciers, dont la présidence et le
secrétariat sont assurés par le trésor français. Le Club de Londres est quant à lui le cadre de
négociation entre gouvernements débiteurs et banques créancières.
1- Causes exogènes
1-1- La crise pétrolière de 1973
En 1973 le premier choc pétrolier avec le renchérissement du pétrole qu'il comportait a été
l'un des facteurs déterminants de l’endettement des pays. Parmi les pays importateurs de
pétrole, ceux qui étaient suffisamment riches et qui pouvaient par conséquent obtenir du crédit
auprès des banques, ont évité de réduire leur niveau de vie suite à la détérioration des termes
de l'échange. Ils ont réglé la note pétrolière accrue en faisant des emprunts. Pour leur part, les
pays de l'OPEP ont déposé leurs excédents commerciaux auprès des banques. C'est ainsi que
se sont développés les « euromarchés ». Les banques internationales qui ont reçu cette manne
pétrolière l’ont prêté aux autres pays qui l'utilisaient pour financer leurs importations de
pétrole. C'est ce qu'on a appelé le recyclage des pétrodollars.
En plus des pays riches, les banques privées ont également accordé des crédits importants aux
« nouveaux pays industrialisés » (NPI) comme le Brésil, l'Argentine, le Mexique, la Corée du
Sud et quelques autres qui représentaient pour ces banques des débouchés réels à cause de
leurs taux de croissance impressionnants. En effet, lancés dans de vastes politiques de «
2- Causes endogènes
Les crédits obtenus par les gouvernements du sud n'ont pas toujours été utilisés
rationnellement. Au lieu de financer des investissements productifs, seuls susceptibles de
renforcer leur capacité exportatrice et de générer les flux de devises nécessaires au
remboursement de la dette, des gouvernements des pays endettés se sont lancés dans des
programmes d'investissement à rentabilité plus que douteuse et trop souvent inadaptés aux
besoins locaux. De plus, certains dirigeants du Sud ont détourné à leur profit, bien souvent
avec la complicité des créanciers, des sommes considérables si bien qu’aujourd’hui de
nombreux pays doivent rembourser les dettes contractées par d’anciens dictateurs tandis que
ceux-ci profitent en toute impunité de fortunes illégalement acquises.
La situation n’a cessée, depuis 1982, de se dégrader. D’après la Banque mondiale, la dette des
PED s’élève en 2001 à environ 2450 milliards de dollars tandis qu’elle était d’environ 560
milliards de dollars en 1980. Dans le même temps, les PED ont remboursé 3400 milliards de
dollars (à titre d’intérêt ou d’amortissement). Ainsi, les pays du Sud ont remboursé six fois
leur dette de 1980 pour se retrouver quatre fois plus endettés.
Sur le plan interne, il s’agit, selon ces auteurs, d’accumuler l’épargne nécessaire pour financer
l’investissement interne, et sur le plan externe, de trouver les ressources nécessaires pour
financer le déficit de la balance des paiements.
Dittus (1989) a mis en évidence une relation entre la pression fiscale et le remboursement de
la dette. Il dénote l’existence des coûts associés à l’endettement, qui entraîne une croissance
artificielle basée sur un investissement supérieur à l’effort du pays et déclenche, par la suite,
un ajustement par l’inflation.
L’étude a conclu que c’est l’accumulation de la dette qui a un impact négatif sur la croissance.
Quant à Clemens et al. (2003), ils ont estimé un modèle de croissance en retenant l’hypothèse
du fardeau virtuel de la dette. Ils aboutissent à la conclusion selon laquelle une diminution de
6 points du service de la dette en pourcentage du PIB va accroître le taux d’investissement de
0,75 à 1 point et la croissance de 2 points. Par ailleurs, ils estiment que si la moitié du service
de la dette est annulée sans hausse du déficit budgétaire, la croissance augmentera dans
quelques PPTE de 0,5 point par an.
Dans une étude complémentaire Patillo et al. (2002) ont appliqué un modèle de
comptabilisation de la croissance à un groupe de 61 pays en développement et ont constaté
que le doublement du niveau moyen de leur dette extérieure réduit de près d’un point la
croissance tant du capital physique par habitant que de la productivité totale des facteurs.
Partis de la courbe de Laffer, leur étude leur a permis de prouver que la dette aurait une
relation en forme de U inversée avec la croissance. Les résultats obtenus confirment la thèse
du surendettement car ils trouvent qu’au-delà de 160-170 % du ratio de la dette sur les
exportations et 35-40% de la dette sur le PIB en valeur nominale, la dette rend négative la
croissance. Néanmoins, une limite apparaît dans leur analyse, puisque le raisonnement est
appliqué aux PPTE, mais est basé sur un échantillon incluant de non PPTE.
S’agissant des études spécifiques menées au niveau des pays, les avis sont partagés. Pour
Borensztein (1990), le service de la dette est un déterminant essentiel qui influence
négativement l’endettement extérieur aux Philippines. Il a conclu que l’encours et le ratio du
service de la dette sur les exportations ont globalement un effet inverse sur la formation du
capital privé et incitent l’endettement du pays.
En analysant le problème d’endettement de l’Ouganda, Barungi et al. (2000) ont identifié les
problèmes liés à un endettement ainsi que ses implications sur l’économie du pays. Leur
principale préoccupation étant de savoir si l’économie peut atteindre un taux de croissance de
5 % tout en maintenant un investissement intérieur adéquat, vu la forte dépendance du pays
Par contre, Wejeweera et al. (2005) ont mis en évidence le lien entre la croissance
économique et l’endettement au Sri Lanka durant la période 1952- 2002 et ont abouti à des
résultats contraires. Ils indiquent que le pays n’a pas un problème de surendettement et que
l’endettement n’est pas le principal obstacle à la croissance, parce que, probablement, le stock
de la dette totale n’est pas trop élevé.
L’étude de Desta (2005) a également abouti à la conclusion selon laquelle ce n’est pas le
paiement du service de la dette qui constitue un frein à la croissance en Éthiopie mais plutôt le
taux de change effectif réel et l’inflation.
Au terme de cette revue de la littérature qui nous a permis de fouiller en profondeur sur la
question relative au lien entre l’endettement extérieur et la croissance économique, force est
de constater que l’endettement extérieur a, pour la plupart des cas, un effet négatif sur la
croissance économique des pays en voie de développement, et plus particulièrement ceux de
l’Afrique subsaharienne. Il n’y a donc pas eu les résultats escomptés ; bien au contraire, les
pays se retrouvent avec des niveaux d’endettement élevés.
Si pour certains, c’est le paiement du service qui constitue un obstacle à la croissance, pour
d’autres, c’est l’accumulation de la dette elle-même, ou les deux. Ces contradictions peuvent
provenir soit de la variabilité des méthodes utilisées par les économistes, soit des
particularités (situation économique, secteurs porteurs de croissance et disponibilités de
données) des pays étudiés.
Le déficit budgétaire est la situation dans laquelle les recettes de l'État (impôts et cotisations
sociales) sont inférieures à ses dépenses (administration, éducation, dépenses sociales...) au
cours d'une année. De façon mécanique, la dette publique résulte de l'accumulation des
Un déficit budgétaire a un impact économique qui peut, selon certains économistes, être un
stimulant pour l'activité économique par l'intermédiaire d'une politique de relance selon les
principes du keynésianisme, ou simplement être un moindre mal dans certaines situations de
récession.
Pour d'autres économistes, un déficit budgétaire est toujours le signe d'une mauvaise gestion
des fonds publics et de l'argent du contribuable et à ce titre il doit être évité. Les économistes
libéraux insistent sur les effets néfastes du déficit public, qui peut engendrer un accroissement
de la dette publique.
NB : Pour financer son déficit budgétaire, l'État peut également recourir au financement
monétaire, c'est-à-dire à la création monétaire. Dans ce cas la Banque centrale consent une
avance à l'État en créditant le compte du Trésor public ; la masse monétaire s'accroît donc.
Toutefois ce mode de financement du déficit budgétaire est risqué ; si l'accroissement de la
masse monétaire est plus rapide que celui de la production, alors le rythme de l'inflation va
s'accélérer. Par ailleurs, l’émission monétaire n'est plus une méthode utilisée depuis des
décennies dans les pays développés, et est même impossible dans les États qui ont confié la
Face aux problèmes d’endettement et dans la perspective de stimuler la croissance des pays
pauvres, en particulier ceux de l’Afrique au Sud du Sahara, les pays créanciers se sont
concertés pour assouplir graduellement les modalités de remboursement. A cet effet, deux
gammes de solutions ont été proposées aux autorités des pays concernés pour adapter la
charge de l’emprunt à leur capacité réelle à servir durablement la dette. La première gamme
se rapporte à des réaménagements techniques de la dette provenant exclusivement du Club de
Paris et du Club de Londres. La deuxième gamme de solutions s’appuie sur un système
d’allégement global de la dette (y compris les emprunts multilatéraux) qui rendrait
économiquement et socialement supportable le poids de la charge de la dette. Il s’agit de
l’initiative d’allégement de la dette des pays pauvres très endettés (PPTE).
En somme, le plan Baker fut un semi-échec quatre (4) ans après sa mise en œuvre, de très
nombreux pays étant encore incapables de faire face à leurs échéances. A ce plan, succéda
alors le plan Brady.
Le Mexique fut le premier pays à l'appliquer, suivi par une quinzaine d'autres, sous des
schémas financiers qui ont légèrement évolué au fil du temps. Les derniers accords ont porté
sur la dette ivoirienne et vietnamienne. Nombre des pays concernés, grâce à cette réduction de
dette, et avec une politique stricte d'ajustement macroéconomique, ont pu, au cours des années
90, retrouver la voie des marchés de capitaux internationaux.
Un menu d'options est offert aux créanciers et chacun a essayé de défendre sa proposition :
- Option A : Réduire le stock de la dette d'un tiers et rééchelonner le reste sur quinze ans.
Ici, il y aura une annulation pure et simple d'un tiers des services de la dette (principal et
intérêt) et rééchelonnement du restant au club de Paris sur une période de grâce de huit ans ;
proposition soutenue par la France.
- Option B : Rééchelonner la dette sur vingt cinq ans. Cela se manifeste par un allongement
de la période de remboursement du service de la dette sur 25 ans au lieu de 15 ans. Cette
proposition est soutenue par les États-Unis.
- Option C : Rééchelonner la dette à un taux d'intérêt réduit. Le taux d'intérêt sera réduit à
3,5% ou à la moitié du taux initial si celui-ci est inférieur à 7% et un rééchelonnement sur 14
ans incluant une période de grâce de 8 ans, proposition préférée par la Grande Bretagne,
l'Allemagne, la Suisse, la Norvège, l'Italie et le Pays–Bas.
Les critères d'admissibilité aux conditions de Toronto sont : Pays admissible aux prêts de
l'Association Internationale pour le Développement de la Banque mondiale, soit un pays dont
le revenu par tête inférieur à 580 dollars en 1989 (610 dollars en 1990 et 635 en 1991) ;
- Pays lourdement endetté s'il a un des deux ratios supérieurs à un seuil critique pour la
période 1989-1991:
Valeur présente du service de la dette sur le PNB supérieur à 80% ;
Valeur présente du service de la dette sur les exportations supérieures à 200%.
D'octobre 1988 à mars 1991, 26 accords ont été signés, impliquant 19 pays. Entre l988-1990,
la Banque mondiale estime que 29% des créanciers du club de Paris ont choisi l’option A,
contre 26% pour la B et 45% pour la C.
Les initiatives françaises sur l'endettement deviennent plus généreuses. Le président
Mitterrand annonce l'annulation pure des créances de la France envers 35 pays africains. En
Les différentes mesures prises dans le cadre du Club de Paris ont été toujours faits avec le
concours du FMI.
Les termes de Londres
En décembre 1991, les créanciers du Club de Paris ont convenu de mettre en œuvre un
nouveau traitement pour la dette des pays les plus pauvres. Ce nouveau traitement, dit "des
termes de Londres", augmentait le niveau d'annulation de 33% tel que défini dans les termes
de Toronto à 50%. 23 pays ont bénéficié des termes de Londres entre 1991 et 1994, date à
laquelle ces termes ont été remplacés par ceux de Naples.
L’Initiative PPTE
Cette nouvelle approche axée sur la lutte contre la pauvreté a une plus grande portée, car elle
tient compte des dettes des organismes multilatéraux.
Initiée par les institutions de Bretton-Woods, ces dernières ont accepté d’assouplir les
modalités d’application de l’initiative de réduction de la dette des pays pauvres très endettés
(PPTE). Elle a ensuite été renforcée et soutenue par les pays industrialisés lors du Sommet du
G7 de Cologne en juin 1999, ce qui a conduit à la mise en œuvre de l’Initiative PPTE
renforcée. L’initiative PPTE renforcée a pour objectif de réduire à un niveau viable
l’endettement de 42 pays représentant 8% de la dette totale des pays en développement. De ce
point de vue, les objectifs PPTE peuvent paraître modestes. L’initiative PPTE constituait
Le nouveau cadre de gestion de la dette des pays à faible revenu : le Cadre de viabilité
de la dette (CVD)
Le CVD a été adopté en 2005 par la Banque mondiale et le FMI comme nouveau cadre de
gestion de la dette des pays à faible revenu (PFR). Parmi les PFR, le CVD s’applique à ceux
qui ne se sont jamais engagés dans l’initiative PPTE, ou à ceux qui en ont mené à bien le
processus. Une caractéristique importante du CVD est, qu’à la différence de l’initiative PPTE,
il ne sert pas à calculer des allègements de dette. Sous le régime PPTE, l’abaissement du seuil
d’endettement avait pour conséquence de signaler la nécessité d’un plus large allègement.
Sous le régime du CVD au contraire, la conséquence de l’abaissement du seuil d’endettement
est de réduire l’accès à des prêts non concessionnels et de faire dépendre la couverture du
financement des objectifs de développement et de lutte contre la pauvreté par des dons, toute
remise de dette supplémentaire étant exclue. Une autre différence avec l’initiative PPTE est
que le CVD ne repose pas sur des indicateurs chiffrés préétablis mais sur des seuils
d’endettement spécifiques à chaque pays. Les seuils d’endettement particuliers à chaque pays
sont établis sur la base de la qualité de leur situation politique et institutionnelle, mesurée en
utilisant la méthode des Évaluations des politiques et des institutions nationales (EPIN). Cette
méthode évalue le contexte politique et institutionnel d’un pays par rapport à un ensemble de
2- Gestion du déficit public et de la dette publique : cas des pays de l’Union Européenne
Pour lutter contre un risque de dérapage de l’endettement des États membres de l’Union
européenne, une politique budgétaire européenne stricte a été mise en œuvre.
Des règles strictes ont été imposées aux États membres de l’Union européenne par le Traité de
Maastricht (en 1992) et le Pacte de stabilité et de croissance (en 1997) pour éviter l’apparition
de déficits publics excessifs. Parmi elles :
un déficit public maintenu en dessous du seuil de 3 % du PIB ;
le montant de la dette publique limité à 60 % du PIB.
Après la crise financière de 2008, de nombreux États membres de l’Union européenne ont
dépassé ces seuils et, dans certains cas, les déficits publics ont atteint des proportions
inquiétantes. Des plans d’austérité ont été instaurés dans plusieurs pays (en Grèce, en Irlande,
au Portugal, en Espagne et à Chypre). Un Fonds européen de stabilité financière (FESF) a été
mis en place temporairement en mai 2010 notamment afin d’éviter à la Grèce un défaut de
paiement et de préserver autant que possible la stabilité financière de la zone euro.
CONCLUSION
La crise de la dette qui a débuté en 1982 est la conséquence d’un certain laxisme de la part des
créanciers quant aux prêts accordés, d’une mauvaise utilisation des sommes reçues par les
dirigeants des pays en développement et de la politique anti inflationniste menée au début des
années 1980 par les pays occidentaux. Cette crise a été gérée, avec l’accord des créanciers,
par les institutions financières internationales. Ainsi, le FMI et la Banque mondiale ont
conditionné toute restructuration de dette à l’adoption de programmes d’ajustement structurel
qui, loin de régler les maux dont souffrent les PED, ont conduit à la crise des années 1990 et
se sont traduits par une mise sous tutelle des économies des pays en développement. Si les
institutions financières internationales tentent d’infléchir leurs politiques, celles-ci participent
toujours d’une logique libérale. En définitive, si l’on veut redonner une certaine liberté
d’action aux PED, il convient de supprimer cet instrument de domination que constitue leur
dette extérieure. Une telle annulation trouve des justifications tant économiques que
politiques.
INTRODUCTION
De nombreuses crises ont affecté les économies nationales depuis plusieurs décennies. Celle
de 1929, celle de 1973 ou plus récemment celle de 2008. Ces grandes crises ont à chaque fois
touché l’ensemble des agents économiques : les entreprises (entrainant des faillites), les
ménages (réduisant leur pouvoir d’achat ou faisant croitre le chômage), les banques (les
rendant plus réticentes à financer les projets), les États et les finances publiques. Dans un
monde où les économies nationales sont de plus en plus interconnectées et liées à la finance
internationale, les probabilités des crises à s’étendre à l’échelle mondiale sont immenses. Si
on analyse les crises qui se sont déroulées depuis le milieu des années 1980, on se rend
compte que ce sont surtout les crises bancaires et financières qui ont tendance à se multiplier.
Ces crises s’expliquent en particulier par un phénomène qui s’appelle la théorie du « cycle du
crédit ». Dans ce chapitre, en premier lieu, nous définirons les notions nécessaires à la
compréhension des crises financières et présenterons les différentes formes de crises
financières. En second lieu, nous indiquerons les différentes phases des crises et exposerons
les causes des crises financières. Troisièmement, nous traiterons de la manifestation des crises
financières, et en dernier ressort, nous présenterons les processus de régulation des marchés
financiers.
Section 1 : DEFINITIONS
En économie, la crise est le moment où la conjoncture se retourne à la baisse, c’est- à-dire le
moment qui clôt une phase d’expansion économique et ouvre une phase de récession, voire de
dépression. On parle de crise financière pour qualifier un retournement de la conjoncture
dans le système financier. Les crises financières sont favorisées par un contexte particulier :
innovations financières, système financier libéralisé, facilité d’accès au crédit. La titrisation
est un procédé par lequel une banque qui détient une créance émet une obligation adossée à
cette créance, qu’elle vend sur les marchés financiers. En réalisant cette opération, elle
transfère le risque de non remboursement du prêt à un autre agent. Elle a entraîné une
augmentation du crédit en minimisant le risque de crédit.
Un établissement "too big to fail" est un établissement "trop gros pour faire faillite". Son
poids financier rend impossible le fait que les autorités monétaires puissent le laisser tomber,
en raison de l’effet majeur qu’une faillite entraînerait. En l’absence d’intervention, l’économie
risque la crise systémique. Le poids d’une banque, mesuré par le total de son bilan permet
d’estimer l’ampleur des conséquences de sa faillite éventuelle. Les difficultés d’une banque
s’étendent vite à d’autres banques et à l’économie tout entière. Les pouvoirs publics se
refusent donc à ne pas secourir une banque trop importante. Le principe "too big to fail" part
d’une bonne intention : éviter le risque systémique dû à la faillite d’un grand établissement.
La volatilité désigne l'amplitude des fluctuations du cours d'un actif. Un actif est volatile si
son cours varie fortement sur une courte période.
Le Paradis fiscal : territoire sur lequel l’impôt sur les bénéfices ou les revenus de capitaux
supporté par les non-résidents est insignifiant et dont les autorités se montrent "peu
coopératives" pour fournir à des pays tiers des renseignements sur les patrimoines ou les
revenus des personnes qui y ont des comptes.
Crise de la dette souveraine : c'est une situation dans laquelle un État a des difficultés
à rembourser sa dette. Elle peut venir du simple doute des agents financiers sur les
capacités de l'État à rembourser sa dette, car si ces agents sont méfiants, ils cessent de
Quand une vague d’optimisme touche un domaine d’activité, le prix des actions des
entreprises de ce secteur grimpe et comme tout le monde pense que l’augmentation va se
poursuivre, chacun achète ces titres et une "bulle" se forme. Cette hausse fournit des garanties
aux emprunteurs qui s’endettent davantage et achètent plus d’actions. Les prix grimpent
encore et l’emballement s’auto-entretient jusqu’à l’explosion. La crise est systémique quand
elle se diffuse à l’ensemble des marchés financiers à l’échelle planétaire. Concernant le cas de
la crise des subprimes intervenue aux États-Unis, on note qu’à partir de 2002 le marché de
l’immobilier connaît un essor considérable. Les taux d’intérêt sont au plus bas et les banques
développent un marketing très persuasif pour vendre des crédits, d’abord à des ménages aisés
Une subprime est un prêt immobilier proposé à un emprunteur au revenu modeste avec un
taux d’intérêt élevé. Aux États-Unis, il s’est agi d’emprunts immobiliers accordés à des
ménages à faibles revenus à taux variables.
Quand les taux d’intérêt ont augmenté, ces ménages se sont retrouvés dans l’impossibilité de
rembourser leurs crédits. Mais surtout ces crédits immobiliers ont été titrisés sous forme de
titres de créances que s’échangeaient les banques sur les marchés financiers. On parle de
créances douteuses, c’est-à-dire dont le risque de non-recouvrement est élevé. En 2006, les
crédits "subprime" ont représenté 24 % des nouveaux crédits immobiliers octroyés aux États-
Unis. Ces prêts ont participé à la création d’une bulle immobilière ; tant que le prix de
l’immobilier augmente, la maison acquise et mise en hypothèque, garantit le bon déroulement
de l’opération. En cas de défaillance, le crédit sera remboursé par la vente de la maison. Mais
le prix de l’immobilier plonge.
Les taux d’intérêt passent de 1 % à 5 %, ce qui provoque l’insolvabilité des clients. Des
millions d’américains perdent leur logement. Les établissements de crédits qui ont effectué
ces prêts sont au bord de la faillite (Lehman Brothers, l’une des plus prestigieuses banques
d’investissement au monde, fait faillite en septembre 2008). De nombreuses banques
étrangères ont racheté les crédits transformés en titres financiers (titrisation) et se retrouvent
dans une situation délicate. Les actions des banques s’effondrent ce qui entraîne une chute
généralisée des cours boursiers. La crise est financière.
On parle de crise de liquidité quand plus aucun agent n’est prêt à prêter aux autres : le
financement est temporairement asséché. Les défauts de paiement dans l’immobilier ont
fragilisé les banques qui ont cessé de se prêter les unes aux autres créant une crise de liquidité.
Les banques ne se prêtant plus mutuellement ont des difficultés à rembourser les titres arrivés
à échéance, la valeur des titres diminuant, la valeur de l’actif des banques diminue et devient
La régulation désigne l'ensemble des mécanismes et des règles qui assurent le bon
fonctionnement et la stabilité des marchés en évitant l'apparition de crises qui risquent de faire
disparaître le marché.
Les Accords de Bâle I, 1988. Ils ont mis en place un dispositif prudentiel pour assurer
la solvabilité et la stabilité du système bancaire international en fixant un ratio de
sovabilité, nommé ratio Cooke. C'est un volume minimum de fonds propres (c'est-à-
dire de capital disponible) dont une banque doit disposer par rapport aux crédits
qu'elle accorde, car on estime que ce volume de fonds propres doit lui permettre
d'éviter une situation d'insolvabilité. Il était alors de 8%, ce qui signifie que les
banques devaient toujours détenir en fonds propre au minimum 8% des crédits qu'elles
accordent afin d'éviter le risque de crédit.
Les Accords de Bâle II, 2006. Ils modifient la définition des fonds propres et le calcul
du ratio afin de tenir compte à la fois des risques de crédit (risque que les débiteurs
fassent défaut), des risques de marché (risque que les actifs détenus par les banques
perdent de leur valeur) et des risques opérationnels (risques de pertes liés à un mauvais
Si les crises de change frappent maintenant plus rarement les pays développés, elles sont
devenues plus fréquentes pour les pays nouvellement financiarisés. En se combinant aux
crises bancaires renaissantes, elles ont engendré un type de crise financière nouvelle pour la
période d’après-guerre : les crises jumelles. Ces crises jumelles se manifestent par la
combinaison d’une spéculation intense contre la monnaie nationale et une vague de
défaillances bancaires. Elles associent une méfiance à l’égard de la stabilité du taux de change
(et donc du régime de change), et une méfiance à l’égard de la liquidité ou de la solvabilité
des intermédiaires bancaires, qui rétroagissent l’une sur l’autre en se renforçant mutuellement.
Les pays asiatiques n’ont pas inventé la crise jumelle, mais celle-ci a été la forme dominante
de crise financière pendant l’épisode 1977-1998 : Indonésie, Malaisie, Philippines, Thaïlande,
Corée, ont eu à affronter simultanément une crise de change et une crise bancaire. A priori, en
Chargé du cours : Dr TIEMELE ECS 1 : ECONOMIE GENERALE
Enseignant-chercheur : INP-HB (DFR-GCEA) 118
Année Académique 2021-2022
avenir certain, il est possible de développer trois hypothèses alternatives simples concernant
cette simultanéité :
selon une première conception, la crise de change et la crise bancaire ont les mêmes
causes (Reinhart et Végh, 1996). Une des causes communes étant souvent, pour les
pays émergents, un programme de stabilisation… trop réussi qui provoque une
euphorie excessive. In fine, ce sont les tensions sur le déficit courant et
l’accroissement de l’endettement extérieur, qui résultent du programme de
stabilisation (de son succès, dans un premier temps), qui provoquent le déclenchement
d’une attaque spéculative contre la monnaie dont la crise bancaire est la conséquence
indirecte, les capitaux fuyant et le marché des changes s’effondrant ;
dans un deuxième modèle, la crise bancaire entraîne la crise de change (Velasco,
1987) par l’intermédiaire de l’émission de monnaie domestique excessive provoquée
par le secours exceptionnel en liquidité que la Banque centrale apporte au système
bancaire pour le stabiliser ;
dans un troisième modèle, c’est au contraire la crise de change qui entraîne la crise
bancaire (Stoker, 1994) ; les banques ne résistent pas aux pertes de change dues à la
dévaluation, qui s’ajoutent aux pressions sur leur solvabilité induites par la perte de
réserves non stérilisée (Réserves qui ne sont pas annulées par les effets des
interventions des banques centrales sur l’offre de monnaie par la réalisation des
opérations opposées sur les marchés d’actifs nationaux et étrangers) de la Banque
centrale amenant une contraction du crédit bancaire.
CONCLUSION
Depuis une trentaine d’années, les crises financières ont tendance à se multiplier. Ces crises
s’expliquent notamment par un mécanisme étroitement lié à la stratégie des banques : le cycle
du crédit. Par leurs comportements, les banques contribuent parfois à générer ou alimenter
encore davantage les situations de récession. En 2008, la crise des « subprimes » aux États-
Unis est l’un des exemples les plus révélateurs. Depuis pourtant, les pouvoirs publics, les
chefs d’États, ont décidé de mettre en place de nouvelles règles destinées à mieux encadrer les
activités bancaires et empêcher ce genre de situation de se renouveler.
Les États membres des organisations économiques internationales ne sont pas nécessairement
originaires d’une même région du monde. Ce type d’organisation peut en effet être fondé
sur une solidarité de ses membres autre que géographique ; cette solidarité peut ainsi être
de natures économique (par exemple l’OCDE), ethnique (par exemple la Ligue Arabe),
politique (par exemple l’Organisation des États américains OEA). Il existe donc des
organisations régionales transcontinentales (par exemple l’OTAN).
Les organisations régionales d’intégration (par exemple l’Union africaine UA) sont
globalement plus récentes que les organisations régionales de coopération (par exemple
l’Organisation pour la sécurité et la coopération en Europe OSCE). Sur le plan juridique, ce
sont également des personnes morales de droit public qui appartiennent à la famille
des sujets dérivés du droit international.
Cette théorie s’attache aux effets sur le commerce de la suppression des frontières douanières.
L’auteur estime que la pression du marché, c’est-à-dire une libération accrue des échanges,
permet à l’intégration de se poursuivre. Celle-ci ne nécessite que l’organisation d’une
coopération intergouvernementale pour se réaliser. Cette conception libérale est développée
par Bela Belassa en 1961, lequel retient un scénario par étapes de l’unification économique,
à l’établissement des tarifs préférentiels succèdent la zone de libre échange, puis l’union
douanière, le marché commun, l’union économique et enfin l’intégration économique
complète.
Développée à compter des années 1960 par R. Mundell (1961), R. McKinnon (1963) puis P.
Kenen (1969), elle envisage l’intégration monétaire comme une possibilité. L’intérêt pour un
pays donné de participer à une telle union repose sur une analyse coûts/avantages dont le bilan
découle dans une large mesure du degré de convergence réelle de ce pays avec les autres
membres de l’union monétaire. Baptisée théorie des «zones monétaires optimales», elle
envisage l’intégration monétaire comme une voie possible à la réalisation de
l’unification économique
NB : les tarifs préférentiels constituent une forme de réduction des droits de douane sur les
marchandises à l’entrée sur le marché d’un pays ou d’une zone déjà constituée. Les tarifs
préférentiels s'appliquent pour les pays ayant des relations privilégiées avec une union déjà
constituée suite à un accord d'union douanière ou issue du système de préférences
généralisées (SPG). Dans c’est condition, les marchandises (ou pays) qui y répondent
peuvent bénéficier d'une préférence tarifaire (réduction ou suspension des droits de
douane).
Toutefois, pour qu’un ALE fonctionne, les membres doivent se fixer des règles d’origine
concernant les biens provenant de pays tiers. Les biens produits à l’intérieur de la zone (et
visés par l’ALE) peuvent passer les frontières en franchise, mais ils doivent satisfaire aux
b. L’union douanière
L’union douanière (UD) pousse plus loin la notion de libre-échange puisque, outre la
suppression des obstacles internes au commerce, elle exige des pays parties qu’ils
harmonisent leurs politiques commerciales extérieures. Cela suppose l’imposition d’un tarif
extérieur et de quotas d’importation communs sur les produits provenant de pays tiers, de
même qu’une possibilité de s’entendre sur les recours commerciaux, comme les mesures
antidumping et les droits compensateurs. L’UD peut également interdire l’utilisation des
recours commerciaux à l’intérieur de la zone. En général, les membres d’une UD mènent
leurs négociations commerciales multilatérales en tant que bloc unique. Les pays qui font
partie d’une UD établie n’ont plus besoin de règles d’origine, puisque tout produit entrant
dans la zone est assujetti aux mêmes tarifs douaniers ou quotas d’importation, quel que soit
son point d’entrée.
L’élimination des règles d’origine est le principal avantage de l’UD par rapport à la zone de
libre-échange. L’application des règles d’origine exige que tous les États membres d’une
ALE maintiennent une lourde documentation et qu’ils fassent respecter les règles aux
frontières. Ce processus coûte cher et peut soulever des différends dans l’interprétation des
règles et divers retards. L’UD entraîne donc d’importantes économies et des gains
d’efficience sur le plan administratif.
Cependant, pour accéder à ces avantages, les pays doivent renoncer à une certaine liberté dans
le domaine des politiques, à savoir celle de fixer indépendamment leur politique
commerciale. Corrélativement, à cause de l’importance croissante des mesures commerciales
et économiques en tant qu’outils de politique étrangère, les UD limitent aussi quelque peu
l’indépendance des pays en matière de politique étrangère.
Le marché commun (MC) représente un pas important dans l’intégration économique. Au-
delà des dispositions habituelles de l’UD, il supprime les obstacles à la circulation des
personnes, des capitaux et d’autres ressources à l’intérieur de la zone, tout en éliminant les
barrières non tarifaires au commerce, par exemple le traitement réglementaire des normes sur
les produits.
En règle générale, l’établissement d’un MC exige une grande harmonisation des politiques
dans plusieurs domaines. La libre circulation de la main-d’œuvre, par exemple, exige des
ententes sur les compétences et les attestations des travailleurs. Habituellement, le MC est
également associé intentionnellement ou par voie de conséquence à une convergence poussée
des politiques budgétaires et monétaires, en raison de l’interdépendance économique
croissante au sein de la région et de l’effet que les politiques d’un pays membre peuvent avoir
sur celles des autres. Il en résulte nécessairement des restrictions plus sérieuses à la capacité
des pays de mener leurs politiques économiques de façon indépendante.
Le principal avantage de l’établissement d’un MC réside dans les éventuels gains d’efficacité
de l’économie. Lorsque la mobilité n’est pas entravée, la main-d’œuvre et les capitaux
peuvent répondre plus facilement aux signaux économiques à l’intérieur du MC, ce qui
entraîne une répartition plus efficace des ressources.
d. L’union économique
L’union économique est la forme la plus poussée d’intégration économique. Elle suppose un
MC auquel s’ajoute l’harmonisation d’un certain nombre de domaines stratégiques clés. Plus
particulièrement, l’union économique comporte une coordination officielle des politiques
monétaires et budgétaires ainsi que des politiques relatives au marché du travail, au
développement régional, aux transports et à l’industrie. Puisque tous les pays doivent
essentiellement partager le même espace économique, il serait illogique pour eux d’appliquer
des politiques divergentes dans ces domaines.
Par ailleurs, l’union économique s’accompagne souvent d’une monnaie commune et d’une
politique monétaire unifiée. La suppression des incertitudes liées aux taux des changes
améliore le fonctionnement de l’union en permettant aux échanges commerciaux de se faire
Cette intégration exige des institutions supranationales qui adoptent des lois sur le commerce
pour assurer une application uniforme des règles à l’intérieur de l’union. Les pays membres
renoncent à leur capacité législative dans ce domaine, mais continuent de voir au respect de
ces lois à l’échelon national.
Elle constitue la phase ultime de l’intégration puisqu’elle crée une monnaie unique gérée par
une banque centrale commune (la BCE, par exemple). Les États abandonnent ainsi un des
principaux éléments de leur souveraineté : le droit de battre monnaie. En réalité, l’intégration
économique et monétaire est une union économique complétée d’une unification des
politiques économiques, financières, sociales et monétaires.
- Union douanière
- Libre circulation des -CEDEAO
Marché commun
hommes et des capitaux -Marché unique européen
- Harmonisation fiscale et (1986-1992)
réglementaire
- Marché unique
Union économique -Politiques communes -UE (1992-1999)
- Union économique
Intégration économique -Monnaie unique -UE (1992-1999)
globale
1- Cas de la CEDEAO
La CEDEAO est une organisation internationale régionale. Son but principal est de
promouvoir la coopération et l'intégration avec pour objectif de créer une union économique
et monétaire entre les pays de l’Afrique de l'Ouest. Elle fut créée le 28 mai 1975 et compte
aujourd'hui 15 États membres : Bénin, Burkina Faso, Cap Vert, Côte d’Ivoire, Gambie,
Il figure à la fois dans le Traité de 1975 et celui de 1993. Principal organe exécutif de
l'organisation, le Secrétariat Exécutif est dirigé par un secrétaire exécutif assisté de secrétaires
exécutifs adjoints. Ainsi, le Secrétaire exécutif est le premier responsable administratif de la
communauté. Il est chargé à cet effet, de l'administration courante de la communauté et de
toutes ses institutions. Nommé par la Conférence des Chefs d'États et de gouvernement pour
un mandat de quatre (4) ans, renouvelable une fois, le secrétaire exécutif ne peut être démis de
ses fonctions que par la Conférence des Chefs d'États sur recommandation du Conseil des
Ministres.
Cependant, il faudrait relever une dernière évolution sur la place qu'occupe cet organe dans la
pyramide institutionnelle de l'organisation régionale. En effet, lors du Sommet d'Abuja de
2006, les Chefs d'États et de Gouvernement ont approuvé une modification des institutions de
l'organisation. Ainsi, le Secrétariat Exécutif est remplacé par une Commission.
· Le Parlement de la Communauté
De prime abord, il faudrait dire que la création de cette institution parlementaire est
révélatrice de la volonté d'incarner l'intégration et de l'ancrer dans l'existence quotidienne des
Chargé du cours : Dr TIEMELE ECS 1 : ECONOMIE GENERALE
Enseignant-chercheur : INP-HB (DFR-GCEA) 129
Année Académique 2021-2022
États et des citoyens. Car l'existence des parlements suppose l'effacement des frontières par
l'unité de la représentation des peuples. Elle peut de même attester le désir d'intégration au-
delà de la simple coopération. Mais s'il est vrai que la création du parlement peut traduire une
logique supranationale, en pratique, cette assemblée n'a aucun pouvoir de décision. Il ne peut
que faire des recommandations en matière de Droits de l'Homme et émettre des avis sur
certains sujets. En outre, comme tout autre parlement, celui de la CEDEAO est chargé de
voter les lois de la Communauté.
Ayant son siège à Abuja au Nigéria, il est composé des députés des différents États membres
et plus précisément de cent vingt (120) membres désignés au sein des parlements respectifs
des États membres, à raison de cinq (5) sièges au minimum par État, les quarante-cinq (45)
autres étant répartis entre les États en fonction de leur population. Le bureau du parlement est
composé de cinq (5) membres au minimum et de dix (10) membres au maximum dont un
président et quatre vices présidents. Ses plénières sont dirigées selon les dispositions du traité,
du protocole, des décisions et règlements de la communauté notamment le Protocole du 6
Aout 1994 relatif au Parlement de la CEDEAO.
L'Union économique et monétaire ouest-africaine (UEMOA), crée à Dakar (Sénégal) est une
organisation qui regroupe 8 pays (Bénin, Burkina Faso, Côte d’Ivoire, Guinée-Bissau, Mail,
Niger, Sénégal et Togo). Elle a pour mission de réaliser l'intégration économique des États
membres, à travers le renforcement de la compétitivité des activités économiques dans le
cadre d'un « marché ouvert et concurrentiel et d'un environnement juridique rationalisé et
harmonisé ».
La Côte d’Ivoire, détient plus de 40% de la masse monétaire en circulation dans la zone
monétaire de ces pays. De ce fait, il est de tradition que le poste de Gouverneur revienne
toujours à la Côte d’Ivoire.
La CEMAC est une organisation internationale créée en juin 1999. Elle a pour mission, entre
autres, de créer un véritable marché commun africain. Elle comprend le Cameroun, le
Centrafrique, le Congo, le Gabon, la Guinée Équatoriale, le Tchad ainsi que São Tomé
et Príncipe.
Le 25 mars 1957, six pays (Allemagne, Belgique, France, Italie, Luxembourg et Pays-Bas)
signent le Traité de Rome qui crée la Communauté économique européenne (CEE ou
Marché commun). Mais ce n’est qu’en 1968 que l'Union douanière est réalisée entre les six
pays.
Il convient aussi de mentionner que l’UE s’est en partie « peuplée » grâce à la défection des
membres d’un autre bloc commercial concurrent, L’Association Européenne de Libre-
échange (AELE) créée en 1960 à l’instigation du Royaume-Uni et bientôt désertée par lui en
1973, date à laquelle ce pays rejoignit l’UE (qui n’était encore que la CEE), entraînant avec
lui le Danemark. En 1986, le Portugal déserta aussi l’AELE pour rejoindre la CEE. Puis, en
1995 ce furent l’Autriche, la Suède et la Finlande. Aujourd’hui il ne reste plus que 4 pays
membres de l’AELE : l’Islande (qui a adhéré en 1970), le Liechtenstein (1991) et la Norvège
(membre fondateur de 1960). Cependant les pays de l’AELE, à l’exception de la Suisse, ont
formé avec l’UE un Espace Économique Européen en 1994, accord de libre-échange qui
recouvre une bonne part des accords entre pays membres de l’UE (mais de nombreuses
différences persistent).
Au sein de l’UE à 27, 15 pays font partie de la zone euro au 1er janvier 2008 (Voir carte). De
plus, Le Monténégro et le Kosovo utilisent l’Euro de facto.
libre circulation des marchandises dans le marché intérieur de l'UE : pas de contrôle des
marchandises aux frontières entre États membres et pas de droits de douane.
liberté des mouvements de capitaux : toutes les restrictions aux mouvements de capitaux
entre les États membres et entre les États membres et les pays tiers sont interdites.
libre concurrence : les ententes entre entreprises dominantes sur un marché (ententes sur
les prix ou les quantités de production) sont interdites, les abus de position dominante sont
interdits, et les interventions de l'État sont interdites si elles sont susceptibles de fausser la
concurrence, par exemple en autorisant l'accès aux entreprises publiques à du crédit à taux
d'intérêt moindre que celui supporté par les entreprises privés.
la privatisation des entreprises publiques n'est pas obligatoire, mais les États doivent
veiller à ne pas fausser la concurrence, et ne doivent donc pas donner aux entreprises
publiques des avantages concurrentiels. La Commission européenne se limite en général à
promouvoir la libéralisation des services. Par exemple, dans le domaine des transports,
elle réclame qu'il soit rendu possible la mise en concurrence de la SNCF avec des sociétés
privées de transport.
Le Conseil européen de Lisbonne (2000) a défini l'objectif commun qui vise à faire de l'Union
européenne entre 2000 et 2010, « l'économie de la connaissance la plus compétitive et la plus
dynamique du monde d'ici à 2010, capable d'une croissance économique durable
accompagnée d'une amélioration quantitative et qualitative de l'emploi et d'une plus grande
cohésion sociale ».
La stratégie de Lisbonne est arrivée à terme fin 2010 dans un contexte de crise financière
mondiale. L'Union européenne a alors fixé un nouveau projet – Europe 2020 - qui définit la
stratégie de croissance pour l'Union avec pour mots d'ordre, « une économie intelligente,
durable et inclusive ». Cette stratégie fixe les objectifs nationaux dans les domaines de
l'emploi, la recherche et l'innovation, le changement climatique et l'énergie, l'éducation ainsi
que la lutte contre la pauvreté.
L'euro est aujourd'hui la deuxième monnaie de réserve dans le monde, la deuxième monnaie
au monde pour les transactions financières, derrière le dollar américain, et depuis octobre
2006, la première monnaie au monde pour ce qui est de la quantité de billets en circulation.
Actuellement, l'euro est ainsi la monnaie effective de 19 États membres sur 27, définissant
la zone euro, ainsi que, de facto, de certains États et territoires ; à savoir, le Kosovo et
le Monténégro qui n'ont pas d'accord formel et Andorre, Monaco, Saint-Marin et
le Vatican sur la base d'accords monétaires antérieurs à l'euro. Tout pays appartenant à
l'Union européenne doit adhérer à l'euro. Seul le Danemark a obtenu une dérogation lors de la
rédaction du traité de Maastricht, toutefois, ce pays fait partie de l'Union économique et
monétaire. La Suède a, quant à elle, retardé l'échéance à la suite d'un référendum défavorable.
Les nouveaux États membres doivent pour leur part satisfaire aux critères de convergence
économique avant de pouvoir remplacer leur monnaie nationale par l'euro.
Les grandes orientations de la politique monétaire sont définies par la Banque centrale
européenne, située à Francfort-sur-le-Main, qui est chargée de gérer son émission et de
garantir sa valeur vis-à-vis des autres monnaies, notamment le dollar américain. Mis en
circulation depuis le 1er janvier 2002 sous sa forme fiduciaire pour les particuliers, mais en
usage dès le 1er janvier 1999 pour les entreprises, il succède à l'European Currency
Unit (ECU), soit « l'unité de compte européenne », mise en service en 1979.
Des règles strictes ont été imposées aux États membres de l’Union européenne par le Traité de
Maastricht (en 1992) et le Pacte de stabilité et de croissance (en 1997) pour éviter l’apparition
de déficits publics excessifs. Parmi elles :
un déficit public maintenu en dessous du seuil de 3 % du PIB ;
le montant de la dette publique limité à 60 % du PIB.
Après la crise financière de 2008, de nombreux États membres de l’Union européenne ont
dépassé ces seuils et, dans certains cas, les déficits publics ont atteint des proportions
inquiétantes. Des plans d’austérité ont été instaurés dans plusieurs pays (en Grèce, en Irlande,
au Portugal, en Espagne et à Chypre). Un Fonds européen de stabilité financière (FESF) a été
mis en place temporairement en mai 2010 notamment afin d’éviter à la Grèce un défaut de
paiement et de préserver autant que possible la stabilité financière de la zone euro.
En dépit de la multiplication des crises qu'elle doit gérer, l'Union européenne reste un pôle
attractif pour ses voisins. Certains États, comme l'Islande, envisagent de relancer
leur processus d'adhésion ou d'intensifier leurs efforts dans ce sens, comme c'est le cas pour
les États des Balkans ; tandis que d'autres entités politiques dont l'Écosse et la Catalogne
souhaitent rester dans l'Union européenne tout en accédant à l'indépendance ou à une plus
grande autonomie politique.
L'Union européenne n'a pas toujours été aussi vaste qu'aujourd'hui. Lorsque le processus de
coopération économique entre pays européens a débuté, en 1951, seuls l'Allemagne, la
Belgique, la France, l'Italie, le Luxembourg et les Pays-Bas y participaient.
Au fil des ans, un nombre croissant de pays ont décidé d'y adhérer. L'Union compte
aujourd'hui 27 pays membres. Le Royaume-Uni s’est retiré de l’Union européenne le 31
janvier 2020.
Les 27 pays membres de l’UE sont : Allemagne, Italie, Autriche, Lettonie, Belgique, Lituanie,
Bulgarie, Luxembourg, Chypre, Malte, Croatie, Pays-Bas, Danemark, Pologne, Espagne,
Portugal, Estonie, Roumanie, Finlande, Slovaquie, France, Slovénie, Grèce, Suède, Hongrie,
la république Tchèque et Irlande.
Section 1 : L’INTRODUCTION
Elle comprend cinq sous-parties :
- le contexte de l’étude,
- la situation du problème,
- la problématique,
- l’intérêt de l’étude,
- l’annonce du plan.
1. Le contexte de l’étude
Il s’agit du cadre général dans lequel s’insère le sujet. Le cadre général situe le sujet à partir
de son évolution c’est-à-dire à partir de l’histoire et de l’actualité. C’est dans le contexte que
le sujet se définit. Le cadre fait ressortir les grandes caractéristiques du sujet, en fait le
contexte de l’étude permet d’asseoir un aperçu général sur le sujet. Ainsi, on restera dans un
cadre superficiel.
Le contexte ne doit pas commencer par l’agriculture vivrière, ici le cadre général fera ressortir
le développement de l’agriculture dans les pays sous-développés à partir de l’histoire
coloniale. Ainsi l’économie agricole présente-t-elle une principale caractéristique :
l’agriculture d’exportation et l’agriculture vivrière. L’agriculture d’exportation relève des
cultures d’exportation développées par l’État colonial et ensuite par les nouveaux États, c’est
le cas notamment du café, du cacao, du coton, du palmier à huile, du cocotier, de l’hévéa, de
l’ananas, de la banane, etc. A côté de cette agriculture apparaît l’agriculture vivrière
représentée généralement par les céréales (riz, maïs, sorgho, mil), tubercules (igname, taro,
patate, des racines, manioc), les produits d’élevage, de la pêche et enfin les produits de
2. Situation du problème
Ce paragraphe précise davantage le cadre général de l’étude, il donne plus d’informations par
rapport au sujet et permet d’en mieux cerner les contours. C’est également dans ce paragraphe
que certaines définitions peuvent être données. Ces définitions concernent les concepts qui
apparaissent les plus importants pour mieux comprendre le sujet, la définition est essentielle
afin d’éviter l’ambigüité des termes ou la confusion des concepts.
3. La problématique
C’est la réflexion centrale qui découle du terme ou du sujet, elle permet de savoir la principale
réflexion qui devra être menée, elle peut se traduire sous forme affirmative ou interrogative.
En général la problématique est liée ou est proche du terme central. Elle peut être simplement
la reprise du sujet sous une forme différente ou plus originale. La problématique peut
comporter deux éléments : Une problématique centrale et des questions de problématique.
- La problématique fait ressortir l’idée forte de la réflexion. Les questions de problématique
précisent les différentes parties ou les différents éléments de cette problématique centrale.
4. L’intérêt du sujet
L’introduction devrait pouvoir montrer l’importance du sujet dans la compréhension du
phénomène précis ou des autres faits économiques, comment se situe le phénomène par
rapport à la compréhension de l’histoire et de l’actualité, comment cette étude peut aider à la
5. L’annonce du plan
Le développement des idées, dans le corps du sujet doit nécessairement être précédé de la
présentation et de l’annonce du plan, le plan devra être fondamentalement lié à la
problématique centrale et surtout aux questions de problématique.
Deux points essentiels seront relatifs au développement des idées : d’une part la justification
du sujet, d’autre part la présentation du plan et l’évolution des idées.
1. Justification du sujet
Justifier c’est montrer comme vrai, juste, réel par des arguments, par des preuves. La
justification de l’analyse économique en termes de dissertation sera basée sur la méthode
dialectique. La dialectique est l’ensemble des moyens mis en œuvre dans la discussion en vue
de démontrer ou de réfuter. Ainsi la méthode dialectique est une démarche dynamique de la
réalité par l’action des contraires (thèse et antithèse). Le plan de rédaction et surtout les actes
de problématique devraient pouvoir aboutir à mettre en œuvre cette méthode dialectique.
La méthode dialectique en se référant au plan va s’appuyer sur des principales idées relevées
dans l’introduction. Ces principales idées seront non seulement liées à la problématique
centrale mais aussi et surtout aux questions de problématique. C’est ainsi que la méthode va
aboutir à la présentation de la réflexion à partir de deux parties. Ces principales parties seront
à leur tour subdivisées.
Première partie : toujours par rapport à la méthode dialectique va présenter les données pour
les faits.
Deuxième partie : sera consacrée à l’analyse de ces données et aux propositions. Aussi de
l’importance de la qualité des données et des faits dépendra la pertinence de l’analyse et des
propositions. La présentation des faits dans la première partie retiendra donc certains
éléments relatifs au contexte de l’étude et à la situation du problème en précisant les
différentes dimensions. Mais cette partie retiendra surtout comme sous-partie les questions de
problématique relatives à la présentation des données.
Exemple : les deux premières questions de problématique relevées dans l’introduction. Quant
à la deuxième partie, elle fera ressortir d’une part les limites et les causes de ces limites,
d’autre part des propositions en termes de perspectives. On notera que cette seconde partie
devra relever de l’originale de la réflexion et de la pertinence de l’analyse c’est-à-dire que
c’est ici qu’on attend le plan. Il faut enfin retenir que la présentation matérielle doit être
intuitivement équilibrée. Cet équilibre devra se retrouver entre les deux grandes parties, entre
les sous-parties à l’intérieur des parties et enfin entre le nombre de sous-partie.
Section 3 : CONCLUSION
INTRODUCTION
La théorie du consommateur occupe une place centrale dans la théorie néoclassique. Elle s’est
construite autour de la notion d’utilité, et s’est particulièrement intéressée à l’utilité
marginale. Le consommateur, selon la théorie microéconomique néoclassique, est rationnel.
Il cherche à atteindre le panier optimal de consommation étant donné le budget limité dont il
dispose pour ses acquisitions. Il doit donc opérer des choix entre les biens souhaités. Pour les
effectuer à bon escient, il établit une hiérarchie de ses préférences qu’il confronte avec ses
moyens limités. Il choisit la combinaison de bien lui apportant la plus grande satisfaction,
c'est-à-dire l’utilité maximale. La recherche de l’utilité maximale sera menée en deux étapes :
une première approche sera effectuée en termes d’utilité marginale impliquant une étude
cardinale, la seconde en termes d’indifférence aboutissant à une étude ordinale.
1- Mesure de l’utilité
Pour les théoriciens de l’utilité ordinale (Vilfredo Pareto, Eugen Slutsky, John Hicks, Paul
Samuelson), qui ont d’ailleurs rejeté la théorie de l’utilité cardinale, ce qu’un consommateur
peut faire, c’est de classer raisonnablement les biens ou paniers de biens en fonction de
l’utilité qu’ils lui procurent. Ils ont alors admis que l’utilité est certes mesurable, et qu’elle
dépend des quantités consommées, mais qu’elle n’est pas additive. L’utilité ordinale établit en
outre une relation de préférence - indifférence.
2- L’utilité totale
2-1- Définition
C’est la satisfaction totale qu’un individu retire de la consommation d’une certaine quantité de
bien ou combinaison de biens.
Soit X et Y les biens consommés par un individu. L’utilité totale de celui-ci est notée :
UT ( X , Y ) ou U ( X , Y )
On peut ainsi définir pour un produit donné une fonction d’utilité de forme U f ( X ) .
Il n’est pas évident que l’on puisse trouver pour les consommateurs des fonctions à valeur
réelle qui soient des fonctions d’utilité. Il faut que les préférences du consommateur
remplissent certaines conditions pour qu’elles puissent être représentées par une fonction
d’utilité. Il existe trois (3) conditions suffisantes d’existence d’une fonction d’utilité :
La relation de préférence est une relation complète (ou symétrique) : c’est-à- dire que
existe les possibilités suivantes : X(x1 , x 2 ) est aussi préféré que Y(y1 , y2 ) ou bien
Y(y1 , y2 ) est aussi préféré que X(x1 , x 2 ) , ou encore ces deux relations sont vérifiées
simultanément, ce qui implique alors que le consommateur est indifférent entre les
moins aussi désiré » que lui-même X(x1 , x 2 ) est aussi préféré que X(x1 , x 2 ) ou
encore que tout panier est au moins aussi désirable qu’un panier identique ;
La relation de préférence est transitive. A partir des paniers X, Y et Z on définit les
relations suivantes :
Si(x1 , x 2 ) (y1 , y 2 )
alors (x1 , x 2 ) (z1 ,z 2 )
Et(y1 , y 2 ) (z1 , z 2 )
comme suit :
Utilité
UT
U2
U1
0 x1 x2 X
3- L’utilité Marginale
3-1- Définition
C’est l’utilité apportée par la dernière unité consommée (acquise) d’un bien. Elle représente la
variation de l’utilité totale résultant de la consommation d’une unité supplémentaire d’un
bien, les quantités des autres biens restant constantes (inchangées).
Elle est notée :
U (x, y) U (x, y)
UmX pour le Bien X et Umy pour le bien Y
x y
Il apparaît dans ce tableau que l’utilité apportée par chaque unité supplémentaire de produit
(utilité marginale) tend à diminuer avec l’accroissement des quantités consommées.
Remarque : La valeur d’un bien est fournie par l’utilité marginale et non l’utilité totale.
Compte tenu du caractère limité du revenu du consommateur, plus il achète un bien, moins il
peut acheter d’autres biens. Il met ainsi en balance le supplément de satisfaction procuré par
chaque acquisition avec les avantages supplémentaires inhérents à d’autres acquisitions
possibles. Son calcul économique se mène donc à partir d’un système de préférence
hiérarchisé en termes de comparaison d’utilités marginales.
APPLICATION 1
Unité de produit 1 2 3 4 5 6
Utilité marginale A
(UmA) 10 9 8 7 6 4
Utilité marginale B
(UmB) 24 21 18 15 9 3
Um
-L’utilité marginale pondérée (UmP) est : UmP ;
prix
Le consommateur achète le produit pour lequel l’utilité marginale pondérée est plus grande.
6 4 4 3 1
Tableau 2 : Loi d’égalisation des utilités marginales pondérées des biens A et B pour un revenu de 10 UM
Les colonnes 2b et 3b tiennent compte des prix respectifs des 2 produits en indiquant une
pondération de l’utilité marginale par les prix (utilité marginale par franc).
Dans la colonne 4 on constate que l’utilité marginale de la première unité de A pondérée par le
prix de A (Uma1 /Pa) est supérieurs à l’utilité marginale de la première unité de B pondérée par
le prix de B (Umb1 /Pb). Le consommateur a donc intérêt à choisir le bien A et en acquérir une
unité.
Le consommateur poursuit ses comparaisons et obtient que les utilités marginales pondérées
d’une troisième unité de A et de la première unité de B le conduit à acquérir 3 unités de A et
1 unité de B puisque chaque bien lui apporte, dans cette hypothèse, la même utilité marginale
pondérée.
Cependant ces achats ne lui ont pas permis de répartir tout son revenu (10F) puisque :
(3A x 1F) + (1B x 3F) = 6F. Il doit donc poursuivre ses achats et il acquiert une quatrième unité
de A et une seconde unité de B, achats pour lesquels se vérifie l’égalisation des utilités
marginale pondérées :
Uma 4 Umb2
pa pb
Il a ainsi affecté tout son revenu puisque (4A x 1F) + (2B x 3F) = 10F et obtenu la combinaison
lui assurant le maximum de satisfaction ou d’utilité totale (34 utils de A + 15 utils de B soit au
total 49 utils). Toute autre combinaison lui apporterait une satisfaction inférieure.
L’exemple décrit ici montre que la combinaison optimale sera obtenue lorsque le consommateur
aura reparti son revenu disponible de sorte qu’il y ait égalité des utilités marginales pondérées.
APPLICATION 2
2 300 100
3 330 30
4 340 10
5 340 0
TAF :
6 336 -4
1- Déterminer à l’aide de deux graphiques superposés les relations entre UT et Um.
2- Commenter.
OBSERVATION : Ces données indiquent qu’au fur et à mesure que la consommation du bien
X augmente, l’UT croit à taux décroissant. Quant à l’Um, elle décroit dès la deuxième unité
consommée : c’est la loi de l’Um décroissante.
150 Point
Utx
100 d'inflexion
50
0 Qx
0 1 2 3 4 5 6 7
250
Umx
200
150
100 Um
50
0 --4 Qx
-50 0 1 2 3 4 5 6 7
Application 3
1 1/2
Soit la fonction d’utilité suivante : U ( X , Y ) X Y . Si le consommateur consomme X = 1
2
et Y = 4, déterminer :
1- L’utilité totale
2- Les utilités moyennes UMx
et UMy.
3- Les utilités marginales Umx et Umy .
Correction
1
1. UT U (1, 4) (1) x(4) 2
2
1
X 1/ 2Y
U ( X ,Y ) 2 Y
2. UM X
X X 2 X 1/ 2
1
X 1/ 2Y
U ( X ,Y ) 2 1 1
UM Y X 1/2
Y Y 2 2
1
3. UmX U X, ( X , Y ) YX 1/2 1
4
1 1/2 1
UmY UY, ( X , Y ) X
2 2
1- Définition
La courbe d’indifférence (imaginée par EDGEWORTH et reformulée par PARETO) est le
lieu géométrique des points ou combinaisons de biens X et Y qui procurent au consommateur
le même niveau de satisfaction. En d’autre termes c’est la courbe qui relie les combinaisons
de biens X et Y dont la consommation procure le même niveau de satisfaction ou d’utilité
totale au consommateur. Soit la fonction d’utilité suivante : U = U(X, Y). La courbe
d’indifférence est définie comme l’ensemble de toutes les combinaisons (X, Y) qui vérifient
l’équation U(X, Y) = U, U étant le niveau d’utilité totale constante.
2- Représentation graphique
L’ensemble des combinaisons (X, Y) qui procurent le même niveau d’utilité implique :
que les biens X et Y sont infiniment divisibles ;
qu’ils sont substituables, c'est-à-dire que le consommateur peut décider de consommer
moins d’un bien et plus de l’autre ou vice versa, tout en maintenant son utilité totale
constante.
U = cste
0 X
Remarque :
Une série de courbes d’indifférence correspondant à différents niveaux de satisfaction
constitue une carte d’indifférence. En supposant que la satisfaction du consommateur
augmente avec la taille de son panier de biens, plus une courbe d’indifférence est éloignée de
l’origine, plus elle correspond à une utilité plus élevée.
U2
U1
U0
0 X
-Le sujet garde la même satisfaction totale en se déplaçant le long de la même courbe
d’indifférence. Toute courbe d’indifférence située au-dessus ou à droite d’une autre apporte
au consommateur une satisfaction plus élevée.
-Deux courbes d’indifférence ne peuvent pas se couper. Soient deux courbes U1 s’interceptant
en C, A un point de U2 et B un point de U1. Supposons que A est préféré à B. A et C étant
situés sur la courbe U2, alors le consommateur est indifférent aux deux combinaisons et par
transitivité C devrait être préféré à B. Or C et B sont situés sur la même courbe U1. Il ya donc
contradiction lorsqu’on considère que A est préféré à B. Par conséquent l’intersection des
courbes d’indifférence est logiquement impossible en raison de la propriété de transitivité.
A U2
B U1
0 X
Les courbes d’indifférence sont décroissantes, convexes par rapport à l’origine (le TMS est
décroissant le long d’une courbe d’indifférence).
Remarque : les courbes d’indifférence dont il est question sont des courbes typiques et sont de
la forme U (X, Y) AX Y , A 0,0 1 et 0 1 . Ce sont des courbes du type Cobb-
Douglas.
X 0, Y U 0 / b ; pour Y 0, X U 0 / a
0 X
Deux biens sont dits parfaitement complémentaires lorsqu’ils sont toujours consommés
ensemble dans des proportions fixes.
La fonction d’utilité est de la forme U(X, Y) = min (aX, bY), a et b étant des nombres réels
positifs indiquant les proportions dans lesquelles les biens sont consommés. Les courbes
d’indifférence sont orthogonales.
0 Y
4-3- Cas où l’un des deux biens en présence n’est pas désiré (bien neutre)
Dans ce cas la courbe d’indifférence peut être une droite verticale ou une droite horizontale.
Les fonctions d’utilité sont respectivement U(X, Y) = X = a et U(X, Y) = Y = b.
U0 U0
0 X 0 X
0 X
UmX dY
UmX .dX UmY .dY 0
UmY dX
. On en déduit que :
UmX dY UmX dY
TMS X /Y ou TMS X /Y
UmY dX UmY dX
Il est aussi égal à l’inverse du rapport de l’utilité marginale de Y(Umy) sur l’utilité marginale
de X (Umx) soit :
Y 1 Y UmX
TMS X /Y ou TMS X /Y
X UmY X UmY
UmX
Graphiquement, le TMS est donné par la valeur absolue de la pente (ou l’opposé de la pente)
de la tangente à la courbe d’indifférence.
Y1 A
Y
Y2 B
0 X
X1 X2
X
L’espace budgétaire représente l’ensemble de tous les couples de biens qui peuvent être
achetés par le consommateur lorsqu’il dépense tout ou partie de son revenu.
A,
A,,
B ,, B B,
B ,, B B,
Figure 12 : Effets des variations du prix du bien X sur la droite de budget
En substituant l’équation (3) dans l’équation (1), on obtient une fonction d’utilité fonction de
X1 seul, c'est-à-dire U f ( X , ( R / PY PX / PY . X ))
Il suffit donc de dériver U (équation 4) par rapport à X pour obtenir la quantité de X et
déduire celle de Y en utilisant la valeur de X dans l’équation (3).
U
- Condition de premier ordre ou condition nécessaire : U ,(X ) 0
X
2U
U ,, ( X 1 ) 0 existence d’un maximum.
X 2
2U
U ,, ( X 1 ) 0 existence d’un minimum.
X 2
1-3- Application
Soit la fonction d’utilité suivante : U(X,Y) = XY. Les prix des biens X et Y sont
respectivement P= 2 et Py= 5 et le revenu du consommateur est R = 100.
T.A.F.
1) Déterminer l’équation de la contrainte budgétaire.
2) Déterminer les quantités X et Y qui maximisent l’utilité du consommateur.
1) Contrainte budgétaire
R PX X PY Y 100 2 X 5Y
U
0 20 4 / 5 X 0 X 25 .
X
Y = 20 – 2/5 x 25 ⟹ Y = 10.
2- La méthode de Lagrange
2-1- Présentation de la méthode
Elles sont obtenues par annulation de la différentielle totale première de la fonction L, c'est-à-
L L L L
dire : dL dX1 dX 2 ... dX n d 0
X1 X 2 X n
L L
Or dL 0 si 0 (i 1,..., n) et 0 . Donc les conditions nécessaires de détermination
X i
du maximum sont obtenues lorsque les dérivées partielles premières de la fonction L sont
L L
nulles, c’est dire 0 (i 1,..., n) et 0.
X i
L
X UmX PX 0
L
UmY PY 0
Y
L
L R XPX YPY 0
Les conditions nécessaires (CIO) sont obtenues en résolvant les deux (2) premières équations
du système précédent. On a:
Elles nécessitent la détermination de la matrice hessienne bordée (H) à partir des dérivées
partielles secondes de la fonction de Lagrange. Soit :
LXX LXY LX U XX U XY P1
H LYX LYY LY UYX UYY P2
L X LY L P1 P2 0
Ensuite, on calcule le déterminant de cette matrice, noté det (H) ou H . En utilisant la
2-3- Application 5
Soit la fonction d’utilité suivante : U(X, Y) = X.Y. Les prix des biens X et Y sont
respectivement PX = 2 et PY = 5 et le revenu du consommateur est R = 100.
T.A.F.
1) Déterminer les fonctions de demande marshallienne.
Max U XY
S / C R XPX YPY
L( X , Y , ) XY ( R XPX YPY )
L
X Y PX 0 (1)
L
X PY 0 (2)
Y
L
R XPX YPY 0 (3)
(1) Y PX
(2) X PY
YPY
X (4)
PX
PY
(4) dans (3) R PX Y YPY 0
PX
R YPY YPY 0
R 2YPY 0
R
Y (5)
2 PY
R
PY
PY
(5) dans (4) X (5)
2 PX
100
Y 10
25
100
X 25
2 2
Remarque
UmX PX
A l’équilibre, TMS X /Y . Cette égalité (condition d’équilibre) permet de résoudre
UmY PY
plus facilement le programme de maximisation de l’utilité sous contrainte du revenu par la
méthode de Lagrange.
En l’appliquant à notre exemple, on a :
Max U XY
S / C R XPX YPY
L( X , Y , ) XY ( R XPX YPY )
L( X , Y , ) XY (100 2 X 5Y )
L
X 0 Y 2 (1)
L
0 X 5 (2)
Y
L
0 100 2 X 5Y 0 (3)
(1) Y 2
. Condition d’équilibre vérifiée car TMS X et
PX 2
(2) X 5 X /Y
Y PY 5
X 2 2
Y X (4) . En remplaçant (4) dans (3), on obtient les quantités d’équilibre
Y 5 5
X et Y
2
100 2 X 5 X 0 100 2 X 2 X 0
5
X X 25
2
Y Y X 10
5
3) Déduction de la valeur maximale de l’utilité du consommateur
R R R2
U U
2 PX 2 PY 4 PX PY
1002
A.N : U 250
4 25
R / PY
N A
B U0
0 M R / PX X
PX UmX
La condition d’équilibre du consommateur est donc : TMS X /Y
PY UmY
Le consommateur maximise alors sa satisfaction globale compte tenu de son revenu s’il
choisit la combinaison A.
R / PY
Courbe de consommation-prix
Y1 U3
Y2 U2
Y3 U1
0 X3 X2 X1 R / PX 2 R / PX 1 X
Figure 14 : Courbe de consommation-prix
U3
Courbe consommation-revenu
U1 C
A B U2
0 R1 R2 R3 X
INTRODUCTION
La théorie de la demande cherche à identifier les raisons qui sous-tendent la demande d’un
bien par un consommateur. La demande d’un bien désigne la relation entre la quantité
optimale de ce bien et les valeurs possibles des variables qui la déterminent. Elle est fonction
des variables qui influencent le choix du consommateur à savoir : le prix du bien considéré,
les prix des autres biens, le revenu du consommateur, ses goûts et préférences, son patrimoine
ou sa richesse, etc. Cependant, l’analyse microéconomique élémentaire de la fonction de
demande privilégie les trois premières variables, c’est-à-dire le prix du bien, les prix des
autres biens et le revenu du consommateur.
1- L’approche primale
Elle consiste à maximiser la fonction d’utilité sous contrainte du revenu. Cette approche a
déjà été étudiée au chapitre 1.
2- L’approche duale
Elle consiste à minimiser le revenu dépensé sous contrainte d’un niveau d’utilité donné. En
d’autres termes dans l’approche duale, le niveau d’utilité est fixé et l’on cherche la dépense
minimale (revenu minimum) qui permet d’atteindre ce niveau d’utilité.
Le comportement du consommateur est alors formalisé par le programme suivant :
Les fonctions de demande marshallienne (ou normale) des biens X et Y sont obtenues à parti
des conditions du premier ordre du programme de maximisation de l’utilité du consommateur
sous contrainte de son budget. Déjà fait au chapitre 1.
Soit X i, X i ( P1 , P2 ,..., Pn ,R) , X i,i 1, 2,..., n , les fonctions de demande marshallienne.
La fonction d’utilité indirecte est déterminée de la façon suivante : V U ( X i ) sont alors les
Application
1 1
Un consommateur a une fonction d’utilité de la forme U ( X , Y )
X Y
Le revenu et les prix sont respectivement R, Px et Py.
X i X i ( Pi ,U 0 )
remplaçant les Xi par les fonctions de demande compensée, on obtient la fonction de revenu
compensé, soit R Pi X i .
La fonction de dépense ainsi obtenue dépend des prix (Pi) et de l’utilité (Uo).
On démontre par ailleurs que la dérivée de la fonction de revenu compensé par rapport au prix
R
d’un bien est égale à la demande compensée de ce bien, c’est-à-dire Xi
Pi
(Lemme de Shephard).
d’utilité U .
2ème étape : détermination des demandes hicksiennes pour le niveau d’utilité U , soit
X i ( Pi , Pj ,U ) et X j ( Pj , Pi ,U ) .
3ème étape : Comme Xi est limité à X°i, pour déterminer P’i, il suffit de résoudre l’équation,
X i ( Pi , Pj ,U ) X0i dans laquelle Pi est remplacé par P’i.
APPLICATION
Un consommateur a une fonction d’utilité de la forme U ( X , Y ) X 1/2Y 1/2 . La quantité
disponible du bien X est 4. On donne R = 20 et Px,y = (2 ; 5).
TAF :
1) Montrez que le consommateur est rationné par rapport à sa demande concurrentielle.
2) Déterminez le prix implicite P’X du bien X.
Cette variation du prix entraîne également une variation du pouvoir d’achat, qui correspond à
l’effet-revenu. En d’autres termes, l’effet revenu désigne la variation de la quantité demandée
suite à la variation du pouvoir d’achat qu’entraîne la variation du prix d’un bien. Ces effets
ont été mis en évidence par Eugen Slutsky (1915) et John Richard Hicks (1946).
Selon Slutsky, l’effet de substitution est la variation de la quantité demandée d’un bien
consécutive à la variation du prix de ce bien, le revenu réel du consommateur restant constant.
En d’autres termes malgré la variation du prix d’un bien, le consommateur désire accéder au
panier optimal, c'est-à-dire bénéficier du même pouvoir d’achat. Pour cela il lui faudrait une
variation compensatrice de son revenu nominal (∆R).
Application
Un consommateur a une fonction d’utilité de la forme U ( X , Y ) 2 X 1/2Y 1/2
Situation 1 : PX= 2 ; PY= 5 ; R = 20.
Situation 2 : P’X = 4 ; PY= 5 ; R = 20.
T.A.F : Déterminez l’effet de substitution.
Résumé
Supposons un ménage qui dispose d’un revenu R et qui consomme deux biens X et Y ayant
pour prix respectifs PX et PY (situation initiale S0).
On suppose par la suite que le prix du bien X varie et devient P’X. On a alors :
Situation 0 : R = PxX+ PyY (1). Cette droite de budget est tangente à la courbe
d’indifférence initiale (équilibre initial E0) et coupe [OX) en R/PX.
Le consommateur désirant conserver son pouvoir d’achat initial, on aura :
X S X S ( P, X ,R , ) X ( PX ,R)
X R X R ( P, X ,R) X ( P, X ,R , )
Selon Hicks, l’effet de substitution est la variation de la demande d’un bien suite à la variation
du prix de ce bien, le niveau d’utilité du consommateur demeurant constant.
1ère Méthode
-Déterminer l’équation du chemin d’expansion (avec la nouvelle valeur du prix) ;
-Substituer l’équation déterminée dans la fonction d’utilité (U0 = U(Xi) les valeurs initiales) ;
-En déduire XS.
2ème Méthode
-Déterminer U0, avec les valeurs initiales ;
-Exprimer Y en fonction de X et U0 ;
-Déterminer la pente de la fonction obtenue,
-Déterminer la pente de la droite de budget de la période finale (période 2)
-Résoudre l’équation pente (Uà) = pente (R), puis déduire Xs.
3ème Méthode
Minimiser le revenu sous contrainte de l’utilité (avec les nouveaux prix).
min XiPxi,1,2,..., n
Soit
S / C U 0 U ( Xi)
Application
La fonction de demande d’un bien est donnée par l’expression P 10 / X 1/2
Résolution
La demande peut s’exprimer sou la forme : X 100 / P2
X P
X / PX . En remplaçant X par sa valeur dans l’expression X / P , on obtient :
P X
X / PX 200 / P3 P3 /100 2
Remarque : Lorsque les quantités demandées d’un bien et les prix varient sur différentes
périodes, le coefficient d’élasticité de la demande par rapport au prix se calcule de la façon
suivante :
L’élasticité-prix directe est normalement négative, mais peut avoir un signe positif en cas
d’exception à la loi de la demande (effet Giffen, effet Veblen). Les différentes interprétations
de l’élasticité-prix directe sont :
X / PX 0 signifie que le bien X a une demande normale par rapport au prix. On distingue
Remarque : lorsque l’augmentation du prix d’un bien entraîne une baisse de sa demande,
ceteris paribus, on dit que ce bien est ordinaire. Dans le cas contraire, on parle de bien de
Giffen. En effet, Sir Robert Giffen, économiste irlandais, a observé pendant la famine de
1850, une augmentation de la consommation de pommes de terre par les paysans irlandais,
tandis que le prix des pommes de terre venait d’augmenter (le paradoxe de Giffen).
X Py X Py
X / PY /
X Py Py x
X R X R
X /R /
X R R x
X /R 1 biens supérieurs ou de luxe ; il s’agit de biens dont la demande varie plus que
proportionnellement aux variations du revenu.
APPLICATION
La consommation de riz d’un ménage passe de 50 kg à 100 kg lorsque son revenu varie de
150 UM à 400 UM. Calculez l’élasticité-revenu ( X /R ) de la demande de ce ménage.
Cissé gagne 400 UM par mois. Il dépense en achats de biens de consommation la totalité de
son salaire à raison de :
- 50% en alimentation ;
- 10% en logement, électricité et eau ;
- 12% en habillement ;
- 28% en dépenses diverses.
TAF
1) Quelle est sa dépense mensuelle en UM pour chacune de ces 4 catégories de dépenses ?
2) Il bénéficie d’une augmentation de salaire de 10%, les prix restant stables. Les coefficients
d’élasticité de sa demande de biens en fonction de son revenu sont :
0,5 pour l’alimentation ;
0 pour le logement, l’électricité et l’eau ;
0,8 pour l’habillement ;
- 1 pour les dépenses diverses.
Calculer ce que sera, après l’augmentation de 10% du salaire :
a) La dépense mensuelle en UM de Cissé pour chacune des quatre catégories de dépenses ;
b) Le coefficient d’élasticité de sa demande totale.
1) La dépense mensuelle du salarié pour chacune des quatre catégories de dépenses est :
50
- Alimentation ( D1 ) 400 200 F
100
10
- Logement, électricité, eau ( D2 ) 400 40 F
100
12
- Habillement ( D3 ) 400 48F
100
28
- Dépenses diverses ( D4 ) 400 112 F
100
D,
D1 0,5 D1 R
0,5 D,
R R
R
0,5 200 40
D, 10
400
D, 200 D, D, 200 10 210F
D ,,
D2
0 AD ,, 0
R
R
0,8 48 40
D,,, 3,84
400
D,,, 48 3,84 51,84 F
La nouvelle dépense en dépenses diverses (D’’’’) est :
D,,,,
D4 1 D4 R
1 D,,,,
R R
R
1112 40
D,,,, 11, 2
400
D,,,, 112 11, 2 123, 2 F
425, 04 400
RD 400 0, 626
440 400
400
1- Définition
Le surplus (ou rente) du consommateur désigne la différence entre la somme maximale qu’il
est disposé à payer pour obtenir une certaine quantité d’un bien et la dépense qu’il supporte
effectivement. On appelle prix de réserve ou de réservation le prix unitaire qu’il est disposé à
payer.
2- Illustration
Supposons que pour acquérir 3 unités d’un bien, un individu soit disposé à payer 4000 F par
unité. Le vendeur, lors de l’achat, facture le bien à 3500 F. le surplus (S) de cet individu est
donc : S = 3 x 4 000 – 3 500 x3 = 12 000 – 10 500 = 1 500 F. On peut l’illustrer
graphiquement de la façon suivante : (faire le graphique).
En considérant la fonction de demande de façon générale, le surplus du consommateur se
calcule de la façon suivante.
S aireOABQ0 aire OP0 BQ0
Q0
aireOABQ0 P(Q)dQ et aire OP0 BQ0 P0 Q0
0
Q0
S P(Q)dQ P0Q0
0
APPLICATION
La demande d’un bien est Q = -1/2 P + 5. Un consommateur achète une certaine quantité de
ce bien au prix P0 = 2.
Calculer le surplus de ce consommateur.
Résolution :
Q 1 P 5 P 2Q 10
2
P0 2 Q0 1 2 5 4
2
4
S (2Q 10)dQ 2 4
0
4
Q 2 10Q 2 4
0
42 40 8 D 16
Résolution
Le surplus initial (S0) du consommateur est représenté par l’aire du triangle ABP0. Quant au
surplus final (S1), il est représenté par l’aire ACP1. La variation du surplus (∆S) est donc :
S S1 S0
Q1 Q0
PdQ PQ
1 1 PdQ P0Q0
0 0
Q1 Q0
PdQ PdQ P0Q0 PQ
1 1
0 0
Q1 Q0
PdQ PdQ P0Q0 PQ
1 1
0 0
Q1
S PdQ P0Q0 PQ
1 1
Q0
L’un des principes essentiels de la théorie libérale est la non intervention économique de
l’État. Mais en réalité l’État intervient pour des raisons d’ordre socio-économique, soit en
subventionnant un bien, soit en taxant un bien.
Résolution
θ étant le taux de subvention, on a : P1 = P0(1 - θ) ⟹ P1 car > 0. L’équilibre initial du
consommateur étant B (Q0, P0< P0), le surplus correspondant est le triangle ABP0. Avec la
subvention, le nouveau surplus est le triangle ACP1 (C étant le surplus). La variation du
surplus du consommateur due à la subvention est donc l’aire du trapèze P0 BCP1. ∆S = aire P0
BCP1 = (grande base + petite base) x hauteur/2.
Reprenons l’exemple précédent mais supposons cette fois la taxation (imposition) du prix du
bien en question.
Résolution
L’équilibre initial du consommateur est représenté par le point B (Q0, P0). Avec la taxation du
prix du bien par l’État, le nouveau prix devient P1, tel que P1, P1BCP1> P0. Au prix P0, le
surplus est l’aire du triangle ABP0. Il devient au prix P1 l’aire ACP1. On note donc une
variation négative du surplus représentée par l’aire du trapèze P0
1- Généralités
Le travail est une activité humaine caractérisée par une certaine pénibilité et ayant pour but de
rechercher un gain (revenu). Quant au loisir, il désigne toute activité ne donnant pas lieu
directement à un revenu. En d’autres termes, le loisir est perçu comme le temps dont on peut
librement disposer en dehors de ses occupations habituelles et des contraintes que celles-ci
imposent.
Soit L0 le temps maximal dont dispose un individu et R son revenu disponible, avec :
L0 = L + l où L = temps de travail et l = temps de loisir ;R = wL + W 0 où w = taux de salaire
et W0 = revenu non salarial. On suppose que cet individu achète une quantité Q d’un bien au
prix P. La contrainte budgétaire de cet individu est donc : R = P.Q
R = P.Q ⟹ wL + W0 = P.Q
⟹ w(L0 – l) + W0 = P.Q
⟹ wL0- wl + W0 = P.Q
⟹ wL0+ W0= P.Q + wl.
wL0 + W0= ressources potentielles de l’individu. Ces ressources potentielles peuvent être soit
consacrées à des dépenses de consommation (P.Q), soit utilisées partiellement sous forme de
loisir. Tout se passe comme si l’individu achetait le temps de loisir (l) à un prix égal au taux
horaire de salaire (w).
3- Programme d’optimisation
4- Application
Soit un consommateur qui a pour fonction de consommation U (Q, l) = Q2l, où Q est un bien
de consommation et l la consommation de loisir. Il n’a que son temps libre (L0 = 14) comme
ressource. Il peut partager ce temps libre entre le travail (L) et le loisir (l).
INTRODUCTION GENERALE
La théorie néoclassique du comportement du producteur se propose d’expliquer comment une
firme ou producteur devrait organiser sa production afin de maximiser le profit qui découlerait
de son activité. Le profit étant donné par la différence entre la recette et le coût de production,
le problème économique du producteur ou de la firme pourrait être posé comme un problème
de maximisation de la production sous une contrainte de coût ou un problème de minimisation
du coût sous une contrainte de production. En effet si la firme se trouve en face de plusieurs
technologies qui lui coûtent un même montant, elle devra choisir celle qui donnerait lieu à une
plus grande production. Par ailleurs si elle est en présence de plusieurs technologies qui
donnent lieu à un même niveau de production, elle devrait choisir celle qui coûte le moins. La
théorie postule à cet égard qu’une firme rationnelle est celle qui utilise les facteurs de
production (inputs) jusqu’au point où leur productivité marginale en valeur sera égale à ce que
le facteur lui coûte. Aussi, elle avance qu’une firme rationnelle exploite toutes les possibilités
d’affaires que l’économie ou le marché lui offre afin de maximiser son profit.
Dans le court terme, on note que le facteur capital (K) est fixe car ce n’est pas du jour au
lendemain qu’une firme peut revoir ses équipements ou sa capacité productive installée. Seul
le facteur travail (L) peut varier dans le court terme. Ainsi, les variations de la production sont
dues aux variations de L mais cela ne veut pas dire que K cesse d’être un déterminant de Y.
L’utilisation du facteur variable devrait se faire en tenant compte de la capacité installée,
c’est-à-dire du facteur fixe. Il ne faudrait pas le sous-utiliser ni l’utiliser de manière abusive.
La fonction de production de court terme peut alors s’écrire sous la forme suivante :
Y = f(L,K0), avec L ˃ 0 et K0 ˃ 0 et Y = quantité produite, où le capital K = K0 = ensemble
des facteurs fixes ; et le travail L = ensemble des facteurs variables.
2- Concept de productivité
Puisque le facteur capital (K) est fixe dans le court terme, il intervient comme paramètre et la
fonction de production définie ci-dessus devient fonction de (L) seul. Cette fonction de
production permet de déterminer 3 grandeurs : la productivité totale (PT), la productivité
moyenne (PM) et la productivité marginale (Pm).
Exemple : Pour une fonction Cobb-Douglas notée Y X1 X 2 , les produits moyens des deux
PmXi dY Xi
Y , Xi
PMXi dXi Y
Exemple : Compte tenu des résultats obtenus ci-dessus, on établit que pour une technologie
Cobb-Douglas, l’élasticité de la production par rapport au facteur X1 est égale à a et pour X2,
elle est égale à ß.
Y ,
PmL f L ( L, K0 )
L
NB : Lorsque la productivité marginale d’un facteur devient négative, cela suppose que la
firme en fait un mauvais usage ou un usage excessif et qu’il faudrait en réduire l’usage.
3- Représentation graphique
O, M
Y ou PT
0 A B L
PM ou C
Pm PML
PmL
0 B, M, L
La zone II est qualifiée de zone de validité de la fonction de production en ce qu’elle n’est pas
caractérisée par une sous-utilisation du facteur fixe ni par une sur-utilisation anti-économique
de ce dernier. Dans cette zone, on vérifie que le produit marginal de L est positif et évolue à
NB : On dit que le facteur fixe est sous-utilisé lorsque l’élasticité de l’output par rapport au
facteur variable est supérieure à un (zone I) et on dit qu’il connaît une sur-utilisation
économiquement tolérable lorsque l’élasticité est comprise entre zéro et un (zone II appelée
zone de validité). Lorsque l’élasticité devient négative, on parle d’une sur-utilisation
antiéconomique (zone III).
Lorsqu'on associe de plus en plus de facteur variable X1 à une quantité donnée de facteur fixe
X2, l'accroissement de la production peut être, soit plus fort, soit identique, soit plus faible que
l'accroissement du facteur variable. Même si dans la réalité toutes les situations sont
possibles, le bon sens et la logique conduisent cependant, lorsqu'on généralise, à privilégier la
dernière hypothèse, connue sous le nom de « loi des rendements décroissants » (ou loi de la
productivité marginale décroissante, ou enfin hypothèse des rendements factoriels
décroissants) qui stipule que lorsque l’on accroit l’utilisation d’un facteur de production
Dans le long terme, tous les inputs deviennent variables. Ainsi, la firme a une plus grande
marge de manœuvre en termes de possibilité de combinaison des facteurs. Si les deux sont
substituables, la firme peut réaliser un même niveau de production en se servant de plusieurs
combinaisons d’inputs. Le lieu géométrique de ces différentes combinaisons d’inputs est
appelé isoquant ou courbe d’isoproduit.
K1 A
K2 B Y0
0 L1 L2 L
Figure 2 : un isoquant
Les combinaisons A et B ne sont pas identiques mais puisqu’elles sont sur le même isoquant,
elles donnent lieu à un même niveau de production Y0. Le passage de A à B se traduit par une
diminution de la quantité utilisée de K et un accroissement de la quantité utilisée de L. Ces
variations n’ont pas altéré ou accru l’échelle de production car l’ajustement des quantités des
deux facteurs s’est fait en fonction de la productivité marginale de chaque input. Étant donné
que sur l’isoquant, le niveau de production est constant, on peut écrire : Y0 = f(L, K).
Remarque : un accroissement de l’un ou l’autre des deux (2) facteurs variables engendre une
augmentation de l’output.
K1 A D
P2
K2 B
K3 C P1
0 L1 L2 L3 L
L’output (P1) peut être obtenu indifféremment avec les combinaisons A,B ou C. L’output
(P2) est obtenu en maintenant constant le capital K1 mais en augmentant le facteur L de L1 à
L2 à L1
dK PmL
TMS L / K
L PmK
K
TMS L / K
L
NB : Géométriquement, le taux marginal de substitution technique peut s’interprété comme la
pente à un point précis de l’isoquant. Lorsqu’on passe de A à B, on constate que la pente de
l’isoquant décroît. Ceci tient au fait que le facteur K en devenant relativement rare, voit son
produit marginal augmenter et le facteur L en devenant relativement abondant, voit son
produit marginal diminuer, d’où une baisse du TMST.
Lorsque l’on s’intéresse à l’effet d’une variation équi-proportionnelle de tous les facteurs de
production sur l’output, on procède à l’analyse des rendements d’échelle. Ces derniers
peuvent être croissants, constants ou décroissants. Soit t, un scalaire par lequel on augmente
les quantités utilisées de tous les facteurs. On dira qu’une technologie est caractérisée par :
(1) des rendements constants à l’échelle si f(tL, tK) = tY ;
(2) des rendements croissants à l’échelle si f(tL, tK) < tY ;
(3) des rendements décroissants à l’échelle si f(tL, tK) > tY.
Une fonction de production est dite homogène de degré m, lorsqu’en multipliant tous les
facteurs de production par une constante t, on obtient une expression de la forme :
f (tL, tK ) t m f ( L, K )
Dans ces conditions, une technologie à rendements d’échelle constants doit être homogène de
degré 1, une technologie à rendements d’échelle croissants doit être homogène d’un degré
supérieur et une technologie à rendements d’échelle décroissants doit être homogène d’un
degré inférieur de l’unité.
5- Théorème d’Euler
Lorsqu’une fonction de production est linéairement homogène, le théorème d’Euler s’exprime
sous forme d’identité.
Q Q
Soit Q f ( K , L) avec f K, PmK et f L, PmL
K L
Alors f K, .K f L, .L Q
Sous forme générale, le théorème d’Euler établit que pour une fonction de production
homogène de degré m, on vérifie l’égalité ci-après :
NB :
Si on suppose que les facteurs de production sont rémunérés à leur productivité marginale, en
appliquant, le théorème d’Euler, il s’en suit que la rémunération totale des facteurs est égale à
la production. En d’autres termes, la production est juste suffisante pour rémunérer les
facteurs de production. Puisque toute la production sert à rémunérer les facteurs de
production, il n’y a pas de résidu et on dit qu’il y a épuisement total du produit (règle de
l’épuisement du produit dans le cas d’une fonction de production homogène de degré 1) : dans
ce cas, le profit est nul.
Si l’on considère un producteur quelconque, son offre sera soit nulle, soit indéterminée. En
effet, puisque les rendements sont constants, le coût unitaire est le même quelque soit le
niveau de production. Donc si le prix de l’output est inférieur à ce coût unitaire, il n’y aura
pas de production : s’il lui est juste égal, il peut y avoir production mais le niveau de celle-ci
sera indéterminé. Le profit étant nul, quelle que soit la quantité produite, le prix de vente est
égal au coût.
Enfin, si le prix de l’output est supérieur au coût unitaire, l’entrepreneur a intérêt à développer
indéfiniment sa production.
1- La fonction Leontief
La fonction Leontief est une fonction à facteurs ou inputs complémentaires. Supposons que
pour obtenir une unité d’output, il soit nécessaire d’utiliser v unités de capital et u unités de
travail, v et u étant des coefficients techniques, fixes. Pour obtenir une quantité Q d’output il
K L
faudra donc unités de capital et unités de travail, si la firme dispose de K et L, les
V U
quantités respectives de capital et de travail.
Le capital et le travail étant utilisés dans des proportions fixes, on peut déduire que toutes les
K L V
combinaisons efficientes vérifient les égalités : Q K L
V U U
Si on fait varier l’un des facteurs de production l’autre restant constant, le niveau de
production ne change pas. En d’autres termes la productivité marginale du facteur variable est
égale à zéro. La variation de la production est proportionnelle à la variation des inputs. Le
TMST n’a donc pas de signification ici, car la substitution n’est pas possible. Cette fonction
de production est homogène de degré un (1) car un accroissement équi-proportionnel des deux
facteurs entraîne une variation dans les mêmes proportions de l’output.
2- La fonction Cobb-Douglas
La fonction Cobb-Douglas a été introduite en 1928 par deux américains, Charles William
Introduction
La théorie néoclassique de l’entreprise admet que l’entrepreneur recherche un maximum de
profit. Ce comportement rationnel de l’entrepreneur le conduit à définir les choix optimaux de
production et de demandes rationnelles des facteurs. L’entreprise produit donc des biens et
des services en étant soumise à une contrainte technique traduite par sa fonction de
production. L’utilisation de facteurs entraîne des coûts de production de diverses natures. Les
conditions physiques de la production, le prix des ressources et la conduite économiquement
efficiente d’un entrepreneur concourent à déterminer le coût de production d’une entreprise.
Étant donné que l’analyse de la production a été envisagée en fonction de l’horizon temporel,
nous envisagerons aussi l’analyse des coûts en deux temps. La fixité d’un facteur dans le
court terme a des conséquences sur la structure des coûts et même sur les décisions à prendre
par la firme en termes de production.
Section 1 : GENERALITES
Pour produire son output Q, la firme doit acheter les inputs L et K sur le marché des facteurs
respectivement aux prix s et u. Ainsi, on peut définir le coût de production comme étant la
somme des dépenses engagées par la firme pour générer l’output Q.
On écrit : C = s.L + u.K.
Puisque les inputs L et K concourent à la réalisation de l’output Q, on peut également
exprimer le coût de production comme une fonction de Q. On écrit alors : C = C(Q).
A court terme, le facteur K est maintenu constant alors que le facteur L est variable. Ainsi, la
Représentation graphique
Coût CT
total
CF
0 Q
Coûts
CFT
CFM Q
0 1
Figure 2 : courbes de coût fixe moyen et de coût fixe total de court terme
0 Q
Le coût moyen ou coût total moyen désigne le coût de production d’une unité d’output. Il
s’obtient par le rapport entre le coût total de production et la quantité d’output généré, soit :
CT
CTM
Q
Le coût moyen étant le rapport du coût total avec le volume de production y, on arrive à
établir que le coût moyen est égal à la somme du coût variable moyen et du coût fixe moyen,
soit :
CFT CVT
CTM CFM CVM
Q Q
Remarque :
– A court terme, le CTM et le CVM sont distincts à cause de la présence de coûts fixes.
– Le prix du produit permettant de faire face à l’ensemble des coûts variables est la condition
de fonctionnement de l’entreprise ; le minimum du CVM est le seuil de fermeture de
l’entreprise.
– Tout comme la courbe de coût total, la courbe de coût variable aura dans un premier temps
une pente positive mais décroissante et ensuite une pente positive et croissante. Ainsi, la
courbe de coût variable aura elle aussi l’allure de la lettre S renversée.
Il représente l’impact d’une variation de Q sur le coût total. En d’autres termes c’est le coût
supporté par la firme pour générer une unité additionnelle d’output. En présence de données
discrètes le coût marginal est donné par le rapport suivant :
Lorsqu’on se trouve par contre devant une fonction de coût continue et dérivable, on peut
calculer le coût marginal en calculant la dérivé de CT par rapport à Q, soit :
dCT
Cm g , (Q)
dQ
Remarque : La dérivée du coût total est égale à celle du coût variable car la dérivée du coût
fixe est nulle. Ceci montre que la courbe représentative du coût variable aura la même allure
que celle de la courbe de coût total.
Représentation graphique
Coût marginal
Cm
CVM
isocût
0 L
La courbe de coût de long terme est une courbe enveloppe des courbes de coût de différentes
sous-périodes qui forment la longue période. Elle décrit le coût de production minimum de
chaque volume de production quand la firme peut ajuster de façon optimale tous ses moyens
de production.
CT
CTK1
,,
C CTK2 CTK3
CTL
C,
Q1 Q2 Q3 Q
-A chaque taille d’usine correspond une courbe de coût total de court terme ;
-Une usine de petite taille à un coût total = CTk1;
-Celle de taille moyenne à un coût total = CTk2;
-Et celle de grande taille à un coût total = CTk3.
Chaque niveau de production (Q) peut être atteint avec différentes tailles d’usine, et à des
niveaux de coûts différents. Par exemple, le niveau de production (Q3) peut être atteint avec
l’un des trois coûts C, C’, C’’.Si en longue période, l’entrepreneur pense qu’il devra produire
la quantité (Q3), il choisira la taille d’usine qui permet de produire avec le minimum de coût
c’est-à-dire l’usine de grande taille CTk3. En définitive, on retient que la courbe de coût total
(CT) de long terme est représentée par les minima des courbes de CT de court terme.
En définitive, la courbe de coût moyen de long terme, est celle qui joint les points
minima des courbes de coût moyen de court terme. C’est la courbe-enveloppe des
courbes de CM de court terme.
NB : Les courbes de coût moyen de court et de long termes se ressemblent dans la mesure où
elles ont chacune une forme en U. Les raisons sont cependant très différentes :
– La courbe de coût moyen de court terme (CMCT) a une forme en U, parce que la baisse du
coût fixe moyen finit par être plus que compensée par la hausse du coût variable moyen, cette
dernière survenant parce que le produit moyen atteint un maximum et puis décline.
– La forme en U de la courbe de coût moyen de long terme (CM LT) s’explique par les
rendements d’échelle croissants ou décroissants dans la fonction de production.
Représentation graphique
CM CmCT
Cm
CMCT CmLT
CMLT
0 Q1 Q2 Q
Analyse du graphique
- Le CMLT est minimum pour le volume de production tel que les courbes de CMLT et de
CmLT se coupent en un point C.
– Pour un établissement donné, au point A correspondant au produit Q1 sont égaux. Par
conséquent, le coût total de court terme et aussi égal au coût total de long terme. En effet,
CMCT= CTCT/Q et CMLT= CTLT/Q ; si CMCT, CMCT et CMLT = CMLT, alors CTCT = CTLT.
– Pour des produits plus petits que Q1, CMCT est plus élevé que CMLT et le coût total de court
terme est donc plus élevé que le coût total de long terme. Par conséquent pour un
accroissement du produit en direction de Q1, le coût marginal de long terme, quelle que soit sa
valeur, doit être supérieur au coût marginal de court terme. Donc Cm LT se situe au-dessus de
CmCT à gauche du point A.
– Pour un accroissement du produit au-delà de Q1, CMCT est supérieur à CMLT et le coût total
de court terme dépasse le coût total de long terme.
1- La maximisation du profit
Le problème économique de base de la firme est celui de maximiser son profit. Ce dernier est
fonction de la quantité d’output et a pour expression : π(Q) = RT(Q) – CT(Q).
La recette totale (RT) de l’entrepreneur est égale au produit du nombre d’unités vendues (Q)
et du prix unitaire (P) de l’output, c’est-à-dire RT = P.Q.
Son profit (π) peut alors s’écrire sous la forme : π = PQ – CT(Q). La maximisation du profit
vérifie les deux conditions suivantes :
– Condition nécessaire : on annule la dérivée première π de par rapport à Q, c’est-à-dire
d
0 P Cm P Cm (coût marginal).
dQ
d 2
– Condition suffisante : la dérivée seconde doit être négative, c’est-à-dire 0
dQ
d 2 d 2
Or CT ,, (Q) Cm, (Q) donc 0 Cm, (Q) 0 . On en déduit donc que le Cm
dQ dQ
doit être croissant pour la valeur de l’output qui maximise le profit.
En somme, pour maximiser son profit, l’entrepreneur doit choisir le niveau de production
pour lequel le Cm est croissant et égal au prix de vente (généralement le prix du marché) du
produit.
maxQ f ( K , L)
sc M uK sL
Le lagrangien associé à ce programme est : £(K, L, ) f(K, L) (M uK sL)
min uK sL
s.c Q0 f ( K , L)
Le lagrangien qui en découle est : £(K, L, ) uK sL (Q0 f ( K , L) o
Il est question ici de définir les règles à observer par une firme qui se veut techniquement
efficace et qui voudrait faire une entrée réussie sur le marché dans lequel elle aura à vendre
son output.
Isoquant
K
KCT A
E Isocoût
K*
Q0
0 LCT L* L
Il se dégage de ce graphique que la réalisation de Q0 dans le court terme (point A) coûte plus
cher que si l’on se trouvait au point E, point qui peut être envisagé dans le long terme. Si la
firme avait la possibilité de faire varier le facteur K, elle l’aurait fait mais sa fixité ne le lui
permet pas. Ceci montre que dans le long terme, la firme a la possibilité de s’ajuster de
K
Sentier d’expansion
E3
E2
E1
0 L
/( )
u
CT s Q1/( )
-
s
La fonction d’offre met en relation l’output et le prix auquel il est vendu sur le marché. La
décision d’offrir un bien sur le marché dépend du niveau du prix auquel il est vendu ainsi que
de la structure des coûts. La firme devra en effet observer l’égalité P = Cm.
1- Le seuil de fermeture
Si le prix du marché est PF, un niveau de prix qui permet à la firme de ne couvrir que son coût
variable, la firme pourrait arrêter de produire car la perte qu’elle va enregistrer sera identique
à celle qu’elle connaîtrait si elle ne produisait pas.
3- La courbe d’offre
Généralement c’est pour des niveaux de prix supérieurs à PR que la firme décide d’offrir son
bien sur le marché. On conclut ainsi que la courbe d’offre de la firme correspond à la partie
ascendante de la courbe de coût marginal en partant du seuil de rentabilité.
Cm
CM
CVM
PR
PF
0 Q