Vous êtes sur la page 1sur 61

Cours d’économie

Chapitre I. Nature de l’activité économique et objet de la science économique

I- Définition de l’économie

La science économique : peut être défini selon l’analyse économique. Cette dernière tient compte
du fait que les hommes éprouvent des besoins illimités, quels qu’ils soient. Cependant, les
ressources sont limitées et donc rares. Par exemple, le temps, l’argent ne sont pas inépuisables.
Ceci engendre l’obligation de choix dans l’allocation des ressources, et donc un choix dans les
besoins que l’on va satisfaire. La science économique se donne pour objectif de résoudre le
problème de la rareté des ressources .De manière générale, toute théorie économique manipule des
concepts de base qui définissent :
− Des objets économiques: les constituants de la richesse matérielle et des moyens de la
créer et de la faire circuler : marchandises, biens, travail, monnaies, titres, informations.
− Des actes économiques : production, échange, consommation, épargne, par lesquels se créent,
circulent et sont détruits les objets économiques.
− Des acteurs économiques, ce sont des sujets, individuels ou collectifs, qui commettent les actes
économiques en manipulant les objets économiques. Les acteurs se caractérisent par leurs
comportements à l’égard des objets économiques.
1. Objets économiques
Les objets économiques sont les constituants de la richesse dont nous avons emprunté la définition
à Smith : « l’étendue des nécessités, des commodités et des agréments de la vie humaine dont un
homme peut jouir », ainsi que les moyens de la créer et de la faire circuler.
1.1 Les marchandises: Il faut tout d’abord distinguer, parmi les objets économiques,
celles qui sont des marchandises et les autres.
Est une marchandise tout objet économique appropriable, c’est-à-dire sur lequel existe un
droit de propriété privé. Ce droit permet à son détenteur d’interdire à tout autre l’usage de cet
objet. Ce droit est aliénable. Il peut être transféré, en échange d’un droit sur un autre objet, par
exemple. Une marchandise est donc échangeable.
1. 2.Les biens et les services
Les biens sont les artefacts constituant la richesse et ou permettant de la créer. En pratique, on
utilise souvent la notion : « biens et services ». Mais la notion de service est en réalité très mal
fondée et recouvre des objets économiques très hétérogènes. Simple combinaison d’artefacts
vendus ensemble : un repas au restaurant, une semaine dans un club de vacances ; déplacement
dans l’espace d’artefacts : transport, commerce ; formes particulières d’usage d’une force de
travail : consultations diverses, ménage, etc.
1. 3.Les ressources naturelles

Tout Bien est issu de ressources naturelles qui fournissent matière et énergie. La terre étant un
objet à dimensions limitées, toutes les ressources naturelles sont, d’une façon ou d’une autre
"épuisables". Toute production matérielle dégrade l’énergie qu’elle utilise (second principe de la
thermodynamique) et produit des déchets.
1.4 Les monnaies
Le mot monnaie désigne tous les moyens de paiement dont les agents économiques disposent.
C'est un bien économique, car il a une utilité et il doit être produit (on ne le trouve pas dans la
nature) par un agent économique spécifique. C'est aussi un actif qui permet à son détenteur
d’acquérir un bien ou un service.
1.5 Les forces de travail
La force de travail, l’ensemble des facultés physiques et morales dont l’homme dispose et qu’il
met en action lorsqu’il produit des biens matériels, quelle que soit la forme de la société, est un
élément indispensable de la production. Dans une société d’hommes juridiquement libres, la «
force de travail » (le terme est de Marx) est appropriable : chacun est en effet l’unique propriétaire
de sa force de travail, ce qui n’était pas le cas des esclaves, ni même des serfs dans le féodalisme,
qui n’étaient que très partiellement propriétaires de leur force de travail.
1.6 Les titres
Un titre financier se caractérise par une série de flux futurs de trésorerie qui sont plus ou moins
risqués. On distingue les titres représentatifs de capitaux propres (les actions), les titres
représentatifs de l'endettement (obligations, billets de trésorerie, certificats de dépôt, bons du
Trésor,...) et les titres optionnels ou conditionnels (options).
1.7 Les informations
Absent des premiers modèles économiques, le concept d’information est omniprésent dans les
modèles contemporains. Les informations que l’on considère en économie sont celles dont ont
besoin les acteurs pour effectuer des actes économiques : produire, acheter, vendre, épargner ou se
financer. Il faut en distinguer deux types : l’information codifiable et l’information tacite.
2. Les actes économiques: 3 actes
Nous définissons les actes économiques avant les acteurs économiques, puisque, nous le verrons,
les acteurs se définissent fréquemment par la nature de leurs actes.
L’activité économique
L’activité économique est définie comme l’échange de biens et de services entre les
individus. Pourquoi y a- il de l’activité économique?
Parce que les individus sont différents (préférences, dotations)
Les individus sont incités à échanger car il y a un gain à l’échange (satisfaction
mutuelle des individus).
Production : Activité économique consistant à obtenir des biens ou des services en combinant du
travail, des machines, des matières premières. La production des entreprises est dite marchande
car elle s’échange sur un marché à un prix visant à couvrir les coûts de la production.
Répartition (distribution) : les marchés déterminent les quantités produites et pour qui, mais rien
ne garantit que tout le monde s’y retrouve. La répartition des revenus et des richesses résultant du
libre fonctionnement des marchés est extrêmement inégalitaire. l’Etat intervient pour redistribuer
les ressources, ce qui atténue les inégalités

On distingue entre consommation intermédiaire (CI) et consommation publique CI =


ensemble des BS transformés ou détruits par le processus de production ne concerne que les
entreprises et les AP. Consommation finale (CF) : inclut les BS marchands destinés à la
satisfaction directe des besoins des ménages. - consommation publique (G) : inclut les BS non
marchands destinés aux ménages et aux entreprises. L’Epargne est la partie du revenu qui n’est
pas dépensée.
II- Besoins illimités et biens limités

A. Besoins illimités

L’économie ne s’interroge pas sur la production des besoins, qui sont considérés comme des
donnés, elle s’intéresse uniquement à la manière de les satisfaire. Qu’est ce qu’un besoin : Un
besoin est une sensation d’insatisfaction qui ne peut être effacée qu’au prix d’un effort. Les
besoins peuvent être : Physiologiques : manger, boire, s’habiller pour se protéger du froid, Social :
manger dans un restaurant réputé.
Un besoin est donc une exigence de la nature ou de la vie sociale, C’est une notion relative qui
varie : Dans le temps : les besoins évoluent en fonction, du degré de développement économique
et social, de l’évolution des mentalités et de l’innovation technologique et les phénomènes de
mode.
Dans l’espace : les besoins différent selon : les croyances, la catégorie socioprofessionnelle, le lieu
d’habitation.
Cependant, un besoin qui peut être satisfait sans effort ne peut être qualifié d’économique, respirer
par exemple.
Ces besoins peuvent être ressentis par : Un individu, auquel cas c’est un besoin individuel, un
groupe, auquel cas c’est un besoin collectif. Selon les cas, ces besoins ne sont pas ressentis de la
même manière.
Les besoins peuvent être satisfaits par des biens matériels ou immatériels (services) voire même
par des valeurs spirituelles ; dans ce dernier cas l’analyse économique étant difficile à cerner
puisque la satisfaction de tels besoins n’est pas directement produit par des activités économiques
particulières.
Les besoins présentent les caractéristiques suivantes :
La satiété : L’intensité d’un besoin diminue au fur et à mesure qu’il est satisfait ; au-delà d’une
certaine satisfaction, le besoin est saturé, il peut même donner à une « désutilité ». Ceci renvoie au
principe néoclassique de l’utilité marginale décroissante. L’utilité marginale d’un bien indique
l’augmentation d’utilité procurée par la consommation d’une unité diminuent pas avec leur
satisfaction, c’est le cas du besoin de musique, des besoins intellectuels, le besoin d’information
sur l’actualité économique qui se développe avec la compréhension des mécanismes économiques.
La comparabilité : Tout individu est capable d’établir une hiérarchie dans l’intensité de ses besoins
et d’établir des priorités.
B. Biens limités
Un bien peut être un objet matériel ou immatériel (un service).
Un bien est dit économique s’il répond aux trois caractéristiques suivantes :
- L’utilité ou l’aptitude à satisfaire un besoin : Cette caractéristique est relative,
elle dépend du temps et de l’espace. Par exemple, le pétrole n’était pas un bien
économique avant l’invention du moteur à explosion.
- La disponibilité : la possibilité de se procurer de ce bien en tout temps.
- La rareté : Un bien qui est disponible en quantité illimitée n’est pas un bien
économique. L’air, par exemple n’est pas un bien économique puisque, bien qu’il
satisfasse un besoin essentiel celui de respirer, il n’est pas rare ; c’est un bien libre.
Biens privés et biens collectifs :
- Les individus consomment les biens achetés des magasins, ce sont les biens privés ou
les biens qui permettent de satisfaire les besoins privés de consommation.
- Ces mêmes individus consomment également des biens et des services consommés
par d’autres individus tels que la voirie, l’université et les hôpitaux ; ce sont les biens
collectifs. En effet, lorsqu’un automobiliste utilise la route pour satisfaire ses besoins
personnels, il n’est pas seul sur la route, il l’utilise en même temps avec d’autres
automobilistes.
C. Choix et actes de la vie économique
Puisque les biens sont rares, une bonne gestion de ces biens est indispensable. L’administration
des ressources rares consiste à faire des choix qui procurent un maximum de satisfaction pour un
minimum de coût. Par conséquent le problème devient un problème d’allocation des ressources ;
ces dernières sont rares et nous obligent à faire des choix. Tout choix implique un coût puisque si
l’on veut avoir plus d’un bien, il faut renoncer à avoir moins de l’autre.
En fait la rareté dépend du rapport entre la disponibilité des ressources et les aspirations
des individus. Elle n’est donc pas donnée une fois pour toute, elle dépend :
- De la technologie disponible : Le progrès technique permet de produire plus avec
autant de matières premières et ou d’heures de travail.
- De la disponibilité des biens substituables : biens qui répondent au même besoin
(thé et café) : L’existence d’un bien substituable diminue la rareté d’un bien car on pourra
utiliser ce deuxième bien à la place du premier.
- De la disponibilité des biens complémentaires : biens qui doivent être consommés
en même temps pour répondre à un besoin (voiture et essence) : Si deux biens sont
complémentaires, cela augmente la rareté de chacun de ces biens car il faut que les 2 biens
soient disponibles en même temps pour satisfaire le besoin.
- Des aspirations, des goûts des individus (effet de mode)
III- La science économique: méthodes et théories
La microéconomie s’intéresse au comportement des consommateurs, des entreprises, des marchés
particuliers ainsi qu’à la répartition des revenus
La macroéconomie s’intéresse à la performance globale d’un pays; celle-ci est associée à des
variables comme le chômage et l’inflation.

1. Le circuit économique
Un circuit économique est une représentation simplifiée des opérations économique ce déroulant
dans une économie réelle. Il y a 2 intérêts majeurs pour le macro économiste : retracer à travers
des indicateurs économiques le fonctionnement de l’économie et établir des prévisions
économiques sur les principales grandeurs économiques.
Pour parvenir à faire un circuit économique, il faut solutionner 3 problèmes économiques :
Le nombre et la diversité des agents économiques,
Le nombre et la diversité des opérations économiques,
Le choix du moment et de l’unité d’enregistrement de l’opération.
Le nombre et la diversité des agents économiques :

Les ménages,
Les sociétés et quasi sociétés non financière,
Les institutions financières,
Les entreprises d’assurance,
Les administrations publiques qui fournissent gratuitement ou quasi gratuitement
des biens ou services collectifs,
Les administrations privées, Le reste du monde.
Pour faire face au grand nombre et à la diversité des opérations économiques, il a à nouveau été
convenu de ne pas procéder à des suivis individuels mais de suivre comptablement 3 catégories
d’opérations :
Opérations sur biens et services qui retracent d’une part de l’origine des biens et des
services disponibles dans le pays (production nationale et l’importation) et d’autre part,
l’utilisation de ses biens et services disponibles.
Opérations sur des revenus qui retracent l’origine des revenus de chaque secteur
institutionnel. 3 origines : revenus de l’activité professionnelle, les revenus du patrimoine, les
revenus de transferts.
Opérations monétaires et financières : retracent l’utilisation de 3 types d’instruments :
Instruments monétaires, Instruments de placements et enfin Instruments de financement.
Cependant, le circuit économique ne représente qu’une partie de la réalité économique. Les
indicateurs économiques ne sont donc pas complets.
2. LA PENSEE ECO CONTEMPORAINE
De 1936 à aujourd’hui, on peut distinguer trois synthèses « keynéso-classiques » successives, de
nature très différente : l’une basée sur l’interaction des marchés, la seconde sur les équilibres à
prix fixes, et la dernière qui mobilise le champ luxuriant de l’économie comportementale. Ceci
nous amènera jusqu’à l’époque la plus contemporaine puisque nous rencontrerons des travaux
cherchant à interpréter la crise financière de 2008 à partir d’éléments de psychologie cognitive sur
les marchés financiers, abordés par Keynes dès 1936, mais reformulés par des économistes
d’aujourd’hui participant au développement de la théorie de la décision.
La nouvelle économie, notion apparue ces dernières années, correspond à l’ensemble des
mutations observées et qui touchent a la fois les biens et les services mais également les processus
de production. La nouvelle économie est généralement associée à la diffusion des technologies de
l’information et de la communication dans la mesure au ces dernières sont grandement a I' origine
de ces mutations.
2.1. Le courant keynésien
Keynes a révolutionné la pensée économique dans les années 30 en proposant une alternative au
libéralisme. Il a théorisé l’impact positif d’un interventionnisme public dans l’économie, et a été à
l’origine du développement de l’État-providence. L’approche keynésienne a été hégémonique
durant les Trente Glorieuses, avant d’être remis en question à partir des années 70.
A. Analyse macro-économique en terme de circuit
Le point de départ= la demande effective (prévisions)

Le contexte de la crise des années 1930


Retournement de tous les indicateurs d’activité (production, emploi, commerce extérieur,
prix, etc.). Mais d’une ampleur et d’une durée sans précédent: de 1929 à 1933, le PIB américain
chute de 30%; en 1936, 10% de la population active américaine est au chômage. Violente et
soudaine aux Etats-Unis (krach de Wall Street) plus atténuée et plus tardive en France, plus
précoce en G.B. où la déflation avait commencé en 1920.
Keynes en déduit le caractère structurel de la crise. Il se démarque de l’analyse libérale
(Pigou) pour qui le chômage est volontaire et lié à des taux de salaire trop élevés.
Les grands principes de l’analyse de Keynes
Pour Alan Blinder le keynésianisme s'articule autour de six principaux traits dont trois
concernent le fonctionnement de l'économie et trois les politiques économiques. Les trois
principes sur le fonctionnement de l'économie sont : la demande agrégée est erratique ; les
inflexions de la demande ont une plus grande influence sur la production et l'emploi que sur les
prix ; les prix et spécialement les salaires réagissent lentement au changement de l'offre et de la
demande.
A partir de là, les keynésiens avancent trois principes de politique économique :
Le niveau usuel de l'emploi n'est pas idéal car il est sujet à la fois aux caprices de la
demande et à des ajustements des prix trop lents,
D'où pour certains keynésiens la nécessité de politiques de stabilisation et de façon encore
moins unanime qu'au point précédent, les keynésiens préfèrent les politiques visant à
soutenir l'emploi à celles visant à lutter contre l'inflation.
Possibilité de crises de surproduction durables
Causes: * épargne pas nécessairement réinvestie
* baisse des salaires: accentue la baisse de la demande de consommation
Nécessaire intervention de l’état
* Demande (globale) = quantité de biens et de services que les agents économiques
(consommateurs/entreprises) souhaitent acheter à un prix donné.
Deux moyens d’intervention: la politique budgétaire: hausse dépenses publiques et déficit
budgétaire et la politique monétaire: baisse taux d’intérêt de la banque centrale.
KEYNES propose une théorie alternative au courant libéral. Il part du principe que le
libéralisme économique a entrainé l'économie mondiale dans une crise sans précédent (1929). Afin
de remédier aux imperfections du libéralisme et à ses effets pervers, il nous propose une nouvelle
organisation économique basée sur : l’intervention de l'Etat.
Dans sa pensée, il oppose à l'Etat gendarme (courant libéral), l'Etat providence qui aura
pour tâche de réguler l'économie, en particulier en période de crise. Le procédé est simple. Il s'agit
de substituer le cercle vicieux par le cercle vertueux.
B. le courant libéral néo-classique
Il est apparu au début des années 70 représenté par deux économistes : FRIEDMAN ET HAYECK
Frederick pour justifier leurs propositions, ils ont utilisés deux arguments : la situation dans les
pays de l'ex bloc soviétique (catastrophique) et la crise économique prévalant en occident. Ils
accusent la pensée keynésienne d'être à l'origine de ce dysfonctionnement grave de l'économie
mondiale.
1. la contestation des politiques libérales
Contexte années 1970-80:
Etat Providence: conception d’un état qui doit jouer un rôle actif dans la recherche du
progrès économique et social (définition plus stricte: système de protection sociale)
Montée de la crise économique, mise en cause des politiques keynésiennes, Critiques/crise
des systèmes de type soviétique, Election de gouvernements conservateurs (USA, GB).
L’école monétariste(Chicago)
L’analyse monétariste s’est développée à la fin des années 1960, en opposition au keynésianisme.
Les monétaristes condamnent les politiques « laxistes de l’État en matière monétaire et budgétaire.
Elles n’ont à long terme aucun effet sur l’activité économique mais sont source d’inflation qui est
un phénomène strictement monétaire. Les monétaristes, en particulier l’économiste américain
Milton Friedman, préconisent une progression annuelle de la masse monétaire calquée sur la
croissance. Le volume de la monnaie en circulation (la « masse monétaire ») doit être suffisant
pour financer les transactions correspondant à l’activité économique d’un pays. Pas plus pas
moins.
L’économie de l’offre
L'économie de l'offre (ou supply side economics) est un courant économique qui se développe
depuis une vingtaine d'années, aux États-Unis d'abord, en Europe ensuite. Les économistes de
l'offre dénoncent en priorité tous les obstacles qui se dressent sur la route des entreprises et des
ménages et qui limitent leurs efforts productifs : c'est le cas des règlementations étatiques abusives
et étouffantes (comme le blocage des prix ou des revenus) et surtout de la pression fiscale. C'est
Arthur Laffer qui, dans sa célèbre courbe, a montré qu'une forte pression fiscale ou parafiscale
paralysait toute l'activité, décourageait la production, l'investissement, l'épargne, la créativité,

L’école des « choix publics »


Dans les années 1950, alors que les politiques keynésiennes connaissent un succès grandissant, un
courant libéral se développe aux Etats-Unis, qui conteste l'idée que les politiques d'intervention de
l'Etat dans l'économie sont mises en place au nom de l'intérêt général. Les chefs de file de ce
courant, James Buchanan, Gordon Tullock et Anthony Downs notamment, s'attachent à démontrer
les limites des politiques économiques menées par l'Etat en soulignant les motivations
individuelles de l'administration. Ils dénoncent alors l'énorme croissance de l'Etat-Providence,
source de dysfonctionnement du système économique, et l'augmentation trop forte des
prélèvements obligatoires qui s'ensuit et que l'Etat exige des contribuables pour exister, se
développer et rembourser sa dette.
La nouvelle école keynésienne
Les nouveaux keynésiens vont relever le défi lancé par l'école des anticipations rationnelles et de
la nouvelle macroéconomie classique à la théorie de la synthèse néo-classique.Gregory Mankiw
considère la Théorie du déséquilibre comme constituant la première vague de la nouvelle
économie keynésienne. La seconde vague représentée par Stanley Fischer a cherché à intégrer les
anticipations rationnelles dans un contexte de déséquilibre de marché, tandis que l'objectif de la
troisième vague a été de comprendre pourquoi certains marchés sont déséquilibrés.
La « nouvelle économie keynésienne » (NEK) peut à son tour être présentée comme la contre-
réaction keynésienne à cette nouvelle économie classique ; le choix du terme « nouveau (nouvelle)
» sert alors à désigner les adversaires privilégiés. La NEK aurait donc parfaitement intégré et
assimilé les critiques des anticipations rationnelles, à savoir la nécessité d’observer en détail ce qui
se passe au niveau des comportements individuels. Mais il s’agit pour ce courant de faire
réapparaître, sur la base de comportements microéconomiques pourtant rationnels, les résultats
keynésiens concernant la politique économique : on parle ici de fondements microéconomiques de
la macroéconomie keynésienne.
L’école de la régulation
La théorie de la régulation est généralement classée parmi les écoles gauchistes ». Ses
explications des cycles longs par les structures de l’économie la rendent populaire au sein de l’aile
la plus à gauche de la profession d’économiste. Cette popularité, dont l’influence se répercute sur
les enseignants du secondaire, en fait un incontournable de la pensée économique contemporaine.
La nouvelle économie : un débat crucial
La nouvelle économie, notion apparue ces dernières années, correspond à l’ensemble des
mutations observées et qui touchent a la fois les biens et les services mais également les processus
de production. La nouvelle économie est généralement associée à la diffusion des technologies de
l’information et de la communication dans la mesure au ces dernières sont grandement à l’ origine
de ces mutations.
Le rôle joué par les technologies de l’information et de la communication a fait l’objet de
nombreux débats. C’est ainsi que Solow, a travers le paradoxe de la productivité, formule l’idée
que: « les ordinateurs sont partout sauf dans les statistiques de productivité ». Ainsi, la croissance
sans inflation ni chômage s'expliquerait, aux Etats-Unis, par le fonctionnement du marché du
travail. Le faible taux de syndicalisation ne permet pas de réduire la grande flexibilité des
rémunérations entrainant ainsi une progression modérée des salaires.
La faiblesse de l’inflation serait la conséquence, également, de la baisse des taux d’intérêts qui a
considérablement réduit les charges financières des entreprises. De même la baisse de prix des
matières premières a eu un effet désinflationniste certain. Mais le phénomène que constitue la
croissance américaine s’explique également par les politiques économiques menées au cours de
ces dernières années.
Nouvelle économie et marches financiers
Le développement des technologies de l'information et de la communication s’est appuyé sur le
développement des marchés financiers et plus précisément du Nasdaq, aux Etats-Unis, ou du
nouveau marché, en France. Mais, il a également été a l’origine de nouvelles pratiques et s'est
traduit par l’apparition de nouveaux acteurs, aux premiers rangs desquels les sociétés de capital-
risque. Les sociétés jeunes pousses (startup) ont vu leur valeur en bourse s’apprécier
considérablement. Cette valorisation s’explique par le mode de développement spécifique de ces
entreprises puisque si des investissements très lourds sont engagés lors de leur lancement, par la
suite, le « coût » pour conquérir un nouveau client est faible et par conséquent la marge dégagée
forte (on parle d' ailleurs de rendement croissant).
En avril 2000, la nouvelle économie connait un coup d’arrêt avec ce que l’on a appelé l’ « E-krash
». En a peine un mois, les valeurs technologiques perdent 2 000 points. Cette crise s'explique par
le ralentissement de la croissance américaine qui réduit encore un peu plus les perspectives de
bénéfice des entreprises technologiques. De plus, le retrait de certains operateurs importants a
génère un phénomène de mimétisme qui a accéléré la chute des valeurs...
Une nouvelle économie durable?
Même si le krach sur les valeurs technologiques est un coup d’arrêt important, il peut également
être analyse comme une période de transition qui a permis un assainissement puisqu’il 'ne reste
que les entreprises les plus solides et les projets les plus sérieux, De plus, la nouvelle économie
existe toujours puisque le commerce électronique a encore progresse de 70 % au COUTS de
l’année 2003, les ventes en ligne atteignant, a l’échelle mondiale, 290 milliards de dollars. La
question reste posée de savoir si l'Europe a la possibilité de rentrer véritablement dans la nouvelle
économie. En effet, l’Union européenne reste en retard par rapport aux Etats-Unis en volume de
transactions réalisées sur Internet ou en matière de recherche et développement.
Le Japon, pour sa part, éprouve encore de nombreuses difficultés a sortir de la crise et mise sur la
nouvelle économie pour relancer durablement la croissance. L'ambition du gouvernement japonais
est de créer, a l'horizon de 5 ans, un « e-Japan » capable de rivaliser avec les Etats-Unis.
Enfin, de nouvelles évolutions technologiques vont certainement favoriser l’expansion. On pense,
dans un premier temps, a l'UMTS (Universel Mobile Télécommunication System) dont les
premières tentatives pour associer Internet et téléphonie mobile semblent prometteuses. Dans le
même temps, les biotechnologies semblent confirmer leurs perspectives de développement,
Le développement « durable » ou « soutenable » : « Répondre aux besoins des générations
actuelles sans compromettre la possibilité de répondre à ceux des générations à venir » Rapport
Brundtland 1987 – entérinée par le Sommet de Rio en 1992. Les trois dimensions intimement liées
sont : écologique, sociale, économique. Et les trois grandes approches économiques: en terme de
marché: « croissance soutenable », en terme de refus du développement: « décroissance », en
terme d’un autre type de développement: « bio économie ».
Chapitre II : Les politiques économiques

La politique économique est l'ensemble des interventions des administrations publiques (dont
l’État, la banque centrale, et les collectivités territoriales) sur l’activité économique. Elle
représente une vaste branche de la science économique, en particulier dans les domaines de la
macroéconomie, de l'économie du développement et de la taxation optimale.

La politique économique désigne l'ensemble des décisions cohérentes prises par les pouvoirs
publics afin d'améliorer des objectifs économiques grâce à l'emploi de multiples moyens ou
instruments. En ce sens, les politiques de relance, d'austérité, de conquête des marchés extérieurs
etc... constituent des exemples de politique économique.

Section 1. LES FONCTIONS DE L'ÉTAT

La typologie la plus souvent retenue pour décrire le rôle que joue l'État dans la vie économique
repose sur les trois fonctions proposées par Richard Musgrave (The Theory of Public Finance,
1959) : allocation, stabilisation, distribution.

A. LA FONCTION D'ALLOCATION

a. L'optimum de Pareto

L'efficacité économique consiste à utiliser l'ensemble des ressources disponibles de façon à en tirer le
maximum de satisfaction pour les individus. La théorie économique retient le critère d'efficacité
proposé par Vilfredo Pareto (1906). L'allocation des ressources entre les différents emplois
possibles est optimale quand on ne peut plus améliorer la satisfaction d'un individu sans détériorer
celle d'au moins un autre.

b. Les défaillances de l'économie de marché

L'analyse économique reconnaît deux principaux types de situations où l'initiative privée et les
échanges libres entre individus ne permettent pas d'assurer une allocation optimale des ressources
au sens de Pareto et où l'intervention de l'État peut en revanche contribuer à une allocation plus
efficace.

Les services collectifs purs

Un service collectif pur est un service consommé en même temps par tous les membres d'une
communauté et pour lequel un producteur privé ne pourrait pas exclure les usagers qui ne veulent
pas contribuer au financement du service.
Exemples : la défense nationale, l'ordre public, la sécurité des biens et des personnes, la justice, le
réseau routier, l'éclairage public, etc. Seule une institution investie du pouvoir de contraindre les
usagers par la force (l'État) peut produire ce type de services.

Les externalités

On parle d'externalité quand les choix d'un individu ont des effets sur le bien-être des autres
individus qui ne peuvent être pris en compte dans les échanges marchands.
Les dépenses de santé et d'éducation des individus induisent des effets externes positifs (des
économies externes) pour la collectivité : le bien-être de chacun est amélioré par la productivité
plus forte et le voisinage plus agréable associés aux investissements des autres dans leur santé et
leur niveau d'éducation. La pollution et toutes les atteintes à l'environnement sont des exemples
d'effets externes négatifs (déséconomies externes). Les individus déterminent leurs choix en
fonction des coûts privés et des avantages privés qui leur sont associés; ils ne tiennent pas compte
des coûts et des avantages (sociaux) que leurs décisions impliquent pour la société. Il s'ensuit une
production sous-optimale dans les activités générant des économies externes et une
surproduction nuisible dans les activités entraînant des déséconomies externes : l'État doit
alors intervenir pour renforcer les premières (santé, éducation, recherche) et pour freiner les
secondes (pollution, nuisances).

B. LA FONCTION DE STABILISATION

Les politiques de stabilisation tentent de réguler l'évolution des variables macro-économiques


de façon à éviter ou à limiter les principaux déséquilibres susceptibles d'affecter l'économie
nationale. En ce domaine, on retient le plus souvent quatre objectifs (le « carré magique » de
Nicholas Kaldor) : croissance, plein-emploi, stabilité des prix et équilibre extérieur.
Kaldor en a proposé une visualisation synthétique fondée sur 4 indicateurs clés :
- les 2 premiers lés à des objectifs de croissance : PIB ; et chômage
- les 2 autres reliés des contraintes d'équilibre intérieur : inflation, et solde de la balance des
paiements
Exemples de valeurs idéales et qui forment donc le du carré magique

- Croissance du PIB : 10% (gradué de 0% à 10% mais peut être négatif ou plus élevé dans les
pays émergents)

- Taux de chômage : 0% où plus concrètement, le taux de chômage naturel (gradué de 0% à 10%,


mais peut largement dépasser les 10 %)

- Inflation : 0% (gradué de 0% à 10%, mais peut largement dépasser les 10% en cas de grande
inflation et devenir négative en cas de désinflation)

Solde de la balance des transactions courantes : 5% (gradué de -2% à 5% ; mais peut être
largement déficitaire (< -2%) ou largement excédentaires (>5%)

a. La croissance

Mesurée par le pourcentage d'augmentation annuelle du produit intérieur brut (PIB), elle est
censée constituer une amélioration du bien-être collectif. La croissance permet de développer
l'emploi, le revenu national et le revenu par habitant (si la population croît moins vite que le
PIB). La croissance de l'activité intérieure entraîne aussi des pressions à la hausse des prix
(inflation) et stimule les importations (risque de déficit commercial). Cet objectif est donc
compatible avec celui du plein-emploi mais entre en contradiction avec ceux de stabilité des
prix et d'équilibre extérieur.

b. Le plein-emploi

Au sens large, le plein-emploi signifie une utilisation optimale des facteurs de production
(travail et capital), c'est-à-dire un emploi qui permet d'en retirer la productivité la plus élevée
possible. Plus souvent entendu dans le sens plus étroit de plein emploi de la main-d’œuvre.
L'objectif consiste alors à réduire le chômage au chômage volontaire minimal nécessaire au bon
fonctionnement du marché du travail (chômage « frictionnel » délai de recherche d'information
incompressible pour choisir le meilleur emploi alors même qu'il existe pour tous au moins un
emploi correspondant à sa qualification).

c. La stabilité des prix

On mesure le taux d'inflation par le pourcentage de variation d'un indice du niveau général des
prix (en général, un indice de prix à la consommation IPC). Un minimum de hausse des prix
paraît inéluctable dans une économie en croissance où s'exercent en permanence des pressions de
la demande de biens et services. L'objectif de stabilité des prix vise donc un taux d'inflation
non nul mais relativement faible (de 1 à 3%).

d. L'équilibre extérieur

On entend par là l'équilibre de la balance des paiements, compte qui retrace l'ensemble des
paiements reçus, dus ou versés au reste du monde; elle comporte trois composantes essentielles:
paiements courants, mouvements de capitaux non monétaires et variation des réserves de
change du secteur bancaire ou officiel (Trésor public et banque centrale).

• La balance des paiements courants (ou des transactions courantes) retrace l'ensemble des
échanges de biens, de services, de revenus avec le reste du monde. Elle inclut la balance
commerciale (échanges de biens uniquement).

• La balance des mouvements de capitaux non monétaires présente les mouvements de


capitaux à long terme et les mouvements de capitaux à court terme des secteurs privé et non
bancaire (secteurs qui n'ont pas le pouvoir de création monétaire) prêts, emprunts, placements,
investissements directs, effectués à l'étranger par des agents économiques nationaux, ou effectués
dans le pays par des agents non résidents.
• La variation des réserves de change. La balance globale des paiements est la somme des deux
précédentes. Si elle est excédentaire, les agents non bancaires résidents reçoivent plus de
paiements extérieurs qu'ils n'en versent à l'extérieur : cet excédent constitue donc une entrée nette
de devises (étrangères) qui vient gonfler les comptes en devises détenus par les résidents ou qui
est convertie en monnaie nationale (par les banques, le Trésor public ou la banque centrale). D'une
façon ou d'une autre, cet excédent se retrouve dans les comptes du secteur bancaire ou officiel; les
statistiques le repèrent sous le poste « Mouvements de capitaux à court terme du secteur bancaire
ou officiel » (ou encore « Variation de la position monétaire extérieure »). L'analyse macro-
économique parle plutôt d'une augmentation des « réserves de change ». En sens inverse, un
déficit de la balance globale se traduit par une sortie nette de devises et par une diminution des
réserves de change.

• La contrainte extérieure à long terme


La contrainte d'équilibre joue surtout en cas de déficit. A court ou moyen terme, un pays peut
compenser un déficit des transactions courantes par des emprunts de capitaux à l'étranger qui
permettent un excédent de la balance des capitaux. Mais cela entraîne ensuite le remboursement
des capitaux et des intérêts. La charge annuelle de remboursement (le service de la dette)
contribue ainsi à de nouveaux déficits des paiements courants que l'on ne peut indéfiniment
combler par des emprunts de capitaux étrangers, sous peine de mettre en doute, aux yeux des
marchés financiers, la capacité du pays à générer un jour le revenu en devises nécessaire au
remboursement de sa dette. A long terme, la contrainte extérieure est donc plus sévère qu'à court
terme : le pays doit chercher l'équilibre de la balance des transactions courantes.

• La contrainte extérieure à court terme


Un déficit important de la balance des transactions courantes peut rendre les spéculateurs
pessimistes sur l'évolution à venir de la balance globale et donc les conduit à anticiper une
probable dévaluation du taux de change (un déficit de la balance globale des paiements a
tendance à déprécier le taux de change). Ils spéculent donc immédiatement contre la monnaie
nationale et peuvent contraindre le gouvernement à rechercher l'équilibre des paiements courants à
court terme et non pas seulement à long terme (cf. chapitres 6 et 8 pour un examen plus détaillé).

C. LA FONCTION DE DISTRIBUTION

L'État opère une redistribution directe entre les différents agents par des prélèvements
obligatoires (cotisations sociales et impôts) et des transferts (aides, subventions, prestations
sociales, etc.).
L'État opère aussi une redistribution indirecte dans l'exercice de ses fonctions d'allocation et de
stabilisation. La répartition territoriale des équipements collectifs et des grands services publics
modifie la répartition du bien-être dans la population. Il en va de même des politiques de
stabilisation. Une relance de l'économie par la consommation peut se faire en priorité au bénéfice
des salariés les plus défavorisés ; une relance par l'investissement peut en priorité améliorer les
profits des entreprises. La fonction de distribution n'est donc pas séparable des autres
fonctions de l'État

Section 2 : La Politique budgétaire en économie fermée

1. LES EFFETS ATTENDUS D'UNE RELANCE BUDGÉTAIRE : SCHÉMA 1

• Economie fermée : absence de relations commerciales, monétaires et financières avec le reste


du monde, ou relations trop !imitées pour contraindre les choix de politique économique.
• Relance : politique qui vise principalement à stimuler la croissance et la création d'emplois. Les
schémas et analyses peuvent être appliqués à une politique de rigueur qui ralentit l'activité en vue
de lutter contre l'inflation et/ou un déficit extérieur (il suffit pour cela d'inverser le sens des flèches
dans les schémas).
(1) Le gouvernement peut relancer l'activité, soit directement en augmentant la production
publique, soit indirectement en augmentant le revenu des agents privés. La consommation et les
investissements des administrations publiques sont des éléments de la production intérieure
du pays. Leur augmentation a donc un effet stimulant direct et immédiat sur le PIB.
(2) Une réduction des impôts ou une augmentation des transferts de revenus au profit des
agents privés n'ont pas d'effet immédiat sur la production; elles améliorent seulement le revenu
disponible des agents.
(3) Les agents privés consacrent une fraction de leur revenu supplémentaire à la
consommation (cette fraction s'appelle la propension marginale à consommer). La hausse du
revenu disponible entraîne donc celle de la demande de biens de consommation. Si le
gouvernement relance par des dépenses de consommation ou d'investissements, il stimule
directement la demande de biens et services dans l'économie. Quelle que soit la voie choisie
(éventuellement les deux voies sont combinées), la demande intérieure se développe.
(4) L'effet de stimulation de l'activité économique ne se limite pas à l'effet initial direct ou
indirect décrit ci-dessus. En effet la production supplémentaire engendre des revenus
supplémentaires équivalents; une fraction de ces revenus supplémentaires est consommée, ce qui
amène une nouvelle vague de production qui permet à son tour une nouvelle distribution de
revenus dont une partie sera dépensée, et ainsi de suite. L'effet initial est renforcé par un effet
multiplicateur: l'augmentation du PIB est un multiple de l'effet initial.
(5) La hausse de la production développe les besoins en main d’œuvre ; l'emploi augmente.
(6) Les créations d'emplois facilitent la recherche de travail pour les chômeurs et le chômage
conjoncturel régresse.
2. LES LIMITES D’UNE RELANCE BUDGETAIRE

(7) La relance de la demande intérieure exerce une pression à la hausse des prix (inflation). Cet
effet dépend de l’élasticité de l’offre (capacité des entreprises à répondre rapidement à la demande
par une production supplémentaire).
- Plus l'offre des entreprises est élastique à court terme, moins il a d'inflation.
- Plus l'offre est rigide, plus les pressions de la demande entraînent les prix à la hausse.
(8) La politique économique se trouve ainsi confrontée à un dilemme inflation-chômage. La
relance permet ici de réduire le chômage mais provoque l'inflation. En inversant le sens du
schéma, un freinage de l'activité et de la demande permettrait de limiter l'inflation mais
aggraverait le chômage. Ce dilemme est habituellement illustré par la courbe de Phillips,
économiste dont un article publié en 1958 a inauguré l'étude de la relation inflation-chômage
dans les pays industrialisés.
(9) La demande de monnaie augmente parce que les ménages et les entreprises ont besoin de
plus d'instruments de paiement pour financer un volume croissant d'échanges.
(10) Sur le marché monétaire, tant que l'offre de monnaie contrôlée par la banque centrale reste
inchangée, la demande de monnaie supplémentaire fait monter les taux d'intérêt (prix de
l'argent).
(11) Le plus souvent, un gouvernement s'efforçant de relancer la demande provoque ou aggrave un
déficit budgétaire : la hausse des dépenses n'est pas financée par une hausse équivalente des
inputs; ou encore, une réduction d'impôts n'est pas compensée par un recul équivalent des
dépenses.
(12) Le déficit budgétaire constitue pour l'Etat un besoin de financement qu'il doit combler pour
l'essentiel par des emprunts auprès des banques ou auprès des épargnants en émettant des
emprunts d'État sur le marché financier. Les banques ont le pouvoir de créer de la monnaie :
une partie des financements accordés à l'État est donc financée par une création de monnaie, et une
autre partie est financée par l'épargne collectée par les banques. Le financement monétaire du
déficit est inflationniste et vient donc alimenter le dilemme inflation-chômage signalé ci-dessus.
En outre, pour une quantité de monnaie et d'épargne donnée, la demande de fonds
supplémentaires par l'État fait monter les taux d'intérêt.
(13) La hausse des taux d'intérêt déprime les investissements privés. On parle alors d'un effet
d'éviction financière. Les entreprises privées sont en quelque sorte évincées par l'État sur le
marché financier : les emprunts publics limitent l'épargne qui reste disponible pour financer les
investissements privés ; ils font en outre monter le coût des crédits bancaires (finance intermédiée)
et des emprunts sur le marché financier (finance directe). L'effet multiplicateur de la relance sur le
PIB se trouve donc contrarié par le recul de l'investissement privé. Les économistes d'inspiration
libérale (notamment les monétaristes) considèrent que cet effet d'éviction peut aller jusqu'à
annuler tout effet multiplicateur : la hausse des dépenses publiques est compensée par une baisse
équivalente de l'investissement privé; le PIB est inchangé; seule sa structure est modifiée au profit
des activités publiques et au détriment des productions privées.
(14) Enfin, le financement des déficits par l'emprunt vient alourdir le montant de la dette
publique. Cette dette entraîne ensuite chaque année le remboursement d’une partie du capital et le
paiement des intérêts. Cette charge annuelle (le service de la dette) aggrave les besoins de
financement futurs de l'État. La marge de manœuvre à venir de la politique budgétaire se trouve
ainsi réduite : une part des futures dépenses publiques est d'ores et déjà affectée du remboursement
de la dette.

Section 3. LA POLITIQUE MONÉTAIRE EN ÉCONOMIE FERMÉE

1. EFFETS ATTENDUS D'UNE RELANCE MONÉTAIRE : SCHÉMA 4

(1) La banque centrale peut favoriser l'expansion du crédit et de la création monétaire en


facilitant le refinancement des banques sur le marché monétaire : elle peut leur offrir plus de
monnaie et/ou abaisser les taux d'intérêt qu'elle demande pour prêter des liquidités (taux
directeurs). Les banques ayant un accès plus facile et moins coûteux au refinancement sur le
marché monétaire peuvent consentir des taux d’intérêt plus faibles à leurs clients.
(2) La baisse des taux d'intérêt peut stimuler l'investissement et la consommation. Dans la
théorie macroéconomique comme dans la réalité, l'effet stimulant d'une baisse des taux, s'il existe,
affecte surtout l'investissement.
(3) La relance de l'investissement entraîne une hausse de production dans le secteur des
biens d'équipement et/ou du logement. La valeur de cette production supplémentaire constitue un
revenu supplémentaire pour les différents agents économiques. Une fraction de ce revenu est
consommée et amène donc une hausse de production dans le secteur des biens de consommation,
ce qui permet une nouvelle distribution de revenus et une nouvelle vague de consommation, et
ainsi de suite. La relance de l'investissement exerce donc un effet multiplicateur sur le PIB.
(4) La croissance du PIB stimule la demande de travail des entreprises. L'emploi augmente et le
chômage régresse.

2. LES LIMITES D'UNE RELANCE MONÉTAIRE

L'efficacité de la relance monétaire dépend de la sensibilité (de l'élasticité) de la consommation


et de l'investissement par rapport aux taux d'intérêt. Or, le plus souvent, la consommation des
ménages est assez peu sensible aux taux d'intérêt et dépend surtout de leurs revenus. De même,
dans une période de pessimisme grave des entreprises sur leurs débouchés futurs, la baisse des
taux peut être insuffisante pour encourager une reprise importante de l'investissement.
(5) Si les ménages et les entreprises peuvent disposer de plus de moyens de paiement, grâce aux
crédits plus abondants et moins chers que leur offrent les banques, ils vont demander davantage de
biens et de services (en particulier des biens d'équipement et des logements). Mais si la quantité
offerte de ces biens sur les différents marchés ne se développe pas aussi vite que la demande, les
prix augmentent (loi de l'offre et de la demande). Toute expansion de la masse monétaire plus
rapide que celle de la production tend à alimenter une inflation par la demande.
(6) La relance monétaire est donc confrontée au même dilemme inflation-chômage que la
relance budgétaire.
Chapitre III : Libéralisme et interventionnisme de l’Etat

L’histoire de la pensée économique permet de mettre en évidence trois principaux courants : le


courant libéral, le courant marxiste et le courant keynésien. Autour de ces trois courants, gravitent
plusieurs théories économiques et écoles de pensée fournissant des explications alternatives aux
problèmes économiques contemporains.
I. LE COURANT LIBERAL
Le courant libéral se compose de deux branches, l’une classique qui apparaît à la fin du 18ème
siècle, l’autre néoclassique à la fin du 19ème siècle. L’économie politique classique est née avec la
société industrielle. La publication en 1776, par Adam Smith, des Recherches sur la nature et les
causes de la richesse des nations, est contemporaine des différents perfectionnements de la
machine à vapeur de Watt, symbolisant le point de départ de la première révolution industrielle.
Cette œuvre est aussi l’aboutissement d’un long mouvement d’idées au XVIII siècle (siècle des
lumières), connu sous le nom de philosophie de l’ordre naturel, et à la base de l’idéologie du
libéralisme économique.
Si 1776 est une date importante pour la science économique moderne, les années 1870-1874 ne le
sont pas moins, car le classicisme légué par Adam Smith évolue grâce à la technique du calcul à la
marge et la théorie de l’utilité. Le terme néoclassique, parmi lesquels on trouve Carl Menger
(Ecole de Vienne), Léon Walras (Lausanne) et Stanley Jevons (Cambridge), désigne des
économistes qui travaillent dans le champ économique de l’équilibre général indépendamment de
leur idéologie respective (Walras se disait socialiste).
A. Le courant classique
Le courant classique du 18ème siècle, est caractérisé par une évolution radicale des mentalités, des
valeurs, des techniques et des processus économiques. Il s’agit de ce que l’on appelle la première
révolution industrielle. La puissance économique réside davantage dans la détention de biens de
production que dans la sphère des échanges. C’est en Angleterre, première grande puissance à
l’époque, avec Adam Smith (1723-1790), Thomas Malthus (1766 - 1834), David Ricardo (1772 -
1823) ; puis en France avec Jean Baptiste Say (1767 - 1832) que naît la pensée libérale classique.
1. Le modèle de l’Homo oeconomicus
Plusieurs postulats sont évoqués par le courant classique :
- L’individualisme des agents économiques
L’individu est un être rationnel, il est le seul capable de juger et de décider ce qui est bon pour
lui. L’interventionnisme de l’Etat, même à but louable, est donc pervers dans ses conséquences.
Chaque individu poursuit son intérêt particulier2 (utilitarisme) par la maximisation des
satisfactions et la minimisation de l’effort (hédonisme). Ce postulat « smithien » a été précisé par
Jeremy Bentham avec la plus grande netteté.
- L’affirmation de la liberté économique
Dérivé de l’ordre naturel, le modèle de l’homo oeconomicus justifie en retour le libéralisme
économique. La propriété privée des moyens de production est une garantie de la liberté. Le
marché constitue le régulateur le plus efficace de l’activité économique (on parle également de
socialisation par le marché). La recherche de l’intérêt individuel permet de réaliser l’intérêt
général car il existe une main invisible (le marché) qui guide les passions individuelles vers le
bien de tous. L’harmonisation des intérêts étant naturelle, il n’y a dès lors plus aucune raison pour
qu’un pouvoir politique -l’Etat - fasse passer l’intérêt général au dessus de la somme des intérêts
privés.
Le rôle de l’Etat selon Von Mises (1983, p 39), est de « garantir le fonctionnement sans heurts de
l’économie de marché contre la fraude et la violence, tant à l’intérieur qu’à l’extérieur du pays ».
L’Etat doit donc se garder d’intervenir au delà de son domaine naturel (Etat gendarme), d’autant
plus qu’en portant atteinte aux libertés économiques, il engage les hommes sur la route de la
servitude. Les libertés économiques sont le « rempart des autres libertés », déclare Hayek (1947),
et la meilleure garantie des libertés est la propriété privée des moyens de production.
- La permanence de l’équilibre économique
Un système économique conduit par le principe de la liberté économique tend naturellement vers
l’équilibre. Lorsque celui-ci n’est pas réalisé, les prix s’ajustent à la hausse ou à la baisse. La Loi
des débouchés de Jean-baptiste Say stipule que « toute offre crée ses débouchés », c’est-à-dire que
l’offre crée une demande équivalente.
2. L’analyse de la production
L’analyse de la production chez les classiques repose essentiellement sur les 4 piliers suivants : la
division du travail ; la théorie de la valeur ; la loi des débouchés de J-B Say ; la théorie
quantitative de la monnaie.
→ La division du travail : chez les classiques, le processus de production est la combinaison de
facteurs de production (terre, travail, capital). Plus la spécialisation des tâches, ou encore la
division du travail est poussée, plus le produit obtenu (la combinaison des facteurs de production)
sera élevé (efficace).
La division du travail aurait trois avantages. Premièrement, l’accroissement de l’habileté de
l’ouvrier augmente la quantité de produits qu’il peut réaliser.
Deuxièmement, le gain de temps qui se perd en passant d’un ouvrage à l’autre peut être réutilisé
dans une autre activité. Troisièmement, la division du travail serait à l’origine de l’invention de
toutes les machines propres à abréger et à faciliter le travail.
Par la suite, la division du travail sera à la base de la doctrine du Libre-échange prôné par les
classiques.
Ainsi, puisque c’est la faculté d’échanger qui donne lieu à la division du travail, l’accroissement
de cette dernière sera limité par l’étendue de la faculté d’échanger, ou, en d’autres termes, par
l’étendue du marché.
→ La théorie de la valeur s’interroge sur la richesse qu’il faut produit. C’est également l’une des
questions les plus controversées du 19ème siècle. On distingue généralement deux écoles, l’école
anglaise basée sur la valeur d’échange, et l’école française basée sur la valeur utilité.
Adam Smith et David Ricardo se sont engagés sur la voie d’une théorie objective de la valeur,
recherchant au delà de la valeur d’usage des biens (subjective et variable d’une situation à une
autre), les fondements d’une valeur d’échange acceptable par tous.
Cette approche ne concerne que les biens reproductibles. Pour Smith, à l’état primitif, il n’existe
qu’un seul facteur de production, le travail. Le rapport de valeur de deux biens sera alors
directement en proportion de la quantité de travail nécessaire pour les obtenir. Dans un état plus
avancé, il faut tenir compte du profit du capital et de la rente foncière incorporés dans chaque
produit. Ce n’est plus une théorie de la valeur travail, mais une expression du coût de production.
Smith propose cependant de ne pas abandonner le travail et d’estimer la valeur des biens en termes
de travail commandé ou équivalent salarié.
Ricardo rappelle que les quantités proportionnelles de travail nécessaire pour obtenir chaque objet
paraissent être la seule règle d’échange possible. La valeur d’échange se ramène à une quantité de
travail incorporé (travail consacré aux outils et aux machines).
→ La théorie quantitative de la monnaie (TQM) rappelle que la monnaie est un voile, elle sert
uniquement à faciliter les transactions économiques. La monnaie est une marchandise comme une
autre, sa seule fonction est de servir d’intermédiaire des échanges. Dans son Traité d’économie
politique, J-B Say note que « la marchandise intermédiaire, qui facilite tous les échanges (la
monnaie), se remplace aisément dans ce cas-là par d’autres moyens connus des négociants, et
bientôt la monnaie afflue, par la raison que la monnaie est une marchandise, et que toute espèce e
marchandise se rend aux lieux où l’on en a besoin » (1803, [1972, p. 139]).
L’équation de la TQM illustre ce phénomène. Elle se présente de la manière suivante : M .v = p. Y
M désigne la masse monétaire ; v, la vitesse de circulation de la monnaie ; p, le niveau général des
prix et Y, les transactions économiques. Considérer que la monnaie est un voile, revient à accepter
le raisonnement suivant : toute hausse de M doit correspondre à une hausse de Y (c’est parce que
les transactions économiques augmentent, que l’on a besoin de plus de monnaie). Si M augmente
indépendamment de Y, alors c’est p qui augmentera (une augmentation de monnaie qui ne
correspond pas à une augmentation des transactions économiques, génère une hausse des prix,
c’est à dire dans le langage courant, de l’inflation).
3. La répartition
La question de la répartition du produit concerne les classes, au nombre de trois : les propriétaires
terriens, les capitalistes, les travailleurs. Chaque classe offre une contribution particulière au
produit, un facteur de production propre : la terre, le capital, le travail. Chaque facteur reçoit un
revenu qui lui est propre (et dont la détermination est spécifique) : la rente, le profit, le salaire.
→ La théorie de la rente est associée à deux apports. Malthus et Smith considèrent que la rente
foncière est considérée comme un don gratuit de la nature récupérée par les propriétaires fonciers
en vertu de leur pouvoir monopole de détention de la terre. De leur côté, Ricardo et Mill
introduisent le principe de la rente différentielle. Comme la terre est limitée, les rendements sont
décroissants. On admet ainsi que les nouvelles terres qui seront mises en chantier, seront de moins
en moins fertiles.
→ La théorie de l’intérêt : les classiques considèrent que le profit et l’intérêt sont assimilables.
Smith avance que le profit est la part de la richesse produite qui revient aux capitalistes. Pour
Ricardo, il s’agit de faire une soustraction entre la valeur créée et la part allant aux salariés pour
assurer leur entretien, la part aux propriétaires fonciers en vertu de la rente différentielle. En fait,
dans l’approche libérale, le profit rémunère le risque de l’entrepreneur et des apporteurs de
capitaux.
Le profit d’aujourd’hui est la condition des investissements de demain.
→ La théorie du salaire présente deux versions complémentaires. La première de court terme
s’appuie sur la théorie du fonds des salaires (A. Smith, J-S Mill). La masse salariale (salaire
multiplié par le nombre de travailleurs) est considérée comme prédéterminée par le montant des
capitaux accumulés (épargne) par les capitalistes pour engager le processus de production. Ainsi w
N = S (où w désigne le salaire ; N, le travail et S, l’épargne). La seconde, de long terme, introduit
le salaire naturel (Malthus, Ricardo). Le travail est une marchandise, qui a un coût de production
correspondant au minimum nécessaire à l’entretien de l’ouvrier et de sa famille.
B. Les néoclassiques
Apparue dans la seconde moitié du 19ème siècle, la pensée néoclassique tire son origine des
travaux de Léon Walras, Vilfredo Pareto et Alfred Marshall. Trois notions sont essentielles :
1. Le calcul à la marge
La théorie néoclassique cherche l’explication des phénomènes économiques au niveau des
comportements individuels guidés par le principe de rationalité. C’est la démarche de la
microéconomie. Le modèle de l’homo oeconomicus insiste sur le fait que tout comportement
relève d’un calcul, d’un choix explicite ou implicite…
- Les consommateurs cherchent à maximiser leur utilité, compte tenu de la contrainte de leur
revenu. En fait, les consommateurs sont placés perpétuellement devant des choix à effectuer entre
plusieurs biens (ici les biens X et Y). Compte tenu de la contrainte de revenu, si le consommateur
décide d’acheter plus de bien X, il devra renoncer à un certaine quantité de bien Y. La variation du
prix des biens X et Y (que l’on qualifie d’effet de substitution) ou la variation du revenu (effet
revenu) desserre ou resserre la contrainte qui pèse sur le consommateur.
En utilisant le calcul à la marge, les néoclassiques ont montré que l’utilité marginale, qui
représente la valeur à laquelle le consommateur estime le bien, est décroissante en fonction des
quantités consommées. Ainsi l’utilité totale croît, mais l’accroissement de la dernière unité (utilité
marginale) est de plus en plus faible pour les biens qui existent en quantité illimitée (ceci est
illustré par le principe de satiété du consommateur).
- Les producteurs cherchent à maximiser leurs profits compte tenu de la contrainte de leur
fonction de production. Cette fonction de production est dite à facteurs substituables (c’est à dire
que le producteur recherche la meilleure combinaison de travail et de capital). Toutefois, la théorie
néoclassique admet qu’à court terme, seul le facteur travail parvient à s’adapter (le facteur capital
a besoin d’un certain temps d’adaptation).
Le prix du marché résulte de l’égalisation entre le coût marginal et l’utilité marginale, qui
appréhendée du point de vue du producteur, prend le nom de recette marginale. A long terme, le
prix du marché est égal au minimum du coût moyen et le profit pur égal à 0. Les facteurs de
production (travail, capital) sont rémunérés en fonction de leur productivité marginale. Ainsi le
salaire réel est égal à la productivité marginale du travail.
2. Le modèle du marché, l’équilibre partiel et l’équilibre général
La représentation de la pensée néoclassique passe par le modèle d'une économie de marché. Le
marché est le lieu de rencontre entre l’offre et la demande, qui réagissent en fonction du prix.
L’équilibre partiel (équilibre sur un seul marché), cher à Alfred Marshall, est souvent opposé à
l’équilibre général, dont la paternité revient à Léon Walras.
L’équilibre général est la formation d’un prix d’équilibre sur chacun des marchés existants. La
théorie néoclassique identifie quatre marchés : le marché des biens et services, le marché du
travail, le marché des titres et le marché de la monnaie.
Les agents économiques sont à la fois demandeur et offreur sur l’ensemble des marchés (ainsi les
ménages demandent des produits sur le marché des biens, offrent leur force de travail sur le
marché du travail, demandent des actifs financiers sur le marché des titres, demandent de la
monnaie). La théorie néoclassique insiste sur l’interdépendance des 4 marchés, en précisant (grâce
aux égalités comptables emplois – ressources des agents) que l’équilibre sur les marchés du
travail, de la monnaie et des titres, permet de conclure que le marché des biens et services est
également en équilibre.
Par ailleurs, Léon Walras suppose l’existence d’un commissaire priseur qui centralise toute
l’information sur le volume et les conditions de transactions, et propose des prix. Les prix étant
donnés, les agents, dissociés en unité de consommation (le consommateur maximise sa fonction
d'utilité sous une contrainte budgétaire) et unité de production (le producteur maximise ses profits
sous la contrainte d'une fonction de production), vont manifester leurs offres et leurs demandes
correspondantes. Cette confrontation entre offres et demandes pour un certain système de prix
s'effectuera sans qu'aucun échange n'ait eu lieu. Le prix évoluera en fonction de l'excès de l'offre
(la demande) sur la demande (l'offre) pour aboutir à un nouveau système de prix. Le processus
d'ajustement continuera (sans que s'effectue aucun échange) jusqu'à ce qu'il existe un même
système de prix pour tous les opérateurs tel que pour chaque bien, l'offre soit égale à la demande,
et que les échanges ne puissent s'effectuer en dehors de ce même système de prix.
3. Une démarche normative
La théorie néoclassique est normative dans la mesure où les équilibres ne sont pas ce qui est, mais
ce qui doit être. D’une certaine manière, il faut donc modifier le réel dans le sens des hypothèses
du modèle. Ceci explique l’utilisation courante du modèle de concurrence pure et parfaite. Sur
le marché, le prix est unique compte tenu de la rationalité des comportements sous les hypothèses :
de fluidité du marché (circulation de l’information) ; de transparence du marché (l’information est
disponible à tous) ; d’atomicité de l’offre et la demande (aucun agent ne peut agir sur le marché),
d’homogénéité des produits (produits standards) et d’absence de barrières à l’entrée.
En concurrence pure et parfaire, le prix devient une donnée pour les agents économiques
considérés individuellement (on dit qu’ils sont price-takers). Le prix unique garantit au
producteur que toute la production offerte, trouvera un débouché à ce prix.
II. LE COURANT KEYNESIEN
A. Les postulats keynésiens
La pensée keynésienne, que certains qualifient de « révolutionnaire » s’ordonne autour de 6 points
(les six parties de son ouvrage).
- La Théorie Générale s'attaque à la Loi de Say "L'offre crée sa demande" (qui suppose
implicitement que le système économique fonctionne à pleine capacité) et au rôle stabilisateur des
marchés. Une telle théorie serait incapable d'étudier les problèmes se rapportant au chômage
(involontaire) et au cycle économique. Les crises économiques (surproduction, chômage,..) sont
synonymes d’une défaillance des marchés et de la loi de l’offre et la demande. Une solution au
problème serait une intervention de l’Etat, c’est-à-dire une substitution du public au prix (on passe
de l’Etat Gendarme à l’Etat Providence). Cette intervention de l’Etat s’effectue au travers de
politiques économiques.
- La théorie générale a pour vocation de présenter le fonctionnement du système économique pris
dans son ensemble. En considérant les revenus globaux, les profits globaux, la production globale,
l'emploi global, l'épargne et l'investissement global, bien plus que les revenus, la production,
l'emploi..., d'industries, d'entreprises ou d'individus considérés isolément. Ainsi l'égalité de
l'épargne et de l'investissement qui est nécessairement vérifiée dans l'ensemble du système, ne l'est
nullement dans le cas de l'individu isolé. L’analyse keynésienne est donc avant tout une approche
macroéconomique.
- La théorie générale a également pour vocation de démontrer que le volume réel de la production
et de l'emploi dépend, non de la capacité de production ou du niveau préexistant des revenus, mais
des décisions courantes de produire, lesquelles dépendent à leur tour des décisions d'investir et de
l'estimation actuelle des montants de la consommation courante et future. Dès que l'on connaît la
propension à consommer et à épargner, on peut calculer le niveau des revenus et partant le niveau
de la production et de l'emploi qui assurent l'équilibre du profit lorsque l'investissement nouveau
est d'un montant donné.
- La théorie générale insiste sur le rôle joué par l’investissement. On peut ainsi penser que celui-ci
constitue le remède spécifique au chômage involontaire (tout du moins à court terme). Mais
l'analyse de court terme ne doit pas être confondue avec la thérapeutie de long terme. Le remède
spécifique au chômage, c'est l'accroissement de la consommation laquelle est la fin de l'activité
économique, et non l'augmentation de l'investissement qui n'en est que le moyen.
L’investissement est par nature instable : il résulte en effet des prévisions sur la rentabilité du
capital, plus précisément de l’efficacité marginale du capital (comportement des entrepreneurs) et
du niveau de l’intérêt qui dépend en partie du comportement des ménages (demande de monnaie).
- La théorie générale est une théorie de la monnaie (la monnaie de crédit). La théorie générale de
l'emploi et la monnaie sont étroitement liées :
La quantité de monnaie est la variable indépendante la plus importante de toutes puisqu'elle est
commandée par les autorités. Keynes dénonce le fait que « de nombreux économistes ont soutenu
que le montant de l'épargne courante déterminé l'offre de capital frais, que le montant de
l'investissement courant en gouvernait la demande et que le taux d'intérêt était le facteur
d'équilibre ou le prix déterminé par le point d'intersection de la courbe d'offre d'épargne et de la
courbe de demande d'investissement ». Le rôle du taux d'intérêt est de maintenir en équilibre, non
la demande et l'offre de biens de capital nouveaux, mais la demande et l'offre de monnaie, c'est-à-
dire la demande d'argent liquide et les moyens d'y satisfaire. Keynes insiste d'ailleurs dans la
préface de la première édition anglaise sur le rôle primordial joué par la monnaie. Il définit ainsi
ce qu'il appelle une économie monétaire : « Une économie monétaire est une économie où la
variation des vues sur l'avenir peut influer sur le volume actuel de l'emploi et non sur sa seule
orientation ». Selon Keynes, ce n'est pas le taux d'intérêt, mais le niveau des revenus qui assure
l'égalité entre épargne et investissement.
- La théorie Générale considère enfin que le niveau général des prix et les prix individuels sont
déterminés d'une façon strictement identique. C'est à dire qu'ils dépendent de l'offre et la demande.
B. Le principe de la demande effective
Le principe de la demande effective ne peut être compris sans faire référence à la demande globale
et à l’offre globale. La demande globale introduit l’intervention de trois agents et de trois
fonctions (ou actes) économiques : les ménages (fonction de consommation), les entrepreneurs
(fonction d’investissement) et l’Etat (dépenses publiques). L'état de la technique, le niveau des
salaires, l'importance de la technique, de l'outillage et de la main d’œuvre inemployés ainsi que la
situation des marchés et de la concurrence déterminent les conditions de l'offre globale. En fait, la
quantité de monnaie détermine l'offre de ressources liquides, par là, elle gouverne le taux de
l'intérêt et jointe à divers facteurs (notamment ceux qui intéressent la confiance, l'incitation à
investir), elle détermine le niveau des revenus, de la production, et de l'emploi, et le niveau général
des prix. La demande effective correspond au point d’intersection entre l’offre globale et la
demande globale (elles mêmes exprimées en fonction de la variable emploi).
Keynes stipule que le chômage est le résultat d'une insuffisance de la demande effective. L’Etat
peut agir sur les 2 composantes de la demande globale :
- sur la consommation : l'Etat peut augmenter les revenus disponibles en réduisant la fiscalité. Plus
directement, l'Etat peut accroître sa propre consommation (la consommation publique).
- sur l'investissement : en réduisant les taux d'intérêt, l'Etat va réduire le coût des emprunts pour
les ménages et le coût de financement des investissements pour les entreprises.
Dans les faits, l’action de l’Etat se traduira par une politique budgétaire expansive (dépenses >
recettes), plus précisément l'Etat va chercher à augmenter ses investissements publiques. L'impact
sur l'économie sera plus que proportionnel, c’est ce que l’on appelle l’"effet multiplicateur".
Chapitre IV : Marchés et mécanismes de fixation des prix

Marché de biens et services :


Définition :
Lieu plus ou moins concret où se confrontent l’offre et la demande de biens et de services et où se
fixent les prix des produits en fonction des quantités échangées.
Le marché des biens et services est le marché sur lequel s’échangent les biens et services
marchands, c'est-à-dire qu’il représente l’ensemble de l’offre et de la demande de biens et services
à un moment donné.
Ce marché se subdivise bien sûr en différent types de produits.
Les deux notions (biens et services) :
Les biens et services marchands regroupent tous les produits, c'est-à-dire l’ensemble des biens
matériels et des biens immatériels qui sont destinés à être vendus sur un marché.
-Les biens marchands sont des produits matériels pouvant être vendus et achetés.
-Les services non marchands sont les services fournis par les administrations publiques et
également par des associations.
-Les services marchands regroupent tous les services rendus par des entreprises contre le
versement d’une rémunération monétaire qui leur permet de dégager des profits.
Un service marchand se distingue d’un bien car il ne peut pas être stocké. Il est consommé en
même temps qu’il est produit la plupart du temps.
Marché du Travail :

Définition : Le marché du travail est le lieu de rencontre de l’offre et de la demande du travail


(un des facteurs de production) et le lieu où se fixe le montant de la rémunération du travail (c'est-
à-dire son prix).

Si l’on parle du marché du travail en général, il en existe en réalité de nombreux selon le lieu, le
type de qualification, etc.

Pour les économistes néoclassiques, si le marché du travail fonctionne librement (sans intervention
de l’Etat ou de syndicats), il permet l’équilibre entre offre (provenant des travailleurs) et demande
(provenant des employeurs). Plus concrètement, si les salaires réels peuvent baisser en cas d’excès
d’offre de travail (de la part des travailleurs), les employeurs augmenteront leur demande, les
offreurs baisseront la leur et le chômage disparaîtra.

Des économistes keynésiens vont jusqu’à remettre en cause l’existence d’un marché du travail. En
effet, les variations du salaire à la baisse se traduisent par une baisse de la demande donc de la
production et finalement de l’embauche. Il n’existe pas de mécanisme régulateur du marché du
travail donc pas de marché du travail au sens plein du terme.
Indicateurs :

Il n’existe pas d’indicateur du marché du travail mais seulement des indicateurs de sa situation.
Ainsi, le taux de chômage (nombre de chômeurs/ nombre d’actifs) mesure le déséquilibre existant
entre offre et demande de travail. Un autre indicateur complémentaire est la durée du chômage
donnée en mois ou en années ; cet indicateur est très important car un taux de chômage élevé mais
avec une durée faible est sans doute moins problématique individuellement que à l’inverse. Avec
des frontières peu nettes entre emploi et chômage, l’importance des emplois précaires est un
indicateur là aussi complémentaire avec les précédents sur la situation du marché du travail.

Orthodoxie néo-classique

- Offre de travail: l'arbitrage entre travail et loisir : à l'équilibre, le Taux Marginal de Substitution
travail-loisir pour l'individu est égal au taux de salaire du marché ; prédominance selon l'effet de
substitution ou celui de revenu, la courbe d'offre de travail peut être croissante ou atypique (en
forme de Z) : salaire « plancher ».
- Demande de travail: court terme: décroissante par rapport au taux de salaire; longue période:
variation du taux de salaire induit une modification de la combinaison productive avec le double-
effet de substitution et de production (le capital est variable).
- Equilibre du marché du travail : point de rencontre entre la courbe d’offre et celle de la demande
du travail;
- Rémunération des facteurs de production (travail, capital) à leur productivité marginale;
rationalité des agents; décentralisation des décisions; flexibilité des salaires.

Marché financier :

Par définition, les marchés financiers sont des marchés sur lesquels sont négociés des instruments
financiers ; pour étudier les marchés financiers, il est donc nécessaire de définir ces instruments.
Nous verrons ensuite que ces marchés ont été longtemps organisés selon des principes
relativement simples, assez immuables d’un pays à l’autre. Le développement de systèmes
multilatéraux de négociation, concurrents des bourses traditionnelles, est manifestement en train
de modifier considérablement le paysage des marchés financiers.

1.1 Les principaux instruments financiers

Les titres échangés sur les marchés financiers sont des contrats financiers. Un instrument financier
est, pour son détenteur à l’instant t, la promesse et non l’assurance, qu’en un instant t+∆t il pourra
percevoir des liquidités en le vendant.
1.1.1 Définitions économiques

– Les actions : une action est un titre de propriété sur une fraction du capital d’une entreprise. Sur
un plan financier elle présente principalement deux sources espérées de revenus pour son
détenteur : i) les dividendes à venir, ii) une éventuelle plus-value lors de la revente du titre.
– Les obligations : une obligation est un titre de créance correspondant à un prêt effectué par le
propriétaire de l’obligation à l’institution qui a émis et vendu l’obligation. Pendant la durée de vie
de l’obligation, l’emprunteur paie des intérêts fixés contractuellement lors de l’émission ; à
l’échéance,
– Les contrats à terme : de manière générale, un contrat à terme est un engagement à acheter ou à
vendre à un certain prix, à une date future, une certaine quantité d’une marchandise. Tout
engagement à vendre (ou acheter) a fait l’objet, de la part d’une contrepartie, d’un engagement
réciproque et irrévocable à acheter (ou vendre).
– Les options sont des contrats ouvrant le droit à acheter (ou vendre) à un certain prix, à une date
future, une certaine quantité d’une marchandise appelée sous-jacent. L’émetteur de l’option s’est
engagé irrévocablement à vendre (ou acheter) le sous-jacent au détenteur de l’option si celui-ci
désire exercer son droit.
– Les devises : une devise est une monnaie considérée depuis un territoire autre que son territoire
d’émission. Par exemple, sur le territoire français, le franc suisse est une devise. Les marchés
financiers sont les marchés sur lesquels sont négociés les titres énumérés ci-dessus ; on y adjoint
également les marchés de matières premières, agricoles et minérales, ainsi que les swaps. Un swap
est un contrat par lequel on échange deux ensembles de valeurs financières ; les swaps ne sont pas
stricto sensu des instruments financiers mais on les considère souvent comme tels. Une première
distinction très importante est à opérer :
– les marchés sous-jacents : marchés de matières premières, d’actions, obligataires, monétaires et
enfin marchés des changes ;
– les marchés dérivés comportent deux catégories fondamentales : marchés à terme et marchés
d’options. On parle de produits dérivés pour qualifier les contrats à terme et les options car leur
valeur dérive de la valeur d’un autre actif, qualifié de sous-jacent. Il est important de retenir que
l’on peut créer un produit dérivé à partir d’un autre produit dérivé ; sachant qu’un instrument
financier est couramment construit comme un ensemble d’instrument financier, il apparaît que
l’on peut créer une quasi infinité de produits dérivés.
- Les marchés organisés d’actions : Les actions, ou titres de capital, sont des titres représentatifs
d’une prise de participation dans une société. De ce fait, l’actionnaire est un associé de
l’entreprise. La détention d’une action ouvre divers droits : droit au bénéfice (dividendes), droit
aux actions gratuites, droit préférentiel de souscription, droit de vote, droit de participer aux AG,
droit à l’information, etc. Les marchés d’actions sont les plus médiatisés des marchés financiers.
Les actions sont des instruments financiers simples mais une intervention éclairée et efficace sur
les marchés d’actions est un art très difficile.
Les ordres d’achat ou de vente ont une certaine durée de validité et sont donnés soit à tout prix”
soit à cours limité” (prix minimum pour une vente, prix maximum pour un achat). L’ordre, donné
par un investisseur ou un émetteur, est exécuté par un membre du marché. Les transactions sont
effectuées à travers un système informatique, à partir de stations de travail installées chez les
négociateurs et reliées aux ordinateurs d’Euronext. La cotation La cotation se fait selon deux
modes : en continu ou selon le principe du ”fixing”. La cotation en continu concerne les valeurs
les plus liquides, ce qui signifie que les cours évoluent en permanence en fonction des transactions
effectives sur le marché. En pratique la cotation en continu repose sur le principe suivant, trés
simple :
– à l’instant t, une transaction a lieu au prix pt ; on dira alors que le cours de l’action est pt ;
– à l’instant (t + ∆t) une nouvelle transaction a lieu au prix p(t+∆t) ; la nouvelle cote est alors
p(t+∆t).
Pour les valeurs moins liquides la cotation se déroule selon le principe du fixing : on enregistre
tous les ordres d’achat et tous les ordres de vente parvenus au cours d’une certaine tranche horaire,
généralement la journée. On détermine ensuite le prix qui permettra de satisfaire le plus grand
nombre d’ordres.
Les marchés obligataires : Les obligations sont des titres négociables qui, dans une même
émission, confèrent les mêmes droits de créance pour une même valeur nominale.
Les OAT constituent la forme privilégiée du financement à long terme de l’Etat. Ce sont des titres
assimilables, émis pour des durées de 7 à 50 ans, habituellement par voie d’adjudication dans le
cadre d’un calendrier annuel publié à l’avance.
Les intervenants du marché financier

Sociétés de bourse
Les sociétés de bourse sont des prestataires jouissant du monopole de l'intermédiation boursière.
Elles ne peuvent exercer qu’après agrément du Ministre chargé des Finances sur avis de l'AMMC.
Toute société de bourse dûment agréée est tenue d'adhérer à l'Association Professionnelle des
Sociétés de Bourse (APSB).
Tout au long de leur vie, les sociétés de bourse sont soumises au contrôle de l'AMMC. Ce contrôle
se décline sous deux formes complémentaires : (i) contrôle sur place, à travers des inspections et
(ii) contrôle sur pièces, à travers des reportings dont l'AMMC fixe le contenu et la périodicité.
Les sociétés de bourse, créées en vertu de la réforme de 1993 par le dahir relatif à la Bourse des
valeurs, ont le monopole de l'intermédiation boursière. En effet, elles sont seules habilitées à
exécuter les transactions sur les valeurs mobilières inscrites à la Bourse des valeurs. Elles sont les
seuls actionnaires de la Bourse de Casablanca dont elles détiennent à parts égales l’intégralité du
capital.
Missions
Principale mission : Exécution des transactions sur les valeurs mobilières, les sociétés de bourse
peuvent également :
 Participer au placement des titres émis par des personnes morales faisant appel public à l’épargne ;
 Assurer la garde des titres ;
 Gérer des portefeuilles de valeurs mobilières en vertu d’un mandat ;
 Négocier les ordres d’achat et de vente sur la bourse ;
 Conseiller et démarcher la clientèle pour l’acquisition ou l’aliénation de valeurs mobilières ;
 Animer les titres et assister les personnes morales.
Réglementation
Les sociétés de bourse ne peuvent exercer qu'après agrément du Ministre chargé des Finances,
après avis de l'AMMC.
L’agrément n’est délivré à la société de bourse que si elle satisfait un certain nombre de conditions
préalables. Elle doit aussi présenter des garanties suffisantes.
Le capital social ne peut être inférieur à :
 1.500.000 Dh pour les sociétés de bourse dont l’objet exclusif est la négociation des valeurs pour
le compte des tiers, le conseil et le démarchage de la clientèle pour l’acquisition ou l’aliénation de
valeurs mobilières ;
 5.000.000 Dh pour celles qui en plus des opérations citées ci-dessus, veulent procéder à des
opérations de contrepartie, de conservation, de gestion de portefeuille ou de placement de titres
émis par des sociétés faisant appel public à l’épargne.
Les dirigeants et administrateurs de la dite société de bourse doivent présenter les conditions
d’honorabilité, telles que mentionnées dans l’article 56 de la loi de 1993, relative à la bourse des
valeurs. Aucune personne faisant partie de l’équipe dirigeante ou du personnel de ladite société,
ne doit être membre du conseil d’administration d’une société, dont les titres sont cotés en bourse
ou y exercer des fonctions rémunérées.

Sociétés de gestion
Une société de gestion est toute société commerciale, qui crée et gère à titre exclusif les produits
de placements dans le respect des contraintes règlementaires et légales, et des politiques
d'investissement définies en interne, pour en tirer le meilleur rendement possible.
Les sociétés de gestion comprennent les sociétés de gestion d’Organismes de Placement Collectif
en Valeurs Mobilières (OPCVM), les sociétés de gestion d’Organismes de Placement en Capital
Risque (OPCR), et les sociétés de gestion des Fonds de Placement Collectif en Titrisation
(FPCT).
Sociétés de gestion d’OPCVM
L’OPCVM est un organisme financier qui collecte l'épargne des agents économiques en émettant
des actions ou des parts. L'épargne ainsi collectée est utilisée pour constituer un portefeuille de
valeurs mobilières qui sera canalisé, le cas échéant, vers le financement des entreprises, participant
par ce biais au développement de l'économie nationale.
L'OPCVM veille à assurer une gestion optimisée des fonds investis, selon une stratégie clairement
définie au moment de son agrément. Ainsi, sa politique d'investissement et l'orientation de ses
placements sont-elles fixées préalablement au démarrage de la commercialisation de ses titres.
Les OPCVM existent sous deux formes juridiques distinctes : Les Sociétés d'Investissement à
Capital Variable (SICAV) et les Fonds Communs de Placement (FCP).
Les souscriptions sont effectuées à un prix appelé valeur liquidative et calculé périodiquement.
Sociétés de gestion d’OPCR
L'activité de capital-risque, consiste pour un organisme de placement en capital-risque à financer
des entreprises non cotées remplissant certaines conditions conformément aux dispositions de la
loi n°41-05 relative aux organismes de placement en capital risque. L’investissement dans les
sociétés cibles prend la forme de fonds propres ou de quasi-fonds propres, pour une période
d’investissement prédéterminée, et ce, dans un objectif de réalisation d’une plus-value à terme.
Les OPCR, gérés obligatoirement par une société de gestion agréée par l’administration, sont des
véhicules d’investissement pouvant revêtir la forme de Fonds commun de placement à risque
désignés FCPR ou de société de capital risque désignés SCR.
La SCR prend la forme de société par actions gérée par la société de gestion en vertu d’un mandat
de gestion. Le FCPR, quant à lui, est une copropriété d'actifs constitués à l’initiative de la SDG
d’OPCR. Le FCPR n’a pas la personnalité morale. Ses modalités de gestion sont fixées dans son
règlement de gestion.
Au terme de la période d’investissement, l’investisseur pourrait disposer de différents modes de
sorties du capital, à savoir l’introduction en bourse, la cession à un tiers, ou une cession
stratégique (reprise des parts par le management de la société investie).
Sociétés de gestion des FPCT
Le FPCT est une copropriété d’actifs qui a pour objet exclusif l’acquisition des créances d’un ou
de plusieurs établissements initiateurs au moyen de l’émission de parts et de titres de créances. Le
Fonds n’a pas de personnalité morale et est constitué à l’initiative conjointe de l’établissement
gestionnaire et l’établissement dépositaire.
L’établissement gestionnaire est toute société commerciale, remplissant certaines conditions,
agréée par le ministère des Finances, qui réalise pour le compte du FPCT l’acquisition des
créances et prend possession de tout titre ou document représentatif ou constitutif desdites
créances. Il se charge de l’émission des parts et/ou des titres de créances et paie à l’initiateur la
contrepartie convenue suite à la cession. Il gère le FPCT dans l’intérêt exclusif des porteurs de
parts et des titres de créances.
L’établissement dépositaire a pour fonction la garde des actifs du FPCT. Il assure la conservation
de ces actifs, du bordereau de cession et de tout autre document assurant la validité desdits actifs.
Il tient les comptes de paiements ouverts au nom du FPCT ainsi qu’un relevé chronologique des
opérations réalisées.
Seules les banques agréées, la Caisse de dépôt et de gestion peuvent exercer la fonction
d’établissement dépositaire. Les établissements qui ont pour objet le dépôt, le crédit, la garantie la
gestion de fonds ou les opérations d’assurances et ayant leur siège au Maroc peuvent également
être dépositaires à condition qu’ils figurent dans une liste arrêtée par l’administration après avis de
l'AMMC.
En sus des parts, un FPCT peut émettre des obligations. Les parts ou obligations émises sont
assimilées à des valeurs mobilières.
Toute personne morale ou physique peut souscrire ou se porter acquéreur des parts et titres de
créance émis par un FPCT.
Les parts et titres de créance émis par un FPCT peuvent faire l’objet d’une inscription à la cote de
la Bourse des Valeurs, conformément à la législation et à la réglementation en vigueur, si le
règlement de gestion du FPCT le prévoit.

Dépositaire Central : Maroclear


Le statut juridique
Maroclear est une société anonyme de droit privé, créée le 1er juillet 1997, en vertu des
dispositions du Dahir n°1-96-246 du 9 janvier 1997 portant promulgation de la loi n° 35-96
relative à la création d'un dépositaire central et à l'institution d'un régime général de l’inscription
en compte de certaines valeurs tel que modifié et complété par la loi 43-02.
La mission
Les principales missions de Maroclear sont :
 Assurer la conservation des valeurs mobilières admises à ses opérations, en faciliter la circulation
et en simplifier l'administration pour le compte de ses affiliés ;
 Administrer les comptes courants de valeurs mobilières ouverts au nom de ses affiliés ;
 Opérer tous les virements entre les comptes courants sur instruction de ses affiliés ;
 Mettre en œuvre toute procédure en vue de faciliter à ses affiliés l'exercice des droits attachés aux
titres et l'encaissement des produits qu'ils génèrent ;
 Assurer la codification des valeurs admises à ses opérations.
Maroclear est partie prenante dans la phase post-négociation aussi bien pour les négociations de
bourse que pour les transactions de gré à gré.
Maroclear réalise l’appariement et le dénouement, selon le principe du règlement contre livraison,
de toute transaction sur les valeurs admises à ses opérations. Cela se traduit d'une part par des flux
titres imputés directement sur les comptes que Maroclear conserve et d'autre part par des flux
espèces correspondants, instruits concomitamment auprès de Bank Al-Maghrib.
L’actionnariat
Le capital de Maroclear est de 20 millions de dirhams. Il est détenu par les usagers de ses services,
à savoir : l'Etat (25%), Bank Al-Maghrib (20%), les banques (25%), les compagnies d’assurance
(15%), CDG (10%) et la Bourse de Casablanca (5%).
Le contrôle
Maroclear est soumis au contrôle du ministère des finances.
Les statuts du Dépositaire central sont approuvés par le Ministre chargé des Finances. La
nomination du Président du conseil d'administration et, le cas échéant, la nomination du ou des
directeurs généraux du dépositaire central sont soumises à l'agrément du Ministre chargé des
Finances.
Un commissaire du gouvernement, nommé par le Ministre chargé des Finances, est placé auprès
du dépositaire central. Il est chargé de veiller au respect, par cet organisme, des dispositions de ses
statuts et du Règlement Général, après avis de l'AMMC, qui doit être établi par le Dépositaire
central, approuvé par arrêté du Ministre chargé des Finances et publié au Bulletin Officiel.
En vertu des dispositions de la loi n° 43-02 du 2 avril 2004, l'AMMC est chargée de contrôler le
respect par le Dépositaire central de ses règles de fonctionnement. A cet effet, le Dépositaire
central est tenu d'adresser à l'AMMC, selon une périodicité qu'elle fixe, tous documents et
renseignements nécessaires à l'accomplissement de sa mission.
Le ministre chargé des finances peut, s’il le juge utile, ou sur la demande de l'AMMC, demander
au Dépositaire central de faire procéder par des auditeurs externes à une évaluation de ses
procédures et des moyens techniques mis en œuvre pour l’accomplissement de ses missions. Le
rapport auquel cet audit donne lieu est transmis au ministre chargé des finances et une copie en est
transmise à l'AMMC.
L'AMMC est aussi habilité à faire effectuer par tout agent assermenté et spécialement
commissionné à cet effet, des enquêtes auprès du Dépositaire central. Elle peut obtenir
communication de tout rapport effectué par des conseillers externes. Elle peut également, le cas
échéant, commanditer un audit à ses frais.
En outre, l'AMMC contrôle que le Dépositaire central respecte les dispositions des circulaires qui
lui sont applicables.
Le Dépositaire central est tenu de publier dans un journal d'annonces légales, au plus tard six mois
suivant la clôture de chaque exercice, les bilans, les comptes de produits et charges et les états des
soldes de gestion de l'exercice écoulé.
Les affiliés de Maroclear
Les affiliés de Maroclear sont les émetteurs et les intermédiaires financiers habilités (IFH) : les
banques, les sociétés de bourse et autres organismes financiers.
L’affilié peut être soit un affilié de plein exercice soit un affilié sous mandat.
Les valeurs admises à Maroclear
Sont obligatoirement admis aux opérations de Maroclear :
 Les valeurs inscrites à la cote de la Bourse de Casablanca ;
 Les bons du Trésor émis par voie d'adjudication ;
 Les actions de Sociétés d’Investissement à Capital Variable (SICAV), les parts de fonds communs
de placement (FCP) et fonds de placements collectifs en titrisation (FPCT) et les parts ou actions
d’Organismes de placement en capital risque ;
 Les titres de créances négociables (TCN) (billets de trésorerie, certificats de dépôt et bons de
sociétés de financement) ;
 Toute valeur émise dans le cadre d’un appel public à l’épargne.
Les services offerts
- Le dépôt/conservation :
Lors de l'admission de toute nouvelle valeur dont les titres sont matériellement créés, les titres au
porteur sont déposés auprès de Maroclear. Après contrôle de leur validité, les dépôts donnent lieu
à l'ouverture de comptes courants au profit des établissements dépositaires et à l'inscription en
compte en leur nom. Une fois déposés, les titres ne peuvent plus faire l'objet de retrait.
Un plan comptable titres définissant les règles de conservation et de circulation des valeurs
mobilières s'impose tant à Maroclear qu'à ses affiliés, conférant ainsi à la conservation scripturale
un maximum de sécurité et d'étanchéité.
- Le dénouement :
Le dénouement d'une transaction sur les valeurs admises à Maroclear est réalisé par virement de
compte à compte et selon le principe du règlement contre livraison (R/L). Le dénouement titres
s'effectue en "ligne à ligne" sur les comptes courants des intervenants ouverts auprès de Maroclear
; le dénouement espèces s'effectue simultanément, après compensation, sur les comptes espèces
des intervenants ouverts auprès de Bank Al-Maghrib.
- Les opérations sur titres :
A l'occasion de chaque opération sur titres (OST) ayant un impact comptable (paiements de
dividendes ou d'intérêts, remboursements, attributions ou souscriptions, fusions, échanges …)
Maroclear informe ses affiliés des détails de l'opération et les crédite, selon le cas, en titres,
coupons ou droits et ce sur la base de leurs soldes à la veille de l'opération. Ces opérations sont
qualifiées d'OST sur stocks.
Les affiliés crédités présentent ensuite les titres, coupons ou droits détachés en leur faveur à
encaissement à un centralisateur par simple virement et obtiennent en contrepartie, selon la nature
de l'OST, soit une livraison de titres, soit un paiement espèces.
Outre ces OST sur stocks, Maroclear initie des régularisations qualifiées d'OST sur flux. Celles-ci
sont nécessaires lorsque des OST interviennent entre la date de négociation et la date de
dénouement d'une transaction.
- La codification :
Maroclear a la qualité "d'Agence Marocaine de Codification " et attribue, de ce fait, des codes aux
valeurs admises à ses opérations. Ces codes sont obligatoirement utilisés par les affiliés.
Maroclear s'est mis en conformité avec les standards internationaux en généralisant l’usage de la
codification ISIN (International Securities Identification Number).
Société Gestionnaire de la Bourse : Bourse de Casablanca
Historique
Depuis sa création en 1929, sous forme d'Office de Compensation des Valeurs Mobilières, la
Bourse des valeurs de Casablanca a connu trois réformes.
1948 : L'Office de Compensation des Valeurs Mobilières se transforme en Office de Cotation des
Valeurs Mobilières.
1967 : Institution de la Bourse des Valeurs comme établissement public par Décret Royal en la
dotant d'une organisation juridique et technique.
1993 : Création de la Société de la Bourse des Valeurs de Casablanca (actuellement "Bourse de
Casablanca") qui est une société anonyme de droit privé à laquelle a été concédée la gestion de la
Bourse des Valeurs en application d'un cahier des charges approuvé par le Ministre chargé des
Finances, après avis de l'AMMC.
Mission
La société gestionnaire a pour principale mission la gestion et le développement de la Bourse de
Casablanca. Elle a également pour mission de :
 prononcer l'introduction des valeurs mobilières à la cote de la Bourse des Valeurs et leur radiation
;
 veiller à la conformité des opérations de négociations et de dénouement effectuées par les sociétés
de bourse au regard des lois et règlements applicables à ces opérations.
La société gestionnaire est responsable du fonctionnement régulier des transactions boursières.
Elle doit en outre porter à la connaissance de l'AMMC toute infraction qu'elle aura relevée dans
l'exercice de sa mission.
Conditions d'exercice
Le capital de la société gestionnaire est souscrit dans son intégralité par les sociétés de bourse
agréées. Il est détenu à tout moment à parts égales par l'ensemble des sociétés de bourse.
En cas de retrait d'une société de bourse pour quelque cause que ce soit, sa quote-part dans le
capital de la société gestionnaire est obligatoirement rachetée à parts égales par les autres sociétés
de bourse. Les actions de la société gestionnaire sont souscrites ou rachetées à un prix déterminé
par l'AMMC. Le montant du capital minimum de la société gestionnaire est fixé par le Ministre
chargé des finances, après avis de l'AMMC.
Fonctionnement
La Bourse des Valeurs de Casablanca est un marché centralisé gouverné par les ordres et animé
exclusivement par les sociétés de bourse, membres de ce marché.
Les règles de fonctionnement de la Bourse des Valeurs sont fixées par un Règlement Général
élaboré par la Société Gestionnaire et approuvé par arrêté du Ministre chargé des Finances après
avis de l'AMMC.
La Bourse de Casablanca comporte deux marchés :
a- Le marché central :
Toute transaction sur une valeur mobilière cotée à la Bourse de Casablanca doit passer par le
marché central, à l'exception des transactions de blocs négociées de gré à gré.
Toutes les valeurs mobilières sont négociées sur le système de cotation électronique à partir des
stations de négociation délocalisées mises à la disposition des sociétés de bourse.
La variation maximale autorisée, à la hausse ou à la baisse, pendant une même séance, du cours de
toutes les valeurs mobilières cotées en bourse est actuellement de 6 % par rapport au cours de
référence. Ce seuil de réservation, qui ne peut excéder 10% des cours de référence des valeurs
concernées, est fixé par l'AMMC.
Les valeurs mobilières sont classées, en fonction de leur liquidité, en trois catégories : les valeurs
les moins liquides sont cotées au fixing alors que les plus liquides sont cotées en continu ; les
valeurs à niveau de liquidité intermédiaire sont cotées au multifixing.
Le fixing :
La cotation au fixing se traduit par la confrontation de tous les ordres préalablement enregistrés
par la société gestionnaire et, le cas échéant, par la détermination d'un cours unique pour chaque
valeur.
Le multifixing :
La cotation au multi-fixing permet de réaliser plusieurs fixing au cours d'une même séance de
bourse.
Le continu :
La cotation en continu se traduit par la confrontation de tous les ordres au fur et à mesure de leur
enregistrement par la société gestionnaire et, le cas échéant, par la détermination d'un cours
instantané pour chaque valeur.
b- Le marché de blocs :
Ce marché permet à des ordres importants en termes de taille ou à caractère stratégique d'être
négociés de gré à gré. Ces opérations de blocs doivent porter sur un nombre de titres au moins égal
à la taille minimale de bloc définie par la Bourse pour chaque valeur par référence à sa liquidité.
Le cours de négociation est lié au cours du marché central.

Marché monétaire
Le marché monétaire est un marché financier où s’échangent des titres de courte durée contre des
liquidités. Il est réservé aux institutions financières et entreprises qui peuvent prêter ou emprunter
des liquidités sur des durées très courtes.
Le marché monétaire est organisé en un marché interbancaire réservé aux banques et un
marché de titres de créances réservé aux investisseurs :
 Le marché interbancaire est le marché où les banques prêtent et empruntent des liquidités à très
court terme sans création de titres en contrepartie (emprunt à blanc). La durée la plus fréquente est
le jour le jour. Les prêts et emprunts garantis par des titres sont connus sous le terme pension. La
pension consiste en un transfert simultané, entre deux parties, de titres contre une certaine somme
d’argent, avec l’engagement des deux parties de procéder au transfert inverse à une date ultérieure.
 Le marché des titres de créances négociables TCN est un marché où les établissements de crédit
empruntent par la création de Certificats de Dépôt CD ou Bons des Sociétés de Financement BSF,
et les entreprises par la création de Billet de Trésorerie. Ce sont des titres de durées courtes ou
moyennes.

Le marché de change
Le marché des changes est essentiellement un réseau interbancaire, aux ramifications multiples et
trés internationalisé. A la différence des autres marchés financiers, il n’existe pas d’autorité
organisatrice ; le marché des changes fonctionne en continu. Une opération de change consiste à
acheter une monnaie en la payant avec une autre monnaie. Le taux de change, ou parité, est un
rapport entre deux monnaies. Il exprime le nombre d’unités d’une monnaie que peut acheter une
unité d’une autre monnaie. Une devise est une monnaie considérée dans son rapport aux autres
monnaies. Ex : la livre sterling par rapport au franc suisse. Une devise est pleinement convertible
s’il est possible de l’échanger sans restriction contre une autre devise pleinement convertible. Le
yuan chinois n’est que partiellement convertible : la Banque Centrale Chinoise ne permet pas que
le yuan soit librement acheté ou vendu ; elle exerce un contrôle sur les opérations de change de
manière à maintenir une parité (quasiment) fixe avec l’USD. Les montants négociés sur les
marchés des changes sont considérables : en moyenne quotidienne, ils sont aujourd’hui de l’ordre
de 4000 milliards équivalent USD.
Les devises contemporaines connaissent d’incessantes fluctuations de cours ; on parle parfois de
manière imagée de flottement généralisé des monnaies.
Divers facteurs concourent aux fluctuations de la parité :
– la balance des paiements,
– les taux d’intérêt à court terme,
– les perspectives de croissance : les titres exprimés dans une devise représentent une promesse
sur les richesses qui seront produites dans le futur,
– la sécurité, au sens militaire du terme, réelle ou supposée, de la nation où est émise la devise.
Plus généralement, les fluctuations ne dépendent pas uniquement de ces facteurs objectifs. Les
variations de cours sont notamment le résultat d’anticipations complexes de la part des opérateurs
sur les marchés des changes ; les cambistes doivent en particulier anticiper sur les anticipations
des autres cambistes...
Le risque de change : Un exemple
Une entreprise de la zone euro facture une livraison de marchandises en USD. Risque de change
pour l’entreprise : entre la facturation et le paiement, l’USD est susceptible de baisser par rapport à
l’EUR. Il apparaît nécessaire de pallier ce risque.
Gestion du risque de change :
Les options de change Une option de change est un contrat qui confère à son acheteur le droit
d’acheter ou de vendre une certaine quantité d’une devise à une parité spécifiée. Ce contrat peut
être valable pendant une certaine période (option américaine) ou seulement à une certaine
échéance (option européenne).
– Options standardisées : Euronext Amsterdam, Chicago Mercantile Exchange, Philadelphie...
– Options de gré à gré ou options OTC (Over The Counter) : la forme la plus répandue.
- les opérations à terme Une opération d’échange à terme de deux devises se fait à un cours
convenu lors de la conclusion du contrat. Les contrats sont généralement élaborés de gré à gré (on
les appelle dans ce cas des forwards) mais il existe des contrats standardisés : CME, Amsterdam,
Philadelphie... Un contrat à terme supprime le risque de change mais ne permet pas de bénéficier
d’une évolution favorable des parités.
Les swaps de devises : Un swap est un contrat permettant d’échanger deux flux financiers ; le
développement massif des swaps remonte au début des années 1980. Un swap de devises est un
contrat de gré à gré entre deux parties qui s’échangent des dettes contractées dans des devises
différentes. Un swap de devises permet donc de modifier la monnaie dans laquelle s’exprime une
dette (ou un placement). Il permet également d’en modifier le taux ou la nature du taux. Pour
conclure un swap, les cocontractants précisent divers éléments :
– le montant du contrat, exprimé dans une des deux devises
– la parité retenue pour procéder à l’échange
– la durée du contrat
– les modalités de calcul des intérêts (éventuellement intérêts fixes ou variables).
Chapitre V : Les irrégularités du développement

Pour définir le développement, on se réfère souvent à la définition devenue classique proposée par
l’économiste français François Perroux en 1961 : c’est « la combinaison des changements
mentaux et sociaux d’une population qui la rendent apte à faire croître cumulativement et
durablement son produit réel et global ». Cette définition implique deux faits principaux : si la
croissance peut se réaliser sans forcément entraîner le développement (partage très inégalitaire des
richesses, captation des fruits de la croissance par une élite au détriment du reste de la population),
il y a tout de même une forte interdépendance entre croissance et développement (le
développement est source de croissance et nécessite une accumulation initiale). Enfin, le
développement est un processus de long terme, qui a des effets durables. Une période brève de
croissance économique ne peut ainsi être assimilée au développement.
Le développement est par nature un phénomène qualitatif de transformation sociétale (éducation,
santé, libertés civiles et politiques…) alors que la croissance économique est seulement un
phénomène quantitatif d’accumulation de richesses. Ainsi le programme des Nations unies pour le
développement (PNUD) définit le développement comme le fait d’« élargir l’éventail des
possibilités offertes aux hommes et de services de base comme la santé ou l’éducation. Les
besoins essentiels sont définis par le fait qu’ils sont quantifiables, universels et facteurs de
croissance économique. Le PNUD propose ainsi quatre critères pour mesurer le niveau de
développement d’un pays :
• la productivité qui permet d’enclencher un processus d’accumulation ;
• la justice sociale : les richesses doivent être partagées au profit de tous ;
• la durabilité : les générations futures doivent être prises en compte (dimension à long terme du
développement) ;
• le développement doit être engendré par la population elle-même et non par une aide extérieure.
La mesure par les indicateurs de développement
Le niveau de développement d’un pays ne se limite pas à son niveau de richesse économique, le
développement ne se réduisant pas à la croissance économique. C’est pourquoi d’autres
indicateurs sont souvent utilisés. Ainsi, le taux de mortalité infantile est l’un des plus pertinents
puisqu’il est affecté par le niveau d’éducation des femmes d’un pays, le niveau d’exposition aux
maladies de la population et le niveau du système de santé (hôpitaux…). On considère qu’un pays
ayant un taux de mortalité infantile supérieur à 5 % est en sous-développement. Mais cet
indicateur est encore trop limité, car il ne prend pas en compte suffisamment de facteurs de
développement. Le PNUD a donc créé en 1990 un indicateur synthétique, l’indicateur de
développement humain (IDH). Considérant que le développement traduit l’extension des
possibilités humaines, celle-ci nécessite trois conditions : la possibilité de vivre longtemps et en
bonne santé, la possibilité de s’instruire, et enfin les possibilités d’accès aux ressources permettant
de vivre convenablement. Pour représenter ces trois dimensions du développement (santé,
éducation, niveau de vie), l’IDH synthétise trois indicateurs mesurés de 0 à 1 (plus il est élevé,
plus le pays est développé) :
• un indicateur de longévité et de santé mesuré par l’espérance de vie à la naissance ;
• un indicateur d’instruction mesuré pour deux tiers par le taux d’alphabétisation des adultes et
pour un tiers par le taux de scolarisation ;
• un indicateur de niveau de vie mesuré par le PNB/habitant en PPA (parité de pouvoir d’achat).
L’IDH synthétise ces trois indices en un seul traduisant le niveau de développement du pays, noté
de 0 à 1. Ainsi, en 2005, les pays à développement humain élevé ont un IDH supérieur à 0,800 ;
les pays à développement humain moyen ont un IDH compris entre 0,500 et 0,799 ; les pays à
développement humain faible ont un IDH inférieur à 0,500. Des différences significatives de
classement apparaissent selon que l’on prend en compte le PNB/ habitant ou l’IDH, ce qui montre
l’intérêt de ce dernier
Tout comme le PNB/habitant, l’IDH rencontre des limites puisqu’il ne montre pas si le niveau de
développement atteint est dû à une aide extérieure ou bien aux progrès réels du pays qui traduisent
alors l’effectivité d’un processus durable de développement. De plus, on peut lui reprocher son
caractère statique alors que ce qu’il est censé mesurer, le développement, est lui un phénomène
dynamique. Enfin, l’IDH n’indique pas le niveau des inégalités internes au pays.
Réussite et échec des stratégies de développement Plusieurs stratégies de développement se sont
succédé à partir de la seconde moitié du XXe siècle. Leurs fondements sont intimement liés au
contexte diplomatique, commercial et idéologique de leurs époques respectives : choix du libre-
échange ou du protectionnisme, de l’État ou du marché, inspirations libérales ou keynésiennes…
LES STRATÉGIES D’INDUSTRIALISATION
L’accomplissement de ces stratégies va se dérouler des années 1950 jusqu’au début des années
1980. Elles sont le fait de pays souvent nouvellement indépendants suite au processus de
décolonisation. La plupart de ces pays vont faire jouer un rôle primordial à l’État du fait du
contexte mondial keynésien pour le bloc de l’Ouest et de l’hégémonie socialiste dans le bloc de
l’Est : c’est l’idéologie triomphante du volontarisme politique qui permettra d’amorcer une
industrialisation tardive.
Les fondements des stratégies d’industrialisation
Le choix de l’industrie La plupart des pays du tiers-monde vont choisir de privilégier l’industrie au
détriment de l’agriculture. Un consensus se met en place pour lier de manière forte développement
et industrialisation. En effet, beaucoup de pays ont en mémoire les dégâts provoqués par leur
spécialisation dans les produits primaires. De plus, le secteur industriel est supposé être facteur
d’externalités positives par des effets d’entraînement sur les autres secteurs de l’économie – par
l’intermédiaire de gains de productivité, d’un accroissement de la qualification de la main-d’œuvre
et en suscitant du progrès technique. De l’autre côté, l’agriculture est considérée comme un
secteur archaïque, à faible potentiel de productivité, qui se développera grâce aux effets
d’entraînement de l’industrie. On retrouve donc ici l’influence de la thèse dualiste d’Arthur Lewis
Le développement autocentré
Le premier type de stratégies de développement regroupe des industrialisations basées sur le
développement du marché intérieur : c’est le développement autocentré. Elles reflètent un «
pessimisme pour les exportations » vécu par ces pays à la suite de spécialisations défaillantes
(souvent dues à un passé de colonie) et d’une dégradation des termes de l’échange.
Le développement extraverti
Une partie des pays du tiers-monde va suivre une autre stratégie d’industrialisation, passant par
une participation croissante au commerce international (développement extraverti* ), suivant en
cela les principes de la théorie néoclassique des avantages comparatifs, avec plus ou moins de
succès.
VERS UN NOUVEAU PARADIGME DU DÉVELOPPEMENT
La remise en cause du paradigme libéral qui fait suite aux échecs des stratégies autocentrées
amène à traiter des nouvelles pistes pour les stratégies de développement à venir. Une réflexion
profonde est menée, tant en dehors qu’à l’intérieur des institutions internationales chargées du
développement (ONU, PNUD, FMI, Banque mondiale), pour repenser le développement
12.3.2 Un développement des libertés L’économiste indien Amartya Sen (prix Nobel d’économie
en 1998) introduit une dimension philosophique dans la théorie du sous-développement. L’agent
économique est aussi une personne morale. Il estime que même si les stratégies de développement
assurent la distribution des biens primaires nécessaires aux besoins essentiels (nourriture,
logement…), les capacités des individus à utiliser librement ces ressources sont inégales et non
assurées. Par exemple, les ressources alimentaires sont disponibles pour nourrir l’ensemble de la
population d’un pays, mais l’absence de libertés publiques peut empêcher une partie de cette
population d’y avoir accès. Dans cette perspective, les stratégies de développement doivent non
seulement viser la production des revenus et des ressources pour assurer le développement, mais
également des « capabilités » (de l’anglais capabilities), c’est-à-dire que toute personne doit
disposer des capacités à pouvoir mener une vie digne et sensée. Cette vie accomplie nécessite
l’assurance de certaines « capabilités » fonctionnelles comme pouvoir éviter de mourir de manière
précoce, avoir accès à l’éducation secondaire, mais aussi avoir accès à l’étendue des sentiments
humains (rire, pleurer…), pouvoir se distraire, etc. Le développement est donc redéfini comme un
processus augmentant la capacité des individus à jouir de libertés : la disponibilité des ressources
ne suffi t donc pas, il faut aussi assurer la capacité de jouir de ces ressources. Les stratégies de
développement doivent s’employer à éliminer les obstacles à cette extension des possibles des
individus et aussi ne pas se limiter à de seuls critères quantitatifs de réduction de la pauvreté, de
revenu… Les travaux de Sen vont être à l’origine de la création de l’indicateur de développement
humain (IDH), à laquelle il a directement contribué. Un des préalables au développement, selon
Sen, est la démocratie. C’est la forme de pouvoir politique qui garantit le mieux l’assurance des «
capabilités ». Les stratégies de développement doivent donc avoir comme socle commun la
démocratisation. Pour illustrer cette thèse, Sen prend l’exemple des famines
Un développement durable
La définition la plus répandue et la plus officielle du développement durable est la suivante : "un
développement qui répond aux besoins du présent sans compromettre les capacités des générations
futures à répondre à leurs propres besoins".
Il existe aussi d'autres définitions du développement durable, ou des politiques de développement
durable. On dira par exemple qu'il s'agit d'un développement qui intègre, les aspects économiques,
sociaux, et environnementaux, d'autres formulations disent, qui équilibre ces aspects économiques,
sociaux, environnementaux, ou des aspects institutionnels aussi, ou encore culturels. Différentes
variations donc, mais des formules dont la vérification reste toujours peu aisée. Enfin, une façon
courante de définir le développement durable est de multiplier les principes ou les critères
auxquels il doit satisfaire. Par exemple, vision de long terme, vision mondiale, principe de
précaution, intégration des différentes dimensions, participation, etc.
Il existe 17 objectifs du développement durable
Objectif 1 : Éliminer la pauvreté sous toutes ses formes et partout dans le monde
Objectif 2 : Éliminer la faim, assurer la sécurité alimentaire, améliorer la nutrition et promouvoir
l’agriculture durable Objectif 3 : Permettre à tous de vivre en bonne santé et promouvoir le bien-
être de tous à tout âge
Objectif 4 : Assurer l’accès de tous à une éducation de qualité, sur un pied d’égalité, et
promouvoir les possibilités d’apprentissage tout au long de la vie
Objectif 5 : Parvenir à l’égalité des sexes et autonomiser toutes les femmes et les filles
Objectif 6 : Garantir l’accès de tous à l’eau et à l’assainissement et assurer une gestion durable des
ressources en eau
Objectif 7 : Garantir l’accès de tous à des services énergétiques fiables, durables et modernes, à
un coût abordable
Objectif 8 : Promouvoir une croissance économique soutenue, partagée et durable, le plein emploi
productif et un travail décent pour tous Objectif 9 : Bâtir une infrastructure résiliente, promouvoir
une industrialisation durable qui profite à tous et encourager l’innovation Objectif 10 : Réduire les
inégalités dans les pays et d’un pays à l’autre
Objectif 11 : Faire en sorte que les villes et les établissements humains soient ouverts à tous, sûrs,
résilients et durables
Objectif 12 : Établir des modes de consommation et de production durables
Objectif 13 : Prendre d’urgence des mesures pour lutter contre les changements climatiques et
leurs répercussions
Objectif 14 : Conserver et exploiter de manière durable les océans, les mers et les ressources
marines aux fins du développement durable Objectif 15 : Préserver et restaurer les écosystèmes
terrestres, en veillant à les exploiter de façon durable, gérer durablement les forêts, lutter contre la
désertification, enrayer et inverser le processus de dégradation des sols et mettre fin à
l’appauvrissement de la biodiversité
Objectif 16 : Promouvoir l’avènement de sociétés pacifiques et ouvertes aux fins du
développement durable, assurer l’accès de tous à la justice et mettre en place, à tous les niveaux,
des institutions efficaces, responsables et ouvertes
Objectif 17 : Renforcer les moyens de mettre en œuvre le partenariat mondial pour le
développement durable et le revitaliser.
Théorie des cycles économiques
La récurrence des crises économiques au XIXème siècle a depuis longtemps retenu l’attention des
économistes. L’irrégularité de la conjoncture, l’alternance de mouvements à la hausse ou à la
baisse des différentes variables (activité, emploi, profit, prix…) ont conduit les économistes à
emprunter aux sciences exactes certaines expressions. On trouve ainsi fréquemment le terme de
« cycle » pour désigner des mouvements se reproduisant avec une amplitude et une périodicité
relativement régulière (comme celles engendrées par une sinusoïde, par exemple). Il est clair que
les mouvements des variables économiques ne reproduisent que de loin cette perfection
mathématique. Aussi, les termes de « fluctuations » ou « d’oscillations » sont-ils fréquemment
utilisés, la dénomination de cycle mettant plutôt en évidence l’idée de mouvements récurrents et
réguliers de l’activité.
Cependant, dans l’utilisation économique actuelle du terme « cycle » apparaît une composante
supplémentaire par rapport aux vocable « fluctuations » : celle de la persistance. Il n’est sans doute
pas exagéré de dire que la question des fluctuations englobe la quasi-totalité des réalités
macroéconomiques. En revanche, le thème du cycle est beaucoup plus « spécialisé ». Ainsi, ce
cours se situe résolument dans cette perspective. Nous nous pencherons sur les analyses modernes
ou contemporaines qui apportent à la fois une explication complète de la persistance d’un
mouvement (qu’il soit ascendant ou descendant) et du retournement de la tendance. Les « vraies »
théories du cycle sont donc ambitieuses car elles nécessitent une vision globale du système
économique.
Cependant, avant toute chose, décrire le cycle est une nécessité pour bien délimiter l’objet des
chapitres qui vont suivre. Il s’agit de situer le sujet traité par rapport à d’autres préoccupations
théoriques : il convient surtout de bien savoir de quoi l’on parle.
I. La caractérisation du cycle économique
1. Quelques précisions de vocabulaire :
S’agissant d’une façon générale d’observer des mouvements, différentes classifications sont
proposées :
Le déplacement d’un objet au cours du temps peut le conduire à se retrouver, à intervalles
réguliers, au même endroit : il est alors qualifié de systématique au sens où il semble obéir à un
ordre préétabli, ou déterministe. L’hypothèse contraire correspond à un mouvement aléatoire ou
stochastique. Parmi les mouvements systématiques certains sont à sens unique (ne changent jamais
de sens) et d’autres ont des retournements, on parle alors d’alternance. Mais il faut bien
évidemment que les diverses phases se succèdent avec régularité.
Le terme cyclique renvoie à l’amplitude du mouvement, qui doit être plus ou moins constante,
alors que l’intervalle de temps séparant les différentes phases dépend de la périodicité. Ainsi
cyclicité et périodicité ne sont pas des notions qui se confondent.
En pratique, les mouvements que nous avons à étudier en économie sont des phénomènes qui
certes se répètent, se reproduisent mais sans que l’on puisse y trouver la perfection, la régularité
présentes dans les domaines de la physique et de la mécaniques auxquelles sont empruntées ces
notions. Ainsi, bien que le terme soit couramment utilisé en de nombreuses circonstances, il n’y a
pas de véritable cycle en économie. A la limite on ne devrait parler que de tendance cyclique sous-
jacente aux mouvements économiques. Or, pour désigner ces phénomènes, on trouve également
dans la littérature les expressions d’oscillation ou de fluctuation, d’où les risques de confusion.
Ainsi, la rigueur des analyses rend nécessaire de donner de plus amples précisions et restrictions
quant à l’utilisation du mot « cycle ».
Comme pour la croissance, la variable centrale du cycle est le produit global. Un certain nombre
de caractéristiques permet d’utiliser le terme de façon à disposer de propriétés précises :
il est alterné
il se reproduit à intervalles relativement réguliers
il est d’une amplitude ne dépassant pas certaines limites.
L’analyse contemporaine ajoute également la notion de persistance. Cette propriété indique que si
le PIB augmente à un rythme un peu plus rapide au cours d’une période, il y a de fortes chances
pour qu’il en soit de même pendant plusieurs périodes. Inversement, lorsque l’activité commence
à ralentir, la baisse du rythme de l’activité se poursuit généralement pendant quelques temps. Pour
le théoricien, la persistance est sans doute la caractéristique la plus intéressante et la plus
complexe du cycle économique. S’il est relativement facile d’expliquer pourquoi la production est
fluctuante en faisant appel à des erreurs d’anticipations, les saturations, les variations des taux
d’intérêt, les rigidités… il est beaucoup plus difficile d’expliquer pourquoi un retournement de la
conjoncture a une certaine durabilité.
A la différence d’une manifestation cyclique, un phénomène de fluctuation a un caractère souvent
erratique, imprévisible.
C’est de façon relativement pragmatique que vont se développer les premières tentatives
d’explication du cycle. Historiquement, le recensement d’un certain nombre d’évènements permet
d’énoncer des « faits stylisés ».
2. Les faits empiriques historiques
L’analyse des cycles par rapport à la croissance est largement dépendante de l’évolution historique
des économies. En effet, avant la seconde guerre mondiale, les pays développés à économie de
marché (PDEM) ont connu de fortes fluctuations de leurs principales variables macroéconomiques
(PIB, inflation, chômage…). Ces perturbations, en particulier le fait qu’à certaines périodes les
pays ont pu connaître des « crises » économiques, càd des périodes où le taux de croissance du
PIB a été négatif, a conduit beaucoup d’économistes à tenter de définir des cycles réguliers
d’évolution des systèmes, basés sur la valeur absolue des variables. Voir graphiques 1 à 4 tirés de
« La croissance économique » de Barro et sala-i-Martin.
L’un des premiers auteurs à tenter de mettre en évidence statistiquement des cycles est Juglar, en
1862. Clément Juglar est un médecin français. Il analyse la France, la Grande Bretagne et les
Etats-Unis et met en avant des cycles d’une durée de 9 à 10 ans.
Soixante ans après Juglar, c’est-à-dire vers 1922, le statisticien J. Kitchin propose une étude des
cycles américains et britanniques sur la période 1890-1922. Il met en évidence des cycles dits
« mineurs » d’une durée approximative de 40 mois (3 ans et 4 mois environ), des cycles majeurs
de 7 à 11 ans. Ce sont les cycles mineurs qui sont aujourd’hui identifiés comme « cycles de
Kitchin » et qui seraient en quelque sorte inscrits à l’intérieur des cycles Juglar. Mais les plus
connus des cycles sont certainement ceux de Kondratiev, qui met en évidence en 1922 et 1925 des
cycles longs dans les économies développées. Il étudie la France, la Grande Bretagne,
l’Allemagne et les Etats-Unis sur la période 1780-1920 et identifie des cycles d’une longueur
approximative comprise entre 50 et 60 ans.
(1) La Revolution Industrielle (1787-1842) est le cycle le plus connu de Kondratiev: le boom a
débuté vers 1787 et a tourné en recession au début de 1801 et, en 1814, s’est accentué en
dépression. La dépression a duré jusqu’en 1827 environ après quoi il y a une reprise jusqu’en
1842. Ce cycle de Kondratiev aurait été dû au développement du textile, fer et autres industries.
(2) Le Kondratiev “Bourgeois” (1843-1897): Après 1842, le boom a ré émergé et une nouvelle
vague Kondratiev a commence, cette fois résultant de l’avancée des routes et trains dans le nord de
l’Europe et de l’Amérique et de l’expansion des industries du charbon et du fer. Le boom voit sa
fin approximativement en 1857 quand survient une récession. La récession devient une dépression
en 1870, qui durera environ jusqu’en 1885. La reprise arrive ensuite et perdure jusqu’en 1897.
(3) Le Kondratiev Néo-mercantiliste (1898-1950): Le boom débute vers 1898 avec l’expansion
de l’électricité et l’industrie automobile jusqu’en 1911. La récession qui a suivi tourne en
dépression vers 1925 jusqu’en 1935. On peut supposer que cette 3ème vague amorce une reprise
immédiatement après 1935 jusqu’en 1950.
(4) Le 4ème Kondratiev (1950- 2010). Il y a eu beaucoup de débats parmi les “croyants” autour
de la date de la 4ème vague. Ceci est dû au fait de la confusion générée par la faible fluctuation
des prix et de l’effet des politiques Keynésiennes et ce débat doit être résolu. Peut être que la plus
acceptable plage de dates est que le boom a débuté autour des années 50 jusqu’en 1974 lorsque la
récession a commencé. Quand (et si) cette récession devient une crise est plus difficile à définir
(c.1981?), mais ce qui a été plus ou moins entendu est qu’en 1992 la reprise a commencé et a été
projetée pour aboutir à un boom et à un nouveau cycle de Kondratiev vers 2010.
Dans ses premiers travaux Kondratieff se limitait à un constat. L’idée a été reprise par de
nombreux auteurs. A partir de données beaucoup plus détaillées, Kuznets a notamment proposé
dans les années 30 une théorie des cycles longs mettant en évidence des mouvements d’une
périodicité de l’ordre de 22 ans pour les prix et la production aux Etats-Unis. Le contenu explicatif
des théories du cycle long a semblé faible jusqu’à son enrichissement par les analyses de
Shumpeter, portant sur les « grappes d’innovation » et de « destruction créatrice » en 1939. L’idée
est que le système capitaliste est caractérisé par une mutation permanente des structures de
production tenant à des raisons internes, endogènes. Sur la base des nouvelles méthodes de
production, découlant du processus d’innovation, les entreprises et installations anciennes doivent
laisser place aux nouvelles : on fait du neuf en détruisant le vieux. Ce schéma théorique permet à
Shumpeter de proposer une explication aux cycles économiques longs mis en évidence par
Kondratieff : chacune des grandes périodes d’expansion se caractérise ainsi par la diffusion
d’innovations technologiques majeures propres à chaque période envisagée. Les innovations
majeures du premier cycle auraient été la machine à vapeur et le textile, le deuxième l’acier et le
chemin de fer et enfin le troisième le moteur à explosion, l’électricité et la chimie. Certains auteurs
plus récents reprennent le schéma en l’appliquant à des développements plus récents : Le
quatrième Kondratieff pourrait être celui de l’automobile et de l’électronique. La sortie de la crise
des années 70 passerait par le développement de nouvelles filières industrielles permettant
d’enclencher un nouveau processus d’accumulation. L’idée est que les innovations prendraient
nécessairement naissance pendant la phase de difficultés du cycle. Il y a diverses explications
apportées à cela depuis, mais on peut retenir notamment l’idée que lors des crises les activités non
suffisamment rentables disparaissent et laissent ainsi place à d’autres formes plus rentables. C’est
un processus d’adaptation des activités à l’évolution du contexte. Schumpeter a également proposé
une vision très systématique de « l’emboîtement » des différents types de cycle : chaque cycle
Kondratieff contiendrait 6 cycles Juglar de 9-10 ans, et chaque Juglar se composerait en 3 cycles
Kitchin d’un peu plus de 3 ans chacun. Toutes les fois que les 3 cycles traverseraient ensemble
une même phase, cette phase serait d’une intensité exceptionnelle (ex : crise de 29).
Cependant, beaucoup d’économistes ne croient pas à ces cycles longs, et les méthodes statistiques
modernes d’extraction des composantes cycliques des séries chronologiques n’ont pas réellement
permis de confirmer l’existence de ces cycles (Kitchin, Juglar, Kondratieff).
Dans un premier temps, ce sont tous les travaux empiriques publiés depuis une cinquantaine
d’années qui permettent de mieux connaître la nature du phénomène cyclique. L’approche reste à
ce stade tout à fait pragmatique.
En particulier, il semble que le cycle économique soit d’abord un phénomène global, souvent
d’ampleur internationale, concernant non seulement la production, l’emploi et le chômage, mais
également un très grand nombre d’autres données comme les prix des matières premières. C’est
aussi un phénomène persistant dont le déroulement peut prendre plusieurs années au cours
desquelles on observe des mécanismes cumulatifs à la hausse comme à la baisse.
Des travaux plus récents ont particulièrement mis l’accent sur les caractéristiques cycliques du
marché du travail.
Historiquement, la théorie des cycles et fluctuations se démarque donc de celle de la croissance en
ceci que les théories de la croissance essaient d’expliquer une tendance de long terme du produit.
A l’opposé, hormis cette tendance de long terme, les théories des fluctuations cherchent à analyser
les mouvements, les fluctuations de divers agrégats économiques, notamment le PIB, autour de
cette tendance. Se pose dès lors la question de la manière dont décomposer au mieux la tendance
du cycle. En fait, les théories et les études empiriques sont allées de pair. Initialement, la croyance
était qu’il existait une tendance DETERMINISTE dans les séries, c.à.d. dépendante du temps.
Mais avec les travaux pionniers de Beveridge et Nelson (1981), repris par Nelson et Plosser (82),
cette vision simpliste va être remise en cause au profit d’une vision stochastique de la tendance.
II. De la tendance déterministe à la tendance stochastique des séries économiques : les
apports des travaux empiriques
Outre les questions économiques sous-jacentes, la décomposition des séries économiques entre
une tendance et des fluctuations a une raison technique. En effet, il apparaît que la majeure partie
des séries économiques ne sont pas stationnaires, càd que sur longue période elles n’ont pas une
moyenne, variance et covariance constantes, mais au contraire bien souvent croissantes avec le
temps. Dans ce cas, les méthodes économétriques classiques (MCO..) ne peuvent s’appliquer. Il
est donc nécessaire de stationnariser les séries, càd de les purger de la tendance.
Des années 30 jusqu’aux années 80, la vision dominante de la décomposition tendance/cycle était
fondée sur l’extraction d’une tendance déterministe, fonction du temps, comme le montre
l’illustration suivante :
Tendance déterministe : on suppose que la série évolue de manière linéaire par rapport au temps :
y t    t   t

Où  t est un terme aléatoire qui suit une distribution stationnaire.


Mais on peut aussi envisager des hypothèses de tendance paraboliques, exponentielles, logistiques
de dépendance de la série par rapport au temps.
Dans ce cas de dépendance par rapport au temps, on peut démontrer que des chocs ayant lieu à une
période donnée n’ont aucune conséquence sur l’évolution ultérieure, la série revenant toujours
vers sa tendance de long terme. Ainsi, d’un point de vue technique comme théorique, les travaux
délimitent la croissance du cycle et les modèles de fluctuation portent sur des effets de court et non
de long terme. Cette vision de la composante cyclique de nature transitoire (puisqu’il était
supposé que les fluctuations cycliques disparaissaient avec le temps) impliquait donc que tout
mouvement de long terme ou permanent (donc non-stationnaire) était nécessairement attribué à la
tendance. La distinction entre croissance et fluctuations, tendance et cycles était simpliste mais
claire : il y avait une tendance de long terme autour de laquelle apparaissaient des fluctuations plus
ou moins régulières dont la durée était relativement brève et dont surtout, l’impact sur la tendance
de long terme était nul. Dans cette optique, une crise, une récession n’était qu’un accident qui ne
remettait pas en cause le mouvement long, la tendance. La dissociation, commode, avait cependant
des fondements économiques pour le moins incertains, puisque l’explication de court terme était
alors complètement dissociée de celle de long terme. Cette vision va être dominante des années 30
jusqu’aux années 80, coïncidant avec la prépondérance des théories keynésiennes et de l’approche
des cycles comme des déséquilibres par rapport à une tendance, l’ensemble de ces analyses étant
regroupées sous le vocable de « synthèse néo-classique ».
Mais, si les variables macro-économiques ont tendance à croître, l’hypothèse d’une tendance
déterministe n’est pas la seule que l’on puisse retenir. Les travaux récents ont montré l’intérêt et la
pertinence d’une autre hypothèse, celle de tendance stochastique dont un exemple très simple est :
Tendance stochastique : lorsque l’évolution de la série est du type :
y t    y t 1   t  y t     t

Lorsque   0 on dit que la série suit une « marche aléatoire avec dérive » et une « marche
aléatoire pure » si  = 0.
On voit dès lors que lorsque l’on différentie la variable, le modèle devient stationnaire. Le modèle
est donc dit « stationnaire en différence ». Une des grandes conséquences du fait que la variable en
t dépend de sa valeur à la période précédente est que tout choc à une période va donc avoir des
effets permanents et non plus transitoires sur la trajectoire de la variable.
En 1981, Beveridge et Nelson mettent en évidence l’intérêt de l’hypothèse de tendance
stochastique. Ils montrent que tout modèle ARIMA (abréviation de « Auto-Regressive-
Intergrated-Moving-Average ») en français : modèle de type auto-régressif , intégré, moyenne
mobile a une tendance stochastique . Il s’agit d’une modélisation à la fois simple et très
sophistiquée permettant de prévoir une série chronologique à partir de sa seule histoire. Ces
travaux ont retenu l’attention pour au moins 2 raisons : la première est que les modèles de type
ARIMA se sont montrés comme permettant de retracer avec une précision tout à fait remarquable
beaucoup de variables macroéconomiques. La seconde est qu’ils montrent dès lors que les
prévisions de long terme basés sur des tendances déterministes sont fausses…
Les modèles ARIMA sont de la forme suivante :
y t  y t 1   t  b t 1  y t   t  b t 1
Avec b une constante.

Beveridge et Nelson (81) montrent que dans ce cas, la série y t peut être décomposée en :
y t  y tp  y ts


y tp  y tp1  (1  b) t
qui est bien une marche aléatoire sans dérive
y ts  b t
qui est bien un processus stationnaire.
Ainsi, la méthodologie de Beveridge et Nelson permet de décomposer des séries intégrées en une
composante stationnaire et une tendance stochastique (de long terme).

En 1982, Nelson et Plosser vont appliquer la méthodologie de Beveridge et Nelson et vont


effectivement remettre en cause la vision de la dissociation classique entre croissance et cycle. En
effet, sur un ensemble de 14 séries macroéconomiques annuelles sur des périodes de 60 ans à un
siècle et se terminant en 1970 (PNB réel, nominal, production industrielle par tête, diverses séries
de prix, de salaire et de rendement, la monnaie et sa vitesse de circulation et le taux de chômage),
les tests effectués permettent de rejeter l’hypothèse de séries stationnaires autour d’une tendance
déterministe (càd dépendant du temps), à l’exception du taux de chômage. En outre, toujours à la
seule exception du taux de chômage, les tests ne permettent pas de rejeter l’hypothèse d’une
tendance stochastique.
Il apparaît ainsi que le niveau de la variable dépend, non du temps, mais du niveau de la même
variable à la période précédente. Ces travaux ont un effet énorme sur la pensée théorique, car ils
ont de nombreuses conséquences. Des tests similaires ont été menés par divers auteurs sur des
séries plus longues et différents pays, mais dans la plupart des cas aboutissent à la même
conclusion que Nelson et Plosser (1982). La convergence de ces résultats conduit les auteurs à
penser qu’il est préférable de concevoir les principales séries économiques comme une marche
aléatoire et non pas comme des fluctuations stationnaires et transitoires autour d’une tendance
déterministe linéaire. Ainsi, après un choc, la série analysée a tendance, non pas à revenir vers une
moyenne de long terme, mais plutôt à s’éloigner de l’état initial au fur et à mesure que le temps
s’écoule.
Cependant, ces résultats ont été nuancés par d’autres auteurs, notamment Mankiw et Campbell
(1987) et Cochrane (1988). Ce que montrent les auteurs est qu’il convient de faire une distinction
entre persistance et hystérésis. En effet, Nelson et Plosser trouvent que l’on ne peut rejeter
l’hypothèse d’un coefficient devant la variable endogène retardée égal à un (racine unitaire).
Mankiw et Campbell (1988) vont montrer que l’existence d’une racine unitaire dans les séries est
une condition nécessaire mais non suffisante de la persistance d’un choc. Cochrane (1988) va
quant à lui montrer qu’à certaines conditions la série peut retourner vers une tendance, mais à très
long terme (environ 20 ans pour le log du PIB réel des Etats-Unis entre 1869 et 1989). Ceci est
vrai lorsque le coefficient devant la variable retardée est très proche de 1, mais inférieur.
On voit ainsi apparaître la nécessité de distinguer l’« hystérésis » qui est une persistance infinie,
caractérisée par une racine unitaire et la persistance lente caractérisée par un coefficient très
proche de 1. Il est très difficile et pratiquement exclu dans les modèles de pouvoir distinguer entre
=0,95 ou 0,99 et =1.
La question n’est d’ailleurs pas encore tranchée à l’heure actuelle, les travaux de Perron (1989)
montrant que de grands chocs (comme la crise de 29 ou les chocs pétroliers) ont des effets sur la
tendance déterministe de long terme, un changement de pente, une rupture, et c’est pour cette
raison que si on ne tient pas compte de cette possibilité, alors on peut trouver des racines unitaires
(càd une tendance stochastique), alors qu’elle est déterministe. Ainsi, on le voit, le débat est loin
d’être tranché entre partisans des tendances stochastiques et déterministes.
Cependant, le filtre de Hodrick-Prescott (1980) est une méthode qui s’applique aussi bien au cas
de tendance déterministe que de tendance stochastique et qui permet d’éliminer les mouvements
des séries de basse fréquence (donc la tendance). C’est une méthode largement répandue à l’heure
actuelle, mais des débats sur ses mérites par rapport à la méthode de Beveridge et Nelson
présentée précédemment est encore en débat dans la littérature.
Par ailleurs, il est établi que l’utilisation de modèles de type « univarié » est trop simpliste et
trompeur. En effet, ils supposent que la série n’est affectée que par un seul choc, qui si la tendance
est stochastique va influer aussi bien sur la tendance que sur le cycle. Or Quah (1992) a
notamment montré qu’une série avec trend stochastique peut être la résultante de 2 tendances,
l’une engendrée par un choc transitoire, l’autre par un choc permanent.
Les choses sont encore plus complexes si l’on suppose que la série est affectée par plusieurs
chocs. C’est ce que postulent les modèles économétriques VAR (Vector Autoregressive) qui
correspondent à des modèles « multivariés ».
Enfin, il n’est pas exclu que plusieurs séries aient des mouvements conjoints. En effet, étant donné
que la majeure partie des séries est affectée par des chocs (tendance stochastique), ayant des effets
permanents ou du moins persistants à moyen ou long termes, si ces chocs provoquent une
évolution parallèle des variables, il y a risque de leur attribuer des liens de causalité, alors qu’en
fait il n’y en a pas. Depuis la fin des années 80, les modèles de « cointégration » permettent de
tenir compte de cette possibilité de trend stochastique et d’estimer des causalités de long et de
court terme entre des variables.
Cette particularité des séries économiques a un effet très important sur les évolutions théoriques,
car si la tendance est stochastique et non déterministe, ceci veut dire que la plus grande part de la
variabilité conjoncturelle a son origine dans les réalisations du processus de croissance lui-même.
Cette implication a notamment été à l’origine d’un courant théorique au début des années 80 : « La
théorie des Cycles Réels » TCR, ou « Real Business Cycles » RBC: si les chocs de demande sont
des chocs transitoires, alors il faut interpréter comme chocs d’offre les impulsions permanentes
qui dominent la variabilité conjoncturelle des séries macroéconomiques.
En fait, des années 30 jusqu’aux travaux de Nelson et Plosser (82), les évolutions de long terme du
produit sont vues comme résultant des théories de la croissance et donc des variables d’offre
(comme le PT), alors que les fluctuations de court terme résultent de déséquilibres par rapport à
cette tendance de long terme et donc découlent des variables de demande, notamment tout de qui
est politique monétaire et budgétaire. A partir de la TCR cette dichotomie n’est plus valable car les
auteurs de ce courant, portés par les résultats empiriques d’une tendance stochastique et non
déterministe dans les séries économiques, vont expliquer les fluctuations des séries comme
résultant d’une variation du produit lui-même et donc des variables d’offre et non plus de
demande. Avec la TCR les fluctuations ne sont plus vues comme des dérives par rapport à
l’équilibre mais comme une fluctuation du PNB lui-même.
Cependant, une des grandes critiques à l’encontre de ce courant est que tout est à l’équilibre, et
que même s’il existe du chômage, celui-ci est volontaire, ce qui ne semble pas très crédible à
l’heure actuelle. Ainsi, les néo-keynésiens, en introduisant des imperfections de coordination,
d’information… dans le cadre de la TCR réhabilitent les effets de demande dans l’explication des
fluctuations et pensent que les chocs d’offre simples ne permettent pas à eux seuls de rendre
compte de l’évolution du PIB. Ils réhabilitent ainsi les effets des politiques et donc de
l’intervention de l’Etat dans l’évolution des richesses.
Il faut voir également que cette évolution de l’explication des cycles venant de déséquilibres,
prédominante des années 30 à 80, privilégie une vision des fluctuations comme étant endogènes,
c.à.d. émanant du modèle lui-même et non de chocs (on parle donc dans ce cas de modèles
déterministes, qui sont donc synonymes de fluctuations endogènes): à court terme, ce sont les
déséquilibres sur les marchés qui génèrent sous certaines conditions des fluctuations auto-
entretenues. Ces théories s’inscrivent dans une tradition keynésienne. A cette époque, les visions
exogènes des cycles, càd émanant de chocs sont minoritaires. L’idée est que ce sont des chocs qui
se propagent à l’intérieur du système qui sont à l’origine des fluctuations observées : on parle de
modèles « impulsion-propagation » qui sont donc synonymes de cycles exogènes. A partir de la
TCR, càd les années 80, les visions exogènes des cycles vont prendre le dessus et sont à l’heure
actuelle l’approche quasi-généralisée des modèles de macro-économie appliquée. Les approches
endogènes ont cependant connu des développements récents aboutissant à des modèles
dynamiques de chaos, de tâches solaires… que nous aborderons à la fin de ce cours. Mais ils ne
trouvent pas réellement d’applications car ils sont très théoriques.
Nous allons débuter ce cours par un rapide survol de l’évolution des théories expliquant les cycles
pour ensuite aborder plus en détail la TCR, puis ses critiques, ceci aboutissant aux théories des
nouveaux keynésiens, introduisant des imperfections de marché dans la TCR, et étant à l’heure
actuelle le courant dominant. La dernière partie sera ensuite consacrée aux nouveaux
développement de l’approche endogène des cycles.
III. Un peu d’histoire : de la vision endogène à la vision exogène des cycles
1. Les visions endogènes des cycles
Les premiers modèles de cycle endogène datent de la fin des années 30, avec notamment le
célèbre modèle d’« oscillateur de Samuelson » développé dans un article de Review of Economics
and Statistics en 1939.
A l’époque, et jusqu’à la fin des années 60, ce sont les thèses keynésiennes qui sont largement en
vogue, et l’idée que toute fluctuation économique provient de déséquilibres. Dans les années 30,
deux convictions sont à l’origine de l’abandon de l’orthodoxie classique : la première concerne
l’existence d’un vaste chômage involontaire et la seconde repose sur l’idée que les variations à
court terme de l’activité économique générale ont pour origine les fluctuations de la demande, sur
laquelle l’Etat peut jouer un grand rôle. Pendant les trois décennies suivantes, ce que l’on a
coutume d’appeler la « synthèse néo-classique » a donné une explication unique à ces deux
phénomènes : un ajustement trop lent des prix exprimés en unités monétaires par rapport aux
déséquilibres entre l’offre et la demande.
Ainsi, à cette époque, la vision de la décomposition entre croissance et cycle est très simple et
basée sur un trend déterministe (dépendant du temps). Les variables d’offre (technologie..)
expliquent la croissance de long terme, alors que celles de demande expliquent les déséquilibres et
donc les fluctuations de court terme.
Le principe de l’oscillateur de Samuelson est basé sur le modèle keynésien dynamisé. Sous des
restrictions très fortes de la valeur de certains paramètres, Samuelson montre que le système lui-
même peut générer des fluctuations auto-entretenues. Cependant, il obtient de nombreux cas où il
n’y a pas de fluctuations du tout et donc une évolution régulière du revenu, d’autres où les
fluctuations s’amortissent et enfin où l’évolution est explosive. L’offre étant différente de la
demande notionnelle, on est en présence d’un modèle de déséquilibre avec fluctuation endogène.
Cette approche va ensuite être complexifiée notamment par Goodwin en 1951, avec l’introduction
d’une non-linéarité dans l’accélérateur et des contraintes dans les modèles de croissance par Hicks
en 1950. Goodwin aboutira en 1967 à un modèle « proie-prédateur » transposé de la biologie et de
l’écologie permettant également d’aboutir à des fluctuations auto-entretenues.
Cette vision endogène des cycles est initialement typique des théoriciens du déséquilibre,
keynésiens et post-keynésiens. Cependant, J-M. Grandmont en 1985 développe un modèle
d’équilibre général walrasien dans lequel les fluctuations endogènes peuvent apparaître. Le
modèle engendre des non-linéarités qui peuvent provoquer dans certaines circonstances des
mouvements cycliques. Ainsi, il n’est nul besoin de supposer des déséquilibres pour engendrer des
cycles.
Cependant, ce type d’approche endogène a été délaissé pendant un certain temps (dans les années
70 ) au profit d’une explication « exogène » des fluctuations, qui apparaissait plus riche, et plus
pertinente sur certains points. Une des faiblesses des explications endogènes des fluctuations est
que, dans bien des cas, ce type d’analyse ne permet de faire apparaître que des fluctuations tout à
fait régulières, la série considérée fluctuant de façon immuable entre un maximum (unique) et un
minimum (unique). Or, les séries économiques sont beaucoup moins ordonnées, beaucoup moins
régulières. De ce fait l’explication donnée par des chocs exogènes apparaissait plus plausible
puisqu’elle était susceptible de mettre en évidence des fluctuations irrégulières, beaucoup plus
conformes aux évolutions réellement constatées dans l’économie. Mais la mise en évidence d’un
nouveau type de dynamique non-linéaire, la « dynamique chaotique » ou « dynamique complexe »
ou encore « exotique » a entraîné un renouvellement des approches depuis les années 80. Les
modèles déterministes, cherchant donc à expliquer que les fluctuations sont générées par le
modèle lui-même et non des chocs, aboutissent désormais à la possibilité d’évolution chaotique
des séries. Ce sont toutefois des modèles très complexes et qui ne peuvent réellement être
appliqués. La majeure partie des travaux en macroéconomie appliquée traitant des fluctuations
économiques à l’heure actuelle se base sur une vision exogène des cycles, c’est-à-dire que les
chocs sont propagés à travers le système et ainsi engendrent des fluctuations.
2. Les visions exogènes des cycles :
On doit à Frisch (1933) et à Slutsky (1937) les premières analyses des fluctuations en terme
impulsion-propagation, càd une vision des cycles engendrés par des chocs, reprenant en cela la
célèbre parabole du cheval à bascule énoncée par Wicksell : « Si vous frappez un cheval à bascule
avec un bâton, le mouvement du cheval sera très différent de celui du bâton ».
Cependant, dans les années 40, 50 et 60, la théorie keynésienne est dominante et donc la vision
endogène des cycles. Les travaux économétriques de l’époque, plutôt que de chercher directement
à expliquer les cycles, se tournent vers la spécification et l’estimation des différents blocs d’un
modèle général : consommation, investissement, demande de monnaie…L’accent est mis sur la
politique économique avec la croyance largement répandue dans les années 60 en la possibilité de
réguler l’activité économique et donc d’éliminer les cycles. On parle même alors de la fin des
cycles.
Mais la conjoncture des années 70 va venir infirmer cet optimisme et la réaction des économies
développées prendre à défaut l’édifice keynésien qui s’avère incapable d’en rendre compte,
notamment du phénomène de stagflation. Si le programme keynésien a dominé pendant 30 ans, il
semble qu’il est allé trop vite et qu’une remise à plat est nécessaire.
En particulier les critiques portent sur le fait que les théories macroéconomiques ne sont pas
suffisamment micro-fondées. En 1968 Friedman, monétaristes, introduit les anticipations
adaptatives, ce qui permet d’expliquer pourquoi les politiques monétaires peuvent avoir des effets
réels. Cependant, cette théorie mais qui a l’inconvénient de supposer que les agents se
« trompent » pendant un certain temps, ce qui n’est pas complètement compatible avec l’idée de
rationalité des agents.
C’est l’absence de fondements théoriques clairs expliquant la rigidité des prix et des salaires qui
va conduire à une profonde remise en cause de la synthèse classico-keynésienne qui prédomine
depuis 30 ans. La nature de la contre-révolution à l’approche keynésienne apparaît alors
nettement : il s’agit de chercher les fondements micro à la macro.
Dans les années 70 s’est développée aux Etats-Unis une nouvelle approche dite « Nouvelle Ecole
Classique » dont la figure de proue est Robert Lucas. Le concept original est celui des
« anticipations rationnelles ». Il va montrer grâce à l’introduction des anticipations rationnelles
que seules les politiques monétaires « non anticipées » peuvent avoir des effets de court terme, la
monnaie étant neutre à long terme, ce qui permet de retrouver la dichotomie chère aux classiques.
Il convient d’expliquer par des arguments liés au comportement des acteurs (notamment les
anticipations rationnelles) certains résultats macroéconomiques. Pour Lucas (1977):
« Comprendre les fluctuations économiques c’est construire un modèle, c’est-à-dire une économie
artificielle complètement explicitée, qui se comporte dans le temps de façon à reproduire
fidèlement le comportement des séries ». Lucas s’intéresse à la dynamique d’un système
économique à travers l’analyse des mécanismes de propagation des chocs aléatoires. En 1975,
Lucas publie un article intitulé : « Un modèle de cycle d’équilibre ». Le cycle n’est pas mort. Il ne
s’agit pas de prétendre qu’il existe une périodicité et une amplitude constantes des phases
d’expansion et de contraction, mais qu’elles sont suffisamment régulières pour parler de
dynamique cyclique. Dès lors que les mouvements économiques ne sont plus périodiques, il est
pertinent d’attribuer l’irrégularité exhibée par les principales séries macro à la survenance de
chocs aléatoires venant perturber un état d’équilibre stable. La filiation du courant lucasien avec
les analyses de Frisch et de Slutsky est évidente : le théoricien doit inscrire sa réflexion dans un
cadre analytique de type impulsion-propagation càd une vision exogène des cycles. Les nouveaux
Classiques recourent donc à des modèles stochastiques.
Lucas et le courant des nouveaux classiques vont donc marquer une rupture méthodologique
importante en introduisant des comportements micro et en développant des modèles permettant de
générer des fluctuations alors que tous les marchés s’équilibrent. Les modèles de type Lucas
expliquent à l’époque les fluctuations de court terme par des impulsions monétaires.
Toutefois, une des critiques importantes faites à l’approche des cycles d’équilibre est qu’ils ne
sont pas dynamiques, et les fluctuations ne perdurent pas à long terme. Or, à l’époque il existe un
cadre permettant d’expliquer la dynamique d’une économie : le modèle de Solow.
Dès lors, se développe au début des années 80 la « TCR », Théorie des cycles réels, qui pour la
première fois va expliquer des cycles émergeant de chocs sur l’offre, càd sur le PT. Ils se
démarquent en ceci des modèles de cycles d’équilibre précédents en ceci que les fluctuations
proviennent de chocs réels et non monétaires, d’où leur nom…
Cependant, depuis les années 90, les « Nouveaux keynésiens » ont développé de nombreux
modèles micro fondés de manière à expliquer les rigidités de certaines grandeurs monétaires. Les
effets de politiques économiques peuvent donc être réhabilitées. Le courant actuel emprunte donc
le cadre d’analyse de la TCR, mais pensent que les chocs d’offre ne sont pas suffisants pour rendre
compte de toutes les fluctuations. Ils introduisent donc des rigidités et des imperfections de
marché dans la TCR, pour aboutir à des MEGIS.
Ainsi, à l’heure actuelle, l’approche déterministe (endogène) est minoritaire, et la grande majorité
des macroéconomistes appliqués partagent la même approche analytique générale basée sur la
distinction entre impulsion et propagation.
Néanmoins, les approches endogènes ont connu de nombreux développements ces dernières
années, avec l’introduction de non-linéarité et de dynamiques chaotiques.
Ainsi, on peut dégager 2 grandes directions de recherche :
La première, connue sous le nom de Théorie des Cycles Réels (TCR) ou Real Business Cycle
(RBC) se développe au début des années 80 dans la lignée de Lucas autour de l’Université de
Mineapolis et de gens comme Prescott, Plosser, Long, King…Comme son nom l’indique, c’est
une théorie qui ne fait jouer aucun rôle à la monnaie dans la dynamique du cycle économique. Les
perturbations réelles que subit l’économie, telles les aléas de productivité venant par exemple de
changements climatiques ou encore d’évènements internationaux, suffiraient à elles seules à
expliquer les fluctuations de la production, de l’emploi et des prix. Cette position théorique
s’oppose frontalement à des décennies de recherche des effets de la monnaie dans le cycle. Elle
nie en effet l’existence d’un chômage involontaire significatif et réaffirme la dichotomie classique
(les phénomènes monétaires n’ont pas d’effets réels). La TCR explore l’idée que des chocs
d’offre, càd des chocs technologiques sont à l’origine des cycles. C’est le produit lui-même qui
fluctue sous l’effet de chocs technologiques. Les chocs monétaires sont supposés jouer un rôle
mineur dans l’explication des cycles. Cependant, des extensions tentent de réintégrer la monnaie
dans l’explication des fluctuations. En effet, les extensions récentes de la TCR trouvent leurs
racines dans la tradition keynésienne et voient dans les chocs de demande agrégée une source
importante de fluctuations. Mais alors que les modèles keynésiens traditionnels débutaient leur
analyse en supposant un ajustement lent des prix et des salaires aux variations de la demande, la
recherche s’est alors centrée sur les imperfections de marché susceptibles de rendre compte de cet
effet . La nouvelle macro keynésienne admet qu’il faut des fondements micro à la macro, mais elle
s’évertue à reconstruire la micro, une conception correcte intégrant les imperfections de marché et
d’information, devant permettre de susciter les phénomènes qui, pour eux, caractérisent la macro,
à savoir le chômage et l’absence de dichotomie. On voit donc que globalement, à l’heure actuelle,
il y a un cadre d’analyse commun, on peut parler de « nouvelle synthèse ». L’idée est donc
d’introduire des imperfections de marché ou d’anticipations dans les modèles de la TCR. Ceci
aboutit aux MEGIS (Modèles d’Equilibre Général Intertemporels Stochastiques). Cependant, le
problème, comme on le verra, des modèles TCR est la supposition que la croissance est exogène :
ils n’arrivent pas à générer une évolution de la richesse interne au modèle. Dès lors, les tous
derniers développements font se rejoindre croissance et cycles, dans un cadre unifié de
« croissance cyclique ». Mais se pose la question du sens de la causalité entre cycles et croissance,
que nous aborderons en dernière section de ce premier chapitre.
La seconde approche, constituant le deuxième chapitre de ce cours, concerne le renouveau des
modèles de cycles auto-entretenus, càd endogènes. Les non-linéarités permettent d’élargir les
plages de paramètres pour lesquels le système génère lui-même des cycles, sans chocs. Cependant,
une critique faite à ces modèles est qu’ils aboutissent à des cycles bien trop réguliers, qui ne
reflètent pas les mouvements réels des variables macroéconomiques. Dès lors, les extensions
basées sur les théories du chaos permettent de générer des fluctuations moins régulières, même si
les modèles restent déterministes.