Vous êtes sur la page 1sur 22

L’intermédiation financière dans les modèles

macroéconomiques
Henri Sneessens
Dans Reflets et perspectives de la vie économique 2017/1 (Tome LVI), pages 117 à 137
Éditions De Boeck Supérieur
ISSN 0034-2971
ISBN 9782807391574
DOI 10.3917/rpve.561.0117
© De Boeck Supérieur | Téléchargé le 07/11/2023 sur www.cairn.info (IP: 105.74.12.73)

© De Boeck Supérieur | Téléchargé le 07/11/2023 sur www.cairn.info (IP: 105.74.12.73)

Article disponible en ligne à l’adresse


https://www.cairn.info/revue-reflets-et-perspectives-de-la-vie-economique-2017-1-page-117.htm

Découvrir le sommaire de ce numéro, suivre la revue par email, s’abonner...


Flashez ce QR Code pour accéder à la page de ce numéro sur Cairn.info.

Distribution électronique Cairn.info pour De Boeck Supérieur.


La reproduction ou représentation de cet article, notamment par photocopie, n'est autorisée que dans les limites des conditions générales d'utilisation du site ou, le
cas échéant, des conditions générales de la licence souscrite par votre établissement. Toute autre reproduction ou représentation, en tout ou partie, sous quelque
forme et de quelque manière que ce soit, est interdite sauf accord préalable et écrit de l'éditeur, en dehors des cas prévus par la législation en vigueur en France. Il est
précisé que son stockage dans une base de données est également interdit.
L’intermédiation financière
dans les modèles macroéconomiques
Financial Intermediation
in Macroeconomic Models
Henri Sneessens *

Résumé – Modéliser les marchés financiers reste un défi pour la théorie macroéco-
nomique actuelle. Cet article décrit la nature des difficultés rencontrées et les r­aisons
pour lesquelles les aspects financiers sont restés si longtemps absents des modèles
macroéconomiques. Il résume les principales modélisations utilisées jusqu’à présent,
depuis l’accélérateur financier jusqu’aux modèles avec intermédiation financière et
crises bancaires. Il compare enfin brièvement différentes interprétations de la « grande
récession » de 2007-2009.
Mots clés : intermédiation financière, crise bancaire, accélérateur financier
© De Boeck Supérieur | Téléchargé le 07/11/2023 sur www.cairn.info (IP: 105.74.12.73)

© De Boeck Supérieur | Téléchargé le 07/11/2023 sur www.cairn.info (IP: 105.74.12.73)


Codes JEL : E32, E44, G01

Abstract – Modeling financial markets remains one of the main challenges in current
macroeconomic theory. This paper summarizes the main difficulties and reasons why
financial aspects were not included earlier in macroeconomic models. It describes the
main modeling strategies adopted so far, from financial accelerator models to finan-
cial intermediation and banking crises. It also discusses briefly different interpretations
of the Great Recession.
Keywords: Financial Intermediation, Banking Crisis, Financial Accelerator
JEL Codes: E32, E44, G01

Les interactions entre sphère réelle et sphère financière de l’économie et leur


rôle dans les fluctuations conjoncturelles ont attiré l’attention des économistes
depuis bien longtemps, dès qu’ils ont voulu mieux comprendre la nature des

* Henri Sneessens est professeur à l’Université du Luxembourg et professeur émérite de l’Univer-


sité catholique de Louvain (IRES). Ses domaines de recherche sont la macroéconomie et l’écono-
mie du travail. Adresse électronique : henri.sneessens@uni.lu.

DOI: 10.3917/rpve.555.0117 Reflets et Perspectives, LVI, 2017/1 — 117


Henri Sneessens

cycles économiques. Pourtant, jusqu’à la crise de 2007-2009, les modélisations


macroéconomiques usuelles ont largement négligé ces interactions. Les choses
ont considérablement changé depuis. La liste des publications scientifiques
proposant l’une ou l’autre façon de « modéliser » les interactions entre sphères
financière et réelle de l’économie s’allonge chaque jour. L’objet de cet article
est de faire le point sur ces développements. Dans la masse des contributions
et propositions, on s’efforcera de distinguer les pistes les plus intéressantes et
les plus prometteuses. L’exercice, en si peu de pages, est périlleux, subjectif, et
inévitablement injuste. Dans le même temps, et a contrario, il permettra de mieux
comprendre pourquoi l’intermédiation financière a été si longtemps la grande
absente des modèles macroéconomiques.
La présentation est structurée par la chronologie des travaux des trente
dernières années. Cette présentation chronologique permet d’expliquer pro-
gressivement les mécanismes en jeu et de montrer la multitude des approches
possibles, la lente maturation des solutions proposées, les difficultés techniques
rencontrées, les résultats parfois décevants, tous facteurs qui expliquent pour-
quoi les aspects financiers sont restés si longtemps absents des modèles macro,
et pourquoi leur modélisation reste aujourd’hui encore un défi. Elle montre aussi
comment ces développements s’inscrivent dans le cadre plus large de l’évolution
de la théorie macroéconomique durant ces années.
Le défi de la modélisation macroéconomique est triple. Il faut allier rigueur
théorique, faisabilité technique et validation empirique. Le trait de génie de
Keynes et de la Théorie générale fut de proposer une analyse théorique qui allait
se prêter à cette démarche et rompre de ce point de vue avec les approches
antérieures. Le modèle IS-LM proposé dans la foulée par Hicks et Hansen est
© De Boeck Supérieur | Téléchargé le 07/11/2023 sur www.cairn.info (IP: 105.74.12.73)

© De Boeck Supérieur | Téléchargé le 07/11/2023 sur www.cairn.info (IP: 105.74.12.73)


probablement réducteur de la pensée keynésienne, mais il a ouvert la voie à la
modélisation macroéconomique et macro-économétrique. Il fallut néanmoins
attendre les ­années 1970 et le développement de la théorie de l’information
(plus exactement de l’asymétrie d’information) et des modèles principal-agent
pour disposer des outils théoriques nécessaires pour modéliser avec la rigueur
nécessaire les imperfections de marché (les « frictions ») typiques des marchés
financiers. La contrainte de faisabilité technique demeure extraordinairement
importante ­ aujourd’hui. Les modèles macroéconomiques sont des modèles
d’équilibre général dynamique avec agents rationnels. Intégrer les problèmes
d’asymétrie d’information dans ce contexte reste un exercice aujourd’hui encore
techniquement compliqué, d’autant plus compliqué que le modèle retenu doit
in fine être suffisamment compact pour pouvoir être estimé et confronté aux
­données.
L’article est structuré comme suit. La première section décrit très briève-
ment le cadre général de l’analyse macroéconomique. La section 2 est un rap-
pel de l’analyse des problèmes d’asymétrie d’information et de principal-agent à
l’origine des imperfections des marchés financiers. La section 3 est consacrée à
l’accélérateur financier, qui reste aujourd’hui encore un des éléments essentiels
de la représentation des effets macroéconomiques des frictions financières. Le
rôle des intermédiaires financiers est discuté en section 4, notamment la possibi-
lité de panique bancaire ou de paralysie du marché interbancaire. Les principales
conclusions sont rassemblées en section 5.

118
L’intermédiation financière dans les modèles macroéconomiques

1 L
 ES MARCHÉS FINANCIERS DANS LES MODÈLES
MACROÉCONOMIQUES
Les modèles macroéconomiques sont par nécessité fortement stylisés. On dis-
tingue typiquement deux catégories d’agents privés, les ménages et les entre-
prises. Les premiers dégagent globalement une épargne nette positive alors que
les seconds ont des besoins de financement liés à l’investissement et aux activi-
tés de production. Le transfert de ressources des ménages vers les entreprises
peut se faire soit directement via les marchés d’obligation ou d’action, soit indi-
rectement via les intermédiaires financiers (disons les banques pour faire court) et
le crédit bancaire (voir figure 1).

Figure 1. Marchés financiers et flux de crédit dans les modèles


macroéconomiques
© De Boeck Supérieur | Téléchargé le 07/11/2023 sur www.cairn.info (IP: 105.74.12.73)

© De Boeck Supérieur | Téléchargé le 07/11/2023 sur www.cairn.info (IP: 105.74.12.73)


Nonobstant le rôle considérable qu’elle joue dans l’économie, l’intermé-
diation financière reste totalement absente des modèles macroéconomiques
­habituels, comme si elle n’était qu’un voile, un élément inutile pour l’analyse des
fluctuations conjoncturelles et des politiques macroéconomiques. En d’autres
termes, on suppose implicitement que le théorème de Modigliani-Miller (neu-
tralité de la structure financière) est valide. L’on fait comme s’il n’y avait pas
d’intermédiaires financiers (on néglige la partie inférieure de la figure 1), comme
s’il n’y avait que des échanges directs entre prêteurs et emprunteurs sur le
marché des titres. La politique monétaire de la Banque centrale est représen-
tée par des interventions sur ce marché ouvert (les opérations d’open-market)
qui permettent de contrôler l’évolution du taux d’intérêt et donc les dépenses
d’investissement. C’est cela que résume le modèle IS-LM 1. Une telle approche
revient à supposer que, du point de vue des entreprises, obligations et crédits
bancaires sont parfaitement substituables. Le réalisme de cette hypothèse sim-
plificatrice fut maintes fois discuté, dès les années 1950-1960, notamment par
Patinkin, Gurley-Shaw, Modigliani, Tobin, Brunner-Meltzer, et d’autres, avec en

1. Le modèle IS-LM ne représente pas explicitement le marché obligataire. Il ne le fait qu’indirecte-


ment, à travers ses implications en termes d’offre et demande de monnaie. L’un est le reflet de
l’autre.

119
Henri Sneessens

toile de fond le débat sur les indicateurs les plus appropriés pour la conduite de
la politique monétaire, la question de savoir si l’on pouvait se contenter de cibler
un agrégat monétaire unique ou s’il fallait également suivre l’évolution d’indi-
cateurs de volume de crédit. Fin des années 1980, Bernanke et Blinder (1988)
proposèrent un modèle IS-LM élargi pour distinguer ces deux modes de finan-
cement, obligations et crédit, et permettre l’analyse d’épisodes de pénurie de
crédit (credit crunch). Cette approche fit l’objet de tests empiriques (voir notam-
ment Driscoll, 2004), avec un succès très relatif. Il faudra attendre presque vingt
ans pour que la question de l’intermédiation financière soit sérieusement remise
en question.
Le débat sur la place des variables financières dans l’analyse macroécono-
mique ne se limite pas à la question de l’intermédiation financière. Le recours
à l’intermédiation financière est le reflet d’un problème beaucoup plus vaste,
provoqué par ce qu’il est convenu d’appeler les frictions financières. Ce terme
recouvre toutes les imperfections de marché qui accroissent le coût des transac-
tions financières, voire les rendent impossibles. Elles résultent principalement de
problèmes d’asymétrie d’information et de contrôle des actions de l’emprunteur.
L’affaire Madoff illustre bien la nature et les conséquences de tels problèmes.
L’épargnant-prêteur n’a qu’une information limitée sur la qualité de l’emprun-
teur et sa gestion des affaires. Comme dans l’affaire Madoff, des doutes sur la
qualité de l’emprunteur peuvent provoquer l’effondrement soudain d’un marché
jusqu’alors bouillonnant. Madoff reste bien sûr un cas énorme et particulier. Les
problèmes d’information sont en général bien plus subtils et moins visibles, mais
leurs conséquences sur le fonctionnement des marchés financiers n’en sont pas
moins considérables. Il fallut attendre les années 1970 pour disposer d’outils
© De Boeck Supérieur | Téléchargé le 07/11/2023 sur www.cairn.info (IP: 105.74.12.73)

© De Boeck Supérieur | Téléchargé le 07/11/2023 sur www.cairn.info (IP: 105.74.12.73)


appropriés à l’analyse et à la modélisation de ces frictions. Ces progrès de la
théorie microéconomique allaient permettre d’élargir considérablement le champ
de l’analyse macro.

2 LES FRICTIONS SUR LES MARCHÉS FINANCIERS


Les projets d’investissement sont typiquement des projets risqués. Les béné-
fices qu’on peut en attendre sont aléatoires. Supposons que le potentiel de
chaque projet puisse être résumé en termes d’espérance de gain et de variance.
En information parfaite, cette information est connue à la fois des prêteurs et
des emprunteurs. Chaque projet sera évalué ex ante sur base de ses carac-
téristiques intrinsèques, et le prêteur qui investit dans un projet risqué recevra
ex post une rémunération basée directement sur le gain réalisé, à concurrence
de sa participation au projet. L’actif financier échangé entre le prêteur et l’em-
prunteur est donc dans ce cas de figure un actif contingent, c’est-à-dire que le
revenu payé ex post au prêteur est conditionné à la valeur du gain réalisé. Cette
transparence totale dans les échanges permet une allocation optimale des res-
sources.
La situation change radicalement lorsque prêteurs et emprunteurs ne
partagent pas la même information. L’asymétrie d’information peut prendre

120
L’intermédiation financière dans les modèles macroéconomiques

diverses formes. L’échange entre un prêteur et un emprunteur n’est générale-


ment pas une transaction ponctuelle, mais une relation qui dure tout le temps de
la mise en œuvre du projet d’investissement, depuis le moment où le crédit est
octroyé jusqu’au moment où il est (ou non) remboursé. Durant tout ce temps,
c’est typiquement l’emprunteur qui est à la manœuvre et dispose d’informa-
tions de première main, tant sur la nature intrinsèque du projet que sur la qualité
de sa propre gestion. Dans ce contexte, le problème d’information peut surgir
à différentes étapes, avec des conséquences diverses. On parlera d’asymétrie
d’information ex ante lorsque le problème apparaît avant même la signature
du contrat. C’est le cas lorsque le prêteur a une connaissance imparfaite des
­caractéristiques intrinsèques du projet à financer (espérance de gain et variance)
et qu’il ne peut distinguer bons et mauvais projets 2. Stiglitz et Weiss ont montré
que cette situation conduit typiquement à un rationnement volontaire du cré-
dit. Bien qu’il y ait excès de demande de crédit, le prêteur choisit de ne pas
augmenter le taux d’intérêt demandé. C’est le cas du moins lorsque le contrat
d’emprunt est un contrat de dette standard avec remboursement d’une somme
fixe indépendante du résultat obtenu, sauf en cas de faillite, lorsque le gain réa-
lisé est trop faible pour permettre à l’emprunteur de faire face à ses obligations.
Avec de tels contrats, une hausse des taux inciterait en fait l’emprunteur à se
lancer dans des projets plus risqués, avec risque de faillite plus élevé et donc
probabilité de remboursement et coût du capital plus faibles, tout cela au détri-
ment du prêteur. En d’autres termes, la hausse des taux d’intérêt provoquerait
une sélection contraire à celle recherchée en éliminant du marché les projets les
meilleurs.
L’asymétrie d’information peut également apparaître ex post, après la signa-
© De Boeck Supérieur | Téléchargé le 07/11/2023 sur www.cairn.info (IP: 105.74.12.73)

© De Boeck Supérieur | Téléchargé le 07/11/2023 sur www.cairn.info (IP: 105.74.12.73)


ture du contrat, soit durant l’exécution de celui-ci soit au moment de sa clô-
ture. Le premier cas de figure correspond à des situations dites de risque moral,
lorsque l’emprunteur est tenté ex post d’augmenter ses propres revenus au dé-
triment du prêteur en engageant les sommes empruntées dans des projets plus
risqués, voire en les détournant carrément à son profit. Pour se protéger de ce
risque moral, l’emprunteur demande typiquement des gages suffisants (une mise
de fonds personnelle par exemple) pour inciter l’emprunteur à se comporter loya-
lement. La conséquence de ces exigences contractuelles supplémentaires est
un accroissement du coût du capital et une réduction du volume de crédit par
rapport à ce que l’on observerait en l’absence de risque moral.
L’asymétrie d’information à la clôture du contrat concerne quant à elle la
vérification du résultat final obtenu. On a pu montrer que lorsque le prêteur n’ob-
serve pas directement le résultat final et doit supporter un coût de vérification
pour obtenir cette information, le contrat optimal est effectivement un contrat
de dette standard. Ce type de contrat permet de réduire les coûts de vérifica-
tion puisque celle-ci n’aura lieu qu’en cas de faillite. L’existence des coûts de

2. C’est exactement le type de situation considéré par Akerlof dans un article pionnier paru en 1970
et qui lui valut le prix Nobel d’économie de 2001, partagé avec J. Stiglitz et M. Spence. Akerlof
prenait l’exemple du marché des voitures d’occasion et l’asymétrie d’information concernait la
qualité des voitures de seconde main mises sur le marché. Stiglitz et Weiss ont ensuite élargi
cette analyse aux marchés financiers.

121
Henri Sneessens

vérification (une forme particulière des coûts d’agence, appelés aussi coûts de
faillite puisque la vérification n’est faite qu’à cette occasion) explique pourquoi le
recours à un financement externe est plus coûteux qu’un financement sur fonds
propres. Si on inclut dans les coûts de faillite non seulement les coûts de vérifi-
cation proprement dits mais aussi tous les coûts liés à la récupération de tout ou
partie des sommes prêtées, l’écart de coût entre financements interne et externe
peut être substantiel. En d’autres termes, moins une entreprise dispose de fonds
propres, plus elle doit recourir à un financement externe et plus le coût de l’inves-
tissement sera élevé et le volume d’investissement faible.
Pour résumer, les effets néfastes de l’asymétrie d’information apparaissent
à travers des problèmes de sélection contraire ou de risque moral ou encore
de coûts de vérification. Ces effets peuvent être atténués par le recours à des
pratiques ou à des contrats spécifiques qui limitent les incitations à cacher des
informations ou à détourner des sommes empruntées. Mais ce ne sont que des
solutions de second rang. Elles atténuent le problème d’information sans l’éli-
miner et impliquent un coût du capital plus élevé et un volume de transactions
moindre que ce qu’on observerait dans un optimum de premier rang. En d’autres
termes, l’asymétrie d’information introduit des frictions financières qui accroissent
le coût des transactions et en réduisent le volume. Le point le plus important
cependant est que l’acuité de ces frictions et leurs conséquences néfastes pour
l’investissement et l’emploi peuvent varier au fil du temps et des événements, soit
parce que le degré d’incertitude lui-même varie ou parce que la capacité à en
réduire les effets est affectée. De telles variations des frictions financières peuvent
amplifier les fluctuations conjoncturelles, voire les provoquer.
Il est possible que les frictions sur les marchés financiers soient restées
© De Boeck Supérieur | Téléchargé le 07/11/2023 sur www.cairn.info (IP: 105.74.12.73)

© De Boeck Supérieur | Téléchargé le 07/11/2023 sur www.cairn.info (IP: 105.74.12.73)


stables pendant des années et n’aient guère contribué aux fluctuations écono-
miques. Friedman et Schwartz (1963) ont expliqué la « grande dépression » des
années 1930 par des erreurs de politique monétaire plutôt que par l’impact du
krach boursier lui-même sur l’offre de crédit, une interprétation non démentie
par les travaux les plus récents 3. Les turbulences financières de 1987 et 2000
aux États-Unis n’eurent guère d’effets macroéconomiques, ce qui a renforcé
l’idée que les marchés financiers pouvaient être ignorés de l’analyse macroé-
conomique, ou à tout le moins que les analyses et politiques monétaires tradi-
tionnelles étaient suffisantes pour évaluer et juguler les turbulences financières.
L’expérience de la Suède en 1991-1992 (trois années de récession provo-
quées par l’éclatement d’une bulle immobilière) et celle du Japon (dix ans de
marasme – « the lost decade » – suite à l’éclatement d’une bulle financière) furent
négligées et considérées (à tort) comme des cas particuliers. La « grande réces-
sion » de 2007-2009 allait complètement changer la perspective.

3. Voir par exemple Christiano, Motto et Rostagno (2003) ainsi que Romer et Romer (2013).

122
L’intermédiation financière dans les modèles macroéconomiques

3 L
 ’ACCÉLÉRATEUR FINANCIER (« BALANCE SHEET
CHANNEL »)
Introduire l’asymétrie d’information dans des modèles macro dynamiques de façon
à la fois pertinente et respectueuse de la contrainte de faisabilité exige beaucoup
d’inventivité et impose des choix méthodologiques. La première génération de
modèles macroéconomiques avec frictions financières est apparue dès la fin des
années 1980. Ces modèles mettent en évidence un lien entre le coût du capital et
la structure du bilan de l’emprunteur (taux d’endettement). Ils furent progressive-
ment enrichis au cours des décennies suivantes. Les premiers modèles, essentiel-
lement théoriques, ne donnaient guère que des enseignements qualitatifs. Il fallut
attendre quelque dix ans pour obtenir des modèles avec une structure semblable
à celle des modèles quantitatifs utilisés pour l’analyse des fluctuations conjonctu-
relles. La lenteur des progrès réalisés reflète l’ampleur des difficultés techniques à
surmonter et aussi sans doute le sentiment qu’il n’y avait pas urgence.

3.1 Les premiers modèles théoriques


Les conséquences de l’asymétrie d’information touchent peu ou prou toutes les
catégories d’emprunteurs, que ce soient les ménages, les entreprises ou les in-
termédiaires financiers eux-mêmes. Le premier choix à effectuer est donc celui
du niveau sur lequel il est le plus utile, du point de vue du macroéconomiste,
de concentrer l’attention. Assez naturellement, l’accent fut mis initialement sur
le financement des investissements productifs des entreprises, puisque dans les
© De Boeck Supérieur | Téléchargé le 07/11/2023 sur www.cairn.info (IP: 105.74.12.73)

© De Boeck Supérieur | Téléchargé le 07/11/2023 sur www.cairn.info (IP: 105.74.12.73)


modèles agrégés les entreprises sont emprunteurs nets auprès des ménages.
En termes de la figure 1, l’asymétrie d’information et les coûts d’agence sont
donc introduits en (a) et concernent les emprunts des entreprises. Que les entre-
prises empruntent auprès des banques ou directement auprès des ménages ne
change rien à la nature du problème. Le secteur financier reste donc largement
absent de ces modèles et n’apparaît qu’en toile de fond, comme intermédiaire
neutre et totalement transparent qui organise passivement la diversification et la
gestion des risques pour le compte des ménages.
Vient ensuite la question de la modélisation du problème d’information lui-
même. Parmi les différentes approches possibles, laquelle choisir ? Symétrie
d’information ex ante ou ex post ? Risque moral ou coûts de faillite ? Ces dif-
férentes approches n’ont pas les mêmes implications. L’approche finalement
retenue est (le plus souvent) celle de l’asymétrie d’information ex post plutôt
qu’ex ante, parce que d’un point de vue théorique elle est plus robuste et plus
cohérente. Les premiers modèles ont privilégié l’asymétrie d’information avec
coûts de vérification, mais l’approche avec risque moral donne des résultats fort
semblables. Introduire l’asymétrie d’information nécessite par ailleurs d’intro-
duire dans la modélisation une vraie hétérogénéité entre agents, à la fois ex post
(certaines entreprises vont en faillite, d’autres pas) et ex ante (les entreprises
avec davantage de fonds propres ont un coût moyen du capital plus faible). On
verra que la prise en compte de l’hétérogénéité des agents reste aujourd’hui
­encore un problème majeur en termes de faisabilité. Différentes solutions ont été

123
Henri Sneessens

proposées. Last but not least, puisque les modèles macroéconomiques sont des
modèles dynamiques, la dynamique de l’accumulation de fonds propres par les
emprunteurs et son impact sur les frictions financières y jouent un rôle important.
Il faut expliquer également pourquoi la question du financement des entreprises
est un problème récurrent, pourquoi les entreprises ne parviennent pas à éviter
le recours systématique à de coûteux financements externes par l’accumulation
progressive de fonds propres et l’autofinancement intégral.

3.1.a Choix méthodologiques

Les premières modélisations sont dues à Williamson (1987) et Bernanke-Gertler


(1989). Soulignons qu’à cette époque, fin des années 1980, le courant de re-
cherche dominant en macroéconomie est celui des modèles de cycle réel (Real
Business Cycle, RBC) avec anticipations rationnelles. Dix-quinze ans après la cri-
tique de Lucas, on est encore en pleine reconstruction de la théorie macroécono-
mique. Les modèles « nouveaux keynésiens » avec rigidités nominales et chocs
de demande ne retrouveront vraiment leur place que beaucoup plus tard. Les
modélisations proposées par Williamson et Bernanke-Blinder s’inscrivent dans ce
contexte et ne font aucune place aux chocs de demande. Ce sont également des
modélisations d’équilibre général très stylisées, avec très peu d’éléments de dy-
namique intertemporelle. Les deux modélisations proposées ont d’autres points
communs, qu’on peut présenter de la façon suivante (en extrapolant quelque
peu les présentations originales). Dans les deux cas, on distingue deux types
de production, la production de bien final et la production de biens d’investisse-
ment. La production de biens d’investissement nécessite une expertise particu-
© De Boeck Supérieur | Téléchargé le 07/11/2023 sur www.cairn.info (IP: 105.74.12.73)

© De Boeck Supérieur | Téléchargé le 07/11/2023 sur www.cairn.info (IP: 105.74.12.73)


lière que ne possède qu’une partie seulement de la population, qu’on appellera
les entrepreneurs. Ceux-ci financent le coût de leurs activités par leur épargne
personnelle (leurs fonds propres) et par le recours à l’emprunt auprès des non-
entrepreneurs. La demande de fonds prêtables par les entrepreneurs est toujours
globalement positive parce que la durée de vie limitée de ces entreprises les em-
pêche d’accumuler les ressources propres suffisantes pour parvenir à l’autofinan-
cement. Plus la proportion d’entrepreneurs dans la population totale est faible,
plus le recours à l’emprunt sera important. Les entrepreneurs sont par ailleurs un
groupe hétérogène, à la fois ex ante et ex post. L’hétérogénéité ex post résulte de
chocs de productivité idiosyncrasiques. Bien que tous les entrepreneurs soient
tous confrontés ex ante aux mêmes aléas de production, les résultats ex post
sont différents pour les et pour les autres et non directement observables par le
prêteur. L’hétérogénéité ex ante est une hétérogénéité des coûts de vérification
(Williamson) ou une hétérogénéité d’efficacité productive et donc de risque de
faillite (Bernanke-Blinder). Ces différences ex ante sont connues du prêteur.

3.1.b Choc de productivité

Bernanke et Gertler étudient l’impact macroéconomique des frictions financières


à travers un scénario proche de celui des modèles de cycle réel traditionnels. Le
scénario est celui d’un choc de productivité positif touchant l’ensemble du sec-
teur de biens finals. Par hypothèse, le choc est purement transitoire, de sorte

124
L’intermédiation financière dans les modèles macroéconomiques

que la rentabilité future attendue du capital et la demande de biens d’investis-


sement ne sont pas affectées. Le choc de productivité provoque en revanche
une augmentation des revenus de l’ensemble de la population, y compris le
revenu (cash flow) des entrepreneurs producteurs de biens d’investissement,
et donc leur capacité d’autofinancement. En l’absence de frictions financières,
la capacité d’autofinancement de l’entrepreneur n’a strictement aucune impor-
tance (théorème de Modigliani-Miller), l’emprunt externe s’ajustant passivement
pour fournir le complément de ressources nécessaire. Le coût de production
des biens d’investissement demeure donc inchangé. Au final, le choc de pro-
ductivité n’a aucun impact sur l’investissement et le niveau d’activité futur. En
l’absence de frictions financières, il n’y a donc aucune persistance dans les
effets du choc de productivité. En présence de frictions en revanche, l’augmen-
tation des fonds propres permet de réduire la prime de risque à payer sur les
ressources externes et réduit donc le coût moyen de l’investissement, ce qui
stimule l’investissement et donne une certaine persistance aux effets positifs du
choc de productivité. En d’autres termes, les frictions financières, plus préci-
sément les fluctuations endogènes des coûts d’agence, créent un mécanisme
d’accélérateur financier qui renforce les mécanismes de propagation des effets
du choc de productivité.

3.1.c Choc de risque

Williamson examine un scénario très différent. Au lieu d’un choc de productivité,


il considère un choc de risque, plus précisément un changement dans la volatilité
des aléas idiosyncrasiques frappant la production des biens d’investissement. La
© De Boeck Supérieur | Téléchargé le 07/11/2023 sur www.cairn.info (IP: 105.74.12.73)

© De Boeck Supérieur | Téléchargé le 07/11/2023 sur www.cairn.info (IP: 105.74.12.73)


productivité moyenne du secteur est inchangée, mais les différences de résul-
tat entre entrepreneurs sont plus prononcées. Il en résulte un accroissement du
risque de faillite. En l’absence de frictions financières, la diversification fait que
seule compte la productivité moyenne du secteur et le choc de risque n’a aucun
impact macroéconomique. En revanche, lorsqu’il y a des coûts de vérification,
l’accroissement du risque de défaut provoque un accroissement de la prime de
financement externe. Cette hausse du coût de financement exclut les projets
les moins rentables de l’accès au marché financier et réduit donc la production
de biens d’investissement et le niveau d’activité futur. Des chocs de risque pro-
duisent donc des fluctuations de l’investissement et du niveau d’activité. Dans
ce scénario, les fluctuations conjoncturelles sont la conséquence de cycles du
crédit, eux-mêmes provoqués par des changements dans le risque perçu.

3.2 Le modèle BGG


Les modèles de Williamson et Bernanke-Gertler donnent des résultats qualitatifs
plus que quantitatifs. Il manque à ces modèles une véritable dimension dyna-
mique intertemporelle. L’approche de Bernanke-Gertler fut reprise en 1997 par
Carlstrom et Fuerst (presque dix ans plus tard !) qui la complètent en permettant
l’accumulation progressive de fonds propres par chaque entrepreneur. En période
d’expansion économique, les flux de revenus (cash flow) plus élevés permettent

125
Henri Sneessens

l’accumulation de fonds propres, et inversement en période de r­écession. Il en


résulte une variation contra-cyclique de la prime de risque à payer sur ressources
externes. Cette extension du modèle de départ permet d’intégrer l’accélérateur
financier dans les modèles d’équilibre général dynamique habituels, qu’on peut
ensuite calibrer et simuler pour en évaluer les effets quantitatifs au cours du cycle
conjoncturel. La difficulté majeure dans cet exercice est la prise en compte des
parcours différenciés des entrepreneurs. La richesse personnelle d’un individu
à un moment précis du temps résume toute son histoire passée. À cause des
chocs idiosyncrasiques dans la production de biens d’investissement, chaque
entrepreneur a une histoire différente, et donc une richesse accumulée et une
capacité d’autofinancement différentes. Il n’est pas possible (pour des raisons
techniques) de suivre cette information pour chaque entrepreneur séparément.
Carlstrom et Fuerst proposent une formulation qui permet d’éviter ce problème.
Le lien entre prime de risque et richesse étant linéaire et identique pour toutes
les entreprises, il suffit pour déterminer la prime de risque moyenne de connaître
l’évolution de la richesse agrégée plutôt que sa distribution. C’est une énorme
simplification, puisque cela revient à supposer notamment qu’une redistribution
de la richesse entre les entreprises n’aurait aucun effet macroéconomique, mais
c’est (jusqu’à présent) le prix à payer pour insérer l’accélérateur financier dans
un cadre dynamique. Pour le reste, les mécanismes sont les mêmes que chez
Bernanke-Gertler.
Cette modélisation est reprise encore et étoffée deux ans plus tard en 1999
par Bernanke-Gertler-Gilchrist (BGG). Par rapport aux modélisations antérieures,
BGG introduisent trois différences majeures. La première différence est le dépla-
cement du problème d’asymétrie d’information des producteurs de biens d’in-
© De Boeck Supérieur | Téléchargé le 07/11/2023 sur www.cairn.info (IP: 105.74.12.73)

© De Boeck Supérieur | Téléchargé le 07/11/2023 sur www.cairn.info (IP: 105.74.12.73)


vestissement vers les producteurs de biens finals, ce qui implique que la question
du financement concerne l’acquisition de l’ensemble du stock de capital existant
plutôt que le seul financement de l’investissement. Il n’y a effectivement aucune
raison de penser que les problèmes d’asymétrie d’information et de frictions
financières restent cantonnés au seul secteur des biens d’investissement. La
masse de financement concernée par les frictions financières est du coup bien
plus grande, et l’impact macroéconomique des frictions financières s’en trouve
potentiellement accru.
La seconde nouveauté introduite par BGG est le prix des actifs et son impact
sur le coût du crédit. Dans l’optique de BGG, la richesse nette des entreprises est
détenue sous forme de capital fixe et correspond à la fraction du stock de capital
qu’elles détiennent en propre. L’évolution de la richesse nette des entreprises va
donc dépendre désormais de deux éléments, les flux de revenus des entreprises
(comme précédemment) et le prix des actifs détenus. Toute variation du prix des
actifs entraînera instantanément une variation de la capacité d’autofinancement
des entreprises, sans qu’il soit besoin d’attendre des flux de revenus nouveaux
(positifs ou négatifs). Les variations de prix du capital fixe sont la conséquence
de coûts d’ajustement, comme dans la théorie du q de Tobin. Lorsqu’en période
d’expansion la demande de capital fixe augmente brutalement, l’offre ne s’ajuste
qu’avec retard, ce qui engendre une hausse du prix du capital fixe existant, et
inversement en période récession. Ces variations pro-cycliques du prix du capital
fixe accentuent les variations contra-cycliques de la prime de risque à payer sur

126
L’intermédiation financière dans les modèles macroéconomiques

ressources externes et amplifient les effets d’un choc de productivité en plus


d’en accroître la persistance.
La troisième nouveauté introduite par BGG est l’intégration de l’analyse de
l’accélérateur financier dans un modèle « nouveau keynésien » avec monnaie et
rigidités nominales, ce qui permet d’étudier les effets de chocs de demande ainsi
que l’impact des frictions financières sur les mécanismes de transmission de la
politique monétaire. Dans ce contexte, un choc monétaire expansionniste stimule
le niveau d’activité par le canal traditionnel du taux d’intérêt (la courbe LM) mais
aussi par son effet sur l’écart des taux et la réduction de la prime de risque payée
par les entreprises sur le marché du crédit (la courbe IS).
Pour évaluer l’importance quantitative de l’accélérateur financier, BGG uti-
lisent la même méthode que celle utilisée dans les modèles RBC. La première
étape consiste à donner des valeurs numériques plausibles aux paramètres des
fonctions décrivant comportements et contraintes : fonction d’utilité représen-
tant les préférences des ménages, fonction de production Cobb-Douglas, etc.
Les valeurs sont choisies pour reproduire des valeurs connues par ailleurs, telles
que l’élasticité de l’offre de travail au salaire, l’intensité capitalistique, la part des
salaires dans la valeur ajoutée, etc. Une fois le modèle ainsi étalonné, on simule
numériquement l’effet de divers types de choc. BGG obtiennent que le méca-
nisme de l’accélérateur financier amplifie l’effet des chocs sur le PIB de 40 à
50 %, et en accroît la persistance. Sans surprise, on obtient également qu’un
choc sur la prime de financement externe provoqué par une baisse exogène de
la richesse nette des entreprises (par exemple une redistribution de la richesse
des entreprises vers les ménages) a un effet négatif important et durable sur le
niveau d’activité.
© De Boeck Supérieur | Téléchargé le 07/11/2023 sur www.cairn.info (IP: 105.74.12.73)

© De Boeck Supérieur | Téléchargé le 07/11/2023 sur www.cairn.info (IP: 105.74.12.73)


3.2.a Variantes

Holmström et Tirole (1997) proposent une modélisation alternative dans laquelle


les coûts d’agence résultent d’une asymétrie d’information sur le comporte-
ment ex post de l’emprunteur (costly monitoring). Cette asymétrie d’information
crée un problème de risque moral, qui est résolu en exigeant que l’emprun-
teur ait une mise de fonds personnelle dans le projet suffisamment élevée pour
l’inciter à adopter un comportement loyal et à minimiser le risque de faillite. La
conséquence est à nouveau un mécanisme d’accélérateur financier. Une autre
approche encore est proposée par Kiyotaki et Moore (1997). Leur point de
­
­départ n’est plus l’asymétrie d’information ni les coûts de vérification, mais bien
le pouvoir coercitif limité du prêteur qui l’empêche de faire respecter ex post les
termes du contrat de dette (costly enforcement). Dans ce contexte, les prêteurs
sont amenés à exiger une garantie financière égale au montant emprunté. L’effet
de levier est donc exogène et limité à 2 ; il n’y a jamais de faillite et donc pas de
prime de risque ni chocs de risque. C’est réducteur, mais plus simple à mettre en
œuvre dans des modèles macroéconomiques dynamiques. Pour le reste, on a
fondamentalement le même mécanisme d’accélérateur financier que chez BGG.
Frictions financières et coûts d’agence ne sont bien sûr pas l’apanage
des entreprises. D’autres acteurs et secteurs de l’économie sont concernés.

127
Henri Sneessens

Plusieurs auteurs ont souligné le lien entre fluctuations des prix de l’immobilier
(logements ou terrains) et fluctuations macroéconomiques via les contraintes de
collatéral, soit pour les entreprises soit pour les ménages. Les contraintes de cré-
dit peuvent également affecter directement l’emploi si le coût de la main-d’œuvre
est préfinancé par l’emprunt (fonds de roulement).
Vingt plus tard, le « modèle BGG » de l’accélérateur financier ou ses variantes
restent des références incontournables. BGG mentionnent également, dans une
brève note de bas de page, l’intérêt qu’il y aurait à développer une analyse sem-
blable pour étudier l’intermédiation financière, en particulier lorsqu’il existe des
« chaînes de crédit » dans lesquelles des intermédiaires financiers peuvent être
à la fois prêteurs et emprunteurs. Dans ce contexte, et par les mêmes méca-
nismes que précédemment, « de petits chocs sont susceptibles de créer un effet
domino, dû à la chaîne de crédits, et d’engendrer des effets importants sur l’éco-
nomie » (BGG, 1999, p. 1378). Prémonitoire.

3.3 L’accélérateur financier dans les modèles DSGE


Les années 1995-2005 voient l’émergence progressive de modèles d’équilibre
général dynamique et stochastique (en anglais Dynamic Stochastic General
Equilibrium, DSGE) avec des contenus « nouveaux keynésiens ». Ces modèles
reprennent la méthodologie des modèles de cycle réel en y ajoutant la possibilité
de rigidités nominales dans un cadre de concurrence imparfaite avec agents fai-
seurs de prix. Cette extension des modèles RBC des années 1980-1990 permet
d’analyser les fluctuations conjoncturelles tant en termes de chocs de demande
© De Boeck Supérieur | Téléchargé le 07/11/2023 sur www.cairn.info (IP: 105.74.12.73)

© De Boeck Supérieur | Téléchargé le 07/11/2023 sur www.cairn.info (IP: 105.74.12.73)


que de chocs de productivité et était motivée par un certain nombre d’insatis-
factions vis-à-vis des modèles RBC. Elle permet aussi de discuter le rôle, sta-
bilisateur ou non, des politiques fiscales et monétaires. Les années 2000 voient
également l’émergence progressive de méthodes d’estimation appropriées pour
ces modèles. Le simple étalonnage (« calibrage ») des modèles fait place pro-
gressivement à des méthodes d’estimation bayésiennes combinant informations
a priori et informations provenant de l’échantillon d’observations. Outre les tra-
ditionnels chocs de productivité et chocs de demande, ces modèles nouveaux
keynésiens introduisent la possibilité de chocs sur les différents taux de marge
(prix, salaires, primes de risque) reflétant des changements inexpliqués dans la
formation des prix et les imperfections de marché. Les banques centrales se
sont dotées progressivement de ces outils d’analyse qui permettent d’articuler
la discussion de politique économique dans un cadre théorique et quantitatif
cohérent. La Banque centrale européenne utilise depuis plusieurs années déjà
le ­modèle Smets-Wouters, un des modèles les plus connus et les plus représen-
tatifs des modèles DSGE nouveaux keynésiens 4.
L’évaluation des effets quantitatifs de l’accélérateur financier via l’estimation
de tels modèles se révélera décevante. Lorsqu’on intègre un accélérateur finan-
cier à la BGG dans un modèle DSGE, on obtient en fait une assez faible élasticité

4. Pour plus de détails sur ces aspects et sur les développements récents, voir la synthèse très
complète de Lindé, Smets et Wouters (2016).

128
L’intermédiation financière dans les modèles macroéconomiques

de la prime de risque à la valeur des fonds propres. L’accélérateur financier est


donc un mécanisme de propagation assez faible. En d’autres termes, ajouter aux
modèles DSGE existants un mécanisme d’accélérateur financier à la BGG amé-
liore le pouvoir explicatif de ces modèles, sans qu’on puisse conclure pour autant
que ce mécanisme ait joué un rôle important dans les fluctuations économiques
passées 5. Ces résultats négatifs expliquent pourquoi les aspects financiers sont
restés largement absents des modèles DSGE jusqu’à la crise de 2007-2009. Les
choses changent rapidement par la suite parce que les modèles DSGE du début
des années 2000 se révèlent totalement incapables d’expliquer la profondeur de
la crise et la lenteur de la reprise économique. Il est impossible d’expliquer les
caractéristiques de la crise en termes des chocs d’offre ou de demande tradi-
tionnels. Ajouter un mécanisme d’accélérateur financier ne change rien à l’affaire
aussi longtemps qu’on n’introduit pas un autre type de choc, les chocs « finan-
ciers ».
Il y a différentes façons d’introduire des chocs financiers dans les modèles
avec accélérateur financier. La manière la plus simple consiste à rendre la prime
de risque elle-même aléatoire. En d’autres termes, la prime de risque devient
fonction de l’évolution de la valeur des fonds propres (comme chez BGG) et d’un
terme aléatoire. La crise de 2007-2009 est alors expliquée principalement par
ce choc financier 6. Pour expliquer une récession de l’ampleur observée, il faut
néanmoins un choc très important, tellement important que sa probabilité de réa-
lisation ex ante ne peut être que très très faible. L’exercice n’est donc satisfaisant
qu’à moitié. L’exercice est utile parce qu’il est important de savoir qu’un choc
financier qui provoquerait une hausse brutale de la prime de risque permet de
reproduire l’essentiel des caractéristiques de la « grande récession ». Mais l’exer-
© De Boeck Supérieur | Téléchargé le 07/11/2023 sur www.cairn.info (IP: 105.74.12.73)

© De Boeck Supérieur | Téléchargé le 07/11/2023 sur www.cairn.info (IP: 105.74.12.73)


cice reste insatisfaisant parce qu’on ne sait pas ce que représente exactement
ce choc. D’où provient-il ? Pourquoi cette ampleur ? Pourquoi à ce moment-là ?
Dans un article publié en 2014, Christiano, Motto et Rostagno (CMR) vont un
pas plus loin et modélisent les chocs de risque un peu à la manière de Williamson,
par des variations de la volatilité des chocs idiosyncrasiques. Pour estimer ce
modèle DSGE élargi, CMR ajoutent à la liste des variables habituellement prises
en compte (PIB, conso, investissement, emploi, salaires, niveaux des prix et taux
d’intérêt de la banque centrale) des variables financières telles que le volume des
crédits, un indicateur de la richesse nette des entreprises et un indicateur des
primes de risque observées sur les marchés du crédit. Les résultats d’estima-
tion suggèrent que 60 % des variations conjoncturelles du PIB US sur la période
1985-2010 pourraient s’expliquer en termes de chocs de risque ! Les chocs de
risque auraient joué un rôle important également dans les récessions de 1990
et 2001. CMR soulignent cependant que ce résultat dépend crucialement de
la prise en compte des variables financières dans l’estimation. Si ces variables
sont exclues de l’estimation, les chocs de risque perdent leur importance. En
d’autres termes, on peut expliquer l’essentiel des fluctuations conjoncturelles des
variables non financières sans faire intervenir des chocs financiers, hormis la crise
de 2007-2009. Ce n’est que lorsqu’on veut expliquer simultanément variables

5. Voir par exemple Brzoza-Brzezina et Kolasa (2013).


6. Voir par exemple Christiano, Eichenbaum et Trabandt (2015).

129
Henri Sneessens

financières et non financières que les chocs de risque deviennent incontour-


nables. Ces résultats sont donc à traiter avec prudence, et la modélisation des
variables financières reste un sujet de recherche largement inexploré. De même,
les variations du risque incluses dans le modèle de CMR sont essentiellement le
résultat de chocs aléatoires exogènes, par définition inexpliqués. Il est vraisem-
blable que ces variations du risque ont une composante endogène importante,
qu’il est aujourd’hui encore difficile d’expliquer et modéliser.

4 L
 ’INTERMÉDIATION BANCAIRE (« BANK LENDING
CHANNEL »)
La crise de 2007-2009 fut accompagnée d’une grave perturbation de l’intermé-
diation financière, elle-même liée à l’effondrement du système bancaire paral-
lèle (shadow banks). Les modélisations précédentes représentent ce choc de
l’intermédiation financière assez simplement via un choc exogène sur le coût
du crédit aux entreprises. L’alternative est de modéliser explicitement l’intermé-
diation financière et les « frictions » y associées. C’est plus naturel, et c’est un
point de passage obligé si on veut pousser plus loin l’analyse, mieux comprendre
les mécanismes en cause ainsi que les effets de politiques monétaires alterna-
tives, conventionnelles ou non. Par souci de simplicité, on parlera du « secteur
bancaire » pour désigner l’ensemble du secteur de l’intermédiation financière,
banques traditionnelles et banques parallèles confondues 7.
© De Boeck Supérieur | Téléchargé le 07/11/2023 sur www.cairn.info (IP: 105.74.12.73)

© De Boeck Supérieur | Téléchargé le 07/11/2023 sur www.cairn.info (IP: 105.74.12.73)


4.1 Chocs financiers et effets de levier
Gertler et Karadi (2011) ont transposé le modèle de BGG au secteur financier.
Les emprunteurs concernés par les coûts d’agence deviennent dans leur mo-
dèle les banques plutôt que les entreprises. En termes de la figure 1, Gertler et
Karadi introduisent l’asymétrie d’information et les coûts d’agence en (b) plutôt
qu’en (a). La partie inférieure de la figure fait donc cette fois explicitement par-
tie de la modélisation des flux macroéconomiques. Pour le reste, la mécanique
de l’accélérateur reste la même. On néglige à ce stade l’hétérogénéité entre
banques, de sorte qu’on peut raisonner en termes de banque représentative. On
reviendra plus loin sur les conséquences de l’hétérogénéité des banques.
Les banques financent les crédits aux entreprises par les ressources propres
accumulées au fil du temps et par l’emprunt auprès des ménages (les dépôts) 8.
C’est à ce niveau qu’apparaissent les frictions. Celles-ci résultent d’un problème
de risque moral, causé par la possibilité qu’ont les banques de détourner à leur

7. Le lecteur qui souhaite aller plus loin dans l’analyse pourra lire également Woodford (2010), qui
reprend et élargit le modèle IS-LM pour y inclure l’intermédiation financière et illustrer l’impact de
chocs financiers ou les politiques monétaires non conventionnelles.
8. Dans la réalité, les banques se financent également via l’emprunt auprès du secteur bancaire
parallèle, moins régulé. Il faut donc entendre « dépôts » au sens large incluant l’emprunt à court
terme sur les marchés (market funding).

130
L’intermédiation financière dans les modèles macroéconomiques

profit une partie au moins des fonds empruntés. Les prêteurs ne peuvent réa-
gir qu’ex post, en liquidant la banque et en récupérant les valeurs restantes et
les fonds propres de la banque. Aussi longtemps que la perte qui pourrait être
ainsi infligée au banquier est supérieure à la valeur des fonds qu’il est susceptible
de détourner, les prêteurs savent que le banquier a tout intérêt à se comporter
loyalement et à investir les fonds comme prévu. Pour que la menace ait le résul-
tat recherché, il faut que les fonds empruntés ne soient pas trop importants et
restent proportionnés à la valeur des fonds propres de la banque. La contrainte
d’incitation introduit donc une limite à la capacité d’emprunt et d’intermédiation
des banques. Les dépôts ne pourront jamais être supérieurs à un multiple de
la valeur des actifs détenus par la banque (un peu comme si dépôts et fonds
propres étaient des facteurs de production complémentaires), ce qui veut dire
également que le volume total des crédits que le secteur bancaire pourra oc-
troyer aux entreprises est un multiple de la valeur des actifs qu’ils détiennent en
propre. Puisque par ailleurs les banques restent intrinsèquement plus efficaces
que les ménages dans la gestion des crédits aux entreprises, cette contrainte
sera toujours saturée. En l’absence de frictions, les crédits aux entreprises se
feraient par le seul canal bancaire, et l’écart entre taux prêteur et emprunteur des
banques serait nul. La présence de frictions réduit le volume de l’intermédiation
et crée un écart de taux strictement positif. L’effet accélérateur vient des effets
de la conjoncture économique sur la valeur des fonds propres des banques et
leur ratio de levier maximal. Comme précédemment, l’effet conjoncturel vient à
la fois d’un effet accumulation de fonds propres (qui crée une persistance des
chocs) et d’un effet du prix des actifs (qui engendre une amplification des chocs).
L’intérêt de cette reformulation de l’accélérateur financier est double. L’on
© De Boeck Supérieur | Téléchargé le 07/11/2023 sur www.cairn.info (IP: 105.74.12.73)

© De Boeck Supérieur | Téléchargé le 07/11/2023 sur www.cairn.info (IP: 105.74.12.73)


peut d’une part mieux définir la nature et l’ampleur des chocs financiers exo-
gènes, et leurs effets dévastateurs sont potentiellement plus importants parce
que les ratios de levier dans le secteur financier sont plus élevés (4 contre 2 dans
les modèles précédents). D’autre part, on a la possibilité de discuter les effets
de politiques monétaires non conventionnelles, lorsque la banque centrale prend
le relais des banques privées et octroie directement des crédits au secteur non
financier. Gertler-Karadi utilisent ce modèle pour étudier la crise de 2007-2009.
Le scénario retenu est celui d’un choc financier exogène qui en l’espace de
deux ans réduit de quelque 10 % la valeur des actifs détenus par les banques.
Cette perte d’actif correspond à l’impact direct des pertes provoquées par la
baisse des prix de l’immobilier. En l’absence de frictions financières, un tel choc
de richesse a peu d’impact sur l’investissement mais affecte négativement les
dépenses de consommation et provoque une baisse du PIB égale à –2 % au
plus fort de la récession. Les effets sont considérablement renforcés en présence
de frictions financières. La perte de fonds propres oblige les banques à vendre
des actifs à tout prix (fire sales) et à se désendetter pour rétablir des ratios bilan-
taires corrects (­deleveraging). Ces ventes forcées créent une spirale de baisse
de prix des actifs et de valeur qui finalement atteint quelque 50 %, cinq fois la
perte exogène initiale. L’écart de taux augmente de six points. Cette fois l’inves-
tissement chute fortement (–25 % au plus fort de la récession) et durablement (il
faut plus de deux ans pour un retour à la normale). La baisse du niveau activité
atteint –6 % au creux de la récession, près de trois fois ce qu’on observerait en

131
Henri Sneessens

l’absence de frictions financières. On a donc, pour ce scénario, un effet d’accélé-


rateur financier très puissant et une récession d’ampleur comparable à la grande
récession de 2007-2009. Gertler et Karadi montrent également dans ce contexte
qu’une politique monétaire non conventionnelle est susceptible d’atténuer consi-
dérablement les effets de la crise financière.

4.2 Panique bancaire


Le scénario de panique bancaire est un scénario alternatif, compatible lui aussi
avec l’approche de Gertler-Karadi 9. On peut le résumer comme suit. Lorsque le
taux de croissance de la productivité diminue et que l’économie entre en réces-
sion, la valeur des créances détenues par les banques diminue également, ce
qui augmente mécaniquement leur ratio d’endettement. La nécessité de réta-
blir un taux d’endettement compatible avec la contrainte d’incitation force les
banques à se désendetter en vendant une partie de leurs créances, ce qui ren-
force la chute des prix des actifs. C’est le mécanisme de l’accélérateur finan-
cier décrit précédemment. On a supposé jusqu’à présent que ces dépréciations
d’actifs ne remettaient pas en cause la solvabilité des banques. C’est pourtant
un scénario qu’on ne peut exclure a priori. Lorsque le choc conjoncturel et la
baisse induite des prix des actifs sont importants, des doutes peuvent appa-
raître sur la solvabilité des banques et inciter les prêteurs à retirer leurs dépôts.
Les banques traditionnelles sont relativement bien protégées d’un tel scénario
grâce à l’assurance-dépôt. Il n’en est pas de même des banques parallèles qui
peuvent se trouver brutalement dans l’impossibilité de renouveler leurs emprunts
© De Boeck Supérieur | Téléchargé le 07/11/2023 sur www.cairn.info (IP: 105.74.12.73)

© De Boeck Supérieur | Téléchargé le 07/11/2023 sur www.cairn.info (IP: 105.74.12.73)


à court terme. Une telle panique bancaire relancerait le processus de ventes for-
cées d’actifs et de dépréciation des actifs. L’ampleur de ces mouvements peut
être telle qu’effectivement les banques sont in fine mises en faillite, avec comme
conséquence directe la paralysie de l’intermédiation financière et une réces-
sion d’ampleur exceptionnelle. Un tel scénario est possible dans le modèle de
Gertler-Karadi. Suite à un choc conjoncturel important, par exemple un choc de
productivité de ‑5 %, deux équilibres sont effectivement compatibles avec des
anticipations rationnelles, l’un avec panique bancaire, l’autre sans. Le scénario
de panique bancaire conduit à des différentiels de taux (credit spread) compa-
rables à ceux observés durant la crise de 2007-2009.
Cette lecture alternative de la crise de 2007-2008 est séduisante, notamment
parce que l’effondrement de Lehman Brothers en 2008 lui donne quelque vrai-
semblance et parce qu’elle est en phase avec le sentiment que cette crise était un
événement exceptionnel et imprévisible. Reste à vérifier néanmoins jusqu’à quel
point ce scénario est compatible avec les autres caractéristiques de la grande
récession. Reste à expliquer aussi pourquoi on a basculé dans le scénario de
panique bancaire alors qu’un autre équilibre était possible. Même avec un choc
de productivité de ‑5 %, le déclenchement de la panique bancaire n’a rien d’au-
tomatique. Dans le modèle de Gertler-Karadi, les banques restent fondamentale-
ment solvables, c’est l’illiquidité de leurs actifs qui peut les mettre en faillite.

9. Voir Gertler et Kiyotaki (2015) et Gertler, Kiyotaki et Prestipino (2016).

132
L’intermédiation financière dans les modèles macroéconomiques

4.3 Le marché interbancaire


On a jusqu’à présent considéré le secteur bancaire comme un tout homogène,
comme si toutes les banques avaient les mêmes opportunités de placement et la
même contrainte sur le degré d’endettement. Dans la réalité, toutes les banques
n’ont pas à chaque instant les mêmes opportunités. Certaines banques ont
des liquidités excédentaires, d’autres non. Avec un marché interbancaire par-
faitement compétitif et efficient, ces différences d’opportunité n’auraient aucune
importance : les liquidités excédentaires des unes seraient transférées aux autres
et le taux du marché interbancaire coïnciderait avec le taux du crédit aux entre-
prises. En revanche, si le marché interbancaire est lui aussi caractérisé par des
problèmes d’asymétrie d’information, le transfert des ressources entre banques
sera coûteux et imparfait. Le fait que la crise de 2007-2009 fut caractérisée par
un blocage quasi total du marché interbancaire incite à mieux étudier les consé-
quences de l’hétérogénéité entre banques et à explorer d’autres scénarios de
crise que ceux discutés ci-dessus.

4.3.a Un mécanisme d’accélérateur financier renforcé


Il y a certainement de multiples façons d’introduire l’hétérogénéité interbancaire.
Une façon assez naturelle est d’ajouter au modèle de Gertler-Karadi un marché
interbancaire où se rencontreraient les banques désireuses de prêter ou d’em-
prunter des liquidités, avec sur ce marché des frictions semblables à celles du
marché des dépôts 10. Toutes les banques sont identiques ex ante et collectent
les mêmes volumes de dépôts. Les différences apparaissent ex post parce que
© De Boeck Supérieur | Téléchargé le 07/11/2023 sur www.cairn.info (IP: 105.74.12.73)

© De Boeck Supérieur | Téléchargé le 07/11/2023 sur www.cairn.info (IP: 105.74.12.73)


les demandes de crédit du secteur non financier sont inégalement distribuées
entre banques. Certaines banques voient donc leurs crédits au secteur non finan-
cier limités par la demande de crédits plutôt que par la disponibilité des dépôts et
choisissent de prêter leurs ressources excédentaires aux banques qui sont dans
la situation inverse. Les frictions sur le marché interbancaire viennent s’ajouter
aux frictions sur le marché des dépôts et renforcent de ce fait les effets de l’accé-
lérateur financier. Cette extension du modèle initial de Gertler-Karadi permet de
corriger au moins en partie une des faiblesses des analyses précédentes. Elle
permet aussi de discuter les effets d’interventions de la Banque centrale sur le
marché interbancaire. L’analyse est en revanche extrêmement lourde, et donc
peu propice à d’autres extensions.

4.3.b Boom des crédits et crise bancaire


Un récent d’article de Boissay, Collard et Smets, paru en 2016, adopte une ap-
proche radicalement différente, ingénieuse et particulièrement novatrice. Dans
leur approche, c’est l’hétérogénéité même du secteur bancaire qui alimente le
mécanisme d’accélérateur financier.
Le scénario est le suivant. Toutes les banques sont identiques ex ante. Elles
font face à la même incertitude concernant les possibilités de profit futur sur le

10. Voir Gertler et Kiyotaki (2011).

133
Henri Sneessens

marché du crédit et collectent le même volume de dépôts. Les différences appa-


raissent plus tard, une fois sur le marché du crédit. Le taux sur ce marché est
le même pour tous, mais les coûts d’intermédiation diffèrent et engendrent des
différences de profitabilité. Cette hétérogénéité ex post est sans conséquence
si le marché interbancaire fonctionne sans frictions. Les banques moins perfor-
mantes sur le marché du crédit choisissent de prêter aux autres banques sur
le marché interbancaire, où le jeu de la concurrence leur permet d’obtenir un
taux d’intérêt identique à celui du marché du crédit. Seules les banques les plus
performantes opèrent directement sur le marché du crédit. Les conséquences
de l’hétérogénéité ex post sont cependant tout autres en présence de frictions.
La cause principale des frictions est à nouveau un problème de risque moral.
Les banques emprunteuses sur le marché interbancaire peuvent être tentées de
détourner les sommes empruntées. L’importance de ce risque n’est toutefois
plus fonction de la valeur des fonds propres de la banque, mais de l’importance
des coûts d’intermédiation. La tentation de détourner les sommes empruntées
est d’autant plus forte que le volume emprunté est important et que la marge de
profit sur le marché du crédit (l’écart entre taux sur le marché du crédit, net des
coûts d’intermédiation, et taux interbancaire) est faible. Le risque de détourne-
ment est évité en plafonnant les possibilités d’emprunt des banques sur le mar-
ché interbancaire. Parce qu’il est impossible de distinguer banques plus et moins
performantes, la contrainte s’applique à toutes les banques de même manière et
limite donc également la capacité d’emprunt des banques les plus performantes,
ce qui fait baisser le taux interbancaire et incite d’autres banques, un peu moins
performantes, à emprunter également et à développer leurs activités sur le mar-
ché du crédit. Les frictions provoquent donc une baisse de l’efficacité globale de
© De Boeck Supérieur | Téléchargé le 07/11/2023 sur www.cairn.info (IP: 105.74.12.73)

© De Boeck Supérieur | Téléchargé le 07/11/2023 sur www.cairn.info (IP: 105.74.12.73)


l’intermédiation financière en répartissant l’activité d’intermédiation sur un plus
grand nombre de banques avec une efficacité moyenne plus faible. Le point im-
portant est que l’efficacité moyenne de l’intermédiation bancaire devient fonction
du niveau des taux d’intérêt. Des taux d’intérêt élevés sur le marché du crédit
réduisent le risque moral (la tentation de détourner les sommes empruntées) et
sont donc compatibles avec des taux d’endettement plus élevés sur le marché
interbancaire et une meilleure concentration de l’activité d’intermédiation sur les
banques les plus performantes. On observe l’effet inverse lorsque les taux d’inté-
rêt sont bas. L’importance des frictions varie donc de façon contra-cyclique, elle
augmente en période de récession lorsque la moindre productivité des entre-
prises non financières pousse le taux d’intérêt sur le marché du crédit à la baisse.
Il en résulte un mécanisme d’accélérateur financier comme chez BGG mais dont
les ressorts sont totalement différents puisque la valeur des fonds propres ne
joue ici aucun rôle.
La particularité la plus intéressante de l’approche de Boissay-Collard-Smets
est cependant ailleurs, dans la possibilité d’un effondrement complet du mar-
ché interbancaire. Une telle crise bancaire survient lorsque le taux d’intérêt sur
le marché du crédit est tellement bas et le risque moral tellement élevé qu’au-
cune banque n’ose prêter sur le marché interbancaire. Les banques trop peu
performantes pour intervenir sur le marché du crédit préfèrent dans ces condi-
tions garder leurs liquidités excédentaires inutilisées, ce qui provoque une réduc-
tion soudaine du volume des crédits (credit crunch) et une récession d’ampleur

134
L’intermédiation financière dans les modèles macroéconomiques

exceptionnelle. Un choc de productivité extrêmement négatif pourrait créer une


telle situation, mais on a vu que ce n’était pas le scénario le plus vraisemblable.
Un scénario plus réaliste est celui d’une période exceptionnellement faste carac-
térisée par plusieurs années de croissance économique forte et de niveaux de
productivité élevés, suivie d’un retour brutal à des niveaux de productivité plus
normaux. Durant les années fastes, l’épargne augmente et s’accumule. Lorsque
survient la baisse de la productivité, cette baisse combinée à la surabondance de
l’épargne accumulée (saving glut) pousse les taux d’intérêt à des niveaux anor-
malement bas et déclenche la crise bancaire, laquelle amplifie de manière excep-
tionnelle les effets macroéconomiques du ralentissement de la productivité.
Cette séquence d’événements fournit une interprétation plausible de la
crise de 2007-2009. Il est trop tôt pour pouvoir intégrer ce schéma dans les
modèles DSGE et vérifier jusqu’à quel point il est empiriquement fondé et permet
d’expliquer toutes les dimensions de la crise, mais il présente par rapport aux
alternatives discutées précédemment plusieurs avantages. Dans le scénario de
Boissay-Collard-Smets, la récession est déclenchée par un choc de productivité
assez banal en soi et transformée en catastrophe par la crise bancaire. La crise
bancaire elle-même n’est le résultat ni de chocs financiers exogènes d’ampleur
exceptionnelle ni d’une panique bancaire inexpliquée. C’est un événement rare
qui survient après un boom des crédits et provoque une récession plus profonde
et plus longue que les récessions habituelles. Ces dernières caractéristiques sont
précisément celles des récessions financières observées dans le passé.
Une des caractéristiques du modèle de Boissay-Collard-Smets est la non-
linéarité des effets. Une fois atteint le point de rupture sur le marché interban-
caire, la dynamique du modèle change totalement et brutalement. On retrouve le
© De Boeck Supérieur | Téléchargé le 07/11/2023 sur www.cairn.info (IP: 105.74.12.73)

© De Boeck Supérieur | Téléchargé le 07/11/2023 sur www.cairn.info (IP: 105.74.12.73)


même type de non-linéarité dans d’autres modélisations, notamment avec des
contraintes de réputation ou d’incitation qui ne deviennent liantes qu’occasion-
nellement, à la suite d’une succession d’événements particuliers qui n’ont, consi-
dérés isolément, rien d’exceptionnels mais dont la séquence est exceptionnelle 11.

5 CONCLUSIONS
Ce rapide survol illustre les difficultés rencontrées pour intégrer l’intermédiation
financière de façon utile dans les modèles macroéconomiques. Je résumerai les
enseignements les plus importants de la façon (subjective) suivante.
1. L’accélérateur financier reste la représentation la plus fréquente des frictions
sur les marchés financiers et de leur impact sur l’économie réelle.
2. Le mécanisme de l’accélérateur financier semble quantitativement trop faible
cependant pour jouer un rôle prépondérant dans les fluctuations conjonc-
turelles « normales ». Mais il faut rester prudent. Cette conclusion négative
peut résulter de représentations encore beaucoup trop simples des multiples
problèmes d’asymétrie d’information ou de risque moral rencontrés sur les
marchés financiers.

11. Voir par exemple Mendoza (2010) ou Brunnermeier et Sannikov (2014).

135
Henri Sneessens

3. Il est impossible d’expliquer la « grande récession » de 2007-2009 sans faire


intervenir les marchés financiers et le coût du crédit. Mais au-delà de ce
constat unanime, il reste beaucoup d’incertitude sur les raisons et les méca-
nismes qui ont déclenché et amplifié la récession.
4. Un scénario possible est celui d’un choc exogène amplifié par l’accélérateur
financier. Vu la faiblesse de ce dernier, il faut cependant un choc d’ampleur
exceptionnelle pour reproduire une hausse du coût du crédit semblable à
celle observée. Le choc peut être d’origine financière (la soudaine chute des
prix immobiliers) ou non (choc de productivité). La lenteur de la reprise éco-
nomique s’expliquerait par le temps nécessaire pour reconstituer les fonds
propres des banques et réduire le coût de l’intermédiation. Un tel scénario
n’est néanmoins pas tout à fait convaincant. Expliquer la crise de 2007-2008
par un choc exogène exceptionnel n’est qu’une demi-explication, surtout si
ce choc peut survenir n’importe quand et n’a pas plus d’explication qu’une
catastrophe naturelle, un tremblement de terre inattendu et imprévisible.
5. Une approche alternative et plus prometteuse est de développer des
modèles capables de reproduire des dynamiques fortement non linéaires,
équivalentes à des changements de régime endogènes. Dans ce contexte,
la cause de la crise de 2007-2009 ne serait pas un choc d’ampleur excep-
tionnelle mais une succession de chocs qui, pris isolément, sont anodins
mais dont les effets cumulés conduisent l’économie à un point de rupture.
Une telle approche permettrait d’expliquer pourquoi les frictions financières
semblent n’avoir la plupart du temps qu’un rôle secondaire puis soudaine-
ment prennent l’ampleur observée en 2007-2009.
6. Dans ce contexte, le scénario qui conduisit à la « grande récession » pourrait
© De Boeck Supérieur | Téléchargé le 07/11/2023 sur www.cairn.info (IP: 105.74.12.73)

© De Boeck Supérieur | Téléchargé le 07/11/2023 sur www.cairn.info (IP: 105.74.12.73)


être celui d’une période exceptionnellement faste avec productivité élevée et
accumulation d’une épargne importante, suivie par un retour brutal à la nor-
male. La baisse de la productivité combinée à la surabondance de l’épargne
accumulée pousse les taux d’intérêt à des niveaux anormalement bas et
déclenche une crise bancaire, laquelle amplifie de manière exceptionnelle les
effets macroéconomiques du ralentissement de la productivité.
Il est impossible de dire aujourd’hui ce qui restera d’ici dix ou vingt ans de
ces diverses contributions. La sélection qu’il se fera dépendra non seulement
de la qualité intrinsèque des modélisations proposées et de leur aptitude à dis-
tinguer correctement l’essentiel de l’accessoire, mais aussi de l’histoire écono-
mique future, de l’évolution de la régulation et de la supervision des marchés et
des intermédiaires financiers.

BIBLIOGRAPHIE
Bernanke, B.S. & Blinder, A. (1988). Credit, Money and Aggregate Demand, American
Economic Review, 78(2), 435-439.
Bernanke, B.S. & Gertler, M. (1989). Agency Costs, Net Worth, and Business
Fluctuations, American Economic Review, 76(1), 14-31.
Bernanke, B.S., Gertler, M. & Gilchrist, S. (1999). The Financial Accelerator in a
Quantitative Business Cycle Framework, in J.B. Taylor & M. Woodford (eds.)

136
L’intermédiation financière dans les modèles macroéconomiques

Handbook of Macroeconomics (Vol. 1C, Chap. 21, pp. 1341-1393). North-


Holland: Elsevier.
Boissay, F., Collard, F. & Smets, F. (2016). Booms and banking crises, Journal of
Political Economy, 124(2), 489-538.
Brzoza-Brzezina, M. & Kolasa, M. (2013). Bayesian Evaluation of DSGE Models with
Financial Frictions, Journal of Money Credit and Banking, 45(8), 1451-1476.
Brunnermeier, M.K. & Sannikov, Y. (2014). A Macroeconomic Model with a Financial
Sector, American Economic Review, 104(2), 379-421.
Christiano, L.J., Motto, R. & Rostagno, M. (2003). The Great Depression and the
Friedman-Schwartz Hypothesis, Journal of Money, Credit and Banking, 35(6),
Part 2: Recent Developments in Monetary Economics, pp. 1119-1197.
Christiano, L.J., Motto, R. & Rostagno, M. (2014). Risk Shocks, American Economic
Review, 104(1), 27-65.
Christiano, L.J., Eichenbaum, M.S. & Trabandt, M. (2015). Understanding the great re-
cession, American Economic Journal: Macroeconomics, 7(1), 110-167.
Driscoll, J.C. (2004). Does bank lending affect output? Evidence from the U.S.
states, Journal of Monetary Economics, 51, 451-471.
Friedman, M. & Schwartz, A.J. (1963). A Monetary History of the United States
1867‑1960, Princeton: Princeton University Press.
Gertler, M. & Karadi, P. (2011). A model of unconventional monetary policy, Journal
of Monetary Economics, 58(1), 17-34.
Gertler, M. & Kiyotaki, N. (2011). Financial Intermediation and Credit Policy in
Business Cycle Analysis, in B.M. Friedman & M. Woodford (eds.), Handbook of
© De Boeck Supérieur | Téléchargé le 07/11/2023 sur www.cairn.info (IP: 105.74.12.73)

© De Boeck Supérieur | Téléchargé le 07/11/2023 sur www.cairn.info (IP: 105.74.12.73)


Monetary Economics (Vol. 3A, Chap. 11, pp. 547-599). North-Holland: Elsevier.
Gertler, M. & Kiyotaki, N. (2015). Banking, Liquidity, and Bank Runs in an Infinite
Horizon Economy, American Economic Review, 105(7), 2011-2043.
Gertler, M., Kiyotaki, N. & Prestipino, A. (2016). Anticipated Banking Panics, American
Economic Review, 106(5), 554-559.
Holmstrom, B. & Tirole, J. (1997). Financial Intermediation, Loanable Funds and the
Real Sector, Quarterly Journal of Economics, 112(3), 663-691.
Kiyotaki, N. & Moore, J.H. (1997). Credit Cycles, Journal of Political Economy, 105(2),
211-248.
Lindé, J., Smets, F. & Wouters, R. (2016). Challenges for Central Banks Macro Models,
in J.B. Taylor & H. Uhlig (eds.) Handbook of Macroeconomics (Vol. 2, Chap. 28,
pp. 2185-2262). North-Holland: Elsevier.
Mendoza, E.G. (2010). Sudden Stops, financial crises, and leverage, American
Economic Review, 100(5), 1941-1966.
Romer C.D. & Romer, D.H. (2013). The Missing Transmission Mechanism in the
Monetary Explanation of the Great Depression, American Economic Review,
Papers & Proceedings, 103(3), 66-72.
Williamson, S. (1987). Financial Intermediation, Business Failures, and Real Business
Cycles, Journal of Political Economy, 95(6), 1196-1216.
Woodford, M. (2010). Financial Intermediation and Macroeconomic Analysis, Journal
of Economic Perspectives, 24(4), 21-44.

137

Vous aimerez peut-être aussi