Vous êtes sur la page 1sur 47

Psychosociologie économique

Introduction : rationalité et comportement économique

Comment peut-on construire une théorie de la Société / de l’économie


comme science ?
Une seule hypothèse indispensable : l’hypothèse de rationalité = même si
on sait que les individus peuvent être rationnels, la rationalité n’est pas un
comportement réaliste dans la réalité.
Depuis Hobbes, les individus répondent à un principe de ratio (= raison ou
mesure) ce qui est à la fois un principe de rationalité et un principe de
mesure. Comment rendre compte de l’activité des individus ? grâce à la
rationalité. Cela remonte à l’époque d’Aristote (4ème siècle avant J-C).
Aristote pose les bases de la pensée de la Société en écrivant l’Ethique à
Nicomaque où il définit ce que les économistes ont appelé la rationalité.
Principe : on pose une fin (= objectif = fonction objective), on examine les
moyens qu’on a ; s’il y a plusieurs moyens alternatifs, on choisit le
meilleur moyen qui donne la réalisation la + facile et la meilleure.
Au milieu du 20ème siècle, Lionel Robbins (1932) écrit « An Essay on the
nature and significance of Economic Science » qui donne une définition
canonique de la rationalité : l’économie est « la science qui étudie le
comportement humain en tant que relation entre des fins et des moyens
rares à usage alternatif. »
L’économie va s’intéresser à la relation entre une fin donnée et des
moyens à usage alternatif.
Depuis le début du 20ème siècle, cette définition où l’économie repose,
commence à être mise en question, en 1er temps de manière large par le
sociologue Max Weber (1864-1920). Il critique cette définition en disant
qu’il y a plusieurs types de rationalité (2) et plusieurs manières d’expliquer
les comportements (4).

2 types de rationalité :
• Idéal – type = type – idéal = figure abstraite décrivant un type de
comportement = caricature donnant une idée du trait dominant
socialement
• On ne s’intéresse qu’aux comportements signifiants socialement

A partir de ces 2 précautions, Weber propose 4 définitions/4 manières


d’expliquer les comportements :
• Activité appelée Zweckrationalität = rationalité en finalité = activité
rationnelle née de la confrontation entre (des moyens et des fins) ET
entre (des fins et les conséquences pouvant en découler). Le 1er
comportement désigne des actions instrumentales tournées vers un
but utilitaire (= comportement de l’homo economicus =
consommation/production économique). Les moyens n’ont de sens
que sur les valeurs.
• Activité Wertrationalität = rationalité en valeur et rationalité au
valeur déterminant une action sociale par une croyance dans la
valeur intrasèque (= propre) d’un acte déterminé. Il n’y a pas
qu’une forme de rationalité mais une autre sur les valeurs. Ici, les
valeurs n’ont de sens qu’à l’aide des moyens.
• Comportement affectif = les actions ne sont déterminées que de
manière affective.
• Comportement traditionnel = les actions déterminées de manière
traditionnelle se font au nom de rituels, d’habitudes, de coutumes, à
une forme de représentation de légitimité traditionnelle. Il ne s’agit
pas là d’une rationalité de valeur. C’est un comportement qui réside
sur la manière de faire. Ces rituels correspondent à la façon
traditionnelle de se comporter. Exemple : les manières de politesse

Chapitre I Quelques jalons théoriques

I Leçons des Classiques


A Rationalité et coordination : « la Fable des abeilles » de Bernard
Mandeville ; Adam Smith et la main invisible

Ce qui permet à l’économie de se développer comme discipline autonome,


c’est l’hypothèse de rationalité : le 1er texte à cet égard est une fable
écrite par Bernard Mandeville : « Fable des abeilles, vices privées,
bénéfices publics » qui rend indépendant le raisonnement économique du
raisonnement moral. (1714)
2 morales :
• Morale religieuse = principe d’économie, d’épargne
• Morale économique = + les gens consomment, + la Société
est riche ; ce qui est considéré comme immoral peut conduire
à un enrichissement de la Société ; d’où « vices privées,
bénéfices publics ». Ce principe de rationalité revient à un
principe d’intérêt.

Adam Smith publie en 1976 : « La Recherche sur l’origine des Nations ».


D’après lui, ce qui fait fonctionner le marché, ce n’est pas la bonté des
agents, c’est l’intérêt de ces agents à vendre leurs produits aux
consommateurs. Il construit une théorie sur la coordination sociale des
agents en se basant sur le théorie de la rationalité. Ce n’est pas seulement
un principe d’intérêt.
Cette idée de principe d’intérêt individuel est reprise par l’ensemble des
Classiques (Ricardo, Mill, Say).

B. Rationalité et calcul : le « felicific calculus » de Jeremy Bentham

L’auteur qui va creuser ce principe est un juriste anglais : Jeremy


Bentham.
Fondateur d’une doctrine qui va théoriser le principe d’intérêt : c’est
l’utilitarisme, fondement de base des théories classiques.
Elle se décrit en 2 volets :
1er volet : principe d’utilité individuelle se déclinant sous la forme d’un
calcul des peines et des plaisirs (« felicific calculus ») ; l’idée est que
lorsque les individus agissent, ils cherchent à maximiser leurs plaisirs et
minimiser leurs peines. Ce principe est posé comme comportement
économique de base. C’est ce que Mill nommera comme « l’homo
economicus », l’individu économique, rationnel cherchant à maximiser ses
plaisirs avec un coût minimum. Il s’agit de découper les comportements
humains complexes.
• Bentham va montrer qu’il y a un lien entre la monnaie et l’utilité que
les individus éprouvent par un calcul.
• L’utilité est faite d’un certain nombre d’éléments. Elle peut être
calculée à partir d’un certain nombre de plaisirs de base et d’unités
de compte. Tous les plaisirs qu’éprouvent les individus, on peut les
définir à partir de plaisirs fondamentaux (amitié, méchanceté).
Bentham liste les plaisirs et les peines ; et les classe selon 4
caractéristiques : intensité d’un plaisir ou d’une peine =
multiplication d’une unité de base par le degré d’insensibilité ; la
durée ; la probabilité / incertitude et le caractère proche ou éloignée
dans le temps. L’auteur définit ensuite des unités de compte : unités
d’intensité et unités de mesure qui correspondent aux
circonstances.
2 ème
volet : principe du « + grand bonheur pour le + grand nombre »
Définition de la notion d’unité collective = somme des unités individuelles
sur la base d’un principe de pondération, appelé « chacun compte pour
un, personne ne compte pour + d’un ». C’est une manière de compter le
bonheur.

C. Rationalité et incertitude : la psychologie de l’entrepreneur

Cela sert de base à la théorie du consommateur.


Apparition de la notion de l’entrepreneur.
Psychologie de l’entrepreneur relève d’une autre logique que celle du
consommateur.
Richard Cantillon (1690 – 1734 ) : « L’essai sur la nature du commerce en
général » (1755) ; 1er ouvrage où on distingue une différence entre la
rémunération des salariés et celle de l’entrepreneur. Les salariés ont des
gages certains alors que les entrepreneurs ont des gages incertains.
L’idée centrale est que ce qui caractérise l’entrepreneur est qu’il prend
des risques (et fait des projets). L’entrepreneur achète des heures de
travail, des matières premières à un prix certain mais il va vendre ses
produits à un prix incertain. S’il réussit son coup, il va avoir + qu’un profit
normal et inversement.
Association de rationalité de l’entrepreneur avec la prise de risques
constitue le 2ème fondement des réflexions classiques. Smith définit
l’entrepreneur comme un « projector », c’est-à-dire un faiseur de projets.
C’est celui qui sort du circuit de production.

II. Psychologie et économie à la fin du 19ème siècle


On prend l’utilité comme fondement de la théorie de la valeur et des prix.
On se réintéresse à la psychologie économique. L’explication des prix
d’équilibre passe par une référence à l’utilité.
2ème considération : on s’intéresse à l’utilité afin de comprendre la loi de
l’offre et de la demande. Il faut justifier le fait que la courbe de la
demande est une certaine allure : on invoque alors le principe de l’utilité
marginale décroissante.

ARationalité et utilité marginale décroissante : Loi de Weber –


Fechner

Dernier 1/3 du 19ème siècle : passage d’une économie classique à une


économie marginaliste.
1870 : économie marginaliste (Walras, Jevons, Menger) introduit le
raisonnement à la marge.
Principe d’utilité marginale = on considère que l’utilité de la dernière unité
consommée tend à diminuer. De même, la productivité des facteurs de
production décroît. Cette idée a été critiqué par Max Weber qui considère
que certains biens sont tout le temps consommés. Ce principe est
nécessaire pour utiliser le principe de l’offre et de la demande car la
demande doit nécessairement diminuer pour qu’il y ait un équilibre entre
les 2 courbes.
Weber et Fechner, ces 2 économistes psychophysiologiques énoncent :
« la sensation est une fonction logarithmique du stimulus.»
Loi de Weber – Fechner = + l’intensité d’une stimulation est élevée, +
l’utilité totale tend à augmenter et + l’utilité marginale tend à diminuer.

A. Vilfredo Pareto : ophélimité, préférences révélées et


optimum

Comment se débarrasser du calcul des peines et des plaisirs de Bentham ?


La réponse se trouve avec le successeur de Walras, de l’école de Louisane,
Vilfredo Pareto.
Il va détourner ce principe des calculs des peines et des plaisirs en la
tournant vers la révélation des préférences des individus. Il propose un
système où on classe les préférences. Ce qui l’intéresse est la manière
d’ordonner : l’utilité cardinale et l’utilité ordinale.
Les consommateurs comptent avec l’unité de compte, « l’util ».
Les individus sont capables d’ordonner leurs préférences.
A partir de ce raisonnement, Pareto va construire les courbes
d’indifférence.
2 cas possibles :
• Les 2 individus sont au moins au niveau de satisfaction
d’indifférence qu’ils ont choisi.
• Chacun peut même avoir + de satisfaction.
α 2
A

1 β
Au point de tangence, A, si j’augmente la satisfaction de l’individu 1, je
fais reculer celle de l’individu 2.
Une situation de Pareto Optimalité est le point auquel on ne peut pas
augmenter la satisfaction d’un individu sans qu’on diminue au moins la
satisfaction d’au moins un individu. On est passé d’une définition de
l’utilité, de la rationalité d’un individu (Bentham) à une comparaison d’une
mise en ordre des préférences (cardinale/ordinale), puis à une
comparaison de 2 éco-échangistes des courbes d’indifférence ; puis d’une
généralisation du raisonnement à une société ou un groupe social.
Raisonnement d’une psychologie pour un individu à un raisonnement
d’une analyse de la société tout entière.
Comment passe t-on d’un individu à une généralité ?
Boîte de Pareto consiste à considérer un point de bien être dans la société
où l’ensemble des individus est à un niveau de satisfaction tel que quand
on augmente la satisfaction de l’un, on diminue obligatoirement la
satisfaction d’au moins un individu.

III Psychologie individuelle et psychologie collective : les leçons


de l’institutionnalisme
A. Thorstein Veblen et la critique de l’hypothèse de rationalité
individuelle

Passage d’un raisonnement « individuel » à un raisonnement « collectif »


opéré par Pareto reste une généralisation.
1904-1930 : courant américain procède au même passage en critiquant le
fait de partir d’un individu.
L’institutionnalisme américain avec Veblen, John R. Commons et Wesley C.
Mitchell : ces 3 auteurs affirment que la théorie économique ne doit pas
s’appuyer sur la psychologie de l’individu mais partir des institutions.
D’après Veblen, les institutions sont des habitudes de pensées communes
que l’on peut identifier dans le temps et dans l’espace.
Ces habitudes sont créées dans un environnement et dans une époque
donnés.
La rationalité de ces individus dépend de ces institutions. On ne peut pas
raisonner comme si les individus ont une rationalité propre.
La préférence des agents va être influencée par toute une série
d’évènements.
Ce comportement est déterminé par des habitudes provenant des
institutions (famille, religion, rue, etc …)
A partir de là, Veblen travaille sur les phénomènes de mode et de
consommation : band – wagon effect.
Commons travaille sur le droit, la manière de penser pour réguler les
marchés et aussi sur la monnaie.
Mitchell va travailler sur la monnaie, l’inflation et les problèmes sur les
marchés financiers. Il va donc s’intéresser sur les cycles économiques.
2ème référence : Veblen met l’accent sur le fait que l’économie est
« enchâssée » (= enbedded) ou « encastrée » dans une série de
comportements qui n’ont rien à voir avec l’économie :
• instincts dans les sociétés humaines : 2 types
→ de domination et de prédation qui expliquent la concurrence entre
firmes
→ de « parental bent »
→ de “idle curiosity” = curiosité abstraite
→ de « workmanship »= goût du travail bien fait
• Instincts = institutions ; il n’y a pas de rationalité économique

A. L’école française : Gabriel Tarde, Albert Aftalion, François


Simiand

Ce sont des auteurs qui travaillent sur les réseaux d’informations, sur les
problèmes de mimétisme qui prennent comme objet la monnaie et les
cycles économiques.
2 concepts centraux :
• L’imitation
• La conversation = ce sont les échanges qui font que les choix de
consommation et de production sont influencés par des discussions
entre agents.

IV Risque et Incertitude
A. Risque, incertitude et profit : les distinctions de Frank Knight

Frank Knight (1885-1972) : Treatise on probabilities


John Maynard Keynes (1983-1946) : Risk, uncertainly and profit
1921 : ces 2 auteurs publient chacun un ouvrage dont la caractéristique
commune est de mettre l’accent sur le risque et l’incertitude.
Là où la notion de risque apparaît c’est dans l’ouvrage de Knight où le
risque est une incertitude mesurable et une incertitude non mesurable.

La microéconomie est marquée par l’idée d’incertitude : le futur n’est pas


certain (18-19ème siècle)
Au 20ème siècle, on énonce que « la cause ne produit pas nécessairement
un effet. »
Cette incertitude marque les comportements. Elle va être directement liée
aux phénomènes de confiance.
On oppose le risque avec l’incertitude : opposition entre 2 incertitudes.
• Incertitude probabilisable = risque
• Incertitude non probabilisable = incertitude
Les 2 notions sont rapportées à la notion de profit. De même, la définition
de l’entrepreneur et celle du profit ont été liées en disant que
l’entrepreneur était un preneur de risque. Le profit vient rémunérer la
gestion par l’entrepreneur du risque/incertitude probabilisable.
Etre entrepreneur = c’est penser toute une organisation de la firme qui
permet de se prémunir contre les risques.

B. John Maynard Keynes : comportement rationnel, incertitude,


conventions

Cela permet d’introduire 2 notions :


• L’anticipation = la dimension temporelle qui n’existait pas avant
• La probabilité va se différencier entre 2 probabilités (ouvrage de
Keynes)
→ la probabilité objective = probabilité fréquentiste (1)
→ la probabilité subjective (2)
(1) fréquentiste = dépend de la fréquence dans le passé. Keynes dit
que ce n’est pas un argument. On ne peut pas attribuer une valeur
future à partir d’un événement passé.
• 1er argument : probabilité non probabilisable
(2) approche subjective en fonction de la croyance des individus. Il
n’y a aucun lien objectif. C’est tout ce qui concerne la superstition,
ce qui est irrationnel.
Keynes va, d’une part, dire qu’à court terme, la probabilité numérique ne
peut qu’être objective et qu’à long terme, il n’y a que de l’incertitude : « à
long terme, on sera tous morts. » Il pense que les agents vont en partie
déterminer leur comportement à partir de leur croyance. L’agent va se
comporter comme s’il croyait que le phénomène allait se passer.
Freud a été le 1er à parler de prophéties auto-réalisatrices. Mais celui qui
introduit cette notion dans le domaine social est Karl Popper : prophéties
auto-réalisatrices = self – fulfilling propheties = « effet Œdipe »
A partir de cette notion, Keynes s’intéresse sur la manière dont les agents
se comportent sur un marché financier. Il considère que les agents se
comportent comme dans les concours de beauté, c’est-à-dire que les
agents doivent deviner les gagnants du concours en prenant en compte
l’opinion commune. Les agents doivent se mettre à la place de l’opinion
commune pour savoir qui sera le gagnant du concours.
Keynes va alors comparer ce concours à l’idée de spéculer en Bourse.
C’est l’idée de base de l’incertitude, de la Théorie des conventions et de la
Théorie des coordinations économiques des agents (consommation,
épargne).
Cet apologue du concours de beauté a un lien avec le comportement des
agents sur le marché financier et précisément avec le principe de la
Bourse.
Keynes dit qu’on va comparer le rendement escompté d’un investissement
qui tient de la probabilité objective ou subjective ou croyance avec le taux
d’intérêt du marché. Il s’agit d’anticiper en fonction de ce qu’on pense être
les croyances des autres.
• Keynes reprend l’idée de la notion d’incertitude.
• Pour des phénomènes non naturels (économiques, sociaux), les
anticipations prennent nécessairement en compte les anticipations
propres de l’agent et celles des autres agents.

B. Incertitude et innovation : l’entrepreneur schumpeterien

Autour de cette idée d’entrepreneur, est apparue la notion d’incertitude.


• 1er concept : Joseph Aloys Schumpeter reprend au début du
20ème siècle, la définition de l’entrepreneur en le définissant
comme un preneur de risques et va en faire le moteur d’une
théorie de la dynamique économique.
• 2ème concept : la dynamique et la statique ; on revient aux 2
notions de risque et incertitude.
On théorise la dynamique pour parler de cycles et de crises. Schumpeter
va faire de l’entrepreneur le personnage central qui va être à l’initiative de
cycles économiques.
L’entrepreneur prend un risque sur une invention et la transforme en
innovation, c’est-à-dire qu’une entrepreneur donné prend l’initiative de
transformer l’invention en innovation.
Il faut bien faire la distinction entre une invention et une innovation car
une invention ne devient pas forcément une innovation.
Exemples d’inventions devenues innovations :
• création d’un nouveau marché
• utilisation de nouvelles matières premières

Le passage d’invention à innovation est une prise de risque, selon


Schumpeter qui permet de théoriser la dynamique économique.
L’entrepreneur ne répond pas mais crée une nouvelle demande.
L’innovation va éduquer le consommateur et révéler une nouvelle
demande.
Le profit de l’innovation, permettant la dynamique, va être partagé par
l’entrepreneur et le banquier et, dans un 2nd temps, en grappes
d’innovation.
Une partie de la théorie de la dynamique vient de la prise de risque/ de la
notion d’innovation.

Chapitre II : Rationalité limitée et incertitude


I. La rationalité limitée
A. La critique du modèle microéconomique traditionnel et
les définitions de Herbert A. Simon

La théorie de la rationalité limitée vient d’un auteur Herbert A. Simon,


spécialiste des sciences cognitives c’est-à-dire sur la manière des
personnes de voir le monde.
Simon réfléchit sur la rationalité comme étant une standardisation, une
« économie standard » qui est le modèle économique de base. Dans cette
économie, les individus sont rationnels, de même si on est en concurrence
pure et parfaite.
Dans cette approche standard, il n’y pas d’autres limites à la rationalité
que celles présentes dans la notion d’incertitude et dans les limités
extérieures du marché. Les limites de la rationalité ne viennent pas des
individus eux-mêmes.
Simon va substituer une théorie de la rationalité limitée. Cela montre que
les agents ne sont pas parfaitement rationnels, qu’ils ont des limites à
leurs rationalités parce que les individus sont saturés d’information, ils
n’arrivent + à traiter les informations et parce qu’ils n’ont pas le temps.
Simon va opposer 2 types de rationalité :
• Rationalité standard = rationalité substantive ou parfaite
• Rationalité limitée = rationalité procédurale tient aux limites
internes et externes qui grèvent les comportements des agents.
Ces 2 types de rationalité font que la procédure s’arrête à un moment
donné.

Dans cette approche standard, les limites de la rationalité viennent de


l’extérieur et donc relèvent d’une explication exogène.
A partir de ces travaux, on va prendre en compte 3 limites, déjà évoquées
par Knight.
• Capacité limitée à absorber, interpréter et traiter l’information
• Lorsque les agents n’utilisent pas très régulièrement l’usage d’une
information, l’agent l’oublie
• Contrainte de temps dans le choix de décisions.

1er type de limite : la rationalité parfaite ou substantive


Simon parle d’abord de la rationalité parfaite, traitée avec James March.
La rationalité limitée porte sur une double contrainte concernant les
caractéristiques de l’environnement :
• L’information n’est jamais parfaite
• Les ressources d’un individu ne sont pas illimitées
2 ème
type de limite : la rationalité procédurale ou limitée :
Les agents ne connaissent pas parfaitement leurs préférences, ils ne
parviennent pas toujours à classer leurs préférences et à toujours
considérer leurs préférences comme stables. La rationalité procédurale,
selon Simon, est l’idée que les préférences des agents sont endogènes à
l’action. Il considère que c’est au moment même de l’action que les
préférences vont être modifiées (classement, instabilité).

B. La typologie de James March

March a développé les théories de Simon. Il va proposer une typologie des


choix rationnels dans un ouvrage appelé : « Décisions et organisations »
March propose 4 modèles de rationalité contrôlée (= action logique
consciente) et 3 modèles de rationalité systémique ou collective.

4 modèles de rationalité contrôlée :


• 1er modèle : rationalité limitée au sens de Simon avec 3 limites
(1ère limite : la capacité à recueillir et ordonner les informations =
capacité cognitive et temporelle de l’agent ; 2ème limite : liée à la
faculté de calcul renvoyant à la complexité selon la situation de
choix des agents et traduite par 2 types de coûts, les coûts
entraînées par les décisions des agents et les gains attendus et la
3ème limite : le temps = ressource rare dans une prise de décisions
économiques)
• 2ème modèle : rationalité contextuelle = traduit la façon dont un
comportement de choix est mêlé ou entremêlé à d’autres
préoccupations de l’agent. Il ne peut pas dissocier son choix
économique avec un ensemble de relations sociales et
commutatives qui viennent bousculer son choix. March met l’accent
sur le fait que le contexte influence le choix des agents et que le
comportement de choix est encastré dans d’autres préoccupations
de l’agent.
• 3ème modèle : rationalité de jeux = il s’agit de la théorie des
jeux ; cela illustre le fait que les agents soient en interaction. Les
décisions d’un individu intègre les réactions escomptées ou
anticipées des autres agents. March met l’accent sur les coalitions
et sur la dimension séquentielle d’une coalition. Supposons 3
entreprise A, B et C concurrentes les 1 des autres : A et C peuvent
s’allier (coalition) pour battre l’entreprise B dans un premier temps ;
ensuite A et B peuvent faire une coalition pour concurrencer C et
ainsi de suite ; d’où la notion de dimension séquentielle qui est le
nombre de coalitions possibles.
• 4ème modèle : rationalité de processus = décisions prennent leur
sens dans certains aspects du processus au lieu du résultat.

3 modèles de rationalité systémique : elle ne vient pas du


comportement de l’individu ; il ne s’agit pas du comportement
conscient de l’individu ;
• 1er modèle : rationalité adaptative = apprentissage
expérimentale des individus et des collectivités
• 2ème modèle : rationalité sélectionnée/ de sélection = désigne le
fait que dans une approche darwinienne, il y a sélection de
certains comportements sur d’autres. Il y a sélection des
« routines » = façon de faire, de se comporter, de sélectionner
par adaptation à l’environnement ; on parle d’économie
évolutionniste = sélection de phénotypes et de génotypes
(comportements génétiques) transposés à l’économie.
Exemple : comment les firmes s’adaptent aux mutations
économiques ?
• 3ème modèle : rationalité a posteriori = idée que
l’interprétation de l’action se fait après et non avant.
Albert Hirschman, dans son ouvrage Exit, Voice and Loyalty, montre
que le processus qui amène l’agent à sortir de la firme et le processus qui
amène l’agent à donner de la voix font que la rationalité de l’action ne se
fait qu’a posteriori. C’est la structure même qui fait sortir un individu du
système.
C. Rationalité limitée et comportement opportuniste

Dans un cadre de rationalité limitée, il y a plusieurs séquences analytiques


qui ne se déroulent pas de la même manière. S’il y rationalité limitée et
que les agents sont irrationnels, on parle d’opportunisme selon Oliver E.
Opportunisme = agent manipulant l’information sans scrupule et pour
arriver à ses fins. Il décrit le fait que les agents ont une capacité limitée à
comprendre et maîtriser l’information, donc une partie de l’information ne
peut pas être traitée, elle est inaccessible. D’où, il existe de la place pour
une manipulation de cette information. C’est ce que Williamson appelle
l’opportunisme.
Cela correspond à 2 situations :
• 1ère situation : dans laquelle les agents sont guidés par leur
intérêt individuel.
• 2ème situation : un agent peut manipuler l’information ou la
communication d’informations, grâce à la rationalité limitée, pour
son propre profit.

L’opportunisme repose sur une révélation incomplète, déformée ou


falsifiée de l’information par un agent.

2 types d’opportunités :
• 1ère opportunité : opportunité ex ante (avant) = manipulation
(mauvaise information) de l’information avant passation/signature
d’un contrat. Elle pose un problème de « sélection adverse ».
• 2ème opportunité : opportunité ex post = manipulation après
passation du contrat, après que la déformation d’information se
produit. Elle crée un type de modèle : le « risque moral ».

« Sélection adverse » = opposé à la sélection ; avant la passation du


contrat, les biens sélectionnés vont être des biens de mauvaise qualité,
donc ce seront des biens contraires à ce qu’on voudrait.
« Risque moral » = moralement, l’agent ne fera pas ce qu’il devrait. Après
passation du contrat, par exemple de type embauche, il y a engagement
moral de l’agent. Le risque moral consiste à dire que j’ai (l’agent) fait mon
boulot sans l’avoir fait.
Les 2 formes d’opportunisme ont pour effet d’accroître les coûts de
transaction, de négociation et de supervision du contrat. Ces coûts font
partis d’une catégorie large des coûts de transaction, liés à toute
transaction sur un marché.
+ il y a d’opportunisme, + les coûts liées à la transaction seront élevés.
Il existe une garantie contre le risque que le bien soit endommagé : c’est
le coût de transaction.
La rationalité limitée de Simon entraîne une manipulation de l’information
(opportunisme) qui entraîne des coûts de transaction.

D. Rationalité limitée et coordination des décisions


A partir du moment où on est dans une rationalité limitée (dans
l’opportunisme), la manière de gérer ses risques est d’adapter une gestion
collective de ces risques.
« Learning by doing » par Kenneth Arrow est une procédure d’acquisition
et de savoir-faire. Un groupe d’individus peut apprendre beaucoup +
d’informations que si un individu seul apprend. D’où il existe des
structures collectives qui peuvent fournir les informations manquantes ou
mauvaises.
Ce sont les « routines » = séquences d’activité qui font qu’il y ait dans une
collectivité des réponses quasi automatiques à des question. Elles
permettent de gérer des problèmes sur lesquels les individus n’auraient
pas les réponses.
Processus collectif « routinisé » permet de gérer des situations dans un
cadre de rationalité limitée.

II Contrats et conventions

Théories des contrats et des conventions constituent 2 branches


relativement récentes de la microéconomie concernant la firme.
Théories des contrats relèvent de ce qui se passe dans les contrats avec
des asymétries d’information et en rationalité limitée des agents.
Théories des conventions s’intéressent à la manière dont les agents se
coordonnent de manière formelle. Le mode de coordination n’est pas
nécessairement formalisé.

A. La définition des conventions : John Maynard Keynes et


David Lewis

Théorie des conventions est récente ; elle est née il y a 12 ans, animée par
des auteurs français. Elle reprend la définition de l’apologue du concours
de beauté de Keynes.
Notion de convention est opposée à celle du contrat qui est une relation
bilatérale entre 2 individus, alors que la convention implique un grand
nombre d’agents, voire d’une société tout entière, qui peut soit résulter
d’un règle écrite (=contrat) ; soit résulter des croyances des individus et
notamment de ce qu’on appelle de prophéties auto réalisatrices.

2 définitions formelles permettent de définir les conventions :


• 1ère définition d’un philosophe David Hume au 18ème siècle : Apologue
des rameurs ; pour ne pas que le canoë kayak coule, il doit y avoir
coordination des rameurs. Les rameurs finissent par ramer sans se
concerter et sans avoir passé de contrat explicite sur les conditions
de cette coordination. Cet accord implicite entre les rameurs est ce
que Hume appelle une convention.
• 2ème définition de D.K. Lewis, études à Princeton et travaille avec
Thomas Schelling qui s’intéresse à la coordination implicite sans
règles explicites. Lewis s’intéresse alors à ces coordinations et
surtout à la notion de « common knowledge » = savoir commun que
les agents suivent parce que les autres agents le suivent. D’après
Lewis, les règles qui existent sont contraignantes, sans genèse
intentionnelle et sans sanction officielle. D’où : « une régularité de
l’action ou croyance est une convention au sein d’un groupe placé
dans une situation récurrente si et seulement si à l’intérieur de ce
groupe, les 6 conditions sont vérifiées ou presque vérifiées :
• tout le monde ou presque se conforme à R (= convention)
• tout le monde anticipe que les autres vont se conformer à R
• cette croyance donne à chacun une raison bonne et décisive à se
conformer à R.
• préférence générale pour une conformité générale à R plutôt que
pour une conformité légèrement moindre que générale.
• R n’est pas la seule conformité existante qui satisfasse aux 2
dernières conditions. Il existe au moins une régularité qui satisfasse
à ces mêmes conditions : convention arbitraire.
• Faits énumérés dans les conditions 1 à 5 sont des faits « common
knowledge ».

B. 2 domaines d’application de la notion de convention : les


systèmes financiers et les relations de travail

Système financier = système dans lequel le risque de défiance généralisée


introduit un risque de système.
Défiance est un phénomène caractéristique des marchés financiers.
Si tous les acteurs du marché décident de se retirer, le marché fait faillite.
Pour éviter ce risque, il y a mise en place d’une coordination c’est-à-dire
de procédures non marchandes (exemples : règles administratives ;
Commission des Opérations Boursières devenue Autorité Monétaire
Financière.
Toutes les fonctions de l’AMF ont pour rôle d’établir des conventions afin
de rassurer les agents. Conventions ont pour intérêt de faire marcher les
marchés financiers.
André Orlian : fonction du marché financier = fonction où chaque agent
raisonne pour leur propre intérêt et en prenant en compte les anticipations
des autres agents. Fonction conventionnelle dans les marchés financiers
que Orlian appelle : mimétisme.
Robert Salais : marché du travail avec les conventions de la productivité et
celles du chômage
Ces conventions vont avoir pour fonction de réguler/coordonner les
relations du travail (employeur – salarié)

Robert Salais définit la convention de la productivité et celle du chômage.


Dans un contrat de travail, lorsqu’un employeur embauche un salarié, il y
a 2 grands en enjeux qui vont tenir lieu de conventions :
• le salarié accepte de faire des efforts en échange d’un salaire +
élevé que celui offert sur le marché du travail. L’effort se fait donc
du côté du salarié.
• L’effort se fait du côté de l’employeur. Le salaire est moins élevé
que celui du marché du travail mais le salarié est garanti de ne pas
se faire licencier.

Chapitre III : Information, choix individuels et communication


I. Information et formation des prix

Question du statut de l’information dans la théorie économique.

A. Information et prix : le modèle de Friedrich von Hayek

Modèle qui a déclenché cette question : « French disease » de Friedrich


von Hayek
Le « French disease » est la conception de base de l’équilibre économique
générale.
Lorsque les marchés sont en interaction, la demande en excès sur un
marché va se reporter sur un autre marché.
Alors qu’en équilibre partiel, il n’existe pas d’interaction entre les
marchés.
L’équilibre économique générale suppose que l’information est parfaite et
donnée par un commissaire priseur.
Comment se fait la coordination des marchés ?
Démonstration de coordination :
• Existence d’un équilibre
• Existence d’unicité
• Existence de stabilité

Friedrich von Hayek s’intéresse en 1945 à l’équilibre générale.

Qu’est-ce que cherche l’économie générale ?


• Solution abstraite : si l’information est parfaite et la préférence
des agents est donnée, quelle est la meilleure utilisation possible
des moyens rares disponibles ?
• Solution réaliste : si l’information n’est jamais parfaite et la
préférence des agents n’est jamais donnée, comment utiliser
l’information disponible ?

On a 3 « programmes de recherche » selon Imre Lakatos.


• 1er programme de recherche : Hayek emprunte son modèle à la
biologie et oppose un modèle + réaliste, + empirique qui suppose
que l’information est imparfaite et que le système des prix a pour
fonction première de fournir des informations. C’est l’économie de
marché ou d’informations.
Economie de marché = économie de rareté où l’information est
imparfaite. L’objet de la théorie économique est de savoir comment les
agents se coordonnent non pas éclairés par un crieur de prix mais par des
mécanismes d’apprentissage en révisant les projets. Le système des prix
résulte de cette coordination.
L’information est fragmentaire selon Hayek, donc les agents vont essayer
de se coordonner et d’établir des plans.
Economie d’informations = économie de rareté développée par
Machlup et Stigler en 1945.
• 2ème programme : qui est le mieux placé pour diffuser
l’information ? le système centralisé ou décentralisé ? Est-ce qu’on
peut penser à un prix d’équilibre avec un système centralisé ?
• 3ème programme : relation entre l’information et la formation des
prix. Comment et quel est le rôle de l’information dans la formation
des prix ?

L’information imparfaite est-elle une condition nécessaire pour fixer le


niveau des prix ?
Hayek prend par au débat sur la théorie de l’information et des prix et cela
lui fait prendre conscience que l’enjeu central est l’information du marché.
Il oppose le système mécanique de « french disease » avec le système
fondé sur des agents qui essayent de se coordonner.
4 grandes questions primordiales dans l’article de Hayek :
• les agents élaborent des plans (ils veulent épargner, consommer)
mais comment l’information leur est communiqués ?
question du calcul socialiste : qui est le mieux placé pour traiter cette
information ? un système centralisé ou le marché ; une autorité centrale
ou des agents décentralisés et autonomes ; ou encore un système de
plans ou un système de marché ?
En d’autres termes, est-ce que les mieux placés pour traiter l’information
sont : une autorité centrale, des agents décentralisés et autonomes ou
une organisation intermédiaire entre le plan et le marché ?
• mécanisme des prix n’est que l’un des mécanismes qui permet de
traiter l’information. Est-ce que c’est le mieux, le + efficient, le +
coûteux ou pas ?
• Calcul économique : est-il possible dans un système où les prix ne
sont pas des vecteurs d’information ?

Sur la base de cet article, on se questionne sur l’information. Un certain


nombre de travaux vont développer la comparaison entre la coordination
et l’information.
En fonction de l’information, les agents coordonnent leurs actions. La
coordination dépend donc de l’information. Dans ces informations, 3 types
de signaux engageant de l’information.

B. Nature des informations : Informations prix, informations


quantités, informations qualité

• 1ère série : système de prix est d’abord un système


d’information. Prix = taux marginal de substitution = taux
de substitution à la marge = taux auquel chaque individu est
prêt à donner x quantité d’un bien A contre y quantités d’un
bien B. TMS = indicateur quantitatif exprimant les contraintes
subies par un agent quand il veut faire varier les quantités
d’un bien. Il constitue un vecteur prix donnant les différentes
informations dont les agents ont besoin pour faire leur choix.
TMS = permet aux agents de prévoir les quantités à vendre et
à acheter, donc il permet aux agents de se coordonner. Le prix
donne une information sur les quantités disponibles et sur la
demande potentielle des consommateurs. Prix joue un rôle de
coordination entre les agents. C’est un signal d’information sur
les quantités disponibles et sur l’état des agents.
• 2ème série : information quantitative/qualitative : c’est la
catégorie montrant que les prix ne sont pas les seuls vecteurs
d’information dans un système de marché. Il existe d’autres
signaux sur la quantité/qualité comme les variations de stocks
qui permettent de déterminer l’offre disponible et renseigne le
producteur sur la demande finale ; de même la quantité
d’éducation = diplôme = indicateur utilisé par les
employeurs pour identifier les candidats potentiels ; la
quantité d’assurance = montant de prime d’assurance qu’un
assuré est prêt à payer. Si on est un assuré possible à haut
risque, on sera prêt à payer une prime élevée. La quantité de
la prime d’assurance donne une indication sur la qualité de
l’assuré. Dernier exemple : l’information qualité, notion décrite
par K. Lancaster dans « A NEW THEORY OF CONSUMER
BEHAVIOR » (1972). Cet auteur est le 1er à faire une théorie de
la qualité des biens bouleversant la théorie des
consommateurs. Selon lui, la qualité recouvre des
caractéristiques différentes. Ces caractéristiques peuvent
s’appliquer à plusieurs produits. Lancaster dit que la demande
d’un bien consiste à demander des caractéristiques. On
demande un faisceau de caractéristiques.
De là, 2 définitions différentes de la notion de qualité :
• 1ère définition : une + grande quantité d’une
caractéristique
• 2ème définition : un + grand nombre de caractéristiques
Ces 2 définitions de la qualité vont permettre d’ouvrir un champ de
réflexion sur les prix et la qualité. Ces réflexions vont partir de la théorie
de l’auteur Harvey Leibenstein : Economic backwardness (= retard) and
economic growth (1957). Leibenstein constate que quand il étudie les pays
sous développés, la théorie selon laquelle le salaire d’équilibre est défini
par la productivité marginale du travail (PML) ne marche pas.

Rappel : PML < salaire = entrepreneur n’embauche pas ; ce qui


détermine le salaire c’est le dernier travailleur que l’entreprise a
embauché.

Cette causalité entre le salaire et la PML ne marche pas dans les pays sous
développés parce que ce n’est pas l’effort additionnel qui détermine le
salaire mais c’est le salaire qui détermine la productivité des individus et
donc la productivité marginale. A partir de cette théorie de Leibenstein, on
met en œuvre la théorie du salaire d’efficience. L’idée est que cette
inversion (productivité entraîne salaire) peut s’appliquer à nos théories
salariales, c’est-à-dire dans les pays développés.
1er exemple : Le salaire élevé peut diminuer l’absentéisme et peut
diminuer le « turn over » (changement de boulot), etc… Un salarié qui a le
sentiment d’être bien payé va fournir un effort + grand de travail.
Donc un accroissement de productivité induite par un accroissement du
salaire fait + que compenser la hausse du coût produit par la hausse des
salaires.
George Akerlof : (1982) modèle du « Labor Contrat as Partial Gift
Exchange »
Selon Akerlof, la théorie du contrat de travail n’est pas seulement un
contrat marchand mais aussi un échange de dons.
Marcel Mauss, dans son « Essai sur le don », définit le don comme une
triple obligation qui est de donner, recevoir et rendre ; donc le don est +
complexe que l’échange marchand. Le contrat de travail est en parti un
échange Maussien, c’est-à-dire que même dans les sociétés modernes, la
relation entre la productivité et le salaire marche.
2ème exemple de relation inverse : quand une banque augmente son taux
d’intérêt, elle n’augmente pas nécessairement la qualité de ses clients.
Quand une banque augmente le taux d’intérêt, elle n’augmente pas
nécessairement sa profitabilité parce que cette augmentation de taux
d’intérêt est acceptée par les firmes qui sont prêtes à prendre des risques.

C. L’acquisition de l’information : la théorie de l’apprentissage

On s’intéresse ici à la théorie économique sur la recherche de


l’information.
Théorie se développe en 3 temps :
• 1er étape : le raisonnement d’Hayek se rapproche de celui de l’école
de Chicago. Stigler, dans « The Economies of Information » (1961)
(auteur qui appartient à l’école de Chicago) montre que l’information
est un bien rare, donc un bien imparfait et qui coûte très cher à
produire. La production de l’information fait l’objet de recherche du
côté du producteur et du côté du consommateur.
• 2ème étape : Kenneth Arrow fait une théorie sur l’apprentissage. Si
l’information est une recherche, il faut acquérir cette information par
l’apprentissage (1962 : « The Economic Implication of Learning by
Doing ». Arrow nous montre que l’apprentissage permet de diminuer
les asymétries d’informations et aussi le coût d’acquisition de
l’information. L’apprentissage a un lien direct avec la réputation
d’une firme. La réputation est l’ensemble de biens immatériels
appartenant au capital d’une firme et qui font que les clients vont
être fidélisés et vont avoir confiance en la firme.
Exemple : si je vends un bien avec une publicité complètement fausse,
la réputation de la firme va diminuer. S’il y a un effet d’apprentissage
de fiabilité de la firme, les clients vont être fidèles.

L’information et la réputation ont un lien direct avec la qualité.


• 3ème étape : relation entre les informations passées et reçues par
un agent et les anticipations que les agents vont pouvoir faire =
anticipations adaptatives.

II Information et coordination
A. Théorie mathématique de la communication : le modèle de
Shannon et Weaver

Modèle mathématique de coordination et de circulation n’est pas du tout


limitée à la théorie économique.
Mathematical Theory of Communication (1949) : idée est que toute
coordination entre individus suppose un traitement qui synthétise un
certain nombre d’informations, les transforme en données, les code, les
transmet pour utilisation.
Présentation mathématique de l’information.
1968 : Jacob.Marschak, traite dans son article de l’« Economie de
l’enquête, de la communication et de la décision », paru dans l’American
Economic Revue.
Schéma : appliquer la théorie de Shannon et Weaver dans la circulation de
l’économie.
Il faut d’abord une fonction objective. Ensuite s’intéresser aux évènements
qui vont servir de base. Il va falloir faire une recherche sur ces
évènements. Cette recherche va nous procurer des données.
A partir des données, on choisit les + intéressantes. On code les données.
Ce codage va donner des signaux. Ces signaux vont pouvoir transmettre
des informations. Décodage des informations. Message est perçu, ce qui
entraîne une prise de décision à partir des données. A partir de cette
décision, une action est réalisée, qui se situe au même niveau que
l’événement. Action devrait alors conforter la fonction objective, c’est-à-
dire aller dans le même sens que le but recherché au départ (fonction
objective).
Au milieu de ce schéma, il y a les coûts correspondant aux étapes du
schéma (recherche, codage, transmission, décodage, décision). Il y a de
plus, des variables : événement, données, signaux, message perçu, action.
Transformation des opérations avec bruitage, ce qui perturbe la
transmission des signaux.
Transformation des opérations sans bruitage.

Fonction objective

Evénement action
↓ ↑
Recherche coût décision
↓ ↑
Données message perçu
↓ ↑
Codage → signaux → transmission → signaux → décodage
Jacob Maschark utilise toujours ce modèle dans la circulation des
informations dans la firme.
A quoi sert ce schéma dans la firme ?
• 1ère fonction : de circulation de l’information
• 2ème fonction : de représentation de la firme : produire un langage
commun à tous les représentants de la firme afin qu’ils agissent
conformément à la fonction objective. Construction d’une
représentation commune.
• 3ème fonction : d’apprentissage : quand les opérations de
transmission sont acquises, elles entraînent des coûts beaucoup
moins grand, qui induisent une réduction des coûts de
transmission par apprentissage.

Mercredi 09 Mars 2005


Chapitre IV : Informations, incitations et performances

L’idée est que les agents n’obéissent pas toujours à la seule logique
monétaire ou marchande. La motivation des agents ne tient pas
seulement aux gains monétaires.
L’information n’est pas parfaite : elle est coûteuse à obtenir en temps et
en argent.
La coordination entre agents suppose une motivation de ces agents. Cette
motivation peut être modifiée.
Distinction entre la notion de motivation et d’incitation :
Motivation = ce qui explique le comportement des agents
Incitation = désigne l’ensemble des mécanismes destiné à modifier le
comportement des agents.
Dans le cadre de la microéconomie standard, dans le cadre de la seule
économie de marché (en concurrence pure et parfaite), la motivation et
l’incitation se confondent.

Section 1 : Asymétries d’informations

A partir du moment où l’information est imparfaite, à partir du moment où


on est en asymétries d’informations, on a un « espace » pour une
manipulation d’informations, par un agent, pour son propre profit.
Cette idée a été théorisée par :
• une relation d’agence
• et une relation principal-agent

Cette théorisation a été développée au début des années 70 par des


auteurs tels que Arrow, Fama (avec sa théorie de la finance), Ross, Jensen.

1ère définition de la relation d’agence :


Lorsqu’un agent, appelé « mandat « ou principal, délègue tout ou une
partie de son pouvoir de décision à un autre agent, appelé mandataire.
(Jensen et Meckling en 1976)
Exemples : prêteur → emprunteur ; employeur → employé.
Cette théorie s’organise autour de 2 grandes questions :
• 1ère question : comment mettre en place un système d’incitation (qui
influence les agents) qui conduise les agents à se comporter comme
s’ils maximisaient la fonction d’utilité du principal ? comme s’ils
étaient à la place du principal ?
• 2ème question : comment mettre en place un système qui reproduise
les conditions d’un marché parfait lorsqu’on est en situation
d’asymétries d’informations ? Comment inventer un système, même
si l’information est imparfaite, pour que l’information soit considérée
comme si elle était parfaite ?

1. Relation d’agence

Cette relation d’agence va se déchirer en 2 question théoriques


différentes :
• 1ère : la sélection adverse
• 2ème : le risque moral

La sélection adverse désigne les situations d’agence dans lesquelles


l’asymétrie d’informations porte sur une variable exogène du contrat,
c’est-à-dire une variable qui ne résulte pas d’un choix de la part de
l’agent.
Il y a donc un seul paramètre : la variable exogène.
On dispose dans ce cas d’un avantage informationnel sur le principal.

Le risque moral (ou hasard moral ou encore aléa moral) désigne les
situations d’agence dans lesquelles l’asymétrie d’informations porte sur le
comportement ou action des agents.
On peut manipuler une information.
A chaque fois, on va disposer d’un avantage informationnel sur une
action/comportement.
Conséquences théoriques et analytiques ne sont pas les mêmes dans les 2
cas de figure.

2. Sélection adverse

L’asymétrie d’informations porte sur une variable exogène. Cette sélection


adverse est liée à une hétérogénéité des biens et services (biens dont la
qualité n’est pas la même). Ce qui fait que l’information sur ces biens, qui
font l’objet d’un contrat, est incomplète parce que les biens sont
hétérogènes et asymétrique parce qu’on est dans une relation d’agence.
Un des grands auteurs qui a travaillé dessus est George Akerlof. Il a écrit
un article intitulé : « The Market for Lemons (voitures d’occasion) : Quality,
Uncertainty and the Market Mechanism » publié au QJE (Quaterty Journal
of Economics) en 1970.
Pourquoi Akerlof s’intéresse aux voitures d’occasion ? parce que sur un
marché de voitures d’occasion, la qualité du bien ne peut pas être
observée.
Donc qu’est-ce qui transmet l’information sur la qualité du bien ? c’est le
prix qui donne l’information sur la qualité de la voiture.
Qu’est-ce qui se passe si toutes les voitures d’occasion sont en mauvais
état ? les garagistes vont les vendre chères. Quand quelques voitures vont
se vendre et que les acheteurs vont se rendre compte que les voitures
sont de mauvaise qualité, le prix ne sera + fiable.
Les acheteurs ne vont + être prêts à payer chers une voiture qui ne vaut
pas son prix.
Si le vendeur avait une voiture d’occasion qui vaut son prix, les acheteurs
vont se méfier et considérer que c’est une mauvaise voiture.
C’est la sélection adverse : l’inobservation de la qualité des biens a pour
conséquence la sélection d’objets à vendre qui sont le contraire de ce
qu’on voulait au départ.
Cela se retrouve dans la loi de Gresham qui dit qu’en cas de bimétalliste
(système avec 2 monnaies), la mauvaise monnaie chasse la bonne. Alors
qu’il vaudrait mieux que les bonnes monnaies circulent, on a une sélection
adverse : ce sont les mauvaises monnaies qui circulent.
A l’équilibre, sur le marché des « lemons », seules les mauvaises voitures
s’échangent puisque le marché a chassé les bonnes voitures.
Quel va être sur ce marché la stratégie optimale pour les agents à haut
risque ? leur stratégie sera de dissimuler les caractéristiques du bien qui
fait l’objet d’un contrat.
Motivation de l’agent à haut risque est de dissimuler les caractéristiques
de ses biens.
Que peut –on faire pour que le vendeur révèle les caractéristiques réelles
du bien ?

Rappel des étapes de la sélection adverse :


• Les mauvais biens chassent les bons
• Trouver un système qui pourrait révéler les vraies qualités de bien

2 systèmes :
• Le 1er système fait appel à une instance de certification mais cela
coûte cher : cela consiste à demander l’aide d’un expert qui va
certifier si le bien est de bonne ou de mauvaise qualité.
• Le 2ème système va établir des systèmes de prix ou des contrats qui
va inciter les agents/les vendeurs à révéler eux-mêmes les
caractéristiques qu’il voudrait cacher.

Lundi 14 Mars 2005


1er développement du marché des « lemons » : marché des assurances fait
par Arrow, Rothschild et Stiglitz en 1976 dans un article au QJE intitulé :
« Equilibre sur des marchés d’assurance compétitifs et un essai sur
l’économie de l’information imparfaite » On analyse les effets d’une
asymétrie d’informations sur les marchés concurrentiels. Lorsqu’il y a
asymétrie d’informations, l’équilibre sélectionné est à l’inverse/l’opposé de
l’équilibre qui aurait du être sélectionné.
Situation dans laquelle l’assureur ne connaît pas les caractéristiques
objectifs des biens qu’il achète.
Asymétrie d’informations peut porter sur un bien ou un individu. Elle vient
de ce que l’assureur ne peut pas observer/savoir les caractéristiques du
bien.
Situation dans laquelle les agents ont de l’aversion pour le risque (risk-
adverse) :
Chaque agent connaît sa propre probabilité de subir un dommage.
L’assureur ne connaît que la fonction de distribution d’un agent à haut
risque ou à faible risque.
Principe de l’asymétrie d’informations est que l’assureur ne sait pas
classer les agents.
2 cas de figure :
• si tous les assureurs proposent des contrats sans franchise (=
indemnisation à 100%), on est alors dans la même situation que les
« lemons » d’Akerlof. Les assureurs ne vont proposer que des
contrats dont la prime couvre seulement le risque prévu/calculé. Ce
calcul se fait sur la base d’un risque moyen. Avec ce système, les
agents n’ayant pas d’accidents vont supporter un surcoût par
rapport aux agents qui ont des accidents. + la prime va augmenter,
+ les mauvais agents à haut risque restent ou s’inscrivent à cette
assurance et les bons assurés partent.
• Si tous les assureurs proposent des contrats avec franchise (cf le livre
de Pierre Cahuc)

Notion de qualité développée dans la Théorie du signal par Michael


Spence et qui a été publié dans un ouvrage intitulé : « Market
Signaling » en 1974. Développement des théories des signaux qui vont
déterminer la qualité des biens ou des individus. Théorie du signal : le
principal a intérêt d’avoir des signaux ainsi que les bons agents à faible
risque ou les bons vendeurs. Antisélection détermine un manque à
gagner. Les bons agents vont être prêts à payer pour montrer leur bon
qualité. Pour que le signal soit efficace, il faut que le coût soit + faible
pour les « bons » agents qu’aux mauvais agents. Spence a beaucoup
travaillé sur l’éducation. Diplôme est un signal.
Signal + coûteux à acheter pour les agents qui n’ont pas eu la
formation adéquate.

2 types d’équilibre dans le cadre de la théorie du signal


• équilibre mélangeur (i)
• équilibre séparateur (ii)
(i) Equilibre mélangeur = équilibre dans lequel 2
types d’agents émettent le même signal où tous les
biens ont la même qualité ou tous les biens sont au
même prix. Quels sont les biens ou les agents qui
sont antisélectionnés ? Ce sont les bons qui sont
antisélectionnés.
(ii) Equilibre séparateur = vendeurs de biens de
bonne qualité envoient des signaux coûteux et
perçoivent un prix élevé. Les mauvais agents
n’envoient pas de signaux et perçoivent un prix
faible. C’est le signal qui permet de séparer les bons
et les mauvais biens ou agents.

Problème de ces 2 équilibres :


(i) problème d’antisélection
(ii) problème de prix : l’équilibre séparateur coûte cher

C. Risque moral

Asymétrie d’informations porte sur une action cachée et non sur une
donnée exogène. Il y a hasard moral quand les agents peuvent
entreprendre des actions non observables, susceptibles d’affecter des
résultats d’une transaction. On est dans le cadre d’une relation
d’agence qui porte sur le comportement des agents.
3 exemples :
• sur le marché du travail : « tir au flanc »
• sur le marché du crédit sur lequel l’emprunteur est incapable de
rembourser sa dette (individu ou pays)
• sur le marché des assurances où le risque peut être associé au
comportement des agents ou aux caractéristiques d’un bien.

2 cas de figure sur le hasard moral :


• le principal qui n’a pas l’information ne peut pas observer l’action
de l’agent et donc, l’agent peut se comporter dans son intérêt et
peut annoncer un résultat indépendant de sa volonté.
• Le principal peut observer l’action de l’agent mais ne peut pas
évaluer le caractère approprié. Il ne peut pas évaluer si cette
action est appropriée.

Exemple : un expert peut annoncer un diagnostic erroné sans que


l’agent qui a demandé une évaluation à l’expert ne le sache.

Le problème essentiel est d’assurer le ou les agent(s) à renoncer d’eux


– mêmes de biaiser/fausser l’information dont il est détenteur. En
contre partie, le principal doit montrer à l’agent, qu’en ne faussant pas
l’information, il y trouve un intérêt.

II Mécanismes incitatifs
A.Définition générale

Inciter une personne = inventer des motivations pour cette personne


Neuberger et Duffy ont défini la notion de mécanismes incitatifs. Cette
définition a été reprise par Claude Maynard.
Neuberger & Duffy : « Systèmes des économies comparées » (1976)
définissent les incitations comme l’ensemble des évènements qui
peuvent être manipulé par un décideur de façon à modifier les actes
choisis/effectués par les autres agents.

B. Nature des mécanismes incitatifs


Dans une organisation hiérarchisée, la hiérarchie ne peut pas contrôler
les actes des agents.
• 1ère possibilité : Par contre, la hiérarchie peut créer un
organisme de surveillants. Le problème est qu’il faudrait par la
suite surveiller ces surveillants : problème de gestion de ce
service.
• 2ème possibilité : créer des procédures incitant les agents à se
comporter comme s’ils maximisaient les intérêts du principal.

Ces mécanismes incitatifs définissent la notion de l’effort :


Effort = capacité en changeant le comportement des agents
d’accroître les outputs sans pour autant diminuer/modifier la quantité
d’inputs.
Cette notion d’efforts va s’introduire à la fonction de production :
Y = F (K, L, E)
Yi = Yi (Ei, Ki) avec Ei = ensemble des efforts et Ki= ensemble des
inputs
Les mécanismes incitatifs vont désigner les procédures qui vont :
• Soit inciter les agents à révéler une information
• Soit inciter les agents à accroître leur effort dans le cadre d’une
fonction de production très large

C. Quelques exemples : les mécanismes de Myerson, de Groves


et de Bonin - Weitzman

Principe de Myerson s’intéresse aux interactions entre individus.


Myerson invente une procédure qui permet au principal d’inciter l’agent
à révéler ce qu’il ne voulait pas dire.
Au moment de la signature du contrat, le principal sait que, dans
certaines situations, dans certains états de la nature, l’agent va mentir.
Le principal va donc proposer lorsqu’il sera confronté à ces situations,
la même rémunération, que si l’agent aurait menti de manière crédible.
Ce qui signifie que, pour inciter l’agent à révéler ses informations, le
principal lui paye le même salaire, qu’il aurait menti ou pas.
L’agent n’est donc + incité à mentir et la rémunération va être
indépendante du message que l’agent va donner au principal.
Or, dans le cadre d’une relation principal – agent, l’agent sera inciter à
mentir. C’est ce qu’on appelle un contrat révélateur.

Mercredi 16 Mars 2005

Modèle de Myerson = théorie des jeux = interaction des agents =


théorie de duopoles (2 firmes) : leurs stratégies de 2 firmes sont des
stratégies prenant en compte la stratégie de l’autre firme. On prend les
décisions en fonction de ce que l’autre va faire.
Structure incitative : lorsque l’employeur embauche un agent, comment
inciter les agents à se comporter de manière à maximiser les intérêts de
l’entrepreneur et non leur propre intérêt.
Il y a le même système de sanction quelque soit la relation entre
l’entrepreneur et l’agent. Lorsque l’état de la nature inciterait l’agent à
mentir, il va être inciter à se comporter comme s’il maximisait l’intérêt du
principal pour garder sa rémunération.

Modèle de Groves et Bonin-Weitzman :


Caractéristique : d’incitation collective
Groves s’adresse à un collectif de travail incitant ses membres à se
comporter comme des équipes. Théorie appellée « team » de Jacob
Marschak = un collectif de travail ayant comme caractéristique qu’on ne
peut pas attribuer des morceaux de produits finaux à une partie du
collectif. Il y a des collectifs de travail où on ne peut pas séparer l’apport
productif des uns des autres. Exemple : les déménageurs. C’est l’équipe
qui est rémunérée. Le principe de l’équipe est un collectif de production
dans lequel il est impossible d’imputer à chaque membre une partie
précise de l’output.
2 conséquences :
• 1ère conséquence : règle de répartition de la
microéconomie = rémunération des facteurs de production à
leur productivité marginale ne peut pas s’appliquer.
• 2ème conséquence : quelque soit la règle de répartition au sein
des membres de la « team », les membres sont incités à
travailler le + possible. Ils sont tous intérêt à faire du profit.

Les 2 mécanismes (Groves et Bonin-Weitzman) vont inciter un collectif de


salariés à se comporter comme une « team ».
Caractéristique centrale du modèle de Groves est que + le collectif
transmet des informations, + ils vont obtenir des inputs pour travailler.
C’est un mécanisme « ex ante » : avant que le collectif se constitue ; + le
collectif donne des informations, + on leur donne des inputs.
Mécanisme de Bonin-Weitzman : mécanisme « ex post » = mécanisme de
partage des bénéfices après la production, de manière à optimiser la
participation des agents dans la production. Ce mécanisme permet de
concilier les 3 agents : principal/employeur, agent/employé, actionnaire.

III Incitations et performances


A. La diversité des incitations

Au sein d’une firme, 3 grandes structures/ facteurs incitatifs :


• Le salaire
• Le degré de participation
• Le système d’attachement = loyauté envers
la firme

Lorsqu’on compare ces 3 catégories, on arrive à un problème classique


posé par un économiste américain, Benjamin Ward en 1958 publié dans le
« Dilemme de la démocratie industrielle »
Ward y définit 3 grandes variables :
• Le prix (P)
• Le taux de croissance de la firme (g)
• Le partage des bénéfices : avec une part (θ ) pour les actionnaires et
une part (1 - θ ) pour les salariés.
On doit donc hiérarchiser les variables.
Quel est le dilemme de la démocratie industrielle : l’idée est que si on est
dans un système de démocratie industrielle, le partage va se faire en
faveur des salariés, ce qui a un effet sur les prix, qui par la suite a un effet
sur le taux de croissance de la firme.
Donc, quand la part des salaires augmente ou lorsque le pouvoir d’achat
augmente, le prix augmente et le taux de croissance de la firme diminue.
Théorie des incitations va se resservir de ce dilemme.

B. Incitations, coordination verticale et


coordination horizontale : la typologie de
Masahiko Aoki

C’est la manière de gérer les 3 éléments vus précédemment, sur lesquels


se base le modèle de Aoki.
Aoki oppose 2 types d’organisation des firmes et 2 types de structures
incitatives à partir d’une thèse.
Thèse : en terme d’incitation de la firme, si on décentralise quelque part,
on doit centraliser ailleurs.
A partir de cette idée simple, Aoli va définir 2 grands modèles incitatifs : la
coordination vertical avec une firme Américaine (A) et la coordination
horizontale avec la firme Japonaise (J).
La coordination verticale correspond à la centralisation tandis que la
coordination horizontale correspond à la décentralisation.
Ohnisme/Toyotisme est un système où la hiérarchie est décentralisée :
c’est le système de la firme B.
Dans la firme A, la circulation de l’information et la prise de décision sont
centralisées.
Avec ce modèle, Aoki oppose la firme J où l’information et la prise de
décision sont décentralisées à la firme A.
Dans la centralisation, en cas de problèmes dans la firme, on les résout
en faisant appel aux structures situées au dessus, à la hiérarchie qui est
au dessus.
Dans la décentralisation, en cas de problèmes dans la firme, on les
résout en faisant appel aux ateliers voisins.
Idée d’Aoki est que si on décentralise quelque part dans une firme, alors
on peut décentraliser ailleurs.
Dans la firme A, on centralise l’information et la hiérarchie ; et on
décentralise le marché du travail (main d’œuvre). On fait alors appel à un
marché du travail externe.
Dans la firme J, on décentralise la structure de coordination de
l’information et on centralise le marché du travail.
Lundi 21 Mars 2005
Dans le volume 65 d’American Economic Review, un article qui
s’intitule « Horizontal versus vertical information structure of the firm »
expose ce modèle d’Aoki.
La firme est comme un jeu coopératif, le comportement des agents
dépend de ce que pense l’autre, c’est le principe de l’interaction.
Pour Aoki, il y a 3 personnages :
- le manager chargé de gérer les conflits entre les salariés et les
actionnaires
- les salariés qui font tourner la firme par le travail
- les actionnaires qui sont les propriétaires de la société
Ces agents vont négocier sur la structure de la firme qu’ils souhaiteraient
avoir.

2 types de firmes :
La Firme A : (américaine ou hiérarchique) dont le système consiste à
associer une structure verticale de la centralisation des techniques de
production et une hiérarchie bien organisée pour faire exécuter les
solutions aux problèmes décidés par le sommet de la hiérarchie. Il est
efficace pour faire circuler l’information, sans la déformer et la faire
appliquer.

3 caractéristiques :
- séparation hiérarchique entre opération de conception (ceux qui
réfléchissent aux problèmes) et d’exécution (ceux qui exécutent sous les
ordres des autres)
- gains tirés dans la spécialisation par la division du travail, qui fait
augmenter la productivité : c’est un système porteur de gains
- centralisation des informations et contrôle hiérarchique

3 conséquences :
- l’absence de lien temporel durable entre le salarié et la firme. Cette
centralisation remplace l’apprentissage ; s’il y a un problème on demande
à ceux qui peuvent le résoudre.
- l’extérieur (ce qui entoure, marché externe) de la firme constitué par le
marché du travail.
- la gestion des ressources humaines : les métiers sont étroitement
définis ; exécution d’une seule tâche particulière ; toute tâche irrégulière
est traitée par le hiérarchie.

La firme J : (japonaise) un nouveau jeu coopératif, une nouvelle


organisation et une nouvelle source de gains. Absence de centralisation de
l’information et de la hiérarchie ; la coordination des activités productives
est décentralisée. Les ateliers maîtrisent ce qui se passe dans leur atelier
et aussi dans les ateliers voisins (en amont et aval). Cette maîtrise est
acquise par l’apprentissage.

3 caractéristiques :
- non séparation hiérarchique
- gains liés à l’intégration et non à la spécialisation
- décentralisation de l’information et contrôle

3 conséquences :
- nécessite le lien temporel durable qui est l’apprentissage
- frontière de la firme n’est pas aussi nette que dans la firme A ; une zone
intermédiaire entre la firme et le marché comme la sous-traitance
- coordination horizontale : il n’y a pas de relation hiérarchique entre
unités de production ; les salariés tournent sur les postes et deviennent
compétents sur un certain nombre de tâches (principe de compétence
globale des salariés) ; métiers non spécifiés. Les salariés sont payés à
l’ancienneté.

Comparaison des 2 modèles :


Information parfaite ; état de la nature est certain : firme A
Information non parfaite : la capacité d ‘apprentissage augmente : firme J

Chapitre 5 : Rationalité et choix collectif

Comment choisir s’il y a plusieurs choix ?

I. Logique de choix collectif

Paradoxe de Condorcet : philosophe des Lumières qui s’intéresse aux


questions sur la démocratie. Il veut inventer un système où le citoyen peut
donner son avis sur les prises de décision politique. Il publie un essai en
1785 sur « l’application de l’analyse à la probabilité des décisions rendues
à la majorité des voix ». Si on donne le pouvoir aux peuples, comment
vont-ils prendre leur décision ? Il y a un risque que le système ne marche
pas ; d’où la notion de paradoxe. Ce paradoxe est repris par Arrow plus
tard, quand il y a plus de 3 décideurs et plus de 2 choix :
Exemple : 60 électeurs et 3 solutions, choisir 3 candidats par ordre de
préférence
23 = A B C
17 = B C A
2 = BAC
10 = C A B
8 = CBA
si majorité simple : on a A = 23, B = 17 et C = 18 ; majorité absolue est
31.
Si A contre C A = 25 C = 35
Si A contre B A = 33 B = 27
Si B contre C B = 42 C =18
Si A > B et B > C alors on aurait A > C mais paradoxe car on a C > A
La règle de transitivité n’est pas respectée.
Mercredi 21 Mars 2005
A. Le Paradoxe de Condorcet

Condorcet, philosophe des Lumières, réfléchit au système de la décision


démocratique.
Comment inventer un système démocratique qui allait advenir ?
Réflexion logique de Condorcet.
Statut des paradoxes, description d’une situation potentiellement
contradictoire.
Transitivité : A > B, B > C, alors A > C.
La règle de transitivité doit assurer la rationalité des choix. Cela est
valable pour 2 choix.
Condorcet nous montre qu’on peut concevoir des cas où 60 électeurs ont
3 choix ; le résultat peut ne pas déroger une majorité simple, contredite
par l’ensemble des électeurs, ou lorsqu’ils sont confrontés 2 à 2, le
résultat peut conduire à une règle de non transitivité : A > B et B > C alors
C < A d’après le paradoxe de la non transitivité des choix.
Au moment où est en train de se construire la théorie de l’équilibre
économique générale, Kenneth Arrow, Gérard Debreu et Mackenzie
reformulent la théorie de l’équilibre générale (EEG) qui permet une
représentation large des phénomènes économiques. Ces auteurs vont
redonner des bases mathématiques à la théorie de l’EEG et en faire un
véritable socle sur lequel on va s’appuyer.

B. Les mécanismes de décision collective


1. La dictature

Debreu, mathématicien français ; Arrow, économiste au moment où il


élargit ce cadre, posent la question de la coordination dans la prise de
décision. C’est dans l’ouvrage : « Choix sociaux et valeurs individuelles »
(Social choices and individual value) que Arrow reprend le paradoxe de
Condorcet ; il pose le problème du paradoxe de la non transitivité et seul
le dictateur pourrait régler le problème, appelé le dictateur d’Arrow.

Arrow ouvre un espace sur les mécanismes de la prise de décision.


• 1er domaine d’application : analyse de la vie politique
• 2ème domaine : arbitrage, comment se font les mécanismes de
décisions collectives
• 3ème domaine : comment on prend une décision au sein d’une
institution, d’une firme ; question d’incitation.
Depuis les années 30, dans toutes les économies de marché, c’est la
régulation par l’Etat qui est une organisation importante.
Arrow, en s’appuyant sur le paradoxe de Condorcet ouvre un programme
de recherche sur les mécanismes de décisions collectives.
A ces questions, des réponses sont proposées.
• 1ère solution : on est parfois obligé d’avoir une clause de dictateur,
c’est-à-dire qu’un agent prend les décisions au nom de tous ; ce
dictateur n’est pas nécessairement armé.
2. Le Consensus Absolu

• 2ème solution : décision prise à l’unanimité où personne ne


s’oppose : consensus absolu

3. Le Vote Majoritaire
• 3ème solution : vote majoritaire, vote d’une majorité, décision
emportée par la majorité. Electeur médian = électeur qui peut faire
changer la majorité.
Plusieurs questions ? rôle de l’électeur médian ?
La dictature de la majorité dont le vote est très serré et qui est toujours
fait par le même groupe.

4. La prédominance hiérarchique

Dans les systèmes précédents, les décideurs ont le même poids que les
autres, chacun compte pour une personne ne compte et ne compte pas +
de 1.
Dans la prédominance hiérarchique, par leur place hiérarchique décide
pour les autres.
Système de grands électeurs qui ont été élu par les autres.

Mercredi 30 Mars 2005


L’ordre n’est que partiel. La notion de hiérarchie introduit une asymétrie
dans l’autorité.
Modèles de décisions hiérarchiques sont des modèles de filtrage de
décisions. L’exercice de pouvoir se fait dans le cadre d’une hiérarchie, par
filtrage du rang supérieur vers le rang inférieur ; ou par entente de rangs
égaux.

II Conflits et coordination
A. Analyse traditionnelle : le déplacement des conflits

Question de conflit, d’intérêts entre différents votants ou entre différents


décideurs : comment la théorie de l’économie traite la gestion des conflits
microéconomiques ou ponctuels ?
Dans l’économie industrielle, la réponse consiste à expulser les conflits en
les intégrant dans la préférence des individus ou dans les mécanismes du
marché.
Gary Becker, sur la préférence des individus, a fait une analyse
économique de la discrimination. Cette discrimination consiste à établir
des barrières à l’entrée, en fonction d’autres critères que la productivité
du travail.
Becker traite de la discrimination en l’intégrant dans les préférences des
agents.
Il intègre dans les fonctions d’utilité du producteur la notion de
discrimination.
On inscrit les conflits dans une logique marchande. Inscription de la grève
dans le marché du travail. Du côté du modèle standard, toute possibilité
de conflits est intégrée dans le modèle standard. Il n’y a donc pas de
conflits.
Montesquieu : « doux commerce » reprend l’idée qu’il n’y a pas de
conflits.
B. Exit, Voice and Loyalty : la thèse de Albert O. Hirschman

Depuis une cinquantaine d’années, au sein de la théorie économique,


apparaît la notion de conflits.
Théorie des conflits prend plusieurs formes :
• Sous Albert O. Hirschman : « Exit, Voice and Loyalty » Au sein de la
théorie standard, il existe des conflits.
3 possibilités entre 2 types d’agents :
• La loyauté
• Le conflit qui se règle ouvertement par la procédure de négociation
sur le prix
• L’une des parties « donne de la voix » , elle engage donc une
négociation.
Prise en compte du conflit est théorisée.

C. Les modèles de Harvey Liebenstein

• Sous Harvey Liebenstein : dans les PED, c’est le salaire qui


détermine la productivité marginale du travail ; dans les pays
occidentaux, le mécanisme est le même, c’est le salaire qui
détermine la productivité marginale du travail. C’est donc un salaire
d’efficience : « Allocative Efficiency vs X Efficiency » (2ème
modèle Liebenstein)
X Efficiency = organisation de la firme où les salariés sont bien ou pas
bien payés.

« Dilemme du prisonnier au sein de la main invisible : une analyse à


l’intérieur de la firme » (AER ; 1982) Idée est de poursuivre la théorie du
salaire d’efficience et le manque d’échange entre le travail et le salaire.
Cela comporte une double incertitude :
• Incertitude par l’employeur sur l’effort fourni par le salarié
• Incertitude par le salarié sur son salaire
Contrat de travail a pour but de gérer/traiter/limiter cette double
incertitude.
L’employeur va garantir un bon salaire et la stabilité des relations
salariales.
L’employé s’engage à faire des efforts.
Il reste à appliquer cette théorie.
Idée de Liebenstein consiste à utiliser un modèle identique que dans le
cadre du dilemme dans la théorie des jeux.

3ème modèle de Liebenstein : Dilemme du prisonnier


Principe : 2 individus sont arrêtés pour un même crime. La police est
certaine que ces personnes sont coupables mais elle n’a aucune preuve.
La police les met dans 2 endroits différents et leur propose à chacun
plusieurs alternatives.
• Soit A accuse B et B n’accuse pas A : alors A est libre et B est
emprisonné.
• Soit A accuse B et B accuse A : alors A et B sont emprisonnés.
• Soit A n’accuse pas B et B accuse : alors B libre et A en prison.
• Soit A n’accuse pas et B n’accuse pas A : alors A et B sont en prison
car la police est sûre que ce sont les coupables, mais la peine de A
et B sera moins élevée.

Matrice de gain : représentation de toutes les alternatives (nombre de


mois de peine de prison)
Ne dénonce pas Dénonce
B
A
Ne dénonce pas 3;3 20 ; 0
Dénonce 0 ; 20 12 ; 12
3 ; 3 est la solution d’équilibre
12 ; 12 est la solution réelle car c’est un jeu non coopératif, donc A et B
vont se dénoncer mutuellement, ils ne coopèrent pas.

Liebenstein transpose ce modèle à une situation entre l’entreprise et le


salarié.
Entr Stratégie pacifique Stratégie agressive
eprise (salaire maximum) (salaire minimum)
Salarié
Stratégie pacifique 15 ; 15 3 ; 20
(effort maximal)
Stratégie agressive 20 ; 3 5;5
(effort minimal)
Lorsque l’entreprise et le salarié sont tous les 2 en stratégie pacifique, les
2 parties reçoivent le même montant de gains. (15 ; 15) : c’est la situation
d’équilibre.
Lorsque le salarié fournit un effort maximal et que l’entreprise est en
stratégie agressive, le salarié ne reçoit qu’un gain de 3, alors que
l’entreprise en reçoit 20.
Ce qui signifie que le salarié aura un faible salaire pendant que l’entreprise
aura une grande production.
La situation qui est la + courante est celle : (5 ; 5) cf . le dilemme du
prisonnier.
On est dans un dilemme du prisonnier.
ATTENTION : dans le schéma précédent, les gains étaient négatifs. Dans
ce schéma, ils sont positifs.

Lundi 04 Avril 2005


Modèles de Liebenstein sont déjà tombés au partiel !!!! (à revoir)

D. Mécanismes de coordination et « culture d’organisation »


La culture d’organisation va porter sur les moyens des problèmes de
conflit de décisions à l’intérieur de l’entreprise.
Utilisation des valeurs et des normes.
1985 : Schein définit la culture d’organisation comme un schéma structuré
d’hypothèses de base inventé et développé par un groupe donné
d’agents, qui ont été apprises par la confrontation de ce groupe face à des
problèmes d’adaptation externes ou face à des problèmes d’interprétation
internes et qui ont suffisamment bien fonctionnées (hypothèses) pour être
considérées comme validées. Donc, ces agents les ont ensuite enseignées
aux nouveaux membres du groupe comme la façon adéquate de penser
ces problèmes.
Ce sont des valeurs, des normes de penser des problèmes qui permettent
de résoudre ces problèmes.

3 raisons ou intérêts de cette culture d’organisation :


• 1ère raison : dépasser, même partiellement, les risques de baisse
d’efficacité collective, associée au fiat que les agents ont un intérêt
individuel. Cette culture permet d’accroître l’efficacité de
l’entreprise en faisant passer ces normes au dessus des intérêts de
chacun.
• 2ème raison : cette culture permet d’établir un système de
communication efficace entre les membres de l’organisation.
• 3ème raison : elle constitue un schéma commun d’interprétation des
signaux qui viennent de l’extérieur de l’entreprise, ce qui accroît la
vitesse de prise de décisions au sein de l’entreprise.

La culture d’organisation a 2 types de coûts :


• 1er type de coûts : les coûts liés à son acquisition qui sont de 2
ordres : d’abord il y a les coûts liés à l’invention ou à la découverte
de la culture d’organisation par l’apprentissage, ce sont les coûts
techniques des essais et des erreurs liés à l’apprentissage ; et il y a
les coûts liés à l’intériorisation de cette culture. Dans une entreprise,
on forme les cadres à cette culture par des stages.
• 2ème type de coûts : les coûts associés aux désaccords que
cette culture peut engendrer. Ce désaccord peut prendre plusieurs
formes comme l’absentéisme, la grève ou même l’éclatement du
groupe. Dans une firme, l’absentéisme peut entraîner des coûts
importants.

Ces 2 types de coûts ont une caractéristique qui constitue un indicateur


important des limites de taille.
Lorsque l’entreprise grandit, ces coûts peuvent augmenter.
L’inculcation de la culture d’organisation entraîne des coûts d’acquisition.
Avantage d’augmenter sa taille est que les coûts d’acquisition sont
socialisés c’est-à-dire qu’ils sont moins importants pour chaque
individu/agent.
Inconvénient de cette culture est un grand nombre multiplie les canaux de
communication et les canaux des niveaux hiérarchiques qui accroissent
les risques de coûts de désaccords.
Chapitre VI : Décisions, hiérarchie, autorité
Cela introduit la théorie des jeux.

I Décisions et autorité
A. Comportements et autorité : typologie de Max Weber

Weber avait distingué 4 grandes formes de comportements :


• 2 comportements rationnels
• et 2 comportements affectifs
4 comportements = 4 idéaux-types
• 1er comportement : action traditionnelle liée à la tradition
• 2ème comportement : action affective : c’est ne pas être rationnel,
geste irrationnel
• 3ème comportement : action rationnelle en valeurs : non liée à la
tradition, ni à l’affection. Les agents pensent consciemment qu’ils
doivent se comporter de telle ou telle manière selon des valeurs. Ils
ne vont pas satisfaire à leur finalité mais respecter leurs valeurs.
• 4ème comportement : action rationnelle en finalité : action tournée
vers un but utilitaire
A partir de ces 4 comportements, Weber pose les bases de 4 types de
dominations ou d’autorités légitimes.
La domination est la chance de trouver une personne déterminée à obéir à
un ordre de contenu déterminé.
Qu’est-ce qui fait que cet ordre est exécuté ?
Toute domination s’accompagne d’une forme de légitimité.
Légitimité = croyance sociale validant le pouvoir détenu par le dominant
au sens de
Typologie de soumission sous 4 formes = base de réflexion sur l’économie
des organisations, sur la psychologie des organisations.
A ces 4 activités correspondent 4 modes de soumissions ou de
légitimations de la domination.
• Activité traditionnelle correspond à la domination traditionnelle qui
fonde sa légitimité sur le caractère sacré de la tradition.
Exemple : le pouvoir patriarcal correspond au pouvoir du père de famille ;
le pouvoir seigneurial à l’époque féodale. C’est le pouvoir que l’on ne peut
remettre en question. C’est la domination primitive, enracinée dans
l’idéologie fondatrice de la société.
• Activité affective correspond à la domination charismatique. C’est le
fait de fonder la légitimité de la domination sur l’aura d’un individu,
par sa capacité à mobiliser l’attention des autres individus, par son
charisme. Soumission dépend de la croyance que les individus ont
dans ce charisme. Cela n’est pas nécessairement de l’ordre de la
politique.
• Activité rationnelle en valeurs : au delà des capacités d’un individu,
il y a la soumission fondée sur la validité de ce qui est considéré
partiellement, comme bien ou valable.
Théorie du droit naturel qui existe depuis l’époque romaine va fonder le
droit au sens propre sur une référence à l’ordre naturel.
Cette théorie a connu 2 étapes :
• Le droit naturel classique ou la référence est aristotélicien c’est-à-
dire où l’ordre du monde sert de référence au droit (domination des
hommes sur les femmes)
• Le droit naturel moderne, apparu au 16ème siècle, considère que les
individus ont des droits fondamentaux liés à la vie, à la propriété et
à la liberté.
Quelque soit l’origine, le statut social, les hommes ont les mêmes droits.
Du côté des droits de l’homme, même si les sociétés sont différentes, il y
a des droits.

• (suite de l’activité rationnelle en valeurs) : Domination est fondée


sur les droits selon Weber.
• Activité rationnelle en finalité correspond à la domination légale qui
s’appuie sur un pouvoir abstrait et impersonnel. Donc, ce pouvoir,
dans les sociétés modernes, trouve sa légitimité dans le principe
administratif, bureaucratique, et a comme instrument, la soumission
à un code universel et fonctionnel. Cette domination est beaucoup +
abstraite que les autres. Pour Weber, dans les sociétés modernes, la
domination légale n’accompagne pas seulement le type de
rationalité défini par l’économie, mais aussi la rationalité des
sociétés. Ces sociétés se sont en gros dégagées des valeurs, des
normes, des charismatiques. Donc, elles fonctionnent sur un principe
de rationalité qui s’applique à tous. Les sociétés modernes sont des
sociétés « désenchantées » au sens où elles ne sont que rationnelles
et qu’elles sont libres des traditions.

Lundi 11 Avril 2005


Brass, en 1984, identifie 3 déterminants dans l’autorité de ce qu’il
appelle :
• 1er déterminant : le caractère critique d’une position dans le
réseau de travail, mesuré par le (nombre de routes = chemin)
alternatif par lesquelles une action peut être modifiée.
• 2ème déterminant : la centralité dans le réseau de communication
= nombre des indices d’accès à un individu ou à une fonction
• 3ème déterminant : réseau informel, réseau d’amis = ensemble des
relations informelles des interactions entre agents.
La relation de la hiérarchie repose sur 3 caractères :
• principe d’assignation = capacité à assigner des tâches de
manière discrétionnaire (comme la personne le veut, pouvoir sans
contrôle)
• principe de nomination = capacité de désigner une place ou une
position d’un individu dans l’ensemble de la hiérarchie ; de désigner
le rang d’un individu par rapport aux autres = caractéristique du
pouvoir = capacité qui n’est pas seulement technique
• principe de contrainte = possibilité d’imposer ou de prévaloir une
décision par rapport aux autres décisions, proposées par des
subordonnés.

B. Diriger et exécuter : typologie de Roy Radner

Radner est un des nombreux auteurs à s’intéresser à l’opposition entre


diriger et exécuter : managing and doing.
Cette distinction est liée à une réflexion sur l’incertitude, c’est-à-dire à une
manière de gérer l’incertitude.
Cette distinction recouvre un certain nombre d’actions.
Cela revient à répondre à la question : Qu’est-ce que la direction
(=managing) ?
• 1ère action : observer l’environnement et les résultats des actions
passées.
• 2ème action : communiquer les informations
• 3ème action : prendre des décisions
• 4ème action : orienter, diriger et suivre les actions des autres
membres de la firme (ou de l’organisation).
• 5ème action : embaucher et licencier
• 6ème action : former et enseigner = train and teach
• 7ème action : planifier
• 8ème action : résoudre les problèmes
• 9ème action : fixer les objectifs et les valeurs ; et persuader
Ce que Radner veut expliquer, c’est que les activités de 1 à 4 sont traitées
comme des activités de management dans la microéconomie.
En revanche, à partir de la 5ème action/activité, l’activité est traitée par des
modèles plus récents que la microéconomie.
L’activité 5 est incorporée dans le schéma d’asymétrie d’informations ou
de type contrat implicite.
L’activité 6 repose sur les modèles de capital humain et considère qu’il y a
des investissements dans les individus qui ont un coût.
Les activités 7 et 8 s’appuient sur une extension du modèle standard.
On utilise des formalismes plus compliqués.
L’activité 8 échappe à la théorie économique.
Radner propose un nouveau domaine : « economics of management » =
économie de direction prenant en compte l’ensemble des activités.
Radner revient et développe la notion de hiérarchie en y ajoutant une
tradition de la hiérarchie par le modèle de l’arbre. L’arbre désigne une
collection d’objets, réunis par la relation « supérieur à », sachant que cette
relation a les 3 propriétés suivantes :
• 1ère propriété : la transitivité : A > B et B > C alors A > C.
• 2ème propriété : l’anti-symétrie : A > B alors B < A, B subordonné à
A.
• 3ème propriété : il existe une racine supérieure aux autres, ici A. A
l’exception de la racine, chaque objet a un seul supérieur immédiat.
Radner précise que la hiérarchie n’est pas seulement un arbre, mais aussi
un « ranked tree » : arbre ordonné par le rang.

C. Conflits et coalitions : 5 configuration de Henry Mintzberg

1983 : « Structures in fives »


Il va dessiner, tracer les 5 composantes fondamentales de la firme ou
organization.

Sommet hiérarchique/stratégique

Personnel
Techno structure Elément médian fonctionnel

Centre opérationnel

Centre opérationnel = producteur de biens et services de base


Sommet hiérarchique ou stratégique = patrons, cadres dirigeants et
conseillers
Elément médian = cadres moyens (contre-maîtres) ; ligne d’autorité
formelle
Techno structure = analystes situés en dehors de l’autorité formelle et
chargés d’organiser la production de manière abstraite.
Personnel fonctionnel = support logistique = ensemble du personnel
dont la fonction consiste à servir de support à la production (service de
commandes, de ménages).
Le schéma va donner lieu à 5 configurations de structure, correspondant à
des organisations de ces 5 groupes, au sein de la firme, et dominés par un
groupe.
Ces configurations vont se caractériser par un mécanisme de coordination
par un groupe qui joue un rôle clé dans la configuration.
• 1ère configuration : la structure simple correspondant au tout début
d’une firme, dans laquelle le pouvoir se fait par le sommet.
Mécanisme de coordination est un mécanisme de supervision
directe. Il y a une centralisation très forte de l’organisation de
l’autorité.
• 2ème configuration : la bureaucratie mécanique correspond au
pouvoir de la techno structure qui va imposer une standardisation
des procédures de travail à l’ensemble des autres groupes.
Bureaucratie mécanise le travail.
• 3ème configuration : la bureaucratie professionnelle repose sur le
centre opérationnel et dont le mécanisme de coordination passe par
la standardisation des qualifications.
• 4ème configuration : la forme divisionnelle repose sur l’élément
médian et dont le mécanisme principal est la standardisation de la
production.
• 5ème configuration : l’adhocratie est un principe d’ajustement
mutuel dont le personnel fonctionnel (service juridique ou service
comptable) va être le pivot.

Chapitre VII : Quelques leçons de la théorie des jeux


I Jeux et coordination

On rentre dans ce qui fait la moitié de la théorie contemporaine.


La théorie des jeux est née en 1944 par la publication d’un ouvrage de
John von Neumdan et Oskar Morgenstein : « Theory of Games and
Economic Behavior »
Contexte de la théorie des jeux : on sort d’une période où l’économie a
servi à faire des recherches opérationnelles pour la guerre et à poser des
questions sur la concurrence entre les pays.
La théorie étudie les interactions entre les comportements de plusieurs
individus qui sont conscients de l’existence de ces interactions.
C’est une théorie de la décision, consciente des interactions.
• 1er exemple de comportement : le concours de beauté de Keynes
• 2ème exemple de comportement : l’entrepreneur qui lance un
nouveau produit veut prendre les parts de marché d’un concurrent.
Il va choisir sur des éléments tels que le prix, la quantité, la qualité,
les distributeurs. Ces concurrents vont donc répondre et adapter
leur offre selon cette nouvelle situation. Ce type de considération
stratégique est formalisé par la théorie des jeux.
• 3ème exemple : le dilemme du prisonnier illustre la divergence entre
la rationalité individuelle et la rationalité collective lorsqu’il y a
interaction des comportements. Entre la rationalité individuelle et la
rationalité collective, il n’y a pas de superposition. En terme
individuel, les prisonniers ont intérêt à se dénoncer. Collectivement,
ce qui minimise le nombre d’années de prison serait que les
prisonniers ne se dénoncent pas mutuellement. Mais même en
connaissant les règles, les prisonniers vont prendre le risque de se
dénoncer.
Ces quelques exemples donnent une intuition de ce qu’est la théorie des
jeux.

A. Jeux coopératifs et jeux non coopératifs

Au début de la théorie des jeux, en 1944, on s’est intéressé à la coalition,


à l’étude de la coalition (comment elle se faisait ?) avec le paramètre de
Pareto optimum.
En 1969, les jeux coopératifs laissent la place aux jeux non coopératifs.
L’individu participe au jeu pour son propre intérêt, compte tenu de 2
éléments qui lui sont donnés :
• Les possibilités qui lui sont offertes
• Les règles clairement définies du jeu
B. Jeux sous forme stratégique et les jeux sous forme extensive

Il existe 2 formes de jeux non coopératifs : les jeux sous forme stratégique
et ceux sou forme extensive.
Les jeux sous forme stratégique sont des jeux simples.
Comme le dilemme du prisonnier, ils comportent 3 éléments :
• 1er élément : une liste de joueurs
• 2ème élément : pour chaque joueur, une liste de stratégies
• 3ème élément : pour chaque liste de stratégie, les gains perçus par
les joueurs correspondent à chacune des stratégies.
C’est la matrice des gains.

Exemple de jeu : pierre, papier, ciseau

A;B Pierre Papier Ciseau


Pierre 0;0 -1;1 1;-1
Papier 1;-1 0;0 -1;1
Ciseau -1;1 1;-1 0;0
C’est un jeu à somme nulle car la somme des gains est égale à 0.
Le système à somme nulle revient dans la théorie des avantages
comparatifs de Ricardo. Il explique que les échanges internationaux ne
vont pas seulement permettre des échanges en quantité de richesse, mais
aussi accroître la somme des richesses. Par exemple, si le Luxembourg
détient 5 Kg d’or et la France 0 Kg ; si la France et le Luxembourg font des
échanges. La France va alors avoir 5 Kg d’or tandis que le Luxembourg
aura maintenant 0 Kg. La somme des échanges est bien égale à 0 .
Ce jeu a 2 caractéristiques :
• 1ère caractéristique : somme des gains est toujours égale à 0 ; jeu à
somme nulle
• 2ème caractéristique : jeu à somme nulle constante

Pour chacune des 9 cases, il y a un couple de gains qui donne des gains à
chacun des joueurs. On peut développer cette formalisation en un jeu à 3
joueurs.
Il suffira de faire 3 tableaux en fonction du 3ème joueur C.
1er tableau : C choisit la stratégie 1 (pierre).
2ème tableau : C choisit la stratégie 2 (papier).
3ème tableau : C choisit la stratégie 3 (ciseau).

Quand on passe de 2 à 3 joueurs : Les gains sont les suivants (calcul des
gains)
Un joueur reçoit la somme obtenue en faisant le produit par 4 du + petit
nombre qui désigne les stratégies des joueurs (les 3 joueurs ici), de
laquelle on soustrait le nombre qui désigne la stratégie du joueur. Ainsi on
obtient le gain du joueur.
Individu : A B C
Stratégie : 1 2 3
A joue la stratégie 1
B joue la stratégie 2
C joue la stratégie 3
Leur gain sera : pour A, 4 x 1 (le +petit nombre des stratégies) = 4 ensuite
on soustrait par 1 (le ombre qui désigne la stratégie de A).
Conclusion : 4 – 1 = 3 = gain de A
Gain de B = (4 x 1) – 2 = 2
Gain de C = (4 x 1) – 3 = 1

i) C choisit la stratégie 1.
Voici les gains de A et B.
A 1 2 3
B
1 3;3 3;2 3;1
2 2;3 2;2 2;1
3 1;3 1;2 1;1

C a toujours un gain = 3 ; et selon les stratégies de A et B leur gain varie.


A 1 2 3
B
1 3 ; 3 ; 3 (A ; B ; C) 3 ; 2 ; 3 3;1;3
2 2;3;3 2;2;3 2;1;3
3 1;3;3 1;2;3 1;1;3

ii) C choisit la stratégie 2.


Si C choisit la stratégie 2, le plus petit nombre de la stratégie peut être 1
ou 2.
(dans le 1er exemple (i), C choisit la stratégie 1 donc le + petit nombre de
la stratégie était 1, mais si C choisit 2, selon les choix de A et B, 1 peut
être le + petit nombre ; mais 2 aussi peut l’être si A et B choisissent les
stratégies 2 et/ou 3).

A 1 2 3
B
1 3;3;2 3;2;2 3;1;2
2 2;3;2 6;6;6 6;5;6
3 1;3;2 5;6;6 5;5;6

iii) C choisit la stratégie 3.


A 1 2 3
B
1 3;3;1 3;2;1 3;1;1
2 2;3;1 6;6;5 6;5;5
3 1;3;1 5;6;5 9;9;9

Autres exemples :
A B1 B2 B3
B
A1 (12 ; 6) (8 ; 4) (16 ; 3)
A2 (10 ; 4) (8 ; 9) (13 ; 7)
Equilibre de Nash :
Un équilibre de Nash c’est toute combinaison de joueurs qui est telle
qu’aucun des joueurs ne regrette son choix après avoir découvert la
stratégie des autres joueurs.
C’est une combinaison de stratégies telle que la stratégie de chaque
joueur correspond à un choix optimal compte tenu des stratégies des
autres joueurs.
Quelles sont les stratégies où les joueurs n’ont pas de regret ?
Dans une situation où on joue une stratégie choisie pour éviter la +
grande déception.

Equilibre de Nash « au sens fort » :


Equilibre de Nash « au sens faible » :
A B1 B2 B3
B
A1 (12 ; 6) (8 ; 4) (16 ; 3)
A2 (10 ; 4) (8 ; 9) (13 ; 4)
(12 ; 6) équilibre au sens fort: B est + content car si A choisit la stratégie
A1, B gagne 6 alors que s’il aurait choisit B2 ou B3, il n’aurait gagné que 4
ou 3.
De +, A est content car si B joue B1, A gagne 12 en jouant A1, alors qu’il
aurait gagné moins en jouant A2 pour 10.
Equilibre au sens fort car les 2 sont contents.
Pour (8 ; 4) et (8 ; 9) :
Si B joue B2, en espérant gagner 9, A ne pourra gagner que 8 au
maximum, ce qui est son minimum. Alors A va jouer A1 pour que celui qui
joue B2 ne gagnera pas plus que 4 puisque pour A, jouer A1 ou A2 c’est
pareil.
De là, voyant A joué A1, B va jouer B1 pour gagner 6 au lieu de 4.
Au final, les 2 sont + contents que la situation initiale.

La théorie repose sur une représentation des interactions entre individus.

La stratégie B3 est une stratégie dominée.


B ne jouera jamais B3 car si A joue A1, B gagne au minimum 3 en jouant
B3.
Alors B va préférer jouer B2 quand A joue A1 pour gagner 4 qui est + que
3.
Si A joue A2, B ne vas pas jouer B3 car sinon il ne va gagner que 4.
B va donc préférer jouer B2 pour obtenir 9.

Avec le jeu, création d’un concept central : le concept de croyances


L’équilibre de Nash va reposer sur le concept de croyances, sur les
croyances des joueurs.
B va jouer B2 pour gagner le maximum : 9 mais s’il croit que A va jouer
A1, alors B va jouer B1 pour gagner 6, au lieu de 4 avec B3.
A croit que B va jouer B1, comme B sait qu’il ne vaut mieux pas jouer B2
ou B3.
Alors A va jouer A1 au lieu de A2 pour gagner 12, au lieu de 10 avec A2.
A l’équilibre de Nash, les croyances des joueurs sont confirmées.

A B1 B2 B3
B
A1 12 ; 6 8;4 16 ; 3
A2 10 ; 4 8;9 13 ; 7
(13 ; 7) = équilibre de Nash
(8 ; 9) ; (16 ; 3) ; (13 ; 7) = optimum de Pareto
Equilibre de Nash : solution proposée par John Nash ; elle désigne toute
combinaison de stratégies, de sorte qu’en découvrant le choix des autres
joueurs, un des joueurs ne regrette pas son choix.
C’est la solution optimale de stratégie, étant donnée le choix des autres
joueurs.
On est à l’équilibre de Nash, si, à la découverte des choix des autres
joueurs, tous les joueurs sont satisfaits de leur choix.
Equilibre de Nash au sens faible est un équilibre qui s’obtient lorsque l’un
des joueurs est indifférent.
Dans notre exemple : lorsque B joue B2, A est indifférent quant à son
choix entre A1 et A2, puisque sont gain (8) est le même s’il joue A1 ou A2 ;
mais en jouant A1, B lui ne sera pas satisfait parce qu’il ne gagne que 4,
alors (A1 ; B2) n’est pas un équilibre de Nash.
Notion de stratégie dominée : c’est la stratégie dont on sait qu’elle ne sera
pas choisie par au moins un joueur.
Ici B3 est une stratégie dominée car le joueur B a toujours mieux à faire
que de choisir B3 ; donc A sait que B ne jouera pas B3. B3 est donc éliminé
de la réflexion de B car si A joue A1, B gagnera un gain minimal (4) et si A
joue A2, B ne gagnera que 7 alors qu’il pourrait gagner 9. Donc dans les 2
cas, B n’a pas intérêt à jouer B3.
B a intérêt d’essayer d’avoir B2 car 9 est son gain le + élevé. Mais B se dit
que le joueur A se dit que B va jouer B2. Pour parer que A va jouer A1, B
croit que A sait que B jouera B2 donc A va jouer A1 et B va jouer B1. S’ils
ne font pas ce genre de réflexion, il y aura un manque de coordination :
avec (A1 ; B2) ou (A2 ; B1), les 2 joueurs regrettent.
C’est un jeu de réflexion sur la croyance.
Ici chacun veut maximiser son gain.

Optimum de Pareto : situation dans laquelle on ne peut améliorer la


satisfaction d’un agent sans détériorer celle d’au moins 1 autre agent.
(A1, B1) n’est pas un optimum de Pareto car on peut augmenter le gain de
A et B en étant dans la stratégie (A2 ; B3).
Car on peut augmenter les gains de A et B en étant en (A2 ; B3).
(A2 ; B3) est une augmentation des gains de A et B de 1 unité pour A et de
1 unité pour B.
(A2 = 13 ; B3 = 7) est un optimum de Pareto (ou Pareto optimal) car, à ce
point, les joueurs sont dans une situation où leurs satisfactions sont
optimales. En ce point, si on veut augmenter la satisfaction d’un joueur, on
va nécessairement diminuer la satisfaction de l’autre.
A ne peut pas passer à 16 sans diminuer les gains de B qui passeraient à
3.
Donc (A1 = 16 ; B3 = 3) est aussi un optimum de Pareto parce qu’on ne
peut pas augmenter les gains de A sans diminuer ceux de B ; comme on
ne peut pas augmenter les gains de B sans diminuer ceux de A. En effet, B
ne peut pas passer à 9 sans diminuer les gains de A à 8 : (A2 = 8 ; B2 =
9). (8 ; 9) est aussi un optimum de Pareto car on ne peut augmenter la
satisfaction de A sans diminuer celle de B, qui est à son maximum. C’est le
même processus que pour (16 ; 3).

Par contre, (A2 ; B1) n’est pas un optimum de Pareto car on peut
augmenter la satisfaction de A ou celle de B sans diminuer celle de l’autre
joueur.

2ème type de modèle de jeux non coopératifs : il fait porté l’accent non pas
sur les formes stratégiques mais sur l’ordre dans lequel les joueurs
interviennent et sur l’information dont ils disposent : ce sont des jeux sous
forme extensive.
Ces jeux comportent :
• des nœuds
• des vecteurs de nombre
• des flèches qui vont d’un nœud vers un autre nœud ou d’un nœud
vers un vecteur
• des lettres qui caractérisent les nœuds et les flèches
Chaque nœud est une position dans le jeu, où le joueur choisit son action.

A Z C w A x’ B X’ C
w’

(3,2,9)
x y u y’ Y’ u’

(3,0,0) B (1,0,3) (3,2,2) (2,3,1) (5,5,5)


X Y

(4,2,4) (2,3,1)
A, le 1 joueur, a 3 possibilités :
er

• soit passer la main à B


• soit passer la main à C
• soit aller à un vecteur de gain où il gagne 3, le joueur B a 0 et le
joueur C a 0 ; et alors le jeu s’arrête.

Si A choisit y, A passe la main au joueur B. B dispose donc de 2 choix :


• 1er choix (X) : A gagne 4, B gagne 2 et C gagne 4 et le jeu s’arrête.
• 2ème choix (Y) : gain de A = 2 ; gain de B = 3 et gain de C = 1 et le
jeu s’arrête.
Si A choisit Z, A passe la main à C et C a 2 choix :
• 1er choix : soit il passe la main à A en prenant w.
• 2ème choix : soit il arrête le jeu avec u : gain de A = 1, gain de B = 0
et gain de C = 3.

L’ordre dans lequel les joueurs interviennent est décisif pour le jeu.
2 remarques : 2 règles ne sont jamais violées.
• 1ère règle : il y a au moins une flèche qui part de chaque nœud et
une flèche au + qui y aboutit. Si on se situe sur n’importe quel
nœud, l’excepté le nœud de départ, il n’y a qu’une seule manière de
remonter à l’origine.
• 2ème règle : en se déplaçant à contre courant, on st sûr de ne jamais
revenir u nœud duquel on est parti (n’importe quel nœud excepté
celui du départ).

Un jeu sous forme extensif ressemble à un arbre mathématique c’est-à-


dire dont les ramifications ne se coupent jamais. Il n’y a pas de boucle,
l’arborescence ne comporte jamais de boucles.

On peut formaliser le jeu d’échec sous forme de jeu extensif.


3 remarques :
• 1ère remarque : la position aux échecs peut résulter de plusieurs
séquences différentes
• 2ème remarque : jeu d’échec est un jeu à somme constante
• 3ème remarque : jeu s’achève toujours
Exemple : pierre, papier, ciseau ; décision simultanée
Représentation sous forme extensive de la manière suivante :
A
C (0,0)
Ca B C
(0,0)
F F Ca F (1,-1)
(-1,1) C (-1,1)
(1,-1) Ca
(1,-1) C
F (-1,1)
(0,0)
Cette relation nous donne un ?? :
• à chaque jeu sous forme extensive correspond un jeu sous forme
stratégique où les joueurs donnent leurs décisions de façon
simultanée.
• En revanche un jeu sous forme stratégique donnée peut
correspondre à plusieurs jeux sous forme extensive.

Stratégies dominées : 2 manières de les repérer et de les éliminer :


A U V
B
X 3;6 7;1
Y 5;1 8;0
Z 6;0 6;4
Première solution technique : elle consiste à répondre à la question
« Qu’est-ce qui n’arrivera pas ? »
X est une stratégie dominée car quelque soit le choix de B, A ne choisira
pas X.

A U V
B
X 3;6 7;1
Y 5;1 8;2
Z 6;0 6;2
X est toujours dominée par Y.
Si B pense que A ne choisira pas X, car X est une stratégie dominée,
alors U est dominée par V, car en choisissant V, B aura toujours un gain
supérieur aux gains de U.
Mais si A choisit X alors V est dominé par U car gain optimal pour B.
Si A se dit que B sait que A ne choisira pas X, donc A sait que B va choisir
V, donc A doit choisir Y.
Ce raisonnement est une élimination par itération des stratégies
dominées.

Si B choisit U, A a intérêt à choisir Z.


Si B choisit V, A a intérêt à choisir Y.
Dans les 2 cas, X n’est pas adopté.
Donc B sait que A ne va pas jouer X et A sait que B sait que A ne va pas
jouer X.
C’est le « common knowledge ».
Si on raisonne sans prendre en compte que X est une stratégie dominée
de A, B aurait intérêt à jouer U.
• Dans le cas de figure, où A va jouer X, il n’y a pas de situation de
stratégie dominante – dominée.
• A partir du moment où on supprime X (car pour A, X est une
stratégie dominée), on voit que V domine U ou U est dominé par V.
• Si on considère que A ne va pas jouer X et que U est dominé par V,
alors A va jouer Y. Pour A, Y domine Z.
Conclusion : il y a eu élimination par itération des stratégies dominées.
On est toujours dans la recherche de solutions.
Pour trouver un équilibre il existe 3 techniques :
• 1ère technique : élimination des stratégies dominées
• 2ème technique : équilibre de Nash : on regarde le point où aucun
des joueurs n’aura de regret.
• 3ème technique : optimum de Pareto : chaque individu est au
maximum.
Problème : « Qu’est-ce qui se passe quand il y a plusieurs équilibres
possibles dans un même jeu ?
Jeu type : guerre des sexes.
Idée : 2 époux veulent passer la soirée ensemble et ont 2 choix possibles :
• aller voir un spectacle de ballet
• aller voir un match de boxe
Sachant que la femme veut aller voir le ballet et le mari, le match de boxe.
Et que les 2 époux préfèrent aller ensemble à une des deux possibilités
plutôt que séparément (mais il n’est pas exclu qu’ils aillent séparément).
On est dans une situation où les 2 parties veulent coopérer.
F Boxe Ballet
H
Boxe 4;5 0;0
Ballet 1;1 5;4
Par ordre de préférence, tous les 2 sont contents de voir le spectacle de
leur choix.
En (0 ; 0) et (1 ; 1) l’épouse et le mari sont séparés.
Dans (0 ; 0) la femme s’est retrouvée au match de boxe tandis que le mari
s’est retrouvé au spectacle de ballet.
Dans (1 ; 1), chacun est allé voir le spectacle de leur choix mais ne sont
qu’en partie contents parce qu’ils se retrouvent tout seul, séparé de leur
conjoint.
Ces 2 situations sont 2 équilibres de Nash.
Comment choisir entre les 2 ?
3 solutions pour coordonner les actions en cas de multiplicité d’équilibre :
• 1ère solution : équilibre corrélé
• 2ème solution : point focal
• 3ème solution : convention
Les 3 solutions font appel à des facteurs exogènes.
• 1ère solution : l’équilibre corrélé : 2 joueurs vont coordonner leur
choix entre ces 2 équilibres à un événement aléatoire ; celui-ci peut
être le lancer d’une pièce par exemple. Principe de l’équilibre
corrélé : les joueurs vont coordonner leur action en fonction
d’événements aléatoires qui surviendront au moment du choix avec
une probabilité de 0,5. Chaque joueur a intérêt à respecter cet
accord pour que l’autre le respecte et afin qu’ils soient en équilibre
de Nash, sous peine de ne pas être dans un équilibre de Nash.
• 2ème solution : le point focal est un principe introduit par Thomas
Schelling en 1960 ; on est dans le cas de figure où 2 joueurs ont
intérêt à coordonner leur action. Point focal a avoir avec quelque
chose qui ressemble au common knowledge.
Exemple de point focal : 2 joueurs se rencontrent dans un avion et
décident de déjeuner ensemble le lendemain à 13h. Mais ils ont oublié de
fixer le lieu du rendez-vous et n’ont ni l’un ni l’autre leurs coordonnées
respectives.
Principe : l’un et l’autre vont réfléchir à leur conversation dans l’avion pour
trouver un endroit dont ils ont beaucoup discuté, ou alors un endroit que
les 2 aiment.
C’est un point focal qui a la + forte probabilité.
Autre exemple : 2 joueurs doivent choisir un nombre entre 1 et 100.
Si les 2 joueurs coïncident : ils gagnent chacun 100€.
Si les 2 joueurs trouvent un nombre différent : ils gagnent 0€.
Exception : si les 2 joueurs choisissent 18, ils gagnent chacun 99€.
Le point focal de cet exemple est 18. 18 est l’équilibre le + probable
même si on donner un gain < aux autres gains.
Chacun des équilibres a une probabilité de 1/99 pour qu’il y ait
coordination alors que les 2 joueurs savent que s’ils choisissent 18, ils ont
100% de chances de gagner.
.

• 3ème solution : les conventions sont le 3ème moyen de choisir le point


focal c’est-à-dire un équilibre de Nash. Elles consistent en des
habitudes, des manières de penser, tout ce qui relève de
comportements traditionnels dans la typologie de Weber. Elles vont
peser sur les décisions des agents : c’est la rationalité en valeur ou
comportement traditionnel. Intellectuellement, les rationalités des
agents peuvent être surdéterminées par des conventions, des
habitudes, des relations sociales. Elles vont structurer les
comportements des agents. (1ère étape). Ensuite (2ème étape), la
théorie des jeux évolutionniste va expliquer comment ces
conventions sont elles-mêmes sélectionnées ? Ce sont des
théoriciens tels que Axel Rod et Smith qui vont l’expliquer. On fait
appel à la théorie des jeux évolutionniste dans laquelle l’hypothèse
de sélection naturelle est remplacée par l’hypothèse
d’apprentissage. L’idée est donc que si des individus obtiennent des
gains supérieurs aux autres, en choisissant de meilleure stratégie, ils
vont être imités par les autres. Donc, les conventions vont être
sélectionnées par ce processus d’apprentissage.
Ces conventions sélectionnées qui résultent de sélection d’un équilibre de
Nash font, qu’une convention remplacée par une autre, qu’aucun individu
n’a intérêt à dévier : état évolutionnairement stable.
C’est la sélection par apprentissage des conventions.
Idée est que les conventions peuvent résulter d’un apprentissage et que
cet celui-ci va sélectionner un certain types de conventions permettant la
coordination des agents lorsqu’il y a plusieurs solutions possibles qui
apparaissent comme équivalentes.