Académique Documents
Professionnel Documents
Culture Documents
Nous avons décrit, dans le chapitre 1, le comportement d'un individu parfaitement rationnel lorsqu'il est confronté
à des choix risqués. En toutes circonstances, il opère des choix qui respectent une axiomatique complexe et réalise
des anticipations pertinentes sur la base de l'ensemble d'information disponible. En outre, cet individu révise ses
croyances avec une parfaite maîtrise de la théorie des probabilités, autrement dit, il utilise à bon escient et sans erreur
la règle de Bayes. Sommes-nous dotés de telles capacités ? Nos choix peuvent-ils être décrits de façon satisfaisante
par ces axiomes ? Sommes-nous parfaitement rationnels ? Ces questions sont au cœur de ce troisième chapitre et
nous proposons, comme le dit Thaler (2000), de quitter l’homo-economicus pour l'homo-sapiens.
La section 1 revient sur la pertinence de l'axiomatique présentée dans le premier chapitre. Nous décrivons les
résultats d'un certain nombre d'expériences qui mettent en lumière la violation de l'axiome d'indépendance et de
l'axiome de transitivité. Parmi elles, le paradoxe d'Allais (1953) tient lieu de précurseur. L'utilisation spontanée
et correcte de la règle de Bayes est ensuite abordée. Enfin, un phénomène qualifié d'« inversion des
préférences » conclut cette section.
La deuxième section aborde l'approche psychologique de la prise de décision. Selon les travaux des psychologues,
les individus confrontés à des choix opèrent des raccourcis de raisonnement. Leurs choix sont alors guidés par des
heuristiques (ou règles simplifiées) que les chercheurs en psychologie mettent en lumière. L'utilisation de telles règles
conduit les individus à des comportements parfois éloignés de ce que prédit la théorie des probabilités ; ces
déviations sont qualifiées de « biais ». L'approche, en termes d'heuristiques et de biais, est essentiellement due à
Kahneman et Tversky. Nous décrivons dans cette section trois heuristiques classiques : celles de représentativité,
d'ancrage et de disponibilité.
La dernière section de ce chapitre tient lieu de conclusion et aurait pu être intitulée « les biais en pratique ». Elle est
consacrée au lien entre psychologie et comportement des investisseurs sur les marchés financiers. Trois illustrations de
ce lien sont retenues : les réactions excessives des marchés financiers (De Bondt et Thaler, 1985), le biais de
disposition et la gestion des portefeuilles individuels (Odean, 1998) et, enfin, la surconfiance des investisseurs et
l'excès d'échanges sur les marchés financiers (Barber et Odean, 2002).
La représentation de la façon dont un individu rationnel prend ses décisions s'appuie sur une axiomatique que
nous avons résumée dans le chapitre 1. Dans cette section, nous discutons les axiomes de transitivité (2) et
d'indépendance (5). Rappelons que l'axiome 2 traduit le fait que lorsqu'une loterie A est préférée à une loterie B,
elle-même préférée à une loterie C, alors A doit être préférée à C. L'axiome 5 stipule, quant à lui, que si A est
préférée à B alors une combinaison de la loterie A avec une loterie C est préférée à une combinaison identique de
la loterie B avec la loterie C. Il s'agit de s'interroger sur le respect de ces axiomes par les individus. Ce point est
abordé dans les deux sous-sections suivantes. Une troisième sous-section est consacrée à la violation de la règle de
Bayes par les individus. Enfin, un phénomène qualifié d'inversion des préférences fait l'objet d'une dernière sous-
section.
1
1.4. L'INVERSION DES PREFERENCES
Un autre biais classique à la rationalité parfaite concerne la cohérence des choix opérés par les individus lorsqu'ils
sont confrontés à des loteries d'espérance de gain identique.
Etude de Slovic et Liehtenstein (1968, 1971).
Les exemples précédents montrent que les choix des individus ne sont généralement pas en accord avec ce que
prédit l'hypothèse de rationalité parfaite. L'approche proposée par les chercheurs en psychologie comme
Tversky et Kahneman est différente. Selon ces auteurs, les individus confrontés à un choix ou à un problème
complexe opèrent des simplifications ou des raccourcis de raisonnement pour le résoudre rapidement. Les
décisons prises sont alors régies par des règles simplifiées ou heuristiques que les psychologues tentent de
mettre en lumière. c’est l’exemple d’un joueur de billard qui, au moment de jouer, ne résout pas
mentalement l’équation trigonométrique qui lui permettrait théoriquement de savoir précisement
l’angle et la force de tir qu’il doit utiliser pour frapper la boule avec sa queue. Le j oueur emprunte alors
un raccourci mental qui lui permet de jouer (parfois très brillamment) sans pour autant maitriser les
lois de la physique théoriquement requises.
Face à des choix, l'utilisation de ces heuristiques conduit alors les individus à des comportements parfois
éloignés de ce que prédit la théorie des probabilités ; et lorsqu’elles sont utilisées à mauvais escient,
elle peut amener les hommes à commetre des erreurs mentales systématiques. ces déviations sont
qualifiées de « biais» heuristique ou d’erreur heuristiques.
L'un des avantages de cette approche est de permettre de comprendre certains phénomènes observés
sans évoquer l'hypothèse d'« irrationalité ».
Depuis les travaux pionniers de Tversky et Kahneman, de nombreuses recherches ont été menées et la
littérature sur ce sujet est extrêmement vaste. L'objectif de cette section est de présenter trois heuristiques
«classiques » : les heuristiques de représentativité, de disponibilité et d'ancrage (et d'ajustement). Ces trois
premières heuristiques sont essentiellement dues à Tversky et Kahneman (1974). Nous soulignons également
quelques biais de comportement dus à leurs utilisations.
l'heuristique de représentativité est une sorte d’outi que le cerveau humain utilise pour classer rapodement des
informations, une tendance de la part des individus à essayer de catégoriser et reconnaître des évènements ou
faits comme typiques ou représentatifs d’une classe de faits bien connus. Plus A est représentatif de B, plus la
probabilité associée par les individus à ce lien est élevée.
D'autres biais sont associés à l'utilisation de l'heuristique de représentativité, par exemple, l'insensibilité
des réponses à la fréquence initiale et à la taille de l'échantillon ou encore l'interprétation erronée de la
chance.
En présentant un ensemble de descriptions de personnages, Tversky et Kahneman montrent que les
participants ne tiennent pas compte de la nature de la population initiale. Pour tester cet impact, les
auteurs proposent un certain nombre de descriptions et demandent ensuite aux participants de classer ces
personnages dans deux catégories socio-professionnelles : avocat ou ingénieur. Les participants sont informés
que le personnage décrit a été tiré au hasard dans une population de 100 personnes dans laquelle 70 % sont
avocats et 30 % sont ingénieurs. L'expérience est ensuite renouvelée pour des populations initiales
composées de 70 % d'ingénieurs et de 30 % d'avocats. Les réponses ne semblent pas affectées par les
proportions initiales d'avocats et d'ingénieurs (base rate frequency). Il semble que le classement opéré se
fonde essentiellement sur la représentativité de la description par rapport à un stéréotype. Il est à
noter que ce résultat demeure valide dans un contexte où les descriptions proposées ne contiennent aucune
information particulière.
De la même façon, la taille de l'échantillon semble négligée lorsque les individus raisonnent selon
l'heuristique de représentativité. (problème de l’hopital) ; Sample size neglect
2
L'heuristique de représentativité conduit également à une perception de la chance souvent erronée.
Imaginons que nous lancions un dé parfaitement équilibré 6 fois de suite et que nous analysions ce tirage en relevant
à chaque lancer si le nombre obtenu est pair (noté P) ou impair (noté I). En général, les individus ont tendance à
considérer qu'un tirage du type I P PI I P est plus probable qu'un tirage du type I I I P P P. La raison essentielle est
que la succession trop marquée de nombres impairs puis de nombres pairs semble, pour de nombreux individus,
contraire à la notion de tirage aléatoire. Or, la taille très faible des tirages ne permet aucune conclusion de ce type.
Ce biais est dû à l'utilisation d'une règle erronée qualifiée de « loi des petits nombres » (Tversky et Kahneman,
1971). L'utilisation de cette règle conduit à penser que les petits échantillons sont représentatifs de la
population de laquelle ils sont issus.
Finalement, l'utilisation de la loi des petits nombres est à l'origine de deux biais essentiels. Reprenons l'exemple
dans lequel un dé parfaitement équilibré est lancé 6 fois de suite.
- La probabilité que le dé tombe sur un nombre pair est perçue comme plus forte après une série de nombres
impairs et ce biais est connu sous le nom d'erreur du joueur (gambler's fallacy, Tversky et Kahneman, 1974).
- Le caractère aléatoire de la série est rejeté lorsque plusieurs jets successifs sont pairs (ou impairs) même si
cette série contient le nombre moyen de jets pairs attendu.
Une application concrète et ludique de cette perception erronée de la chance est étudiée par Gilovich et al
(1985). Elle concerne la notion de « main chaude » lors des matchs de basket-ball. Ce jargon, courant dans le
milieu des fans de ce sport, traduit la perception par les spectateurs d'une habileté toute particulière de certains
joueurs lors d'une période d'un match. Elle exprime essentiellement deux idées. La première est que la chance
de réussir un panier après un lancer réussi est plus importante qu'après un lancer raté. La seconde est que le
nombre de paniers successifs est plus important que le nombre de paniers successifs qui serait obtenu par un
tirage aléatoire d'événements indépendants (associé à un taux de réussite constant). Un joueur peut, par
exemple, avoir un taux de réussite constant de 50 % ou, en d'autres termes, réussir en moyenne un lancer sur
deux. Gilovich et al. ont testé ces deux hypothèses sur 48 matchs de l'équipe de Philadelphie durant la saison
1980-1981 et ont analysé les lancers successifs de chacun des joueurs de cette équipe. Leurs résultats montrent que,
contrairement aux raisonnements qui sous-tendent l'idée de la « main chaude », les probabilités de réussir un
panier après un, deux ou trois lancers gagnants sont en moyenne plus faibles que les probabilités de réussir un
panier après un, deux ou trois lancers ratés. En outre, les séquences de lancers réussis et ratés ne sont pas
significativement différentes de celles obtenues par un tirage aléatoire.
L’« ancrage » (anchoring) est un outil que le cerveau humain utilise pour résoudre des problèmes
complexes. Dans de très nombreuses situations, les individus effectuent des estimations en partant d’une
valeur initiale, d’un point de référence qui sera ajustée pour produire la réponse ultime à un problème posé.
La présence de cette heuristique trouve sa plus célèbre illustration dans l'analyse des résultats obtenus lors de
l'expérience suivante (Tversky et Kahneman, 1974). Elle comporte plusieurs étapes et les étapes 2 et 3 contiennent
les questions posées aux participants.
- Première étape : une roue de la fortune est utilisée et permet de tirer de façon aléatoire un nombre compris entre 0 et
100. Le résultat du tirage au sort est communiqué aux participants.
- Deuxième étape : selon vous le nombre de pays africains membres de l'ONU est-il supérieur ou inférieur au
nombre tiré?
- Troisième étape : à combien estimez-vous le nombre de pays africains membres de l'ONU ?
De façon surprenante, le nombre tiré aléatoirement a une influence sur la réponse à la dernière question. À titre
d'exemple, à la question finale, la réponse médiane est de 25 pour le groupe de sujets pour lequel le nombre issu du
tirage aléatoire est de 10 et de 45 pour le groupe de sujets soumis à un tirage aléatoire de 65. Selon Tversky et
Kahneman, dans ces expériences tout se passe comme si « les individus formulaient leurs estimations en partant
d'une valeur initiale et en l'ajustant pour donner leurs réponses finales [et]... cet ajustement est systématiquement
trop faible ». On peut noter que l'insuffisance de l'ajustement observé est couramment nommé biais
d'ajustement.
3
La présence de cette heuristique a été confirmée par de nombreuses études. Kahneman et Knetsch (1993) ont
demandé aux habitants de Toronto s'ils étaient prêts à payer 25 $ dans un cas (faible valeur de l'ancrage) ou 200
$ dans un autre cas (forte valeur de l'ancrage) pour nettoyer un lac afin d'y protéger la faune et la flore.
Une deuxième question est ensuite formulée : à votre avis, quelle est la valeur moyenne que sont prêts à payer les
habitants de cette ville pour le nettoyage ? Les sujets confrontés à l'ancrage de 25 $ estiment que le consentement à
payer moyen est de 14 $ tandis que les sujets confrontés à l'ancrage de 200 $ estiment ce dernier à 36 $. On peut
souligner que cet effet d'ancrage reste présent même lorsque les ancrages sont extrêmes.
En particulier, Starck et Mus-sweiler (1997) demandent aux participants, après avoir été soumis à deux ancrages,
l'un d'une valeur de 1215 et l'autre d'une valeur de 1992, d'estimer la date à laquelle Einstein (né en 1879 et mort en
1955) se rendit pour la première fois aux États-Unis. Cette étude montre que les sujets soumis à l'ancrage
aberrant et extrêmement faible de 1215 donnent une réponse moyenne de 1905 alors que le second grpupe donne
une réponse moyenne de 1939.
En outre, l'effet d'ancrage et l'insuffisance d'ajustement ne se limitent pas uniquement aux situations où le
nombre est donné aux sujets ; ils apparaissent également lorsque le sujet fonde sa réponse sur une partie de
l'information disponible. Par exemple, Tversky et Kahneman (1974) proposent à un premier groupe de sujets
d'évaluer en 5 secondes le produit suivant :8x7x6x5x4x3x2. Un deuxième groupe de sujets doit dans le
même temps évaluer le produit 2x3x4x5x6x7x8. Les résultats obtenus montrent que la valeur médiane du
premier groupe est de 2 250 alors que celle obtenue par le second groupe est de 512 (la valeur exacte est de
40320). Tout se passe comme si les sujets, contraints dans leur temps de calcul, se servent de la multiplication
des trois, quatre ou cinq premiers chiffres comme ancrage puis ensuite réalisent un ajustement qui est de toute
évidence trop faible.
Le débat concernant les sources de l'insuffisance de l'ajustement par rapport à l'ancrage n'est pas tranché. Par
exemple, certains auteurs pensent que l'ajustement se fait jusqu'à ce que ce dernier conduise à une valeur
plausible, ce processus conduit dès lors le sujet à arrêter cet ajustement trop tôt, d'autres pensent que cet
ajustement demande un effort et que cet effort, couplé au manque de ressources cognitives, est à l'origine de ce
sous-ajustement.
Selon Tversky et Kahneman (1974), l'heuristique de disponibilité est un principe par lequel les individus
évaluent la fréquence d'une classe ou la probabilité associée à un événement en fonction de la facilité avec
laquelle les exemples d'un tel événement leur viennent à l'esprit ;
Un exemple classique de l'utilisation de cette heuristique est donné par Tversky et Kahneman en 1973. Ces auteurs
ont posé à des sujets la question suivante.
Dans un échantillon aléatoire de textes en langue anglaise, est-il plus probable qu'un mot commence
par la lettre K ou que K soit en troisième position (exclusion faite des mots de moins de trois lettres) ?
Sur les 152 individus interrogés, 105 pensent que les mots commençant par la lettre K sont les plus nombreux. Dans
les faits, les mots qui contiennent un K en troisième position sont deux fois plus nombreux et ce résultat est le fruit de
l'utilisation de l'heuristique de disponibilité. En effet, ces auteurs justifient ce choix par le fait que les mots dont
la première lettre est K viennent plus facilement à l'esprit que les seconds. Les participants affectent alors à ces
mots une plus grande probabilité d'occurrence. Ces expériences ont été menées avec d'autres lettres et conduisent
au même résultat. En outre, l'utilisation de cette heuristique conduit également à un biais que nous pourrions
qualifier d'imagination.
L'expérience décrite ci-après en est une illustration.
Il vous est demandé d'observer les deux structures suivantes.
Structure A Structure B
++++++++ ++
++++++++ ++
++++++++ ++
++
++
++
++
4
Un chemin connecte un (+) de la première ligne à un (+) de la dernière ligne en passant par un seul (+) par ligne. En
d'autres termes, un chemin est une ligne passant par trois (+) dans la structure A et 9 (+) dans la structure B.
1) A votre avis, dans quelle structure existe-t-il le plus de chemins possibles ?
2 ) Approximativement, combien de chemins sont possibles dans chacune des deux structures ?
La plupart des participants imaginent plus facilement les chemins possibles dans la structure A que dans la
structure B et, de ce fait, en concluent que le nombre de chemins différents contenus dans la structure A est plus
important que dans la structure B (85 % des participants).
En outre, à la question 2, le nombre médian donné par les participants est de 40 pour la structure A et 18 pour la
structure B. On peut remarquer qu'en réalité les deux structures contiennent le même nombre de chemins possibles,
soit 512 (83 = 29 = 512).
Pour conclure, les expériences menées par les psychologues montrent que cette heuristique est responsable
d'autres biais de comportement. En particulier, son utilisation conduit les individus à évaluer le lien entre deux
variables sur la base de la facilité avec laquelle ils associent ces deux variables. Dès lors, ceci conduit les individus à
imaginer des corrélations fortes entre des variables qui sont en réalité faiblement corrélées. Ce biais est
généralement nommé illusion de corrélation.
D'autres heuristiques ont été mises en lumière par les psychologues et le lecteur peut se référer, par exemple, à
l'article de Slovic et al. (2002) traitant du rôle de l'« affect » dans le processus de prise de décision.
5
particulièrement pessimistes (perception d'une tendance bais-sière, par exemple). Un raisonnement inverse peut
être tenu en présence d'informations favorables.
Dans un tel contexte, si deux portefeuilles extrêmes sont construits, le premier étant composé de titres dont la
rentabilité passée a été la plus faible (portefeuille « perdant », noté F), le second de titres dont la rentabilité passée a
été particulièrement élevée (portefeuille « gagnant » noté G), l'hypothèse de sur-réaction doit conduire à une
correction à la hausse pour le portefeuille perdant et à la baisse pour le portefeuille gagnant. En d'autres termes,
les mouvements extrêmes de prix dans les périodes passées doivent être suivis de mouvements correctifs dans le
sens opposé. En outre, plus le mouvement initial est fort, plus la correction doit être forte. L'hypothèse implicite
est que les entreprises dont les titres composent le portefeuille perdant ont été l'objet d'informations défavorables à
l'origine d'une sous-évaluation (sur-réaction) et que cette sur-réaction à la baisse devrait être corrigée à la hausse
par une réaction de même ampleur. Le raisonnement inverse peut être tenu pour les titres du portefeuille
gagnant.
La base de données utilisée par De Bondt et Thaler (1985) comprend les cotations mensuelles des titres du
NYSE sur la période allant de 1926 à 1982. La rentabilité du marché (portefeuille de marché) à la date t est la
moyenne arithmétique des rentabilités de l'ensemble des titres cotés sur le marché et est notée rM,t .
1. La période est décomposée en 16 sous-périodes de 3 ans qui servent à la formation des portefeuilles de titres (N
= 1 à 16). La période (I) va de janvier 1930 à décembre 1932, la période (XVI) de janvier 1975 à décembre 1977.
Sur chacune de ces périodes, la rentabilité cumulée en excès de la rentabilité du marché (rentabilité résiduelle
cumulée) est calculée pour chacun des titres. Par exemple, pour la période I et, pour un titre j, cette rentabilité
peut s'écrire :
𝑡=36 𝑡=36
1
Les auteurs précisent que les conclusions de leur article ne sont pas affectées par le choix d'un modèle d'équilibre (CAPM, par
exemple) pour le calcul des rentabilités résiduelles (ou « anormales »), ni par le choix du mois de décembre comme période
de formation des portefeuilles.
6
Tableau 5. - Résultats obtenus pour trois durées de formation différentes
DF Titres PG PP Δ (l) Δ (12) Δ (18) Δ (24) Δ (36)
5 ans 50 1,463 - 1,194 0,070 0,156 0,256 0,196 0,230
(3,13) (2,04) (3,17) (2,15) (2,07)
3 ans 35 1,375 - 1,064 0,105 0,054 0,167 0,181 0,246
(3,29) (0,77) (1,51) (1,71) (2,20)
2 ans 35 1,130 - 0,857 0,062 - 0,006 0,136 0,101
(2,91) (-0,16) (2,02) (1,41)
Source : De Bondt etThaler (1985).
On peut noter que, sur le court terme, un effet momentum (hausse suivie d'une hausse et baisse suivie d'une baisse)
est généralement mis en évidence par les études empiriques. En particulier, Jegadeesh et Titman (1993) ont
étudié le comportement en données mensuelles de l'ensemble des titres cotés du NYSE sur la période 1965-1989.
Ces auteurs ont classé les titres par déciles en fonction de leurs performances sur une période de 6 mois (le premier
décile est, par exemple, constitué des 10 % de titres les plus rentables). En étudiant le comportement de chacun de
ces déciles sur la période de 6 mois suivant la formation des portefeuilles, ces auteurs montrent que les
portefeuilles composés des titres appartenant aux premiers déciles « surperforment » les portefeuilles composés
des 10 % des titres les moins performants, de 10 % en moyenne et en base annuelle.
Enfin, dans le même esprit, certaines études remettent en cause la capacité du marché financier à intégrer «
correctement » et en temps réel certaines informations, c'est le cas, par exemple, de Ikenberry et al. (1995) pour les
rachats d'actions ou encore de Bernard et Thomas (1989) pour les annonces de bénéfices.
7
individuels par rapport à un point de référence (théorie des perspectives). Cette théorie est due à Kahneman et
Tversky en 1979.
- Enfin, en réalisant leurs gains et en ne réalisant pas leurs pertes, les investisseurs satisfont leur recherche de
fierté et évitent d'être confrontés au regret.
Odean (1998) confirme ce biais en étudiant 10 000 comptes d'investisseurs individuels de janvier 1987 à
décembre 1993. Cette étude porte sur 6 380 actions traitées sur le NYSE, l'AMEX et le NASDAQ et 97
843 transactions sont prises en compte. Pour chaque transaction et chaque portefeuille individuel, le prix de vente
des titres est comparé au prix moyen d'achat de ces titres afin de déterminer s'il s'agit d'une réalisation de plus-
value ou de moins-value. Les titres qui composent le portefeuille individuel n'ayant donné lieu à aucune
transaction permettent de déterminer la perte ou le gain potentiel de l'ensemble du portefeuille. À titre d'exemple,
supposons qu'un investisseur X détienne cinq actions, A, B, C, D et E et qu'un deuxième investisseur Y détiennent
trois actions F, G et H. Supposons que le jour j les prix des actions A et B soient supérieurs à leur prix d'achat (C,
D et E ont un prix inférieur à leur prix d'achat) et que X vende des titres A et C. Enfin, supposons que le jour suivant,
les prix des actions F et G soient supérieurs à leur prix d'achat (prix de H inférieur au prix d'achat) et que Y décide
de vendre des actions F. Sur l'ensemble des deux jours et pour les deux investisseurs seront comptabilisés :
- deux gains réalisés (RG) : vente des actions A et vente des actions F ;
- deux gains potentiels (PG) : actions B et G ;
- une perte réalisée (RL) : actions C ;
- trois pertes potentielles (PL) : actions D, E et H.
Les pertes et les gains potentiels sont déterminés par rapport au prix maximum et minimum de la journée et une
perte (un gain) est caractérisé(e) par des prix maximum et minimum inférieurs (supérieurs) au prix d'achat moyen.
Dans le cas où les deux prix extrêmes de la journée sont de part et d'autre du prix d'achat moyen, aucun gain et
aucune perte n'est enregistré. Sur la base de ces différentes mesures, deux ratios sont alors calculés : une
proportion de gains réalisés (PGR) et une proportion de pertes réalisées (PLR) définies comme suit :
𝑅𝐺 𝑅𝐿
𝑃𝐺𝑅 = et 𝑃𝐿𝑅 =
𝑅𝐺+𝑃𝐺 𝑅𝐿+𝑃𝐿
Dans l'exemple simplifié, pour les deux investisseurs et sur les deux jours, PGR = 1/2 et PLR = 1/4. Ces deux
mesures traduisent alors une tendance plus forte des investisseurs à réaliser leurs gains que leurs pertes. Le tableau 6
offre les résultats obtenus pour l'ensemble des portefeuilles de l'étude.
Les lignes PLR et PGR contiennent respectivement les proportions de pertes réalisées et les proportions de
gains réalisés. Les colonnes, « Année », « Décembre », et « Janv./Nov. » contiennent les résultats obtenus
respectivement sur l'ensemble de l'échantillon, les mois de décembre uniquement, les années entières, exclusion
faite du mois de décembre. La dernière ligne contient la valeur de la statistique de Student (significativité des
différences de proportions).
Le même type de résultats est obtenu pour une analyse compte par compte, pour d'autres points de référence
(prix maximum d'achat par exemple), pour des proportions calculées sur le nombre de titres échangés ou encore
pour des découpages plus fins de l'échantillon initial.
Les résultats traduisent, sur l'ensemble de la période et pour l'ensemble de l'année, une disposition plus forte des
investisseurs à réaliser leurs gains plutôt que leurs pertes (PLR < PGR). Les résultats pour les mois de décembre
soulignent une proportion de vente importante par rapport au reste de l'année qui est à mettre en parallèle avec
l'économie d'impôts que permet cette opération. En outre, on peut remarquer que ces résultats sont statistiquement
très significatifs. Enfin, si l'on se réfère au tableau 6, le rapport entre PGR et PLR est proche de 1,5, ce qui a une
interprétation simple : un titre en hausse a 50 % de plus de chances d'être vendu qu'un titre en baisse durant cette
période.
Cette disposition à vendre les titres gagnants peut trouver sa motivation dans une croyance très forte au caractère de
retour à la moyenne. Par exemple, un investisseur ayant acheté un titre sur la base d'une information perçue
comme favorable peut penser que la baisse n'est que provisoire et que le marché n'a pas encore intégré cette
information. À l'opposé, la hausse du cours de ce même titre peut le conduire à penser que l'information est
8
intégrée et que ce dernier doit être vendu. Le tableau 7 donne les rentabilités des titres gagnants vendus et des
titres perdants gardés en portefeuille pour différentes périodes qui suivent cette opération.
Les périodes choisies sont respectivement de 84 jours (durée médiane de détention des titres sur l'échantillon
étudié), 1 an ou 252 jours ouvrés (horizon d'investissement estimé par Benartzi et Thaler, 1995) et enfin, 2 ans
ou 504 jours ouvrés (taux moyen de détention des titres sur le NYSE pour la période étudiée). Les deux premières
lignes du tableau 7 contiennent les rentabilités moyennes en excès de l'indice CRSP2 (représentatif du marché
d'actions américain) pour les titres gagnants vendus et les titres perdants gardés en portefeuille. La troisième ligne
contient la différence de rentabilité moyenne entre ces deux types de titres3. Les résultats traduisent, par exemple,
que sur une période de 1 an l'excès de rentabilité des titres vendus est de 3,41 % supérieur à l'excès de rentabilité des
titres gardés en portefeuille. En outre, cette sous-performance des titres gardés en portefeuille est observée quelle
que soit la durée retenue.
Très clairement, si la stratégie des investisseurs se fonde sur l'idée que les titres perdants (gardés en portefeuille)
«surperforment » les titres gagnants dans une période future, alors cette statégie est en moyenne perdante. On peut
remarquer que ce résultat est compatible avec l'effet momentum mis en évidence par Jegadeesh et Titman en
1993.
2Centre de recherche sur le prix des titres (Center of Research in Security Prices) de l'Université de Chicago.
3La signiflcativité de ces résultats est testée à partir d'une méthode de bootstrap (voir Odean, 1998, p. 1791) : ils
sont statistiquement significatifs.
9
d'eux-mêmes : ils se considèrent, par exemple, comme de meilleurs conducteurs (Svenson, 1981) ou de meilleurs ges-
tionnaires (Cooper et al., 1988) que la moyenne et ont tendance à surestimer leur rôle dans la réalisation
d'événements favorables (Miller et Ross, 1975).
Les investisseurs sont-ils sujets au même biais ? Quelles sont, si c'est le cas, les conséquences sur leurs choix
d'investissement ? Dans la suite, nous répondrons à cette question en nous appuyant sur deux contributions
importantes (Odean, 1999 ; Barber et Odean, 2002).
Plusieurs arguments peuvent être avancés afin de justifier une réponse positive aux questions formulées. Sur les
marchés financiers, les investisseurs opèrent des sélections de titres dans un univers où la prévision est difficile
(faible degré de « prédictabilité ») et c'est dans ce type d'environnement que les phénomènes de surconfiance sont les
plus prompts à apparaître (Griffin et Tversky, 2002). En outre, une certaine confiance en sa capacité de gestion et
d'anticipation est nécessaire afin de décider de gérer seul son propre portefeuille.
Sur un marché où les coûts de transaction sont positifs, un investisseur parfaitement rationnel ne prend position
que si l'espérance de gain de cette opération excède les coûts induits. À l'opposé, un investisseur surconfiant peut
prendre une position dans le cas inverse en estimant de façon erronée, par exemple, l'amplitude des profits
espérés. De la même façon, un tel investisseur peut sélectionner ses titres en surestimant la précision de son
information privée ou sa capacité à traiter cette information.
Une façon de mettre en exergue un tel comportement est de mesurer si, ex-post, la rentabilité des titres achetés
excède la rentabilité des titres vendus par les investisseurs individuels, en tenant compte des coûts de transactions.
Odean (1999) étudie la profitabilité des choix de portefeuille des investisseurs à partir de la base de données de
comptes individuels décrite dans la section précédente. Rappelons que la période d'étude s'étale de janvier 1987 à
décembre 1993. Sur cette période et pour cet échantillon, le coût de transaction moyen s'élève à 5,9 % pour une
opération d'achat/vente et, de ce fait, la rentabilité des titres achetés doit finalement excéder d'environ 6 % celle
des titres vendus afin d'être profitable. Le tableau 8 offre les résultats obtenus pour l'ensemble de l'échantillon
et pour trois périodes distinctes de calcul des rentabilités 4.
Le résultat le plus marquant est que, quelle que soit la période choisie, la rentabilité des titres vendus excède celle
des titres achetés. Par exemple, pour l'échantillon global et pour un horizon d'une année, la rentabilité des titres
achetés est de 3,3 % inférieure à celle des titres vendus. Ce constat est valide hors coûts de transaction et la
présence de ces derniers ne fait qu'amplifier ce résultat5. Afin d'affiner cette analyse, la sur ou sous-performance
des portefeuilles « potentiellement » détenus est mesurée. Pour chaque mois t, la rentabilité d'un portefeuille
composé d'une position dans chaque titre ayant fait l'objet d'un achat pendant une période précédant le mois t est
calculée. Cette période est nommée période de formation et varie de 4 à 24 mois et le portefeuille construit est
nommé portefeuille « acheté ». Un portefeuille « vendu » est construit de la même façon. Il s'agit alors d'analyser
les performances du portefeuille global par rapport à un benchmark représentatif du marché d'actions américain
(indice CRSP). Le tableau 9 donne quelques résultats et l'on peut noter que ces derniers sont statistiquement
significatifs6.
4
Les périodes de test choisies sont décrites dans la section précédente et ces résultats sont statistiquement significatifs.
5
Les valeurs obtenues sont toutes négatives et l'on peut conclure que le choix opéré par les investisseurs n'est
pas optimal. En d'autres termes, les nombreux échanges de titres ne semblent pas justifiés. En guise d'illustra- Des
résultats identiques sont obtenus pour des découpages différents de l'échantillon, pour les investisseurs les plus actifs et
en limitant l'effet de refinancement des portefeuilles.
6
Le modèle de Fama et French (1993) est également testé. En outre, une analyse très précise du comportement des titres dans
les périodes qui précèdent l'achat et la vente est donnée dans l'article original.
10
Tableau 9. - Résultats obtenus en pourcentage
4 mois 12 mois 24 mois
Rentabilité CAPM/ap - 0,293 -0,311 - 0,225 - 0,234 - 0,137 - 0,152
Les colonnes contiennent les différentes périodes de formation retenues. La première ligne contient la rentabilité
moyenne du portefeuille en excès du portefeuille du marché. Enfin, la dernière ligne contient le (a) de Jensen 3
calculé sur la base de régressions du type :
𝑅𝐴,𝑡 − 𝑅𝑉,𝑡 = 𝛼𝑝 + 𝛽𝑝 (𝑅𝑀,𝑡 − 𝑅𝑓,𝑡 ) + 𝜀𝑝,𝑡
où 𝑅𝐴,𝑡 , 𝑅𝑉,𝑡 , 𝑅𝑀,𝑡 , 𝑅𝑓,𝑡 sont respectivement la rentabilité du portefeuille acheté, la rentabilité du portefeuille
vendu, la rentabilité du portefeuille de marché et le taux sans risque.
Les valeurs obtenues sont toutes négatives et l’on peut conclure que le choix opéré par les investisseurs n’est pas
optimal. En d’autres termes, les nombreux échanges de titres ne semblent pas justifiés. En guise d’illustration, si la
période de formation des portefeuilles retient les titres échangés par tranche de 12 mois, alors le portefeuille
construit présente une rentabilité mensuelle moyenne inférieure à celle du marché de l'ordre de 0,225 %. En
outre, les valeurs de l'indice de Jensen traduisent également une sous-performance de la stratégie mise en place par
les investisseurs. Ces résultats semblent corroborer l'hypothèse selon laquelle les investisseurs souffrent de
surconfiance et surestiment la précision de leur information. Dès lors, cet état de fait les conduit à des ajustements
de portefeuilles trop fréquents ou, en d'autres termes, à un échange excessif de titres.
Dans le même esprit, Barber et Odean (2002) testent l'hypothèse de surconfiance en étudiant le comportement et
la performance d'investissements choisis par un large panel d'investisseurs ayant opté pour une gestion de
portefeuille en ligne contre une gestion traditionnelle. Leur base de données contient, en particulier, les
opérations réalisées par 1 607 investisseurs sur la période allant de janvier 1991 à décembre 1996. Ce panel est
très original car il est constitué d'investisseurs dont les stratégies « surperformaient » le marché avant ce
changement. En quoi ces investisseurs sont-ils susceptibles a priori de « souffrir » particulièrement du biais de
surconfiance ? Plusieurs arguments peuvent être avancés.
- Ces investisseurs obtiennent de bons résultats avant ce changement et, de ce fait, ont tendance à penser que leur
succès est le fruit de leur compétence. À l'opposé, les individus attribuent généralement leur échec au manque de
chance ou à l'action des autres (Miller et Ross, 1975). Ce biais d'auto-attribution peut alors entraîner une
surconfiance chez ces investisseurs et les conduire à s'engager dans des échanges plus fréquents et, en particulier,
à choisir des investissements plus spéculatifs. En anticipant que l'effort demandé par le changement de gestion
sera amorti par plus d'échanges, ces investisseurs semblent plus prompts à passer à la gestion en ligne.
Lorsque les individus reçoivent plus d'informations sur la base des quelles ils formulent des prévisions, la précision
de leurs prévisions tend à augmenter moins rapidement que la confiance qu'ils ont dans ces dernières. La quantité
d'informations supplémentaires peut conduire à une illusion de connaissance et à une surconfiance (Peterson et
Plitz, 1988). En gérant leur portefeuille via le réseau, les investisseurs sont confrontés à une foule d'informations
qui peut augmenter l'illusion de connaissance et de ce fait la surconfiance. Cet état de fait peut être accentué par le
phénomène de dissonance cognitive (Festinger, 1957). Les investisseurs qui pas sent un temps considérable à traiter
ces informations se considèrent généralement comme raisonnables. Pour éviter que le temps passé ne leur
apparaisse comme du temps perdu, ils sont plus enclins à l'échange de titres.
- Les individus pensent généralement que leur implication personnelle a une influence sur la réalisation
d'événements favorables (pourtant aléatoires) et ce phénomène est nommé l'illusion du contrôle (Langer et Roth,
1975). En choisissant leurs titres sans intermédiaire (conversation téléphonique, par exemple), ces investisseurs
peuvent se sentir personnellement plus impliqués ; l'illusion de contrôle peut les conduire à des échanges plus
fréquents.
Le tableau 10 résume les principaux résultats obtenus avec des rentabilités mesurées en tenant compte des coûts de
transaction1.
11
Tableau 10. - Résultats en pourcentage et en données mensuelles
Avant Après
Online Classique DIFF Online Classique DIFF
Rentabilité nette 1,492 1,355 0,137 1,002 1,082 -0,08
Excès/marché 0,197 0,060 0,137 - 0,291 -0,211 -0,08
Excès/benchmark - 0,160 - 0,196 0,036 - 0,297 - 0,120 -0,177
CAPM/𝛼𝑝 0,126 0,044 0,082 - 0,519 -0,311 - 0,208
Taux de rotation 73,7 53,2 20,5 95,5 48,2 47,3
Source : Barber et Odean (2002).
La première colonne (colonne « avant ») concerne les résultats obtenus avant le passage à la gestion en ligne et la
seconde après ce passage (colonnes « après »). Outre les résultats obtenus par le panel d'investisseurs ayant
changé de mode de gestion (colonnes « online »), le tableau contient les résultats qui concernent un panel
d'investisseurs « proches » de ces derniers mais n'ayant pas procédé au changement de mode de gestion sur
l'ensemble de la période étudiée7. Ces derniers sont qualifiés de classiques dans la suite. Les colonnes « DIFF »
contiennent les écarts. Les lignes « rentabilité nette », « excès/marché » et « CAPM/a » donnent respectivement les
rentabilités mensuelles moyennes, les rentabilités mensuelles moyennes en excès de l'indice CRSP et la mesure de
performance de Jen-sen. Enfin, la ligne « excès/benchmark » contient les rentabilités mensuelles moyennes en
excès d'une référence interne. Cette dernière correspond à la performance mensuelle moyenne des portefeuilles
détenus par les investisseurs au début de chaque année. En d'autres termes, elle mesure la performance obtenue si
aucune transaction n'avait été réalisée pendant l'année.
Le premier constat est que le panel d'investisseurs ayant opté pour une gestion en ligne (que nous qualifierons
d'investisseurs online dans la suite) ont de bonnes performances avant ce changement. En particulier, ils «
surperforment » le marché de près de 20 points de base et les investisseurs classiques d'environ 14 points de base.
Après le changement, les performances affichées par les investisseurs online se dégradent et « sous-performent » le
marché et les investisseurs classiques (respectivement de 29 points de base et de 8 points de base). Le volume
d'échange (dans la ligne « taux de rotation ») a particulièrement augmenté pour les investisseurs online. Le taux de
rotation annualisé est mesuré sur les deux ans qui précèdent le passage à la gestion online et deux ans après cet
événement. Les investisseurs online ont un taux de rotation plus important avant le changement de type de
gestion. Cependant, après ce passage le taux de rotation augmente de plus de 20 % (pour atteindre 95,5 %),
alors que celui des investisseurs classiques diminue. Lors du premier mois d'échange via internet, ce taux de
rotation atteint 120 %. Enfin, la performance en excès du benchmark interne montre que les investisseurs online
perdent 30 points par mois (3,6 % annuel) au travers de leur activité, alors que les investisseurs classiques ne
perdent que 12 points de base (1,4 % annuel).
Pour conclure, l'ensemble de ces résultats confirme, très largement, les hypothèses testées et, en particulier, celles
concernant la surconfiance et les échanges excessifs des investisseurs.
7
Au moment de la première transaction d'un investisseur sur internet, un investisseur ayant la position la plus proche (en
termes de taille) lui est associé. D'autres alternatives sont testées et ne modifient pas fondamentalement les résultats.
12