Vous êtes sur la page 1sur 41

Les deux vitesses de la

pensée
Guillaume

-00:00

Télécharger

(article basé sur l’ouvrage Thinking, fast and slow par


Daniel Kahneman)

Nous traitions dans un précédent article de la théorie du


Nudge et du paternalisme libertaire fondée par le Nobel
d’économie Richard H. Thaler, c’est aujourd’hui un autre
Nobel d’économie, Daniel Kahneman, qui reprend et
approfondit l’un des aspects de l’économie
comportementale survolé par Thaler, en s’attachant à
détailler les éléments de biais du jugement évoqués dans
Nudge à la lumière des deux systèmes de pensées
identifiés chez l’être humain. Grossièrement résumé, ce
livre traite des défauts de notre intuition dus aux
raccourcis pris par notre pensée dans le système 1, la
pensée rapide, et de leur poids sur le système 2, plus lent
et rationnel mais non imperméable au préjugé et à
l’erreur. Autrement dit, nous supposons certaines choses
automatiquement sans y avoir soigneusement réfléchi, et
ces hypothèses et suppositions, que Kahneman nomme
heuristiques à la suite de Thaler, influencent chacune de
nos décisions, des plus triviales aux plus cruciales.
Comprendre leur fonctionnement est un premier pas
nécessaire à la reprise du contrôle conscient de notre
pensée et donc, de notre comportement.

Deux systèmes de pensée

Notre cerveau est composé de deux « personnages »,


l’un qui pense vite, le système 1, et l’autre qui pense
lentement, le système 2. Le système 1 fonctionne
automatiquement, intuitivement, involontairement et sans
effort, comme lorsque nous conduisons, déchiffrons une
expression faciale de colère ou nous souvenons notre
âge. Le système 2 nécessite de ralentir, de délibérer, de
résoudre des problèmes, de raisonner, de calculer, de se
concentrer, de prendre en compte d’autres données et de
ne pas tirer de conclusions rapides – comme lorsque
nous résolvons un problème mathématique, choisissons
où investir de l’argent ou remplissons un formulaire
compliqué. Ces deux systèmes sont souvent en conflit
l’un avec l’autre. Le système 1 fonctionne sur des
heuristiques qui peuvent s’avérer imprécises. La
mobilisation du système 2 nécessite un effort pour
évaluer ces heuristiques et est sujet à l’erreur. Le but
central de l’ouvrage est d’aider le lecteur à reconnaître les
situations dans lesquelles des jugements erronés sont
probables et à s’efforcer davantage d’éviter les erreurs
importantes lorsque les enjeux sont élevés.

Attention et effort
D’un point de vue purement mécanique, penser
lentement affecte notre corps (pupilles dilatées), notre
attention (observation extérieure limitée) et notre énergie
(ressources épuisées). Parce que penser lentement
requiert un effort, nous sommes enclins à penser vite, à
emprunter le chemin de la moindre résistance. La
paresse est profondément ancrée dans notre nature.
Nous pensons vite pour accomplir des tâches de routine
et nous devons penser lentement pour gérer des tâches
plus complexes. Un exemple simple de la vie de tous les
jours : la pensée rapide dit : « J’ai besoin de faire des
courses », la pensée lente ajoute « Plutôt que d’essayer
de me rappeler quoi acheter, je note une liste de courses.
»

Le système 2 est donc un contrôleur, mais un contrôleur


paresseux. Un promeneur s’arrêtera de marcher si on lui
demande d’accomplir une tâche mentale difficile.
Calculer en marchant est un drain d’énergie. C’est
pourquoi être interrompu pendant la concentration est
frustrant, pourquoi nous oublions de manger lorsque
nous nous concentrons sur un projet intéressant,
pourquoi le multitâche pendant la conduite est dangereux
et pourquoi résister à la tentation est beaucoup plus
difficile lorsque nous sommes stressés. La maîtrise de soi
diminue lorsque nous sommes fatigués, affamés ou
épuisés mentalement. En raison de cette réalité, nous
sommes enclins à laisser le système 1 prendre le relais de
manière intuitive et impulsive. La plupart des gens ne
prennent pas la peine de réfléchir réellement à leurs
problèmes. L’intelligence n’est pourtant pas seulement la
capacité de raisonner, c’est aussi la capacité de trouver
des éléments pertinents dans la mémoire et de déployer
l’attention si nécessaire pour les analyser. Accéder à la
mémoire demande des efforts, mais en ne le faisant pas,
nous sommes enclins à faire des erreurs de jugement.

Heuristiques de base : la machine associative

Heuristique # 1 : l’amorçage. L’exposition consciente


et/ou subconsciente à une idée nous « amorce » à
penser à une idée associée. Si nous avons parlé de
nourriture, nous remplirons le vide de la devinette PA_N
avec un I, mais si nous avons parlé d’oiseaux, nous le
remplirons avec un O. Les éléments extérieurs à notre
conscience peuvent influencer la façon dont nous
pensons. Ces influences subtiles affectent également le
comportement, c’est l’effet « idéomoteur ». Kahneman
décrit de nombreuses expériences réalisées qui
démontrent cet effet : les sujets exposés à des
thématiques sur la vieillesse (même de façon détournée)
marcheront inconsciemment plus lentement dans les
instants qui suivent. En miroir les sujets invités à marcher
plus lentement reconnaîtront plus facilement les mots liés
à la vieillesse même si le lien est subtil. Les sujets à qui il
est demandé de sourire trouveront les plaisanteries
présentées plus drôles. Ceux à qui il est demandé de
froncer les sourcils trouveront des images troublantes
plus inquiétantes. C’est connu : si nous nous comportons
d’une certaine façon, nos pensées et nos émotions
finiront par rattraper notre attitude. Nous ne nous
contentons pas de ressentir en fonction de notre attitude
et des évènements, mais nous pouvons
comportementaliser nos sentiments, les induire,
volontairement ou inconsciemment. Ce qui est une porte
ouverte aux erreurs de jugement : nous ne sommes pas
des penseurs rationnels objectifs. D’innombrables
facteurs influencent notre jugement, notre attitude et
notre ressenti sans même que nous en soyons
conscients.
Cet ouvrage vous explique une méthode pour être plus serein dans la
gestion de vos rendez-vous dans votre cabinet.

Heuristique # 2 : l’aisance cognitive. Les idées et


concepts qui sont plus simples à comprendre, plus
familiers et/ou plus faciles à appréhender semblent plus
« vrais » que ceux qui nécessitent une réflexion
approfondie, sont nouveaux ou sont difficiles à cerner.
Des « illusions prévisibles » se produisent inévitablement
si un jugement est basé sur l’impression de facilité par
opposition à un effort cognitif. Comment décidez-vous
qu’une affirmation est vraie ? Si elle est fortement liée par
la logique ou l’association à d’autres croyances ou
préférences que vous détenez, ou provient d’une source
en laquelle vous avez confiance et que vous aimez, vous
ressentirez un sentiment de facilité cognitive qui
influencera votre perspective sur ce qui est dit. C’est
parce que les choses qui nous sont familières nous
semblent « vraies » que les enseignants, annonceurs,
spécialistes du marketing, tyrans autoritaires et même
chefs de secte répètent sans cesse leur message. Le
potentiel d’erreur de jugement est donc là encore
important : si nous entendons un mensonge assez
souvent, nous aurons tendance à le croire.

Heuristique # 3 : la cohérence associative. Pour donner


un sens au monde, nous nous racontons des histoires sur
ce qui se passe. Nous faisons des associations entre les
événements surprenants, les circonstances et les
événements réguliers. Plus ces événements s’intègrent
dans nos histoires, plus ils semblent normaux. La surprise
est un élément qui s’érode vite, et même le plus
incroyable des hasards prend des airs de normalité dès
sa seconde occurrence : les anomalies et les incongruités
dans la vie quotidienne demandent des explications
cohérentes, la cohérence seule suffisant parfois au
détriment de la réalité ou de la logique. Kahneman prend
cet exemple de la rencontre d’un ami dans un restaurant
à l’étranger, et de la surprise causée par cette
coïncidence. Lors d’une autre rencontre inattendue avec
le même ami au théâtre quelques semaines plus tard, la
surprise n’était presque plus au rendez-vous et dans
l’esprit de Kahneman et de son épouse l’ami était devenu
« celui que l’on rencontre tout le temps dans des endroits
improbables ». Il deviendrait « normal » de le croiser à
peu près n’importe où et n’importe quand. Souvent, ces
explications que nous forgeons impliquent d’autres
éléments de fausse causalité au profit de la cohérence et
au détriment de la réalité : l’hypothèse de l’intention («
Cela devait arriver »), la causalité (« Ils sont sans-abri
parce qu’ils sont paresseux ») ou l’interprétation de la
providence (« Il y a une intention divine/ supérieure en
tout »). Nous sommes évidemment prêts dès la
naissance à absorber des impressions de causalité qui ne
dépendent pas d’un raisonnement logique. Notre esprit
est impatient d’identifier des agents agissant sur le
monde, de leur attribuer des traits de personnalité et des
intentions spécifiques, et de voir leurs actions comme
exprimant des propensions individuelles. Nous
introduisons l’intention et le libre arbitre là où il n’y en a
pas, et confondons la causalité avec la corrélation,
transformant – à tort – les coïncidences en statistiques.

Heuristique # 4 : le biais confirmatoire. Il s’agit de la


tendance à rechercher et à trouver des preuves
confirmant une croyance tout en négligeant les contre-
exemples, à confirmer plutôt qu’à tenter de réfuter.
Sauter aux conclusions est efficace si les conclusions
sont susceptibles d’être correctes, si les coûts d’une
erreur occasionnelle sont acceptables, et si le saut
permet d’économiser beaucoup de temps et d’efforts.
Sauter aux conclusions est risqué lorsque la situation
n’est pas familière, que les enjeux sont élevés et qu’il n’y
a pas de temps pour recueillir plus d’informations. Le
système 1 remplit l’ambiguïté avec des suppositions et
des interprétations automatiques qui correspondent à
notre cohérence associative. Il considère rarement
d’autres interprétations. Lorsque le système 1 fait une
erreur, le système 2 est supposé intervenir pour nous
ralentir et envisager des explications alternatives. Le
système 1 est crédule, le système 2 est chargé de douter
et de ne pas croire, mais le système 2 est parfois occupé
et souvent paresseux. C’est pourquoi on est plus
susceptible de se tromper ou d’être influencé lorsqu’on
est fatigué ou préoccupé. Nous sommes également, par
ce même biais, enclins à surestimer la probabilité
d’événements improbables (peurs irrationnelles mais
cohérentes avec notre histoire) et à accepter sans
critique chaque suggestion d’autorité.

Heuristique # 5 : l’effet halo. C’est la tendance à aimer ou


à ne pas aimer tout ce qui concerne une personne, un
lieu, une idée, y compris ce que nous n’avons pas
observé. L’émotion chaleureuse que nous ressentons
envers une personne ou un lieu nous prédispose à aimer
tout ce qui concerne cette personne ou ce lieu. Ainsi, une
bonne première impression a tendance à colorer
positivement les impressions négatives ultérieures et
inversement, les premières impressions négatives
peuvent colorer négativement les impressions positives
ultérieures. Les premiers à exprimer leur opinion lors
d’une réunion peuvent ainsi « amorcer » les opinions des
autres. Une liste d’adjectifs positifs décrivant une
personne influence la façon dont nous interprétons les
adjectifs qui viennent plus loin dans la liste. De même, les
adjectifs négatifs colorent les adjectifs positifs ultérieurs :
si l’on nous dit « Alan est : intelligent, travailleur, sérieux,
critique, opiniâtre, jaloux ; Ben est : jaloux, opiniâtre,
sérieux, travailleur, intelligent », instinctivement notre
perception d’Alan sera plus positive que celle que nous
aurons de Ben, ce qui est une absurdité en l’absence
d’autres informations puisque ce sont exactement les
mêmes caractéristiques, mais dans un ordre différent. Ce
qui ressort de ces exemples est que nos jugements
intuitifs sont impulsifs, pas clairement réfléchis ou
examinés de manière critique. Pour rappeler au système 1
de rester objectif, de ne pas sauter aux conclusions et de
faire appel aux compétences évaluatives du système 2,
Kahneman a inventé l’abréviation « COVERA », « Ce
qu’On Voit Et Rien d’Autre ». Il l’applique par exemple en
notant désormais à l’aveugle les copies de ses étudiants,
et en notant séparément chaque question, après s’être
rendu compte que même anonymes, le nombre de points
qu’il accordait aux réponses suivantes étaient influencées
de façon drastique par la note accordée à la première
réponse. Dans sa cohérence associative personnelle de
professeur, si l’étudiant avait brillamment répondu à la
première question, il « ne pouvait pas » complètement se
tromper ensuite, s’il avait échoué il ne « pouvait pas »
réussir si brillamment etc. En d’autres termes, il est
important de se méfier de ses impressions intuitives et de
rester concentré sur les données solides dont nous
disposons, de remettre en cause nos certitudes en
basant nos croyances non sur des sentiments mais sur
une pensée critique, et de faire une place au doute et à
l’ambigüité.

Heuristique # 6 : le jugement. Le système 1 repose sur


l’intuition, une évaluation de base de ce qui se passe à
l’intérieur et à l’extérieur de l’esprit. Il est enclin à ignorer
les « variables de type somme », c’est-à-dire que nous
échouons souvent à calculer avec précision les sommes
mais nous nous fions plutôt à des moyennes intuitives
souvent peu fiables fondées sur des correspondances
erronées. Nous évaluons automatiquement et
inconsciemment les mérites relatifs d’un élément, d’un
produit, d’une personne, (« il sourit beaucoup, donc il est
gentil ») en faisant correspondre des traits qui n’ont pas
vraiment de rapport. Nous sommes de même enclins à
évaluer une décision ou une valeur sans distinguer les
variables les plus importantes. C’est ce que l’on appelle
l’approche de « la chevrotine mentale ». Ces évaluations
de base peuvent facilement remplacer le travail acharné
que le système 2 doit faire pour porter des jugements.

Heuristique # 7 : la substitution. Face à un problème, une


question ou une décision déroutante, nous nous facilitons
la vie en répondant à une question de substitution plus
simple. Au lieu d’estimer la probabilité d’un certain
résultat complexe, nous nous appuyons sur une
estimation d’un autre résultat moins complexe. Au lieu de
se débattre avec la question philosophique « Qu’est-ce
que le bonheur ? » nous répondons à la question, plus
simple : « Quelle est mon humeur en ce moment ? » ou
« qu’est-ce qui me ferait plaisir aujourd’hui ? ». Même si
les personnes très anxieuses activent plus souvent le
système 2, évaluant presque obsessionnellement chaque
décision, peur ou risque, il est surprenant de voir avec
quel succès leur système 1 fonctionne. Même les anxieux
chroniques parviennent en général sans effort apparent à
maintenir une activité « normale » en-dehors de leurs
sujets d’angoisse : ils marchent, mangent, dorment,
respirent, font des choix, portent des jugements, font
confiance et s’engagent dans des entreprises sans
crainte, inquiétude ou anxiété. Pourquoi ? Parce qu’ils
remplacent les problèmes complexes par des problèmes
plus faciles. Le potentiel d’erreur est là encore important,
puisque nous tendons à refuser ou être incapables de
répondre à la question la plus difficile, qui est parfois
pourtant parfois la plus vitale.

Heuristique # 8 : l’affect. Les émotions influencent le


jugement. Les gens laissent leurs goûts et dégoûts
déterminer leurs croyances sur le monde. Si je méprise
une personne publique (écrivain, politique…), je jugerai
son discours en fonction de ce mépris et ne reconnaîtrai
pas son éventuelle qualité à ce moment M. Le potentiel
d’erreur évident est que nous pouvons laisser nos
préférences émotionnelles obscurcir notre jugement et
sous-estimer ou surestimer les risques et les avantages.

Les grands biais cognitifs

De ces heuristiques fondamentales découlent de


nombreux biais issu de leurs diverses formes.

Incompétence statistique

Heuristique # 9 : la loi des petits nombres. Nos cerveaux


ont du mal à appréhender les statistiques. Les petits
échantillons sont plus sujets à produire des résultats
extrêmes que les grands échantillons, mais nous avons
tendance à accorder plus de crédit aux résultats des
petits échantillons que ne le justifient les statistiques. Le
système 1 est impressionné par le résultat d’échantillons
réduits mais ne devrait pas l’être, ces derniers n’étant pas
représentatifs de situations plus globales. Nous nous
trompons lorsque nous usons de notre intuition plutôt
que de calculer réellement. Nous prenons ainsi des
décisions fondées sur des données insuffisantes.

Heuristique # 10 : la crédulité. Le système 1 supprime


l’ambiguïté et le doute en construisant des histoires
cohérentes à partir de simples fragments de données. Le
système 2 est notre sceptique intérieur, pesant ces
histoires, en doutant et suspendant le jugement. Mais
parce que l’incrédulité nécessite beaucoup de travail, le
système 2 échoue parfois à faire son travail et nous laisse
basculer dans la certitude. Nous sommes programmés
pour croire. Parce que nos cerveaux sont des dispositifs
de reconnaissance de formes, la machine associative
recherche des causes, et nous avons tendance à
percevoir de la causalité là où il n’en existe pas. Les
régularités se produisent au hasard. Un lancer de pièces
produisant 50 « faces » d’affilée ne semble pas naturel,
mais si l’on devait lancer une pièce des milliards et des
milliards de fois, il y a de fortes chances que 50 faces
d’affilée finissent par sortir. Lorsque nous détectons ce
qui semble être une règle, nous rejetons rapidement
l’idée que le processus est vraiment aléatoire. Attribuer
des bizarreries au hasard demande du travail. Il est plus
facile de les attribuer à une force intelligente dans
l’univers ou à une loi physique même méconnue.
Kahneman conseille d’accepter que différents résultats
soient dus à une hasard aveugle. Il y a beaucoup
d’évènements dans ce monde dus au hasard et ne se
prêtant pas à des explications, même si notre cerveau
déteste cette idée. Cessons d’établir des connexions là
où il n’en existe pas.

Heuristique # 11 : l’effet d’ancrage. Pendant de


l’amorçage qui en joue, il s’agit du phénomène
subconscient consistant à faire des estimations
incorrectes en raison de quantités ou qualités
précédemment évoquées. Si l’on vous demande si
Ghandi avait plus de 100 ans à sa mort, vous estimerez
l’âge de sa mort plus élevé que si l’on vous avait
précédemment demandé s’il était mort à 35 ans. C’est un
ajustement influencé par une information pourtant
totalement non-pertinente. Un exemple courant est le
montant des dommages et intérêts attribués dans
certains types de procès, qui sont ancrés à des montant
astronomiques du simple fait de la demande aléatoire des
avocats. Le résultat est que bien que revus à la baisse, ils
sont dans la majorité des cas largement supérieurs à ce
qui aurait été attribué à défaut de demande chiffrée, en
se basant simplement sur les textes de loi et les faits.

Disponibilité, émotion et risque

Heuristique # 12 : la disponibilité. Lorsqu’il est demandé


d’estimer des chiffres comme la fréquence des divorces
à Hollywood, le nombre de plantes dangereuses ou le
nombre de décès par accident d’avion, la facilité avec
laquelle nous récupérons des exemples dans notre
mémoire influence notre estimation. Nous sommes
enclins à surestimer les occurrences de faits pour
lesquels nous trouvons le plus facilement des exemples.
Et ces exemples sont d’autant plus faciles à convoquer
que nous en avons une expérience personnelle ou
émotionnelle : celui qui a été agressé surestimera la
fréquence des agressions, celui qui est exposé à un
reportage sur les fusillades dans les écoles surestimera le
nombre de crimes commis avec une arme à feu, et celui
qui se charge de corvées domestiques surestimera le
pourcentage des tâches ménagères dont il se charge
seul (quand les deux parties d’un couple supposent
qu’elles font 70% du travail à la maison, quelqu’un a
pourtant forcément tort !) Une personne qui a vécu une
tragédie surestimera le potentiel de risque, de danger
d’un univers hostile. Une personne non exposée à la
violence sous-estimera le danger de certaines situations.
Lorsqu’un ami est atteint d’un cancer, nous nous faisons
examiner. Lorsque nous n’avons jamais été exposé à
cette maladie, nous ignorons le risque.

Heuristique # 13 : les cascades de disponibilité. À la suite


de notre biais de disponibilité de l’information (au moins
en apparence), lorsque les nouvelles s’accumulent et que
ces exemples disponibles se multiplient même
artificiellement, nos sens statistiques se déforment
encore plus. Un récent accident d’avion nous fait penser
que les voyages en avion sont plus dangereux que les
voyages en voiture, ce que Sunstein appelait la
« négligence de la probabilité ». Le traitement
médiatique d’évènements comme le terrorisme ou la
gestion du risque par les politiques publiques nous font
surestimer les risques et intensifient nos réactions
émotionnelles, influençant par là même nos décisions. Le
potentiel d’erreur est important, nous poussant à réagir
de manière excessive à des problèmes mineurs
simplement parce que nous entendons un nombre
disproportionné de nouvelles négatives en rapport avec
ceux-ci.

Heuristique # 14 : la représentativité. Semblable au


profilage ou aux stéréotypes, la représentativité est la
tendance intuitive à porter des jugements en fonction de
la similitude d’un élément avec quelque chose que nous
aimons ou connaissons, sans prendre en considération
d’autres facteurs : probabilité (vraisemblance),
statistiques (taux de base) ou taille des échantillonnages.
Ce qui peut poser problème dans la maîtrise consciente
de cette heuristique est que la plupart des stéréotypes
portent une part de vérité, et qu’il convient de doser nos
jugements pour pas surestimer ou sous-estimer les
statistiques (et donc les risques ou opportunités) réelles :
les personnes souriantes sont souvent vraiment
sympathiques, mais cette personne n’est pas forcément
sympathique pare qu’elle sourit beaucoup, ou encore les
hommes jeunes ont plus de chance d’être agressifs et/ou
violents, mais cet homme jeune dans la même rame de
métro que moi ne va pas nécessairement m’agresser.
Pour discipliner notre intuition paresseuse, nous devons
porter des jugements basés sur la probabilité et les taux
de base, et remettre en question notre analyse des
preuves utilisées pour formuler notre hypothèse en
premier lieu. Il faut s’attacher à cesser d’évaluer une
personne, un lieu ou une décision en fonction de leur
ressemblance avec quelque chose d’autre sans tenir
compte d’autres facteurs concrets.

Heuristique # 15 : l’erreur de conjonction. Après avoir été


« amorcés » avec la description précise d’une personne
fictive (Linda), des sujets devaient sélectionner plusieurs
affirmations qu’ils pensaient vraies la concernant. La
plupart ont choisi une histoire plausible plutôt qu’une
histoire probable, en sélectionnant par exemple « Laura
est employée de banque ET féministe » plutôt que
« Laura est employée de banque ». Pourtant,
statistiquement, une seule caractéristique a
nécessairement plus de chance (probabilité) d’être vraie
que deux. Les notions de cohérence, de plausibilité et de
probabilité sont facilement confondues, et nous
négligeons le fait concret que plus nous ajoutons de
détails à une évaluation, une prévision ou un jugement,
moins ils sont susceptibles d’être probables. Pourquoi ?
Le système 1 néglige la logique en faveur d’une histoire
plausible, crédible, rattachable.

Heuristique # 16 : la négligence des statistiques. Nous


privilégions les histoires avec pouvoir explicatif sur les
simples données. L’exemple fourni est celui d’un accident
causé par un taxi dans une ville ou deux compagnies
existent, l’une avec des taxis verts (85%), l’autre avec des
taxis bleus (15%). Un témoin, testé et fiable à seulement
80%, déclare avoir vu un taxi bleu causer l’accident. La
probabilité que le taxi soit bleu est évaluée par les sujets,
logiquement, à 15% avec la seule information statistique,
mais à 80% avec les deux informations, alors que la
réalité statistique serait de 41% compte-tenu du défaut
de fiabilité du témoin. Lorsque des données purement
statistiques sont fournies, nous faisons généralement des
inférences précises. Mais lorsque ces données
statistiques sont accompagnées d’une histoire
individuelle pouvant satisfaire notre besoin de causalité
et notre machine associative, nous avons tendance à
suivre la narration plutôt que les statistiques.

Heuristique # 17 : la régression vers la moyenne. La


plupart des gens aiment attacher des interprétations
causales aux fluctuations des processus aléatoires. La
régression vers la moyenne est une conséquence
mathématique inévitable du fait que le hasard joue un
rôle dans le résultat : un instructeur de l’armée à qui on
expliquait que la récompense génère plus d’efficacité que
la punition refusait ces statistiques réelles par son
expérience personnelle, qu’un cadet félicité était moins
performant lors de son second saut et qu’un autre
réprimandé après le premier raté était plus efficace
ensuite. Il refusait la simple réalité de la régression vers la
moyenne, qui fait que la probabilité d’un saut
exceptionnellement bon ou mauvais est faible et qu’il est
naturel de ne pas réussir parfaitement ou totalement
échouer deux fois d’affilée. Son intervention n’avait en
réalité probablement eu aucun effet dans les deux cas, et
les résultats auraient été exactement les même sans
celle-ci.

Heuristique # 18 : les prédictions intuitives. Les


conclusions que nous tirons avec une forte intuition
(système 1) alimentent l’excès de confiance. Ce n’est pas
parce qu’on « le sent bien » que cela sera positif. Une
start-up a statistiquement peu de chance de réussir
aujourd’hui : notre évaluation des probabilités de réussite
de n’importe quelle start-up, même fondée sur les
meilleures idées par les meilleurs entrepreneurs,
devraient être au mieux moyenne. C’est pourtant
rarement le cas. Nous avons besoin du système 2 pour
ralentir et examiner notre intuition, estimer les
probabilités de base, considérer la régression à la
moyenne, évaluer la qualité des preuves, etc. Les
prédictions intuitives et la volonté de prédire des
événements rares à partir de preuves faibles sont toutes
deux des manifestations du Système 1. Le potentiel
d’erreur est bien sûr une confiance injustifiée en une
prédiction alors que nous sommes en fait dans l’erreur.

L’excès de confiance en soi

L’illusion de la compréhension

Heuristique # 19 : l’illusion narrative. Dans notre tentative


continue de donner un sens au monde (cohérence
associative et effet halo), nous nous persuadons que
nous le comprenons et nous créons souvent des histoires
rétrospectives erronées du passé qui façonnent nos
visions du monde actuel et nos attentes pour l’avenir.
Nous attribuons des rôles plus importants au talent, à la
stupidité et aux intentions qu’au hasard. Notre conviction
réconfortante que le monde a du sens repose sur une
base solide : notre capacité presque illimitée à ignorer
notre ignorance. Cette heuristique est plus perceptible
dans l’idée d’inévitabilité rétrospective (la crise financière
était « inévitable », tel évènement « devait arriver »). Ce
qui entraîne plus précisément :

Heuristique # 20 : le biais rétrospectif. Nous pensons que


nous comprenons le passé, ce qui implique que l’avenir
devrait être connaissable, alors que les faits nous
montrent pourtant que ce n’est pas le cas. Nos intuitions
et prémonitions semblent réelles après coup : une fois
qu’un événement a eu lieu, nous oublions ce que nous
pensions avant cet événement, avant de changer d’avis.
Avant 2008, personne n’a réagi malgré les signaux
identifiés a posteriori pouvant avertir d’un possible crash
économique. Après le crash et encore aujourd’hui, on
entend pourtant que cette situation était « inévitable » et
qu’elle avait été prédite. Les intuitions des concernés ont
été réoutillées pour devenir des preuves. La tendance à
réviser l’histoire de ses croyances à la lumière de ce qui
s’est réellement produit engendre une solide illusion
cognitive. Nous sommes enclins à blâmer les décideurs
pour de bonnes décisions qui ont mal fonctionné et des
comportements pourtant rationnels sur le moment, et à
leur accorder trop peu de crédit pour des actions
réussies, à la lumière de situations analysées après coup.
Des actions qui paraissaient prudentes peuvent sembler
irresponsablement négligentes avec le recul.

L’illusion de la légitimité

Heuristique # 21 : l’illusion de la validité. Nous croyons


parfois en toute bonne foi que nos opinions, prévisions et
points de vue sont plus valables que les faits s’y
opposant. La confiance subjective dans un jugement ou
une idée n’est pas une évaluation raisonnée de la
probabilité que ce jugement soit correct, que cette idée
soit pertinente. La confiance en soi est un sentiment qui
reflète la cohérence de l’information et la facilité cognitive
de son traitement. Plusieurs facteurs renforcent cet
excès de confiance : la vanité, l’affiliation avec des pairs
partageant les mêmes idées, la surévaluation de nos
antécédents de succès et la minimisation de nos
échecs…

Heuristique # 22 : l’illusion de talent. La précédente


découle souvent de celle-ci et des suivantes : Nous
négligeons les informations statistiques et privilégions
nos présentiments et notre conception de la réussite sur
les faits. Nous pensons que nous (ou les personnes sur
lesquelles nous parions) ferons ou comprenons mieux
que les statistiques, que nous adaptons ou ignorons pour
maintenir notre cohérence narrative.

Heuristique # 23 : l’illusion de l’expertise. L’intuition


signifie savoir quelque chose sans savoir comment nous
le savons. La compréhension de Kahneman de cette
qualité est que l’intuition est vraiment une question de
reconnaissance, que notre familiarité, notre connaissance
ou habitude d’une situation nous pousse rapidement aux
jugements. Les joueurs d’échecs « voient » la partie à
venir, les pompiers « savent » quand un bâtiment est sur
le point de s’effondrer, les marchands d’art « identifient »
les marques de contrefaçon, les amis « connaissent »
leurs amis, même éloignés… Par extension, les enfants se
proclament experts en jeux vidéo, les automobilistes en
conduite, les chefs en cuisine… Ces « intuitions »,
relevant à la fois de l’illusion de l’expertise et de celle du
talent, doivent toutefois être nuancées et rapportées à
leur nature réelle, c’est-à-dire une reconnaissance
immédiate des formes connues ou déjà expérimentées.
Kahneman est ainsi sceptique vis-à-vis des « experts »,
car ils négligent souvent ce qu’ils ne savent pas.
Kahneman fait confiance aux experts lorsque deux
conditions sont remplies : l’expert se trouve dans un
environnement suffisamment connu et stable pour être
prévisible, et l’expert, par une pratique prolongée et avec
lucidité, tient compte des irrégularités et de sa propre
ignorance.

L’excès d’optimisme

Heuristique # 24 : l’erreur de planification. Entreprendre


un projet risqué – litige, guerre, ouverture d’un restaurant
– en ne se focalisant que sur son succès sans considérer
sérieusement les scenarios d’échecs, de difficultés, de
limites qui peuvent le jalonner est une erreur commune,
souvent motivée par l’excès d’enthousiasme et de
confiance en soi. Si nous consultons d’autres personnes
engagées dans des projets similaires, nous aurons une
vue extérieure et objective sur le projet, mais nous avons
tendance à ne rechercher dans ces situations que les
avis « d’experts » allant dans le sens de notre idée
préconçue (cohérence associative et biais confirmatoire).
Les dépassements de coûts, les délais manqués, la perte
d’intérêt, l’urgence décroissante résultent tous d’une
mauvaise planification. En d’autres termes, des projets
grandioses mal planifiés finiront par échouer, et le risque
principal est une persévérance irrationnelle dans des
idées erronées ou des projets voués à l’échec.

Heuristique # 25 : le biais de l’optimisme. C’est le moteur


du capitalisme. Nous sommes enclins à négliger les faits,
les échecs des autres et ce que nous ne savons pas en
faveur de ce que nous savons et de notre compétence.
Nous n’apprécions pas l’incertitude de notre
environnement. Nous pensons que le résultat de nos
réalisations est entièrement entre nos mains tout en
négligeant le hasard. Nous souffrons de l’illusion de
contrôle, et d’une négligence la concurrence et des faits.
Les experts qui reconnaissent toute l’étendue de leur
ignorance peuvent s’attendre à être remplacés par des
concurrents plus confiants, qui sont mieux à même de
gagner la confiance des clients. L’incertitude est devenue
un signe de faiblesse, nous nous tournons donc vers des
experts plus assurés, en ignorant la possibilité qu’ils se
trompent.

Faire le bon choix

Pour Kahneman, la principale faille dans le raisonnement


des économistes, c’est la définition figée de l’« écône »,
cette entité consommatrice qui pense et agi d’une seule
façon, rationnelle et productive.
L’omission de la subjectivité

Heuristique # 26 : les erreurs de Bernoulli. Nous pensons


souvent a priori qu’un objet n’a qu’une valeur objective
intrinsèque. Un million de dollars vaut un million de
dollars, non ? Faux : faire apparaître par magie sur le
compte en banque d’une personne pauvre un million de
dollars serait fabuleux, mais réduire par magie le compte
en banque d’un milliardaire à un million de dollars serait
une tragédie pour lui. L’un a gagné, l’autre a perdu. Les
économistes ont commis une erreur en ne tenant pas
compte de l’état psychologique d’une personne en ce qui
concerne la valeur, le risque, l’anxiété ou le bonheur.
L’économiste du XVIIIème siècle Bernoulli pensait que
l’argent avait une utilité (valeur fixe), qui variait bien en
fonction du référentiel (par exemple fortune déjà
possédée), mais il n’a pas pris en considération le point
de référence individuel (par exemple que chez telle
personne l’aversion aux pertes, sur laquelle nous
reviendrons, est supérieure à l’appât du gain). Le
potentiel d’erreur est celui d’une prise de décisions
fondée sur la logique pure sans tenir compte des états
psychologiques.

Heuristique # 27 : cécité induite par la théorie. Une fois


que vous avez développé ou accepté une théorie et l’avez
utilisée comme outil dans votre réflexion, il est
extrêmement difficile de remarquer (ou d’admettre) ses
défauts. Si vous tombez sur une observation qui ne
semble pas correspondre au modèle, vous supposez qu’il
doit y avoir une explication rationnelle ne le remettant pas
en cause (exception, erreur humaine dans le calcul…).
Lorsque les œillères tombent, l’erreur précédemment
rationnalisée semble absurde et la véritable percée se
produit lorsque vous ne comprenez plus comment vous
avez pu ne pas vous rendre à l’évidence.

Heuristique # 28 : La théorie des perspectives. La


renommée de Kahneman est fondée sur la théorie des
perspectives (pour laquelle il a remporté le prix Nobel
d’économie). Les économistes depuis Bernoulli croyaient
que la valeur (réelle ou relative) de l’argent était le seul
déterminant pour expliquer pourquoi les gens achètent,
dépensent et parient comme ils le font. La théorie de la
perspective a changé cela en combinant trois variations
de perspective :

la valeur attribuée à l’argent est moins importante


que l’expérience subjective de changements dans la
richesse. En d’autres termes, la perte ou le gain de
500 € est psychologiquement positif ou négatif
selon un point de référence, l’argent déjà possédé
notre sensibilité aux changements de richesse est
elle-même variable : perdre 100 € fait plus mal si
vous commencez avec 200 € que si vous
commencez avec 1000 €
nous détestons perdre de l’argent. La pensée du
système 1 compare le bénéfice psychologique du
gain au coût psychologique de la perte et la peur de
la perte l’emporte généralement.
Heuristique # 29 : l’effet de dotation. Un objet que nous
possédons et utilisons est plus précieux pour nous qu’un
objet que nous ne possédons pas ou n’utilisons pas. Ces
objets sont dotés de sens et nous ne voulons pas nous
en séparer pour deux raisons : nous détestons la perte
(heuristique suivante) et nous avons une histoire avec
ces objets. Ainsi, nous surestimerons leur valeur, et sous-
estimerons celle d’objets que nous n’utilisons pas ou
auxquels nous n’associons pas de valeur sentimentale.

Heuristique # 30 : l’aversion aux pertes. Les gens


fournissent plus d’efforts pour éviter les pertes que pour
réaliser des gains. Les négociations contractuelles
s’arrêtent lorsqu’une partie a le sentiment de faire plus de
concessions (pertes) que son opposant. On travaille plus
dur à éviter la douleur qu’à atteindre le plaisir. Même les
animaux se battent plus férocement pour maintenir le
territoire que pour l’étendre. Le risque est de sous-
estimer notre propre attitude et celle des autres envers la
perte et le gain et de se focaliser sur la supposée avidité
des consommateurs plutôt que sur leur aversion aux
pertes. À l’échelle individuelle, le potentiel d’erreur est de
passer à côté d’une victoire certaine afin d’éviter ce que
nous pensons être une perte possible même lorsque les
chances sont statistiquement favorables au succès.

La perception du risque

Le « Fourfold Pattern » (littéralement « schéma à 4


entrées ») combine trois heuristiques permettant de
clarifier et préciser la perception du risque et ses
conséquences concrètes, par exemple dans le cadre de
négociations juridiques durant des poursuites :

Heuristique # 31 : l’effet de possibilité. Lorsque des


résultats hautement improbables sont pondérés de
manière disproportionnée, plus qu’ils ne le méritent, nous
mobilisons l’heuristique de l’effet de possibilité, comme
lorsque nous achetons des billets de loterie.

Heuristique # 32 : l’effet de certitude. Les résultats qui


sont presque certains sont pourtant moins considérés
que leur probabilité ne le justifie. Dans le cadre d’un
procès par exemple, la plupart des plaignant accepteront
un accord (certitude) moins intéressant que les
possibilités du procès, même si celui-ci présente une
probabilité de succès de 95%.

Heuristique # 33 : le principe d’anticipation. Les deux


heuristiques ci-dessus ont ceci en commun que le poids
décisionnel que les gens attribuent aux résultats ne sont
pas identiques aux probabilités de ces résultats. Des
évènements peu probables sont surévalués, soit par
espoir (loterie) soit par crainte du risque (accords
désavantageux en justice).

Le Fourfold Pattern combine ainsi ces heuristiques pour


produire un schéma type des décisions prises dans le
cadre de procès civils, fondé sur l’étude réelle de ces
comportements même si certains peuvent nous paraître,
à froid, illogiques :

Cela signifie que les gens attachent des valeurs et un


poids décisionnel aux notions de gains et pertes plutôt
qu’à la somme elle-même, et le poids décisionnel attribué
aux possibles résultats sont différents de leur probabilité.
Les gens sont réticents au risque lorsqu’ils envisagent les
perspectives d’un gain important. Ils verrouillent un gain
sûr et acceptent une valeur du pari inférieure à celle
attendue. Lorsque le résultat espéré est extrêmement
important, comme un billet de loterie, l’acheteur est
indifférent au fait que ses chances de gagner sont
extrêmement faibles. Sans le ticket, ils ne peuvent pas
gagner, mais avec le ticket, ils peuvent au moins rêver.
Cela explique pourquoi les gens souscrivent des
assurances. Nous paierons une assurance parce que
nous achetons en réalité une protection et une tranquillité
d’esprit. Cela explique aussi certains « paris
désespérés » (en médecine, en finance…) : la plupart des
gens accepteront une forte probabilité d’aggraver les
choses, pour avoir une légère lueur d’espoir d’éviter la
perte à laquelle ils sont confrontés. Ce type de prise de
risque peut simplement transformer une mauvaise
situation en catastrophe.

Heuristique # 34 : la surestimation de la probabilité des


événements rares. Il serait plus logique de prêter
attention aux événements susceptibles de se produire
(pluie demain) qu’aux événements improbables (attentats
terroristes, astéroïdes, maladie en phase terminale,
inondations et glissements de terrain…). Pourtant nous
avons tendance à surestimer les probabilités
d’événements improbables et à les surpondérer dans nos
décisions. Cette heuristique s’associe à la cascade de
disponibilité (#13) et l’heuristique de l’aisance cognitive
(# 2) ci-dessus. Nous sommes plus susceptibles de
basculer vers une décision si les données sont
« voyantes », marquantes, en accordant plus
d’importance à leur visibilité et au ton du message
transmis qu’à la probabilité de survenance.

Heuristique # 35 : cadrage gros plan vs cadrage grand


angle. La plupart d’entre nous sommes si réticents au
risque que nous évitons tous les paris. C’est une erreur,
dit Kahneman, car certains paris sont clairement en notre
faveur et en les refusant, nous perdons de l’argent. Une
façon de réduire l’aversion au risque est de penser de
manière large (ce qu’il appelle le « cadrage grand
angle »), en examinant les gains globaux sur de
nombreux petits paris. Penser de façon étroite, ne
regarder que les pertes ou gains à court terme (le
cadrage gros plan), nous paralyse. Par exemple, on
propose ces deux décisions :

1 : Choisissez entre :

A : un gain assuré de 240 €


B. 25% de chance de gagner 1 000 € (et donc 75% de ne
rien gagner)

1. Choisissez entre :

C : une perte assurée de 750 €


D : 75% de chances de perdre 1 000 € (et donc 25% de
ne rien perdre).

La plupart des gens choisissent instinctivement la


combinaison AD, de par leur cadrage gros plan sur
chaque décision. Pourtant, si l’on combine en cadrage
grand angle les réponses gagnante (AD) et perdante
(BC), on obtient :

AD : 25% de chance de gagner 240 € et 75 % de


chances de perdre 760 €
BC : 25% de chances de gagner 250 € et 75% de
chances de perdre 750 €

Les probabilités favorables sont donc supérieures dans la


combinaison perdante et le cadrage grand angle nous
permet seul de nous en apercevoir au-delà de notre
réflexe « espoir de gain / aversion aux pertes ». Mais
penser globalement n’est pas intuitif. C’est une tâche
système 2 qui demande du travail. Nous sommes donc
câblés par le système 1 pour penser économiquement de
façon irrationnelle.

La comptabilité mentale

Beaucoup d’entre nous ont un Système 1 « comptable »


dans la tête qui « compte les points » non seulement des
gains et pertes financiers potentiels d’une transaction,
mais aussi des risques émotionnels, des récompenses et
des regrets possibles de nos décisions financières. Les
émotions que les gens attachent à l’état de leurs
comptes mentaux ne sont pas reconnues dans la théorie
économique standard des écônes. Cette comptabilité
mentale est pourtant issue de trois heuristiques
incontournables :

Heuristique # 36 : l’effet de disposition. Nous sommes


souvent disposés à vendre des actions rémunératrices
car cela nous fait nous prendre pour des investisseurs
avisés, et moins disposés à vendre des actions en péril
parce que c’est un aveu de défaite dans notre dossier
mental. C’est irrationnel car nous gagnerions plus
d’argent en vendant les perdants et en nous accrochant
aux gagnants.

Heuristique # 37 : le sophisme du coût irrécupérable.


Nous avons tendance à nous maintenir dans des
situations négatives non seulement par effet de
disposition, mais également par obstination dans notre
aversion aux pertes en considérant que renoncer = perte
du temps, de l’argent, de l’énergie déjà investis, plutôt
que de les rediriger ailleurs. C’est l’heuristique
responsable de notre maintien dans des mariages
abusifs, dans des carrières détestées, dans des
logements jamais terminés…

Heuristique # 38 : la peur du regret. Dans un exemple, on


nous dit que Paul avait des actions de la société A et a
envisagé de se tourner plutôt vers la société B, mais ne
l’a pas fait. Georges quant à lui avait des actions de la
société B, mais les a vendues pour se tourner vers la
société A. Au final, la société B aurait rapporté 1 200 €
supplémentaires cette année si elle avait été choisie par
les deux hommes. Chacun d’eux en est au même point,
pourtant 92% des sujets interrogés répondent
« Georges » à la question « lequel des deux a le plus de
regrets ? ». On regrette moins ce que l’on subit (inaction)
que ce que l’on cause par notre action. Le regret est une
émotion que nous connaissons mais dont nous
surévaluons la force, et surtout une punition que nous
nous infligeons, qui nous pousse à l’inertie.

Le manque comparatif

Heuristique # 39 : le défaut d’évaluations conjointes.


Nous prenons des décisions différemment lorsqu’on nous
demande de les considérer isolément plutôt qu’en
comparaison avec d’autres scénarios proches. Par
exemple, une victime blessée dans un braquage
d’épicerie se verra attribuer une compensation plus
élevée lorsqu’il y a des facteurs émotionnels impliqués (la
victime visitait ce magasin pour la première fois suite à la
fermeture exceptionnelle de son épicerie habituelle), mais
recevra une compensation plus faible si elle est blessée
alors qu’elle se trouve dans son magasin habituel.
Pourtant lorsque les deux cas sont soumis
conjointement, nous réalisons que le lieu est insignifiant
et nous égalisons le montant de l’indemnisation
accordée. Les évaluations conjointes mettent en
perspective nos biais émotionnels comme l’injustice
supposée et nous permettent plus d’objectivité. Nous
devrions toujours faire des achats comparatifs, comparer
les peines infligées pour les crimes, comparer les salaires
globaux pour différents emplois… Ne pas le faire en
surestimant notre capacité de jugement immédiat limite
notre exposition à des normes utiles.

Heuristique # 40 : l’effet de cadrage. La manière dont un


problème est défini détermine nos choix plus qu’elle ne le
devrait. Par exemple, les médecins évalueront les
probabilités de réussite d’une intervention à « un taux de
survie à un mois de 90% » plutôt qu’à « 10% de taux de
mortalité à un mois ». Les deux phrases signifient la
même chose statistiquement, mais le cadre de la « survie
» a une valeur émotionnelle plus grande que le taux de
mortalité. Le sens d’une phrase est ce qui se passe dans
votre mécanisme associatif pendant que vous le
comprenez. En termes d’associations (comment le
Système 1 y réagit), les deux phrases ont réellement des
significations différentes. Le recadrage est difficile et le
système 2 est paresseux, et nous nous targuons
d’objectivité sans tenir compte des éléments influençant
notre compréhension sans que nous en soyons
conscients.

Les deux facettes du moi

Nous avons chacun un moi « agissant » et un moi « se


souvenant ». Ce dernier a généralement la priorité sur le
premier, ce qui engendre trois heuristiques primordiales
dans l’évaluation de notre compréhension :

Heuristique # 41 : l’illusion mémorielle. Je peux vivre 15


jours de bonheur en vacances, mais si un seul évènement
négatif survient, j’aurai tendance à me souvenir de ces
vacances comme négatives. Ma mémoire et mes affects
l’emportent sur mon expérience réelle. De même, après
un divorce douloureux, je ne me souviendrai que des
mauvais moments et pas de ceux ayant amené au
mariage, et je minimiserai les bons moments. C’est un
effet de substitution (heuristique # 7) qui nous fait croire
qu’une expérience passée a pu être intégralement ruinée
par un seul élément. L’expérience de soi n’a pas de voix.

Heuristique # 42 : la « peak-end rule » (règle du « pic de


fin »). La fin d’une expérience semble avoir plus de poids
dans notre mémoire que la manière dont une expérience
a été vécue. Si une situation douloureuse ou angoissante
se termine bien, ou inversement si des vacances de rêve
se terminent mal, mon souvenir sera coloré par la fin et
non par l’ensemble de l’expérience. Corolaire de
l’heuristique précédente, la règle du pic de fin est un
raccourci pour se souvenir uniquement de la façon dont
une expérience s’est ressentie à sa fin, pas au pire ou au
meilleur moment.

Heuristique # 43 : la négligence de la durée. Autre


corolaire des deux facettes du moi : la durée d’une
expérience agréable ou désagréable ne semble pas
influencer le souvenir de la douleur ou du plaisir de
l’expérience.

Conséquences étendues

Heuristique # 44 : la fragmentation narrative. Lorsque


nous évaluons dans quelle mesure notre vie et celle des
autres a été vécue, nous devrions considérer l’ensemble
du récit et pas seulement la fin. Mais à cause des trois
heuristiques précédentes, nous sommes enclins par
exemple à dévaluer une vie longue, sacrificielle et
généreuse si à la fin (ou même après la mort) nous
découvrons des épisodes d’égoïsme chez la personne
concernée. Une histoire se construit d’événements
significatifs et de moments mémorables, pas du temps
qui passe. Kahneman prend l’exemple de la Traviata, où
personne ne se préoccupe du jeune âge auquel meurt
Violette et où deux ou trois ans de plus de bonheur
n’auraient fait aucune différence pour les spectateurs,
alors que si son amant avait échoué à la retrouver pour
ses dix dernières minutes l’intégralité de l’expérience, ou
en tout cas de sa perception, aurait été différente. La
négligence de la durée est normale dans une histoire, et
la fin définit souvent son caractère, ce qui renforce
l’aversion au risque et de nombreuses autres heuristiques
(peur de gâcher des années d’efforts pour une seule
mauvaise décision, de ruiner sa réputation…)

Heuristique # 45 : le bien-être expérimenté. La plupart


des théories économiques ne prennent en compte que
l’écône et sa rationalité dans l’évaluation du bien-être du
public. Pourtant, une personne coincée dans la
circulation peut toujours être heureuse et de bonne
humeur parce qu’elle est amoureuse et pense à son
partenaire, et une personne en deuil restera malheureuse
même en recevant une augmentation. Il y a une asymétrie
entre la valeur que le moi se souvenant accorde à
certains facteurs et celle, réelle, de l’expérience elle-
même (par exemple, le moi se souvenant accordera de la
valeur à une bonne éducation, mais la plupart des études
montrent que les gens plus diplômés sont souvent plus
stressés, déprimés ou malheureux au travail).

Heuristique #46 : le biais de prévision affective. Quel


facteur conduit à une vie plus heureuse : la longévité ou
les expériences ? Une vie de 20 ans avec de nombreuses
expériences heureuses serait-elle meilleure qu’une vie de
60 ans avec de nombreuses expériences terribles ? Que
préférez-vous : vivre heureux ou vivre vieux ? Beaucoup
choisissent instinctivement « le bonheur », mais la notion
est vague et nous sommes de piètres voyants concernant
ce qui nous rendra heureux. En témoigne le maintien du
nombre de mariage malgré les taux connus de divorce.
Lorsqu’on nous pose la très difficile question « Dans
l’ensemble, à quel point votre vie est-elle heureuse ? »
nous substituons une question plus simple, « À quel point
suis-je heureux en ce moment ? » (heuristique # 7). Les
réponses aux questions de bien-être mondial doivent être
prises avec des pincettes. Les gens prennent des
décisions en fonction de ce qui les rendra heureux à
l’avenir selon eux, mais une fois l’objectif atteint, le
bonheur dure rarement. On peut alors s’en satisfaire
(longévité) ou passer à autre chose (expérience), mais
l’état de bonheur n’est jamais stable.

Heuristique # 47 : l’illusion de la concentration. « Rien


dans la vie n’est aussi important que vous le pensez au
moment où vous y pensez ». Cela signifie que lorsqu’on
nous demande d’évaluer une décision, notre satisfaction
à l’égard de la vie ou une préférence, nous nous
trompons si nous nous concentrons sur cette seule
question. Notre réponse à la question : « Qu’est-ce qui
vous rendrait heureux ? » dépend de nombreux facteurs
et tient rarement en un facteur déterminant. Pourtant, les
gens se concentrent régulièrement sur un problème – le
revenu actuel, la météo actuelle, la santé, les relations, la
pollution actuelles etc. – et ignorent d’autres facteurs
importants. Nous exagérons l’effet d’un achat important
ou d’un changement de circonstances sur notre bien-être
futur. Des étudiants à qui l’ont demandait d’évaluer leur
bonheur ont répondu de façon bien plus enthousiaste
lorsqu’ils avaient trouvé la pièce cachée à leur attention
dans la salle de test. Les petites satisfactions comme les
petites contrariétés influent sur notre humeur, et celle-ci
influe bien plus sur notre perception de la vie que notre
expérience réelle. Le fait est que nos évaluations sont
souvent basées sur l’heuristique selon laquelle, tandis
que nous pensons à quelque chose, nous y pensons
généralement « mieux », oubliant à quel point nous
pensons rarement à ces choses par ailleurs (revenu,
météo, santé, apparence etc.). Ce qui nous rendait
heureux est absorbé dans la vie quotidienne, nous nous
adaptons, nous nous acclimatons, nous éprouvons le
plaisir initial moins intensément au fil du temps. Le moi
qui se souvient est sujet à une énorme illusion de
concentration sur des aspects de la vie, positifs ou
négatifs, que le moi agissant vit en réalité assez
placidement.

En bref, cet ouvrage, fruit de longues années de réflexion


et d’expérimentation, décrit le fonctionnement de l’esprit
comme une interaction difficile entre deux personnages
fictifs : le système automatique 1 et le système laborieux
2.
La façon de bloquer les erreurs qui proviennent du
système 1 est donc simple en principe : reconnaissez les
signes indiquant que vous vous trouvez dans un champ
de mines cognitif, ralentissez et mobilisez au maximum
les facultés de votre système 2. Quelles leçons plus
globales tirer de cette théorie de la perspective ? Les
économistes (notamment « l’école de Chicago ») partent
du principe que les consommateurs et citoyens sont
rationnels et adhèrent aux règles de la logique, et
qu’ainsi, ils prendront toujours la bonne décision pour
eux-mêmes. À défaut, ils sont des anomalies et leur
liberté de choix ne peut être menacée, et, d’une certaine
façon, « tant pis » pour ceux qui se trompent ou sont
trompés. Kahneman, en tant qu’économiste
comportemental, est bien sûr en désaccord et suggère
que l’heuristique influence nos choix, qui sont eux-
mêmes en grande partie irrationnels ; nous avons besoin
d’aide pour faire de meilleurs choix. L’école de Chicago
est composée de libertaires, qui veulent que le
gouvernement reste à l’écart et laisse les gens faire leurs
propres choix, bons ou mauvais, tant qu’ils ne blessent
pas les autres. Les économistes comportementaux
(Kahneman à la suite de Thaler et Sunstein et de façon
plus marquée) suggèrent que donner un coup de pouce
aux gens est parfois nécessaire (réglementation,
rédaction de contrats plus clairs, vérité dans la publicité,
etc.), voire moralement obligatoire.

N'oubliez pas l'inscription à la


newsletter !

En cadeau, vous recevrez un documentaire très complet


sur la manière de tenir les dossiers médicaux de vos
patients.

Sur Guillaume

Compte d'administration principal

Vous aimerez peut-être aussi