Vous êtes sur la page 1sur 229

Jean-David Zeitoun

Le Suicide
de l’espèce
Comment les activités humaines
produisent de plus en plus de maladies
Pour Hélène et Alexis
INTRODUCTION

Il y a toujours une logique au suicide. Se tuer n’est pas un acte irrationnel,


même si les raisons n’en sont pas systématiquement évidentes. Dans Le Mythe
de Sisyphe, Albert Camus traite la question du suicide, qu’il définit dès la
première phrase comme le seul « problème philosophique vraiment sérieux ». En
partant de l’observation que le monde n’a pas de sens — Camus dit qu’il est
absurde —, l’auteur comprend que l’idée suicidaire puisse venir à l’esprit. Il
examine ensuite différents cas d’absurdité de la vie courante ou littéraire. La
seule évocation de Sisyphe dans le livre vient du dernier petit chapitre. Camus
propose alors une option non suicidaire pour sortir de l’impasse du non-sens. Il
conseille de prendre conscience de l’absurdité du monde et de l’accepter, pour
convertir l’absurde en révolte, un concept qu’il développera plus tard mais qui
était déjà là. C’est par la révolte que la vie mérite d’être vécue jusqu’à sa
terminaison naturelle.
Le XXIe siècle n’a sans doute pas apporté de meilleure réponse que celle de
Camus, mais il offre une absurdité supplémentaire. Aujourd’hui, ce n’est pas que
l’absurdité pousse plus au suicide qu’à l’époque de Camus — d’ailleurs, le
suicide classique est en baisse dans le monde. C’est plutôt qu’on observe un
nouveau type de suicide au ralenti, dont les caractères eux-mêmes sont absurdes
et qui font la raison de ce livre. L’intention du texte qui suit est de chercher une
explication d’ensemble à une extraordinaire anomalie : la société mondiale
produit de plus en plus de maladies dont elle ne veut pas, tout en faisant toujours
plus d’efforts pour les traiter. D’un côté, les industries pathogènes, c’est-à-dire
les industries qui causent des maladies, ont une activité en croissance. Ce sont
les industries fossiles, la chimie, la transformation alimentaire, la production
d’alcool et bien sûr le tabac. De l’autre côté mais sur la même planète, les
dépenses générées par les maladies provoquées progressent aussi, et souvent
plus vite que l’économie mondiale. Le parallèle est flagrant et incohérent.
Les données récentes montrent même une inversion des progrès
épidémiologiques que le monde occidental a connus depuis le XVIIIe siècle. Il
existe une hausse des maladies cardiovasculaires et de certains cancers, une
augmentation de mortalité dans certains pays riches, voire une baisse
d’espérance de vie, indépendamment de la pandémie de Covid-19. Cette
régression de la santé n’est pas accidentelle. Elle est liée à l’ascension sans
contrôle des risques industriels cités. C’est une répression de l’humanité par elle-
même, qui devrait prendre une nouvelle dimension avec le changement de climat
en cours, lui aussi causé par nos activités.
Vue de loin, c’est-à-dire dans sa totalité, la société mondiale envoie une
image absurde, qui n’est pas tant un produit du hasard qu’un résultat du
désordre. Pour comprendre les ressorts non absurdes qui finissent par donner
cette image anormale, il faut se rapprocher. En observant plus finement les
comportements des intervenants, à savoir les industriels, les individus, et le
pouvoir politique, on se rend compte qu’il n’y a pas d’intention supérieure de
créer des maladies pour avoir à inventer des traitements. Il y a plutôt une
accumulation d’intentions inférieures, incompatibles entre elles mais
coïncidentes. Chaque acteur de ce jeu réel et suicidant s’appuie sur des raisons
compréhensibles, et qui se fichent souvent du tableau final plus grand que lui.
Ces raisons sont valables pour les industriels qui produisent les risques et les
maladies, pour les gens qui s’exposent à ces risques et tombent malades, et pour
les leaders politiques qui ne protègent pas leurs populations.
Produire des maladies pour devoir ensuite les traiter est une réalité factuelle
qui n’a pas de sens mais qui a des causes, et ce sont ces causes qui forment la
logique du suicide de l’espèce.
I

LA SANTÉ MONDIALE
AU XXIe SIÈCLE
1
Qui meurt de quoi ?

La question est simple mais la réponse ne l’est pas. La santé ne dépend


pourtant que de quatre déterminants : la biologie, le comportement,
l’environnement et la médecine. Mais chacun de ces déterminants est en fait un
cluster qui contient des centaines de causes possibles de bonne santé ou de
maladie. La dynamique résultante, celle qui conduit notre trajectoire vitale, est
excessivement complexe. Elle le devient encore plus si on passe de l’échelle
d’un individu à celle d’un groupe. La santé d’une personne est très difficile à
comprendre et la santé d’une population encore plus.
En simplifiant à peine, on peut schématiser l’équation de la santé comme un
triangle dont les sommets saisissent les quatre déterminants (figure 1). La santé
d’une population à un moment donné — le « qui meurt de quoi ? » — est le
produit de cette équation. Le principe du triangle est éternel, mais ses termes
changent et les relations entre les termes évoluent tout le temps.
Pendant longtemps, nous n’avons pas eu de thermomètre pour prendre notre
température en tant que monde : il n’existait pas de système central de mesure de
la santé mondiale. À la fin du XXe siècle, les données étaient encore à la fois
fragmentaires et suspectes, c’est-à-dire très insuffisantes et pas fiables. En 1991,
la Banque mondiale — qui avait essayé d’obtenir un rapport sur le sujet — s’est
rendu compte des lacunes et des contradictions disponibles. Cette prise de
conscience a amené à créer un groupe de recherche, qui s’appelle aujourd’hui le
Global Burden of Disease, Injuries, and Risk Factors 1 (GBD). Le GBD est la
plus grande entreprise épidémiologique de l’histoire. Ce réseau de chercheurs
publie plusieurs fois par an des rapports factuels des tendances de la santé
mondiale, en particulier sur la mortalité et l’espérance de vie. Les causes de mort
sont classées en trois grands groupes :
1. Les maladies microbiennes/maternelles/néonatales et nutritionnelles ; ce
sont les maladies du nouveau-né, les affections diarrhéiques, le paludisme, le
VIH, la tuberculose, les méningites, etc.
2. Les maladies chroniques, que les Anglo-Saxons appellent un peu à tort les
maladies non communicables (alors que certaines le sont, puisque certains
cancers sont d’origine microbienne par exemple) ; ce sont avant tout les
pathologies cardiovasculaires et les cancers, mais aussi le diabète, les
pathologies mentales, la cirrhose 2.
3. La mortalité violente : accidents, chutes, suicides, noyades, brûlures, etc.

Mais la cause de la mort n’est pas tout. Ce qui intéresse les humains, c’est
aussi ce que contient leur vie, c’est-à-dire comment ils fonctionnent et comment
ils se sentent. Le groupe a donc entrepris d’estimer d’autres indicateurs comme
les causes de handicap, les années de vie malade ou l’espérance de vie en bonne
santé.

Mutation de l’âge et des causes de la mort


Le premier fait qui frappe quand on observe l’évolution récente de la santé
mondiale est l’extraordinaire transition de l’âge de la mort (figure 2).
La plupart des humains ne meurent plus avant 5 ans comme c’était le cas
avant la Seconde Guerre mondiale. Aujourd’hui, la majorité des décès se
concentre après 65 ans. Ce changement est lié à la baisse progressive de la
mortalité infantile, une baisse qui a commencé au XVIIIe siècle dans les pays
occidentaux. C’est le traitement public des villes — désinfection et eau
potable — associé à une amélioration de l’alimentation et aux premières
vaccinations qui ont permis aux petits humains d’avoir moins de malchances de
mourir 3. La mortalité infantile est restée très élevée dans beaucoup de régions du
monde jusqu’au milieu du XXe siècle. Elle a ensuite baissé dans les pays les plus
pauvres pour les mêmes raisons qu’en Occident deux cents ans plus tôt :
traitement public des villes, alimentation et vaccination 4. Le déclin de la
mortalité infantile a mécaniquement produit une mutation de l’âge de la mort,
c’est-à-dire un transfert de la mortalité infantile vers la mortalité âgée. Les
démographes parlent de compression de la mortalité, puisque la plupart des gens
meurent entre 65 et 90 ans, ou de rectangularisation de la courbe de survie
comme le montre la figure 3.
Le monde s’est retrouvé avec plus d’adultes que jamais. Cette transition
démographique a impliqué une transition épidémiologique. On ne meurt pas des
mêmes causes à 70 ans ou à 5 ans. Les enfants étaient essentiellement sensibles
aux microbes, lesquels ont été fortement réprimés. Les adultes ont eu
l’opportunité de développer des maladies de leur âge, à savoir les maladies
chroniques comme les pathologies cardiovasculaires et les cancers, qui restent
les deux plus gros tueurs en quantité. Une notion prétend que nous aurions été
efficaces contre les maladies microbiennes et inefficaces contre les maladies
chroniques mais cette vision est erronée. En examinant les années de vie perdues
ajustées sur l’âge 5, on observe depuis quarante ans une amélioration dans les
trois groupes de maladies, c’est-à-dire les maladies microbiennes mais aussi les
maladies chroniques et les morts violentes 6 (figure 4).
Il ne s’agit pas ici du nombre total de décès mais des taux de mortalité. Le
déclin des maladies microbiennes a été plus rapide, mais les maladies chroniques
et les affections violentes ont aussi vu leurs taux de mortalité diminuer. En fait,
les humains ont progressé dans tous les domaines mais à des vitesses différentes.
Il est vrai et préoccupant que la courbe des maladies chroniques a arrêté de
baisser dans le groupe des pays riches. Elle devient horizontale et tend même à
remonter dans certains d’entre eux, ce qui est le signal d’un changement profond
qui sera largement abordé dans ce livre. Ce sont notamment les maladies
cardiovasculaires et les cancers, dont les taux de mortalité augmentent parfois,
qui expliquent cette inflexion de la courbe dans le mauvais sens.
Pour voir l’épidémie de maladies chroniques, ce ne sont pourtant pas les
taux de mortalité qu’il faut observer mais la quantité totale d’années de vie
perdues (qui reflètent le nombre de personnes affectées). Là, l’histoire est
différente, avec une hausse du nombre absolu de décès par maladies
cardiovasculaires et par cancers. Le fait que le nombre de morts augmente alors
que les taux baissent est lié à la croissance démographique et au vieillissement
de la population, dont les effets l’emportent sur la baisse des taux. La probabilité
de mourir de ces maladies diminue parce que la médecine et la pharmacie sont
plus efficaces, mais il y a plus d’humains âgés et donc plus de morts quand
même à la fin. Les maladies chroniques tuent approximativement 74 % des
humains. Les maladies microbiennes/maternelles/néonatales et nutritionnelles
sont responsables d’environ 18 % des décès 7. Il reste 8 % d’humains qui
meurent d’une cause violente. Cette épidémie de maladies chroniques existe
globalement, mais elle est plus intense dans les pays aux revenus intermédiaires,
un groupe hétérogène qui inclut les BRICS 8, mais aussi le Pakistan ou le
Guatemala par exemple. Dans les prochaines décennies, leurs systèmes de soins
vont être sous pression car ils n’ont pas été conçus pour lutter contre les
maladies chroniques, à la fois par déficit de moyens et par manque de vision 9.

Ce qui tue n’est pas ce qui fait mal


Les maladies chroniques entraînent la mort mais elles provoquent aussi du
handicap. Beaucoup d’entre elles rendent moins apte et diminuent sans tuer.
C’est le handicap qui fait que les humains fonctionnent moins bien ou se sentent
moins bien. Par handicap, il faut comprendre le terme anglais disability, qui a
une signification très large. Une ironie du langage veut que le terme anglais
vienne du français et réciproquement. Disability a pour origine « dys-habile », et
« handicap » est un mot presque inemployé en anglais mais qui signifie « main
dans le chapeau ». Les quatre principales causes de handicap dans le monde
sont :
— les problèmes musculosquelettiques, arthrose et mal de dos notamment ;
— les maladies mentales, dont la dépression ;
— les addictions ;
— les pertes sensorielles, c’est-à-dire avant tout la baisse de la vision et de
l’audition.
Ces maladies détériorent ce que contient la vie mais elles ne l’écourtent
presque jamais ou très peu. Le tracé des taux de handicap mondiaux montre une
baisse minime voire une absence de changement 10. Pourtant, le mal de dos est
évitable et la dépression est traitable pour pas cher. Des progrès seraient
possibles sans innovation et sans dépense importante, ce qui permettrait
d’améliorer la vie des gens et bénéficierait aussi à la société. Entre autres
dommages, le mal de dos pénalise la capacité de travail, et la dépression
augmente le risque de suicide.
Du fait de la croissance démographique et du vieillissement, la quantité
totale mondiale de handicap est en expansion (plus de 50 % entre 1990 et 2017).
Mis à part les effets de la démographie, l’augmentation du handicap s’explique
aussi par la hausse intrinsèque de certaines maladies, notamment le diabète de
type 2 et la prise d’opioïdes, des problèmes qui étaient beaucoup moins
fréquents à la fin du XXe siècle. Les systèmes de soins nationaux, y compris dans
les pays occidentaux, ont été conçus pour lutter contre la mort mais pas contre le
handicap. Ils ne sont pas prêts à absorber l’épidémie de maladies non mortelles
dont la croissance dépasse de beaucoup la croissance économique.

Quel est l’effet d’ensemble de ces maladies handicapantes ou mortelles ? La


réponse est mitigée à cause de l’hétérogénéité des données. Le paysage de la
santé mondiale n’est pas net. Les photos sont ambiguës et le film est complexe.
L’image globale est plutôt celle d’une baisse cohérente de la mortalité depuis les
années 1950. Jusqu’au choc de la pandémie de Covid-19, l’espérance de vie
progressait dans la plupart des pays. Seuls quelques pays riches — c’est le
paradoxe — avaient vu leur mortalité augmenter et leur longévité stagner ou
baisser quelques années avant la dissémination du SARS-CoV-2. Les États-Unis
et le Royaume-Uni s’étaient fait remarquer notamment, avec des causes de
régression différentes mais un résultat proche 11. Cette baisse de l’espérance de
vie est un signal fort, d’autant que l’impressionnant réservoir de maladies
chroniques risque de la perpétuer.
Un dernier indicateur permet de saisir la santé plus complètement, ce sont
les DALY (disability-adjusted life-years) : l’addition des années de vie perdues
et des années de vie avec un handicap. C’est la métrique la plus agrégée. Elle est
une sorte de monnaie unique de la santé qui permet aux chercheurs ou aux
leaders politiques de comparer des populations avec des problèmes différents.
Un DALY équivaut à une année en pleine santé qui serait perdue. Ici encore, le
résultat des trente dernières années est nuancé. Les taux de DALY se sont
améliorés, mais la croissance et le vieillissement démographiques n’ont
finalement pas changé le nombre absolu de DALY. Si cette quantité totale est à
peu près stable pour l’instant, certaines maladies comme le diabète génèrent de
plus en plus de DALY.

La santé comme marqueur du développement


Le développement des pays améliore la santé. C’était une constante
historique et c’est aussi un trait contemporain. Le développement et la
progression de la longévité ont coïncidé et cette coïncidence traduit une causalité
partielle. L’extension de l’espérance de vie a commencé grâce à une forme
préliminaire de développement, avec la désinfection de l’environnement par le
traitement des villes et les progrès alimentaires. Cette amélioration a précédé de
quelques dizaines d’années la croissance économique, qui justement n’est pas la
même chose que le développement. La croissance économique est définie par la
croissance du produit intérieur brut (PIB). Elle implique toujours une expansion
physique. Le développement économique est une notion plus large et plus
qualitative. Il inclut la croissance mais aussi l’éducation, la santé et le bien-être
en général. Les travaux d’Angus Maddison (1926-2010) nous disent que la
croissance économique a accéléré seulement vers 1820 12. Ce sont bien les
conditions matérielles de l’existence qui ont déterminé la hausse initiale de
l’espérance de vie, mais comme le développement et la croissance ne sont pas
complètement synonymes, ces conditions ont pu s’améliorer un peu avant que la
croissance économique s’enclenche. Dit simplement, la santé a commencé à
s’améliorer avec le développement et elle a ensuite continué à le faire avec la
croissance.
Par ailleurs, si la santé est toujours bonne pour la croissance économique,
l’effet réciproque — celui de la croissance sur la santé — dépend du timing. À
court terme, l’effet initial de la croissance peut être négatif, ce qui s’est vu
pendant la première révolution industrielle : la mortalité a augmenté, la taille
moyenne des personnes a baissé de plusieurs centimètres, et pas seulement chez
les ouvriers 13. Cet écrasement de la taille humaine par l’industrialisation des
sociétés traduisait une détérioration de la santé. À long terme, il n’y a pas de
doute sur l’effet épidémiologique positif de la croissance économique jusqu’à un
certain moment du XXe siècle. L’économiste Philippe Aghion rappelle d’ailleurs
qu’après 1820, « la démographie a suivi une trajectoire très similaire à celle du
produit intérieur brut 14 ».
Ce sont donc les Occidentaux qui ont commencé à vivre plus longtemps,
mais au XXe siècle, les autres régions du monde ont entrepris de les rejoindre. Ce
rattrapage de l’espérance de vie s’effectue plus rapidement que le rattrapage des
richesses. C’est sans doute parce qu’il implique une dissémination immatérielle,
celle des connaissances en santé publique et en médecine, dissémination plus
transmissible que l’activité économique. Pour les pays les moins développés, il
est plus facile de copier la bonne santé des autres que de créer de la prospérité.
Les courbes de PIB et de longévité ne sont pas exactement parallèles même
quand elles montent toutes les deux.
Les données liant le développement à la longévité montrent pourtant un écart
possible entre les pays d’environ dix à douze ans. À développement égal, tous
les pays n’offrent pas la même santé à leur population. Cet écart veut dire qu’il
existe d’autres déterminants des longévités nationales. Il représente un espoir
pour les pays moins avancés, qui pourraient techniquement augmenter leur
espérance de vie indépendamment de leur développement économique, qu’ils
espèrent quand même. Au total, et le développement et la croissance ont une
relation avec la santé, mais cette relation est meilleure pour le développement
que pour la croissance. Le développement améliore toujours la santé ; pour la
croissance, on en est moins sûr. Personne ne sait si la croissance économique du
e
XXI siècle permettra indéfiniment une progression de la santé.
1. Traduction littérale en français : le « fardeau mondial de la maladie, des blessures et des facteurs de
risque ». Le GBD a été créé par l’Institute for Health Metrics and Evaluation, ou IHME.
2. Les termes « maladie » et « pathologie » sont le plus souvent équivalents et seront employés
indifféremment dans ce livre.
3. Jean-David Zeitoun, La Grande Extension, histoire de la santé humaine, Denoël, 2021.
e e
4. Les antibiotiques, qui n’existaient pas au XVIII siècle ni au XIX siècle, ont aussi joué un rôle.
5. Les années de vie perdues ajustées sur l’âge mesurent les taux de mortalité, c’est-à-dire par exemple le
pourcentage de mortalité d’un âge donné. Ce n’est pas le nombre total de décès mais une proportion.
6. GBD 2017 Causes of Death Collaborators, « Global, regional, and national age-sex-specific mortality for
282 causes of death in 195 countries and territories, 1980-2017: a systematic analysis for the Global Burden
of Disease study 2017 », The Lancet, 2018.
7. Exception faite des pires années de la pandémie de Covid-19, notamment 2020 et 2021.
8. BRICS est l’acronyme de Brésil, Russie, Inde, Chine, Afrique du Sud.
9. Ces résultats sont valables à l’échelle mondiale. Ce sont des généralités qui recouvrent des
hétérogénéités. Par exemple, quand les pays augmentent leurs revenus et leur éducation, ils changent le mix
de leurs cancers. Les tumeurs causées par les microbes et la dénutrition diminuent, c’est le cas du cancer de
l’estomac. Au contraire, les tumeurs en lien avec l’obésité et l’alcool augmentent, typiquement le cancer du
foie.
10. GBD 2017 Disease and Injury Incidence and Prevalence Collaborators, « Global, regional, and national
incidence, prevalence, and years lived with disability for 354 diseases and injuries for 195 countries and
territories, 1990-2017: a systematic analysis for the Global Burden of Disease study 2017 », The Lancet,
2018.
11. Lucinda Hiam et al., « Things fall apart: the British health crisis 2010-2020 », British Medical Bulletin,
2020.
12. Angus Maddison, The World Economy. A Millennial Perspective, Éditions OCDE, 2001 ; et The World
Economy. Historical Statistics, Éditions OCDE, 2003.
13. Richard H. Steckel & Roderick Floud (dir.), Health and Welfare during Industrialization, University
of Chicago Press, 1997.
14. Philippe Aghion, Céline Antonin, Simon Bunel, Le Pouvoir de la destruction créatrice, Odile Jacob,
2020.
2
Le paysage mondial des risques

Le risque est le concept le plus important de la science épidémiologique. En


français, le mot est ambigu. Il a deux significations pour lesquelles la langue
anglaise préfère deux mots : risk et hazard. En anglais, le risk est la probabilité
de survenue de la complication. Le hazard est la complication elle-même,
l’événement responsable du dommage. En épidémiologie et le plus souvent dans
ce livre, « risque » veut dire risk, c’est-à-dire une probabilité quantifiée de 0 à 1,
ou de 0 % à 100 %. Un risque égal à 0 signifie qu’on est sûr que la complication
n’arrivera jamais, ce qui est très rare. Un risque égal à 1 rend la complication
certaine, ce qui est aussi rare. La plupart des risques sont juste plus ou moins
probables.
S’il n’y avait pas de risques, il y aurait beaucoup moins d’épidémiologistes,
car la santé ne dépendrait que de la biologie et de la médecine (déterminants 1
et 4) et tout serait plus simple 1. Les risques expliquent une bonne partie des
variations de l’état de santé à l’intérieur d’une population, et donc des inégalités
entre les humains. L’épidémiologie étudie les risques qui peuvent participer aux
maladies mais qui ne les causent ni exclusivement ni forcément. Le modèle était
plus simple du temps de Pasteur et Koch, qui avaient démontré que c’étaient les
germes qui causaient les maladies 2. Par leurs observations et leurs
expérimentations, Pasteur et Koch avaient prouvé d’une part que le lien était
systématique, ce qui est le forcément. La contamination provoquait toujours
— en fait, presque toujours — l’affection correspondante. En inoculant à des
animaux les bactéries de l’anthrax ou la tuberculose, Koch observait
constamment la maladie dans les jours ou les semaines suivantes. Les deux
chercheurs avaient aussi montré la spécificité des germes, à savoir que telle
maladie ne pouvait être liée qu’à un germe et pas un autre, d’où le
exclusivement. Le choléra n’est causé que par le Vibrio cholerae et pas par le
virus de la grippe, la tuberculose n’est causée que par le bacille de Koch et pas
par le staphylocoque, et ainsi de suite. Les germes causent exclusivement et
forcément les maladies. Leur relation avec nos pathologies est totale. Le modèle
pasteurien était simple de ce point de vue : un germe = une maladie.
Ce modèle reste valable pour les maladies microbiennes, même s’il y a
quelques exceptions, mais il ne correspond pas à la plupart des maladies
chroniques. La relation entre les risques et les maladies chroniques est partielle
dans les deux sens. Elle n’est ni systématique ni spécifique. En passant des
maladies microbiennes aux maladies chroniques, le monde a changé de modèle
pathologique. Il a perdu en simplicité, délaissant le déterminisme pour aller vers
le probabilisme. En étudiant les risques, l’épidémiologie sait donc qu’il y a deux
notions qu’elle ne rencontrera pas : la spécificité et la fatalité, c’est-à-dire
l’exclusivement et le forcément.
Premièrement, les maladies chroniques dépendent de plusieurs éléments.
Elles n’ont presque jamais un unique agent causal. Les risques participent aux
maladies chroniques mais ne sont pas leurs seules causes. Il existe des cancers
du poumon chez des non-fumeurs et des infarctus chez des patients sans facteur
de risque. Ces maladies peuvent être liées à autre chose, qu’on ne trouvera pas. Il
y a toujours une incertitude et on raisonne en probabilités.
Deuxièmement, il n’y a pas de fatalité. L’exposition à un risque ne
déclenche pas automatiquement les maladies qui vont avec. Tous les fumeurs ne
développeront pas de cancer du poumon et il y a même plus de fumeurs qui n’en
auront pas que l’inverse, ce qui ramène à la question des probabilités. Les liens
entre les risques et les maladies chroniques sont plus faibles que ceux existant
entre les germes et les maladies microbiennes.
D’ailleurs, les risques n’agissent pas seuls. Même quand ils sont élevés, ils
ne sont pas assez puissants pour causer directement une maladie. Les risques
s’associent souvent entre eux — et ce livre essayera de démontrer comment ils le
font — ou bien se mêlent à notre biologie pour créer des problèmes de santé.
Nous sommes plus ou moins prédisposés à développer des maladies et les
risques nous y aident. Quand les plus grandes prédispositions se mêlent aux plus
gros risques, cela donne les pires problèmes de santé publique.

Les trois types de risques


L’épidémiologie courante classe les risques en trois groupes : les risques
environnementaux, les risques comportementaux et les risques métaboliques. Le
tableau 1 les reprend et les détaille. Le groupe de recherche du GBD travaille sur
cette base. Ces risques sont donc ce qui nous arrive (environnement), ce que
nous faisons (comportements) et la façon dont nos opérations internes d’énergie
et de matière se passent (métabolisme).
Les risques environnementaux incluent les risques au travail mais aussi la
pollution de l’air, la qualité de l’eau, la température et d’autres comme la
contamination au plomb dont la maladie s’appelle le saturnisme. Les risques
comportementaux comprennent principalement le tabagisme, la prise d’alcool,
de drogues, la mauvaise alimentation, la violence, la sédentarité, les relations
sexuelles sans préservatif. Enfin, le risque métabolique est dominé par le poids
ou plus précisément l’index de masse corporelle 3, le taux de sucre et de graisses
dans le sang 4, et l’hypertension artérielle. Tous ces risques sont connus et sans
surprise. Ce qui est moins connu, ce sont leurs dynamiques et la place
oppressante qu’ils ont prise dans l’image d’ensemble de la santé mondiale.
Ces groupes de risques se recoupent avec les déterminants de la santé,
complètement pour l’environnement et le comportement (déterminants 2 et 3),
partiellement pour le risque métabolique qui est une part de notre biologie
(déterminant 1) mais qui dépend aussi des déterminants 2 et 3. Les risques
influencent négativement la santé même si leur impact est variable. Ils tirent plus
ou moins notre longévité vers le bas. Par ailleurs, ces risques ne sont pas
étanches. Ils sont dépendants les uns des autres. Le risque métabolique est
influencé par l’environnement et le comportement. Notre poids, notre pression
artérielle ou nos taux de sucre et de graisses dans le sang sont sensibles à ce que
nous faisons et à notre milieu. Même nos gènes, qui sont pourtant notre identité
biologique la plus personnelle, s’expriment différemment selon notre
environnement, un phénomène qu’on appelle épigénétique 5.
La plupart des risques existent depuis toujours et même les plus récents sont
là depuis plusieurs siècles. Mais leur intensité et leur répartition ont beaucoup
évolué. Certains risques suivent une progression particulièrement problématique
et hors de contrôle, comme la pollution au sens large et l’obésité. Ce sont ceux
qui seront les plus spécifiquement traités dans ce livre. Leur part dans la maladie
et la mortalité mondiales augmente depuis des décennies.
Le point central est qu’une proportion dominante et croissante des risques
est d’origine humaine, au moins en partie pour 17 sur 20 d’entre eux. Le paysage
des risques nous parle de nous, c’est-à-dire de notre rapport à nous-mêmes, de
nos liens entre nous et de notre relation au monde naturel. Il n’y a pas beaucoup
de risques spontanés et la plupart sont provoqués. Même les catastrophes dites
naturelles ne le sont plus complètement. Elles sont partiellement causées et
intensifiées par les affaires humaines. On sait que les émissions de CO2 et donc
le changement climatique modifient par exemple le type et la fréquence des
ouragans et des incendies 6.
Comme les risques sont des produits de nos activités, leur carte mondiale est
complexe et évolutive. Elle est différente de la carte des maladies ou de la
mortalité car il existe une inertie entre les risques et leurs effets. Les risques
causent des maladies avec un décalage, plus souvent quantifiable en décennies
qu’en années. Les maladies d’aujourd’hui témoignent des risques d’hier, mais
les risques actuels prédisent fortement la maladie et la mort du milieu de siècle.
Une donnée critique est que les risques évoluent avec le développement des
pays. Quand les revenus et l’éducation progressent, certains risques baissent
automatiquement mais d’autres les remplacent, ce qui explique sans doute que la
quantité globale de risques ne change pas 7.
Qu’ils soient d’origine humaine ou naturelle, il y a une réalité qui les
concerne tous : aujourd’hui, les risques sont partiellement évitables ou traitables.
Nous avons les moyens techniques de nous en passer ou de les atténuer.
L’exposition mondiale aux risques a-t-elle
évolué au cours des dernières décennies ?
Les travaux du GBD concluent que l’exposition d’ensemble est fixe depuis
une trentaine d’années. Mais cette statistique agrégée ne dit pas tout, elle
comporte des hétérogénéités entre régions, entre pays et à l’intérieur des pays.
D’autre part, ce total vient de l’addition de risques qui changent. Quand certains
baissent, d’autres augmentent comme s’ils cherchaient à les doubler pour
produire une quantité finale pratiquement constante. C’est la transition des
risques. En résumant les tendances, les risques environnementaux diminuent
sauf la pollution de l’air 8, les risques comportementaux sont stables et les risques
métaboliques augmentent.
Évidemment, cette description est limitée. Pour comprendre la dynamique
des risques mondiaux, il faut les regarder de près. Parmi les risques auxquels
nous sommes de moins en moins exposés, on trouve ceux qui sont liés au
développement : les carences, la pollution interne aux foyers, l’eau non potable.
Ils diminuent systématiquement quand un pays se développe, l’effet est
automatique. Les risques sont des traits des sociétés et ces risques en particulier
sont des traits de la pauvreté. Il reste encore une marge d’amélioration, qui
devrait se réduire avec la poursuite du développement.
Par ailleurs, deux autres risques non liés au développement baissent aussi : le
tabagisme et la contamination au plomb. Le tabagisme, qu’il faut comprendre en
taux et non pas en quantité totale de cigarettes fumées, diminue à l’échelle
mondiale. Ce n’est pas un effet du développement car le tabagisme a au contraire
tendance à augmenter quand les pays se développent. Le déclin très lent du tabac
est le résultat des politiques de santé qui marchent le mieux, c’est-à-dire la
taxation et la régulation. Sans intervention des États, les humains ne fumeraient
pas moins et les cigarettes feraient toujours plus de malades et de morts. La
régression du tabagisme est un exploit quand on sait que la nicotine et ses
partenaires sont parmi les substances les plus addictives existantes. Cette baisse
est une démonstration de la puissance de la taxation et de la régulation, des
approches qui n’agissent pas seulement sur la demande (les fumeurs) mais aussi
sur l’offre (l’industrie du tabac et ses relais de vente). La diminution de la
contamination au plomb, un risque moins connu mais très toxique, est un autre
exemple d’efficacité de la régulation.
Parmi les risques stables, on trouve les risques au travail, la pollution à
l’ozone, les extrêmes de températures, la sédentarité, certains risques
alimentaires.
Enfin, les risques en hausse comprennent la pollution de l’air aux particules,
l’alcool, les violences sexuelles, l’hypertension artérielle, le diabète et l’obésité.
Leur exposition est massive et leurs effets sont planétaires. La plupart de ces
risques en hausse sont des produits de l’activité humaine. Ce ne sont pas des
risques naturels. La pollution et les risques métaboliques sont les deux plus
problématiques, à la fois par leur taille et leur trajectoire.

La pollution
L’impact total de la pollution est énorme. Elle est la première cause
environnementale de maladie et de mort, responsable d’environ 9 millions de
décès par an, soit 16 % du total. Plus des neuf dixièmes de ces morts se
trouveraient dans les pays non riches, ceux qu’on appelle les pays à revenus
faibles ou intermédiaires. Vu autrement, la pollution fait perdre 254 millions
d’années de vie chaque année. En comptant aussi les 14 millions d’années de vie
avec un handicap, elle cumule 268 millions de DALY.
Quelles sont les maladies associées à la pollution ? Celles du répertoire
général, il n’y a pas beaucoup de spécificité. La pollution rejoint ainsi le courant
mainstream des grandes tendances épidémiologiques, renforçant les deux plus
gros tueurs à l’échelle mondiale que sont les pathologies cardiovasculaires et les
cancers. Elle augmente le risque d’infarctus du myocarde, d’accident vasculaire
cérébral et de certaines tumeurs. Elle provoque aussi de l’asthme et des
bronchopneumopathies obstructives chroniques, dont l’autre grande cause est le
tabac — mais les deux s’associent souvent. Elle est également à l’origine de
troubles du développement de l’enfant. Toutes ces maladies existeraient sans la
pollution mais elles seraient moins fréquentes et peut-être moins sévères. Elles
ont d’autres facteurs de risque plus médiatisés, ce qui permet d’éclipser le rôle
de la pollution et d’exagérer celui des comportements personnels. Négliger la
pollution la maintient clandestine : elle est rarement mentionnée parmi les
suspects habituels. On préfère incriminer le tabac, l’alcool, une mauvaise
alimentation, c’est-à-dire des causes qu’on attribue aux individus alors que la
pollution relève des sociétés.

Les risques métaboliques


Le métabolisme désigne les transformations de matière et d’énergie à
l’intérieur des organismes. Il s’agit de notre machinerie personnelle. Ce sont des
réactions physiques et chimiques en nous, qui produisent ou dégradent, mais qui
sont toujours des affaires d’échanges. Comme il s’agit de biologie et que nous
n’avons pas muté en si peu de temps, on pourrait s’attendre à ce que le risque
métabolique soit stable mais c’est le type de risque qui augmente le plus.
Pourquoi cette hausse ? Une première explication est démographique. La plupart
des désordres inclus dans le risque métabolique dépendent de l’âge et la
population vieillit, ce qui entraîne une nouvelle fois une augmentation
mécanique. Il y a aussi un effet des deux autres types de risque, puisque
l’environnement et les comportements influencent notre métabolisme. Notre
équilibre intime est perméable à nos attitudes et aux éléments extérieurs. Le
risque métabolique est donc aussi une conséquence négative des risques
environnementaux ou comportementaux, qui exercent leurs toxicités de façon
indirecte. Le métabolisme est leur intermédiaire pour nous rendre malades ou
nous tuer prématurément.
L’augmentation mondiale du risque métabolique est supérieure à 1 % par an,
peut-être bientôt 1,5 %, mais c’est une manière atténuante et trompeuse d’en
parler. Une augmentation de 1 % chaque année correspondrait à une hausse de
plus d’un tiers en trente ans, ce qui est moins que ce qui est réellement arrivé.
Par ailleurs, tous les composants du risque métabolique ne se valent pas. Les
risques les plus préoccupants sont l’hypertension artérielle et le binôme
obésité/diabète. L’hypertension est une endémie mondiale depuis toujours. Elle
augmente tendanciellement avec l’âge et reste asymptomatique avant de se
compliquer, ce qui n’aide pas à en prendre conscience. Les données nous disent
que le nombre d’hypertendus a doublé entre 1990 et 2019, passant de
650 millions à 1,278 milliard de personnes 9. Ce doublement est largement un
effet de la démographie. La fréquence de l’hypertension artérielle ajustée sur
l’âge est stable 10. L’hypertension est le premier risque mondial en impact, avec
un bilan à peine inférieur à 11 millions de décès par an, soit un peu moins de
20 % de la mortalité 11.
Quant à l’obésité, elle est partout. L’obésité est en baisse dans zéro pays du
monde. Elle affecte plus d’un milliard de personnes quand le surpoids en touche
environ 2,5 milliards. Dans cet effectif mais aussi en dehors, il y a plus de
500 millions de diabétiques.
L’obésité est une entité à part car elle est à la fois un marqueur de problème
métabolique et une maladie en soi qui en cause des dizaines d’autres dont le
diabète. Comme la plupart des maladies chroniques, elle résulte d’un mix de
facteurs génétiques et de causes acquises. Le rôle de la génétique est prouvé,
notamment par les études familiales, voire les études chez les jumeaux. Ces
données montrent que 40 % à 70 % de l’indice de masse corporelle sont
héritables. Il existe une vulnérabilité personnelle à laquelle les individus ne
peuvent rien, et qui les prédispose à prendre du poids indépendamment de ce
qu’ils font. Mais trois autres éléments que tout le monde connaît exercent un
effet majeur, à savoir la quantité d’alimentation, sa qualité et l’activité physique.
Ces trois indicateurs ont tous évolué dans un mauvais sens. Les humains
mangent plus et plus mal qu’il y a cinquante ans, et ils utilisent moins leur corps.
Ces données suggèrent que l’explication du problème de poids mondial est
évidente, mais elle ne l’est pas. D’abord, il est très difficile de déterminer la part
de ces trois défauts dans le résultat. Il y a comme une énigme. La croissance de
l’obésité est supérieure à la décroissance de l’activité physique et à la
détérioration alimentaire. Cette incohérence trouve sans doute son explication
dans les aliments ultra-transformés qui seront abordés plus loin, aliments qui ont
des effets allant au-delà de leurs calories.
Élargir le contexte donne une compréhension supplémentaire. Les causes de
dérapage métabolique n’ont pas augmenté sans raison. Ce sont les causes finales
de l’obésité mais elles ont elles-mêmes des causes initiales. Notre
environnement physique et social influence notre comportement et notre
métabolisme. C’est l’une des clés de la pandémie de maladies chroniques
métaboliques car cet aspect du problème a été largement méconnu et donc non
traité. Comme le disait un article scientifique récent, « l’approche suppose que
les moteurs fondamentaux de l’obésité peuvent être autorisés à rester en place
— et que nous pouvons travailler avec. Mais les experts soulignent que l’obésité
à l’échelle mondiale est intégrée dans les structures des sociétés poussées par les
forces de la mondialisation, l’urbanisation et la technologie 12 ». Cette intégration
implique aussi un gradient social. Le surpoids et l’obésité ne sont pas répartis de
façon homogène mais affectent tendanciellement les humains ayant moins de
capital économique et social. Cette concentration explique une partie du gradient
social de santé, une loi ancienne qui formule que le capital social prédit la santé
et la mortalité. Les humains éduqués, dont les revenus sont élevés et qui ont un
réseau de proches, ont nettement plus de chances de vivre moins malades et plus
longtemps que les autres. Cet effet épidémiologique du capital social passe
notamment par le poids et le métabolisme.
Un autre indice témoigne de la poussée de l’obésité, c’est qu’elle ne veut
plus attendre. Elle touche de plus en plus les enfants et les adolescents. L’obésité
infantile a augmenté au XXIe siècle par rapport au XXe. Les pédiatres voient
beaucoup plus d’enfants diabétiques mais avec un diabète de type 2, et des
enfants ayant un foie gras, ce qui n’existait pas avant 13. Ces enfants prennent un
mauvais départ car l’obésité infantile prédit l’obésité adulte et les maladies qui
vont avec. Il leur sera très compliqué de retrouver une trajectoire de poids
normale.
L’obésité est à l’origine de maladies cardiovasculaires, de cancers, de
démences, d’asthme, de diabète, de maladies rénales chroniques, et de foie gras
humain qu’on appelle la stéatose hépatique. Cette stéatose mène à la cirrhose et
au cancer du foie. Pourtant, alors que l’exposition au risque métabolique a
augmenté, les taux de mortalité cardiovasculaire ont diminué jusqu’à
récemment. Cette dissociation n’est pas un paradoxe. Nous échouons à lutter
contre le risque mais nous savons mieux mitiger ses effets, alors qu’en fait c’est
techniquement plus difficile. Il y a pourtant une probabilité sérieuse que nos
capacités de lutte soient finalement débordées, un risque peut-être déjà avéré
dans certains pays riches. L’obésité y explique une partie de la stagnation de
mortalité. Le Royaume-Uni, les États-Unis, l’Allemagne, les Pays-Bas,
l’Australie, l’Autriche et le Brésil peuvent tous s’inquiéter d’avoir atteint un
plateau de mortalité cardiovasculaire, et l’obésité y participe. Il est possible que
les taux de mortalité par infarctus et par accident vasculaire cérébral augmentent
déjà ou bientôt, dans ces pays et dans d’autres, ce qui serait la première fois
après cinquante ans de baisse. Si cette inversion persistait et se répandait, les
effets seraient massifs à terme.

L’impact des risques


Dans l’image d’ensemble de la santé mondiale, les risques prennent à peu
près la moitié de la place. Le GBD a estimé qu’en 2019, 48 % des années de vie
perdues ou malades (les DALY) étaient dus à une exposition à l’un ou plusieurs
de ces risques, car les risques s’associent. La même année, les risques
expliquaient un peu moins d’un décès sur deux par cancer 14. Ces estimations
sont des sous-estimations puisque certains risques ne sont pas encore pris en
compte dans les travaux. Il y a des différences mais pas majeures, entre les
hommes et les femmes concernant les effets des plus gros risques. Dans le top 5
de chaque sexe, on trouve l’hypertension artérielle, le diabète, l’alimentation et
la pollution de l’air, même s’ils n’arrivent pas dans le même ordre. Il existe plus
de différences sur les risques inférieurs qui ne sont pas petits non plus, comme
l’excès d’alcool qui tue beaucoup plus les hommes que les femmes : plus de
2 millions de morts par an contre moins de 400 000. Les différences de risques
entre les hommes et les femmes expliquent une partie des différences de
e
longévité, une constante du XX siècle dans la plupart des pays, persistante au
e
XXI siècle. Aujourd’hui, les femmes vivent plus longtemps que les hommes dans
la plupart des pays du monde. Tous sexes confondus, le risque le plus mortel est
l’hypertension artérielle. Derrière elle, le tabac est coupable de 8 millions de
morts. Parmi les risques moins évidents mais significatifs, il y a les extrêmes de
températures, qui causent un million de morts par an dans chaque sexe.
En ajoutant les années de vie malades aux années de vie perdues, les risques
dont l’impact augmente partout dans le monde sont de type métabolique :
l’hypertension artérielle, le diabète et l’obésité. La tendance est encore plus nette
pour les deux derniers ; ces deux risques sont liés et il y a du sens à vouloir s’en
prendre aux deux en même temps. Avec la pollution au sens large, le risque
métabolique est notre plus gros problème.

1. En sachant que même le déterminant 1, c’est-à-dire la biologie, amène aussi à travailler sur les risques
car nous n’avons justement pas tous la même biologie et donc pas les mêmes risques de départ. Il existe par
exemple une épidémiologie génétique, qui cherche à estimer comment la génétique prédit la survenue de
maladies. Par ailleurs, les études menées sur des jumeaux ont souvent estimé que la biologie déterminait
environ 25 % de notre espérance de vie.
2. Frank M. Snowden, Epidemics and Society: From the Black Death to the Present, Yale University Press,
2019.
2
3. L’index de masse corporelle (IMC) se calcule selon la formule suivante : IMC = poids ÷ taille .
4. Le taux de sucre dans le sang est un indicateur de diabète ou de risque de diabète.
5. Epi = au-dessus, donc épigénétique = au-dessus de la génétique.
6. James M. Shultz et al., « Double environmental injustice – climate change, hurricane Dorian, and the
Bahamas », NEJM, 2020. Et aussi Kenneth W. Kizer, « Extreme wildfires – a growing population health
and planetary problem », Journal of the American Medical Association (JAMA), 2020.
7. GBD 2019 Risk Factors Collaborators, « Global Burden of 87 risk factors in 204 countries and
territories, 1990-2019: a systematic analysis for the Global Burden of Disease study 2019 », The Lancet,
2020.
8. Et la pollution chimique qui augmente aussi, mais celle-ci n’est pas encore complètement évaluée par le
GBD.
9. NCD Risk Factor Collaboration (NCD-RisC), « Worldwide trends in hypertension and progress in
treatment and control from 1990 to 2019: a pooled analysis of 1 201 population-representative studies with
104 million participants », The Lancet, 2021.
10. On pourrait pourtant faire baisser cette proportion en limitant la quantité de sel dans l’alimentation,
mais les industriels s’y opposent car le sel rehausse le goût de leurs préparations qui en manquent souvent.
11. Un peu moins de la moitié des hypertendus sont traités et un peu moins d’un quart sont contrôlés, c’est-
à-dire que leur traitement fait baisser la pression artérielle. Tous les pays ne luttent pas avec la même
efficacité contre l’hypertension et il existe une relation partielle avec le développement. L’hypertension se
dépiste et se traite facilement. Les médicaments ne sont pas chers. La majorité sont maintenant des
génériques qui ne coûtent que quelques centimes par jour. Ils offrent aux systèmes de santé un retour sur
investissement monumental tant ils évitent les complications. Aucun nouveau médicament ne peut espérer
nous donner un retour sur investissement aussi important que les antihypertenseurs. L’hypertension
artérielle est une des meilleures illustrations d’un trait central du marché pharmaceutique, à savoir que ce
sont les médicaments d’hier qui sauvent le plus de vies.
12. Shiriki Kumanyika, William H. Dietz, « Solving population-wide obesity – progress and future
prospects », NEJM, 2020.
13. Jusqu’à récemment, la quasi-totalité des cas de diabète diagnostiqués avant l’âge adulte étaient des
diabètes de type 1, nécessitant d’emblée un traitement par insuline. Le diabète de type 2 se voyait surtout
chez des personnes d’un certain âge souvent en surpoids ou obèses.
14. GBD 2019 Cancer Risk Factors Collaborators, « The global burden of cancer attributable to risk
factors, 2010-2019: a systematic analysis for the Global Burden of Disease study 2019 », The Lancet, 2022.
3
La santé humaine s’améliore-t-elle ?

À cette question, la réponse est ambiguë car les données sont contrastées. On
pourrait dire oui et non. La mortalité baisse mais pas partout. Jusqu’à la
pandémie de Covid-19, elle diminuait dans une majorité de pays pauvres, mais
stagnait ou augmentait dans une minorité de pays riches déjà mentionnés. La
lutte contre le handicap induit par la maladie ne progresse pas puisque son taux
ne change pas significativement. Certaines maladies ont une croissance
supérieure à ce que serait leur croissance naturelle si elle était seulement
conduite par la démographie.

Les forces contraires


À la question « Quel est le futur de la santé humaine ? », la réponse est
clairement « On ne sait pas ». Depuis que la santé humaine a commencé à
s’améliorer vers le milieu du XVIIIe siècle, ce qui s’est vu sur l’extension de
l’espérance de vie, il y a toujours eu des forces contraires. Les forces positives
— la santé publique et la médecine — ont poussé la santé vers le haut quand les
forces négatives la tiraient vers le bas, souvent en même temps. Le résultat net a
été celui de cette équation. Ce sont les forces positives qui l’ont emporté, à
quelques exceptions près et ce, probablement jusque vers 2010. La mortalité a
baissé et l’espérance de vie a augmenté selon un tracé linéaire, ce qui veut dire
que le rythme du progrès a été constant. Les humains occidentaux, les premiers à
avoir été chanceux, ont gagné environ trois mois de durée de vie moyenne par an
pendant deux siècles et demi. Leur persévérance leur a permis de pratiquement
tripler leur longévité factuelle. L’espérance de vie stagnait autour de 25-30 ans
depuis 12 000 à 15 000 ans, c’est-à-dire depuis la transition néolithique 1. Elle est
maintenant proche de 80 ans, voire supérieure dans beaucoup de pays 2. Les
maladies microbiennes puis les maladies chroniques ont été atténuées.
Depuis 2010, la situation est moins claire. Dans les pays les plus développés,
les taux de mortalité de certaines maladies ont réaugmenté. Les Américains ont
atteint un plateau d’espérance de vie en 2014, précédant une baisse lors des trois
années suivantes. Cette inversion était inédite depuis la Seconde Guerre
mondiale. Le Royaume-Uni a également, mais par des mécanismes différents, vu
remonter la mortalité infantile et celle des femmes âgées. En France, la mortalité
avant 1 an augmente depuis 2012, pour des raisons qui restent à déterminer mais
qui ont à voir avec la santé des mamans 3. Les démographes et les historiens
mettront des années à quantifier le bilan précis de la pandémie de Covid-19,
mais il n’est pas trop tôt pour savoir qu’il sera tragique. Sur ses deux premières
années seulement (2020 et 2021), l’excès de mortalité dépassait 18 millions de
personnes, soit trois fois plus que le compte officiel par les pays 4. L’observation
historique montre qu’après les événements extrêmes comme les guerres et les
pandémies, l’espérance de vie reprend immédiatement sa trajectoire d’avant la
crise, sauf qu’avant le SARS-CoV-2, la dynamique était contrastée.

Les risques humains en croissance


Si la réponse aux deux questions posées sur l’amélioration et le futur de la
santé humaine est si difficile, c’est pour plusieurs raisons dont certaines ont déjà
été évoquées. Il y en a une qui est commune aux deux questions : l’amélioration
de la santé n’est plus nette et on ne sait pas où elle va parce qu’il y a trop de
risques d’origine humaine. Il y a toujours eu des risques venant de nous et jouant
contre nous. Les philosophies de l’Antiquité sont même nées de ces
observations. Mais les risques provoqués ont atteint une proportion jamais vue
dans le bilan de la maladie et de la mortalité mondiales. Ils expliquent à la fois la
rétrogression partielle ou locale de la santé humaine (réponse à la question 1) et
les hésitations à dessiner les futures courbes de handicap et de mortalité (réponse
à la question 2).
Les manifestations sont nombreuses. Par exemple, ce sont des risques
d’origine humaine qui causent la surmortalité des Américains : l’alcool, les
suicides et les overdoses aux opioïdes. Leur impact est tellement élevé qu’ils
exercent un effet statistique sur la moyenne nationale. D’autres risques comme
l’obésité se sont disséminés dans les pays riches au point de provoquer des
hausses de mortalité cardiovasculaire. D’autres risques encore détermineront
lourdement la santé humaine de milieu de siècle : la pollution, le changement de
climat en cours dont l’effet est encore limité mais dont la croissance est presque
certaine, et les microbes émergents, très probables mais imprévisibles.

Le paradoxe de la santé mondiale


Le paysage de la santé mondiale au XXIe siècle offre donc un contraste qui
ressemble à une contradiction. D’une part, les humains investissent énormément
et font des efforts pour vivre mieux et plus longtemps. De l’autre, ils produisent
des risques nouveaux et importants qui s’opposent aux progrès visés et qui
souvent les annulent 5.
Du côté des efforts et des investissements, les dépenses de santé augmentent
globalement. En 2018, elles atteignaient 10 % de la richesse mondiale, soit
8 300 milliards de dollars. Dans la plupart des pays, elles suivent la croissance
du PIB. C’est la première loi d’économie de la santé, un concept inventé par
l’économiste néerlandais Jacques van der Gaag 6. Cette hausse des dépenses de
santé n’est pas simplement due à la démographie, à savoir la taille et le
vieillissement des populations. Ce n’est pas une croissance purement naturelle.
Si les pays affectent de plus en plus d’argent à leurs systèmes de santé, c’est
parce que les soins deviennent plus chers. La hausse des dépenses est surtout
causée par les hausses de prix des technologies 7. Les médicaments, les
dispositifs et les équipements coûtent de plus en plus cher, ce qui est toujours lié
à leur sophistication, parfois seulement aux progrès qu’ils apportent. Par ailleurs,
la santé est une préoccupation des populations. Les enquêtes d’opinion le
montrent. Les humains investissent de plus en plus dans leur santé pour des
raisons qui sont claires dans leur esprit.
Mais en parallèle de ces efforts, les risques d’origine humaine et leurs
conséquences ont pris une place envahissante. Les risques en général — dont 17
sur 20 sont provoqués par nos activités — expliquent pratiquement la moitié des
années de vie perdues ou malades. Les humains passent maintenant une bonne
partie de leur vie à lutter contre des problèmes dont ils sont les auteurs.
Pourquoi la société mondiale produit-elle autant de maladies dont elle ne
veut pas, tout en dépensant beaucoup pour contrarier leurs effets ? Vu la taille de
l’anomalie, la réponse complète ne peut être que complexe. Mais il existe une
réponse courte : la plupart des risques produits appartiennent à la croissance
économique. Dans son dysfonctionnement normal, la croissance économique a
même poussé la société mondiale à créer une offre et une demande de risques.
C’est la coïncidence de l’offre et de la demande qui permet le suicide de
l’espèce. S’il y avait une offre de risques mais pas de demande, la production
s’épuiserait et il n’y aurait pas de suicide. Inversement, s’il y avait une demande
mais pas d’offre, il y aurait une idée suicidaire mais sans moyen de passer à
l’acte.
Il est plus facile de prouver l’existence de l’offre que de comprendre la
demande. Pour démontrer l’offre, il suffit de la décrire. L’offre de risques est
visible et appartient systématiquement à l’économie. Elle vient d’entreprises qui
vivent plus ou moins bien mais toujours en faisant mal. La plupart des risques
humains sont des produits commercialisés (aliments transformés, alcool, tabac)
ou des retombées d’une activité commerciale (la pollution). Ces risques forment
une économie pathogène, c’est-à-dire une économie qui cause des maladies.
Sans forcément le vouloir ou sans en être consciente, la croissance économique a
créé une offre de risques et de maladies. Bien qu’elle ait permis des progrès
matériels et humains de masse, ses effets sont aujourd’hui contradictoires. La
croissance économique telle qu’elle est définie produit du développement mais
elle a aussi un impact épidémiologique extraordinairement négatif.
Alors que la logique économique de l’offre est évidente, la logique de la
demande est moins intuitive. Il n’est pas attendu que les clients des industriels
achètent des risques ou s’y exposent sans rien dire. Des données seront décrites
même si l’explication d’ensemble nécessitera des hypothèses et laissera des
lacunes. Ces données montreront que la logique de la demande est surtout
sociale.
Enfin, dans tous les jeux, il y a un besoin de règles et d’arbitre mais ici, la
partie a dérapé. Dans les démocraties, il paraît que c’est le job des leaders
politiques de protéger leurs populations, c’est-à-dire de fixer les règles du jeu et
de les faire appliquer. L’existence de l’économie pathogène démontre que les
leaders politiques ont d’abord échoué deux fois de suite pour réprimer l’offre :
beaucoup de règles ne sont pas bonnes et celles qui le sont ne sont pas suivies.
Ils ont échoué une troisième fois, car ils n’ont pas su empêcher la croissance de
la demande.
Ces explications préliminaires ramènent à un schéma classique comportant
trois acteurs : les entreprises ou acteurs privés (l’offre), les individus ou la
société civile (la demande), et les leaders politiques (les arbitres). Bien que la
situation d’ensemble soit dramatiquement anormale, le livre essayera de montrer
qu’il y a chez chaque intervenant beaucoup de rationalité qui est la logique de
chacun. La rationalité peut être erronée par des informations lacunaires ou des
biais cognitifs, mais il n’empêche que les acteurs réfléchissent. Ils ont des
raisons auxquelles ils croient parce qu’elles ont du sens pour eux. Ces raisons
font qu’il y a à la fois une logique de l’offre et une logique de la demande de
risques et de maladies.
Il serait tentant de voir un complot général mais il n’y en a pas. Chaque
intervenant joue plus ou moins bien son rôle. Il le joue avec les limites qui lui
sont imposées et les libertés qui lui sont laissées. Raymond Boudon (1934-
2013), en s’appuyant sur les travaux de Max Weber (1864-1920), a expliqué que
nous avons tendance à voir le monde comme plus ordonné qu’il n’est 8. Quand
nous remarquons des coïncidences d’événements, nos cerveaux travaillent
comme des machines à trouver de la cause pour donner du sens. Ces événements
sont bien déterminés par des causes, mais leurs coïncidences relèvent souvent du
hasard, un hasard que nous avons du mal à mentaliser. La croissance de
l’économie pathogène repose sur deux couches de mécanismes qui répondent à
un schéma décrit par Boudon. Premièrement, le comportement des acteurs est lié
à des raisons dont ils sont plus ou moins conscients mais qui leur semblent
bonnes. À ce niveau inférieur, la logique qui mène au suicide de l’espèce est
rationnelle. Deuxièmement, le dérapage à grande échelle résulte de l’assemblage
malheureux des différents jeux des acteurs. Cet assemblage n’est lui-même pas
intentionnel, il ne suit pas un plan. Au niveau supérieur, la logique du suicide de
l’espèce s’appuie sur le désordre. Elle traduit simplement que la société
mondiale est mal faite.

1. La transition néolithique, souvent appelée aussi révolution néolithique, correspond au passage des
chasseurs-cueilleurs à l’installation en villages pour cultiver la terre et domestiquer les animaux. On pense
que la transition néolithique a signifié une perte d’espérance de vie pour les humains de l’époque, sans
doute parce que la proximité humaine et avec les animaux a augmenté le risque microbien et dégradé la
santé et la longévité. L’espérance de vie des chasseurs-cueilleurs pourrait avoir été approximativement de
40 ans, et serait passée à 25-30 ans au moment de la transition néolithique.
2. James W. Vaupel et al., « Demographic perspectives on the rise of longevity », Proceedings of the
National Academy of Sciences (PNAS), 2021.
3. Nhung T.H. Trinh et al., « Recent historic increase of infant mortality in France: A time-series analysis,
2001 to 2019 », The Lancet Regional Health – Europe, 2022.
4. COVID-19 Excess mortality collaborators, « Estimating excess mortality due to the COVID-19
pandemic: a systematic analysis of COVID-19-related mortality, 2020-2021 », The Lancet, 2022.
5. Joseph L. Dieleman et al., « Global health spending and development assistance for health », JAMA,
2019.
6. William J. Baumol, The Cost Disease: Why Computers Get Cheaper and Healthcare Doesn’t, Yale
University Press, 2012.
7. Victor R. Fuchs, « The gross domestic product and health care spending », NEJM, 2013 ; et « Major
trends in the U.S. health economy since 1950 », NEJM, 2012.
8. Le Juste et le Vrai, Fayard, 1985.
II

L’OFFRE DE RISQUES
Comprendre l’offre de risques n’est pas difficile. Sa logique n’est pas
complexe. Si l’on exclut les risques naturels, on observe que ce sont rarement les
individus qui produisent des risques et encore plus rarement les États. L’offre de
risques vient surtout des entreprises. Elle s’appuie principalement sur deux
schémas. Dans le premier schéma, le risque est leur business et la maladie est le
produit de leurs produits. C’est le cas par exemple des entreprises qui vendent
des aliments ultra-transformés, du tabac ou de l’alcool. Toutes ces entreprises
sont directement pathogènes. Dans le second schéma, le risque est un produit
collatéral de la rentabilité. La maladie est alors la complication de leurs
retombées, qui sont souvent des émissions polluantes qui elles-mêmes existent
parce qu’il est moins cher de produire salement que proprement. Ces entreprises
sont indirectement pathogènes. Elles ne vendent pas leurs produits toxiques mais
elles les émettent dans leur fonctionnement normal pour assurer leur rentabilité.
Dans les deux cas, le risque est un produit ou un sous-produit intrinsèque à
l’activité de l’entreprise, ce qui explique qu’il soit si difficile de réduire les
risques dans un monde où la croissance économique joue un rôle supérieur à la
religion. Toutes les entreprises veulent performer, ou au minimum elles se
défendent pour survivre. Sans les risques, beaucoup d’entreprises n’auraient pas
de marché ou pas de revenus suffisants pour continuer à fonctionner selon les
règles actuelles. La différence est que les entreprises directement pathogènes
exercent leur effet toxique de façon centrale et que les autres disséminent leurs
risques de manière latérale à leur activité. Bien sûr, il y a beaucoup d’entreprises
ou d’industries qui cumulent les deux schémas. La plupart des entreprises
directement pathogènes sont aussi polluantes, et elles causent des maladies selon
des mécanismes diversifiés, évidents ou moins visibles.
Les entreprises directement pathogènes sont donc sans surprise les
producteurs ou les vendeurs de tabac, d’alcool et de mauvais aliments, c’est-à-
dire surtout les aliments ultra-transformés. Comme ces entreprises
commercialisent directement et légalement leurs produits toxiques, elles forment
une économie bien définie dont les contours sont clairs, alors que l’économie
indirectement pathogène est dispersée. Beaucoup de ces entreprises directement
pathogènes appartiennent à des industries qui existent depuis des siècles et dont
le caractère toxique est notoire. Il y en a une qui est plus problématique car elle
est sous-estimée et que sa croissance est incontrôlée : c’est l’industrie
alimentaire et en particulier les entreprises qui transforment et sucrent les
aliments.
4
L’offre directe de risques :
l’industrie alimentaire

La plupart des humains ont manqué d’énergie parce qu’ils manquaient


d’aliments. Sur les 8 000 générations d’humains dans leur forme actuelle, plus
de 99,9 % ont dû vivre avec un métabolisme en tension car les quantités
d’aliments disponibles étaient minimales. Leurs opérations internes de
transformation matérielle et d’énergie — ce qui est la définition du
métabolisme — étaient limitées par un déficit alimentaire. Il n’y avait pas d’offre
et la demande devait aller chercher l’offre, ce qui veut dire que les humains
assuraient eux-mêmes leur offre. Mais cette offre était irrégulière et en moyenne
insuffisante. Les lacunes alimentaires ont été un déterminant majeur de la
stagnation statistique de l’espérance de vie depuis la transition néolithique, et
même avant 1. Au cours de l’Antiquité, du Moyen Âge, et à la Renaissance, la
santé humaine était médiocre en partie à cause d’une alimentation défaillante.
Les récoltes étaient notamment trop dépendantes de la météo.
À part la pénurie, le principal risque alimentaire était microbien. En plus, les
épidémies et les famines entretenaient une relation réciproque. Elles
s’intensifiaient l’une l’autre. Quand les gens étaient malades, ils ne pouvaient
pas participer aux récoltes. Le rendement agricole diminuait, ce qui accentuait le
défaut nutritionnel et rendait les gens encore plus vulnérables aux infections, et
ainsi de suite.
e
À partir du milieu du XVIII siècle, ces problèmes se sont nettement
améliorés, à la fois par une hausse des quantités alimentaires produites et par
diminution du risque microbien. Ce qui était une force de traction, qui tirait la
santé vers le bas, est devenu une force inverse qui l’a poussée vers le haut
pendant environ deux siècles. Robert Fogel (1926-2013) a décrit les réactions en
chaîne provoquées par la croissance de l’offre alimentaire. Les innovations
technologiques ont permis de mieux contrôler l’environnement, ce qui a
augmenté la production agricole, donc l’énergie disponible, et qui a développé le
métabolisme humain. Les individus ont alors été physiquement mieux armés
pour travailler et maximiser le rendement des récoltes, ce qui a donné plus
d’aliments et donc plus d’énergie. Ce phénomène typique d’un feed-back positif,
quand l’effet devient une cause d’un plus grand effet, s’est même transmis de
génération en génération. Dans son livre au titre explicite, The Changing Body,
Fogel explique que « la santé et la nutrition d’une génération contribuent, à
travers les mères et au décours de l’enfance, à la force, la santé et la longévité de
la génération suivante ; parallèlement, une longévité et une santé augmentées
permettent aux membres de la génération suivante de travailler plus dur et plus
longtemps pour créer les ressources qui peuvent ensuite, à leur tour, être utilisées
pour aider les générations suivantes à réussir à prospérer 2 ».
Jusqu’à la Seconde Guerre mondiale, l’histoire de l’alimentation occidentale
puis mondiale est l’histoire d’un succès incomplet mais très efficace. La logique
de l’offre alimentaire — agriculture et élevage, car il n’y avait pas encore
vraiment d’industrie — était une logique épidémiologique positive 3. Les gains
de santé l’emportaient largement sur les pertes. C’est ensuite que tout s’est
compliqué.

L’industrialisation de l’alimentation
Après la Seconde Guerre mondiale, la production alimentaire s’est
industrialisée pour pouvoir se mondialiser et répondre à une démographie et une
demande en croissance. Grâce au capital et à la technologie, les entreprises
alimentaires se sont mécanisées pour augmenter leurs capacités. À partir des
années 1970, les industriels ont ouvert un énorme travail de manipulation
systématique des aliments. Ce travail a un nom : la transformation. Le
phénomène existait déjà — la pasteurisation est une transformation —, mais les
industriels ont altéré les aliments de façon de plus en plus intense pour les
éloigner de leur état naturel. Cette transformation a fait faire des progrès
énormes. Elle a permis une production massive susceptible de nourrir plus de
personnes, et une préservation longue, tout en continuant à réduire le risque
microbien 4. Le début de la transformation coïncide approximativement avec le
moment où les aliments industriels deviennent moins chers que les aliments
frais. Mais en transformant les aliments, les industriels ont transformé les
organismes vivants qui les consommaient, c’est-à-dire les humains et les
animaux. La transformation alimentaire a affecté nos opérations intérieures
d’énergie et de matière, ce qui veut dire notre métabolisme. Les industriels ont
réussi à retirer aux aliments leurs qualités naturelles, pour les remplacer par des
défauts nouveaux dont les effets sont profonds. Ils ont participé à enclencher,
sans avoir l’air d’y toucher, une pandémie jamais vue de maladies chroniques
dont la plupart sont métaboliques. C’est le résultat principal du système
alimentaire mondial, un résultat secondaire étant la pollution et les émissions
carbonées. Cette dissémination de la transformation dont les effets
épidémiologiques sont incroyablement négatifs, a été facilitée par de lourdes
erreurs de la science nutritionnelle.

La transformation des aliments


Les transformations opérées par les industriels peuvent être physiques,
chimiques ou biologiques. Elles impliquent des procédés industriels ou des
additions d’ingrédients, souvent les deux à la fois. Parmi les procédés, il y a par
exemple — attention — le fractionnement, le prétraitement par friture ou le
chauffage à très haute température. Quant aux ingrédients incorporés, ils le sont
souvent directement ou peuvent l’être indirectement via l’emballage. Dans
l’ensemble, ils forment une liste extensive de termes ininterprétables dont
presque tous correspondent à des émulsifiants, des édulcorants ou des
conservateurs. Ces ingrédients sont souvent des additifs mais jamais des
nutriments. Ce sont des composants artificiels dont notre corps n’a pas besoin,
qui cherchent à agir sur la forme ou la texture des aliments, sur leur goût ou
encore sur leurs conditions de commercialisation. On estime qu’environ
330 additifs sont commercialisés en Europe. Les opérations de transformation et
les additions produisent des aliments qui n’ont plus grand-chose à voir avec les
matières premières d’origine, ce qui est d’ailleurs le but.
Robert Lustig est pédiatre, spécialiste de l’endocrinologie des enfants, et
professeur à l’université de San Francisco. Dans ses travaux de recherche et ses
livres grand public 5, Lustig a dénoncé le rôle central des aliments ultra-
transformés dans l’épidémie de maladies chroniques qui affecte les États-Unis et
qui épuise leur système de soins. Au total, Lustig a compté sept critères qui
définissent les aliments ultra-transformés et les rendent toxiques :
— une production de masse ;
— une homogénéité d’un lot à l’autre. Contrairement à un aliment frais, un
aliment ultra-transformé est identique à ceux qui résultent du même processus de
production. La transformation de l’alimentation est une standardisation ;
— une homogénéité d’un pays à l’autre, la mondialisation alimentaire
totale ;
— le recours à des ingrédients spécialisés n’existant pas dans le commerce ;
— un contenu précongelé ;
— des aliments émulsifiés pour que les graisses et l’eau ne se séparent pas ;
— une longue durée de conservation ou de congélation.
Les industriels n’ont pas manqué d’idées pour rendre sexy ce qui est toxique,
ou pour vendre pas cher ce qui causera des dommages. Car ce sont deux
objectifs constants de la transformation des aliments : vendre en donnant envie et
vendre en dégradant la qualité pour faire baisser les prix, une faille de marché
typique des économies pathogènes. La transformation des aliments est un
phénomène motivé par le business, un business qui n’avait pas prévu la
production de maladies, puis qui l’a niée et qui la conteste encore. Dans
l’ensemble, la transformation est le fait d’un système et non d’un acteur. C’est
un phénomène qui implique beaucoup d’intervenants dont pas mal jouent un
mauvais rôle sans le savoir.
Trois autres raisons peuvent expliquer l’excès de transformation. La
première est de permettre une conservation prolongée des aliments. La deuxième
raison est de faciliter la consommation car le traitement industriel dispense du
travail manuel, ce qui devient un atout quand les femmes ont moins de temps
familial. Enfin, il y a une troisième cause qui est une bonne excuse, c’est la
pression qui a été mise sur les industriels pour qu’ils diminuent la quantité de
graisses dans les aliments. Techniquement, ils ont réussi mais médicalement, le
résultat a été dramatique. Cette évolution a été la première grande erreur
d’origine scientifique.

La tragédie du low-fat
Pendant des décennies, le gras a été dénoncé comme le méchant principal du
jeu alimentaire. Les preuves de culpabilité semblaient évidentes. Les graisses
apportent plus de deux fois plus de calories que les sucres et les protéines. Le
cholestérol sanguin est un facteur de risque cardiovasculaire, même s’il n’est que
marginalement influencé par l’alimentation. Pour ces raisons et pour d’autres, les
scientifiques et les médecins ont priorisé la diminution des graisses alimentaires
et le message est passé. La perception populaire s’est alignée sur cette vision,
notamment parce que les personnes obèses sont surchargées en gras, ce qui a
accrédité la croyance fausse selon laquelle les graisses alimentaires seraient
directement converties en graisses corporelles. L’idée est devenue obsédante. Il
fallait éviter les graisses par tous les moyens.
En parallèle, les effets négatifs des sucres ont été au contraire minimisés. Les
scientifiques et les médecins ont longtemps cru que les sucres étaient plutôt bons
pour la santé, et nécessaires au métabolisme. Leur toxicité a été détectée bien
après qu’elle s’est concrétisée. On pense maintenant que beaucoup de graisses
sont neutres ou bonnes, certaines sont même essentielles, et on sait que les
sucres alimentaires sont souvent mauvais ou très mauvais. Pour compenser la
sortie des graisses, les industriels ont fait entrer du sucre et pas n’importe lequel,
dans des aliments qui n’en contenaient pas. Le fructose a été le sucre
typiquement ajouté lors de la transformation. C’est un isomère du glucose, c’est-
à-dire une molécule ayant la même formule chimique brute mais une structure
différente. Or, en biologie, la structure fait la fonction. Les deux molécules,
fructose et glucose, sont collées l’une à l’autre dans le sucre de table qu’on
appelle le sucrose. Elles peuvent exister séparément, même si le fructose isolé
est spontanément rare, les fruits et le miel étant ses principaux véhicules
naturels.
Nous percevons le fructose comme étant au moins deux fois plus sucré que
le glucose, ce qui le rend plus attirant. Pourtant, le fructose n’est pas nécessaire.
Ce n’est pas une molécule vitale. Aucune réaction biochimique connue n’a
besoin de fructose pour se faire. À la différence du glucose, il ne suscite pas de
sécrétion d’insuline mais il est capté presque entièrement par le foie, où il
participe à la création de gras à l’intérieur de l’organe 6. Il provoque aussi une
résistance à l’insuline, un mécanisme critique des maladies chroniques
métaboliques et en particulier du diabète. Accessoirement, le fructose est
métabolisé par le foie de la même façon que l’alcool, ce qui ajoute un effet
symbolique à son action pathologique.
Le fructose affecte aussi directement le cerveau. Il est unique dans sa
capacité à activer le circuit addictif. Le fructose altère le métabolisme cérébral en
ciblant non pas les neurones, mais les astrocytes qui sont les cellules qui régulent
le flux sanguin et la communication entre les neurones. Au total, le fructose se
révèle être un coupable lourd même s’il n’est pas le seul et qu’il ne l’est pas
n’importe comment. Le fructose des fruits est bon pour le métabolisme, pas
seulement parce qu’il est naturel mais à cause de son association aux fibres. Le
fructose ajouté par la transformation est très mauvais.
À l’échelle occidentale puis planétaire, les régimes trop gras ont été
échangés contre des régimes trop sucrés. La consommation mondiale de sucre a
été multipliée par trois en cinquante ans, alors que la population a seulement
doublé 7. Un exemple typiquement malheureux de cette politique industrielle se
trouve dans les produits lactés. Le lait ne contient pas beaucoup de gras et ses
graisses naturelles sont probablement protectrices. Les industriels ont écrémé le
lait, c’est-à-dire qu’ils l’ont dépouillé de son gras. En passant, ils se sont servis
de ce gras pour faire des fromages transformés. Cette duplication a été rentable
pour eux — deux produits avec un seul —, mais elle a généré deux aliments
transformés néfastes à partir d’un seul aliment frais. Les fromages trop
transformés sont mauvais et le lait dégraissé a été traité en y ajoutant du sucre
qu’il ne contenait pas, ce qui l’a rendu pathogène. Il y avait à la base un produit
naturel qui était bon mais qui a été mal jugé. Il y a maintenant deux produits
déplorables.
La toxicité des sucres a été dramatiquement sous-estimée et la bonne
intention a produit une mauvaise idée. Les industriels ont augmenté les graisses
corporelles en annulant les graisses alimentaires naturelles, ce qui ressemble à un
paradoxe, même si l’explication est connue : c’est le remplacement des graisses
par les sucres. Comme les industries fossiles ou les industries chimiques, les
grandes entreprises alimentaires ont appliqué le principe de la substitution
regrettable, qui consiste à remplacer un problème par un autre parfois pire, un
principe pas toujours conscient. Quand un défaut issu de la transformation était
trop évident, les industriels ont maladroitement tenté de le compenser avec
encore plus d’artifice, les édulcorants étant un autre exemple. Ces interventions
de soi-disant compensation ne leur ont pas permis de récapituler le génie naturel
des aliments frais. La relation entre la transformation et la nutrition ne
dysfonctionne que dans un sens qui est celui de la détérioration. La
transformation des aliments n’apporte jamais d’avantage nutritionnel. Les
produits ajoutés ou dérivés de la transformation ne sont même pas des
nutriments.
La logique de production des maladies par l’industrie alimentaire est donc
une logique économique dont les ambitions sont mixtes : assurer une
alimentation de masse et sans microbes, mais aussi rendre attirant ce qui n’est
pas bon et bon marché ce qui est pathogène. C’est une logique dominée par le
profit mais comme pour les autres industries pathogènes, les entreprises n’ont
pas d’intention directe de production de maladies. Elles vont chercher la
croissance et la performance en négligeant les effets épidémiologiques.
L’absence de régulation adéquate fait le reste, en permettant que la croissance et
la performance se fassent au détriment de l’environnement et de la santé
humaine.

Les aliments du troisième type


À cause des évolutions techniques de l’industrie, le nombre de types
d’aliments est passé de deux à trois, le troisième étant les aliments ultra-
transformés. La croissance de ce troisième type se fait aux dépens des deux
autres, les aliments frais et les aliments « juste » transformés. Les aliments du
premier type sont les aliments frais, c’est-à-dire les aliments vrais. Ils ne
contiennent pas de sel supplémentaire, pas de sucre supplémentaire et pas
d’huile ajoutée. Les aliments transformés forment le deuxième type. Ils sont
produits en partant des aliments du premier type, et en les transformant mais pas
trop, par l’ajout de sel, de sucre naturel ou d’ingrédients existant en cuisine. Les
produits en conserve, les viandes et les poissons séchés ou fumés, le pain frais et
le fromage sont des aliments transformés.
Les aliments ultra-transformés contiennent tous des ingrédients qui ne sont
pas faits pour être mangés et que seule l’industrie peut ajouter car ils n’existent
pas ailleurs. La transformation est une histoire d’exclusivité industrielle, ses
composés ne devraient pas finir dans des aliments. Les aliments ultra-
transformés sont presque illimités et ne s’arrêtent pas à la junk food attendue,
comme les frites ou les sodas. On peut citer les céréales, les pains industriels, la
charcuterie, les « repas » surgelés, les soupes instantanées, les boissons lactées et
sucrées. Les steaks végétaux sont aussi des aliments ultra-transformés. Les
régimes véganes ou végétariens incluent jusqu’à 40 % de produits qui
appartiennent à ce troisième type. Le résultat est un surplus de ce qui est
mauvais et un déficit de ce qui était bon. Les aliments ultra-transformés
contiennent beaucoup de calories mais pas beaucoup de valeur. Les graisses
augmentent ou sont remplacées par des sucres, le glucose est concurrencé par le
fructose, et le sel augmente. À l’inverse, les fibres disparaissent pratiquement
alors qu’elles diminuent l’absorption des aliments et qu’elles sont indispensables
à l’équilibre du microbiote intestinal. Autre effet du traitement industriel : les
aliments transformés atténuent moins l’appétit que leurs équivalents frais, ce qui
fait qu’ils poussent à manger plus. Ce défaut inhérent explique que les gens
tendent à avaler plus d’aliments transformés que d’aliments frais. Enfin, les
aliments transformés ont deux autres caractéristiques qui seront traitées dans un
prochain chapitre : ce sont des substances hédoniques — qui produisent du
plaisir — et addictives.
Les aliments ultra-transformés sont envahissants. Selon les estimations, ils
capturent jusqu’à 80 % du volume des supermarchés. Cette invasion des espaces
d’achat est l’exemple typique d’une offre qui suscite la demande parce qu’elle
limite les options concurrentes. C’est un énième cas qui démontre que notre
environnement influence notre comportement et que les deux ne sont pas
indépendants. La consommation d’aliments ultra-transformés est
particulièrement élevée dans les pays à la culture alimentaire insuffisante où l’on
parle anglais, comme l’Australie, le Canada, le Royaume-Uni et les États-Unis,
où ils prennent plus des deux tiers de l’alimentation moyenne 8. En France,
environ un tiers du total quotidien serait ultra-transformé, et probablement la
moitié dans beaucoup de pays. Ces proportions sont souvent supérieures chez les
jeunes consommateurs et dans les villes, et inférieures chez les retraités 9. Les
aliments ultra-transformés sont à la fois mauvais en soi et mauvais par un effet
d’exclusion. Ils prennent la place des aliments frais qui sont donc moins
consommés, et les individus en tirent moins d’avantages pour leur santé.
La quantité consommée d’aliments ultra-transformés n’augmente plus
vraiment dans les pays à hauts revenus, où ils ont déjà atteint un taux de
saturation et où les leaders politiques commencent à peine à se réveiller pour les
réprimer. Au contraire, leur croissance est nette dans les pays aux revenus faibles
ou intermédiaires, un schéma classique des économies pathogènes, d’exportation
ou de délocalisation de la production de maladies. Partout, les aliments
transformés sont lourdement marketés, de façon à être connus et à avoir l’air
sympathiques. En matière d’alimentation, il est avéré que le marketing crée les
préférences. Comme attendu, les différences de consommation sont largement
influencées par les déterminants sociaux : les revenus, l’éducation, les conditions
de travail, le voisinage, l’entourage. Dans les pays riches, il existe une
association inverse entre ces déterminants sociaux et l’achat d’aliments ultra-
transformés. Les gens ayant un capital social et économique faible sont
nettement plus susceptibles d’en consommer tout court, voire beaucoup. Dans
les pays pauvres ou intermédiaires, une association « positive » a été observée :
ce sont les classes riches qui les achètent, peut-être par imitation de l’idée
qu’elles se font du mode de vie occidental.

Les mécanismes des maladies métaboliques


On sait que les aliments ultra-transformés sont mauvais, mais on sait moins
comment ils sont mauvais. Les mécanismes de leurs toxicités ne sont que
partiellement connus. On pense qu’ils agissent initialement sur trois systèmes de
protéines de contrôle qui eux-mêmes sont déterminants pour le métabolisme des
cellules. Ces trois systèmes dont les noms importent peu doivent être accordés
pour faire bifurquer les cellules vers la croissance ou vers la mort cellulaire
programmée. Si les cellules donnent une réponse incorrecte, plusieurs
mécanismes pathologiques s’enclenchent. Lustig détaille huit processus
pathologiques, complexes en soi, mais qui ne résument pourtant pas
complètement la complexité extrême des problèmes causés par les aliments
ultra-transformés. Parmi ces processus pathologiques, il y a par exemple la
réaction de Maillard, un classique de la chimie.
Louis-Camille Maillard a décrit en 1912 comment les protéines et les sucres
réagissaient ensemble. La réaction de Maillard advient au sein des aliments lors
de la cuisson. Elle est notamment connue pour donner une coloration dorée.
C’est elle aussi qui change l’odeur, le goût et la texture des aliments caramélisés.
La réaction de Maillard est appréciée des industriels car elle a la réputation de
rendre les aliments plus attirants. On a appris plus tard que ce qui arrive aux
aliments existe aussi dans les organismes. Nous hébergeons tous les jours un
nombre incalculable de réactions de Maillard, comme un fait normal de notre
vieillissement. La réaction de Maillard explique les rides, la perte d’élasticité de
la paroi des vaisseaux, et la perte de transparence du cristallin qu’on appelle la
cataracte. Au contact des sucres, les protéines deviennent moins flexibles. Or le
vieillissement est une perte de la flexibilité physique et mentale. On a compris
plus tard encore que le timing de la réaction de Maillard dépendait du type de
sucre en présence. Le glucose est un sucre stable qui provoque une réaction de
Maillard assez lente. Le fructose est beaucoup plus facile à fragmenter. Avec lui,
la réaction de Maillard se fait sept fois plus rapidement qu’avec le glucose. À
cause du fructose ajouté, la transformation des aliments accélère notre
vieillissement en nous faisant tendre vers le caramel.
Parmi les huit processus pathologiques, il y a aussi l’accumulation de graisse
dans le foie qu’on appelle la stéatose. C’est une maladie en elle-même, à risque
de cirrhose et de cancer, et qui suscite une résistance à l’insuline. Un autre
impact des aliments ultra-transformés concerne le microbiote intestinal, notre
faune bactérienne intérieure, imperceptible mais fondamentale pour le
métabolisme et la santé. En retirant les fibres des aliments, les industriels
empêchent notre microbiote de se nourrir, ce qui entraîne des répercussions en
chaîne qui sont des mécanismes de maladies. Enfin, ces processus pathologiques
participent à une inflammation de bas grade, presque indétectable mais
chronique et dont les effets sont systémiques. L’existence d’une inflammation
chronique, quelle qu’en soit la cause, crée un risque de complications
cardiovasculaires et de cancer. Une inflammation qui ne donne pas de fièvre et
pas de symptôme.
Ces processus pathologiques complexes et incomplètement élucidés
racontent une histoire tragique de dérapage énergétique. Lustig nous explique
que ces huit processus ne sont pas indépendants. Il est rare voire improbable
d’en avoir un seul. Ils dérapent souvent ensemble. Le drame est qu’ils ne causent
jamais de symptômes et ne font pas mal. Les gens ne perçoivent pas de signal.
Ces processus ne sont même pas des maladies en tant que telles. Ce sont des
mécanismes profonds qui travaillent discrètement jusqu’à l’émergence
potentiellement irréversible de maladies chroniques métaboliques.
Ces huit processus expliquent qu’un concept auparavant dominant soit
finalement simpliste et faux : c’est le principe qui prétend qu’une calorie est une
calorie. Si c’était le cas, alors les sodas seraient préférables à l’huile d’olive
puisqu’ils sont en moyenne vingt-cinq fois moins caloriques. Or l’huile d’olive
en quantité raisonnable est protectrice et les sodas sont toujours mauvais. Ce
principe d’équivalence des calories a été contredit par les aliments ultra-
transformés qui ont des effets métaboliques allant au-delà de leurs calories. Il est
la deuxième erreur historique de la science nutritionnelle. En théorie, c’est-à-dire
en physique-chimie, il est vrai que toutes les calories se valent. Elles génèrent la
même quantité de chaleur. En pratique, c’est-à-dire en biologie, les calories ne
sont pas systématiquement équivalentes, ce qui veut dire qu’elles ne produisent
pas la même quantité d’énergie. Le potentiel des calories dépend de leur
véhicule, ce que Lustig résume par une formule géniale, à savoir que ce qui
importe n’est pas ce qu’il y a dans les aliments mais ce qu’on leur a fait. La
transformation des aliments change les règles de correspondance entre les
calories théoriques et le résultat énergétique factuel. Sur le marché des produits
ultra-transformés, les calories ne disent pas grand-chose de leurs capacités à
produire des maladies chroniques. Comme le dit Lustig, si « le métabolisme
cellulaire a tout à voir avec l’énergie, il n’a rien à voir avec les calories. Ce ne
sont pas les calories qui suscitent la croissance ou la mort cellulaire
programmée, ce sont ce que les produits chimiques qui atteignent la cellule, et en
particulier ses mitochondries, font aux trois enzymes » mentionnées plus haut
comme systèmes de protéines de contrôle.
Cette croyance sur l’équivalence biologique des calories a été une pièce du
puzzle incorrect de la science nutritionnelle pendant des dizaines d’années. Les
spécialistes ont pensé que le corps répondait au premier principe de la
thermodynamique, ou loi de conservation de l’énergie. Dans cette loi, l’énergie
ne peut être ni créée ni détruite. Le changement d’énergie interne, et donc le
changement de poids, est le résultat du thermique (l’alimentation) et du
mécanique (l’activité physique), des entrées et des dépenses. Cette formule
basique ne s’applique pas à notre métabolisme, qui n’est pas juste une équation
de calories incorporées et évacuées. La thermodynamique étendue au corps
humain a mis l’accent sur les quantités consommées et non sur les aliments eux-
mêmes. On a dit aux gens que le surpoids et l’obésité étaient juste des
conséquences d’entrées excessives par rapport à des sorties insuffisantes. On
leur a dit qu’ils mangeaient trop ou qu’ils n’en faisaient pas assez, et que c’était
à cause de ces faiblesses que leur poids augmentait, ce qui n’était pas vrai.
L’épidémie de maladies chroniques est une épidémie industrielle mais on a mis
la faute sur les individus. Cette grande erreur explique qu’on soit passé à côté
des effets métaboliques de la transformation. Elle a produit une image fausse et
trompeuse de ce qui marche ou ne marche pas dans notre alimentation. En
s’appuyant sur ce malentendu, les industriels ont continué à transformer notre
alimentation et ont participé à faire déraper notre métabolisme dans une
pandémie de maladies chroniques sans avoir l’air d’y toucher.

Les maladies métaboliques chroniques


Les indices se sont rapidement accumulés pour témoigner de la largeur
d’action des aliments ultra-transformés quand il s’agit de produire des maladies
chroniques. Les aliments ultra-transformés ont créé deux groupes d’épidémies :
des maladies métaboliques attendues et des maladies déjà connues mais dont
l’origine métabolique ne l’était pas. Dans les maladies métaboliques attendues,
on trouve le diabète de type 2, l’obésité, les maladies cardiovasculaires, la
stéatose et les maladies rénales chroniques. Toutes ces affections existaient mais
leur fréquence a augmenté plus vite que la démographie et les aliments ultra-
transformés y ont participé. Par ailleurs, leur forme a changé. Elles sont plus
précoces et plus sévères, en touchant par exemple les enfants dans des
proportions jamais vues. Lustig cite un collègue pédiatre de Stanford, Paul H.
Wise, pour qui « les pédiatres sont les derniers témoins d’une politique sociale
défaillante ». Les sociétés qui permettent aux enfants d’attraper des maladies
d’adultes sont encore plus pathogènes.
Pour beaucoup de ces maladies, aucun médicament n’est efficace et on n’est
même pas sûr que les laboratoires pharmaceutiques puissent en inventer. Ces
maladies métaboliques sont d’origine alimentaire et la solution est alimentaire.
En traduisant littéralement de l’anglais, on dirait qu’elles ne sont pas
médicamentables mais alimentables 10. Tout le monde peut être touché. Il existe
des prédispositions génétiques mais qui ne déterminent que 15 % du problème 11.
Pour développer une maladie métabolique chronique, il suffit de préférer la
transformation aux aliments frais. Des complications se manifesteront plus ou
moins tôt.
L’autre groupe de maladies associées aux aliments ultra-transformés est
encore plus diversifié. Il a fallu du temps pour faire la connexion entre
l’alimentation et ces pathologies car leur composante métabolique n’était pas
claire. Là encore, ce sont des maladies qui existaient déjà et qui sont non
spécifiques. Elles ne dépendent pas d’une seule cause, ce qui n’aide pas à
reconnaître intuitivement ni statistiquement un nouvel agent responsable. Il
s’agit de cancers, de pathologies auto-immunes comme la maladie de Crohn, du
syndrome de l’intestin irritable 12, de l’asthme 13. Il y a aussi la dépression 14, la
schizophrénie et beaucoup de formes de démences, car le cerveau est vulnérable
à la transformation des aliments.
Pour provoquer des cancers, certains aliments ultra-transformés passent par
le poids, d’autres non. L’obésité est elle-même un facteur de risque de cancer.
On estime qu’être obèse augmente la probabilité d’au moins treize cancers dont
celui de la prostate, le cancer colorectal, le cancer du foie ou du pancréas. Mais il
est aussi démontré que l’effet cancérigène de la transformation ne s’exerce pas
seulement par le biais d’une prise de poids. L’obésité est une étape possible mais
facultative du trajet pris par les aliments pour nous emmener chez le chirurgien
ou le cancérologue. Les aliments ultra-transformés sont aussi mauvais en soi, à
cause des très nombreux composés qu’ils contiennent. Il peut s’agir par exemple
du dioxyde de titane. Cette particule est incorporée pour marquer la couleur et la
texture des aliments, mais elle n’est plus considérée comme sûre car elle est à
risque de tumeurs.
Une équipe française a suggéré un lien quantitatif voire disproportionné
entre les aliments ultra-transformés et le risque de cancer 15. En examinant les
données de plus de 100 000 personnes sur près de dix ans, les chercheurs ont
trouvé qu’une augmentation de seulement 10 % de la part d’aliments ultra-
transformés provoquait une hausse de plus de 10 % du risque de cancer en
général, et de cancer du sein en particulier. L’intimité entre la transformation et
le cancer serait une relation dose-effet, ce qui est un classique, mais avec plus
d’effet que de dose.
Toutes ces maladies métaboliques — cardiovasculaires, diabète, cancer,
etc. — sont donc liées entre elles, causalement et factuellement. Elles relèvent de
mécanismes proches qui les conduisent à coexister fréquemment. Elles
produisent des images pathologiques pas toujours complètes mais suffisamment
similaires pour qu’elles soient reconnaissables. D’ailleurs, ces images
métaboliques évoluent souvent pour aller vers leur forme typique, c’est-à-dire
totale, celle où l’individu touché cumule les complications. Dès que les premiers
traits sont posés, le patient peut s’attendre si rien n’est fait, à observer la
formation progressive d’une image plus cohérente, celle du malade du
e
XXI siècle, dont tous les motifs sont à relier à un dérapage d’énergie causé par
une alimentation rendue pathogène par son traitement industriel.
En pratique, ces maladies métaboliques sont dispersées. Elles sont réparties
inégalement mais largement dans le paysage des pathologies. Presque toutes les
spécialités médicales sont affectées, et elles peuvent prendre la majorité des
étages d’un hôpital. Ce sont des maladies dont l’origine métabolique — et donc
souvent alimentaire — n’est pas assez reconnue, y compris par les scientifiques
et les médecins qui pourtant s’en occupent. Leur nom est connu du grand public
mais le fait qu’elles soient liées à un dérapage de nos opérations d’énergie
intérieure n’est pas passé dans la culture populaire. Le grand public imagine
souvent d’autres causes, pas fausses mais moins déterminantes. Le terme même
de maladie métabolique n’évoque pas une pathologie qu’on connaît. Lustig dit
qu’elles sont les maladies sans nom (diseases without a name).
À tous ces problèmes, il faut encore ajouter les conséquences mécaniques de
l’obésité, comme le mal de dos et les douleurs articulaires. Ces complications
n’ont pas d’effet sur la durée de vie moyenne mais elles en dégradent le contenu.
Elles appartiennent partiellement à ce que les économistes appellent à tort les
coûts intangibles, c’est-à-dire la douleur et le malheur. Ces complications
invisibles mais réelles de l’obésité sont aussi accentuées par la stigmatisation
sociale ou la discrimination auxquelles les personnes obèses sont plus exposées,
autant d’effets négatifs que les statistiques n’étudient pas.

La signification de l’obésité dans les maladies


métaboliques
C’est là que se trouve la troisième erreur de la science nutritionnelle : les
maladies métaboliques et l’obésité ne sont pas des affections strictement
synonymes. Leurs relations sont fortes mais pas totales 16. Cette révision de la
théorie de l’obésité trace trois populations au lieu d’une. Premièrement, il y a des
personnes obèses sans anomalie métabolique. Lustig estime qu’il s’agit
d’environ 20 % des cas. Ces individus, s’ils le savaient, pourraient s’attendre à
une durée de vie normale, c’est-à-dire proche de la moyenne générale. À ce
stade, leur masse corporelle mathématiquement excessive ne leur fait pas courir
de risque supplémentaire de maladie ou de mort. Leurs taux sanguins de sucre et
de graisses ne sont pas élevés 17. Leur pression artérielle est normale. Ils n’ont
pas de résistance à l’insuline. On peut discuter indéfiniment du détriment
esthétique et social réel, mais cette obésité-là ne prédit pas de complications
significatives ou susceptibles de provoquer une mort prématurée. Elle n’est ni un
signe de maladie, ni très pathogène en soi. C’est une obésité alors bénigne même
si elle ne doit pas être vue comme éternellement inoffensive car elle est souvent
transitoire et peut évoluer. Certains pays sont plus typiques de cette obésité non
métabolique, comme l’Islande et la Mongolie.
Inversement et c’est le deuxième cas, 40 % des personnes souffrant d’une
maladie métabolique ont un poids normal. Ces personnes développent un
diabète, une hypertension artérielle et des complications cardiovasculaires, c’est-
à-dire des conséquences de l’obésité sans l’avoir. L’inéquivalence dans ce sens
entre les anomalies métaboliques et l’obésité a fait faire beaucoup d’erreurs
médicales. Chez ces patients, les problèmes sont inattendus et il y a eu du retard
à la reconnaissance.
Les scientifiques ont mis du temps à comprendre que l’obésité n’était pas un
marqueur systématique de maladie métabolique. Il y a eu une sous-estimation
initiale de l’impact des aliments ultra-transformés, qui peuvent produire des
maladies sans faire grossir les gens. Les patients n’ont toujours pas bien
incorporé cette donnée. Ils ont associé dans leur esprit obésité et maladie
métabolique, une association partiellement fictive qui les a trompés. Leur poids
étant normal, il n’a pas pu exercer son rôle de signal, et ces gens n’ont pas vu
venir les difficultés qui se jouaient à l’intérieur sans se voir physiquement. Ils
sont donc étonnés qu’on leur diagnostique un diabète ou une stéatose, qu’ils
vivent comme une exception voire une injustice. Chez eux, les aliments ultra-
transformés ont pris un itinéraire discret pour faire émerger plus tard les
problèmes de santé. Les Anglo-Saxons ont un acronyme pour désigner cette
population, ce sont les TOFI pour thin on the outside, fat on the inside (minces à
l’extérieur, gros à l’intérieur). Plusieurs pays sont devenus des géographies à
TOFI, notamment l’Inde, le Pakistan et la Chine.

Une autre erreur est celle qui a imaginé que la séquence des événements était
toujours la même, à savoir que l’on prendrait du poids puis que l’on tomberait
malade. Il arrive que la maladie métabolique précède la prise de poids. Ici,
l’obésité est un symptôme d’une maladie métabolique chronique générale.
Obésités
La science nutritionnelle du XXIe siècle raconte donc une histoire nettement
moins monotone de l’obésité, une histoire où elle ne joue pas toujours le même
rôle. Dans le nouveau schéma, la localisation du gras est déterminante et le foie
semble être la pire implantation. Son atteinte prédit précisément le diabète et
d’autres complications. Quelques kilos de graisses seulement, ou même quelques
centaines de grammes mal placés ont des effets plus sévères que 20 ou 30 kg en
position inoffensive.
Lustig estime maintenant qu’il existe en fait trois types d’obésité en fonction
de trois types de localisation 18. Le premier cas est celui où les graisses sont
réparties sous la peau. C’est dans l’espace sous-cutané que l’on trouve de loin les
plus gros fragments de gras, souvent sur les jambes, les bras et le visage. Dans ce
type d’obésité, la quantité est inversement proportionnelle à la gravité. Ces
graisses-là sont les moins pathogènes. Elles sont soit neutres, soit faiblement
dangereuses et dans tous les cas, il en faut beaucoup — au moins 10 kg — pour
éventuellement observer un problème métabolique. Ce premier type d’obésité se
recoupe largement avec les 20 % d’obèses sans anomalie métabolique décrits
plus haut.
Dans le deuxième type d’obésité, la graisse infiltre les organes. Elle est à
l’intérieur de nous et non plus dans l’enveloppe corporelle. Elle pénètre
particulièrement le mésentère et l’épiploon, deux composants de notre abdomen,
et se loge aussi autour des reins et du cœur. Ces localisations ont beaucoup
d’effets métaboliques. Un excès de deux kilos seulement peut déclencher une
résistance à l’insuline, mécanisme déterminant pour l’émergence d’un diabète.
Dans ces deux premiers types d’obésité et malgré leurs différences pathogènes,
la graisse augmente dans des situations anatomiques qui en contenaient déjà
normalement mais en quantités minimes.
La troisième forme d’obésité est encore plus grave. Contrairement aux deux
autres, elle place des graisses dans des zones qui n’en ont pas naturellement, à
savoir le foie et les muscles. Ces localisations sont les plus dommageables pour
le métabolisme. Elles provoquent une résistance à l’insuline dès 250 grammes.
Elles augmentent le risque de diabète, de complications cardiovasculaires, de
cirrhose et de cancer du foie. Ce sont typiquement les TOFI qui forment cet
effectif.
L’intelligence exceptionnelle de Paracelse lui avait permis de deviner qu’en
général, c’est la dose qui fait le poison 19. Depuis cette découverte géniale, la
science toxicologique a presque systématiquement validé ce principe, les
perturbateurs endocriniens étant une exception 20. Les trouvailles récentes
prouvent qu’en matière de graisses corporelles, c’est plutôt la localisation qui
fait le poison. En donnant un pouvoir pathogène à des graisses placées dans des
organes invisibles, les aliments transformés ont inventé l’astuce imparable pour
développer des complications en secret.
Ces révisions scientifiques de l’obésité témoignent de notre méconnaissance
de ce qu’est le gras, à savoir un continent hétérogène et incomplètement exploré.
Comme le dit Aaron Cypess, médecin et chercheur au National Institutes of
Health 21, le gras est un organe mais « n’est pas une seule entité ; il est une
collection de dépôts de tissus adipeux différents mais liés sur le plan anatomique
et fonctionnel 22 ». Notre compréhension lacunaire est à la fois valable pour notre
gras corporel et pour les graisses alimentaires. Toutes ne se valent pas et toutes
ne sont pas mauvaises. Beaucoup sont neutres ou bonnes et certaines seulement
— principalement les trans-fat — sont toxiques et doivent être évitées.

La pandémie métabolique
La mondialisation de la transformation a mondialisé ses complications. La
fréquence de l’obésité augmente linéairement et sans s’arrêter depuis les
années 1970, période à laquelle les industriels ont commencé à transformer
massivement les aliments. Plus largement, le risque métabolique augmente dans
le monde, comme évoqué au premier chapitre de ce livre. En une génération, la
proportion de l’obésité a doublé, passant de 4 % à 8 % entre 1975 et 2000, et elle
est en train de doubler encore dans la génération suivante. Chez les enfants, la
croissance de l’obésité est deux fois plus rapide que chez les adultes, ce qui veut
dire qu’elle a été multipliée par huit en deux générations. Environ 15 % des
humains sont obèses et 40 % sont en surpoids. Les femmes sont un peu plus
touchées que les hommes, pour des raisons à la fois biologiques et sociales. Tous
les pays ont un problème de dérapage de l’énergie corporelle puisqu’il n’y en a
aucun dans lequel l’obésité soit en baisse. Sa fréquence stagne éventuellement
ou surtout elle augmente. La hausse du poids ne touche pas que les humains. Les
animaux enflent aussi. On a observé une augmentation de la masse moyenne des
chats, des chiens, des primates ou des rongeurs, indépendamment de leurs
conditions de vie 23.
Les autres indicateurs du risque métabolique sont eux aussi en hausse : le
taux de sucre dans le sang, c’est-à-dire en pratique le diabète, et l’insuffisance
rénale. Ces épidémies sont parentes. Jusqu’à récemment, la mortalité
cardiovasculaire continuait de diminuer grâce aux efforts des systèmes de soins
— les gens développaient plus de maladies mais en mouraient moins.
Aujourd’hui, cette baisse de mortalité cardiovasculaire n’est plus valable dans
beaucoup de pays. Les systèmes de soins semblent désormais trop débordés pour
contrer les effets des maladies métaboliques.
Certains pays s’en sortent moins bien que d’autres, selon leur passé et leurs
alimentations. Si l’on prend une photo, la carte mondiale de l’obésité est
approximativement celle de la prospérité. La fréquence de l’obésité est nettement
plus élevée en Europe, en Amérique du Nord et en Océanie. C’est encore plus
vrai aux États-Unis, au Canada, en Australie, en Turquie, des pays où plus d’un
tiers de la population est obèse 24. La fréquence est bien plus faible en Asie du
Sud et en Afrique subsaharienne. La part de population obèse peut varier de 1
à 10 entre les pays, c’est par exemple le cas entre l’Inde et les États-Unis. Il y a
des exceptions à ces tendances lourdes. Les petites îles du Pacifique sont pauvres
mais leurs populations comptent parfois 40 % à 50 % d’obèses. Inversement, le
Japon et la Corée du Sud sont des pays riches où les taux d’obésité sont
inférieurs à 5 %. La carte du surpoids est proche de celle de l’obésité.
Un examen dynamique, qui ne regarde pas la fréquence mais la croissance,
révèle une carte différente, qui témoigne des caractères alimentaires des pays et
moins de leur histoire économique. Les cas les plus inquiétants se trouvent au
Mexique, au Nicaragua, au Ghana, en Indonésie, en Chine, en Inde et au
Vietnam. Ces pays déplorent une progression de l’obésité de 3 % à 5 % par an.
Par comparaison, l’obésité augmente de 0,5 % par an en France.
La croissance internationale des maladies métaboliques a créé un
phénomène que les épidémiologistes ont appelé « le double fardeau de la
malnutrition », qu’ils définissent comme la manifestation simultanée de
dénutrition et d’obésité 25. Ce double fardeau a augmenté dans les pays les plus
pauvres, principalement à cause de l’obésité qu’ils ont découverte alors qu’ils ne
la connaissaient pas. Ce sont ces mêmes pays très pauvres qui ont le plus de mal
à lutter contre la dénutrition. L’Indonésie est le plus grand pays ayant un double
fardeau sévère, même si d’autres nations d’Asie du Sud-Est ou d’Afrique
subsaharienne sont affectées.

Les effets sur la longévité


Les personnes obèses courent un risque disproportionné d’avoir une vie plus
dure et réduite. L’obésité est un des principaux risques mondiaux de décès
prématuré. Elle retire en moyenne cinq années de vie. Elle est impliquée dans la
mort de presque 5 millions de personnes chaque année, soit environ 8 % du total
des décès. Le taux de mortalité en cas d’obésité importante est comparable à
celui des fumeurs non obèses 26. L’obésité a été incriminée dans la diminution de
l’espérance de vie observée aux États-Unis. La longévité américaine a atteint un
maximum en 2014, puis a baissé trois années de suite avant de stagner puis de
rebaisser lors de la pandémie de Covid-19. Les travaux d’Anne Case et d’Angus
Deaton ont souligné le rôle des morts du désespoir, c’est-à-dire des overdoses
aux opioïdes, de l’alcool et des suicides, mais il ne s’agirait que d’une partie de
l’explication. Selon Steven Woolf, professeur en épidémiologie à l’université de
Virginie, l’obésité est une cause partielle de l’augmentation de mortalité de
milieu de vie aux États-Unis, en rapport avec des pathologies cardiaques et
rénales 27. Samuel Preston est d’accord. Pour le démographe, la hausse de
mortalité affectant les Américains persiste après soustraction des effets des morts
du désespoir. En examinant plus de vingt ans de données américaines, Preston a
estimé que l’obésité avait ralenti la diminution de la mortalité 28, avant de
participer à l’augmenter.
Les données du diabète ne sont pas meilleures. Le monde compte
probablement plus de 500 millions de diabétiques, soit environ un humain sur
onze. La croissance du diabète a atteint 6,6 % par an entre 2000 et 2010, un taux
supérieur à la croissance économique. En 2014, le diabète progressait même de
10 %. Au total, la fréquence de la maladie a doublé en vingt-cinq ans chez les
hommes et a augmenté de 60 % chez les femmes 29. Les données américaines et
australiennes suggèrent que le diabète retire 6 ans d’espérance de vie quand il est
diagnostiqué à 40 ans, et 4 ans d’espérance de vie quand il apparaît à 60 ans. En
Chine, les hommes à qui l’on a trouvé un diabète à l’âge de 50 ans ont perdu en
moyenne 9 années de vie. Le diabète multiplie par deux ou trois la probabilité de
développer ou de mourir d’une maladie cardiovasculaire, d’une maladie rénale
ou d’un cancer. Pendant la phase initiale de la pandémie de Covid-19, les
personnes diabétiques avaient au moins deux fois plus de risque d’être touchées
par des formes sévères de l’infection.
La taille réelle de l’impact total est difficile à quantifier parce que les
maladies métaboliques s’infiltrent à peu près partout. Elles sont presque un
méta-risque, un risque des risques, c’est-à-dire un risque qui influence à la
hausse les probabilités d’autres maladies. Par ailleurs, ces maladies ne sont pas
souvent indépendantes les unes des autres, les statisticiens parlent de multi-
colinéarité. Il est pratiquement impossible de différencier leurs effets séparés,
notamment entre obésité et diabète, qui coexistent trop souvent et produisent le
même type de complications. Pour les qualifier, l’ancienne directrice de
l’Organisation mondiale de la santé avait parlé de « catastrophe au ralenti 30 ».

Le coût double de la transformation


On manque de données sur l’impact économique net des aliments ultra-
transformés mais quand on en trouve, on manque de superlatifs pour décrire cet
impact. Nous payons deux fois la transformation. La première fois n’est pas
chère et se passe au supermarché. La deuxième est beaucoup plus chère à travers
les dépenses de santé, qui proviennent souvent de la solidarité nationale. En
2012, l’American Diabetes Association et le Centers for Disease Control and
Prevention, l’équivalent américain de la Direction générale de la santé, ont
estimé qu’aux États-Unis, le diabète et l’obésité généraient un milliard de dollars
de dépenses médicales par jour 31. Ce montant a probablement été dépassé
depuis. Pour le diabète seul, les dépenses ont augmenté de 26 % entre 2012
et 2017, atteignant 327 milliards de dollars dont les trois quarts en dépenses
médicales directes, le reste en productivité perdue. L’augmentation des dépenses
totales est à la fois due à la croissance du diabète et à la hausse des coûts de prise
en charge. Cette croissance épidémiologique et des dépenses est surtout le fait
des Américains âgés.
Au Royaume-Uni, le diabète coûte chaque année plus de 10 milliards de
livres au National Health Service, l’équivalent de notre Assurance maladie. C’est
environ 10 % de son budget mais 80 % de ces dépenses sont liées aux
complications de la maladie. En France, il y avait environ 3 millions de
diabétiques en 2012, pour lesquels 19 milliards d’euros avaient été dépensés en
soins, dont plus de la moitié à cause de leur diabète, soit 10 milliards d’euros 32.
Trois quarts de ces 10 milliards étaient considérés comme des dépenses
indirectes, c’est-à-dire induites par les complications et les traitements
additionnels. Il semble que ce soient surtout les formes sévères des maladies qui
emportent la plus grande partie des dépenses, mais on sait aussi que même les
formes mineures de diabète ou le surpoids sont associés à une hausse des frais
médicaux. Toutes ces estimations sont probablement des sous-estimations, mais
elles suffisent à voir que ces montants sont systématiquement supérieurs à ce que
gagnent les industries qui en sont responsables.
Lustig va même plus loin avec un raisonnement schématique mais parlant.
Environ 75 % des dépenses de santé américaines sont liées aux maladies
chroniques, soit 2 670 milliards sur un total de 3 500 milliards de dollars. En
imaginant revenir aux taux épidémiologiques des années 1970, Lustig calcule
que 75 % des 2 670 milliards pourraient être économisés, soit 1 900 milliards. Le
chiffre d’affaires total de l’industrie alimentaire cumule 1 460 milliards, laissant
un bénéfice de 657 milliards. Ainsi, les dépenses de santé causées par les
maladies métaboliques sont presque trois fois supérieures aux bénéfices du
secteur économique d’origine.

La production de maladies métaboliques par l’industrie alimentaire valide le


schéma typique des économies pathogènes. Ces économies vivent pour elles-
mêmes. Leur seul but est la croissance. Souvent, elles trouvent une fonction
sociale, ce qui fait qu’il existe une demande qui correspond parfois à un besoin :
d’énergie pour l’industrie fossile, de se nourrir pour l’industrie alimentaire. La
science met du temps à suspecter puis à prouver les risques de maladies. La
régulation prend un délai supplémentaire pour réagir, quand elle le fait. Dans
l’intervalle, les risques sont largement disséminés et les maladies se développent.
L’industrie pathogène est devenue à ce stade un secteur économique à part
entière, avec sa capacité à se défendre pour continuer à exister sans changer,
c’est-à-dire sans sécuriser ses produits ou sans se convertir. Après une longue
période de déni, les industries pathogènes finissent par reconnaître plus ou moins
complètement les dommages qu’elles provoquent. Elles avancent alors d’autres
arguments que l’innocence, comme le fait qu’elles génèrent des emplois.
Pourtant, l’analyse des différents exemples conclut qu’elles détruisent plus de
valeur qu’elles n’en créent. Elles font de l’argent aux dépens des autres membres
de la société. Si les aliments ultra-transformés ne sont pas chers, c’est parce
qu’ils n’incorporent pas les dépenses qu’ils font supporter à la société.

1. À l’exception des premières sociétés de chasseurs-cueilleurs qui consommaient plus d’aliments animaux
et végétaux, avec plus de sucres provenant de fruits mûrs, de miel et probablement de féculents qu’elles
faisaient cuire. Voir par exemple Karen Hardy et al., « The importance of dietary carbohydrate in human
evolution », The Quarterly Review of Biology, 2015, ou encore Frank W. Marlowe et al., « Honey, Hadza,
hunter-gatherers, and human evolution », Journal of Human Evolution, 2014.
2. Roderick Floud et al., The Changing Body. Health, Nutrition, and Human Development in the Western
World since 1700, Cambridge University Press, 2011. Traduction de l’auteur.
3. L’industrie des produits sucrés existait tout de même depuis les années 1840, avec les glaces, les
chocolats et les bonbons, et l’industrie des sodas a émergé dans les années 1880. Voir Gary Taubes, « What
if sugar is worse than just empty calories? », British Medical Journal (BMJ), 2018.
4. Bernard Srour, Mathilde Touvier, « Ultra-processed foods and human health: what do we already know
and what will further research tell us? », eClinicalMedicine, 2021.
5. Robert H. Lustig, Metabolical. The Truth about Processed Food and How it Poisons People and the
Planet, Yellow Kite, 2021.
6. David S. Ludwig, « Examining the health effects of fructose », JAMA, 2013.
7. Robert H. Lustig et al., « Public Health: The toxic truth about sugar », Nature, 2012.
8. En 2016, 271 kilos d’aliments ultra-transformés étaient vendus par habitant en Amérique du Nord, à
comparer aux « seulement » 52 kilos par personne en Afrique. Voir Stefanie Vandevijvere et al., « Global
trends in ultraprocessed food and drink product sales and their association with adult body mass index
trajectories », Obesity Reviews, 2019.
9. Giovanna Calixto Andrade et al., « Consumption of ultra-processed food and its association with
sociodemographic characteristics and diet quality in a representative sample of French adults », Nutrients,
2021.
10. Druggable et foodable.
11. Robert H. Lustig, Metabolical, op. cit.
12. Laure Schnabel et al., « Association between ultra-processed food consumption and functional
gastrointestinal disorders: Results from the French NutriNet-Santé cohort », American Journal of
Gastroenterology, 2018.
13. Roland M. Andrianasolo et al., « Association between processed meat intake and asthma symptoms in
the French NutriNet-Santé cohort », European Journal of Nutrition, 2020.
14. Moufidath Adjibade et al., « Prospective association between ultra-processed food consumption and
incident depressive symptoms in the French NutriNet-Santé cohort », BMC Medicine, 2019.
15. Thibault Fiolet et al., « Consumption of ultra-processed foods and cancer risk: results from NutriNet-
Santé prospective cohort », BMJ, 2018.
16. D’ailleurs, la croissance du diabète au cours des dernières décennies est similaire chez les obèses et les
non-obèses.
17. Matthias Blüher, « Metabolically Healthy Obesity », Endocrine Reviews, 2020.
18. Robert H. Lustig et al., « Obesity I: Overview and molecular and biochemical mechanisms »,
Biochemical Pharmacology, 2022.
19. La citation exacte serait : « Tout est poison et rien n’est sans poison ; la dose seule fait que quelque
chose n’est pas un poison. »
20. Stéphane Foucart, « La seconde mort de l’alchimiste Paracelse », Le Monde, 11 avril 2013.
21. L’équivalent américain de l’INSERM (Institut national de la santé et de la recherche médicale).
22. Aaron M. Cypess, « Reassessing human adipose tissue », NEJM, 2022.
23. Yann C. Klimentidis et al., « Canaries in the coal mine: a cross-species analysis of the plurality of
obesity epidemics », Proceedings of the Royal Society B: Biological Sciences, 2011.
24. C’est presque 40 % aux États-Unis.
25. Barry M. Popkin et al., « Dynamics of the double burden of malnutrition and the changing nutrition
reality », The Lancet, 2020.
26. Les personnes tabagiques ont un indice de masse corporelle en moyenne inférieur aux non-fumeurs, à
la fois parce qu’elles mangent moins et parce que leur métabolisme est activé par la cigarette.
27. Steven H. Woolf, Heidi Schoomaker, « Life expectancy and mortality rates in the United States, 1959-
2017 », JAMA, 2019.
28. Samuel H. Preston et al., « The role of obesity in exceptionally slow US mortality improvement »,
PNAS, 2018.
29. Juliana C.N. Chan et al., « The Lancet Commission on diabetes: using data to transform diabetes care
and patient lives », The Lancet, 2021.
30. Margaret Chan, « Obesity and diabetes: the slow-motion disaster », Milbank Quarterly, 2017.
31. American Diabetes Association, « Economic costs of diabetes in the U.S. in 2012 », Diabetes Care,
2013. Et Eric A. Finkelstein et al., « Annual medical spending attributable to obesity: payer-and service-
specific estimates », Health Affairs, 2009.
32. Grégoire de Lagasnerie et al., « The economic burden of diabetes to French national health insurance: a
new cost-of-illness method based on a combined medicalized and incremental approach », The European
Journal of Health Economics, 2018.
5
L’offre indirecte de risques :
la pollution

Dans le deuxième schéma de l’économie pathogène, les risques ne sont pas


vendus directement et l’offre est donc indirecte. Les entreprises pathogènes du
deuxième type émettent des produits toxiques mais elles ne les commercialisent
pas. Elles s’en déchargent et les disséminent, sans intention de causer des
dommages bien qu’elles en soient plus ou moins conscientes. Les risques émis
ne sont pas leurs produits principaux, ce sont des déchets ou des sous-produits de
leurs activités, qui sont tous par définition une forme ou une autre de pollution.
La pollution est tout ce que l’on transfère à l’environnement et qui endommage
les écosystèmes ou la santé humaine. En schématisant, les principales pollutions
sont la pollution de l’eau, de l’air, des sols et la pollution chimique.
Pourquoi les entreprises polluent-elles ? Parce que c’est moins cher que
d’être non polluantes. Dans l’économie indirectement pathogène, la défaillance
de marché est déterminante et le risque est le prix de la rentabilité. Si ces
entreprises voulaient moins polluer ou ne plus polluer du tout, ce qui est
illusoire, elles devraient produire différemment, ce qui coûterait plus cher, ou
produire moins, ce qui ferait baisser leurs revenus.
La logique historique de la pollution est celle de la croissance économique, à
savoir la production mais aussi la consommation. François Jarrige et Thomas
Le Roux sont historiens 1. Ils ont examiné la biographie du phénomène qui existe
depuis au moins cinq siècles 2. Puisque la pollution est un résultat de nos
activités, elle s’est intensifiée pendant les périodes de croissance. Dès la fin du
e
XVIII siècle et la première révolution industrielle, la pollution augmente en

Europe, précédant de quelques décennies la croissance du PIB de 1820,


synonyme irréversible de hausse de la production. À cette époque, la pollution
exerce déjà un impact négatif sur la santé, mais les dommages restent
relativement locaux. Il y a bien eu une régression de la santé humaine au décours
de la première révolution industrielle. On observe dans certains pays une
augmentation de mortalité, ou une baisse de la taille humaine moyenne. Cette
détérioration dure quelques décennies, puis elle s’inverse car la croissance
économique finance la santé publique, comme l’assainissement, l’eau potable et
une meilleure alimentation. La santé s’améliore de nouveau et l’espérance de vie
reprend sa trajectoire ascendante. Dès le milieu du XIXe siècle, la plupart des pays
d’Europe voient leur longévité augmenter en dépit de la pollution.
Au XXe siècle, la pollution se déchaîne sans complexes. Les deux guerres
mondiales lui permettent de marquer des points. Il y a encore moins d’inhibition.
Les États en conflit se lâchent contre leurs ennemis mais aussi contre
l’environnement. Jarrige et Le Roux montrent à quel point les guerres mondiales
autorisent toutes les catastrophes puisque la seule priorité est de gagner. Ensuite,
la guerre froide prolonge la tendance. Une tension persiste et l’environnement
n’est toujours pas une urgence. Enfin, la croissance économique inédite de la fin
du siècle fait encore changer la pollution d’échelle.

Les cinq traits historiques de la pollution


L’analyse de Jarrige et Le Roux permet d’identifier des faits récurrents, qui
sont comme des traits historiques de la pollution et qui expliquent son expansion
interminable. Premièrement, le plus flagrant est la négligence générale. Dans
l’ensemble, la pollution ne trouve jamais l’attention qu’elle mérite. Elle passe
loin derrière la croissance. Pour Philip Landrigan, pédiatre de Boston et
défenseur charismatique de l’environnement, la pollution est la cousine du
changement climatique. Les origines sont les mêmes, à savoir les fossiles ; mais
c’est une cousine négligée, celle dont on ne s’occupe pas dans la famille. Il n’y a
pas de grand donateur ou pas d’agenda international pour atténuer la pollution,
alors qu’elle fait plus de mal que beaucoup de causes pourtant bien financées.
Les raisons de la négligence sont nombreuses : il s’agit souvent d’un calcul
erroné mais sincère où d’un côté, les dommages épidémiologiques et
économiques sont sous-estimés et où de l’autre, la pollution est vue comme une
fatalité. Cette vision est accentuée par le lobbying efficace des entreprises
polluantes pour qui la pollution serait un mal nécessaire de la croissance. Ces
données sont fausses mais beaucoup de gens y croient, y compris parmi les
« élites ».
Le deuxième fait récurrent se voit à l’échelle locale : la pollution émerge de
nouvelles activités économiques dont les régions ont besoin. Les personnes
exposées s’en rendent compte. Elles essayent d’interpeller les leaders politiques
mais entre la défense de l’environnement et l’économie locale, c’est l’économie
qui l’emporte et la pollution persiste. Une autre possibilité correspond au
troisième trait qui égoïstement est un peu meilleur. C’est celui où la pollution se
déplace. Quand la pression est trop forte, surtout dans les démocraties, l’activité
polluante se délocalise, souvent à l’étranger. Elle affecte alors des populations
désarmées qui ne peuvent pas lutter contre la croissance économique.
Le quatrième trait est celui du solutionnisme technologique, une idéologie
qui prétend que les progrès technologiques résoudront tous les grands problèmes
du monde. Plutôt que de changer de modèle, il faudrait trouver une technologie
qui antidote son impact. Le paradoxe est que la technologie est une partie de la
solution contre la pollution mais qu’elle a répétitivement échoué à l’atténuer
factuellement. Une première raison de cet échec est que les technologies sont
elles-mêmes polluantes parce qu’elles sont matérielles et qu’elles consomment
de l’énergie. Elles extraient des ressources et produisent des émissions. Elles ont
donc une part d’impact négatif. La deuxième raison nous conduit au cinquième
trait, une constante de l’histoire de la pollution, à savoir l’effet rebond. Le
phénomène avait été identifié au XIXe siècle par William Stanley Jevons (1835-
1882) qui était un économiste anglais. Jevons avait observé que les travaux de
James Watt sur la machine à vapeur avaient conduit à en améliorer l’efficience,
mais que la quantité totale de charbon consommé avait augmenté. La machine à
vapeur s’était généralisée. Jevons a formulé que lorsque la technologie améliore
le rendement d’une activité, les gains potentiels sont annulés ou inversés par la
hausse d’activité. Jarrige et Le Roux donnent un autre exemple avec
l’automobile. Pour diminuer son impact, les industriels ont développé des
technologies qui réduisent les besoins des moteurs et filtrent leurs émissions.
« Mais les gains sont compensés par l’accroissement des distances parcourues,
l’augmentation du nombre de véhicules et la puissance des moteurs 3. » L’effet
rebond est un phénomène systématique qui explique qu’il n’y a jamais eu de
transition énergétique 4. On a accumulé les sources d’énergie au lieu de
remplacer les énergies polluantes par les énergies moins polluantes. L’effet
rebond explique aussi que la production matérielle a toujours augmenté 5. La
croissance énergétique et la croissance matérielle expliquent la croissance de la
pollution.
Un sixième et dernier point émerge de l’analyse de Jarrige et Le Roux, qui
n’est pas un fait des circonstances mais un fait physique. La pollution n’est pas
seulement liée à la production. Elle dépend aussi de la consommation. Nous
avons tendance à considérer que seule l’offre est un problème alors que la
demande joue également un rôle. Ce n’est pas une demande de produit toxique
mais une demande de produits tout court, et si possible pas chers, pour pouvoir
en acheter plus.

La croissance économique rend-elle la pollution


inévitable ?
La pollution traditionnelle est celle de l’eau et de l’air intérieur. Elle est
solidaire de la pauvreté et en particulier la pauvreté profonde. Elle suit une
relation linéaire inverse avec le développement, c’est-à-dire que leurs courbes
sont droites mais se croisent. Quand les pays améliorent leur niveau d’éducation,
leur système de santé et leurs infrastructures, la pollution traditionnelle décline
même si ce déclin n’est pas rapide. Depuis que les données sont fiables, on sait
que la pollution traditionnelle décline lentement grâce au développement
économique. Inversement, la pollution moderne qui est tout le reste, est liée à la
croissance industrielle. Elle augmente dans beaucoup de pays et à l’échelle
mondiale. Les courbes de mortalité des pollutions traditionnelle et moderne se
sont croisées quelque part vers 2005, et elles continuent de s’éloigner l’une de
l’autre (voir figure 6).
Si la pollution moderne augmente dans l’ensemble, sa relation avec la
croissance n’est pas linéaire. Elle définit une courbe en cloche en fonction des
revenus des pays (figure 7).
Pour les pays les plus pauvres et qui partent donc de très bas, l’augmentation
de revenus est synonyme de hausse de la pollution moderne et de ses dommages.
Ces pays s’alignent sur le modèle historique décrit par Jarrige et Le Roux, celui
des croissances parallèles. Les choses se passent comme si la croissance des
économies ne pouvait pas éviter de polluer dans sa phase initiale. La pollution
moderne augmente avec le revenu des habitants jusqu’à un certain point, un
point que l’Inde ou surtout la Chine ont peut-être atteint. Ce sont les deux plus
gros pollueurs du monde et leurs populations sont parmi les plus touchées. Au-
delà de ce point, une autre logique domine. Un effet inverse s’exerce et la
croissance économique se dissocie de la pollution moderne. Ce phénomène est
lié au moins en partie à la démocratie. Quand les élections sont libres et justes,
les gens peuvent faire pression sur leurs leaders politiques pour les pousser à agir
contre la pollution, en la réprimant ou en l’éloignant par la régulation et la
taxation. C’est la raison principale pour laquelle la pollution moderne et ses
effets sont en baisse dans les pays les plus riches, à l’exception des non-
démocraties comme les autocraties du Golfe. Cet effet politique sur la pollution
est un autre exemple — on a cité le tabac — qui prouve le pouvoir potentiel des
gouvernements à protéger la santé de leurs populations, un pouvoir qu’ils
n’exercent pas assez. Une autre explication de la baisse de pollution dans les
pays riches tient à sa délocalisation. Quand les industries déménagent dans les
pays pauvres, elles entraînent la pollution avec elles. Les humains des pays
pauvres sont exposés à une partie de notre ancienne pollution, la pollution
chimique par exemple.
Cette relation en cloche entre les revenus et la pollution moderne est une
réalité historique. Elle fait penser aux travaux de Simon Kuznets (1901-1985),
un économiste né en Ukraine mais qui a fait sa carrière aux États-Unis. Kuznets
a observé qu’au début de la croissance — quand les sociétés agricoles et rurales
deviennent industrielles et urbaines —, il existe une hausse des inégalités. Puis
on identifie un point de renversement, et les inégalités régressent alors que les
revenus continuent d’augmenter. C’est une courbe en cloche qu’on appelle
parfois courbe de Kuznets.
Ce modèle a ensuite été étendu, mais pas par Kuznets lui-même, à
l’économie environnementale. L’hypothèse associée est que la pollution et donc
la dégradation de l’environnement devraient augmenter aux premiers moments
de la croissance économique. Les pays très pauvres ne pourraient pas faire
autrement. Il y aurait ensuite ici aussi un point de renversement au-delà duquel la
pollution baisserait même si l’économie poursuivait sa croissance. La courbe en
cloche décrite plus haut semble valider cette hypothèse. En réalité, elle nous dit
comment les choses se sont passées et non pas comment elles doivent forcément
se faire. Plusieurs travaux théoriques ou factuels ont fragilisé l’hypothèse de
Kuznets appliquée à l’environnement. Une commission spéciale du journal
scientifique The Lancet, emmenée par Philip Landrigan, a estimé que
l’hypothèse environnementale de Kuznets était défectueuse 6. Elle a été formulée
il y a trop longtemps, quand les villes étaient moins grandes et moins denses,
quand la pollution et ses effets étaient moins importants, et que les énergies
propres n’étaient pas disponibles. Elle ne tient pas compte de la délocalisation de
la pollution des pays riches vers les pays pauvres, ni des effets des nouveaux
polluants sur la santé, notamment les polluants chimiques. Pour la commission,
il ne faut surtout pas attendre l’arrivée d’un moment magique après lequel la
croissance économique ferait baisser la pollution.

Les effets pathogènes de la pollution industrielle


La pollution exerce ses effets selon plusieurs mécanismes, qui sont à la fois
directs et indirects. Elle a des effets directs, notamment sur le cœur et les
vaisseaux. La relation entre l’exposition aux particules et les maladies
cardiovasculaires trace une courbe logarithmique, légèrement différente pour les
vaisseaux du cœur ou du cerveau mais de même forme (figure 8).
Cette allure logarithmique signifie que la pollution concrétise un maximum
de pertes au début de l’exposition. Puis elle atténue son impact supplémentaire
sans jamais l’arrêter complètement. La toxicité de la pollution augmente quand
l’exposition augmente, mais avec un rendement décroissant. Il y a toujours un
peu plus de risque à être encore plus exposé aux polluants de l’air même si ce
risque augmente moins vite à partir d’une certaine dose. La pollution exerce
d’autres effets directs, par exemple sur la formation des tumeurs.
Mais elle sait aussi passer par des intermédiaires pour provoquer ses
dommages. La pollution influence d’autres risques. Elle augmente la probabilité
de diabète et d’hypertension artérielle, qui eux-mêmes génèrent des
complications cardiovasculaires. Ces mécanismes indirects rendent la pollution
encore moins visible, et donc moins coupable dans la perception des maladies et
de la mortalité.
L’impact épidémiologique de la pollution est monumental. Elle est le
premier risque mondial après l’hypertension artérielle, devant le tabac, devant
l’obésité, devant l’alcool, loin devant le SIDA ou le paludisme. Dans sa dernière
quantification, la commission du Lancet concluait que le nombre de décès ne
diminuait pas 7. La pollution tue approximativement 9 millions de personnes par
an, soit un mort sur six dans le monde. Les réductions de mortalité par baisse de
pollution traditionnelle ont été annulées par la croissance des décès causés par la
pollution de l’air et la pollution chimique. Même si elles sont dramatiques, toutes
ces estimations sont des sous-estimations. Elles ne tiennent compte que des liens
les mieux prouvés scientifiquement et laissent de côté les autres par rigueur. Par
exemple, elles incorporent incomplètement les effets de la pollution chimique,
parce qu’ils sont incomplètement calculés.

Les pertes économiques dues à la pollution


Toutes les études sérieuses sont formelles : à part pour les pollueurs, la
pollution est une mauvaise affaire. Ses effets économiques sont massivement
négatifs. Les sociétés humaines ne perdent pas seulement des années de vie, elles
y laissent aussi pas mal d’argent. D’abord, il y a les dépenses de santé
provoquées par les maladies causées ou aggravées. Ce sont des coûts directs.
Ensuite, il y a les coûts indirects liés à l’altération de l’activité économique. Les
individus malades sont moins capables de travailler et quand ils travaillent, ils le
font moins intensément donc leur performance diminue. Dans le langage des
économistes, on dit qu’ils sont moins productifs. Ces problèmes sont pires
encore dans les pays les moins riches car ils sont plus pollués et les humains
affectés sont des jeunes, souvent des enfants. Les petits humains surchargés de
polluants ont du mal à se concentrer. Leur cognition est affaiblie et leur
comportement est altéré. Ces effets diminuent leurs chances de profiter de leur
éducation et les mènent à l’échec scolaire.
Bien que les pertes économiques soient énormes et en hausse, elles sont
méconnues ou sous-estimées dans le meilleur des cas. La pollution est diffuse.
Ses effets sont non spécifiques et retardés, ce qui n’aide pas à se rendre compte
du problème ni à le prouver. Pour ce qui est des dépenses de santé par exemple,
il n’est pas habituel d’isoler la part des maladies cardiovasculaires qui vient de la
pollution. Les chercheurs publient des estimations, mais les gouvernements ne
font pas la différence dans leurs budgets, ce qui les rend insensibles aux
dommages économiques de la pollution. Cet impact reste invisible alors qu’il est
réel. Les effets indirects ne sont pas plus flagrants. La perte de productivité au
travail n’est presque jamais attribuée à la pollution.
La commission menée par Landrigan a étudié les données disponibles. Dans
les pays aux revenus les plus élevés, environ 3,5 % des dépenses de santé
seraient liées à la pollution. En appliquant ce chiffre à la France, on conclut
qu’en temps normal, plus de 7 milliards d’euros seraient perdus à cause d’elle.
Pour un pays pauvre comme le Sri Lanka, ce seraient 7,4 % des dépenses de
santé. De l’autre côté, la perte de productivité pourrait soustraire jusqu’à 2 % de
PIB par an aux nations les moins riches. Pour les pays à hauts revenus, la
commission a quantifié à 53 milliards de dollars les pertes annuelles.
L’observation historique montre logiquement que la lutte contre la pollution
est rentable. Le plomb dans l’essence américaine est un exemple classique.
Jusque dans les années 1970, les industriels en mettaient pour améliorer la
performance des moteurs, et l’environnement était contaminé au plomb. Une loi
votée en 1975 l’a interdit. En moins de dix ans, les taux moyens de plomb dans
le sang des Américains ont été divisés par dix. L’intoxication au plomb, qu’on
appelle le saturnisme, a pratiquement été éliminée. Les capacités cognitives des
enfants ont progressé, avec un gain moyen de quotient intellectuel (QI) de 2
à 5 points pour les petits nés après 1980. En s’appuyant sur les travaux qui font
une correspondance entre les points de QI et l’économie, des chercheurs ont
estimé que cette loi avait rapporté 200 milliards de dollars par an. On pense par
ailleurs que pour chaque dollar investi dans la dépollution de l’air aux États-
Unis, 30 dollars ont été rendus à la société par le gain d’activité économique. Il
n’y a pas un investisseur au monde qui refuserait de mettre de l’argent dans un
business ayant une probabilité de 100 % de rendre 30 fois la mise. Pourtant, la
pollution augmente et nous affaiblit économiquement en plus de produire des
maladies. La perspective serait moins négative s’il n’y avait pas un problème
dans le problème, à savoir la pollution chimique.

La pollution chimique
Elle appartient à la pollution moderne tout en étant un fléau au soi et parmi
les sous-fléaux qu’elle contient, il y a les perturbateurs endocriniens. Leur
définition est controversée mais on admet souvent que les perturbateurs
endocriniens sont des produits chimiques qui interfèrent avec notre système
hormonal interne 8. Ils peuvent mimer nos hormones ou les bloquer, ou encore
altérer leur action. Le concept n’est pas nouveau. La dénonciation des
perturbateurs endocriniens a deux parents, une pionnière et un pionnier. La
pionnière s’appelait Rachel Carson (1907-1964). Dans son livre culte, Printemps
silencieux, Carson qui était biologiste, décrivait les effets du DDT sur le
développement sexuel et la reproduction des espèces. Carson a montré que le
DDT était un polluant persistant. Il s’accumulait dans l’environnement et
menaçait beaucoup d’espèces d’oiseaux en interférant avec leur cycle de
reproduction. Le livre de Carson a été l’un des plus influents de l’histoire. Il a
été très mal accueilli par les industriels mis en cause, qui ont tout fait pour le
dénigrer, y compris en attaquant Carson de façon personnelle voire intime.
Malgré ces réactions prévisibles, il a amené la pollution chimique à la
conscience du public. Il a déclenché un mouvement environnemental mondial,
insuffisant mais qui a eu le mérite de se créer.
Moins de dix ans plus tard, Arthur Herbst, un gynécologue de Boston,
publiait avec ses collègues un article relatant un cluster de patientes ayant un
cancer du vagin. Habituellement, le cancer du vagin est très rare et ne se voit
qu’après 50 ans. C’est l’accumulation anormale de huit cas en quatre ans chez
des femmes jeunes qui a conduit Herbst et son équipe à enquêter. Toutes les
patientes malades ont été extensivement interrogées. Leurs interviews ont été
comparées à celles de femmes n’ayant pas de cancer vaginal, on parle d’étude
cas-témoin 9. Les femmes ont été investiguées sur leurs habitudes, leurs produits
de beauté, leurs animaux de compagnie, les cigarettes fumées, leur sexualité, la
pilule… et la grossesse de leurs mamans. Herbst a relevé que les mères des
patientes atteintes avaient fait de nombreuses fausses couches avant de pouvoir
mener une grossesse à terme et d’accoucher de leur fille. Quand elles étaient
enceintes, elles avaient souvent signalé à leur gynécologue des saignements en
début de grossesse. Ces conditions délicates laissaient penser que ces grossesses
étaient à risque. À l’époque, on croyait qu’une aide hormonale par œstrogènes
augmentait les chances que la grossesse arrive à terme. On pensait aussi que les
œstrogènes étaient inoffensifs. Beaucoup de gynécologues prescrivaient donc un
œstrogène de synthèse, le diéthylstilbestrol, ce qui est arrivé à 7 mamans sur 8.
Herbst et ses collègues ont conclu, mais avec prudence, que le produit hormonal
était en cause : « Bien que le risque de développement de ces tumeurs apparaisse
très faible, les résultats de cette étude suggèrent qu’il est imprudent
d’administrer le stilbestrol aux femmes en début de grossesse. »
À l’époque de Rachel Carson et d’Arthur Herbst, deux hypothèses fausses
étaient largement répandues chez les scientifiques. Premièrement, on pensait que
les produits chimiques non naturels ne pouvaient pas facilement perturber les
systèmes hormonaux. Il semblait improbable qu’ils provoquent des dérapages et
des maladies. On croyait à une étanchéité entre les produits non naturels et le
monde vivant naturel. Deuxièmement, on supposait que leur toxicité réelle
dépendait de la dose à laquelle on s’exposait.
Ces deux hypothèses étaient invalides et on l’a su après. D’une part, les
produits chimiques qui perturbent le fonctionnement hormonal sont bien des
poisons. Ils participent ou causent directement des maladies. Ce sont des
produits pathogènes. D’autre part, ce sont des poisons atypiques. Leur effet
pathogène ne dépend pas directement de la dose ou en tout cas pas selon une
relation conventionnelle, c’est-à-dire une relation monotone (faible à faible dose,
forte à forte dose).
Depuis la découverte d’Arthur Herbst, la production chimique a été
multipliée par 300. Il existe des centaines de milliers de produits chimiques dont
des milliers sont des perturbateurs endocriniens. La Food and Drug
Administration en a recensé au moins 1800 10. Ils sont partout et inévitables. On
peut en trouver dans les produits de soins, les savons et les cosmétiques, des
produits de nettoyage et les détergents, dans les pesticides, dans notre
alimentation et dans l’eau de pluie ou du robinet, les plastiques et les
emballages, les vêtements, les objets électroniques. Il y en a même dans les
équipements médicaux et les jouets. Il n’est déjà plus possible de vivre sans être
exposé à ces composés incorporés aux produits quotidiens, dont beaucoup sont
d’ailleurs d’origine fossile, c’est-à-dire qu’ils proviennent du pétrole, du charbon
ou du gaz 11. La rencontre avec les perturbateurs endocriniens est une histoire qui
se joue tous les jours. Ils nous pénètrent par où ils peuvent, la bouche, les
poumons ou la peau. Leurs noms sont souvent compliqués et peu d’entre eux
sont connus du grand public.
Depuis le début des années 1990 et les premières recherches systématiques,
les perturbateurs endocriniens ont été associés à plusieurs cancers hormono-
sensibles comme le cancer du sein ou de la prostate. Ils ont été associés à
l’obésité et au diabète de type 2, voire aux maladies cardiovasculaires. Ils
dérèglent aussi la thyroïde. Ils contribuent à troubler le développement de
l’appareil reproductif chez les petites filles et avancent l’âge de la puberté. Ils
augmentent le risque d’endométriose et de maladies ovariennes, ou interfèrent
avec la durée des grossesses et le poids des bébés. Chez les garçons, ils
provoquent des anomalies des testicules ou de la verge, et diminuent la qualité
du sperme, c’est-à-dire notamment la quantité de spermatozoïdes qu’il contient.
De façon générale, les perturbateurs endocriniens déploient plusieurs
mécanismes pour nous empêcher de faire des enfants. L’épidémie mondiale
d’infertilité — encore une — leur doit beaucoup 12. Leur portée va au-delà des
individus puisque leurs effets se disséminent à la descendance sur une ou
plusieurs générations. Il est courant que les petites filles tirent certaines
anomalies de leur grand-mère, si celle-ci a été exposée à ces perturbateurs, ce
qui ajoute à l’effet épidémiologique un effet symbolique de transmission.
Un dernier organe pas totalement mineur est affecté : notre cerveau est très
sensible aux hormones et les perturbateurs endocriniens en profitent. Ils sont
responsables de l’augmentation de troubles du comportement chez les enfants,
l’autisme et les déficits de l’attention avec hyperactivité étant les plus fréquents.
Les perturbateurs endocriniens altèrent l’intelligence et les émotions. Ce risque
augmente quand les enfants sont exposés très tôt, voire dès le ventre de leur
maman. Ces périodes de prédéveloppement et de développement sont des
fenêtres de vulnérabilité. Même quand ils ne parviennent pas à former une
maladie définie, les perturbateurs endocriniens abaissent les performances
cognitives. Ils diminuent le quotient intellectuel sans forcément aller jusqu’au
retard mental. La pollution chimique a donc inventé un nouveau modèle où un
composé toxique peut non seulement produire des maladies mais aussi affecter
la normalité pour la tirer vers une sous-normalité. Cette chute de norme rend la
quantification des problèmes encore plus difficile pour les chercheurs.
La recherche sur les perturbateurs endocriniens est particulièrement
compliquée pour au moins deux raisons. D’abord, il n’y a pratiquement pas de
science clinique de ces produits. On ne peut pas faire d’études cliniques pour des
raisons éthiques. Par exemple, on ne peut pas recruter deux groupes d’individus,
administrer un produit chimique suspect à un seul groupe et comparer ensuite
l’apparition de maladies dans les deux. Quand les études cliniques sont
impossibles, les chercheurs travaillent sur ce qui existe avant ou après la
clinique. La phase préclinique est la toxicologie et la phase post-clinique est
l’épidémiologie. La toxicologie opère à l’échelle microscopique, et
l’épidémiologie à l’échelle de la population.
La toxicologie se pratique sur des cellules ou des animaux. Comme c’est une
science expérimentale, les relations qu’elle montre entre les produits et leurs
effets ont de bonnes chances d’être des relations causales. En revanche,
l’extrapolation aux humains est toujours affectée d’incertitude. L’épidémiologie
est une science observationnelle, ce qui l’expose à de nombreux biais et facteurs
de confusion. Une association statistique entre une exposition et une maladie ne
traduit pas nécessairement un rapport de causalité. La relation peut être due au
hasard ou à un troisième élément qui relie l’exposition et la maladie, c’est le
facteur de confusion qui est une forme de biais un peu à part. Mais si la relation
est vraiment causale, alors les résultats de l’épidémiologie sont directement
applicables. La force de la toxicologie est une faiblesse en épidémiologie et
réciproquement. En pratique, les deux disciplines sont complémentaires. Elles
ont fait beaucoup pour prouver les dommages des produits chimiques.
La deuxième raison qui complique la recherche sur les perturbateurs
endocriniens est liée aux perturbateurs eux-mêmes. Comme on l’a dit, ce sont
des poisons atypiques. Leur comportement intracorporel est inhabituel. Ils ne
respectent pas les règles générales de la toxicité, qui veulent notamment que
l’effet augmente avec la dose. Les perturbateurs endocriniens entretiennent une
relation non monotone avec les maladies auxquelles ils participent. Des faibles
doses peuvent être plus dommageables que des doses élevées, ce qui est peut-
être lié à leurs effets contradictoires à l’échelle moléculaire. En fait, les
chercheurs observent souvent des courbes en cloche, avec un effet qui augmente
puis qui diminue avec la dose. Même les expositions minimes ont des effets
sévères, comme des risques de cancer. Un autre trait atypique des perturbateurs
endocriniens est que leurs conséquences peuvent être extraordinairement
différées. Elles se manifestent parfois des décennies après l’exposition au
produit coupable. C’est encore plus vrai pour les moments vulnérables déjà
mentionnés, comme le développement fœtal ou infantile. Au cours de ces
périodes, les perturbateurs endocriniens programment les problèmes éloignés, en
profitant de la mémoire des organismes. Enfin, la réalité environnementale est
que nous ne sommes jamais exposés à un seul produit mais à des centaines. Les
effets de ces mélanges ne sont jamais testés et restent délicats pour ne pas dire
impossibles à étudier.
Dans tous les cas, le rôle d’un perturbateur endocrinien dans une maladie est
difficile à prouver. Ces inconvénients ont clairement retardé la reconnaissance et
la compréhension des liens entre les produits chimiques et les problèmes de
santé mondiale.
Les effets antiéconomiques de la pollution
chimique
Comme toujours avec l’économie pathogène, il n’y a pas que les effets
épidémiologiques qui écrivent des tragédies. Il y a aussi les effets économiques.
Les entreprises ou les secteurs pathogènes jouent contre le reste de l’économie.
Les pertes causées par les perturbateurs endocriniens ont pu être estimées 13. En
Europe, elles atteindraient la somme hallucinante de 163 milliards de dollars par
an, soit 1,28 % du PIB européen à la date du calcul. Aux États-Unis, ce serait
340 milliards de dollars par an, environ 2,33 % du PIB du pays. Les différences
entre les deux pourcentages tiennent aux différences épidémiologiques, qui elles-
mêmes tiennent aux différences d’exposition. C’est notamment la perte
d’intelligence qui coûte particulièrement cher aux Américains. Ces estimations
sont des sous-estimations car elles n’incluent qu’une petite partie des
perturbateurs endocriniens, ceux pour lesquels les effets sont les mieux
démontrés. De plus, ces études ne tiennent pas compte des dommages plus
difficiles à quantifier, les coûts soi-disant intangibles : la douleur et le malheur.
On pense que les pertes économiques sont encore plus élevées en proportion
dans les pays aux revenus faibles et intermédiaires. Ces données illustrent un fait
récurrent déjà mentionné de l’économie pathogène, à savoir que selon toute
vraisemblance et même si c’est difficile à démontrer, les industries impliquées
détruisent plus de valeur qu’elles n’en créent pour la société.
Si les perturbateurs endocriniens sont en liberté (mal) surveillée, c’est parce
que la régulation des produits chimiques est lâche. Les failles réglementaires
sont connues. Il est habituel que la régulation soit en retard par rapport à la
science, mais le cas des perturbateurs endocriniens lui a permis d’atteindre des
records de décalage. Les preuves des dommages sont maintenant accablantes,
mais la régulation évolue trop lentement et légèrement. D’abord il y a la
définition des perturbateurs endocriniens. Plus elle est stricte et plus la régulation
est permissive. Inversement, une définition large témoignerait du sérieux de la
régulation, ce qui n’est pas le cas aujourd’hui. Tout produit susceptible
d’interférer avec une action hormonale devrait être considéré comme un
perturbateur endocrinien. Actuellement, il faut justifier qu’il existe un risque de
maladie et que cette maladie est bien liée à l’interférence hormonale, ce qui
encore une fois est trop difficile à prouver complètement.
Mais c’est surtout l’approche qu’il faudrait inverser : ce devrait être aux
industriels de démontrer la sécurité de leurs produits et non aux scientifiques
d’aller chercher les risques. Bien que la régulation soit plus dure en Europe
qu’aux États-Unis, la plupart des produits peuvent être commercialisés avec des
données minimales. Les tests toxicologiques ne sont pas toujours fiables et leur
valeur est limitée. À part pour les pesticides, les industriels n’ont pas à
démontrer que leurs produits sont inoffensifs. Pour espérer un retrait du marché,
il faut attendre que quelqu’un prouve un risque de maladie, des années voire des
décennies plus tard, c’est-à-dire quand il est déjà très tard. Et encore, ce retrait
n’arrive pas systématiquement car il faut des preuves élevées, qui sont très
difficiles à rassembler pour les raisons évoquées. Même s’ils sont retirés du
marché, beaucoup de produits chimiques persistent longtemps dans
l’environnement et à l’intérieur des organismes humains. C’est notamment le cas
des PFAS 14, sans doute un des pires scandales potentiels du XXIe siècle, qui ont
une dégradation très lente ; il faut des dizaines d’années pour espérer les voir
disparaître.
Un autre défaut de régulation concerne les mélanges. Aujourd’hui, les
produits sont étudiés séparément par les régulateurs, une démarche qui ne
correspond pas à la réalité. Les humains vivent dans un massif chimique mais il
n’y a aucune approche crédible pour réguler cette exposition aux mélanges. Il
n’y a que pour les perturbateurs endocriniens que la régulation est aussi laxiste.
Aucun médicament ne serait jamais approuvé si les laboratoires
pharmaceutiques transmettaient des données aussi pauvres. Si les médicaments
sont sûrs, c’est parce qu’ils sont méticuleusement testés et s’ils sont
méticuleusement testés, c’est parce que la régulation est dure avec eux. Ce
n’était pas le cas au début du XXe siècle, mais plusieurs scandales ont fait évoluer
les règles et les industriels se sont adaptés. Il faut croire que les perturbateurs
endocriniens n’ont pas encore connu de scandale suffisant pour avoir cet effet
d’exigence réglementaire. Pourtant, plus le temps passe et plus les preuves se
blindent : des produits suspects deviennent coupables et d’autres produits
deviennent suspects alors qu’ils ne l’étaient pas.
Un éditorial récent du Lancet Oncology disait que « nous semblons piégés
dans un cercle vicieux dans lequel certains perturbateurs endocriniens sont
évalués et retirés du marché, seulement pour que de nouveaux entrent dans la
chaîne d’approvisionnement 15 ». On sait que les produits retirés sont dangereux,
mais ceux qui les remplacent sont souvent très peu testés. Par exemple,
beaucoup d’objets ne contiennent plus de bisphénol A et ils l’affichent, mais ce
produit a été relayé par d’autres composés toxiques, comme son cousin chimique
le bisphénol S. Les chercheurs parlent de substitution regrettable, un concept
pratiqué par les industriels pour nous faire passer sans le dire d’une toxicité à
l’autre.
La régulation est le seul moyen de s’en prendre au problème à l’échelle de la
population. Les conseils aux individus ne marchent pas et ils sont injustes car les
perturbateurs endocriniens sont inévitables. Il n’y aura jamais de diminution de
notre exposition si les règles n’évoluent pas et si les produits chimiques ne sont
pas testés de façon adéquate avant leur mise sur le marché.

Les conditions de l’économie pathogène


Le modèle de fonctionnement de l’économie pathogène devient plus clair.
Trois conditions sont critiques.
1. Une régulation lâche ou une absence de régulation. Dans toutes les
industries, la régulation cherche un équilibre entre la protection et l’innovation.
C’est un équilibre dynamique car la science progresse et les sociétés évoluent,
mais le principe de l’équilibre ne change pas. La régulation doit laisser entrer sur
le marché des produits qui apportent quelque chose de plus, sans provoquer de
nouveau risque excessif. Toutes les industries ne sont pas soumises à la même
intensité de régulation. Certaines sont bien régulées comme la pharmacie ou
l’aéronautique. Les médicaments sont sûrs et les avions sont sûrs. Ils ont
toujours des risques mais dans l’ensemble, leurs avantages l’emportent
largement sur leurs inconvénients. Quand ce n’est pas le cas, la régulation
continue de travailler en exigeant des améliorations (ce qui est plus faisable pour
un avion que pour un médicament) ou en les retirant du marché. Il arrive que des
médicaments ne soient finalement plus autorisés après l’avoir été, ou que des
avions soient interdits de voler dès que les risques se révèlent trop élevés. Ces
événements ne traduisent pas un défaut de régulation, au contraire, car les
régulateurs restent actifs après la commercialisation. Mais d’autres industries
sont minimalement et médiocrement régulées, ce sont souvent celles qui
appartiennent à l’économie pathogène. Les défauts de régulation expliquent que
trop d’aliments ultra-transformés soient autorisés et que la pollution chimique
soit en croissance. La régulation défaillante est une partie de la logique de l’offre
de risques. Une industrie donnée est mal régulée quand les leaders politiques
sont mal conseillés par les scientifiques ou qu’ils ne les écoutent pas.
2. Une défaillance de marché. Quand la régulation échoue à protéger, la
taxation peut réussir à le faire. En économie de marché, le prix sert de signal
pour influencer le comportement des entreprises et des individus. Le prix
influence l’offre. Des prix trop élevés font que les produits ne se vendent pas et
ne sont finalement plus commercialisés. Ils sortent du marché. Or les prix des
produits dépendent de la taxation. Si elle est adéquate, la taxation rend la toxicité
trop chère pour être achetée. Il le faudrait toujours, aussi bien dans l’économie
directement pathogène que dans l’économie polluante, notamment parce que les
entreprises ont tendance à investir dans les technologies polluantes. Les
économistes expliquent cette attitude par « la dépendance au sentier », c’est-à-
dire la poursuite d’une activité commerciale dans les domaines où les entreprises
existent déjà, si possible avec les mêmes moyens. Une taxation bien conçue
permet au marché de rattraper les défauts du régulateur, en encourageant les
entreprises à changer de domaine ou de moyens.
Dans l’économie pathogène, les prix mentent car ils ne contiennent pas les
dépenses supplémentaires qu’ils provoquent. S’ils disaient la vérité, ils
augmenteraient dans des proportions qui rendraient les produits toxiques
suspects voire inabordables. La réalité est que les entreprises pathogènes vendent
leurs produits pas cher parce qu’elles n’assument pas le coût des dommages
qu’elles imposent à la société. Dans le langage des économistes, elles
n’internalisent pas leurs externalités. La défaillance de marché par défaut de
taxation est une autre partie de la logique de l’offre de risques. Le marché est
défaillant quand les leaders politiques sont mal conseillés par les économistes ou
qu’ils ne les écoutent pas.
3. Une demande. Il faut que les produits de l’économie pathogène fassent
envie et se vendent. Autrement dit, il faut une demande.

1. François Jarrige travaille à l’université de Bourgogne et Thomas Le Roux au CNRS.


2. François Jarrige, Thomas Le Roux, La Contamination du monde, Le Seuil, 2017.
3. Ibid.
4. Jean-Baptiste Fressoz, « La “transition énergétique”, de l’utopie atomique au déni climatique : États-
Unis, 1945-1980 », Revue d’histoire moderne et contemporaine, Belin, 2022.
5. Elsa A. Olivetti, Jonathan M. Cullen, « Toward a sustainable material system », Science, 2018.
6. Philip J. Landrigan et al., « The Lancet Commission on pollution and health », The Lancet, 2018.
7. Richard Fuller et al., « Pollution and health: a progress update », The Lancet, 2022.
8. La controverse est liée à la nécessité ou pas d’avoir des preuves d’un effet pathogène. Les partisans
d’une définition restreinte estiment qu’il faut une interférence hormonale et une conséquence pathologique,
c’est-à-dire une maladie clinique ; alors que d’autres scientifiques plaident pour une définition large qui
considère qu’un composé est un perturbateur endocrinien dès qu’il existe une interférence avec le système
hormonal.
9. Arthur L Herbst et al., « Adenocarcinoma of the vagina. Association of maternal stilbestrol therapy with
tumor appearance in young women », NEJM, 1971.
10. Linda G. Kahn et al. , « Endocrine-disrupting chemicals: implications for human health », The Lancet
Diabetes Endocrinol, 2020.
11. Barbara A. Demeneix, « How fossil-fuel derived pesticides and plastics harm health, biodiversity, and
the climate » The Lancet Diabetes Endocrinol, 2020.
12. Stéphane Foucart, « Le déclin de la fertilité masculine est mondial et s’accélère », Le Monde,
15 novembre 2022.
13. Christopher D. Kassotis et al., « Endocrine-disrupting chemicals: economic, regulatory, and policy
implications », The Lancet Diabetes Endocrinol, 2020.
14. En anglais « per- and polyfluoroalkyl substances ». Ce sont des produits chimiques qui contaminent
largement l’environnement et qui sont produits depuis les années 1950. Ils ont beaucoup d’applications
commerciales, dont les surfactants, les lubrifiants, la peinture, les produits pour polir, l’emballage. Voir Xue
Wen et al., « Exposure to per- and polyfluoroalkyl substances and mortality in U.S. adults: a population-
based cohort study », Environmental Health Perspectives, 2022.
15. « Endocrine disruptors, the lessons (not) learned », The Lancet Oncology, 2021.
III

LA DEMANDE DE RISQUES
La demande de risques est moins évidente à comprendre que l’offre. Il est
normal que les industriels cherchent à vendre leurs produits et qu’ils fassent tout
pour les vendre le moins cher possible et en écouler un maximum. Les lois les
plus basiques du marché prédisent ce schéma. On s’attend moins à ce que les
clients de ces industriels achètent des risques ou s’y exposent, au point de
permettre ou de participer à la croissance de l’économie pathogène, une
anomalie qui est le départ de ce livre. La logique de la demande de risques est
plus complexe et plus diversifiée que la logique de l’offre. D’ailleurs, il ne s’agit
pas toujours exactement d’une demande active, parfois seulement un
consentement à une exposition, notamment pour pas mal de risques
environnementaux.
La demande s’appuie sur trois cas nettement différents même s’ils ne sont
pas complètement étanches. Ces trois cas sont définis par le degré de conscience
de l’exposition au risque. Le premier cas est celui où le risque n’est pas connu et
l’exposition est inconsciente (au sens non freudien). Il peut être évacué
rapidement car il mérite moins d’analyse. Quand les gens ne savent pas qu’ils
s’exposent à un risque, il est normal qu’ils le fassent. Il n’y a rien de plus à
comprendre. La seule remarque éventuelle est qu’à l’intérieur même de ce cas,
on trouve trois possibilités. Dans la première, le risque est inconnu de tous.
Personne ne le connaît parce que la science ne l’a pas identifié ou validé, ce qui
malheureusement est banal. La possibilité suivante est celle où des études de
nature scientifique ont montré le risque mais les industriels qui le produisent font
ce qu’ils peuvent pour le dissimuler afin de protéger leur marché. Cette
possibilité est en fait une généralité. La partie IV en parlera mais tous les
industriels de l’économie pathogène sont passés par cette phase de séquestration
de la connaissance. L’historien américain Robert Proctor a montré comment les
lobbys de la cigarette avaient retardé d’une dizaine d’années l’émergence de
données épidémiologiques sur les effets du tabac 1. La dernière possibilité
implique que le risque est public mais il reste toujours des individus pour ne pas
le connaître, ce qui ramène à des questions d’éducation ou plus largement de
capital social.
En dehors de ce cas où les gens ne sont pas au courant des risques existants,
l’économie pathogène est financée par deux autres situations types dans
lesquelles l’exposition est volontaire. Soit le risque est connu au moins
partiellement mais les individus commettent des erreurs d’estimation pour des
raisons qui seront traitées. Ils savent qu’un risque existe mais s’exposent en
pensant être presque sûrs d’échapper aux complications. Soit le degré de
conscience est total. Les individus s’exposent en sachant pleinement les
problèmes probables. C’est le cas le plus clair de demande.

1. Robert N. Proctor, Golden Holocaust, la conspiration des industriels du tabac, Les Équateurs, 2014.
6
La demande par erreur

La demande erronée de l’épidémiologie


populaire
Il n’y a pas que les épidémiologistes qui font de l’épidémiologie. Tous les
individus peuvent développer leur propre science pour analyser la santé. Le
phénomène existe sûrement depuis toujours, mais sa première description
formelle date des années 1990. Trois médecins anglais, Frankel, Davison et
Davey Smith, relèvent l’inefficacité des politiques de prévention des maladies
cardiovasculaires. Pourtant, ces pathologies fréquentes et graves peuvent toucher
tout le monde et personne n’en veut. Beaucoup d’hypertensions artérielles et de
diabètes ne sont pas bien traités alors que les médicaments sont disponibles et
remboursés, les gens ne fument pas moins, ils ne mangent pas mieux, et ils
continuent d’être physiquement peu actifs. Les messages qui encouragent à vivre
autrement pour vivre longtemps n’ont presque pas d’impact.
Une interprétation courante prétend que les individus manquent
d’informations ou de réflexion mais les trois chercheurs n’en sont pas
convaincus. Ils développent une autre explication qu’ils appellent lay
epidemiology, ou épidémiologie populaire dans laquelle « les individus
interprètent les risques pour la santé à travers l’observation de routine et les
discussions de cas de maladie et de mort dans leurs réseaux personnels et
l’espace public, ou à partir de preuves formelles ou informelles qui viennent
d’autres sources, comme la télévision ou les magazines 1 ». L’épidémiologie
populaire est une illustration des thèses de David Hume, qui faisait la différence
entre les impressions et les idées 2. Hume suggérait que les impressions
l’emportent souvent sur les idées quand nous devons nous former une
conviction. L’existence de l’épidémiologie populaire prouve que ces
impressions, c’est-à-dire quelque chose qui a été vécu, peuvent créer des images
mentales intenses auxquelles les gens croient plus.
Par l’épidémiologie populaire, les individus essayent d’expliquer ou de
prédire les maladies ou la mort pour leurs proches ou pour eux-mêmes. Ils
incorporent particulièrement trois types de données : le profil des personnes,
l’apparence physique, la position sociale et géographique. Ces trois classes de
données montrent que les gens imitent à la fois les médecins et les
épidémiologistes. Les données de profil personnel sont tirées de l’interrogatoire,
que les médecins appellent le terrain. L’apparence physique est une partie de
l’examen clinique. L’interrogatoire et l’examen clinique sont les deux temps
fondamentaux d’une consultation médicale. Quant à la position sociale et la
géographie, il est notoire qu’elles influencent la santé humaine. Ce sont des
déterminants qu’étudient couramment les épidémiologistes. Le capital social et
le lieu de vie prédisent la santé. Leurs effets sont massifs et dépassent de loin les
effets qu’on peut espérer tirer de la médecine et de la pharmacie. Cet impact du
capital social et de la géographie s’exerce par les risques associés,
comportementaux ou environnementaux. Ce sont surtout des effets indirects.
Une conséquence de l’épidémiologie populaire est notre tendance à voir des
candidats aux maladies. Le cas pionnier est la pathologie cardiovasculaire, un
cas qui a été appelé paradoxe de la prévention. La maladie coronarienne est la
cause directe des infarctus du myocarde. Les gens connaissent ses facteurs de
risques et savent qu’ils sont traitables. Pourtant, ils s’y exposent massivement ou
ne les prennent pas en charge : c’est le départ du paradoxe. Mais comme tous les
paradoxes, il n’est qu’apparent. Il y a toujours une explication aux phénomènes,
qu’ils soient sociaux ou naturels. Les paradoxes ne sont pas des faits mais des
sentiments que nous éprouvons quand il nous manque un modèle adéquat. Une
cause du paradoxe de la prévention est que les gens observent des faits
incompatibles avec la théorie dans un sens ou dans l’autre. Ils voient des contre-
exemples : beaucoup de fumeurs ou d’obèses n’auront jamais de problème de
cœur et inversement, des infarctus peuvent toucher des proches à eux qui
n’avaient aucun facteur de risque. Tous ces cas sont incohérents avec l’histoire
épidémiologique qu’on leur raconte. Quand les anomalies paraissent trop
nombreuses, les gens croient moins en la théorie et ils sous-estiment leur propre
exposition aux risques. La réalité est que la maladie coronarienne est très
courante et que nous sommes tous candidats avec l’âge. Les facteurs de risque
augmentent la susceptibilité d’un problème déjà fréquent. La répression de ces
facteurs de risque diminue la probabilité d’être atteint sans l’annuler pour autant.
Même si les facteurs de risque n’existaient pas, la maladie coronarienne
existerait, car le seul effet du vieillissement affecte les vaisseaux du cœur.

De l’épidémiologie populaire à l’épidémiologie


personnelle
Une tendance fréquente de l’épidémiologie populaire est son dérapage vers
l’épidémiologie personnelle. Ce phénomène dérivé agit en parallèle pour
produire un effet de découragement. Dans l’épidémiologie populaire, les
individus raisonnent de façon plus ou moins erronée à partir de données biaisées.
Ils arrivent à une fausse estimation qui les conduit à s’exposer plus qu’ils ne le
pensent. Dans le cas de l’épidémiologie personnelle, peu importe que
l’estimation soit exacte ou non. Elle peut être juste mais ce qui compte, c’est que
les gens observent une taille de l’effet qui leur paraît dérisoire. La taille de l’effet
est la distance statistique — gain ou de perte de santé — qui sépare deux
situations : prise de risque ou absence de risque, prise d’un médicament ou non,
prédisposition génétique ou non, etc. Toute exposition à un risque est associée à
une certaine taille d’effet qui souvent n’est pas très élevée.
Les petites tailles d’effet créent mécaniquement une dissociation d’intérêt
entre les États et les individus, et les gens le comprennent. Une taille d’effet
minime appliquée à large échelle aura un impact sur un grand nombre de
personnes. Elle sera intéressante pour les États qui ont une approche
démographique et non clinique. Un pourcentage faible d’une grande population
équivaut à beaucoup de vies sauvées ou améliorées. Mais à l’échelle individuelle
qui est l’échelle vécue, l’intérêt est moins convaincant et c’est là où la
dissociation cause une démotivation. Quand les gens font de l’épidémiologie
personnelle, ils se rendent compte que les gains de santé auxquels ils peuvent
s’attendre sont parfois minuscules. Ils jugent alors que cette perspective ne vaut
pas les efforts nécessaires pour se désexposer.
Cette différence d’intérêts entre l’État qui raisonne en population et les
individus qui raisonnent pour eux-mêmes n’est pas une nouveauté. Elle avait été
comprise par d’Alembert dans son attaque contre Daniel Bernoulli à propos de la
variole. À leur époque, la maladie tuait 20 à 40 % des personnes touchées. Elle
pouvait effacer jusqu’à 10 % des enfants d’un pays lors des mauvaises années.
Avant que la vaccination soit inventée par Jenner en 1796, on inoculait un peu
de variole à des personnes non malades pour essayer de provoquer une immunité
sans causer de maladie ou en tout cas sans forme grave. C’était la variolisation,
une méthode assez efficace mais pas complètement sûre. Elle pouvait générer
une variole grave voire mortelle, un risque de quelques pour cent. Ensuite, les
personnes qu’on variolisait étaient contagieuses, ce qui pouvait déclencher une
épidémie. Principalement à cause de ces deux limites, la variolisation était mal
acceptée et beaucoup de gens ne voulaient pas se faire varioliser.
Pour atténuer cette résistance populaire, Daniel Bernoulli eut l’idée de
produire une quantification des avantages d’une variolisation de masse 3. Il
entreprit de construire un modèle épidémiologique — dont on pense qu’il fut le
premier du genre — pour estimer quel serait l’effet net d’une variolisation à
grande échelle. Bernoulli savait compter et modéliser mais il avait un problème :
les données étaient rares et fragiles. On ne connaissait pas exactement
l’efficacité et la sécurité de la variolisation, qui d’ailleurs étaient variables selon
les contextes. Bernoulli dut faire des hypothèses simplificatrices. Il savait
qu’elles étaient fausses et il l’admettait, mais il n’avait pas le choix s’il voulait
faire un modèle. Il trouva que la variolisation de masse faisait gagner 2/17es de
« vie moyenne naturelle », soit 3 ans et 2 mois selon les standards de l’époque.
Si la variolisation était efficace, le modèle de Bernoulli ne l’était pas assez pour
emporter une conviction large. Il n’a pas poussé les gens à se faire varioliser
pour des raisons que d’Alembert a bien analysées dans une attaque orale et
écrite 4.
D’Alembert exposa deux défauts que les gens percevaient et qui expliquaient
leur désintérêt. La première faiblesse consistait à comparer des risques différents
et à les mettre sur le même plan : la variole d’un côté, et les effets secondaires de
la variolisation de l’autre. La psychologie humaine ne se contente jamais de
comparer des probabilités brutes, elle compare aussi ce que contiennent ces
probabilités. Si un risque nous fait trop peur pour des raisons qui tiennent à sa
nature ou à sa symbolique, peu importe qu’il soit peu probable, il sera rejeté. Ce
mécanisme mental est encore valable au XXIe siècle, on le voit avec la
vaccination ou même avec certains médicaments 5. La deuxième faiblesse selon
d’Alembert était de négliger que les probabilités comparent des risques n’ayant
pas le même timing. Il est pourtant clair que toutes les années de vie ne se valent
pas. En se faisant varioliser, les individus couraient un risque immédiat. En ne se
faisant pas varioliser, ils prenaient un risque étalé et donc plus hypothétique à
leurs yeux.
Ces deux éléments de nature psychologique et non mathématique ont été
manqués par Bernoulli. Ses statistiques étaient sèches et inempathiques. Les
gens avaient très peur d’une possible toxicité de la variolisation, une peur qui
comptait plus pour eux que les deux ans et trois mois peut-être gagnés à la fin.
Les deux points de d’Alembert — la nature des risques et leur timing —
expliquent une différence de vues et d’intérêt entre les individus et la population,
c’est-à-dire l’État. C’est déjà une forme d’épidémiologie personnelle. L’État est
froid et agit pour le long terme. Il compare des risques différents car ce sont
seulement les probabilités qui importent pour lui et pas la peur des problèmes.
Du point de vue de l’État, toutes les années sont équivalentes dès lors qu’une
approche lui permet de maximiser sa population sur la durée.
Les historiens trouvent souvent que cette anecdote est inéquitable. Ils
avancent que le modèle de Bernoulli était une performance exceptionnellement
pionnière et que d’Alembert était motivé par une compétition personnelle, ce qui
l’aurait poussé à la mauvaise foi. Par ailleurs, les historiens soulignent que
d’Alembert ne propose rien après son attaque. Son mérite est d’avoir saisi
l’existence d’une épidémiologie personnelle, dans laquelle les gens ne traitent
pas les risques comme des choses statistiques mais comme des problèmes qui
peuvent leur arriver. Ces problèmes étant différents, ils les perçoivent
différemment, un phénomène que Maurice Allais appelait « la déformation des
probabilités 6 ».

Des erreurs normales


Depuis les travaux des trois chercheurs anglais, il a été suggéré ou prouvé
que l’épidémiologie populaire expliquait beaucoup de comportements en rapport
avec la santé et le risque de maladie. Plusieurs études ont montré que le
phénomène avait joué un rôle dans la suspicion fausse d’une relation entre
vaccination et autisme. À la fin des années 1990, des milliers de parents ont été
influencés par une publication du Lancet qui avait conclu à tort à un lien possible
entre la vaccination contre la rougeole et l’autisme 7. Ces parents trompés avaient
hésité à injecter à leurs enfants non malades un vaccin dont ils pensaient qu’il
pourrait les rendre malades, et pas de n’importe quelle maladie. Cette affaire
avait eu pour effet net de réactiver les cas de rougeole mais pas de faire baisser
l’autisme, car les vaccins contre la rougeole sont efficaces et sûrs. Ils évitent la
rougeole et ne causent pas d’autisme. L’article a depuis été rétracté mais le mal a
duré longtemps. L’épidémiologie populaire explique aussi des croyances et des
attitudes face au cancer et à son dépistage.
Enfin, des médecins américains ont estimé que l’épidémiologie populaire
avait exercé un effet antivaccin chez les personnes socialement désavantagées
lors de la pandémie de Covid-19. Ces individus se rendent compte qu’ils ont plus
de risque de développer des maladies, moins de chances d’être correctement
traités, et qu’ils vivent finalement moins bien et moins longtemps. Ils voient que
le capital social prédit la santé. Ils ont entendu que le gouvernement américain
avait déjà conduit des expérimentations inéthiques sur des personnes issues de
minorités ethniques ou raciales. En 2020, qui a été la première année de la
pandémie, une période déterminante pour préparer ses choix, les groupes sociaux
désavantagés ont déploré plus de morts par Covid-19. Ces données racontent une
histoire cohérente d’une société qui traite moins bien ses membres ayant un
faible capital social. Quand il a fallu décider de se faire injecter ou non le vaccin
anti-Covid, les individus ont extrapolé à partir de ce qu’ils savaient du passé et
du présent. « Du point de vue de l’épidémiologie populaire, cela a du sens que
les groupes qui ont des preuves claires de faire l’expérience de mauvais résultats
à partir de la plupart des aspects du système de soins américain, soient
sceptiques des risques et des bénéfices moyens de la vaccination. En fait, le
manque de confiance est une réponse rationnelle à leurs expériences 8. »

L’épidémiologie populaire est une illustration dans le domaine de la santé de


la façon dont les gens 1) essayent de comprendre le monde pour lui donner du
sens, 2) réagissent de façon rationnelle à leur compréhension. Leur perception
finale peut être erronée mais leur démarche est souvent sophistiquée. Les gens
rassemblent des données qu’ils soumettent ensuite à l’observation pour renforcer
ou évacuer leurs hypothèses ou leurs théories. Ils peuvent ainsi procéder
virtuellement par essais et erreurs, comme le fait la science normale. Les gens
savent être probabilistes et pas seulement déterministes. Ils ont appris et vu que
le modèle une cause = une maladie n’est plus valable pour un grand nombre
d’affections qui peuvent les toucher. Ils ont intégré que la plupart des maladies
sont provoquées par une accumulation de causes et qu’inversement, la présence
de causes possibles ne prédit pas nécessairement l’arrivée de la maladie.
Une preuve supplémentaire de rationalité vient du fait que l’épidémiologie
populaire est ouverte. Comme toute science, elle est vivante et ses conclusions
sont évolutives. Une fois qu’ils ont à peu près défini une théorie personnelle, les
gens poursuivent leurs observations et réagissent à la validation ou la
contradiction. Plusieurs attitudes sont possibles en cas de nouveau fait contraire
à la théorie. Ils peuvent faire appel à une hypothèse auxiliaire pour expliquer le
cas inattendu, comme le font les scientifiques. Ou ils peuvent remettre en
question leur théorie et refaire des hypothèses jusqu’à la prochaine observation.
Un mécanisme fréquent d’évolution des théories personnelles est l’exposition au
risque. S’ils n’ont jamais été exposés, un risque au caractère effrayant fera peur
indépendamment de sa probabilité, et donc même s’il a très peu de chances
d’advenir. Mais plus ils ont été exposés, plus les gens minorent leur peur pour
redonner de la valeur à la probabilité dans leurs perceptions et leurs attitudes.
Évidemment, l’épidémiologie populaire est faillible et elle se trompe
souvent. Elle est vulnérable à deux types de biais : les biais de données et les
biais de raisonnement. Premièrement, les données que les gens manipulent sont
souvent des données locales ou partielles. Elles sont sélectionnées, ce qui fausse
plus ou moins leur extrapolation. Deuxièmement, les gens raisonnent avec leurs
moyens cognitifs, c’est-à-dire comme on leur a appris à le faire, ce qui peut faire
commettre d’autres erreurs. Ce double biais explique largement les conclusions
fausses de l’épidémiologie populaire. Au passage, ce sont les mêmes sources
d’erreurs que pour les épidémiologistes : les données ou les modèles, souvent les
deux. En faisant de l’épidémiologie populaire, les gens peuvent par exemple
surestimer le rôle de l’hérédité ou surestimer les progrès de la médecine, une
erreur facilitée par les couvertures médiatiques trompeuses 9. Et bien sûr, il est
banal qu’ils sous-estiment les risques auxquels ils s’exposent, à savoir les risques
environnementaux, comportementaux et métaboliques. Ils ont conscience que la
pollution est dangereuse, mais comme les habitants des villes vivent plus
longtemps que ceux des campagnes, le risque ne paraît pas élevé. Le tabac est
une drogue mortelle mais il y a beaucoup de fumeurs âgés et pas malades.
L’hypertension artérielle augmente le risque d’attaque cérébrale, pourtant il
existe une impression diffuse que tout le monde a une pression artérielle élevée à
partir d’un certain âge, et seule une minorité aura un accident vasculaire. Il s’agit
souvent de probabilités faibles et de dommages reportés dans le temps, ce qui
explique l’échec à prouver le risque avec une observation de routine. Ces
descriptions simplistes sont des exemples de la manière dont l’épidémiologie
populaire nous confond. Elle nous pousse à surestimer la bénignité et sous-
estimer la toxicité. Elle rend rationnelle l’exposition au risque et donc la
demande de risques et de maladies. Les gens font des erreurs mais sont
rationnels. Leurs erreurs sont des erreurs normales.

Pensée scientifique et pensée ordinaire


La coexistence de la rationalité et ses erreurs est une illustration appliquée
aux maladies des trouvailles des pionniers en sciences sociales, Émile Durkheim
et Max Weber. Durkheim (1858-1917) a commencé à faire de la sociologie alors
que la discipline n’existait pas. Dans tous ses travaux, il a démontré comment les
facteurs sociaux, qu’il appelait « les causes impersonnelles », influençaient les
comportements des individus. Max Weber (1864-1920) a justement centré ses
recherches sur les individus. Au travers de plusieurs situations courantes, il a
prouvé qu’il était possible de détecter des raisons aux croyances fausses ou aux
comportements individuels anormaux. Il a disqualifié beaucoup d’explications
qui mettaient en avant l’irrationalité. Dans le langage de Weber, les actions des
individus sont compréhensibles parce qu’elles reposent sur des raisons qui ont
du sens pour eux.
Avec des points de départ opposés, la société pour Durkheim, les individus
pour Weber, les deux sociologues se sont retrouvés dans leurs explications des
comportements erronés. Comme l’a écrit Raymond Boudon, « c’est le génie de
Durkheim et Weber que d’avoir […] suggéré que les croyances fausses […] sont
le produit du fonctionnement normal de la pensée 10 ».
L’épidémiologie populaire valide les thèses de Durkheim et Weber. Les
individus observent et interprètent les données auxquelles ils ont accès et qui
sont des données qui les environnent. Ils mitigent les connaissances officielles
avec leurs données locales, ce qui les amène à convertir la théorie générale en
théorie populaire. En s’exposant à un risque de maladie dont ils ne veulent pas,
ils répondent de façon rationnelle à une probabilité qu’ils ont sous-estimée. Du
point de vue sociologique, l’exposition aux risques est compréhensible même si
le médecin a un avis différent.
L’épidémiologie populaire est aussi un exemple typique d’un autre
phénomène que Boudon a développé, d’ailleurs fondé sur Durkheim et Weber, à
savoir la continuité entre la pensée scientifique et la pensée ordinaire. Pour
Boudon, « connaissance scientifique et connaissance ordinaire procèdent par les
mêmes voies ». Il existe des différences, mais pas fondamentales, entre les
raisonnements des individus et les raisonnements des médecins ou des
épidémiologistes. Tous s’appuient sur des a priori, qui pour les scientifiques sont
des paradigmes 11. Ensuite, ils ont des hypothèses ou des théories qu’ils
soumettent à l’expérience, ici au moyen de l’observation 12. Les hypothèses ou
les théories sont les données de départ, et l’observation leur délivre des données
d’arrivée. Si les données de départ et d’arrivée disent la même chose,
l’hypothèse ou la théorie sont renforcées. Si les données divergent, l’hypothèse
ou la théorie sont réévaluées et ainsi de suite. Dans tous les cas, les individus
cherchent des corrélations qu’ils supposent être des relations de cause à effet
quand ils en trouvent, surtout si ces corrélations sont récurrentes. Inversement,
l’absence de corrélation leur fait souvent présumer à tort l’absence de causalité.
Cette continuité entre connaissance scientifique et connaissance ordinaire
s’explique par le fait que nos cerveaux fonctionnent comme des machines
obsédées à chercher de la cause. Cette obsession serait un produit de l’évolution.
Agustín Fuentes est anthropologue à Princeton. Dans son livre Why We Believe:
Evolution and the Human Way of Being 13, Fuentes énonce que « depuis quelques
centaines de milliers d’années de notre histoire, dans le cadre de nos capacités de
communication intensive, les humains ont formé une capacité à créer des
explications aux phénomènes largement observables comme la mort, le
comportement des autres animaux, la météo, ou le Soleil et la Lune ». Cette
traque de la cause ne vaut pas que pour la santé. Elle est également valable pour
la plupart des phénomènes naturels comme l’environnement, ou des phénomènes
sociaux, l’économie par exemple. Nous pouvons facilement admettre qu’un
événement donné survienne par hasard, mais il nous est moins intuitif de croire
au hasard quand il y a une coïncidence entre deux événements.
Dans la liaison entre connaissance scientifique et connaissance ordinaire, il y
a souvent des mathématiques. Les concepts arithmétiques ou statistiques
trouvent leur équivalent populaire. Boudon cite l’exemple du théorème de
Bayes, qui existe en version dégradée mais influente. Ce théorème dans sa forme
simplifiée, s’avère utile quand les gens ne peuvent pas tester une hypothèse ou
une théorie mais qu’ils essayent de la vérifier. À défaut de prouver la validité
d’une hypothèse ou d’une théorie, ils tentent d’épaissir sa crédibilité. Ainsi,
quand les individus observent des données auxquelles ils s’attendaient, ils
admettent que leur hypothèse ou leur théorie est sûrement bonne. C’est d’ailleurs
souvent valable en médecine. Quand un diagnostic est vraisemblable mais n’est
pas totalement démontrable, on recherche tous les signes compatibles. Plus on en
trouve et plus la maladie semble probable. Pour Boudon, « le théorème de Bayes
formalise en effet l’idée de bon sens selon laquelle la découverte d’un
événement se présentant comme en accord avec une hypothèse renforce la
crédibilité de cette dernière 14 ». Il ajoute que le théorème de Bayes « suggère
l’existence d’une continuité entre connaissance ordinaire et connaissance
scientifique ». Les deux types de connaissance l’utilisent couramment, à la
différence près que la science est explicite alors que les gens le manient
implicitement.
Justement, Boudon insiste aussi sur un autre trait des déductions populaires :
les raisons qui influencent les individus ne sont pas toujours émergées dans leur
esprit. Elles peuvent être réelles mais inexplicites. Boudon parle des « raisons
que le sujet se donne ou pourrait se donner ». La remarque vaut aussi pour
l’épidémiologie populaire. Il est clair les gens ne dessinent pas dans leur cerveau
des modèles complexes qui exhibent toutes les probabilités de risques et de
maladies. Ils saisissent les données observées et les traitent, mais une part de leur
raisonnement se fait de manière implicite.
L’épidémiologie populaire est donc une réalité fine, en contradiction avec
l’argument moins fin qui prétend que les individus sont incultes ou irrationnels,
ce qui expliquerait qu’ils s’exposent à des risques. Laisser croire qu’il s’agit
d’irrationalité reviendrait à faire la même erreur que Lucien Lévy-Bruhl qui
invoquait « la mentalité primitive » pour expliquer les comportements incompris
des Indiens d’Amérique, une théorie qu’il a d’ailleurs abandonnée à la fin de sa
vie 15. Il est clair que les individus font régulièrement des erreurs, soit parce qu’il
leur manque des données, soit par failles de raisonnement. Mais il n’empêche
qu’ils rassemblent des données, mêmes limitées et pas toujours fiables, et qu’ils
raisonnent avec. Leurs choix répondent à une logique.

Slovic et la science du risque


Un autre auteur a illuminé de façon exceptionnelle notre compréhension de
la perception des risques. Paul Slovic est né en 1938 à Chicago. Après avoir
obtenu son doctorat en psychologie en 1964, Slovic est allé conduire ses
recherches en Oregon où il vit et travaille encore. Slovic a mené des études
persévérantes et systématiques sur les jugements et les décisions, en particulier
par rapport aux risques. Son point de départ était similaire à celui des trois
Anglais inventeurs de l’épidémiologie populaire : expliquer les différences de
perception et d’attitude entre les experts et le grand public. Beaucoup des
recherches les plus importantes de Slovic ont été faites dans un contexte mental
mondial marqué par deux peurs dominantes : le nucléaire et les produits
chimiques issus des pesticides. Dans les années 1970 et en particulier aux États-
Unis, l’opinion est plus que préoccupée par ces deux risques. Pour les experts,
ces risques sont faibles et inférieurs aux avantages de ces technologies. Le grand
public est d’un avis inverse : non seulement il juge les risques élevés, mais il
trouve aussi que les bénéfices sont faibles, ce qui lui donne deux bonnes raisons
de ne pas en vouloir. Pour expliquer cette différence de perception, les experts
invoquaient là encore le défaut d’information et l’irrationalité du public.
Le premier grand travail de Slovic a été de développer un modèle pour
évaluer la perception des risques, modèle qui fonctionne en deux temps : la
quantification puis l’explication 16. L’étape de quantification consistait à
interroger des groupes d’individus sur une liste extensive de risques. Cette phase
montrait clairement des variations. Les gens ne perçoivent pas tous les risques de
façon équivalente. La deuxième étape a cherché à déterminer les causes de ces
différences. Slovic a procédé à une analyse factorielle, c’est-à-dire qu’il a
incorporé dans son modèle les caractères des risques, pour savoir quelles étaient
les raisons qui provoquaient des perceptions négatives 17. Slovic a ainsi pu établir
une « carte cognitive » typique, qui expose bien pourquoi certains risques sont
perçus comme plus problématiques que d’autres. La première raison, c’est-à-dire
la plus forte, est le caractère effrayant d’un risque. Quand les gens ont peur
d’une technologie ou d’une activité, leur perception négative augmente
mécaniquement et donc indépendamment du danger réel ou de la probabilité
réelle. Plusieurs éléments peuvent rendre un risque effrayant, notamment
l’absence de contrôle, son potentiel catastrophique, ses conséquences fatales ou
encore son caractère inéquitable. Dans les travaux de Slovic, le risque le plus
effrayant était le nucléaire. La deuxième raison, fréquente mais moins puissante
que la peur, est la notion de risque inconnu. Les risques familiers sont moins mal
perçus que les risques étrangers. À l’époque de Slovic, les risques chimiques
obtenaient les scores les plus forts pour ce critère. Enfin, la troisième raison est
l’étendue de la population exposée. Plus les dommages peuvent être larges et
plus la perception est négative. Ces trois critères sont déterminants. Les risques
effrayants, inconnus ou étendus, créent des perceptions plus négatives.
Les trouvailles de Slovic ont ensuite été validées par d’autres équipes dans
d’autres pays. Elles peuvent être considérées comme des traits généraux de la
psychologie humaine face aux risques. Deux conclusions émergent
immédiatement de chacune des étapes du paradigme psychométrique : la
première phase prouve que la perception du risque est quantifiable, la deuxième
montre qu’elle est au moins partiellement explicable et donc prédictible.
Slovic a ajouté d’autres interprétations dont la plupart restent valables. Le
grand public et les experts n’ont pas la même perception des risques parce qu’ils
ne lui donnent pas la même définition et donc pas le même sens. Les gens ont
une conception des risques plus large et plus riche. Les experts ne raisonnent
qu’en deux dimensions, à savoir probabilité × gravité, mais les individus
développent d’autres stratégies mentales. Ils intègrent plus de critères que les
seules données mathématiques, comme les qualités du risque, c’est-à-dire son
caractère effrayant ou inconnu. Ces qualités se traduisent en images mentales qui
provoquent tout un répertoire d’émotions. Or, comme l’a expliqué António
Damásio, les émotions précèdent les sentiments et ces sentiments jouent un rôle
dans la perception 18. Slovic a ainsi fait la distinction qui est restée, entre le
risque comme analyse et le risque comme sentiment (risk as analysis/risk as
feeling). Il est clair que les gens ont recours aux deux quand ils construisent leur
jugement des risques. Ils ne négligent pas l’aspect statistique, mais les
sentiments viennent ici encore provoquer une « déformation des probabilités ».
Damásio nous a appris qu’un cerveau suffit pour être intelligent mais qu’il faut
aussi un corps pour développer des sentiments 19. Les trouvailles de Slovic
suggèrent que les gens perçoivent les risques avec leur cerveau et avec leur
corps, y compris les risques de maladies.
Slovic a invité les experts et les leaders politiques à tenir compte de cette
diversité de critères dans leur communication à propos des risques. Les données
statistiques sont nécessaires mais si elles sont isolées, elles sont trop froides et
restent inefficaces. Les travaux de recherche montrent que des preuves
supplémentaires ne suffisent pas souvent à modifier la perception des gens, car
leurs vues initiales influencent la manière dont ces données mathématiques
seront interprétées. Pour les gens, le risque veut dire plus que des calculs.
En quoi les trouvailles de Slovic aident-elles à comprendre l’épidémiologie
populaire ? D’abord, Slovic a prouvé que les individus n’ont pas une approche
simpliste des risques mais qu’ils les évaluent de façon profonde et cohérente. Il y
a une logique dans la perception populaire des risques comme il y a une logique
dans la demande de risques et de maladies. Par analogie avec l’épidémiologie
populaire, Slovic a démontré qu’il existait une différence entre la perception des
experts et la perception populaire, une différence probablement incomplètement
comprise par certains professionnels et qui pénalise la prévention des risques.
Cette différence de perception n’implique pas que la conception populaire
manque de sens. Elle est couramment plus riche, comme l’a dit Slovic,
puisqu’elle tient compte d’un spectre large de caractéristiques. Il a prouvé que
les individus ne raisonnent pas seulement en termes de probabilité mais aussi
avec la sévérité, un phénomène commun à l’épidémiologie populaire. En
résumé, Slovic avait déjà décrit et analysé l’existence d’une science populaire
des risques qui n’est pas irrationnelle. Ses travaux soulignent une contradiction
apparente et non résolue : les gens trouvent que le monde est risqué et ils
surestiment certains risques, mais ils en sous-estiment manifestement d’autres
auxquels ils s’exposent. Ces risques rencontrent une demande de maladies sur le
marché de l’économie pathogène. Peut-être que les réponses doivent être
cherchées dans les facteurs prédictifs de perception : les caractères « effrayant »,
« inconnu » et « étendu ». Peut-être que les choses se passent comme si
beaucoup d’individus n’avaient pas peur des maladies ou qu’elles leur étaient
trop familières, voire qu’ils en sous-estimaient le potentiel. Un autre élément
déjà mentionné peut jouer un rôle, c’est la différence de perception entre les gens
qui n’ont jamais été exposés et ceux qui l’ont déjà été. L’exposition à tant de
risques étant devenue une banalité, son danger est dévalué, ce qui n’encourage
pas à se protéger.
Au total, l’épidémiologie populaire vise bien la vérité mais ne la trouve pas
toujours. Ses intentions et ses méthodes sont rationnelles, bien qu’elles
comportent des biais qui produisent des erreurs. Ces biais concernent les
données et leur traitement. Les données travaillées sont trop sélectives, ce qui
fausse les conclusions générales qu’en tirent les gens. En plus, l’analyse qu’ils
en font peut les tromper, notamment par excès d’inférence causale, c’est-à-dire
en ayant tendance à systématiquement voir une relation de cause à effet dans les
coïncidences d’événements. Ce sont ces erreurs qui expliquent une partie de
l’exposition involontaire aux risques mondiaux.

1. Stephen Frankel et al., « Lay epidemiology and the rationality of response to health education », The
British Journal of General Practice, 1991.
2. David Hume (1711-1776), philosophe des Lumières.
3. Daniel Bernoulli, Essai d’une nouvelle analyse de la mortalité causée par la petite vérole et des
avantages de l’inoculation pour le prévenir, Histoire et Mémoires de l’Académie des Sciences, 1760.
4. D’Alembert, Opuscules mathématiques, 1761.
5. Le nucléaire civil a aussi été largement vulnérable à cet effet psychologique. Même si son risque est très
faible, il fait très peur à cause de l’ampleur des dommages potentiels et son acceptation sociale est souvent
controversée.
6. Maurice Allais, Fondements d’une théorie positive des choix comportant un risque et critiques des
postulats et axiomes de l’École américaine, Dumas, 1955.
7. Andrew J. Wakefield et al., « Ileal-lymphoid-nodular hyperplasia, non-specific colitis, and pervasive
developmental disorder in children », The Lancet, 1998.
8. Sudhakar V. Nuti, Katrina Armstrong, « Lay epidemiology and vaccine acceptance », JAMA, 2021.
9. Amélie Yavchitz et al., « Misrepresentation of randomized controlled trials in press releases and news
coverage: a cohort study », PLoS Medicine, 2012.
10. Raymond Boudon, op. cit.
11. Tels que Thomas Kuhn les a valorisés dans La Structure des révolutions scientifiques (1962),
Flammarion, 2018.
12. Karl Popper, La Logique de la découverte scientifique (1935), Payot, 2007.
13. Yale University Press, 2019 (traduction de l’auteur).
14. Raymond Boudon, Le Rouet de Montaigne, Hermann, 2013.
15. Lucien Lévy-Bruhl, La Mentalité primitive (1922), Flammarion, 2010.
16. Slovic a appelé ce modèle « paradigme psychométrique ».
17. Paul Slovic, « Perception of risk », Science, 1987.
18. António Damásio, Spinoza avait raison, Odile Jacob, 2003.
19. António Damásio, Sentir et savoir, Odile Jacob, 2021.
7
La demande par inattention

La demande par dissociation mentale


Quand la demande de risques n’est pas due à une analyse erronée, elle peut
être liée à l’inattention. Notre fonctionnement mental est normalement dupliqué,
combinant des processus conscients et non conscients. Il arrive couramment et
même quotidiennement que nos comportements soient automatiques, en
parallèle d’autres moments où nous réfléchissons. C’est souvent lors de ces
séquences d’automatisme que nous nous exposons à des risques dont nous ne
voulons pas.
Daniel Kahneman est un champion de la dissociation entre nos deux
systèmes mentaux. Pour les schématiser, il parle de Système 1 et de Système 2 1.
Kahneman a passé la moitié de sa carrière à découvrir les mécanismes de nos
erreurs avec Amos Tversky, décédé prématurément en 1996. Les deux
psychologues ont étudié les biais qui nous trompent. Leur premier article de
référence analysait ces biais ainsi que les heuristiques, c’est-à-dire les stratégies
mentales simplistes cherchant à répondre aux questions difficiles 2. Surtout,
Kahneman et Tversky ont développé la théorie des perspectives, qui comprend
deux points principaux 3. Premièrement, les humains ont une aversion aux pertes.
La possibilité de perdre est perçue avec plus d’intensité — 1,5 à 2,5 fois plus
selon les recherches — que le gain éventuel. Comme l’ont écrit les deux
chercheurs, « les pertes l’emportent sur les gains ». Nous détestons plus perdre
que nous n’aimons gagner. Deuxièmement, l’évaluation des risques se fait par
rapport à un point de référence. Ces travaux permettront à Kahneman de recevoir
en 2002 le prix Nobel d’économie 4.

Un double système mental


Le Système 1 est responsable de la pensée rapide et le Système 2, de la
pensée lente. Le Système 1 est intuitif alors que le Système 2 mène des analyses.
La suite est attendue. Leurs qualités et leurs défauts sont symétriques. Le
Système 1 est plutôt rigide mais a l’avantage de nous faire fonctionner sans
effort cognitif, ce que ne peut pas faire le Système 2 qui est flexible mais
inefficient. Son travail lui prend du temps. De plus, il marche au doute quand il
cherche la vérité, une caractéristique absente du Système 1 qui se trompe plus
facilement.
Un point très important est que le Système 1 est obsédé par la logique
causale. Il fait sans cesse des rapprochements qu’il interprète comme des
relations de cause à effet, ce qui est parfois vrai mais pas toujours. Le Système 1
n’est pas fait pour le raisonnement statistique, qui s’applique mieux au monde
réel qu’au monde fictif qu’il croit voir. Le Système 2 peut adopter un
raisonnement statistique à condition qu’on le lui apprenne, ce qui n’est pas
évident ni répandu. Formulé autrement, le Système 1 est déterministe (une
cause → un effet), le Système 2 est probabiliste (plusieurs causes possibles par
effet d’une part, et d’autre part, une cause → peut-être un effet). Cette
préférence du Système 1 pour la causalité à tout prix le rend simpliste. Il a
besoin d’un monde cohérent et immédiatement compréhensible. Le Système 2
manie mieux la complexité que le Système 1 prend à tort pour une ambiguïté.
Mais les capacités et les connaissances du Système 2 ne sont pas illimitées et il
se trompe souvent lui aussi, à la fois de lui-même ou parce qu’il est mal
influencé par le Système 1.
Malgré leurs différences, le Système 1 et le Système 2 sont en relation
intime et constante. D’une part, le Système 1 émet des suggestions pour le
Système 2, qui le plus souvent les valide. C’est par ce schéma que les
impressions deviennent des convictions. Inversement, Kahneman nous dit que
« le Système 2 est en partie capable de modifier la façon de fonctionner du
Système 1, en programmant les fonctions normalement automatiques de
l’attention ». La relation est donc réciproque. Elle est souvent efficace et surtout
efficiente. Premièrement, elle est efficace car elle nous conduit fréquemment à
de bons jugements ou de bonnes attitudes, y compris pour nous-mêmes. Bien
que Kahneman explique à longueur de page les erreurs auxquelles nous
conduisent les deux systèmes, il est avéré que cette duplicité mentale marche
souvent, sinon l’espèce serait déjà éteinte. D’autre part, elle est efficiente car elle
nous fait fonctionner sans nous épuiser, ce qui est important car notre énergie
mentale est limitée. Dire que cette relation est efficace et efficiente, c’est donc
dire que non seulement elle tient mais qu’en plus, elle suit une règle que
Kahneman appelle « la loi du moindre effort ». Nous ne pourrions pas activer
sans arrêt le Système 2, à cause de la surcharge cognitive que cette conscience
continue provoquerait. Nous avons besoin des deux systèmes, et notamment du
Système 1 malgré ses limites.
La relation efficace et indissociable entre les deux systèmes repose pourtant
sur une hypocrisie ou en tout cas un non-dit. Dans ce couple, c’est le moins
intelligent qui a le premier rôle, c’est-à-dire le Système 1. António Damásio
parle d’ailleurs d’intelligence non explicite 5. Le Système 2 est nettement plus
intelligent mais il exerce un rôle marginal, tout en étant persuadé d’être le
premier. C’est bien le Système 1 qui est à l’origine de la plupart de nos choix et
de nos comportements. Il soumet parfois ses décisions au Système 2, qui
travaille comme un contrôleur laxiste. Quand le jugement intuitif se trompe, les
deux sont responsables, le Système 1 d’avoir fait une suggestion erronée, et le
Système 2 de l’avoir validée.

Les défauts du Système 1


Le Système 1 a beaucoup de défauts. Le principal est son obsession pour la
logique causale, une logique qui lui permet de répondre aux questions faciles
mais pas de résoudre les problèmes difficiles. D’ailleurs, quand il existe une
question difficile, le Système 1 a recours à ce que les psychologues appellent la
substitution. Il remplace la question délicate par une autre plus facile, et apporte
une réponse décalée. Cette logique causale amène le Système 1 à retenir une
vision simplifiée du monde, car elle lui paraît plus cohérente. Un autre problème
est qu’il se trompe souvent deux fois en même temps, d’une part en croyant à
une causalité mécanique (des choses), d’autre part en cherchant à tort une
causalité intentionnelle (des personnes). Chaque fois, il y a une surestimation de
la causalité et une sous-estimation du hasard ou de l’inconnu. Le Système 1 nous
fait voir le monde comme plus ordonné qu’il n’est, un phénomène que Weber
avait montré et que Boudon a réexpliqué.
Inversement, sa mauvaise compréhension des raisonnements statistiques
empêche le Système 1 d’analyser une quantité de problèmes. Par exemple, il ne
sait pas tenir compte de la régression à la moyenne, c’est-à-dire le fait qu’après
un événement anormal, les événements suivants ont toutes les chances d’être
différents et plus proches de la moyenne. Cette incompétence rend le Système 1
trop sensible aux valeurs extrêmes, à qui il donne trop de poids dans ses
prédictions. Pour désigner ce phénomène, Kahneman dit que les prédictions du
Système 1 ne sont pas régressives, une autre source d’erreur. Un dernier défaut
notable est qu’il ne peut pas être inactivé. Il nous est possible d’avoir recours à
notre Système 2 pour compenser les faiblesses du Système 1, mais pas de
l’éteindre. Le Système 1 est toujours allumé et potentiellement influent.
Malgré leurs défauts, nous avons besoin des deux systèmes pour fonctionner.
Ils sont responsables de nos intuitions et de nos analyses, donc de nos
performances et de nos erreurs. Nous nous appuyons sur un équilibre instable
mais en moyenne pratique entre les deux systèmes. Cette duplicité est un fait
mental normal. Dans l’ensemble, elle marche bien sauf quand elle ne marche
pas.
Une cause de la demande
En quoi la duplicité mentale provoque-t-elle une demande de risques ? Une
première réponse courte est bien l’inattention. Pour pouvoir nous faire
fonctionner sans nous fatiguer ou nous distraire, le Système 1 crée des
comportements automatiques. Or la plupart des comportements pathogènes sont
lourdement automatiques : l’inactivité physique, la mauvaise alimentation, le
tabagisme et la prise d’alcool. Ces comportements passent par des processus non
conscients. Ils forment des habitudes, un territoire taillé pour le Système 1.
L’addiction est aussi déterminante — elle sera abordée juste après —, mais elle
ne joue pas seule pour les activer. La plupart de nos attitudes pathogènes
appartiennent au Système 1 qui pousse des conduites dont le Système 2 ne veut
pas. Si le Système 1 n’existait pas, nous serions perpétuellement attentifs et ces
comportements seraient moins fréquents. La santé est un domaine où les deux
systèmes entrent en conflit.
En cumulé, les effets épidémiologiques de l’automatisme sont énormes.
Aucun pays n’y échappe. L’automatisme explique une proportion importante des
maladies chroniques et de la mortalité mondiale, à travers les cancers liés au
tabac et à l’alcool, ou les maladies métaboliques d’origine alimentaire et leurs
complications cardiovasculaires.

Les deux systèmes comme agents


de l’épidémiologie populaire
Il n’y a pas que l’inattention pour expliquer le rôle de la duplicité dans la
demande de risques. Il y a aussi l’obsession du Système 1 pour la logique
causale, qui est un mécanisme de l’épidémiologie populaire. En cherchant
systématiquement des causes et surtout des causes faciles, le Système 1 en
trouve plus qu’il n’y en a réellement. C’est par ce biais qu’il pousse les gens à
faire des masses d’erreurs sur les origines des maladies et de la mortalité. Les
individus spéculent sur les risques à partir de cas familiers ou dont ils ont
entendu parler, avec une tendance à voir des causes dans des coïncidences. En se
trompant sur les risques et leurs conséquences, ils peuvent les sous-estimer et
s’exposer plus qu’ils ne l’imaginent.
Quand il méconnaît la régression à la moyenne, le Système 1 amène les
individus à donner trop de valeur aux cas extrêmes, et là encore à fausser leurs
modèles mentaux des risques. Sa préférence pour la substitution est aussi
dommageable puisque les réponses aux questions faciles sont inadéquates pour
les questions complexes. Le Système 1 limite notre capacité à être sceptique et
donc à remettre en cause nos croyances, un mécanisme critique de progression
des connaissances. En simplifiant à peine, on observe que les défauts du
Système 1 font les faiblesses de l’épidémiologie populaire.
Il n’y a pas que les risques et les causes de maladies qui sont mal interprétés
par le Système 1, il y a aussi les ressorts de la bonne santé. La croyance dans une
logique causale élémentaire peut conduire à surestimer certains facteurs de
protection, ce qui est souvent le cas pour l’hérédité. Les gens pensent à tort
qu’une parenté favorable est une qualité qui l’emporte sur beaucoup d’autres,
alors que les études de jumeaux nous disent que nos données génétiques
n’expliquent que 25 % de notre espérance de vie. Les 75 % restants sont liés aux
trois autres déterminants, l’environnement, le comportement et la médecine.
La logique causale est un mode de pensée qui se pratique dans les deux sens.
Les croyances impliquent souvent des croyances inverses, aussi trompeuses et
compromettantes. Les individus achètent des causes s’ils pensent observer un
effet mais déduisent aussi des non-causes en l’absence d’effet. Si untel pourtant
lourdement exposé à tel risque n’est pas tombé malade comme prévu, les gens
tendent à dévaluer ce qu’ils avaient appris, qui est pourtant plus valable que leurs
examens ponctuels.
Le Système 2 devrait théoriquement nous protéger contre les erreurs de
l’épidémiologie populaire défendue par le Système 1, mais ce n’est pas facile.
Comme c’est le Système 1 qui produit les impressions à examiner, le Système 2
raisonne sur des données biaisées. Il arrive aussi que le Système 2 soit
directement coupable. Il a le potentiel pour atténuer ou annuler les effets
trompeurs de l’épidémiologie populaire, mais l’observation prouve qu’il ne
s’applique pas toujours. Kahneman dit qu’il ne fait pas assez d’efforts.

Le rôle de l’évolution
« Rien en biologie n’a de sens, excepté à la lumière de l’évolution. » C’est
par cette formule géniale et exagérée que Theodosius Dobzhansky a résumé une
clé de compréhension de sa discipline, la biologie. Comme beaucoup de traits de
l’espèce, notre duplicité mentale est un résultat de l’évolution. Dans cette
perspective, le Système 1 est son produit cognitif principal, celui qui a eu le plus
de temps pour se former et se raffiner. En étant intuitif et rapide, le Système 1
peut à la fois évaluer les risques et prendre des décisions instantanées, deux
qualités primordiales pour s’en sortir dans un environnement naturellement
prédateur. Comme l’écrit António Damásio, les humains avaient besoin de
« réactions simples qui favorisent la survie », une compétence typique du
Système 1. Un autre trait a été composé par l’évolution, c’est encore la logique
causale. Les humains recherchent des causes pour trouver du sens. Conclure à
des liens de cause à effet entre les événements a sûrement permis aux humains
préhistoriques de faire des prédictions pour éviter les risques. Il est
vraisemblable que ceux dont le Système 1 était défaillant étaient moins aptes et
qu’ils ont été progressivement éliminés.
Comment expliquer que l’évolution ait créé une duplicité mentale laissant
une part minoritaire au plus intelligent des deux systèmes ? La réponse de
Damásio est simple. Selon lui, c’est juste que l’évolution a eu moins de temps
pour former un système adapté à notre socialité. Alors que le Système 1 a eu des
millions d’années pour grandir, le Système 2 n’aurait eu que 10 000 ans. Le
déséquilibre entre un Système 1 majoritaire et un Système 2 secondaire serait la
traduction directe de cette asymétrie chronologique. Nous avons passé beaucoup
plus de temps à éviter des risques évidents dans des environnements simples
qu’à devoir analyser des situations physiques et sociales complexes. Notre
duplicité mentale inéquitable témoigne de cette disproportion.
Un troisième trait de notre mentalité porte la signature de l’évolution, c’est
l’aversion aux pertes. Dans un monde où les risques évidents étaient partout,
l’aptitude à les éviter était une condition pour survivre. Damásio pense même
que c’est sous l’effet des sentiments négatifs que la conscience est apparue au
cours de l’évolution. Au total, si la duplicité mentale avec un Système 1
dominant a été conservée par l’évolution, c’est qu’elle a bien fonctionné.
Pourquoi ce qui a bien marché ne fonctionne plus au XXIe siècle ? Une
réponse répandue met en cause une région de notre cerveau qui s’appelle le
striatum. Selon cette hypothèse, le striatum exercerait une influence sur nos
attitudes et notamment nos impulsions. Il pousserait de façon presque
automatique certains comportements dangereux pourvu qu’ils apportent du
plaisir à court terme. Cette vue est discutable, car le striatum participe à contrôler
notre cortex, mais il n’est pas la seule structure à le faire.
D’autres faits viennent contredire cette hypothèse du striatum et des humains
preneurs de risques. D’abord, l’évolution a produit une espèce humaine
diversifiée. Elle a travaillé de manière probabiliste et pas de façon clonale.
Agustín Fuentes souligne « la grande variabilité biologique » qui nous
caractérise, une preuve qu’il n’y a pas qu’un seul format humain disponible, qui
serait systématiquement programmé pour la recherche inconditionnelle de plaisir
en dépit du risque. Cette variabilité n’est pas partie pour s’éteindre. Depuis que
les humains ont commencé à étendre leur longévité, ils ont au contraire lutté
contre la sélection naturelle. Les moins aptes ont pu survivre. En atténuant la
pression de sélection, la société mondiale a augmenté son hétérogénéité, en
particulier à l’âge adulte. Dans tous les cas, la lecture évolutionniste de la
biologie humaine ne peut proposer que des tendances mais pas des lois, ce qui
vaut aussi pour notre fonctionnement mental qui n’est pas homogène.
Ensuite, l’évolution a aussi formé un Système 2. Même si elle a eu moins de
temps pour lui et même s’il n’est pas dominant, son potentiel est important. Il est
là pour contrarier certains comportements poussés par le Système 1, et pour
réorienter les individus vers une désexposition aux risques. Le fait que le
Système 2 nous permette d’apprendre et nous rende plastiques est une donnée
négligée par l’hypothèse du striatum.
Troisièmement, notre comportement dépend de notre environnement
physique et social. La théorie de l’évolution précise que les mutations aléatoires
influencent l’aptitude de l’espèce à survivre dans un environnement donné. C’est
là que tout se complique. Car l’environnement a énormément changé depuis
l’émergence du Système 1 et même depuis la formation du Système 2. Les
risques ne sont plus les mêmes. Le Système 1 était efficace pour éviter les
risques naturels et en particulier la prédation par les animaux, une éventualité
devenue pratiquement inexistante. Il est moins efficace voire impuissant contre
des éléments non évidents et lentement toxiques, qui sont des caractères des
risques du XXIe siècle. Ce n’est pas que nous sommes intrinsèquement
programmés pour prendre des risques. C’est que nous sommes vulnérables à
l’environnement tel qu’il a évolué. Il n’y a pas de « fatalité naturelle » à ce que
nous nous exposions toujours plus 6.
Ces éléments s’opposent aux théories simplistes qui prétendent que nous
serions des preneurs de risques. Agustín Fuentes estime que c’est « une
idéologie fragile 7 ». Pour lui, l’évolution aide à analyser certaines pièces du
puzzle contemporain mais ce n’est qu’une partie de l’explication.

Parler au Système 1 malgré tout


Comment faire pour réduire la demande de risques liée à notre duplicité
mentale ? Une réponse intuitive — peut-être une réponse du Système 1 — a
cherché à parler au Système 2. Beaucoup de politiques de santé publique ont
tenté de conscientiser ce qui ne l’était pas. Des campagnes ont essayé de mieux
informer les individus sur les risques qu’ils couraient et les approches pour en
prendre moins. Leur hypothèse est qu’il faut s’attaquer aux croyances ou agir sur
l’intention des gens pour les amener à opter pour des comportements moins
pathogènes de façon intelligente. Ces campagnes ont rencontré deux limites.
Premièrement, elles ont eu du mal à toucher réellement une population large.
Deuxièmement, la taille de l’effet était faible ou insignifiante, si tant est qu’il y
en avait un. Au total, leur efficacité n’a presque jamais été probante. En langage
technique, on dirait que ces méthodes ne sont pas facilement scalables 8,
l’éducation étant une activité difficilement industrialisable, ce qui est a priori
incompatible avec les problèmes de masse qu’elles essayent de résoudre.
Pour Theresa Marteau, les conclusions de ces échecs sont claires : comme le
Système 1 est le responsable principal de nos actions pathogènes, c’est lui qu’il
faut cibler. Marteau travaille à Cambridge où elle dirige l’unité de recherche sur
le comportement et la santé. Pour elle, les approches qui essayent de changer
intelligemment les comportements ont trois défauts 9. Le premier est conceptuel.
Ces approches commettent un contresens. Elles sont basées sur une vision
erronée puisqu’elles visent le changement en s’acharnant sur nos intentions alors
que les ressorts de la vie courante sont faits d’automatismes. Elles surestiment le
rôle du Système 2 dont les capacités sont en fait limitées. Elles l’encouragent à
prendre l’avantage sur le Système 1, un schéma pour lequel il n’est pas doué. Le
deuxième défaut est l’impossibilité pratique mentionnée d’un passage à
l’échelle. C’est la raison pour laquelle selon Marteau, les approches fortement
cognitives doivent être réservées aux comportements à haut risque mais pas aux
autres. Par comportements à haut risque, on veut surtout parler des risques
certains, graves et immédiats. Pour ces risques-là, une communication explicite
est sans doute largement efficace.
Enfin, les campagnes de santé publique qui interpellent le Système 2
privilégient, sans le vouloir mais factuellement, les individus les plus éduqués.
Ce sont les personnes ayant le plus de numératie et de littératie qui sont les plus
à même de comprendre et de répondre aux messages pro-santé. Parler au
Système 2 pour améliorer la santé est donc un moyen potentiel de réduire le
risque de maladies dans les groupes sociaux déjà instruits, qui sont ceux qui en
ont le moins besoin. Le risque est d’accentuer le gradient social de santé, c’est-à-
dire les différences épidémiologiques liées au capital social.
Ces défauts sont comme des pénalités qui empêchent les approches
intelligentes d’être efficaces. Il existe des masses d’études qui montrent bien que
l’information ne change pas le comportement, une observation qui conduit
Theresa Marteau à prescrire des actions tenant compte du Système 1. Les trois
limites des tentatives cognitives se convertissent point par point en atouts pour
les approches-Système 1. Premièrement, ces approches sont réalistes car elles
reconnaissent que beaucoup d’attitudes pathogènes relèvent d’automatismes.
Deuxièmement, elles sont scalables, ce qui implique que même quand leur effet
est minime, leur portée compense la taille de l’effet et l’impact final reste
substantiel. Troisièmement, elles peuvent atténuer les inégalités puisque nos
comportements automatiques sont moins dépendants du capital social.

1. Daniel Kahneman, Système 1/Système 2. Les deux vitesses de la pensée, Flammarion, 2012.
2. Amos Tversky, Daniel Kahneman, « Judgment under uncertainty: heuristics and biases », Science, 1974.
3. Daniel Kahneman, Amos Tversky, « Prospect theory: an analysis of decision under risk »,
Econometrica, 1979.
4. Les deux psychologues ont publié plusieurs de leurs travaux dans les revues de science économique, et
Kahneman a continué à le faire après la mort de Tversky, notamment en appliquant ses hypothèses ou ses
trouvailles à l’étude du comportement des agents économiques. Il est l’un des très rares non-économistes à
avoir reçu le Nobel d’économie.
5. António Damásio, Sentir et savoir, op. cit.
6. Stéphane Foucart, « Climat : laissez le cerveau en dehors de ça », Le Monde, 26-27 juin 2022.
er
7. Entretien avec l’auteur, le 1 février 2022.
8. Scalable : échelonnable ou extensible, autrement dit qu’on peut soumettre à un passage à l’échelle.
9. Theresa M. Marteau et al., « Beyond choice architecture: advancing the science of changing behaviour at
scale », BMC Public Health, 2021.
8
La demande par dépendance

L’addiction est un mécanisme majeur de la demande mondiale de risques et


de la production de maladies. Dans l’addiction, les gens s’exposent aux risques
mais pas parce qu’ils en sous-estiment la portée, ni parce qu’ils sont inattentifs 1.
Leur exposition vient du fait qu’ils se font attraper par la dépendance, qui
rapidement perpétue la demande ou l’augmente. Les gens ne se rendent pas
toujours compte de leur dépendance, leur demande de risques est donc plus ou
moins consciente. L’addiction est le contraire d’une demande libre. Une bonne
partie des addictions impliquent une ou plusieurs substances mais il existe des
addictions sans substance, des addictions comportementales. L’addiction aux
jeux de hasard et d’argent qu’on appelle jeu pathologique, est pour l’instant la
plus admise. D’autres comportements compulsifs comme les jeux vidéo ou la
relation aux médias sociaux sont déjà répertoriés, voire reconnus comme
addictifs.
La dépendance fait partie de l’addiction mais ne suffit pas à la définir.
D’ailleurs, la définition scientifique de l’addiction a évolué et reste un sujet de
controverse. Initialement, pour retenir le diagnostic, il fallait plusieurs critères
parmi les suivants : une dépendance, une tolérance c’est-à-dire une baisse de
l’effet pour une même quantité de substance (ou de comportement), une perte de
contrôle, une conduite compulsive, un syndrome de manque en cas d’arrêt, un
temps disproportionné passé à se procurer les substances consommées, des
répercussions sociales, une poursuite de l’action addictive malgré les problèmes
de santé. La communauté psychiatrique internationale a depuis réduit le nombre
de critères nécessaires, et le seul binôme dépendance/tolérance peut suffire à
définir une addiction. Les critères ont évolué parce que la connaissance et la
pensée scientifiques ont maturé, et que le monde physique et social a changé.
Aucune substance addictive n’a disparu mais de nouvelles substances ont été
inventées, ainsi que de nouvelles opportunités de comportements addictifs. Ces
variations théoriques et factuelles dessinent la taille de la demande et la taille de
l’offre, ce qui veut dire la taille du problème mais aussi du marché. Moins les
critères sont nombreux et plus la définition est large. Quand la définition est
élargie, l’épidémiologie des addictions s’étend.

L’addiction crée des clients captifs pour


les industries pathogènes
Au total, l’addiction explique une proportion importante de la demande de
risques. Dans la liste déjà décrite des risques mondiaux, beaucoup fonctionnent
ou même surperforment grâce à la dépendance. Certains sont illégaux mais
répandus, comme les drogues, héroïne et cocaïne en particulier. Beaucoup de
risques sont complètement légaux. Parmi eux, il y a ceux qui sont addictogènes
notoires, principalement le tabac et l’alcool. Mais il y en a aussi dont le caractère
addictif est de reconnaissance récente, notamment les aliments ultra-transformés.
On aurait pu s’attendre à ce que les addictions appartiennent exclusivement aux
risques comportementaux, en fait elles pénètrent aussi les risques métaboliques 2.
L’addiction est une énième illustration de la perméabilité entre les types de
risques.
Dans un premier schéma, le caractère addictif du risque est connu (alcool,
tabac, drogue), les individus s’exposent en supposant qu’il ne s’agit que d’une
expérience transitoire. Ils savent que la poursuite de l’exposition serait
dangereuse. Ils espèrent que l’expérience sera rapide et inoffensive, mais la
dépendance les contredit. Ils connaissent les risques, ils les estiment
correctement (leur épidémiologie populaire ne les trompe pas) et y sont attentifs
(le Système 1 n’opère pas). Pourtant, la dépendance les pousse à recommencer
— c’est son principe — après quelques expositions initialement normales. C’est
un cas clair où les individus font une demande de risques alors qu’ils ne veulent
pas de leurs effets mais que la dépendance l’emporte sur leur volonté profonde.
Il y a un cas où l’addiction fonctionne en association. Elle s’infiltre dans les
autres mécanismes de demande de risques, à savoir l’épidémiologie populaire et
la duplicité mentale (le Système 1/Système 2). Comme elle altère le
fonctionnement de la pensée, elle biaise les estimations faites par les gens quand
ils essayent de quantifier les risques, ce qui peut les conduire à minimiser les
probabilités de complications. L’exposition au risque addictif étant fréquente,
elle fait jouer le mécanisme de dissociation au cours du temps entre risk et
hazard. Plus on s’expose (risk) sans voir la complication (hazard), moins on a
peur. L’addiction peut aussi encourager les comportements automatiques, la
pensée rapide dépendante du Système 1, celle qui rend inattentif au risque.
Dans un deuxième schéma, le caractère addictif du risque n’est pas connu, et
les gens ne savent même pas qu’ils entrent dans une expérience de dépendance.
C’est typiquement le cas des risques alimentaires liés au fructose qui est partout
dans les produits ultra-transformés.
Pour les entreprises de l’économie pathogène, l’addiction est un mécanisme
extraordinairement sécurisant. Elle pourrait presque les dispenser de la recherche
de nouveaux clients grâce à ses deux caractéristiques fondamentales, à savoir la
dépendance et la tolérance. La dépendance assure la récurrence et donc la
perpétuation du business, et la tolérance permet la croissance du business sans
avoir à augmenter le nombre de clients. Comme les effets diminuent parce que
les corps s’habituent, il faut augmenter la consommation et donc la demande. Il
n’y a pas beaucoup de doutes sur le fait que le marché de l’addiction est en
expansion. Il l’est déjà par un effet démographique lié à la taille de la population.
Mais il est aussi clair qu’à population donnée, le taux d’exposition aux
addictions est en augmentation.
La croissance du marché implique mécaniquement la croissance de son
impact. L’épidémiologie des effets des addictions est en hausse. On sait que,
depuis les années 1990, le nombre de personnes dépendantes a augmenté rien
que pour l’alcool et les drogues 3. On estime qu’au moins 100 millions
d’individus dans le monde ont un problème d’addiction à l’alcool, 27 millions
aux opioïdes et 22 millions au cannabis. L’alcool est à l’origine de plus de
100 millions d’années de vie perdues ou malades, environ 5 % du fardeau
épidémiologique mondial. Pour les drogues, toutes substances confondues, ce
seraient 32 millions d’années de vie qui seraient perdues ou malades. Une
grande partie de ces effets épidémiologiques ne sont pas directs, ce ne sont ni
des overdoses ni des intoxications alcooliques mortelles mais plutôt des
violences, des suicides, des hépatites virales, des cirrhoses, des cancers. On peut
ajouter l’obésité liée à l’addiction aux écrans, jeux vidéo et médias sociaux, qui
encouragent l’inaction physique et une mauvaise alimentation. Beaucoup de ces
effets s’exercent souvent au-delà de la seule personne dépendante puisqu’ils
peuvent affecter la famille et l’entourage. L’épidémiologie du risque addictif
fonctionne à la fois par répercussion et par diffusion.
La carte mondiale des risques addictifs est hétérogène. En se limitant à
l’alcool et aux drogues, car c’est là qu’on dispose des meilleures données, on
observe que pour l’alcool, le fardeau le plus important se trouve en Europe de
l’Est, suivie de l’Afrique subsaharienne. Cette deuxième place de l’Afrique
subsaharienne, qui est en croissance pour l’impact de l’alcool, est un résultat de
la stratégie des industriels. Les entreprises ciblent la région et d’autres pays
pauvres où la régulation est lâche. Ils compensent la baisse de consommation des
pays développés dont la régulation s’est intensifiée. Pour les drogues, c’est en
Amérique du Nord que l’effet est le plus large, un problème déjà mentionné et
qui sera traité au chapitre suivant.
En se basant non plus sur la géographie mais sur le niveau de développement
économique, les chercheurs observent aussi des liens avec le type de risque
addictif. L’alcool se concentre préférentiellement dans les zones faiblement ou
moyennement développées. Les drogues marchent mieux dans les régions les
plus avancées. Comme pour d’autres risques mondiaux, par exemple la
pollution, le développement provoque une transition épidémiologique. Il fait
passer les individus d’un risque à l’autre, ici d’une dépendance à l’autre. Quand
la société change, les risques changent et les risques addictifs aussi. Mais même
parmi les pays développés qui investissent dans le traitement des addictions, il
existe des variations importantes, surtout pour l’alcool. Les causes de ces
différences ne sont pas claires.

Les causes de l’addiction


L’addiction se forme par la rencontre malheureuse de trois éléments : une
substance (ou un comportement), une personne et un environnement. Par
environnement, on veut dire environnement social, comme la disponibilité des
substances, leur prix abordable, mais aussi l’existence d’alternatives saines ou
les autres opportunités. Ce schéma en triangle en rappelle d’autres, en particulier
celui des infections émergentes, où la substance addictive est remplacée par le
nouveau microbe, la personne par l’hôte (qui peut être un animal) et
l’environnement social par l’environnement tout court, c’est-à-dire physique et
social 4. C’est un schéma classique en médecine et en sciences. Les trois
éléments sont nécessaires pour créer une vraie addiction. Si l’un d’entre eux
manque ou n’est pas assez puissant, l’histoire addictive ne se fera pas. La prise
de substance pourra exister mais ponctuellement, et sans problème de
dépendance. Inversement, si les trois éléments ont un fort potentiel — une
substance très addictive, une personne vulnérable et des conditions
misérables —, alors l’histoire devient probable et se terminera mal. Chacun des
trois éléments est influencé par une multitude de facteurs, ce qui fait qu’ils ne
sont pas statiques et que le triangle peut bouger. D’abord, les risques addictifs
sont nombreux ; certains déclinent mais d’autres sont créés par des industries
légales ou illégales. Ensuite, les personnalités des individus évoluent, elles se
fragilisent ou se renforcent, ce qui explique que la guérison soit possible dans les
addictions. Enfin, la société est hétérogène, mais surtout elle change tout le
temps.
Il n’y a pas que des facteurs extérieurs au triangle qui le rendent instable.
Les relations entre les trois éléments eux-mêmes le font évoluer. Par exemple,
l’activité addictive produit des plaisirs qui permettent aux individus de réduire
leur socialité et donc leur environnement. Les personnes dépendantes finissent
souvent par ne plus voir que leurs dealers ou les relations avec qui elles
consomment des drogues légales ou illégales. Leurs options sociales se
contractent alors qu’elles étaient déjà limitées.
Par ailleurs, les individus qui entrent dans l’addiction changent eux-mêmes
sous l’effet de l’expérience quand elle se prolonge. Un trait régulier est qu’ils
perdent en flexibilité. Ils se sentent moins protégés et ils mentent plus. Le risque
est bien sûr qu’en altérant leur caractère, l’addiction augmente encore plus leur
vulnérabilité à la dépendance. Ces exemples montrent que les relations entre les
éléments du triangle sont mutuelles. Elles fonctionnent ou dysfonctionnent dans
les deux sens. Il y a toujours un triangle dans une histoire addictive mais ce
triangle est dynamique, ce qui rend les situations instables. Chaque histoire
addictive se fait son propre triangle, avec toutefois des tendances. Certaines
substances sont plus addictives que d’autres, c’est le cas de l’héroïne ou du
tabac. Il y a des conditions sociales qui sont plus à risque, quand l’offre addictive
est abondante et que les offres concurrentes sont rares ou inexistantes.
Enfin, nous n’avons pas tous la même vulnérabilité à la dépendance. C’est
une observation évidente mais l’explication ne l’est pas. Depuis les années 1980,
un nouveau modèle de compréhension de la vulnérabilité a émergé. Ce modèle
considère que l’addiction est causée par une maladie du cerveau, les Anglo-
Saxons parlent de brain-disease model. Alan Leshner a longtemps été le
directeur de l’Institut national scientifique américain des drogues. Dans un
article influent publié en 1997 et cité des milliers de fois, il a résumé l’état des
connaissances 5. À l’époque, cela faisait une vingtaine d’années que les
neurosciences raffinaient progressivement la validité du modèle. Les chercheurs
avaient pu isoler des récepteurs aux drogues. Ces récepteurs se liaient ensuite
eux-mêmes à ce qu’on appelle des ligands, pour déclencher une avalanche
biochimique dans les cellules cérébrales. Ces réactions en chaîne expliquent les
effets ressentis par les individus qui prennent des substances addictives.
D’autres travaux avaient montré des différences entre le cerveau de
personnes dépendantes et non dépendantes, un élément central pour montrer
qu’il se passe quelque chose de pathologique. Un objectif du modèle était
d’extraire les individus de la stigmatisation et de la moralisation. Depuis que les
drogues et les addictions existent, une notion prétend que les individus touchés
sont faibles ou mauvais, qu’ils ne veulent pas mener une vie morale ou qu’ils ont
tort de ne pas se contrôler. En traitant l’addiction comme une maladie dont le
foyer est le cerveau, les scientifiques disent que la prise de substances n’est pas
quelque chose que les individus font mais plutôt quelque chose qui leur arrive.
Pour Leshner, c’était donc une bonne nouvelle.
D’après le brain-disease model, la pathologie cérébrale prédispose à
l’addiction mais elle résulte aussi de la prise de substances. C’est à la fois une
cause et une conséquence de l’activité addictive. Depuis l’article de Leshner, les
recherches en imagerie, en biologie et en pharmacie ont produit des arguments
qui crédibilisent le modèle. Elles ont montré que le passage de l’impulsion à la
compulsion — un trait typique du profil addictif — était lié à l’activation du
striatum. L’impulsion est une action relativement libre mais dans la compulsion,
les individus se sentent forcés d’agir sous peine d’angoisse. D’autres travaux ont
mis en évidence une perte de connexion entre le striatum et le cortex préfrontal,
qui se traduit par une baisse de la densité synaptique entre les deux régions, les
synapses étant la zone de contact entre deux neurones. Il a été aussi trouvé que
les individus dépendants étaient sensibilisés aux drogues, un phénomène lié à
une augmentation de dopamine dans une autre région du cerveau. La poursuite
de la consommation est associée à une baisse de disponibilité des récepteurs à la
dopamine, ce qui cause une perte de plaisir. Les scientifiques parlent
d’atténuation dopaminergique. Ces données anatomiques ou biologiques sont
factuelles. Elles ne sont pas des preuves totales mais sont comme des arguments
qui suggèrent qu’il se passe quelque chose dans le cerveau des personnes
addictives, une anomalie qui leur échappe.
Ce modèle de l’addiction comme pathologie cérébrale est admis par une
large part des scientifiques, ce qui ne l’empêche pas d’être critiqué. On trouve au
moins deux lignes de reproches. La première accuse le modèle de négliger les
causes sociales, c’est-à-dire un des trois points du triangle. Les expériences
négatives dans l’enfance augmentent la probabilité d’addiction adulte. Les
traumatismes physiques ou mentaux rendent aussi les individus plus susceptibles
de développer des addictions. Les critiques disent qu’en désignant l’addiction
comme une maladie, le modèle préparerait les individus à rechuter, ce qu’ils ne
veulent pas. Surtout, alors que le modèle visait à déstigmatiser les personnes en
addiction, des chercheurs en sciences sociales l’accusent de les marginaliser
encore plus 6. Pour eux, le modèle les séquestre en supposant que les gens sont
biologiquement incapables de faire les bons choix. L’exclusion sociale serait
ainsi « justifiée par leurs défauts biologiques et leurs cerveaux endommagés ».
Ces chercheurs estiment que le modèle a pu faire sortir les personnes
dépendantes de la moralisation mais pas de la stigmatisation. Ils dénoncent aussi
l’emprise qu’aurait voulu exercer la médecine sur les addictions : si c’est une
maladie, la solution se trouve dans la médecine et la pharmacie. Soit dit en
passant, les reproches faits au modèle pathologique ressemblent aux critiques
adressées aux modèles de maladies psychiatriques en général. La conception des
maladies mentales a provoqué depuis longtemps ce genre de controverses.
La deuxième couche de critiques contre le modèle pathologique est plus
subtile. Elle ne voit pas l’addiction comme une maladie mais comme un
apprentissage. Pour ce modèle concurrent, l’addiction est une réponse
problématique mais naturelle, voire rationnelle, aux aléas de l’existence 7. C’est
bien une réaction dommageable mais pas une maladie. Quand ils sont jeunes et
vulnérables, ou qu’ils ont accumulé de l’adversité, les individus trouvent plus de
sens dans les drogues puisqu’elles réduisent leur stress, ou parce qu’elles
produisent un sentiment de soulagement. Ces effets peuvent être obtenus sans
avoir besoin d’autres personnes, ce qui est perçu comme un avantage quand on a
une expérience négative de la socialité.
Le modèle d’apprentissage ne discute pas qu’il y ait des anomalies
cérébrales chez beaucoup de patients dépendants mais il les interprète autrement.
Ses partisans soulignent que certains changements du cerveau comme la perte de
densité synaptique n’ont été observés que pendant les périodes d’activité
addictive. Il a été montré au contraire qu’une croissance synaptique existait lors
de périodes d’abstinence. Cette plasticité neuronale qui marche dans les deux
sens serait cohérente avec le fait que la plupart des individus dépendants peuvent
guérir et surtout guérir sans traitement. Pour les chercheurs qui croient à
l’apprentissage, si les changements cérébraux étaient pathologiques, ils seraient
définitifs et cette réversion des phénomènes serait impossible.
Les partisans du modèle pathologique ont développé des réponses aux
critiques 8. Une attaque récurrente souligne l’absence de lésion démontrée
comme cause de la maladie. Les différences en imagerie entre les cerveaux
dépendants et non dépendants ne sont pas spécifiques. Elles ne prouvent pas
totalement leur rôle causal. Elles ressemblent à d’autres anomalies trouvées dans
d’autres affections psychiatriques. Mais ceux qui défendent le modèle rappellent
que l’imagerie dans sa forme actuelle est trop limitée techniquement pour faire
des différences fines au milieu de la complexité du cerveau.
Un autre argument contre le modèle pathologique serait que les individus
atteignent souvent la rémission sans traitement, c’est-à-dire qu’ils guérissent par
eux-mêmes de leur addiction. Ce serait une preuve qu’il n’y a pas de maladie. En
fait, les données cliniques et épidémiologiques sur la rémission sont fragiles et
difficiles à interpréter. Par ailleurs, les rémissions spontanées sont également
possibles dans les maladies chroniques et pas seulement les maladies mentales.
Une autre critique cible l’absence de gène de l’addiction. C’est vrai, mais les
études sur les jumeaux montrent que la génétique doit expliquer plus de 50 %
d’une vulnérabilité à la dépendance pour l’alcool, et plus encore pour les
opioïdes. Par ailleurs, la science génétique fonctionne aujourd’hui sur des
modèles impliquant plusieurs gènes pour expliquer une maladie. Le risque
génétique est surtout polygénique. C’est le cas dans l’addiction, même si sa force
est inférieure aux scores de risque polygénique de dépression ou de
schizophrénie.
Le modèle de l’addiction comme pathologie ne nie pas le rôle de
l’environnement social, c’est-à-dire la réalité d’un triangle et pas seulement d’un
segment reliant la personne et la substance. Dans son article historique, Leshner
lui-même reconnaissait l’importance des facteurs sociaux. Par ailleurs, le modèle
est hétérogène et probabiliste. Il ne suppose pas que toutes les personnes
dépendantes aient la même maladie cérébrale. L’effet d’une éventuelle anomalie
du cerveau est variable, dominant dans certains cas, minime ou absent chez
d’autres personnes. Cet effet est statistiquement supérieur dans le cas des
opioïdes par rapport au tabac ou à l’alcool. A. Thomas McLellan l’avait compris
assez tôt.
McLellan cumule quarante ans de carrière scientifique et administrative dans
le domaine des addictions. Dans un article publié en 2000 dans le Journal of the
American Medical Association, McLellan déplorait que la dépendance ait été
trop vue comme un problème social et pas assez comme un problème de santé 9.
Dans son examen systématique des données scientifiques, il ne trouvait pas de
différence de composition entre les addictions et d’autres pathologies courantes
comme le diabète, l’hypertension ou l’asthme :

• Toutes ont une origine génétique mais qui n’explique pas tout.
• Elles ont aussi une part environnementale.
• Les choix des individus importent mais c’est aussi le cas dans les autres
maladies chroniques.
• La récidive est possible.
• Il existe des médicaments efficaces.
• Le traitement pose des problèmes d’adhérence, ce qui est là encore un trait
banal.

Sous cet angle qui est un angle scientifique, il est clair que les addictions
sont des maladies comme les autres. C’est un fait au sens médical même si ce
n’est pas tout à fait vrai socialement.

Les addictions de la transformation alimentaire


L’addiction alimentaire est de reconnaissance récente et incomplète. Cette
difficulté d’admission tient peut-être à la nature particulière de l’alimentation : il
faut manger pour survivre alors qu’il n’est pas indispensable de fumer ou de se
droguer. L’addiction alimentaire advient avec certaines substances qui n’ont rien
d’essentiel : les produits ultra-transformés déjà largement décrits. La fréquence
de l’addiction alimentaire a été estimée à environ 10 % dans certaines
populations, ce qui est moins que la fréquence du surpoids ou de l’obésité mais
comparable à la proportion des troubles addictifs légaux en général.
Pour que l’addiction alimentaire existe, il a fallu altérer l’alimentation.
Avant les aliments ultra-transformés, le triangle était incomplet et il n’y avait pas
de problème. Seuls le café et l’alcool étaient addictogènes, mais ni l’un ni l’autre
ne sont essentiels. L’alimentation naturelle n’avait pas le pouvoir de susciter de
dépendance, même chez les individus vulnérables. Les industriels ont su combler
cette lacune pour créer un triangle qui marche. En transformant les aliments, en
particulier en ajoutant du fructose, les industriels ont réussi à créer en moins de
cinquante ans un des plus gros marchés de la dépendance toxique de l’histoire. Il
existe une relation directe entre la transformation et l’addiction, ce qui est un
trait de toutes les drogues. Les feuilles de coca en Bolivie ou les pavots d’opium
ont des effets thérapeutiques, mais leur transformation les a convertis en cocaïne
et en héroïne qui sont des drogues. Dans l’alimentation comme ailleurs, c’est la
transformation qui fait le poison. Elle cause à la fois la toxicité et la perte de
contrôle face aux produits. La transformation pousse les humains à manger des
aliments qui leur font du mal même quand ils n’ont pas faim.
Les indices du potentiel addictif des aliments ultra-transformés se sont
accumulés depuis qu’ils sont largement répandus. Au moins quatre couches de
données sont probantes, de la plus petite à la plus grande échelle : les données
animales, les données cliniques, les données épidémiologiques et même des
données économiques. Les preuves animales viennent des expérimentations qui
ont démontré l’addiction au fructose 10. En donner aux animaux provoque des
changements comportementaux typiques de la dépendance : une boulimie, un
syndrome de manque et des envies violentes. Le fructose permet aussi de
sensibiliser les animaux aux autres drogues, ce qui est un trait fréquent dans les
addictions, une attitude que les médecins appellent polyconsommation.
Inversement, créer une dépendance aux opioïdes chez des rats peut les rendre
boulimiques de fructose, par altération des circuits de la récompense. Des
chercheurs ont aussi mesuré que les rats ressentaient un plaisir supérieur avec le
fructose qu’avec la cocaïne.
Une deuxième source de données vient des études cliniques. Par exemple, le
sucre est donné aux nourrissons pour ses effets antidouleur lors des
circoncisions, ce qui suggère un effet opioïde auprès du cerveau. Des études
d’imagerie cérébrale chez des adultes ont montré que le fructose activait le
système limbique, une région responsable des émotions. Cette activation paraît
spécifique du fructose puisque la prise de graisses active plutôt les zones de la
sensation en bouche. Des enquêtes menées auprès d’adultes dépendants au sucre
ont trouvé que ces personnes étaient affectées de syndromes de manque. Quand
elles stoppent leur consommation, elles se sentent anxieuses ou déprimées,
fragilisées voire tremblantes, ou simplement irritables, des signes non
spécifiques mais qu’on retrouve après arrêt des opioïdes. Les individus ayant une
addiction au sucre n’échappent pas à une loi bien connue de la dépendance qui
est la transition des sentiments. Avant l’entrée dans l’addiction, la consommation
peut être occasionnelle voire ponctuelle et à ce stade, les gens l’aiment bien.
Quand ils ont atteint l’état addictif, les gens pensent moins au fait qu’ils aiment
leur substance, ils se disent juste qu’ils en veulent. En phase plus avancée, ces
questions ne sont plus posées. Les gens les plus dépendants ne ressentent que du
besoin.
Le fructose altère l’humeur et régule à la baisse les récepteurs de dopamine,
ce qui fait qu’il en faut toujours plus pour produire un effet de plaisir. C’est le
principe de la tolérance. On sait aussi que certains traits génétiques augmentent à
la fois le risque d’addiction aux drogues et le risque de recherche de sucre, ce qui
suggère sans le démontrer que certaines personnes sont plus susceptibles de
devenir dépendantes au sucre. Enfin, on a observé que les individus ayant une
dépendance au sucre ont souvent une antécédence. Ils sont passés d’une
addiction à l’autre. En ayant arrêté de fumer, ils ont pu commencer à boire plus
de café ou plus d’alcool. Puis lors de la décroissance d’une boisson quelle
qu’elle soit, ils sont tombés dans le sucre. Ces comportements activent tous le
même système de plaisir, celui qui passe par la dopamine.
Troisièmement, il existe des données épidémiologiques. Il est certain que les
humains mangent plus qu’il y a cinquante ans et encore plus qu’il y a cent ans.
Or nous ne mangeons pas plus de tout. Nous ne mangeons pas plus de légumes,
par exemple. Le type d’aliments que nous consommons beaucoup plus qu’avant
correspond surtout aux aliments ultra-transformés. Cette sélectivité dans la
croissance de consommation est un signe indirect de la dépendance que
l’industrie a créée pour ces produits.
Il existe un quatrième type d’arguments, d’ordre économique, en faveur du
caractère addictif des aliments transformés. Leurs ventes sont peu sensibles à
leurs prix. Quand les industriels les commercialisent plus cher, la consommation
ne baisse pas ou en tout cas, elle baisse moins que les prix n’augmentent. Les
économistes parlent d’inélasticité au prix, un phénomène particulièrement vrai
pour le fast-food et les sodas, et qui avait déjà été montré avec le café. Ces
quatre lignes de données sont spécifiques des produits ultra-transformés et en
particulier du fructose. Elles ne sont pas valables pour le sel et les graisses. Les
deux sont mauvais pour la santé même si leur potentiel toxique est variable, mais
ils ne créent pas de dépendance comme le fructose.
En développant les aliments transformés dont le fructose est un leader, les
industriels ont posé un point majeur de la géométrie d’une nouvelle addiction.
Mais pour faire un triangle impeccable, outre la substance et l’individu, il fallait
un troisième point et là encore, les entreprises alimentaires ont réussi. Elles ont
méticuleusement créé un environnement apte à pousser l’achat de produits non
naturels. L’industrie du tabac avait inventé le modèle et son génie de la
tromperie a été imité, avec des résultats aussi flagrants et massifs. Le tabac a
bien marché parce qu’il était 1) légal, 2) facilement accessible, 3) bon marché,
4) lourdement marketé. Le succès commercial du tabac n’est pas seulement lié à
sa dissémination dans la population mondiale. Il est aussi dû au fait que
l’industrie de la cigarette est parvenue à générer non seulement beaucoup de
fumeurs, mais surtout des grands fumeurs. Tous ces points se retrouvent
exactement dans l’industrie des aliments ultra-transformés. Le fructose et les
autres produits apparentés sont 1) légaux, 2) faciles à trouver puisqu’ils
envahissent les supermarchés, 3) pas chers et surtout moins chers que les
aliments frais qui sont neutres ou bons pour la santé, 4) lourdement marketés et
de façon malhonnête.
Ces facteurs expliquent que les produits ultra-transformés deviennent
difficilement évitables, et que de plus en plus de gens en soient des
consommateurs lourds. Ils en mangent chaque jour et beaucoup, couramment
aux trois repas voire plus encore, puisque la dépendance fait créer des repas
supplémentaires à des heures non conventionnelles. Les industriels savent que
plus la teneur en fructose augmente, plus les gens achètent leurs produits, et c’est
d’ailleurs ce qui s’est passé. Notre environnement alimentaire est saturé de
produits très transformés : des glaces, des chips, des pizzas ou des produits
chocolatés. Ces aliments envoient du plaisir mais leur caractère addictif est
caché, ce qui fait leur perversité.
Là non plus, les points du triangle ne sont pas indépendants les uns des
autres. Les deux points conçus par les industriels, à savoir les produits et
l’environnement, influencent le troisième. Ils sont tellement puissants qu’ils
abaissent le seuil d’entrée dans l’addiction alimentaire. Si ces deux points
n’avaient pas été efficaces, une bonne part des personnes dépendantes au
fructose seraient restées dans une expérience alimentaire normale. Il existe des
différences individuelles qui définissent des susceptibilités à développer une
addiction au fructose. Ces différences sont souvent les mêmes que celles
impliquées dans d’autres addictions, comme l’impulsivité attentionnelle. Mais la
quantité de fructose en circulation détermine la proportion de population qui
finira en situation addictive. Ces susceptibilités existaient déjà avant la diffusion
large de ces aliments ultra-transformés, mais tant que les produits étaient rares et
moins dominants, ces sensibilités restaient latentes. On ne les connaissait pas et
elles ne s’exprimaient pas. Il n’y avait pas de demande possible de risque
métabolique quand l’offre était minime ou inexistante. Le marché de
l’alimentation est un cas typique où l’offre a boosté la demande.

1. La sous-estimation est un résultat de l’épidémiologie populaire et l’inattention est une conséquence de la


domination du Système 1.
2. Voire environnementaux, puisque plusieurs auteurs ont souligné une dépendance aux fossiles (pétrole,
charbon et gaz) pour pratiquement 100 % des humains.
3. GBD 2016 Alcohol and Drug Use Collaborators, « The global burden of disease attributable to alcohol
and drug use in 195 countries and territories, 1990-2016: a systematic analysis for the Global Burden of
Disease study 2016 », The Lancet Psychiatry, 2018.
4. David M. Morens, Anthony S. Fauci, « Emerging pandemic diseases: how we got to COVID-19 », Cell,
2020.
5. Alan I. Leshner, « Addiction is a brain disease, and it matters », Science, 1997.
6. Anne K. Lie et al., « The harms of constructing addiction as a chronic, relapsing brain disease »,
American Journal of Public Health, 2022.
7. Marc Lewis, « Brain change in addiction as learning, not disease », NEJM, 2018.
8. Markus Heilig et al., « Addiction as a brain disease revised: why it still matters, and the need for
consilience », Neuropsychopharmacology, 2021.
9. A. Thomas McLellan et al., « Drug dependence, a chronic medical illness: implications for treatment,
insurance, and outcomes evaluation », JAMA, 2000.
10. Robert H. Lustig, « Ultra-processed food: addictive, toxic and ready for regulation », Nutrients, 2020.
9
La demande du désespoir

Pourquoi les gens se font-ils du mal en le sachant ? La question occupe les


philosophes depuis toujours et a suscité une quantité incalculable de littérature.
Pour Maxime Rovère, chercheur en philosophie et spécialiste de Spinoza, sa
discipline est même née de cette préoccupation 1. Il y a eu quelque chose de
toxique dans la conception des premières sociétés. Les pionniers de la
philosophie s’en sont étonnés et s’y sont intéressés.
Dans les situations déjà citées ou traitées, il y avait une excuse : les gens
prennent des risques et se font du mal par méconnaissance, par erreur d’analyse,
par inattention ou par addiction. Ces explications nous laissent sans réponse
quant à l’éventualité où les individus persévèrent consciemment dans une
exposition. Ils savent que le risque est important. Ils n’ont pas toutes les données
ni les moyens cognitifs de le calculer — les épidémiologistes non plus —, mais
ils sont suffisamment au courant que le risque est sérieux. Chacun sait que cette
situation est banale et complexe. Elle n’est pas le résultat d’une seule cause.
D’ailleurs, la question n’est peut-être pas tant « pourquoi une demande
consciente de risque est-elle possible ? » que « pourquoi la demande est-elle en
croissance au XXIe siècle ? ». Il n’y a pas de réponse définitive et de toute façon,
les données manquent. L’offre joue un rôle mais elle ne fait pas tout. Elle excite
une demande latente mais elle ne la crée pas totalement. Il faudra se limiter à
assembler des fragments de preuves et des hypothèses, sans prétendre à une
théorie totale.
Déterminants sociaux et mentaux
Deux réponses partielles peuvent être rapidement évacuées, celles où
l’attitude pathogène est principalement déterminée par les conditions matérielles
ou par une maladie mentale dominante. Dans le cas des conditions matérielles,
les gens dépendent des déterminants sociaux. Par exemple, l’alimentation
pathogène est plusieurs fois moins chère que les aliments frais qui sont
inabordables. Ou les milieux de vie pollués sont les seuls que les gens pauvres
peuvent se payer.
Ensuite, il y a les maladies mentales. Plus d’un milliard d’humains sont
touchés si on inclut l’addiction 2. Même s’il y a toute une gamme de situations
entre le normal et le pathologique en matière de santé mentale, il existe
indéniablement des individus ayant une pathologie. La dépression et l’anxiété
sont les plus fréquentes. Il y a aussi la maladie bipolaire, la schizophrénie et les
troubles du spectre autistique. Toutes sont reconnues et responsables d’un
handicap, dont le taux global n’a pas baissé depuis les années 1990 3. Beaucoup
d’entre elles sont associées à une probabilité supérieure de comportements
pathogènes. Aux États-Unis, les personnes ayant une pathologie mentale fument
deux à quatre fois plus que la moyenne de la population 4. Les patients
schizophrènes ont une tendance addictive nette et se droguent plus souvent. Ils
sont aussi plus susceptibles d’être atteints de maladies métaboliques, notamment
de diabète à cause de leur alimentation. Les médicaments qu’ils prennent contre
leur psychose jouent un rôle car ils ont des effets secondaires, mais peu importe
car le traitement fait maintenant partie de la maladie. Dans l’ensemble, les gens
ayant une maladie mentale sont de bons clients pour les entreprises de
l’économie pathogène, car leur maladie les rend sensibles à l’offre. Souvent, ces
pathologies exercent une emprise tellement intense sur la conscience que les
comportements s’imposent aux individus. La maladie leur enlève de la liberté de
choix.
Dans les deux cas des déterminants sociaux et mentaux, les gens sont
demandeurs malgré eux. Ils comprennent les risques qu’ils courent et voudraient
faire autrement, mais ils ne peuvent pas. Pour les autres, ceux qui ont la liberté
matérielle et psychologique, la question de la logique de la demande est intacte.
Ces personnes ont la possibilité physique et mentale de se protéger, mais elles
adoptent des attitudes systématiques à risque de maladie et de mort prématurée.
Elles fument, boivent ou mangent mal, tout en étant suffisamment conscientes de
la probabilité et de la taille des complications attendues. La dépendance ne suffit
pas à expliquer la poursuite des habitudes pathogènes. Ces gens ont une liberté
raisonnable et décident d’investir dans la maladie plutôt que dans la santé.

Le désespoir américain
Les États-Unis ont livré le cas le plus accentué de cette situation au
e
XXI siècle. Ils ont conduit une expérience naturelle non intentionnelle dans
laquelle l’offre et la demande ont pu se toucher comme jamais. Anne Case et
Angus Deaton ont été parmi les premiers à s’y intéresser. Tous les deux
économistes à Princeton et par ailleurs en couple, ils ont étudié en profondeur
l’évolution récente de la mortalité américaine et ses ressorts. Dans un premier
papier de recherche paru en 2015, Case et Deaton ont observé une hausse de
mortalité chez les hommes et les femmes blancs non hispaniques d’âge moyen 5.
La période d’étude va de 1999 à 2013 et l’augmentation des taux de décès aurait
commencé vers 2000. Cette inversion de tendance de mortalité — depuis la
Seconde Guerre mondiale, elle n’avait fait que baisser — est une exclusivité
américaine. Aucun pays comparable n’a déploré de changement similaire. Les
autres groupes ethniques américains, c’est-à-dire les Noirs et les Hispaniques,
n’étaient pas affectés par ce retournement épidémiologique. Ils continuaient de
voir leurs taux de mortalité diminuer, tout comme les Blancs plus âgés.
Un petit nombre de causes expliquaient un grand nombre de morts. La prise
de drogues et de médicaments opioïdes, les suicides et les maladies du foie
d’origine alcoolique étaient largement impliqués dans le supplément de
mortalité. Case et Deaton les ont appelées les morts du désespoir, une expression
qui est restée. Aucune de ces morts n’est une mort naturelle. Les humains en
sont les auteurs et les acteurs exclusifs. Un autre phénomène déjà mentionné
participait à la hausse des décès, à savoir la mortalité cardiovasculaire. Ce
premier travail ne cherchait pas encore à approcher les causes des attitudes
pathogènes, il n’identifiait que les causes de mort. Les deux chercheurs
détectaient déjà quand même un déclin parallèle de la santé mentale des
Américains, une hausse des problèmes de douleurs chroniques, quelle qu’en soit
l’origine, et une détérioration de la vie normale.
Case et Deaton ont publié la suite de leurs recherches deux ans plus tard.
Avec un recul supplémentaire, ils ont confirmé une hausse de mortalité qui
commençait à affecter la longévité américaine 6. L’espérance de vie aux États-
Unis a atteint un plateau en 2014, avant de baisser au cours des trois années
suivantes (2015-2017), une descente là encore inédite depuis la Seconde Guerre
mondiale. Les trois causes déjà repérées, à savoir les opioïdes, les suicides et
l’alcool, continuaient de participer à une bonne part de la hausse des décès. Cette
augmentation touchait toujours les Blancs non diplômés, c’est-à-dire ceux qui
n’étaient pas allés au-delà du lycée. Dans cet article, les deux chercheurs ont
voulu aller plus loin que les causes immédiates de mort prématurée. Ils ont
essayé de comprendre les causes des causes, c’est-à-dire les raisons qui
poussaient certains Américains à s’exposer aux opioïdes ou à l’alcool, voire à se
suicider directement. Case et Deaton se sont intéressés à la logique de la
demande.
Une hypothèse intuitive est qu’il pourrait s’agir d’une logique économique.
Villermé avait étudié les liens entre les revenus et la mortalité à Paris au
e
XIX siècle. Il avait montré une association statistique forte, toutes choses égales
par ailleurs, laissant son nom à la loi qui formule que les revenus prédisent la
santé. Cette relation entre revenus et santé a ensuite été validée presque partout
et tout le temps. Aujourd’hui encore, que ce soit en France ou en Norvège 7 par
exemple, la durée de vie à laquelle les gens peuvent s’attendre dépend de leurs
revenus. Mais Case et Deaton, qui sont pourtant économistes, ont estimé que
dans le cas des Américains, les revenus n’expliquaient pas tout. Les revenus des
Noirs et des Hispaniques avaient suivi des tendances proches de celles des
Blancs, et pourtant leur mortalité continuait à baisser. Par ailleurs, l’espérance de
vie avait été mauvaise dans plusieurs États dont la croissance économique était
bonne, par exemple le Nevada, la Floride ou la Nouvelle-Angleterre. La logique
économique était en théorie plausible et en pratique possible mais insuffisante.
Case et Deaton ont évoqué la possibilité d’une logique sociale à l’origine du
désespoir. Cette hypothèse est plus complexe que la logique économique, et
aussi plus difficile à prouver car les sociétés sont hétérogènes et comportent
beaucoup de caractères. Les deux chercheurs pensent que des tendances lentes et
donc moins flagrantes, seraient déterminantes : le déclin du mariage, le
désintérêt pour la religion, l’isolement, le détachement du marché du travail.
Pour Case et Deaton, ces évolutions « laissent les gens avec moins de
structure ». Elles réduisent le bien-être malgré des revenus constants. Le cas de
l’emploi paraît décisif, notamment parce que le marché du travail américain a été
attaqué par la destruction créatrice, elle-même liée à deux causes principales : la
compétition mondiale et l’innovation technologique. Les Américains ayant un
faible niveau d’études ont particulièrement reculé dans l’échelle sociale, car
leurs emplois ont été pris par des machines ou des travailleurs exerçant dans des
pays où ils sont moins payés. Même si la destruction créatrice a fonctionné
— des jobs disparaissent puis d’autres sont créés —, elle reste une destruction à
court terme 8. Les emplois recréés ne le sont pas tout de suite ou pas au même
endroit, ou pas pour les mêmes personnes. Les gens peuvent retrouver un travail
après la destruction mais pas immédiatement, et pas facilement quand ils n’ont
pas eu de formation universitaire. Cette transition est rarement évidente car les
gens ne sont pas liquides, un fait qui a été négligé par les économistes. Comme
le dit Philippe Aghion, « l’innovation déclasse les individus dont les diplômes
sont anciens », avec des effets psychologiques qu’on peut deviner. Pour les
Américains comme pour nous tous, le travail n’est pas seulement un moyen de
gagner sa vie. C’est aussi la source de deux éléments dont nous avons besoin : la
socialité et le sens 9. Or l’observation montre que les géographies où le travail a
été attaqué sont celles où les morts du désespoir sont les plus nombreux. La
correspondance suggère un lien causal entre la destruction créatrice et le
désespoir, sans le prouver complètement car ce sont des études géographiques.
On ne peut pas être sûr à ce stade que ce sont les mêmes personnes qui perdent
leur emploi et qui adoptent des comportements pathogènes. Pour avancer, il faut
des données individuelles et non pas agrégées.
Case et Deaton ont justement apporté des preuves de ce type sur le rôle de
l’atteinte au marché de l’emploi. En l’absence de données directes sur la
destruction des jobs, ils ont trouvé un marqueur signifiant, à savoir l’éducation
puisqu’elle prédit la fragilité professionnelle. Ils ont repris leurs données sur la
période 1990-2018 et ont estimé la mortalité et la longévité chaque année
entre 25 et 75 ans en fonction du niveau d’études 10. L’écart épidémiologique
entre les diplômés et les non-diplômés s’élargit sur l’ensemble de l’intervalle
chronologique 11. À partir de 2010, les tracés ne divergent pas seulement, ils
prennent des sens opposés. L’espérance de vie continue d’augmenter pour les
diplômés alors qu’elle régresse pour les autres. Ce fait est observé quelle que soit
la couleur de peau. Les différences de longévité entre les Blancs et les Noirs se
réduisent au cours de la période, bien qu’elles persistent. Il n’empêche que les
dynamiques s’inversent. L’éducation a un impact plus intense sur la durée de vie
moyenne américaine alors que la couleur de peau exerce de moins en moins
d’effet. Les inégalités sociales l’emportent sur ce que les Américains appellent
les inégalités raciales. Dans l’opération de division de la société, l’éducation est
maintenant plus efficace, en sachant qu’un tiers des gens sont non diplômés aux
États-Unis.
Ces données décrivent une première histoire cohérente et crédible. Les
individus n’étant pas allés jusqu’au diplôme avaient plus de sécurité au
e
XX siècle. La compétition avec les machines ou les autres pays les a rendus
sensibles à la destruction du travail et au chômage. Le désespoir s’est développé,
avec plusieurs comportements pathogènes comme conséquences logiques, et un
impact épidémiologique automatique. L’offre de produits toxiques a aussi joué
son rôle car elle a été largement accessible 12. Cet effet de l’économie nationale
sur la santé est exagéré aux États-Unis parce que les gens n’y sont pas protégés.
Il n’existe pas au Danemark par exemple, où l’État social est plus fort 13.
Parmi les autres éléments qui participent à la logique sociale de la demande,
il y a l’évolution des foyers américains. La fragilisation de ce que Durkheim
appelait la société familiale serait plus nette aux États-Unis. En Europe, où l’État
social est plus développé, le remariage ou la remise en couple des mamans sont
souvent motivés par les sentiments, ce qui produit des sociétés familiales
recomposées mais assez stables. Les Américaines se remarient ou se remettent
en couple pour des raisons économiques, ce qui génère plus d’instabilité et de
stress. Le déclin de la religion chez les Blancs est une autre cause plausible de
dégradation de la socialité. Au contraire, les Églises noires sont un secours
efficace pour leurs communautés.

La fin du futur
Ces tendances dessinent une altération de la socialité avec une conséquence
psychologique qui explique la logique de la demande : c’est la perte de
perspective pour les individus et même pour leurs enfants. À cause du déclin du
travail, de la famille, de la religion, bref de la société, les individus perdent de
vue les options auxquelles ils peuvent s’attendre, ce qui influence profondément
leurs choix de comportements. Case et Deaton estiment qu’un « désavantage
cumulatif d’une génération à l’autre » explique l’hypothèse du désespoir. Les
psychologues nous apprennent que nous passons notre vie à raisonner en
fonction du « sens du temps restant 14 ». La différence mentale entre les jeunes et
les non-jeunes ne dépend pas que de l’âge biologique ou de l’expérience
accumulée. Elle dépend aussi du temps restant tel qu’il est perçu, et de façon
presque binaire. Quand ce temps est vu comme ouvert, les gens ont tendance à
prioriser ce qui prépare la suite, typiquement l’éducation et la santé. Ils
n’investissent pas dans la maladie. Au contraire, s’ils pensent que le temps
restant est limité, les processus cognitifs comme la mémoire et l’attention
changent. Les gens font moins de plans étendus et privilégient les expériences
immédiatement émotionnelles. Même si les Américains blancs d’âge moyen ont
plus de temps à vivre que les seniors, les données suggèrent qu’ils ne le
perçoivent pas. Les désespérés de la socialité voient le temps se fermer. Ils
réagissent comme la psychologie le prédit quand le temps restant est limité, en
allant chercher des émotions quel que soit le risque. Le phénomène s’intensifie
de lui-même puisque leurs comportements pathogènes diminuent réellement le
temps restant, rendant encore plus logique la chasse aux plaisirs toxiques.
La fermeture du temps est d’autant plus mal vécue qu’elle est inattendue.
Comme la plupart des Occidentaux, les Américains ont été éduqués avec une
histoire de progrès. On leur a dit que leurs parents avaient grandi dans des
conditions plus dures que les leurs, et on leur a promis que leurs enfants auraient
de meilleures conditions encore. Les Américains nés en 1940 avaient des
revenus supérieurs à leurs parents dans 90 % des cas. Cette forme de mobilité
sociale a ensuite baissé puisque ce taux passait à 60 % seulement pour les
personnes nées avant 1960 15. Le mythe d’une progression sociale systématique
ne s’est pas vérifié aux États-Unis. Le rêve américain n’est pas qu’une histoire
superficielle, il est une croyance nécessaire pour que les gens s’accrochent à la
vie quand ils font l’expérience de difficultés.
La France aussi a produit du désespoir à sa façon, avec des résultats proches
sur l’état d’esprit et la santé. Marc Bloch avait divisé la géographie de notre pays
en fonction des paysages qui eux-mêmes dépendaient de l’agriculture au Moyen
Âge 16. Dans l’Ouest et le Sud-Ouest, on trouvait des bocages, alors que les
champs ouverts 17 dominaient le Nord-Est et un peu l’arrière-pays de la Côte
d’Azur. Ces différences géographiques ont généré des différences de socialité.
Dans les régions à champs ouverts, les populations étaient concentrées dans les
villes, alors que dans les bocages, elles étaient dispersées. La géographie du
bocage a retardé le développement de l’agriculture puis celui de l’industrie. Le
Nord-Est a pris de l’avance, mais cet avantage s’est inversé parce que l’industrie
est entrée en crise au cours de la deuxième moitié du XXe siècle. Au contraire, à
l’ouest et au sud-ouest, où il y avait moins d’existant et donc moins d’inertie, le
développement économique a été meilleur au cours de la même période. Les
agriculteurs ont eu des enfants ouvriers, et les enfants d’ouvriers sont devenus
employés ou cadres. Les familles de l’Ouest et du Sud-Ouest ont facilement
perçu la trajectoire ascendante qui les portait. Les familles du Nord-Est ont vu
l’inverse.
En examinant la carte de France au XXIe siècle, on observe nettement que le
Nord-Est est plus malade que l’Ouest et le Sud-Ouest. Beaucoup de pathologies
chroniques y sont plus fréquentes. Il est délicat de mesurer le désespoir d’une
population, mais le comportement démocratique peut donner des indices. En
supposant que le vote extrême soit un témoin, une hypothèse discutable mais
plausible, alors l’élection présidentielle de 2017 semble valider un effet du
désespoir sur les attitudes pathogènes. D’une part, les départements français
ayant la santé moyenne la moins bonne étaient significativement plus
susceptibles d’avoir voté pour l’extrême droite au premier tour de l’élection, y
compris après avoir neutralisé l’effet de facteurs de confusion comme les
données sociales et économiques 18. D’autre part, ces départements sont plus
affectés par des pathologies causées par des comportements pathogènes, comme
certains cancers liés au tabac, des maladies alcooliques ou encore du diabète. En
résumant, ces données suggèrent que le déclin économique régional français crée
du désespoir, dont le vote extrême est un marqueur, un désespoir qui augmente
la probabilité de comportements pathogènes et de leurs complications.
Ces données sur les causes plausibles du désespoir font ressortir deux traits
humains déterminants pour la logique de la demande : la vision dynamique de
l’existence et l’altruisme. Contrairement à des préjugés courants, les gens ne
pensent pas qu’à court terme et pas qu’à eux-mêmes. La pandémie de Covid-19
l’a prouvé. Premièrement, le bonheur mondial moyen a été relativement stable
pendant les deux premières années de dissémination du Sars-CoV-2 (2020 et
2021). L’évaluation moyenne de leur vie par les gens a démontré une résilience
nette 19. Personne ne sait alors quand la pandémie va se terminer mais chacun a
une idée du fait qu’elle ne sera pas éternelle, en tout cas pas avec la même
intensité. Deuxièmement, les chercheurs ont mesuré ce qu’ils ont appelé « une
montée mondiale de la bienveillance » en 2021. Au cours de la pandémie, il y a
eu plus de donneurs et donc de receveurs. Alors que chacun était exposé au
virus, il y a eu une augmentation de la proportion de gens qui ont donné de
l’argent, du temps sous la forme d’activités bénévoles, ou encore qui ont aidé les
étrangers. Les humains voient loin et se préoccupent des autres.
Ces deux traits de la mentalité humaine sont affectés par les évolutions
sociales contraires, celles qui ferment le temps et rapprochent les individus du
désespoir. Le cas américain n’est qu’un exemple, même si c’est le plus avancé et
sans doute le plus complet. Il n’est pas extrapolable à 100 % mais il montre un
modèle du pire, où le déficit social crée un malheur social dont les effets
épidémiologiques sont lourds. Il fonctionne comme une fiction, qui nous montre
ce qui est réel dans un monde possible de taille moyenne, différent des autres et
du nôtre. À ce stade, un résumé en trois points forme une histoire crédible de
croissance de la demande américaine. Premièrement, il se passe quelque chose
aux États-Unis. Il y a bien une augmentation de la demande de risques mortels
puisque la mortalité nationale augmente sous l’effet de décès volontaires ou
causés par les humains eux-mêmes. Deuxièmement, la logique des
comportements problématiques n’est pas seulement économique.
Troisièmement, des indices suggèrent une logique sociale, parce que la société
américaine se dégrade et laisse beaucoup d’individus sur le côté.

La théorie des perspectives encore


Les hypothèses sociales de Case et Deaton sont cohérentes avec les données
de la science psychologique, à commencer par la théorie des perspectives de
Tversky et Kahneman qui s’intéresse aux décisions face aux risques et à
l’incertitude 20. Dans la théorie, l’évaluation humaine se fait par rapport à un
point de référence. Kahneman parle du « rôle écrasant du point de référence à
partir duquel les options sont évaluées 21 » ou encore de « cet état antérieur par
rapport auquel les gains et les pertes sont évalués ». En plus, nous avons
tendanciellement une aversion aux pertes. Nous donnons plus de poids au risque
de perdre qu’à la possibilité de gagner. Pour Kahneman, on l’a vu, cette aversion
à la perte est un produit de l’évolution, car les êtres vivants qui détectent les
risques sont plus susceptibles de les éviter et plus aptes à survivre.
Les deux concepts de la théorie des perspectives aident à comprendre les
morts du désespoir. Le premier, celui du point de référence, explique que les
gens jugent leur situation comme un chapitre d’une trajectoire et pas comme un
point isolé. Quand ils regardent leur présent, ils tentent de le positionner par
rapport au passé et par comparaison avec celui de leurs parents. Quand ils
regardent en avant, ils essayent de deviner leur avenir ou celui des enfants. Ce
qui devrait leur arriver est noté en fonction d’un point de référence plus ou
moins conscient. Ce point de référence n’est pas inventé par les individus, il
vient de leur observation, ce qui en fait une notion sociale. Il peut être le rêve
américain ou la croyance dans le progrès, qui détermine l’optimisme ou le
désespoir. Plusieurs auteurs ont souligné que les Noirs américains venaient
d’une histoire tellement dure envers eux qu’ils étaient presque programmés pour
être plus résilients.
Le deuxième point de la théorie est l’aversion aux pertes. À première vue,
elle devrait fonctionner comme un antidote à la demande de risques. Le fait que
nous ayons tendance à nous protéger, un principe de conservation qui a bien
fonctionné au cours de l’évolution, semble contredire la croissance des
comportements pathogènes. Sauf que la théorie des perspectives n’est valable
que si les gens sont face à des choix mixtes, c’est-à-dire des choix où ils peuvent
à la fois perdre et gagner. Beaucoup de choix sont mixtes dans la vie courante,
ce qui explique que la théorie des perspectives soit puissante en moyenne. Les
décisions peuvent rapporter mais aussi coûter, et le principe de l’aversion aux
pertes fait que nous ne prenons pas souvent de risques. Nous gagnons moins que
ce que nous pourrions mais au moins, nous ne perdons pas beaucoup.
Pourquoi est-ce que les Blancs américains d’âge moyen n’obéissent pas à la
théorie des perspectives en matière d’aversion aux pertes ? Parce qu’ils ne sont
pas face à des choix mixtes. Les gens qui se font une idée pessimiste de
l’existence sont aux prises avec des choix négatifs, une situation où la théorie
des perspectives est partiellement inopérante. Comme le dit Kahneman, « dans
les choix négatifs, qui comparent une perte sûre à une autre encore plus
importante mais seulement probable, la baisse de la sensibilité pousse à
rechercher le risque ». Il aurait pu ajouter « surtout si le risque produit du
plaisir » puisque le plaisir atténue la peine. Les Blancs américains d’âge moyen
non diplômés ne voient que des alternatives négatives. C’est ce qui les amène à
chasser des fragments de plaisir au lieu d’un bonheur auquel ils ne croient plus.
Pour eux, les véhicules de risques — opioïdes, alcool, drogues — ont deux
avantages. Premièrement, ils provoquent une forme de plaisir immédiat et
garanti. Ils compensent ainsi l’absence de possibilité de bonheur. C’est un calcul
rationnel qui échange une satisfaction de long terme improbable contre une
émotion instantanée. Au passage, la majorité de ces risques passe par la bouche.
Il n’y a pas plus puissant que la voie orale pour se faire plaisir en se faisant du
mal 22. Deuxièmement, le risque clair de maladie et de mort prématurée diminue
la durée de la vie, c’est-à-dire de l’épreuve.
La théorie des perspectives n’a pas été inventée pour répondre à cette
question, mais elle semble expliquer la réaction de certains individus pris dans
une expérience difficile, dont les Américains blancs non diplômés sont un cas
typique et extrême. Sa première moitié donne une explication directe (le point de
référence) et la deuxième moitié, une explication indirecte (il n’y a plus
d’aversion à la perte en face de choix uniquement négatifs).

L’argent et le bonheur
Un autre chercheur, encore un économiste, a montré que la logique
économique du bonheur était limitée. Il l’a montré factuellement en s’appuyant
sur la théorie des perspectives. Richard Easterlin (né en 1926) a étudié en
profondeur les déterminants du bonheur, et laissé un paradoxe à son nom. Son
point de départ est la théorie de Tversky et Kahneman : les gens jugent d’une
circonstance donnée en ayant à l’esprit un point de référence qui est leur repère.
Comment est-ce que la théorie des perspectives affecte la relation entre l’argent
gagné et l’évaluation de la vie ? Easterlin a répondu de façon nette en analysant
systématiquement les liens statistiques entre les revenus et le bonheur. Ses
premières recherches datent des années 1970 et concernent les États-Unis. Elles
ont ensuite été répliquées par lui ou par d’autres dans une quantité de pays, à
tous les stades de développement, et les résultats ont été les mêmes. Comme le
dit Easterlin lui-même, « le paradoxe tient bon 23 ». Le message de ses travaux
est facile à résumer : la relation entre l’argent et le bonheur dépend de l’échelle
de temps. À un instant donné ou même à court terme, il existe une relation
positive entre les revenus et le bonheur : plus de revenus veut dire plus de
bonheur. Mais à long terme, la relation n’existe plus — c’est le paradoxe. Les
tendances entre revenus et bonheur ne sont pas liées. Easterlin dit que « la
relation est nulle ». Quand on regarde leurs évolutions sur la durée,
habituellement dix ans et plus, les deux composants semblent se comporter
indépendamment l’un de l’autre. Les courbes tracées par les deux éléments
adoptent des trajectoires qui ne montrent aucune liaison évidente, comme si elles
ne se regardaient pas (figure 10).
Easterlin a parlé d’un paradoxe parce que dire que l’argent ne fait pas le
bonheur dans la vie va contre l’intuition et même contre l’observation. Les
raisons du paradoxe sont simples et ramènent à la théorie des perspectives : les
gens quantifient leur bonheur par comparaison sociale. Les autres sont leur point
de référence le plus fréquent. En cas de croissance économique, les revenus de
tous les individus augmentent souvent ensemble. Ce qui fait que ce que gagnent
« les autres » c’est-à-dire le point de référence, monte aussi et donc l’ordre ne
change pas beaucoup. La comparaison sociale continue de fonctionner. Les gens
se jugent par rapport aux autres, ce qui leur fait percevoir qu’ils n’auraient pas
évolué alors que leur situation a progressé dans l’absolu. Easterlin dit que « pour
chacun, l’effet positif de la croissance de son propre revenu sur le bonheur est
atténué par la croissance du revenu de référence. En conséquence, le bonheur en
moyenne reste inchangé ».
Le cas des récessions économiques forme une exception, mais qui là encore
s’explique facilement sans que le paradoxe soit contredit ni que la théorie des
perspectives soit discréditée. Pendant les crises, les revenus diminuent et le
bonheur aussi pour la plupart des membres d’une société. Comme tout le monde
est affecté, on pourrait s’attendre à ce que la comparaison sociale prédise un
bonheur moyen constant puisque les autres baissent aussi, mais ce n’est pas le
cas. La raison est qu’en cas de récession, le point de référence change. Il n’est
plus déterminé par comparaison sociale mais par comparaison personnelle avec
ses revenus antérieurs. Chacun devient son propre témoin et comme les revenus
baissent, le bonheur décline. Les dettes éventuellement accumulées quand les
revenus étaient plus élevés créent des difficultés matérielles, et le fait que les
autres aient les mêmes problèmes ne console pas.
Plusieurs exemples valident le paradoxe. Les différences de croissance
économique n’expliquent pas les trajectoires de bonheur nationales. Tous les
pays ne développent pas le même bonheur pour un standing de richesse donné.
Les Français par exemple, sont en moyenne moins heureux que les Allemands
ou les Danois ayant les mêmes revenus, toutes choses égales par ailleurs. En
Chine, où la richesse moyenne par personne a été multipliée par quatre
entre 1990 et 2005, le bonheur a diminué et les suicides ont augmenté 24. En
Inde, l’évaluation que font les populations de leur vie a baissé de 10 % en dix
ans. Easterlin conclut de ces exemples et du reste que ce sont les politiques
sociales qui peuvent avant tout rendre les gens plus heureux, pas la croissance
économique en elle-même. La qualité d’une société a un effet sur le bonheur de
ses membres et les conduit à investir dans leur santé plutôt que dans la maladie.
Kahneman et Deaton ont apporté ensemble une preuve supplémentaire de
l’effet lacunaire de l’argent sur le bonheur 25. Ils l’ont fait en incluant une nuance
psychologique qui est une spécialité de Kahneman, à savoir la possibilité d’une
duplicité mentale. Quand il s’agit de conclure sur leur bonheur, les gens
reforment deux systèmes de pensée ou plutôt deux moi, le moi du moment et le
moi du recul. Le moi du moment est le moi qui fait l’expérience du jour. Il vit
sur les émotions immédiates. Il est sensible au plaisir. Le moi du recul s’oppose
point par point. Il est celui qui dit ce que les gens pensent de leur vie quand on
leur demande d’en faire l’évaluation. Le moi du recul ne s’appuie pas sur les
émotions mais sur la mémoire. Il exprime le bonheur ou l’absence de bonheur.
Le moi du moment répond à la question « comment allez-vous ? » alors que le
moi du recul réagit plutôt à « aimez-vous la vie que vous avez vécue ? ».
Kahneman précise explicitement que ces deux moi ne correspondent pas au
Système 1 ni au Système 2.
Kahneman et Deaton ont analysé plus de 450 000 réponses venues d’une
enquête qui interroge tous les jours 1 000 Américains 26. Les résultats sont clairs :
les deux moi n’ont pas le même prix. L’argent achète facilement l’un mais pas
l’autre. Le moi du recul est influencé par les revenus et aussi par l’éducation. Le
moi du moment dépend d’autres éléments, surtout l’état de santé, l’isolement
social ou encore le fait de fumer. Le moi du moment est aussi sensible aux
revenus mais jusqu’à un certain point seulement. Au-delà de 75 000 dollars par
an, il n’augmente plus. Pour expliquer leurs trouvailles, Kahneman et Deaton
évoquent un trait social déjà mentionné implicitement par Easterlin, qui est
l’adaptation. Quand ils expriment leur moi du moment, les gens se sont habitués
à ce qu’ils gagnent.
Ces résultats sont eux aussi alignés avec les hypothèses que Case et Deaton
ont ensuite formulées. Les choses se passent comme si les deux moi se parlaient
et il est probable qu’ils se parlent vraiment. En cas de désespoir, le moi du recul
est malheureux. Il juge négativement l’existence écoulée et n’anticipe pas
d’amélioration. Il peut alors laisser le moi du moment se lâcher, c’est-à-dire aller
chercher du plaisir en fumant mais aussi tout le reste. La logique de la demande
des désespérés passe sans doute par les deux moi.
Ces données issues de différentes sciences ont passé en revue beaucoup de
notions ayant à voir avec la socialité : les perspectives personnelles ou pour les
autres, les relations d’appartenance, le sens, la comparaison sociale. Les
recherches récentes suggèrent que ces notions se détériorent. Elles forment une
hypothèse sérieuse où la demande vient bien des individus et pas seulement pour
des raisons personnelles détachées de leur environnement humain. Cette
demande semble lourdement influencée par des causes sociales. La baisse de
socialité amène les individus à rechercher du plaisir à défaut de croire au
bonheur, à investir dans la pathologie et non dans l’extension de la vie. La
logique de la demande de risques serait sociale parce que la dégradation
relationnelle entre les gens et le groupe les rapproche du désespoir, qu’ils gèrent
en achetant des émotions pour pas cher — aliments sucrés, alcool, drogues —,
quitte à tomber malades.

Émile Durkheim et la logique sociale


des suicides
Dans son étude sur le suicide, expression restreinte mais brutale du
désespoir, Durkheim avait souligné l’altération de la socialité. La notion était au
centre de son analyse 27. Durkheim commençait par observer sans comprendre
pourquoi (ou sans le dire car le livre est composé comme un roman), que le
suicide est un fait social normal, et non un fait divers. Les preuves de normalité
viennent des statistiques par pays ou par région. Les taux de suicide sont
pratiquement constants au cours d’une période donnée et pour une géographie
donnée. Ils ne varient même pas beaucoup d’une année sur l’autre. À l’époque
de Durkheim, les Français se suicidaient moins que les Danois mais deux fois
plus que les Anglais qui eux-mêmes se suicidaient deux fois plus que les Italiens.
On se suicidait surtout en Île-de-France, dans l’Est, et entre Marseille et Nice.
Inversement, la Normandie et la Bretagne n’étaient presque pas touchées. Ces
différences régionales étaient stables, tout comme les différences entre les pays,
beaucoup plus stables que les taux de mortalité qui à l’époque étaient aléatoires.
Depuis Durkheim, ces disparités géographiques ont évolué mais elles sont
régulières à l’échelle d’une époque. Pour Durkheim, cette régularité était
synonyme de causalité et de normalité.
Pour aller au-delà de la description, Durkheim passe en revue les causes
potentielles, toujours sur des bases statistiques. Il élimine un rôle possible des
maladies mentales, une de ses grandes erreurs même si elle est
compréhensible 28. Il écarte ensuite l’influence de l’environnement et du climat,
qu’il appelle « les facteurs cosmiques ». Les causes psychiatriques et
environnementales sont évacuées car il n’y a pas de lien statistique avec les taux
de suicide. Il reste donc la société. En étudiant plusieurs de ses caractères dont la
religion et la famille, Durkheim trouve de nouvelles régularités, c’est-à-dire des
associations : les protestants se suicident plus que les catholiques qui eux-mêmes
se suicident plus que les juifs, les célibataires se suicident plus que les gens
mariés. Durkheim interprète ces différences comme des signes de causes
partielles et propose des explications. Il conclut à l’existence de plusieurs types
de suicides, définis par le rapport à la société de la personne qui passe à l’acte.
Trois types de suicides sont analysés de façon extensive : le suicide altruiste, le
suicide égoïste et le suicide anomique, c’est-à-dire par perte de valeurs. En
simplifiant, le suicide altruiste est en décroissance car c’est celui qui est dû à un
excès de société, un contexte où le groupe compte plus que les personnes.
Comme les sociétés deviennent déjà individualistes à l’époque de Durkheim, le
suicide altruiste est proche de l’extinction, sauf chez les militaires. Il est
remplacé par son contraire, le suicide égoïste, qui est en croissance. Quand les
sociétés laissent une liberté physique et mentale, les gens se permettent de se
suicider, en particulier si leur socialité se dégrade. Pour Durkheim, le suicide
égoïste est causé par ce qu’il appelle la « désintégration sociale ». Trois types de
sociétés perdent en influence : la société religieuse, la société nationale et la
société familiale (c’est le début des divorces). À problèmes équivalents, les gens
qui se suicident le plus seront ceux qui auront perdu le sentiment
d’appartenance. Aucune société ne les retient plus. Le suicide anomique n’est
pas très éloigné comme Durkheim le reconnaît. C’est celui qui est lié à la perte
brutale de structure et de repères. Il augmente typiquement pendant les crises
économiques et sociales.
À la fin du livre, Durkheim anticipe que c’est dans le travail que les
individus devraient trouver une forme de socialité qu’ils n’ont plus chez eux, ni à
l’Église ou pour leur pays. Il est vraisemblable que cette hypothèse se soit
concrétisée au XXe siècle. Le travail a créé des relations de valeur pour une
proportion importante de personnes, ce qui aide à comprendre certaines raisons
du malheur américain actuel.
Les hypothèses de Case et Deaton sont un écho des conclusions de
Durkheim sur le déficit de socialité et son impact. Les sociétés ont massivement
évolué depuis les années 1970. Aux États-Unis, le taux de mariage a été divisé
par deux. La proportion de personnes mariées diminue aussi en Australie, au
Royaume-Uni, en Italie, en Corée du Sud et en Argentine. La croyance
religieuse décline aux États-Unis. En Europe, la moitié des habitants sont non
croyants. Certains pays sont devenus moins démocratiques, comme le Brésil,
l’Inde, l’Indonésie, le Mexique et la Pologne. Ces tendances témoignent d’une
dégradation au moins partielle de la socialité.
Dans un contexte où l’offre de toxicité est en croissance, la diminution de la
socialité pourrait expliquer pas mal de comportements alimentaires,
médicamenteux ou alcooliques. Il est possible que ces comportements se
substituent au suicide direct ou qu’ils évitent d’avoir à se suicider. D’ailleurs, le
vrai suicide est en baisse dans le monde.

Le suicide au XXIe siècle


Le suicide reste un fait social. Sa carte mondiale montre des régularités
nettes, qui rappellent celles de Durkheim même si ce ne sont pas les mêmes. Les
disparités régionales sont évidentes. L’incidence du suicide est quatre fois plus
élevée en Europe qu’à l’est de la Méditerranée, en incluant le Moyen-Orient. À
peu près 80 % des suicides ont lieu dans les pays à revenus faibles ou
intermédiaires. Comme à l’époque de Durkheim, chaque pays a son « aptitude »
au suicide 29. Au total, les morts volontaires représentent environ 1,5 % des
décès, ce qui fait 700 000 à 800 000 décès par suicide par an, un toutes les
40 secondes dans le monde. Pour chaque décès, 60 à 135 personnes de
l’entourage sont affectées par le deuil. Et pour chaque suicide réussi, il y a
environ 20 tentatives qui ne marchent pas, c’est-à-dire 16 millions d’essais par
an et sans doute 10 fois plus d’idées suicidaires.
La science des suicides connaît d’autres régularités. Les jeunes se suicident
moins que les non-jeunes. Les femmes tentent plus mais réussissent moins alors
que les hommes se lancent moins mais s’y prennent mieux. Deux morts
volontaires sur trois touchent des hommes. Les moyens ne sont pas non plus les
mêmes entre les hommes et les femmes, les hommes ayant recours à des
méthodes plus violentes. Toutes ces statistiques sont simples mais les causes des
suicides peuvent être excessivement complexes. On sait que les suicidés ne les
comprennent pas toujours eux-mêmes. Au-delà des régularités, on trouve une
infinité de singularités. Même si les tendances sont lourdes, l’examen des
suicides donne l’impression que chacun raconte une histoire originale.
Un schéma classique expose une part variable de prédisposition et de
précipitation. Il y a du fait mental et du fait social dans les deux. Depuis
Durkheim, le rôle de la maladie psychiatrique a été incomparablement mieux
reconnu. Plusieurs pathologies encouragent au suicide, notamment la dépression,
la schizophrénie et les troubles de la personnalité. Leur risque a pu être atténué
par les soins psychiatriques, en particulier les médicaments. Mais le fait social
joue encore, à travers l’histoire familiale des individus, l’adversité ou les
séparations. Il peut à la fois prédisposer et précipiter. Tous ces éléments
interfèrent négativement entre eux pour créer une condition à risque, c’est le
fond du malaise. Ensuite, le hasard ou une opportunité produisent le passage à
l’acte.
Des chercheurs ont résumé le suicide comme « le résultat cumulé de facteurs
de risques au cours d’une vie 30 ». La complexité est telle que la prédiction
semble impossible. D’ailleurs, d’autres chercheurs ont récemment avancé que
toute tentative de prédiction était peu susceptible d’être utile 31. Les trajectoires
qui mènent à la mort volontaire peuvent être comparées à la physique quantique.
On ne peut pas deviner où l’électron va se poser sur la plaque, mais une fois
qu’il l’a touchée, on peut rétrospectivement comprendre les raisons du parcours.
Le taux de suicide est en baisse dans le monde, il aurait diminué de presque
20 % en 20 ans, ce qui est beaucoup. Ce que la science des suicides ne nous dit
pas, c’est si cette baisse est compensée par des formes progressives de morts
volontaires, celles qui viennent des autres comportements pathogènes traités
dans ce livre. Ces tendances inverses pourraient suggérer que certains suicides
ont été remplacés par leur version lente, qui consiste à se rendre malade pour se
tuer moins brutalement, tout en interceptant du plaisir au passage. L’hypothèse
est d’autant plus crédible que les raisons de la baisse des suicides viennent de la
régulation de l’alcool et des restrictions d’accès aux moyens de se tuer. Les
sociétés ont été efficaces contre les suicides en intervenant sur la précipitation
mais pas sur la prédisposition, c’est-à-dire pas sur les causes sociales de
désespoir qui peut-être se reportent sur d’autres moyens. Cette hypothèse du
report est sans doute vraie dans certains pays, ceux qui observent un déclin des
suicides et une hausse parallèle des attitudes pathogènes. Elle est probablement
invalide dans d’autres pays qui font à la fois l’expérience d’une remontée des
suicides et d’une croissance des attitudes pathogènes, comme les États-Unis
depuis 2000, ou encore le Paraguay et la Jamaïque. Pour ces pays, les suicides et
les attitudes pathogènes veulent probablement dire la même chose. La différence
entre eux et les autres pays tient peut-être à l’intensité du désespoir et à l’offre
disponible pour se tuer ou se rendre malade.
La vision psychanalytique de la société
du désespoir
Freud est né moins de deux ans avant Durkheim, dans une famille juive.
Pour l’instant, les points communs s’arrêtent là. Freud a fait médecine puis a
conçu la théorie psychanalytique. Durkheim était un philosophe qui a inventé la
première science sociale. Freud examinait les récits de patients vivants alors que
Durkheim a exploré des données impersonnelles pour leur appliquer un
traitement statistique. Les travaux des deux ont énormément dérangé, ceux de
Freud parce qu’ils concluaient que nous étions déterminés par notre inconscient,
ceux de Durkheim parce que les causes sociales l’emportaient souvent sur la
conscience humaine. Dans tous les cas, le moi mental perdait en puissance.
À la fin, Freud a ouvert sa réflexion à la société, d’abord avec L’Avenir
d’une illusion (1927) puis avec Malaise dans la civilisation (1930). Ce livre,
paru juste après la crise économique de 1929, pose l’hypothèse qu’il existe un
accord implicite entre la société et ses membres. Les gens acceptent de perdre
certains caractères en appartenant à un groupe. Ils sont d’accord pour lâcher une
bonne quantité de liberté et pour réprimer leurs pulsions. Au total, Freud estime
que l’inclusion sociale veut dire une perte de bonheur. En échange de ces
limitations, les individus gagnent un accès à la culture, la croissance et la
sécurité. La perte de bonheur reste tolérable tant qu’il existe une compensation.
Mais si cette compensation décline, alors le contrat ne tient plus et la relation se
dégrade entre les gens et la société. La situation crée un malaise pour Freud, la
mort volontaire pour Durkheim et du désespoir pour Case et Deaton.
Freud s’est suicidé le 23 septembre 1939, épuisé par un cancer dont il avait
supporté les douleurs et les interventions chirurgicales. Un psychanalyste
français a avancé l’idée brillante que Durkheim aurait peut-être qualifié ce
suicide d’altruiste, Freud cherchant aussi à ne plus être une charge pour son
entourage 32. Les choses se seraient passées comme si l’analyste du malaise
social avait voulu échapper à la tendance individualiste, et qu’il s’était tué pour
des raisons inverses. On ne le saura jamais. Dans Malaise dans la civilisation
toujours, Freud voyait trois solutions possibles au problème qu’il décrivait.
Premièrement, ce qu’il appelait les dérivatifs, ce qui voulait dire la science.
Deuxièmement, les « satisfactions compensatoires » qui passent par les arts.
Troisièmement, les drogues. Nous en sommes là.
1. Entretien avec l’auteur, le 15 février 2022.
2. Jürgen Rehm, Kevin D. Shield, « Global Burden of Disease and the impact of mental and addictive
disorders », Current Psychiatry Reports, 2019.
3. GBD 2019 Mental Disorders Collaborators, « Global, regional, and national burden of 12 mental
disorders in 204 countries and territories, 1990-2019: a systematic analysis for the Global Burden of
Disease study 2019 », The Lancet Psychiatry, 2022.
4. Peter Selby, Laurie Zawertailo, « Tobacco addiction », NEJM, 2022.
5. Anne Case, Angus Deaton, « Rising morbidity and mortality in midlife among white non-Hispanic
st
Americans in the 21 century », PNAS, 2015.
st
6. Anne Case, Angus Deaton, « Mortality and morbidity in the 21 century », Brookings Papers on
Economic Activity, 2017.
7. Jonas Minet Kinge et al., « Association of household income with life expectancy and cause-specific
mortality in Norway, 2005-2015 », JAMA, 2019.
8. Philippe Aghion et al., Le Pouvoir de la destruction créatrice, op. cit.
9. Mathieu Perona et Claudia Senik (dir.), Le Bien-Être en France, rapport 2020.
10. Anne Case, Angus Deaton, « Life expectancy in adulthood is falling for those without a BA degree, but
as educational gaps have widened, racial gaps have narrowed », PNAS, 2021.
11. Les auteurs prennent comme indicateur le niveau licence, ce qui aux États-Unis s’appelle un bachelor’s
degree (BA) et correspond à quatre années d’études.
12. Chloé Hecketsweiler, « Comment les opiacés ont drogué les États-Unis », Le Monde, 31 janvier 2020.
13. Philippe Aghion et al., Le Pouvoir de la destruction créatrice, op. cit.
14. Laura L. Carstensen, « The influence of a sense of time on human development », Science, 2006.
15. Raj Chetty et al., « The fading American dream: trends in absolute income mobility since 1940 »,
Science, 2017.
16. Marc Bloch, Les Caractères originaux de l’histoire rurale française (1931), Armand Colin, 1999.
17. Les historiens anglais qui avaient précédé Marc Bloch les appelaient les open fields.
18. Jean-David Zeitoun et al., « Health as an independent predictor of the 2017 French presidential voting
behaviour: a cross-sectional analysis », BMC Public Health, 2019.
19. World Happiness Report, 2022.
20. Les deux psychologues ont développé cette théorie avant leurs travaux sur les deux systèmes de la
pensée. Leur point de départ était la conscience d’une anomalie. La théorie préexistante à la théorie des
perspectives n’expliquait pas bien les décisions des gens face aux risques et à l’incertitude. Cette théorie
préexistante dite de l’utilité espérée, considérait seulement que les choix sont faits par rapport aux attentes,
ce qui est vrai mais incomplet. La théorie des perspectives a ajouté l’aversion aux pertes et le point de
référence.
21. Daniel Kahneman, Système 1, Système 2, op. cit.
22. Freud considérait que la bouche était la meilleure option pour compenser la frustration sexuelle.
23. Richard A. Easterlin et Kelsey J. O’Connor, « The Easterlin Paradox », IZA Discussion Paper,
o
n 13923, Institute of Labor Economics (IZA), 2020.
24. Carol Graham et al., « Well-being in metrics and policy », Science, 2018. À noter que les suicides en
Chine ont rebaissé depuis 2005, passant de presque 13 décès pour 100 000 habitants à environ 8 pour
100 000.
25. Daniel Kahneman, Angus Deaton, « High income improves evaluation of life but not emotional well-
being », PNAS, 2010.
26. Cette enquête vient de l’Institut Gallup.
27. Émile Durkheim, Le Suicide (1897), PUF, 2013.
28. Michael Robertson, « Books reconsidered: Emile Durkheim, Le Suicide », Australasian Psychiatry,
2006.
29. L’expression est de Durkheim.
30. Seena Fazel, Bo Runeson, « Suicide », NEJM, 2020.
31. Duleeka Knipe et al., « Suicide and self-harm », The Lancet, 2022.
32. Il s’agit de Robert Neuburger, dans la préface qu’il signe dans l’édition du Suicide, Petite Bibliothèque
Payot, 2009.
IV

LA DÉFAILLANCE POLITIQUE
10
Comment les leaders politiques ont échoué

Jusqu’au XVIIIe siècle, les leaders politiques n’ont pratiquement exercé que
deux rôles : le prélèvement et la punition. Le prélèvement concernait l’argent et
les récoltes, voire les hommes pour épaissir une armée en cas de guerre. La
punition s’appliquait à ce que l’État, c’est-à-dire le roi, voulait. C’est avec les
philosophes des Lumières que les États ont entrepris de protéger leur population
contre la maladie et la mort. D’une logique négative — prélever et punir —, ils
sont passés à une logique positive qui consistait à investir dans la santé. Michel
Foucault a plus tard théorisé cette évolution. Il lui a donné le nom de biopouvoir
ou biopolitique, pour signifier l’intervention de l’État dans la vie des gens 1.
Cette intervention passait largement par la loi, que ce soit pour le traitement
public des villes ou le traitement personnel des gens, notamment à travers la
régulation de la médecine. La loi avait plusieurs avantages qu’elle a toujours,
dont celui d’être obligatoire et de permettre un effet d’échelle puisque tout le
monde en dépend. Le biopouvoir peut compter sur deux autres déterminants,
marginaux à l’époque et qui seront décrits plus bas, qui sont l’économie et
l’intelligence.

Le Mouvement sanitaire
Pour les historiens et pour Foucault, il est clair que la logique du biopouvoir
était intéressée. Les États avaient compris que la santé serait une clé de la
croissance démographique, elle-même nécessaire à la croissance économique,
même si le terme n’existait pas encore. Diderot avait signalé dans
l’Encyclopédie l’importance de la mortalité infantile pour le déclin ou
l’expansion d’une population. Il avait évidemment raison, et les premières
formes de biopouvoir ont pu améliorer un peu la santé humaine, avant que les
rois ne se fassent sortir par les révolutions.
Quand la démocratie s’est développée, le processus de protection de la santé
par interventions légales s’est poursuivi de façon efficace. Depuis la fin du
e
XVIII siècle, la hausse de l’espérance de vie forme un tracé presque linéaire qui

témoigne d’une progression continue. Pourtant, les ressorts de la courbe n’ont


pas toujours été les mêmes 2. Il y a eu des tournants que le graphe ne peut pas
exprimer et pour chaque cause d’amélioration, on peut trouver une loi ou une
série de lois à l’origine. Pour traiter la saleté des villes anglaises, plusieurs lois
ont été votées dans les années 1840, concrétisant ce qu’on a appelé le
Mouvement sanitaire. Elles ont permis l’accès à l’eau potable et le traitement des
déchets, avec des effets épidémiologiques nets comme l’élimination du choléra.
Bien plus tard, en 1962, pour que les médicaments soient plus fiables, le
gouvernement Kennedy a fait voter une réforme qui donna à la Food and Drug
Administration (FDA) le pouvoir d’exiger des preuves d’efficacité des
molécules. Les industriels ont été obligés de conduire des essais cliniques selon
un système de phases I/II/III, alors inventé par l’agence 3. Ce modèle a largement
démontré sa valeur. Il existe encore et est presque intact 4. Les nouveaux
médicaments sont autorisés aux États-Unis, et de fait dans le monde entier, sur la
base de ce système de phases. Ce sont ces médicaments qui répriment ou
annulent les effets des maladies, et qui étendent la vie ou la rendent moins dure.
Sans la réforme de 1962, les médicaments seraient moins sûrs et moins efficaces,
et l’espérance de vie aurait moins progressé. La régulation n’est pas l’ennemie
de l’innovation car elle peut forcer les industriels à être plus exigeants vis-à-vis
de leurs propres produits, ce qui à la fin avantage aussi leur business. Une autre
loi américaine, la NEPA (National Environment Policy Act), a été signée le
1er janvier 1970 comme préliminaire à la création de l’EPA 5 et au Clean Air Act.
Comme l’a résumé une équipe de chercheurs, la NEPA « signalait aux
Américains que la nation était en train de créer une éthique environnementale 6 »,
car les lois expriment des valeurs. La NEPA a servi de modèle à plus de cent
pays, ce qui en fait probablement la loi américaine la plus imitée de l’histoire.
Elle a permis aux gouvernements américains de faire passer d’autres lois
décisives, soutenues par les Démocrates et les Républicains. Ces lois ont fait
baisser des trois quarts la concentration de polluants atmosphériques courants 7.
L’air américain est plus propre et plus sain aujourd’hui qu’en 1950. Ces lois ont
aussi fait chuter les concentrations de plomb dans le sang des Américains, ce qui
les a rendus plus intelligents 8. Ces exemples sont des preuves marquantes d’un
fait récurrent de l’histoire de la santé : il n’y a jamais eu de progression
importante sans une intervention légale. La science seule ou le marché seul n’ont
jamais suffi, parfois même au contraire. Le déterminant légal est indispensable
au biopouvoir.
Pour faire passer ces lois, il a fallu des scandales et des champions. Dans
l’Angleterre du XIXe siècle, le scandale venait des épidémies répétées de choléra
et surtout du Sanitary Report. Ce document fut sans doute le premier best-seller
d’épidémiologie. Il décrivait dans le détail l’état de santé lamentable des
Anglais. Son auteur était Edwin Chadwick, un avocat devenu parlementaire et
donc le champion nécessaire aux lois anglaises de santé publique. Chadwick
était déjà connu quand il a publié son rapport en 1842. Il a pourtant dû attendre
six ans et une nouvelle épidémie sévère de choléra en 1848 pour pouvoir faire
passer le Public Health Act, première étape d’une désinfection des villes. Au
passage, la logique économique de Chadwick était explicite. Si la santé des
pauvres s’améliorait, ils demanderaient moins d’aides sociales et si les hommes
mouraient moins de maladies microbiennes, il y aurait moins de pensions à
payer aux familles orphelines.
En 1962, le scandale s’est appelé thalidomide. Le médicament devait faire
baisser les nausées au cours de la grossesse, sans provoquer de complications. Il
n’est même pas sûr qu’il atténuait réellement les nausées, mais il est clair qu’il a
causé des dizaines de milliers de malformations chez les bébés, et des milliers de
morts fœtales. La première championne a été Frances Kelsey, une
pharmacologue canadienne de la FDA. Kelsey a empêché le médicament d’être
commercialisé aux États-Unis car elle trouvait son dossier incomplet. Le
champion s’appelait Estes Kefauver, ancien avocat comme Chadwick, et devenu
sénateur démocrate. Kefauver avait passé du temps à étudier le marché du
médicament américain. Il avait préparé une loi pour réguler les prix et les
données d’efficacité des médicaments. Il avait été lâché par Kennedy à cause des
pressions des médecins et de l’industrie pharmaceutique, et sa loi n’avait pas été
votée 9. Quand le monde fut saisi par la tragédie de la thalidomide, Kefauver
retrouva du momentum politique et la partie scientifique de sa loi fut approuvée
par le Congrès américain, puis signée par Kennedy en très peu de temps 10.
Le passage de la NEPA et la création de l’EPA se sont aussi appuyés sur des
ressorts dramatiques. Une des championnes était Rachel Carson, grâce à la
publication de Silent Spring, qui dénonçait en 1962 les effets du pesticide DDT,
finalement interdit en 1972 aux États-Unis. Parmi d’autres scandales
environnementaux, l’incendie de la rivière Cuyahoga dans l’Ohio, en 1969, fut
particulièrement marquant. Ce cours d’eau passant par Cleveland était l’un des
plus pollués des États-Unis, les industriels y relâchaient leurs déchets sans
complexes. L’incendie de 1969 était le énième. Il serait parti d’une nappe de
pétrole, qui elle-même avait commencé à brûler suite à une étincelle déclenchée
par un train. L’incendie dura moins d’une heure. Il n’a pas été le plus
dommageable sur le plan économique et il n’y a pas eu de mort, mais c’est celui
qui a eu la plus grosse couverture médiatique. Time Magazine en a relayé une
photo en une. Le choc émotionnel a influencé une prise de conscience politique,
qui a conduit au vote de la NEPA.
L’histoire récente ne manque pas de scandales potentiels, mais c’est comme
si elle manquait de champions. La croissance des industries pathogènes et leur
conséquence inévitable, à savoir les épidémies de maladies industrielles,
suffisent à prouver la défaillance politique. La taille de l’impact montre à quel
point les leaders ont échoué à protéger la santé des gens. Ils n’ont pas su
contrarier la croissance de l’offre par la régulation ou par le marché, et n’ont pas
su non plus empêcher la demande de risques. Ils ont laissé se créer non pas un
mais des dizaines de marchés pathogènes, souvent liés les uns aux autres et qui
recrutent les mêmes clients. L’expansion des fossiles, de la chimie, des aliments
transformés et de l’alcool, sont des signes cohérents de l’incapacité politique à
limiter les atteintes épidémiologiques de masse. Les dommages ont été
largement décrits dans ce livre. La régulation lâche des réseaux sociaux
numériques, dont les effets pathogènes commencent à être démontrés, est peut-
être le prochain échec politique 11.
Le livre a tenté de décrire et d’analyser les causes de l’offre et de la
demande, mais comprendre la faiblesse des leaders est une tâche différente. Il
n’est pas évident de déterminer la logique de la défection politique et sa
participation majeure au suicide de l’espèce. Les données permettent un début de
description et d’analyse du comment. S’agissant du pourquoi, il faudra faire avec
des hypothèses car les données n’existent pas.

Le biopouvoir négatif
Comment les leaders politiques ont-ils permis la croissance des industries
pathogènes ? Avant tout en cédant du pouvoir. La théorie présume qu’en
démocratie, le pouvoir s’exerce de façon visible, selon les lois et la culture du
pays. Les États et les leaders locaux ont continué de jouer ce rôle de pouvoir
visible, mais ils ont laissé se développer d’autres formes de pouvoir non prévues
par la théorie démocratique 12. Ces autres formes de pouvoir sont des pouvoirs
dissimulés ou invisibles 13. Le pouvoir dissimulé est celui qui cherche à
influencer les décisions des leaders dans un sens qui l’arrange, même si c’est
contre l’intérêt de la société. C’est un pouvoir factuel mais fin, qu’on appelle
souvent du lobbying. Le pouvoir invisible est un pouvoir cognitif, parfois appelé
« fausse conscience 14 ». C’est un pouvoir qui passe par le discours. Il altère les
mentalités pour rendre les anomalies normales ou pour donner envie de produits
qui causent des problèmes.
En pratiquant des pouvoirs dissimulés et invisibles, les industriels ont fait ce
que la science du cinéma appelle l’underplay, le fait de jouer sans en avoir l’air,
souvent d’ailleurs pour faire en sorte qu’une situation semble moins
préoccupante qu’elle ne l’est réellement. Il paraît que les plus grands acteurs
sont des champions de l’underplay et il faut reconnaître que les industries
pathogènes ont très bien joué. Les leaders politiques ne sont pas toujours nuls, ce
sont les industriels qui sont trop bons.
Le biopouvoir positif est celui qui est exercé par les leaders politiques pour
protéger ou améliorer la santé. Il entre dans la classe des pouvoirs visibles. Le
biopouvoir négatif, inventé par les industries pathogènes pour éterniser leur
croissance, appartient aux pouvoirs dissimulés ou invisibles. Le biopouvoir
positif et le biopouvoir négatif sont pris dans une relation géométrique. Ils
travaillent dans un espace constant car la quantité de pouvoir disponible dans
une société est limitée. Si le biopouvoir positif est fort, le biopouvoir négatif est
faible et inversement. L’émergence d’un biopouvoir négatif se fait
obligatoirement au détriment du biopouvoir positif. La santé d’une société
dépend du résultat des rapports de force entre le biopouvoir positif et le
biopouvoir négatif.
Les données épidémiologiques du XXIe siècle sont souvent régressives parce
que le biopouvoir négatif des industriels a affecté le pouvoir visible des États ou
des leaders locaux pour en atténuer la portée. En démocratie, ce n’est presque
jamais de la corruption, c’est juste de la capture 15. Beaucoup de limites
politiques sont expliquées par la capture, cet état ambigu et intermédiaire entre la
perfection et la corruption, état par lequel les leaders se font influencer dans le
sens de l’intérêt industriel et non de la société. Si l’équation de la santé mondiale
montre des efforts publics qui ne sont pas proportionnés à la taille des problèmes
épidémiologiques, c’est à cause de la capture. Les différences entre les politiques
de santé et la quantité de maladies industrielles témoignent surtout des
différences de capture.
L’industrie du tabac, après avoir été la pionnière et la meilleure pour cultiver
un biopouvoir négatif, est en train de perdre sa capacité de capture. La lutte
contre le tabac n’est pas résolue, mais on sait quelles sont les actions publiques
qui marchent et ces actions sont appliquées. C’est grâce à elles que les gens
fument moins. Les pays s’imitent les uns les autres pour refouler l’industrie du
tabac, avec des résultats analogues. Pour d’autres industries pathogènes,
l’évolution est différente. En copiant les méthodes des producteurs de cigarettes,
les industries fossiles puis la chimie, l’alimentation et les réseaux sociaux
numériques ont réussi à limiter les réactions publiques contre elles. Le
biopouvoir positif aurait dû atténuer ou inverser la croissance de ces industries et
des maladies chroniques qui ne profitent qu’à elles. Ces entreprises ont réussi
pour l’instant à échapper aux actions efficaces : elles ne sont pas bien régulées,
pas assez taxées et même les données sur leurs effets épidémiologiques ne sont
pas suffisamment répandues.
Dans leur conflit fondamental, les deux biopouvoirs ne luttent pas avec les
mêmes moyens — le biopouvoir négatif en a plus —, mais ils travaillent sur les
mêmes territoires, à savoir la loi, l’économie et la cognition, qui sont les trois
déterminants d’un biopouvoir. Pour avantager ou réprimer la production de
maladies, les acteurs du biopouvoir passent par ces trois déterminants : autoriser
ou réguler voire interdire, taxer ou détaxer, et disséminer des connaissances
vraies ou fausses à propos des risques épidémiologiques.

Les quatre manifestations du biopouvoir négatif


Plusieurs équipes ont étudié ce qu’elles ont appelé les déterminants
industriels et commerciaux de la santé 16, qui sont en fait des déterminants de la
maladie. Martin McKee et David Stuckler estiment qu’il existe au moins quatre
manifestations du biopouvoir négatif, qui encore une fois est souvent dissimulé
ou invisible. Premièrement, les industries définissent le récit dominant sur les
déterminants de la santé. C’est une forme typique de pouvoir invisible. La
communication des industries pathogènes, quel que soit le média, veut faire
croire que la santé est une affaire individuelle. Avec un discours supposé positif,
elles cherchent à convaincre les gens qu’ils seraient entièrement responsables de
leur santé ou de leurs maladies, ce qui est faux. Les grandes maladies sont
racontées comme dépendantes du comportement pour détourner l’attention de
leurs causes environnementales. Le drame est que les États y croient et les
suivent. La prévention des pathologies cardiovasculaires, qui tuent plus de
18 millions de personnes par an dans le monde, se concentre presque
exclusivement sur les risques comportementaux et métaboliques. Pourtant la
pollution y participe largement, bien qu’elle ne soit jamais mentionnée 17.
L’obésité est récitée comme une histoire dans laquelle les gens mangent trop et
ne bougent pas assez, alors qu’elle est aussi influencée par la transformation
alimentaire, les perturbateurs endocriniens et l’environnement social. Le récit
dominant consiste à nier ce qui se joue au-delà de nous et qui est impossible à
gérer pour les individus.
Ensuite, quand les premières données sur la toxicité de leurs produits
émergent, les industries pathogènes réagissent en répandant du doute. Elles
cherchent à mettre l’accent sur la possibilité d’autres causes que celles qu’elles
produisent elles-mêmes. L’industrie du tabac avait par exemple voulu minimiser
le rôle de la cigarette dans le cancer du poumon, en soulignant l’effet de la
pollution ou de l’environnement de travail. Les industries polluantes ont fait
l’inverse, cherchant à n’incriminer que le tabac. De façon plus large, le
marketing des industries pathogènes participe aux normes sociales, c’est-à-dire
aux croyances et aux perceptions des gens. Ce marketing valorise les libertés
individuelles, ce qui permet de contester toute régulation en prétendant qu’elle
serait liberticide, sauf qu’on perd toujours de la liberté à être malade. L’attention
portée à l’individu rend plus facile la critique des États ou des leaders locaux, et
elle participe à dégrader le contrat social pour tenter de le remplacer par un
énième marché.
Deuxièmement, les industries pathogènes influencent la fixation des règles,
qu’il s’agisse de régulation ou d’économie. Elles cherchent constamment à
faciliter l’autorisation et la non-taxation de leurs produits. C’est d’ailleurs un
paradoxe, car elles critiquent les actions des gouvernements dont elles dépendent
quand il s’agit de protéger leurs brevets ou leurs droits de manière générale. Les
industries pathogènes luttent pour une régulation lâche, qui doit laisser leurs
produits pénétrer le marché sans données sur leur sécurité. Elles ont réussi à le
faire dans les domaines chimique et alimentaire. Les produits chimiques sont
commercialisés avec des données cliniques minimales ou inexistantes, et leur
surveillance post-commercialisation est inconsistante. L’alimentation est encore
moins régulée. Il n’y a pratiquement jamais eu d’interdiction de produit ultra-
transformé, même depuis que leur toxicité est avérée. Pour justifier leur
demande de sous-régulation, les industriels exhibent toujours le même prétexte,
à savoir qu’une régulation sévère est mauvaise pour l’innovation, un argument
faux qui a été invalidé par l’exemple déjà cité de la pharmacie 18. L’histoire de ce
secteur montre qu’une régulation sérieuse pousse les industriels à investir dans la
recherche pour trouver des produits plus sûrs et plus efficaces, ce qui finit par
leur profiter.
Troisièmement, les industries pathogènes privatisent une part excessive des
connaissances. Elles pratiquent l’extension du domaine de la propriété
intellectuelle. En privatisant les données, elles les contrôlent. Elles limitent ou
retardent la capacité des chercheurs à comprendre les effets des produits
industriels.
Quatrièmement, les industries exercent une influence sur les droits. Quand
une perspective de régulation ou de taxation émerge, elles promettent qu’elles
seront obligées de détruire des emplois pour rester compétitives. Elles
demandent aux gouvernements d’être « raisonnables » et « pragmatiques », en
prétendant que la réalité est « complexe ».
Sur chacun de ces quatre déterminants industriels et commerciaux, les
leaders auraient pu intervenir. Ils en avaient les moyens politiques et techniques.
Ils auraient pu faire en sorte que les choses soient différentes : une histoire vraie
sur les risques et les causes de maladies, des règles plus protectrices pour
l’environnement et la santé, une connaissance traitée comme un commun, et des
droits meilleurs, qui tiennent aussi compte de la compétition internationale.
Chaque fois qu’ils ne l’ont pas fait, la croissance des industries pathogènes y a
gagné et la santé humaine y a perdu, ce qui veut dire que toute la société a été
perdante.

Un pouvoir asymétrique
Les industries pathogènes ont d’autant moins de mérites qu’il existe
plusieurs asymétries qui avantagent leur biopouvoir négatif, asymétries qui
s’accentuent avec le temps. D’abord, elles s’appuient sur l’expertise accumulée
par l’industrie du tabac, une des premières à avoir inventé un biopouvoir négatif
efficace. Les producteurs de cigarettes ont développé un arsenal de méthodes qui
marchent pour désarmer le biopouvoir positif. Depuis leur « succès », les autres
industries pathogènes ont appliqué les mêmes approches avec la même réussite
commerciale. Leurs techniques poursuivent trois intentions principales, selon le
degré de conscience des problèmes : rendre invisible ce qui est mauvais,
produire du faux sur ce qui est déjà visible (« le doute est notre produit 19 »),
provoquer des non-décisions ou des décisions inactives quand les situations sont
enfin reconnues comme problématiques 20. Derrière ces objectifs, il y a une seule
logique qui n’est pas de supprimer les problèmes — pas de rendre les cigarettes
inoffensives — mais plutôt d’en faire des non-scandales. Chaque industrie a
suivi ces étapes. D’abord, tenir le problème hors de la vue, puis le mitiger une
fois qu’il est détecté, et enfin inhiber toute répression efficace afin de perpétuer
leur croissance malsaine au lieu de s’orienter vers une sécurisation ou une
reconversion.
La deuxième asymétrie concerne les efforts. Il est plus facile d’exercer un
biopouvoir négatif que positif, car le biopouvoir négatif cherche la conservation
alors que produire de la santé nécessite des évolutions. Or il est plus pratique de
ne rien faire que de faire. En étudiant un cas particulier, John Gaventa a examiné
le déséquilibre dans les rapports de pouvoir. Quand l’absence de contestation
devient une habitude, les industries pathogènes n’ont pas à réagir
particulièrement pour défendre leur biopouvoir négatif. Le déséquilibre
s’accentue de lui-même car il existe souvent une inertie sociale, et plus le temps
passe, plus les situations se fixent. L’inégalité crée un sentiment d’impuissance,
raison pour laquelle la « quiescence » est préférée à la « rébellion 21 ». Au total,
l’inertie amassée augmente le poids du biopouvoir négatif.
Alors qu’il n’y a pas grand-chose à faire pour laisser tranquille un marché
pathogène, il faut au contraire beaucoup de conditions pour le troubler. Au
moins trois semblent indispensables. D’abord, il faut convaincre de « l’intensité
dramatique du problème 22 ». Ensuite, il faut expliquer en quoi il est nouveau, ce
qui passe souvent par une démonstration statistique. Enfin, la résolution du
problème doit être en adéquation avec les valeurs dominantes de la société. Si
une seule de ces trois conditions est manquante, le processus de résolution a
toutes les chances d’échouer.
Enfin, la troisième asymétrie concerne la visibilité déjà mentionnée. Le
biopouvoir positif est visible, ce qui l’expose à de nombreuses critiques dont la
plupart sont erronées. Inversement, le biopouvoir négatif doit rester inaperçu
pour être plus efficace. Or il se normalise au fur et à mesure de son exercice, ce
qui explique qu’il devient paradoxalement de moins en moins visible. En
accentuant sa discrétion, il diminue la probabilité de scandaliser.

La cession du pouvoir aux entreprises pathogènes explique la croissance des


épidémies industrielles, surtout par l’offre de risques. Elle facilite la régulation
lâche qui est la première étape. Elle permet ensuite la non-taxation ou la sous-
taxation, deuxième temps à réussir pour qu’un produit soit abordable bien que
son prix mente sur son coût social réel. Enfin, la cession de pouvoir donne la
permission aux industriels de raconter une histoire inventée pour tromper les
gens à propos des risques qu’ils prennent, et c’est là qu’elle influence aussi la
demande. L’information délivrée cherche à faire un tableau bénin de ce qui ne
l’est pas, ou à cacher le don addictif de certains produits.

1. Michel Foucault, Naissance de la biopolitique, EHESS-Gallimard-Seuil, 2004.


2. Jean-David Zeitoun, La Grande Extension, op. cit.
3. Daniel Carpenter, Reputation and Power, Princeton University Press, 2010.
4. Jonathan J. Darrow et al., « FDA approval and regulation of pharmaceuticals, 1983-2018 », JAMA,
2020.
5. Agence américaine pour la protection de l’environnement ou Environmental Protection Agency.
6. Michael Greenberg et al., « Endangering the health of all: destroying a half century of health leadership
along with America’s environment », American Journal of Public Health, 2020.
7. Jonathan M. Samet, « The Clean Air Act and health – a clearer view from 2011 », NEJM, 2011.
8. Philip J. Landrigan et al., « The Lancet Commission on pollution and health », The Lancet, 2018.
9. Jeremy A. Greene, Scott H. Podolsky, « Reform, regulation, and pharmaceuticals – the Kefauver-Harris
Amendments at 50 », NEJM, 2012.
10. C’est le Kefauver-Harris Drug Act.
11. Kira E. Riehm et al., « Associations between time spent using social medica and internalizing and
externalizing problems among US youth », JAMA Psychiatry, 2019.
12. Pour des raisons de clarté, le terme de leaders politiques est employé pour désigner tous ceux qui
appartiennent à l’État, quelle que soit l’échelle. Pour mieux comprendre le dégradé de pouvoir qui existe en
réalité, voir Henri Bergeron, Patrick Castel, Sociologie politique de la santé, PUF, 2018.
13. Robert Dahl, Qui gouverne ? (1961), Armand Colin, 1971.
14. Martin McKee, David Stuckler, « Revisiting the corporate and commercial determinants of health »,
American Journal of Public Health, 2018.
15. Voir par exemple Jean-Jacques Laffont, Jean Tirole, Théorie des incitations et réglementation,
Economica, 2012. Et aussi Daniel Carpenter, David A. Moss, Preventing Regulatory Capture: Special
Interest Influence and How to Limit It, Cambridge University Press, 2013.
16. Ilona Kickbusch et al., « The commercial determinants of health », The Lancet, 2016. Et aussi Martin
McKee et David Stuckler, « Revisiting the corporate and commercial determinants of health », op. cit.
17. Sanjay Rajagopalan, Philip J. Landrigan, « Pollution and the Heart », NEJM, 2021.
18. Bernard Munos, « Lessons from 60 years of pharmaceutical innovation », Nature Reviews Drug
Discovery, 2009. Et aussi Frederic M. Scherer, Pharmaceutical Innovation, Harvard University, 2007.
19. La citation est tirée d’un mémo datant de 1969, écrit par un dirigeant de l’industrie du tabac.
20. Emmanuel Henry, La Fabrique des non-problèmes, Presses de Sciences Po, 2021.
21. John Gaventa, Power and Powerlessness: Quiescence and Rebellion in an Appalachian Valley,
University of Illinois Press, 1980.
22. Patrick Hassenteufel, Sociologie politique : l’action publique, Armand Colin, 2008.
11
Les raisons possibles de l’échec du politique

Les déterminants industriels et commerciaux de la santé racontent comment


les leaders politiques laissent les industries pathogènes et la santé humaine
évoluer en sens inverses. Ils ne disent pas pourquoi les États et les leaders locaux
acceptent la capture. Il n’y a pas de données systématiques qui permettraient de
traiter cette question. Même les témoignages de leaders politiques, quand ils
existent, sont d’une sincérité douteuse. On peut juste essayer de deviner les
raisons de la défaite politique contre les industries pathogènes.
Une première réponse intuitive pourrait être que les leaders politiques ont les
mêmes vulnérabilités que les autres humains, ce qui voudrait dire que les causes
de leurs défaillances sont proches : ils ne connaissent pas tout, ils se trompent,
ou ils sont désespérés ou du moins dominés par un sentiment d’impuissance
devant la taille du problème, un sentiment qui les fait abandonner. Cette réponse
est crédible mais la réalité complexe n’est pas connue. Quand on pose la
question à Robert Lustig 1, il estime que les leaders politiques en savent
suffisamment, même s’ils sous-estiment la situation. Lustig ajoute que les
leaders « savent mais qu’ils ne savent pas quoi faire, et qu’ils ont abdiqué ». Sur
cette même question, Philip Landrigan a deux explications 2. La première est que
« les industriels du pétrole, du plastique ou de l’alimentation transformés sont
puissants et organisés. Ils ont appris à travailler le système politique ».
Landrigan valide la capture. Sa deuxième explication concerne le pourquoi. Pour
lui, la médecine et la santé publique sont victimes de leurs succès. Beaucoup de
maladies ont été atténuées ou éliminées. La société mondiale en est à la
deuxième génération de parents jeunes qui n’ont pas connu certaines maladies,
ce qui expliquerait que les États ou les leaders locaux ne voient pas les
problèmes dans toute leur intensité. Martin McKee invoque 3 un ensemble
d’explications proches, comme le fait que la mesure du progrès se base sur
l’économie et non sur les sociétés, que le problème ne soit pas bien visualisé,
que les solutions soient perçues comme difficiles, ou encore que les lobbys
soient trop efficaces.

Trois hypothèses sur la faillite du politique


Dans l’ensemble, au moins trois hypothèses sont crédibles pour préciser les
raisons de la défection politique. Deux sont des erreurs théoriques (aux impacts
factuels) et une serait une erreur directement factuelle. Ces trois hypothèses ne
sont pas concurrentes et elles n’expliquent sûrement pas tout.
La première erreur concerne la croissance économique. Il n’y a pas besoin
de démontrer qu’elle est une obsession politique. Tous les leaders en campagne
ou en exercice la promettent. Ils cherchent aussi à disqualifier les critiques qui la
ciblent. La croissance économique a commencé par changer le monde en bien.
Elle a existé avant d’être inventée, c’est-à-dire avant d’être théorisée. Elle sort de
la stagnation vers 1820. Les économistes ont estimé qu’entre 1000 et 1820, la
croissance moyenne par personne n’avait pas dépassé 0,05 % par an 4.
Entre 1820 et 1870, elle a été multipliée par 10 pour atteindre environ 0,5 % par
an. Au XXe siècle, elle a souvent été de 3 à 4 % par an. Elle a permis des progrès
humains inédits, en sortant des milliards de personnes de la pauvreté, et en
améliorant les standards de vie qui eux-mêmes protègent la santé.
C’est plus de cent ans après le début réel de la croissance, c’est-à-dire dans
les années 1930, que Simon Kuznets développe un indicateur pour évaluer l’effet
économique de la Grande Dépression. Il crée alors ce qui sera le produit intérieur
brut (PIB), après avoir été retravaillé par Keynes et d’autres économistes anglais.
Le PIB devient la métrique de référence de l’analyse économique à l’issue de la
conférence de Bretton Woods, en juillet 1944. Il mesure la production de biens
et de services, c’est-à-dire de choses et de non-choses qui en fait s’appuient
toutes sur des ressources matérielles et d’énergie. La croissance économique est
la croissance du PIB à prix constants. Elle est toujours une croissance physique.
Le PIB et sa croissance ont été challengés depuis longtemps. Kuznets lui-
même disait que « les distinctions doivent être gardées à l’esprit entre la quantité
et la qualité de la croissance, entre les coûts et les retours, et entre le court et le
long terme. Les objectifs de plus de croissance devraient spécifier plus de
croissance de quoi et pour quoi 5 ». Dix ans après la déclaration de Kuznets,
quatre jeunes scientifiques du MIT dramatisaient le message : la croissance allait
épuiser la planète de ses ressources et mènerait au ralentissement puis au recul
économique. Ces chercheurs du Massachusetts Institute of Technology (MIT)
ont publié leurs travaux dans un livre, Les Limites à la croissance 6. Avec des
données sophistiquées et des modèles innovants, le livre connu sous le nom de
Rapport Meadows, a été l’une des premières études à prédire l’impact social et
environnemental de la croissance industrielle. La prévision était choquante et a
été mal reçue. Les critiques négatives ont probablement été majoritaires, biaisées
par une croyance fausse sur le caractère réversible des dommages causés par
l’activité industrielle, et par une confiance médiocre dans les modèles
informatiques qui étaient perçus comme immatures. La revue Nature a parlé
d’une « autre bouffée d’apocalypse 7 ». Pourtant, le livre a posé la question de la
croissance en termes physiques, c’est-à-dire en termes réels, une approche que
personne n’a réussi à raisonnablement contredire depuis. Le double problème
des extractions et des émissions nécessaires à la croissance de l’activité
économique n’a pas diminué, au contraire. Bien sûr, le travail du MIT contient
des erreurs qui ont été tournées en dérision. Pourtant il s’est très peu trompé et
ses erreurs ou ses lacunes ne changent pas sa vision et son intelligence
exceptionnelles. Ses rééditions, la dernière pour ses 50 ans, démontrent son
extraordinaire validité, à commencer par le message que la croissance physique
infinie est une option attirante mais irréaliste.
Le PIB et sa croissance ont continué d’être des standards, mais les reproches
se sont intensifiés. La relation reste proportionnelle entre la consommation d’un
côté — intrinsèquement liée à la croissance — et de l’autre côté les émissions de
CO2 et de polluants, les extractions d’eau et de matières premières, la
consommation d’énergie et la détérioration du monde vivant. La croissance de la
consommation l’a emporté sur les changements technologiques qui ont permis
de gagner en rendement, un phénomène déjà mentionné comme étant une loi
historique de la pollution. Le revenu augmente la consommation qui augmente
les dommages. La croissance infinie est impossible, car la croissance n’écoute
pas le monde naturel et ne parle pas des problèmes qui touchent les gens. Sa
poursuite produit des effets environnementaux et épidémiologiques
irrécupérables, qui ont fini par compromettre la croissance elle-même. Cette
répression de la croissance par elle-même est difficile à admettre pour toute une
génération d’économistes, alors que des auteurs classiques comme David
Ricardo ou John Stuart Mill l’avaient identifiée très tôt.
La croissance au XXIe siècle comporte trop de fragments qui dépendent
d’industries pathogènes. En cumulant les industries fossiles, chimiques, du
tabac, de l’alcool et des aliments transformés, on arrive au moins à 10 % du PIB
mondial, ce qui est sûrement une sous-estimation. Leurs effets négatifs ont
longtemps été compensés par les autres effets positifs de la croissance sur les
standards de vie et par les innovations de la médecine et la pharmacie. Dans les
faits, la moindre évocation d’une action contre une industrie pathogène, par la
régulation ou la taxation, suscite une réaction politique négative immédiate. Ces
réflexes de la part des leaders viennent de leur attachement inconditionnel à la
croissance.
Presque tout le monde reconnaît maintenant que les activités humaines
créent des dommages énormes et définitifs. Mais les chercheurs diffèrent sur les
solutions. Ils ne sont pas du même avis quant au rôle à donner à la croissance.
Pour certains, elle est encore plus indispensable pour financer la transition
environnementale, alors que d’autres pensent qu’il faut en sortir 8. Les débats ne
sont pas terminés mais il y a une asymétrie. Il n’existe pas de preuve théorique
ou factuelle que la croissance telle qu’elle est définie, soit compatible avec la
conservation de la planète ou de l’espèce. Il n’y a pas de preuve que la poursuite
de la croissance puisse se faire tout en faisant progresser la longévité humaine.
C’est une hypothèse qui n’est pas nulle mais ce n’est pas une donnée. Il existe au
contraire des masses de données sérieuses qui montrent que la croissance
économique a provoqué une quantité presque incalculable de maladies et de
morts.

La deuxième hypothèse de la défaillance politique viendrait de l’accent qui a


été mis sur l’individu. Cette raison ressemble à un paradoxe parce que c’est en
voulant donner les déterminants aux gens que les leaders les ont lâchés. Les
États ont transféré aux individus une responsabilité excessive en leur faisant
croire qu’ils avaient dans leurs mains les clés de leur santé, alors que les causes
dominantes de maladies les dépassent. Cette concentration sur l’individu est un
dérapage du libéralisme. Le libéralisme n’est pas une théorie mais un univers
d’idées et d’idéologies parfois incompatibles entre elles. À l’émergence du
libéralisme, deux idées supérieures se sont imposées. La première voulait que la
liberté soit considérée du point de vue de l’individu et non de la société. La
deuxième idée était que tout le monde a droit à la liberté et pas seulement les
élites. Un discours connu de Benjamin Constant marque cette double rupture
conceptuelle par rapport à l’état antérieur 9.
Le libéralisme a depuis évolué et il a été travaillé d’une façon qui n’est pas
résumable. Après la Seconde Guerre mondiale, les économistes de l’école de
Chicago ont poussé une forme de libéralisme total, qu’ils ont appelée
néolibéralisme et qui défendait l’absence d’intervention de l’État. Dès lors, le
libéralisme a dominé l’économie au point de déborder sur la société, et de s’en
prendre à tous les domaines de la vie.
Les politiques de santé ont surtout ciblé les individus, qu’il s’agisse de
programmes ou d’interventions. Elles ont surligné la part comportementale des
risques. Elles ont même encouragé des réponses comportementales à des risques
environnementaux. En pratique, elles ont négligé le traitement des causes des
problèmes tout en recommandant aux gens d’en éviter les conséquences. Les
États et les leaders locaux ont permis une pollution chimique démentielle et ont
demandé aux personnes de laver les fruits et légumes, sauf que même l’eau du
robinet contient des pesticides 10. Ils ont suggéré de ne pas chauffer le plastique
et de se passer des accessoires de cuisine contaminés par des PFAS, composés
chimiques toxiques et omniprésents. L’histoire est la même pour les aliments
toxiques, que les acteurs publics déconseillent alors qu’ils les ont laissés devenir
envahissants et moins chers que les bons aliments. On encourage aussi les gens à
bouger, alors que les villes ne leur proposent pas d’espace pour le faire et que
leur vie ne leur donne pas de temps. Les cas des tueurs les plus évidents, à savoir
le tabac et l’alcool, sont encore caractéristiques de ce dérapage du libéralisme.
En voulant valoriser les individus, les leaders politiques libéraux les ont mis
sous pression, à la fois par l’offre et par la demande. D’une part en dérapant, le
libéralisme encourage l’offre : il donne les idées qui facilitent l’autorisation
laxiste, le marché sans intervention sur les prix, et la liberté de communiquer de
manière embellie et trompeuse. La liberté de l’offre a disséminé une foule de
risques autour des gens. Ensuite, le libéralisme encourage aussi la demande, en
donnant d’autres idées qui font croire que l’individu possède les moyens
matériels et intellectuels de faire des choix parfaits pour sa santé. Les leaders
politiques appuient un discours ambiant qui prétend que les gens doivent se faire
acteurs de leur santé, tout en laissant les industries pathogènes rester des acteurs
de la maladie.
Le libéralisme porte des ambitions humaines exceptionnelles, mais l’idée
que les gens auraient les moyens de déterminer leur santé est un rêve.
Tocqueville, Constant ou Mill ont produit des chefs-d’œuvre intellectuels et
même littéraires qui ne s’appliquent pas aux sociétés du XXIe siècle. Laisser le
marché faire sa vie sans tenir compte des retombées négatives est une erreur
d’interprétation et de vision. Les causes dominantes de maladies non naturelles
viennent de l’économie et de la société, ce que les leaders politiques sous-
évaluent, et qui les amène aussi à négliger les traitements publics.

Une troisième hypothèse pour la faillite politique vient de la sous-estimation


des dommages épidémiologiques et économiques. Ces dommages eux-mêmes ne
sont pas stables, ils évoluent et surtout il a fallu des décennies pour les
quantifier. D’abord, pour certaines industries pathogènes, la suspicion a mis du
temps à se former. Ensuite, une fois que l’hypothèse existe, les études
épidémiologiques sont difficiles et longues. Une seule étude ne suffit pas pour
prouver définitivement une relation entre un risque et une maladie. On en sait
maintenant assez sur les effets toxiques de certains aliments, de la pollution de
l’air ou des produits chimiques, mais le passé a été plus hésitant. Les données du
e
XXI siècle montrent sans ambiguïté l’impact énorme des industries pathogènes,
supérieur au tabac pour la pollution totale, un peu inférieur pour l’instant pour
l’obésité. Jusqu’aux années 2010, ces dommages restaient indétectables sur la
mortalité moyenne et l’espérance de vie. La progression continue de la longévité
ne permettait pas de douter des problèmes, mais elle a rendu possible un déni des
effets. Les innovations de la médecine et la pharmacie compensaient
suffisamment les conséquences des maladies. Les États et les élites en général ne
regardent souvent que les données agrégées, ce qui compromet leur vue des
situations. En se limitant à l’espérance de vie, qui paradoxalement n’est pas
l’indicateur le plus signifiant, les leaders politiques et intellectuels sont passés à
côté de la croissance des maladies chroniques.
On sait aussi que les pertes économiques sont massives. Elles enlèvent
plusieurs points de croissance à toutes les sociétés, sans doute encore plus à la
société mondiale. Martin McKee pense que si les leaders politiques sont lents à
comprendre, à l’inverse, « les gens sont en avance ». Pour McKee, les États et
les leaders locaux « sous-estiment les effets épidémiologiques et aussi à quel
point le problème est lié à l’économie 11 ».
Les risques industriels ont toutes les qualités pour exercer clandestinement
leurs effets et être attrapés avec retard. Trois caractères expliquent le défaut et le
délai de reconnaissance. D’abord, leurs effets sont non spécifiques. Ils
provoquent souvent des maladies déjà connues et répandues, c’est-à-dire des
maladies qui n’étonnent personne. Il n’est pas évident de reconnaître un nouveau
suspect à un problème qui existe déjà et pour lequel il y a beaucoup de
coupables. Ces maladies peuvent avoir d’autres causes avérées ou être sans
cause connue — il y en a forcément, mais la science ne les a pas encore
identifiées. L’absence de spécificité permet de douter facilement et de bonne foi.
La pollution et les aliments ultra-transformés participent à la formation des
maladies classiques, en particulier les deux qui tuent le plus, à savoir les
pathologies cardiovasculaires et les cancers. Ces groupes de maladies ont déjà
pas mal de causes, ce qui permet aux risques industriels de ne pas être incriminés
malgré leur culpabilité.
Deuxièmement, les dommages sont rarement instantanés. À peu près tous les
risques industriels traités dans ce livre, et qui sont les plus problématiques, ont
des effets plus ou moins décalés. Comme ils sont cumulatifs, beaucoup sont
éloignés dans le temps par rapport à l’exposition initiale. Non seulement on ne
les observe pas tout de suite, mais quand la suspicion émerge, les études à mener
calent sur des difficultés de méthode. Les études rétrospectives produiront des
résultats fragiles et les études prospectives seront très chères et très longues.
Encore une fois, la pollution — notamment chimique — et les aliments toxiques
appartiennent à ce profil.
Troisièmement, les mécanismes pathogènes sont parfois indirects. Les
risques passent par des intermédiaires derrière lesquels il est plus difficile de les
voir. Les perturbateurs endocriniens sont un exemple, puisqu’ils causent des
désordres hormonaux eux-mêmes susceptibles de provoquer des maladies et des
complications.
Un quatrième élément explique la complexité de l’estimation, qui tient plutôt
à l’état de la société mondiale : c’est qu’il y a trop de risques et tous participent
plus ou moins à la production de maladies. Il est très difficile, parfois
impossible, de différencier le rôle de chacun. Les statisticiens parlent de
colinéarité.
Tous ces caractères expliquent déjà que la science épidémiologique ait du
mal et prenne du temps pour montrer et quantifier les risques. Même quand elle
commence à le faire, il y a toujours une incertitude résiduelle qui ouvre une
période de latence : le risque persiste ou poursuit son expansion, les
connaissances sont déjà là mais la politique préfère attendre. Ce schéma de
latences en série est typique voire systématique des risques industriels. À chaque
latence, il y a des dommages injustifiés et irréparables. Pour les leaders
politiques, l’enjeu n’est pas de supprimer les latences mais de les abréger.
1. Entretien avec l’auteur, le 18 janvier 2022.
2. Entretien avec l’auteur, le 11 janvier 2022.
3. Entretien avec l’auteur, le 29 décembre 2021.
4. Angus Maddison, The World Economy: a Millennial Perspective, op. cit., et aussi Angus Maddison, The
World Economy: Historical Statistics, op. cit.
5. Simon Kuznets, « Rethinking the system of national accounting », The New Republic, 1962.
6. Donella H. Meadows, Dennis L. Meadows et Jørgen Randers, The Limits to Growth, Potomac
Associates, 1972.
7. Nature, vol. 236, p. 47-49, 1972.
8. Éloi Laurent, Sortir de la croissance, mode d’emploi, Les liens qui libèrent, 2019.
9. Benjamin Constant, De la liberté des anciens comparée à celle des modernes, 1819.
10. Stéphane Foucart et al., « Pesticides : de l’eau potable non conforme pour 20 % des Français », Le
Monde, 21 septembre 2022.
11. Entretien avec l’auteur, déjà cité.
V

SAUVER L’ESPÈCE
La science psychologique nous dit que pour communiquer efficacement sur
les risques, il y a des règles à suivre 1. Premièrement, il faut donner un contexte,
sinon les faits paraissent abstraits et leur signification nous échappe. Donner un
contexte passe souvent par la comparaison. Les risques industriels du XXIe siècle
peuvent être mis en parallèle d’autres risques historiques pour faire prendre
conscience de leur taille. Démontrer que les dommages sont en croissance est
une autre façon de prouver qu’il y a un problème. Les données super locales sont
aussi un élément de contexte qui parle aux gens. Les statistiques mondiales n’ont
pas toujours le pouvoir d’évocation nécessaire pour que les individus
comprennent qu’un risque les concerne.
Deuxièmement, il faut limiter la charge cognitive du message. Depuis
longtemps, les informations sont trop nombreuses et trop complexes à
interpréter. Nous ne pouvons pas tout calculer, ce qui n’est pas grave car nous
avons besoin de comprendre les ordres de grandeur, pas le deuxième chiffre
après la virgule. Dire que près de la moitié des cancers sont évitables, que les
maladies cardiovasculaires augmentent à cause de l’obésité qui elle-même
augmente partout, ou que les atteintes environnementales coûtent plus qu’elles
ne rapportent, est un message simple. Les études montrent que présenter les
données de cette façon aide les gens à répondre concrètement aux situations.
Troisièmement, il faut raconter des histoires qui vont au-delà des
statistiques, et qui permettent de faire le lien entre les données quantifiées et les
complications qui touchent les gens. Elles aident à saisir la relation de cause à
effet entre les dérapages de la société mondiale et les dommages intimes que
nous pourrions connaître. Elles le font d’autant mieux si on les reconnecte aux
données statistiques pour montrer qu’elles ne sont pas que des anecdotes.
Quatrièmement, il faut proposer des solutions aux problèmes.

Les raisons des échecs et des réussites


On ne peut pas être sûr de la solution idéale mais on sait au moins ce qui a
poussé l’espèce au suicide. D’abord une cession du pouvoir, se manifestant par
une absence d’intervention de l’État : une régulation lâche, un marché défaillant
où ce qui est toxique est moins cher, un marketing trompeur niant les risques et
reportant la faute sur les individus. Parmi les raisons de l’échec, il y a des actions
inefficaces, qui s’adressent aux personnes au lieu de remettre en cause les
conditions pathogènes. Les mauvaises politiques de santé saturent la vigilance
des individus en leur demandant des adaptations comportementales trop
nombreuses et infaisables. On a proposé aux victimes de se défendre sans armes,
et on a donné aux coupables la liberté d’action qu’ils voulaient. En matière de
communs, laisser le marché à lui-même revient à s’assurer que les choses se
passeront mal. Lâcher les gens au milieu d’une montagne de risques est un choix
injuste et inefficace.
On sait aussi ce qui a marché. Certains risques ont été atténués ou effacés.
Le plomb a été éliminé dans la plupart des pays par la loi et la régulation. En
France, la quantité de plomb en circulation a lentement baissé grâce à plusieurs
interventions légales étalées entre le début et la fin du XXe siècle. Le tabagisme
est en baisse dans le monde et dans beaucoup de régions. Même si la question du
tabac n’est pas résolue et que ces baisses sont trop lentes, on sait au moins
quelles sont les politiques qui peuvent le réprimer : la régulation et la taxation,
qui agissent sur l’offre de cigarettes. Troisièmement, la pollution de l’air
diminue dans les démocraties à hauts revenus, du fait de la régulation. Un
arsenal légal et réglementaire permet aux États de réduire les émissions de
certains polluants et de surveiller la composition de l’air pour réagir si
nécessaire. L’alcoolisme régresse aussi dans pas mal de pays développés, en
particulier certaines formes de consommation, pour des raisons qui s’appuient
aussi sur la régulation et la taxation.
Enfin, un marché à part a trouvé son modèle depuis plus de soixante ans,
c’est la pharmacie. Presque tous les médicaments sont sûrs — ceux qui ne le
sont pas assez sont retirés du marché — et la plupart sont efficaces. Pourtant, les
conditions initiales de ce marché sont délicates : les médicaments sont des
molécules biologiquement actives qui s’adressent à des personnes fragilisées par
la maladie, et donc à risque. Malgré ce contexte, la pharmacie est un marché de
qualité parce qu’elle est lourdement régulée 2, ce qui n’empêche pas les
laboratoires d’innover et de gagner beaucoup d’argent. Au passage, ce sont les
industriels qui financent les essais cliniques avant commercialisation, preuve que
ce n’est pas un problème en soi. Le défaut des autres marchés ne vient pas du
financement industriel, il vient de la régulation qui n’est pas sérieuse et qui
n’oblige pas à faire les études adéquates.
Ces exemples ne sont pas mineurs. Ils montrent que les actions publiques
efficaces passent avant tout par la régulation et la taxation. Si l’on veut s’en
prendre au suicide de l’espèce, il faudra les faire évoluer et les appliquer. Les
risques décrits dans ce livre le méritent. Ils tombent sous la loi de fer de la santé
publique, un concept inventé dans les années 2000 et défini par quatre critères 3.
Premièrement, le risque en question doit être toxique. C’est le cas de tous les
risques étudiés ou mentionnés. Deuxièmement, le risque doit avoir un potentiel
de dépendance. C’est clairement vrai pour les aliments ultra-transformés,
surchargés en fructose et lourdement addictifs. Troisièmement, le risque doit être
ubiquitaire, c’est-à-dire présent partout. Les polluants aériens ou surtout
chimiques, et les aliments issus de la transformation industrielle sont
littéralement ubiquitaires. Quatrièmement, le risque doit générer des externalités,
c’est-à-dire des dommages qui vont au-delà des personnes exposées. Les effets
de la pollution moderne et des aliments ultra-transformés sont systémiques. Ils
affectent toute la société, qu’ils rendent malade et plus pauvre. Les risques qui
possèdent ces quatre défauts justifient une reprise en main par l’État.
L’expérience historique montre sans ambiguïté ce qui marche et ne marche
pas dans la lutte contre les risques industriels. Pour réprimer les industries
pathogènes dont la croissance altère la santé mondiale, il n’y a pas besoin d’être
original. Il suffit « juste » de laisser tomber les approches ayant prouvé leur
médiocrité, et de reprendre celles dont l’effet est avéré. Trois idées les résument.
Premièrement, il faut cibler l’offre et la demande, et pas seulement la demande.
Deuxièmement, traiter l’offre passe par la régulation et la taxation qui sont
réellement et rapidement efficaces. Troisièmement, cibler la demande veut dire
un traitement social et pas individuel, ou marginalement. Mais d’abord, il faut
mater l’offre.

Réprimer les industries pathogènes


Les politiques de santé qui ont laissé l’offre prospérer librement ont échoué.
Inversement, toutes les politiques qui ont réussi à faire baisser un risque ont
cherché à limiter sa production ou sa dissémination. Pour traiter un risque, il faut
traiter l’offre, c’est-à-dire les industries pathogènes.
Si les États veulent réinvestir le biopouvoir, ils doivent jouer la totalité de
son répertoire, ce qui implique de faire appel à ses trois déterminants : la loi,
l’économie et l’intelligence. Le biopouvoir complet possède deux qualités qui
normalement ne coexistent pas dans l’industrie de l’investissement : son
rendement est certain et son rendement est élevé, ce qui veut dire qu’il est sûr de
rapporter beaucoup. Habituellement, les investisseurs doivent choisir entre le
risque et le rendement. Soit leur rendement est faible mais ils ne prennent pas de
risque. Soit ils prennent des risques et le rendement potentiel est élevé. Le
biopouvoir est une exception puisqu’il garantit un résultat épidémiologique et
une performance économique supérieurs aux standards.

1. Réguler
Le premier déterminant du biopouvoir est la loi et son dérivé, à savoir la
régulation. Le niveau de régulation le plus brut est l’autorisation. Le principe est
simple et devrait être appliqué partout. L’autorisation d’un produit industriel
dépend de l’équilibre entre les bénéfices et les risques sur la base de données
probantes. Les produits sont approuvés si leurs bénéfices l’emportent sur leurs
risques. Ceux qui sont seulement risqués ne sont pas autorisés, pas plus que ceux
dont le bénéfice est inférieur aux risques. Il est fondamental de retirer du marché
les produits trop toxiques, un phénomène que le monde a connu avec les
médicaments dans les années 1960-1970, et dont il s’est remis. Pour un risque
comme la pollution, l’autorisation est le bon niveau de régulation. Les États ne
devraient pas permettre que des composés trop toxiques soient commercialisés.
Ils ne devraient pas laisser passer pour les produits chimiques — auxquels tout le
monde est exposé — ce qu’ils ne supporteraient jamais pour les médicaments.
Une régulation sérieuse veut dire des études extensives et profondes. Les
industriels gagneraient finalement un peu moins d’argent. La société payerait
leurs produits plus cher mais elle serait en meilleure santé, et elle éviterait de
payer des soins pour les maladies provoquées.
Le deuxième niveau de régulation concerne l’accès aux risques. La loi de fer
de la santé publique le formule : restreindre l’accès réduit la consommation et
réduire la consommation réduit les dommages. Theresa Marteau dit qu’il faut
changer « l’architecture des choix dans laquelle un comportement advient 4 ».
Limiter l’accès est une approche ciblant les décisions qui se font en dehors de la
conscience 5. Influencer les automatismes permet de tenir compte de la loi du
moindre effort mental. Les options pour réduire l’accès n’ont pas besoin d’être
compliquées : diminuer la densité de l’offre, lutter contre la facilité à trouver un
produit toxique ou à adopter un comportement pathogène. Ces changements ont
l’air inoffensifs ou trop simples, mais la théorie et les données nous disent qu’ils
sont efficaces. Jouer sur le design des produits est un autre moyen d’orienter les
comportements en modifiant l’environnement. Par exemple, pour détourner les
gens des aliments toxiques, Theresa Marteau propose de traiter les espaces
d’achat physiques ou numériques. Il est possible de positionner les aliments
ultra-transformés au loin, pour les rendre invisibles ou non évidents. Diminuer le
nombre d’épiceries qui ne vendent presque pas d’aliments frais rend moins
accessibles les produits anti-santé. Pour encourager l’activité physique, on sait
que l’extension des espaces naturels a un effet. Elle va jusqu’à doubler les
distances parcourues.
Ces exemples appartiennent à ce que les chercheurs en sciences sociales
appellent le nudge, une approche qui vise à modifier les comportements en
changeant l’environnement et sans faire appel à la conscience. Même si le nudge
pose des questions éthiques et que son efficacité est variable, il est une pièce de
la régulation de l’offre. L’impact individuel du nudge est souvent minime, mais
la taille finale du résultat est compensée par l’effet d’échelle. L’exposition étant
massive, les progrès comportementaux puis épidémiologiques attendus sont
significatifs.
Enfin, il faut réguler l’information commerciale. Les industriels ne doivent
pas pouvoir mentir. Ils devraient être obligés de publier ce qui est addictif et
mauvais.
Pour l’alimentation, il y a un mix à trouver entre les trois niveaux de
régulation : autorisation, accès et information. Certains aliments ultra-
transformés trop toxiques ou trop addictifs pourraient être retirés du marché ou
ne jamais y entrer. Il est faisable aussi de fixer des normes de fructose à ne pas
dépasser. Certains lieux pourraient ne pas être autorisés à vendre des produits
trop transformés : les transports en commun, les enceintes sportives, les
hôpitaux, les périmètres autour des écoles. On peut enfin obliger les industriels à
afficher de façon évidente la quantité de fructose ajoutée, ainsi que le degré de la
transformation elle-même, une donnée déjà proposée par des scores de référence
dont l’adoption est en hausse 6.
La régulation demande de l’argent car il faut équiper le régulateur en
personnel et en technologie. En pharmacie, les régulateurs sont financés en
grande partie par des taxes que payent les laboratoires sans trop s’en plaindre 7.
Ils savent qu’une meilleure régulation est préférable sur un marché aussi
sensible. Elle est rentable pour la société mais aussi pour les entreprises.

2. Taxer
L’économie est le deuxième déterminant du biopouvoir. Après la régulation
ou en plus, il y a la taxation. Le principe est clair et connu. Pour qu’une taxation
soit efficace, il faut qu’elle fasse mal. Une augmentation progressive des taxes
ne provoque pas de baisse notable de la consommation. Elle appauvrit les gens
sans les protéger contre la maladie. Elle est une hypocrisie inventée par certains
leaders politiques pour lever plus d’argent sans traiter le problème. Plusieurs
équipes de chercheurs ont développé des modèles pour le marché alimentaire,
qui suggèrent qu’une augmentation brutale d’au moins 20 % est un début
d’action raisonnable 8. Aujourd’hui, les aliments qui rendent malade ne sont pas
assez chers. D’ailleurs, les trois pays qui consacrent le moins d’argent à
l’alimentation sont le Royaume-Uni, l’Australie et les États-Unis, qui sont aussi
les pays qui connaissent le plus de maladies métaboliques et d’obésité. Pour que
la taxe soit largement acceptée, l’argent levé doit être rendu. Il peut servir à
financer n’importe quel programme de soutien aux malades, ou surtout être
redonné pour acheter des aliments frais. Le sens d’une taxe se trouve dans son
effet social. Si les aliments frais étaient à la fois abordables et deux à trois fois
moins chers que les aliments transformés — aujourd’hui, c’est l’inverse —,
l’effet de marché serait efficace.

3. Accompagner
Traiter l’offre ne laissera pas les industries pathogènes intactes. Une
régulation sérieuse et une taxation à la hauteur impliquent une transition.
Certaines industries pourront augmenter le niveau de sécurité de leurs produits.
D’autres devront se reconvertir et d’autres encore seront éliminées. Quel que soit
le destin prévu, il est possible et nécessaire de les accompagner. Pour l’industrie
chimique, une sécurisation des produits est faisable. La pharmacie est un modèle
qui n’empêche pas des accidents graves, mais qui concernent un nombre limité
de médicaments, pas tout le paysage pharmaceutique 9. Les gens ne le savent pas,
mais les laboratoires pharmaceutiques ont des relations constantes avec les
agences du médicament. Ils leur posent des questions et parlent de leurs
problèmes, en échange de quoi les agences les conseillent. Surtout, elles fixent
les objectifs des essais cliniques, en spécifiant ce qui sera accepté ou non. Elles
peuvent le faire car elles sont équipées grâce aux taxes prélevées aux industriels.
Le conseil réglementaire aux laboratoires est une source d’efficacité et de temps
gagné. Bien sûr, il y a toujours un risque de capture, mais les règles sont strictes
et le bilan d’ensemble de cette relation entre régulateur et régulé est positif. Si la
régulation chimique évolue pour exiger des preuves décentes de sécurité, les
régulateurs pourront conseiller les industriels afin que les nouveautés soient
vraiment sûres.
Pour l’industrie de la transformation alimentaire, la transition devrait
ressembler à une reconversion. Le monde aura toujours besoin de manger. Les
entreprises qui transforment l’alimentation doivent maintenant se transformer
elles-mêmes. Elles devront apprendre à vendre des aliments minimalement
manipulés. Cette dé-transformation de l’alimentation est techniquement à leur
portée. Les industriels peuvent s’adapter, c’est juste qu’on ne les a jamais
obligés à le faire. Leur transition impliquera aussi des changements d’habitudes
de la part des clients : des aliments moins longtemps conservables et qui
demanderont plus de temps de préparation. Les prix pourraient augmenter mais
d’une part, certaines quantités devraient diminuer et d’autre part, les économies
réalisées, sur les médicaments antidiabétiques par exemple, peuvent financer
l’achat de cette nouvelle offre alimentaire.
Dans cette transition des industries pathogènes, il est même possible
d’imaginer un retournement des talents, une hypothèse que John Ioannidis a
développée dans ses réflexions sur le tabac 10. Les salariés des industries
pathogènes ne sont pas des voyous. Ils ont été entraînés dans un système qui a
orienté leurs compétences vers la production et la dissémination de risques. On
pourrait valoriser ces compétences pour au contraire encourager les gens à éviter
ces risques, ou pour les aider à améliorer leur santé. Les industries pathogènes
ont recruté ou fait travailler des experts en droit, en management, en marketing,
en lobbying et en statistiques. Toutes ces expertises pourraient être renversées.
On demanderait par exemple aux salariés de l’industrie alimentaire ayant
répandu des messages trompeurs de partager leur expertise du marketing au
service des aliments frais. On leur proposerait de devenir des ex, des anciens
travailleurs d’industries pathogènes qui aideraient maintenant à réparer les
problèmes.
Pour les industries fossiles, il n’y a pas d’autre option que l’élimination. Les
États ont la responsabilité de programmer la fin du jeu pour le pétrole, le
charbon et le gaz, y compris sur le plan économique. L’important ici est de
protéger les personnes et de laisser mourir les jobs toxiques. C’est une
destruction créatrice comme l’a théorisée l’économiste Joseph Schumpeter, mais
qui ne serait pas spontanée. Elle serait plutôt un choix clair de répression des
activités pathogènes jusqu’à leur suppression. Plusieurs auteurs ont déjà proposé
ce qu’ils ont appelé une « régulation basée sur la performance 11 ». Les industries
à éliminer sont obligées de faire décliner leur production selon un schéma défini.
Elles sont rémunérées si elles suivent le plan de sortie ou surtaxées dans le cas
contraire. Trouver un emploi aux anciens salariés des industries fossiles ne
devrait pas être si difficile. Il y a énormément de problèmes pour lesquels on
manque de travailleurs dans les énergies propres, la santé, l’environnement et
l’éducation.

Réduire la demande de risques pathogènes


L’offre de risques industriels mettra du temps à être réprimée et elle ne
pourra jamais raisonnablement être annulée, d’où la nécessité de traiter aussi la
demande. En attendant que la quantité de risques en circulation diminue, réduire
la demande aura son propre effet face à l’offre. Si la demande baisse, l’offre
s’affaiblira. Vouloir traiter la demande en interpellant les individus est une idée
injuste et impuissante. Les politiques de santé qui s’adressent aux personnes sont
minimalement efficaces et accentuent les inégalités de santé. Les expériences
historiques disent que les approches efficaces sont sociales.
Une première action passe par les déterminants sociaux, qui sont les causes
fondamentales, c’est-à-dire les causes des causes de maladies. Les déterminants
sociaux influencent lourdement les quatre comportements pathogènes les plus
problématiques — fumer, boire, mal manger, être physiquement inactif. Les
données sociales influencent aussi le micro-environnement, c’est-à-dire
l’environnement immédiatement proche. C’est la raison pour laquelle la
géographie prédit la santé. Les plans de métro de l’espérance de vie en
témoignent. À New York, l’espérance de vie perd 10 ans entre le centre de
Manhattan et le sud du Bronx, c’est-à-dire 6 mois par minute de trajet 12. À
Chicago, la différence de longévité entre le centre et l’ouest de la ville atteint 16
ans. En France aussi, il y a des disparités aux différentes échelles géographiques.
En Île-de-France, les indicateurs de santé changent beaucoup entre Paris et
certains départements qui touchent la capitale. Au niveau du pays, le Nord et le
Nord-Est exhibent une mortalité nettement supérieure pour les maladies
cardiovasculaires, les cancers et les maladies respiratoires 13. Le traitement de la
pauvreté, l’éducation, le voisinage et la socialité ne produisent pas seulement du
bien-être. Ce sont des actions qui améliorent aussi la santé.
Il n’y a pas que les déterminants sociaux bruts. Un deuxième traitement
possible pour réduire la demande de risques s’intéresse aux conditions plus fines
de l’existence. Réduire la demande implique de donner du temps de qualité aux
gens. La récupération du temps a des effets directs, elle permet par exemple de
marcher plus ou de mieux manger. Surtout, donner du temps de valeur atténue
deux sentiments courants qui jouent un rôle décisif sur les comportements
pathogènes, à savoir le stress et l’ennui. Ces sentiments dépendent beaucoup des
circonstances extérieures parmi lesquelles le temps est déterminant. Le manque
de temps provoque du stress et l’excès de temps cause de l’ennui. Le stress et
l’ennui suscitent tous les deux, par des mécanismes mentaux différents, les
attitudes pathogènes les plus problématiques. Ils poussent les gens, par pulsion
ou par automatisme, à manger sans besoin, à fumer et à boire, et ils ne les
poussent pas à bouger. Donner du temps est une autre forme de nudge.
Une troisième piste concerne la démocratie. Ses effets épidémiologiques
positifs sont avérés. Une équipe de chercheurs américains a évalué le stock de
démocratie cumulée sur 46 ans pour 170 pays 14. En comparant ces données aux
tendances épidémiologiques, ils ont trouvé des différences statistiques
influencées par l’expérience démocratique. Les résultats de mortalité
cardiovasculaire, de tuberculose, de blessures dans les transports et d’autres
maladies chroniques sont expliqués par l’expérience démocratique. Sur l’échelle
conçue par les auteurs de l’étude, un point d’expérience démocratique gagné
correspond à une réduction de 2 % des décès. Les élections libres et justes
semblent être la donnée la plus importante de cette échelle. Pour les maladies
cardiovasculaires, les cancers, la cirrhose et les blessures dans les transports,
l’effet de la démocratie sur la mortalité était supérieur à l’effet du PIB.
Pourquoi l’expérience démocratique améliore-t-elle la santé ? Les raisons
réelles sont difficiles à démontrer mais la théorie a plusieurs réponses. D’abord
quand les élections sont libres et justes, les leaders politiques sont plus incités à
prioriser les dépenses de santé. Ils sont obligés de répondre régulièrement à leurs
opinions publiques. Ensuite, ils sont plus ouverts aux critiques et aux
propositions d’amélioration venant des différents groupes sociaux ou de
l’opposition politique. Les démocraties sont aussi plus susceptibles de protéger
la liberté des journalistes. En investiguant les risques industriels confidentiels,
les journalistes ont souvent révélé les problèmes au point d’en faire des
scandales. Leur rôle dans la prise de conscience des anomalies est largement
prouvé. Inversement, les autocraties fermées ou électorales réduisent la
compétition politique, ce qui allège la pression que ressentent leurs leaders pour
engager des dépenses de santé. Les autocrates sont plus sensibles au lobby
militaire ou aux intérêts du business. Il est plus rentable pour eux d’acheter des
votes que de financer des hôpitaux ou des services publics. Ils manipulent aussi
l’information que reçoivent les gens. Ils savent empêcher les scandales pour
éviter de se fâcher avec leurs opinions. Le rôle critique de la démocratie devrait
s’accentuer avec la progression des maladies chroniques. Ces pathologies ne
sont pas ciblées par les aides au développement que reçoivent les pays pauvres,
qui privilégient les maladies microbiennes. Par conséquent, atténuer l’impact des
maladies chroniques dépend plus des gouvernements et des dépenses de santé
qu’ils décideront.
Enfin, il y a l’histoire qu’on raconte pour entraîner les gens. Johann
Chapoutot, qui est professeur d’histoire contemporaine à la Sorbonne, a analysé
la succession des grands récits jusqu’à leur épuisement actuel 15. Il explique le
déclin de la religion depuis des siècles, concurrencée par la science et par
d’autres récits selon les époques : le marxisme, le nazisme, le capitalisme, etc.
Beaucoup d’entre eux ont été éliminés ou sont exténués, mais le besoin de récit
n’a pas disparu, au contraire. On ne peut pas deviner quel récit va l’emporter sur
le marché de la narration, mais on peut faire l’hypothèse que le choix sincère
d’une histoire factuelle qui viserait le vrai aurait toutes ses chances. Le monde
est plus complexe qu’avant et son avenir est vague. Il y a une demande sociale
d’élucidation. Les succès relatifs des thèses complotistes en sont un symptôme
négatif 16. En écoutant ceux qui veulent conspirer, les gens ne tiennent pas à faire
du mal. Ils cherchent à comprendre parce qu’ils sentent que quelque chose ne va
pas. Les conspirationnistes proposent une histoire simple et pseudo-explicative
qui donne l’illusion de faire ce job.
L’histoire vraie n’est pas si difficile à raconter. Elle critique sévèrement les
erreurs commises depuis les années 1970 mais n’est pas du tout pessimiste sur ce
qu’il est possible de faire. Les gens veulent savoir comment nous en sommes
arrivés là. Ils ont en tête un puzzle partiel qu’ils tentent de compléter pour saisir
les raisons qui ont fait déraper la société mondiale vers la production de
maladies. Dans ce puzzle, il y a aussi les bons et les mauvais antidotes que les
leaders politiques peuvent prescrire pour atténuer les dommages causés par nos
activités, un autre domaine où les gens suspectent qu’on les bullshite sans qu’ils
puissent le prouver. Cette même histoire factuelle contient beaucoup de
perspectives, pour la raison évidente qu’elle permet de traiter la plupart des
problèmes en même temps. Les épidémiologistes parlent de syndémies pour
qualifier la situation mondiale. Il faut trois critères pour définir une syndémie 17.
D’abord, au moins deux maladies sont concentrées dans une population. Ensuite,
il existe des causes communes à ces maladies, quelle qu’en soit l’échelle sociale
ou individuelle. Troisièmement, les maladies en question interfèrent entre elles
pour s’accentuer l’une l’autre. Les risques pathogènes du XXIe siècle sont
typiques de cette définition. Ils sont les causes partagées de maladies non
indépendantes qui se concentrent dans une masse croissante d’individus.

Pour une transition épidémiologique


La transition épidémiologique est donc liée à la transition environnementale,
avec laquelle elle se confond partiellement. Les deux transitions sont
doublement synergiques, d’une part parce que les mêmes actions produisent
plusieurs effets, d’autre part parce que les moyens récupérés sur les soins évités
peuvent financer la transition environnementale. La transition épidémiologique
apporte donc de la santé et une meilleure relation avec le monde naturel. Elle
réduit notre empreinte environnementale et climatique, protège la biodiversité et
diminue le risque d’émergence de nouveaux microbes comparables ou pires que
le SARS-CoV-2. La transition épidémiologique produit du bien-être par tous ces
mécanismes. Elle laisse tomber la croissance industrielle mais vise le
développement. Elle nous remet sur une trajectoire de rendements croissants
dans la santé, le rendement étant le résultat des progrès divisés par les efforts.
Les dépenses de soins dans la plupart des pays suivent un rendement décroissant
depuis longtemps. Nous lâchons de plus en plus d’argent pour gagner de moins
en moins de santé et parfois même pour en perdre. La transition épidémiologique
réprimerait les causes des problèmes au lieu de traiter les complications. Elle
serait extraordinairement rentable.
La transition épidémiologique aurait raison d’anticiper les malentendus et les
critiques qui lui seront opposés. Ces réactions sont archiconnues. Ce sont
toujours les mêmes depuis que la santé a commencé à s’améliorer. Les
champions de la santé ont systématiquement lutté contre les rentiers de la
maladie. Ces bourgeois du risque ont un stock limité d’arguments qu’ils
ressortent systématiquement lorsqu’on tente de diminuer les risques industriels.
Pour faire croire que leurs intentions sont bonnes, ils prétextent de grandes
valeurs : la liberté de choix et la responsabilité des individus contre la régulation,
la liberté d’entreprendre et l’oppression fiscale ou la compétitivité contre la
taxation, l’intelligence et la confiance pour justifier la falsification de
l’information, l’État infantilisant. Ces arguments sont spécieux. Ils ont l’air
beaux mais ne résistent pas aux faits accumulés par les expériences historiques.
Tous les progrès épidémiologiques se sont imposés contre des intérêts qui n’en
voulaient pas. Chaque fois, un recul de quelques années seulement a permis de
comprendre que les actions à mener étaient en fait évidentes.
1. Ellen Peters, Innumeracy in the Wild, Oxford University Press, 2020.
2. Le cas des opioïdes aux États-Unis est un contre-exemple tragique et non résolu. Il est surtout causé par
un marketing trompeur qui a prétendu que les médicaments en question ne provoquaient pas d’addiction.
Leur autorisation n’est pas réellement remise en cause, mais leur prescription et leur utilisation ont été
totalement défaillantes.
3. Robin Room et al., « Alcohol and public health », The Lancet, 2005.
4. Theresa Marteau et al., « Changing behavior: an essential component of tackling health inequalities »,
BMJ, 2021.
5. Theresa Marteau et al., « Changing human behavior to prevent disease: the importance of targeting
automatic processes », Science, 2012.
6. Il s’agit du score alimentaire NOVA, inventé par Carlos A. Monteiro qui travaille en nutrition et en santé
publique à l’université de São Paulo, au Brésil, et du Nutri-score, conçu par une équipe française emmenée
par Serge Hercberg.
7. Boris Hauray, L’Europe du médicament. Politique – expertise – intérêts privés, Presses de Sciences Po,
2006.
8. Adam D.M. Briggs et al., « Health impact assessment of the UK soft drinks industry levy: a comparative
risk assessment modelling study », The Lancet Public Health, 2016.
9. Jean-David Zeitoun et al., « Inconsistencies among European Union pharmaceutical regulator safety
communications: a cross-country comparison », PLoS One, 2014.
10. John P. A. Ioannidis et al., « Endgame: engaging the tobacco industry in its own elimination »,
European Journal of Clinical Investigation, 2013.
11. Stephen D. Sugarman, « Performance-based regulation: enterprise responsibility for reducing death,
injury, and disease caused by consumer products », Journal of Health Politics, Policy and Law, 2009.
12. Donald M. Berwick, « The Moral Determinants of Health », JAMA, 2020.
13. Direction de la recherche, des études, de l’évaluation et des statistiques, L’État de santé de la
population en France, septembre 2022.
14. Thomas J. Bollyky et al., « The relationship between democratic experience, adult health, and cause-
specific mortality in 170 countries between 1980 and 2016: an observational analysis », The Lancet, 2019.
15. Johann Chapoutot, Le Grand Récit. Introduction à l’histoire de notre temps, PUF, 2021.
16. Johann Chapoutot, Les 100 mots de l’histoire, coll. « Que sais-je ? », PUF, 2021.
17. Emily Mendenhall et al., « Syndemics and clinical science », Nature Medicine, 2022.
CONCLUSION

Les données rassemblées dans ce livre confirment qu’il existe bien un


suicide de l’espèce, c’est-à-dire une épidémie de morts prématurées liée aux
activités pathogènes de la société mondiale. Cette épidémie est en croissance : le
nombre de décès d’origine humaine est en hausse. Les risques — qui sont les
armes du suicide — sont aussi en progression, ce qui nous laisse avec une
hypothèse sérieuse d’accentuation du phénomène au cours du XXIe siècle. Pour
ne rien arranger, le répertoire des causes de morts est voué à l’expansion. Les
mêmes mécanismes à l’origine de la pollution et des maladies métaboliques sont
en train de générer d’autres risques, comme le changement de climat et
l’émergence de microbes. Le réchauffement mondial a un impact encore minime
sur la mortalité, mais les épidémiologistes s’attendent à ce qu’il explique une
part significative de nos problèmes de santé dès le milieu de siècle. L’épidémie
de Covid-19 a été associée à une surmortalité mondiale supérieure à 18 millions
de personnes en deux ans seulement, avec un virus pas très agressif, des
systèmes de soins sophistiqués, un traitement public d’une importance inédite et
des vaccins efficaces. Les conditions ne seront pas toujours aussi favorables et le
bilan aurait pu être incomparablement pire. Le réchauffement et l’émergence de
nouveaux microbes sont causés par les mêmes dérapages qui ont déjà engagé
l’espèce humaine dans son suicide à travers la pollution et les maladies
métaboliques : une extraction déraisonnable des ressources notamment fossiles
et une relation inéquitable avec le monde naturel.
Le suicide de l’espèce s’appuie sur une série de logiques. Il y a d’un côté les
logiques d’offre de risques, qui sont économiques et simples : les risques sont
moins chers que les non-risques, et ils sont par définition plus polluants ou plus
dommageables. De l’autre côté, on trouve des logiques de demande, plus
complexes, souvent sociales et incomplètement élucidées : elles incluent des
erreurs humaines, de l’addiction et du désespoir. Toutes ces logiques sont
rationnelles mais leur accumulation ne l’est pas. À l’échelle fine, chacun joue
son rôle normalement. C’est à l’échelle supérieure que quelque chose ne va pas.
La combinaison non calculée de ces logiques donne l’image anormale d’une
société mondiale produisant les armes de son suicide. Malgré la taille de
l’anomalie, elle n’est pas liée à un ordre des choses, à l’opposé d’une opinion
répandue. Le suicide de l’espèce est au contraire un effet du désordre. C’est une
illustration tragique des thèses de Weber selon lesquelles les grands phénomènes
sont les produits involontaires d’actions qui elles, sont intentionnelles. La
croissance de maladies non naturelles et de morts prématurées est produite par le
contact entre des offres de risques inédites et des demandes accumulées et
coïncidentes. De telle sorte qu’une bonne part du suicide d’espèce est
inconsciente ou irréfléchie.
D’ailleurs, l’examen rapproché de l’anomalie montre qu’il ne s’agit pas que
d’un suicide. Il y a des acteurs industriels qui produisent des risques mortels de
masse, en le sachant mais sans le dire. Littéralement et légalement, ce sont des
crimes mais la loi a rarement été appliquée. Il a fallu beaucoup de défaillances
pour transformer ces industriels en tueurs trop sûrs d’eux-mêmes, qui emmènent
leurs clients à la maladie avec des mensonges.
« Il y a des crimes de passion et des crimes de logique. » Albert Camus pose
le problème dès la première phrase de L’Homme révolté, pour reconnaître que
les crimes de logique sont devenus la forme dominante. Les crimes industriels
qui participent au suicide de l’espèce sont des crimes de logique. Pour autant,
ces crimes ne sont pas intouchables et ils valent bien une révolte. Après avoir
dépassé une première fois l’absurdité du monde dans Le Mythe de Sisyphe,
Camus prolonge sa réflexion pour la dépasser encore par la révolte, qu’il
différencie de son dérapage vers la révolution. Camus défend la révolte pour
créer de la communauté. Aujourd’hui, des millions de personnes appartiennent
par leurs maladies chroniques à la communauté des suicidés de l’espèce. La
communauté s’élargit si on inclut tous ceux qui sont exposés à la possibilité d’un
décès prématuré causé par les industries pathogènes. Enfin, 100 % des humains,
y compris ceux qui travaillent pour les industriels incriminés, trouveraient du
sens à se révolter contre la suppression de l’espèce par elle-même. Les humains
ont créé les religions pour se consoler des crimes de la nature, épidémies et
famines principalement. Mais ils ne se sont pas suffisamment révoltés contre les
crimes industriels qui inversent les progrès de leurs efforts. Dans des pages
brillantes, Camus remarque d’une part que ce qui allume la révolte n’est pas
systématiquement le problème le plus révoltant, mais qu’une fois qu’elle est
déclenchée, elle s’étend à tout ce qu’on n’aurait jamais dû laisser faire — Camus
parle d’élan rétroactif. Par ailleurs, il rappelle que la révolte n’est pas toujours
suscitée par l’expérience mais qu’elle peut l’être par l’observation : il n’y a pas
que les victimes qui se révoltent, il y a aussi ceux qui les côtoient. La révolte de
Camus veut faire progresser le monde avec altruisme, c’est sa formule
marquante : « Je me révolte, donc nous sommes. » La révolte peut jouer comme
une image mentale à laquelle les gens croient et dans laquelle ils investissent
pour qu’elle se réalise.
Une autre notion est critique dans le travail de Camus : c’est la
compréhension. Le terme ou son idée traversent l’intégralité de son œuvre. Dans
ses fictions, les personnages de Camus comprennent, dans L’Étranger ou surtout
dans La Peste où le mot est partout. Se comprendre est un ingrédient
fondamental de notre socialité. Pour Camus, comprendre les origines du
problème du mal dans le monde ne veut pas dire qu’on abandonne, mais au
contraire qu’on entreprend de lutter contre lui, comme la compréhension a
permis de lutter contre la peste dans le roman. Si les causes qui forment la
logique du suicide de l’espèce sont comprises, alors la révolte devient plus
évidente.

Paris, le 13 octobre 2022


BIBLIOGRAPHIE
e
I. LA SANTÉ MONDIALE AU XXI SIÈCLE

CHAPITRE 1

Qui meurt de quoi ?

Livres
AGHION Philippe, ANTONIN Céline, BUNEL Simon, Le Pouvoir de la destruction
créatrice, Odile Jacob, 2021.
FLOUD Roderick (dir.), STECKEL Richard H., Health and Welfare during
Industrialization, University of Chicago Press, 1997.
MADDISON Angus, The World Economy: a Millennial Perspective, Éditions
OCDE, 2001.
MADDISON Angus, The World Economy: Historical Statistics, Éditions OCDE,
2003.
ZEITOUN Jean-David, La Grande Extension, histoire de la santé humaine,
Denoël, 2021.

Articles
GBD 2017 Causes of Death Collaborators, « Global, regional, and national age-
sex-specific mortality for 282 causes of death in 195 countries and
territories, 1980-2017: a systematic analysis for the Global Burden of
Disease study 2017 », The Lancet, 2018.
GBD 2017 Disease and Injury Incidence and Prevalence Collaborators, « Global,
regional, and national incidence, prevalence, and years lived with disability
for 354 diseases and injuries for 195 countries and territories, 1990-2017: a
systematic analysis for the Global Burden of Disease study 2017 », The
Lancet, 2018.
HIAM Lucinda et al., « Things fall apart: the British health crisis 2010-2020 »,
British Medical Bulletin, 2020.

CHAPITRE 2

Le paysage mondial des risques

Livres
SNOWDEN Frank M., Epidemics and Society: From the Black Death to the
Present, Yale University Press, 2019.

Articles
GBD 2019 Cancer Risk Factors Collaborators, « The global burden of cancer
attributable to risk factors, 2010-2019: a systematic analysis for the Global
Burden of Disease study 2019 », The Lancet, 2022.
GBD 2019 Risk Factors Collaborators, « Global Burden of 87 risk factors in 204
countries and territories, 1999-2019: a systematic analysis for the Global
Burden of Disease study 2019 », The Lancet, 2020.
KIZER Kenneth W., « Extreme wildfires – a growing population health and
planetary problem », Journal of the American Medical Association, 2020.
NCD Risk Factor Collaboration (NCD-RisC), « Worldwide trends in
hypertension and progress in treatment and control from 1990 to 2019: a
pooled analysis of 1 201 population-representative studies with 104 million
participants », The Lancet, 2021.
SHULTZ James M. et al., « Double environmental injustice – climate change,
hurricane Dorian, and the Bahamas », New England Journal of Medicine,
2020.

CHAPITRE 3

La santé humaine s’améliore-t-elle ?

Livres
BAUMOL William J., The Cost Disease: Why Computers Get Cheaper and
Healthcare Doesn’t, Yale University Press, 2012.

Articles
COVID-19 Excess Mortality Collaborators, « Estimating excess mortality due to
the COVID-19 pandemic: a systematic analysis of COVID-19-related
mortality, 2020-2021 », The Lancet, 2022.
DIELEMAN Joseph L. et al., « Global health spending and development assistance
for health », JAMA, 2019.
FUCHS Victor R., « Major trends in the U.S. health economy since 1950 »,
NEJM, 2012.
FUCHS Victor R., « The gross domestic product and health care spending »,
NEJM, 2013.
TRINH Nhung T.H. et al., « Recent historic increase of infant mortality in France:
A time-series analysis, 2001 to 2019 », The Lancet regional health. Europe,
2022.
VAUPEL James W. et al., « Demographic perspectives on the rise of longevity »,
Proceedings of the National Academy of Sciences, 2021.
II. L’OFFRE DE RISQUES

CHAPITRE 4

L’offre directe de risques : l’industrie alimentaire

Livres
FLOUD Roderick et al., The Changing Body, Cambridge University Press, 2011.
LUSTIG Robert, Metabolical. The truth about processed food and how it poisons
people and the planet, Yellow Kite, 2021.

Articles
ADJIBADE Moufidath et al., « Prospective association between ultra-processed
food consumption and incident depressive symptoms in the French
NutriNet-Santé cohort », BMC Medicine, 2019.
American Diabetes Association, « Economic costs of diabetes in the U.S.
in 2012 », Diabetes Care, 2013.
ANDRIANASOLO Roland M. et al., « Association between processed meat intake
and asthma symptoms in the French NutriNet-Santé cohort », European
Journal of Nutrition, 2020.
BLÜHER Matthias, « Metabolically Healthy Obesity », Endocrine Reviews, 2020.
CALIXTO ANDRADE Giovanna et al., « Consumption of ultraprocessed food and
its association with sociodemographic characteristics and diet quality in a
representative sample of French adults », Nutrients, 2021.
CHAN Juliana C. N. et al., « The Lancet Commission on diabetes: using data to
transform diabetes care and patient lives », The Lancet, 2021.
CHAN Margaret, « Obesity and diabetes: the slow-motion disaster », Milbank
Quarterly, 2017.
CYPESS Aaron M., « Reassessing Human Adipose Tissue », NEJM, 2022.
FINKELSTEIN Eric A. et al., « Annual medical spending attributable to obesity:
payer-and service-specific estimates », Health Affairs, 2009.
FIOLET Thibault et al., « Consumption of ultra-processed foods and cancer risk:
results from NutriNet-Santé prospective cohort », BMJ, 2018.
FOUCART Stéphane, « La seconde mort de l’alchimiste Paracelse », Le Monde,
11 avril 2013.
« GBD 2019 Risk Factors Collaborators », The Lancet, 2020.
HARDY Karen et al., « The importance of dietary carbohydrate in human
evolution », The Quarterly Review of Biology, 2015
KLIMENTIDIS Yann C. et al., « Canaries in the coal mine: a cross-species analysis
of the plurality of obesity epidemics », Proceedings of the Royal Society B:
Biological Sciences, 2011.
LAGASNERIE (de) Grégoire et al., « The economic burden of diabetes to French
national health insurance: a new cost-of-illness method based on a combined
medicalized and incremental approach », The European Journal of Health
Economics, 2018.
LUDWIG David S., « Examining the health effects of fructose », JAMA, 2013.
LUSTIG Robert H. et al., « Obesity I: Overview and molecular and biochemical
mechanisms », Biochemical Pharmacology, 2022.
LUSTIG Robert H., Metabolical. The Truth about Processed Food and How it
Poisons People and the Planet, Yellow Kite, 2021.
LUSTIG Robert H. et al., « Public Health: The toxic truth about sugar », Nature,
2012.
MARLOWE Frank W. et al., « Honey, Hadza, hunter-gatherers, and human
evolution », Journal of Human Evolution, 2014.
POPKIN Barry M. et al., « Dynamics of the double burden of malnutrition and the
changing nutrition reality », The Lancet, 2020.
PRESTON Samuel H. et al., PNAS, 2018.
SCHNABEL Laure et al., « Association between ultra-processed food consumption
and functional gastrointestinal disorders: Results from the French NutriNet-
Santé cohort », American Journal of Gastroenterology, 2018.
SROUR Bernard, TOUVIER Mathilde, « Ultra-processed foods and human health:
what do we already know and what will further research tell us? »,
eClinicalMedicine, 2021.
TAUBES Gary, « What if sugar is worse than just empty calories? », British
Medical Journal (BMJ), 2018.
VANDEVIJVERE Stefanie et al., « Global trends in ultraprocessed food and drink
product sales and their association with adult body mass index trajectories »,
Obesity Reviews, 2019.
WOOLF Steven H., SCHOOMAKER Heidi, « Life expectancy and mortality rates in
the United States, 1959-2017 », JAMA, 2019.

CHAPITRE 5

L’offre indirecte de risques : la pollution

Livres
JARRIGE François, ROUX (Le) Thomas, La Contamination du monde, Le Seuil,
2017.

Articles
DEMENEIX Barbara A., « How fossil-fuel derived pesticides and plastics harm
health, biodiversity, and the climate », The Lancet Diabetes Endocrinol,
2020.
« Endocrine disruptors, the lessons (not) learned », The Lancet Oncology, 2021.
FOUCART Stéphane, « Le déclin de la fertilité masculine est mondial et
s’accélère », Le Monde, 15 novembre 2022.
FRESSOZ Jean-Baptiste, « La “transition énergétique”, de l’utopie atomique au
déni climatique : États-Unis, 1945-1980 », Revue d’histoire moderne et
contemporaine, Belin, 2022.
FULLER Richard et al., « Pollution and health: a progress update », The Lancet,
2022.
HERBST Arthur L. et al., « Adenocarcinoma of the vagina. Association of
maternal stilbestrol therapy with tumor appearance in young women »,
NEJM, 1971.
KAHN Linda G. et al., « Endocrine-disrupting chemicals: implications for human
health », The Lancet Diabetes Endocrinol, 2020.
KASSOTIS Christopher D. et al., « Endocrine-disrupting chemicals: economic,
regulatory, and policy implications », The Lancet Diabetes Endocrinol,
2020.
LANDRIGAN Philip J. et al., « The Lancet Commission on pollution and health »,
The Lancet, 2018.
OLIVETTI Elsa A., CULLEN Jonathan M., « Toward a sustainable material
system », Science, 2018.
WEN Xue et al., « Exposure to per- and polyfluoroalkyl substances and mortality
in U.S. adults: a population-based cohort study », Environmental Health
Perspectives, 2022.
III. LA DEMANDE DE RISQUES

CHAPITRE 6

La demande par erreur

Livres
ALEMBERT (d’), Opuscules mathématiques, 1761.
ALLAIS Maurice, Fondements d’une théorie positive des choix comportant un
risque et critiques des postulats et axiomes de l’École américaine, Dumas,
1955.
BERNOULLI Daniel, Essai d’une nouvelle analyse de la mortalité causée par la
petite vérole et des avantages de l’inoculation pour le prévenir, Histoire et
Mémoires de l’Académie des Sciences, 1760.
BOUDON Raymond, Le Juste et le Vrai, Fayard, 1995.
BOUDON Raymond, Le Rouet de Montaigne, Hermann, 2013.
DAMÁSIO António, Sentir et savoir, Odile Jacob, 2021.
DAMÁSIO António, Spinoza avait raison, Odile Jacob, 2003.
FUENTES, Agustín, Why We Believe: Evolution and the Human Way of Being,
Yale University Press, 2019.
KUHN Thomas S., The Structure of Scientific Revolutions, University of Chicago
Press, 1962.
LÉVY-BRUHL Lucien, La Mentalité primitive, 1922.
POPPER Karl, La Logique de la découverte scientifique (1935), Payot, 2007.
PROCTOR Robert N. , Golden Holocaust, la conspiration des industriels du tabac,
Les Équateurs, 2014.

Articles
ARMSTRONG Katrina, NUTI Sudhakar V., « Lay epidemiology and vaccine
acceptance », JAMA, 2021.
FRANKEL Stephen et al., « Lay epidemiology and the rationality of response to
health education », The British Journal of General Practice, 1991.
SLOVIC Paul, « Perception of risk », Science, 1987.
WAKEFIELD Andrew J. et al., « Ileal-lymphoid-nodular hyperplasia, non-specific
colitis, and pervasive developmental disorder in children », The Lancet,
1998.
YAVCHITZ Amélie et al., « Misrepresentation of randomized controlled trials in
press releases and news coverage: a cohort study », PLoS Medicine, 2012.

CHAPITRE 7

La demande par inattention

Livres
DAMÁSIO Antonio, Sentir et savoir, Odile Jacob, 2021.
KAHNEMAN Daniel, Système 1/Système 2. Les deux vitesses de la pensée,
Flammarion, 2012.

Articles
FOUCART Stéphane, « Climat : laissez le cerveau en dehors de ça », Le Monde,
26-27 juin 2022.
KAHNEMAN Daniel, TVERSKY Amos, « Judgment under uncertainty: heuristics
and biases », Science, 1974.
KAHNEMAN Daniel, TVERSKY Amos, « Prospect theory: an analysis of decision
under risk », Econometrica, 1979.
MARTEAU Theresa M. et al., « Beyond choice architecture: advancing the science
of changing behaviour at scale », BMC Public Health, 2021.

CHAPITRE 8

La demande par dépendance

Articles
FAUCI Anthony S., MORENS David M., « Emerging pandemic diseases: how we
got to COVID-19 », Cell, 2020.
GBD 2016 Alcohol and Drug Use Collaborators, « The global burden of disease
attributable to alcohol and drug use in 195 countries and territories, 1990-
2016: a systematic analysis for the Global Burden of Disease study 2016 »,
The Lancet psychiatry, 2018.
HEILIG Markus et al., « Addiction as a brain disease revised: why it still matters,
and the need for consilience », Neuropsychopharmacology, 2021.
LESHNER Alan I., « Addiction is a brain disease, and it matters », Science, 1997.
LEWIS Marc, « Brain change in addiction as learning, not disease », NEJM, 2018.
LIE Anne K. et al., « The harms of constructing addiction as a chronic, relapsing
brain disease », American Journal of Public Health, 2022.
LUSTIG Robert H., « Ultra-processed food: addictive, toxic and ready for
regulation », Nutrients, 2020.
MCLELLAN A. Thomas et al., « Drug dependence, a chronic medical illness:
implications for treatment, insurance, and outcomes evaluation », JAMA,
2000.

CHAPITRE 9

La demande du désespoir

Livres
AGHION Philippe et al., Le Pouvoir de la destruction créatrice, Odile Jacob,
2021.
BLOCH Marc, Les Caractères originaux de l’histoire rurale française (1931),
Armand Colin, 1999.
DURKHEIM Émile, Le Suicide (1897), PUF, 2013.
KAHNEMAN Daniel, Système 1/Système 2. Les deux vitesses de la pensée,
Flammarion, 2012.

Articles
CARSTENSEN Laura L., « The influence of a sense of time on human
development », Science, 2006.
CASE Anne, DEATON Angus, « Life expectancy in adulthood is falling for those
without a BA degree, but as educational gaps have widened, racial gaps have
narrowed », PNAS, 2021.
CASE Anne, DEATON Angus, « Mortality and morbidity in the 21st century »,
Brookings Papers on Economic Activity, 2017.
CASE Anne, DEATON Angus, « Rising morbidity and mortality in midlife among
white non-Hispanic Americans in the 21st century », PNAS, 2015.
CHETTY Raj et al., « The fading American dream: trends in absolute income
mobility since 1940 », Science, 2017.
DEATON Angus, KAHNEMAN Daniel, « High income improves evaluation of life
but not emotional well-being », PNAS, 2010.
EASTERLIN Richard A., O’CONNOR Kelsey J., « The Easterlin Paradox », IZA
Discussion Paper, no 13923, Institute of Labor Economics (IZA), 2020.
FAZEL Seena, RUNESON Bo, « Suicide », NEJM, 2020.
GBD 2019 Mental Disorders Collaborators, « Global, regional, and national
burden of 12 mental disorders in 204 countries and territories, 1990-2019: a
systematic analysis for the Global Burden of Disease study 2019 », The
Lancet Psychiatry, 2022.
GRAHAM Carol et al., « Well-being in metrics and policy », Science, 2018.
HECKETSWEILER Chloé, « Comment les opiacés ont drogué les États-Unis », Le
Monde, 31 janvier 2020.
KNIPE Duleeka et al., « Suicide and self-harm », The Lancet, 2022.
MINET KINGE Jonas et al., « Association of household income with life
expectancy and cause-specific mortality in Norway, 2005-2015 », JAMA,
2019.
PERONA Mathieu, SENIK Claudia (dir.), Le Bien-Être en France, rapport 2020.
REHM Jürgen, SHIELD Kevin D., « Global Burden of Disease and the impact of
mental and addictive disorders », Current Psychiatry Reports, 2019.
ROBERTSON Michael, « Books reconsidered: Emile Durkheim, Le Suicide »,
Australasian Psychiatry, 2006.
SELBY Peter, ZAWERTAILO Laurie, « Tobacco addiction », NEJM, 2022.
World Happiness Report, 2022.
ZEITOUN Jean-David et al., « Health as an independent predictor of the 2017
French presidential voting behaviour: a cross-sectional analysis », BMC
Public Health, 2019.
IV. LA DÉFAILLANCE POLITIQUE

CHAPITRE 10

Comment les leaders politiques ont échoué

Livres
BERGERON Henri, CASTEL Patrick, Sociologie politique de la santé, PUF, 2018.
CARPENTER Daniel, MOSS David A., Preventing Regulatory Capture: Special
Interest Influence and How to Limit It, Cambridge University Press, 2013.
CARPENTER Daniel, Reputation and Power, Princeton University Press, 2010.
DAHL Robert, Qui gouverne ? (1961), Armand Colin, 1971.
FOUCAULT Michel, Naissance de la biopolitique, EHESS-Gallimard-Le Seuil,
2004.
GAVENTA John, Power and Powerlessness: Quiescence and Rebellion in an
Appalachian Valley, University of Illinois Press, 1980.
HASSENTEUFEL Patrick, Sociologie politique : l’action publique, Armand Colin,
2008.
HENRY Emmanuel, La Fabrique des non-problèmes, Presses de Sciences Po,
2021.
LAFFONT Jean-Jacques, TIROLE Jean, Théorie des incitations et réglementation,
Economica, 2012.
ZEITOUN Jean-David, La Grande Extension. Histoire de la santé humaine,
Denoël, 2021.

Articles
DARROW Jonathan J. et al., « FDA approval and regulation of pharmaceuticals,
1983-2018 », JAMA, 2020.
GREENBERG Michael et al., « Endangering the health of all: destroying a half
century of health leadership along with America’s environment », American
Journal of Public Health, 2020.
GREENE Jeremy A., PODOLSKY Scott H., « Reform, regulation, and
pharmaceuticals – the Kefauver-Harris Amendments at 50 », NEJM, 2012.
KICKBUSCH Ilona et al., « The commercial determinants of health », The Lancet,
2016.
LANDRIGAN Philip J. et al., « The Lancet Commission on pollution and health »,
The Lancet, 2018.
LANDRIGAN Philip J., RAJAGOPALAN Sanjay, « Pollution and the Heart », NEJM,
2021.
MCKEE Martin, STUCKLER David, « Revisiting the corporate and commercial
determinants of health », American Journal of Public Health, 2018.
MUNOS Bernard, « Lessons from 60 years of pharmaceutical innovation »,
Nature Reviews Drug Discovery, 2009.
RIEHM Kira E. et al., « Associations between time spent using social medica and
internalizing and externalizing problems among US youth », JAMA
Psychiatry, 2019.
SAMET Jonathan M., « The Clean Air Act and health – a clearer view from
2011 », NEJM, 2011.
SCHERER Frederic M., « Pharmaceutical Innovation », Harvard University, 2007.

CHAPITRE 11

Les raisons possibles de l’échec du politique

Livres
CONSTANT Benjamin, De la liberté des anciens comparée à celle des modernes,
1819.
LAURENT Éloi, Sortir de la croissance, mode d’emploi, Les liens qui libèrent,
2019.
MADDISON Angus, The World Economy: a Millennial Perspective, Éditions
OCDE, 2001.
MADDISON Angus, The World Economy: Historical Statistics, Éditions OCDE,
2003.
MEADOWS Dennis L., MEADOWS Donella H., RANDERS Jørgen, The Limits to
Growth, Potomac Associates, 1972.
Articles
FOUCART Stéphane et al., « Pesticides : de l’eau potable non conforme pour 20 %
des Français », Le Monde, 21 septembre 2022.
KUZNETS Simon, « Rethinking the system of national accounting », The New
Republic, 1962.
Nature, vol. 236, p. 47-49, 1972.
V. SAUVER L’ESPÈCE

Livres
CHAPOUTOT Johann, Le Grand Récit. Introduction à l’histoire de notre temps,
PUF, 2021.
CHAPOUTOT Johann, Les 100 mots de l’histoire, coll. « Que sais-je ? », PUF,
2021.
HAURAY Boris, L’Europe du médicament. Politique – expertise – intérêts privés,
Presses de Sciences Po, 2006.
PETERS Ellen, Innumeracy in the Wild, Oxford University Press, 2020.

Articles
BERWICK Donald M., « The Moral Determinants of Health », JAMA, 2020.
BOLLYKY Thomas J. et al., « The relationship between democratic experience,
adult health, and cause-specific mortality in 170 countries between 1980 and
2016: an observational analysis », The Lancet, 2019.
BRIGGS Adam D. M. et al., « Health impact assessment of the UK soft drinks
industry levy: a comparative risk assessment modelling study », The Lancet
Public Health, 2016.
Direction de la recherche, des études, de l’évaluation et des statistiques, L’État
de santé de la population en France, septembre 2022.
GBD 2019 Cancer Risk Factors Collaborators, « The global burden of cancer
attributable to risk factors, 2010-19: a systematic analysis for the Global
Burden of Disease study 2019 », The Lancet, 2022.
IOANNIDIS John P. A. et al., « Endgame: engaging the tobacco industry in its own
elimination », European Journal of Clinical Investigation, 2013.
MARTEAU Theresa et al., « Changing behavior: an essential component of
tackling health inequalities », BMJ, 2021.
MARTEAU Theresa et al., « Changing human behavior to prevent disease: the
importance of targeting automatic processes », Science, 2012.
MENDENHALL Emily et al., « Syndemics and clinical science », Nature Medicine,
2022.
ROOM Robin et al., « Alcohol and public health », The Lancet, 2005.
SUGARMAN Stephen D., « Performance-based regulation: enterprise
responsibility for reducing death, injury, and disease caused by consumer
products », Journal of Health Politics, Policy and Law, 2009.
ZEITOUN Jean-David et al., « Inconsistencies among European Union
pharmaceutical regulator safety communications: a cross-country
comparison », PLoS One, 2014.
REMERCIEMENTS

Mes dettes humaines s’accumulent car je dois beaucoup à de plus en plus de


monde.
Mes premiers remerciements sont pour mon éditrice, Dorothée Cunéo, pour
sa gentillesse et son travail sur le manuscrit. Je remercie une nouvelle fois
Philippe Collin d’avoir provoqué la rencontre avec elle, et pour son soutien à lui
aussi.
Je remercie ensuite sans exception toute l’équipe des Éditions Denoël, en
particulier Margherita Giubelli-Bortolami et Martin de Broglie.
Merci à tous les auteurs que j’ai pu consulter pendant la période de
conception du livre : Marion Leboyer, Maxime Rovère, Philip Landrigan, Robert
Lustig, Jean-Marie Robine, Paul Slovic, Joseph Dieleman, Martin McKee,
Agustín Fuentes.
Je remercie particulièrement mon ami Philippe Ravaud, chercheur inventif et
sensible, qui m’a très bien orienté dès le début de ce travail.
Je remercie aussi Samantha Jérusalmy de m’avoir fait découvrir des auteurs
importants qui m’ont influencé.
Merci à Angélique Le Corre, mon assistante, pour son aide quotidienne
essentielle.
Je remercie sincèrement tous mes amies et amis, qui ont exprimé leur intérêt
et m’ont encouragé à leur manière : Sophie de Vaugrigneuse, Léa Riffaut, Eve
Maillard, Aurore Briand, Julie Sarfati, Mahaut Leconte, Marine Sarfati, Anne
Osdoit, Marie Petitcuenod, Léa Verdillon, Madeleine Cavet-Blanchard, Marie
Clerc, Jeanne Baron, Linda Rehaz, Amandine Barjol, Laure Millet, Alain
Decombe, Pierre Blanchard, Henri Bergeron, Alexandre Guenoun, Vincent de
Parades, Jérémie Lefèvre, David Boccara, Pierre-Yves Geoffard, Brice Naudin,
Jean-Baptiste Fressoz, Stéphane Foucart, Éric Braun, Stéphane Mulard, Jean-
Laurent Cassely, Alexandre Héraud, Patrick Papazian, Michaël Larrar, Robert
Touitou, Lionel Bascles, Pierre Sanchez, Maxime Poisot, Jonathan Baptista, Léo
Amsellem, William Dab, Alexandre Regniault, Camille Ponsin, Victor
Dhollande, Frédéric Schwamberger.
Merci à mes parents et à ma famille proche, notamment mon oncle Marc
Koskas.
Et merci évidemment à Ariane et à nos enfants, Hélène et Alexis.
© Éditions Denoël, 2023
Ce livre est une tentative d’explication d’une anomalie de masse : la
société mondiale produit de plus en plus de maladies, tout en dépensant
toujours davantage pour essayer de les traiter. La réponse courte à cette
contradiction est que les risques environnementaux, comportementaux et
métaboliques qui causent les maladies sont des conséquences de la
croissance économique.
Nous avons laissé se créer une offre et une demande de risques. La
logique de l’offre est simple et son rationnel est économique : les
entreprises vendent des risques ou les disséminent pour produire plus et
moins cher. La logique de la demande est plus complexe et diversifiée :
nous nous exposons aux risques ou nous les consommons par nécessité,
par erreur ou inattention, par addiction ou par désespoir.

La production de maladies entraîne un


suicide au ralenti de l’espèce humaine, qui
n’a cependant rien d’une fatalité.
Jean-David Zeitoun est docteur en médecine et docteur en épidémiologie clinique. Son premier
livre, La Grande Extension. Histoire de la santé humaine, paru en 2021 aux Éditions Denoël, a
été traduit en cinq langues.
DU MÊME AUTEUR
CHEZ LE MÊME ÉDITEUR

La Grande Extension. Histoire de la santé humaine, 2021


TABLE DES MATIÈRES

Couverture

Titre

Dédicace

Introduction

e
I. La santé mondiale au XXI siècle

1. Qui meurt de quoi ?

Mutation de l’âge et des causes de la mort

Ce qui tue n’est pas ce qui fait mal

La santé comme marqueur du développement

2. Le paysage mondial des risques

Les trois types de risques

L’exposition mondiale aux risques a-t-elle évolué au cours des dernières décennies ?

La pollution

Les risques métaboliques

L’impact des risques

3. La santé humaine s’améliore-t-elle ?

Les forces contraires


Les risques humains en croissance

Le paradoxe de la santé mondiale

II. L’offre de risques

4. L’offre directe de risques : l’industrie alimentaire

L’industrialisation de l’alimentation

La transformation des aliments

La tragédie du low-fat

Les aliments du troisième type

Les mécanismes des maladies métaboliques

Les maladies métaboliques chroniques

La signification de l’obésité dans les maladies métaboliques

Obésités

La pandémie métabolique

Les effets sur la longévité

Le coût double de la transformation

5. L’offre indirecte de risques : la pollution

Les cinq traits historiques de la pollution

La croissance économique rend-elle la pollution inévitable ?

Les effets pathogènes de la pollution industrielle

Les pertes économiques dues à la pollution

La pollution chimique

Les effets antiéconomiques de la pollution chimique

Les conditions de l’économie pathogène

III. La demande de risques


6. La demande par erreur

La demande erronée de l’épidémiologie populaire

De l’épidémiologie populaire à l’épidémiologie personnelle

Des erreurs normales

Pensée scientifique et pensée ordinaire

Slovic et la science du risque

7. La demande par inattention

La demande par dissociation mentale

Un double système mental

Les défauts du Système 1

Une cause de la demande

Les deux systèmes comme agents de l’épidémiologie populaire

Le rôle de l’évolution

Parler au Système 1 malgré tout

8. La demande par dépendance

L’addiction crée des clients captifs pour les industries pathogènes

Les causes de l’addiction

Les addictions de la transformation alimentaire

9. La demande du désespoir

Déterminants sociaux et mentaux

Le désespoir américain

La fin du futur

La théorie des perspectives encore

L’argent et le bonheur
Émile Durkheim et la logique sociale des suicides

e
Le suicide au XXI siècle

La vision psychanalytique de la société du désespoir

IV. La défaillance politique

10. Comment les leaders politiques ont échoué

Le Mouvement sanitaire

Le biopouvoir négatif

Les quatre manifestations du biopouvoir négatif

Un pouvoir asymétrique

11. Les raisons possibles de l’échec du politique

Trois hypothèses sur la faillite du politique

V. Sauver l'espèce

Les raisons des échecs et des réussites

Réprimer les industries pathogènes

Réduire la demande de risques pathogènes

Pour une transition épidémiologique

Conclusion

Bibliographie

Remerciements

Copyright

Présentation

Du même auteur chez le même éditeur

Achevé de numériser
Cette édition électronique du livre
Le suicide de l’espèce de Jean-David Zeitoun
a été réalisée le 20 janvier 2023
par les Éditions Denoël.
Elle repose sur l’édition papier du même ouvrage
(ISBN : 9782207165508 - Numéro d’édition : 440658)
Code Sodis : U44729 - ISBN : 9782207165539.
Numéro d’édition : 440661

Vous aimerez peut-être aussi