Vous êtes sur la page 1sur 190

Copyright

Le code de la propriété intellectuelle n’autorisant, aux termes de l’article L. 122-5, 2° et 3° a, d’une part,
que les « copies ou reproductions strictement réservées à l’usage privé du copiste et non destinées à une
utilisation collective » et, d’autre part, que les analyses et les courtes citations dans un but d’exemple et
d’illustration, « toute représentation ou reproduction intégrale ou partielle faite sans le consentement de
l’auteur ou de ses ayants droit ou ayants cause est illicite » (art. L. 122-4).
Cette représentation ou reproduction, par quelque procédé que ce soit, constituerait donc une
contrefaçon sanctionnée par les articles L. 335-2 et suivants du code de la propriété intellectuelle.

Création graphique de la couverture : Corinne Tourrasse


Relecture : Rose Mognard
Maquette intérieure et mise en page : Catherine Revil

© Presses universitaires de Grenoble, septembre 2016


15, rue de l’Abbé-Vincent – 38600 Fontaine
pug@pug.fr / www.pug.fr
ISBN 978-2-7061-2595-9 (e-book ePub)

L’ouvrage papier est paru sous la référence ISBN 978-2-7061-2566-9


Titre
Xavier Briffault

Santé mentale, santé publique


Un pavé dans la mare des bonnes intentions

Presses universitaires de Grenoble


Collection Points de vue et débats scientifiques
La collection Points de vue et débats scientifiques, créée et dirigée par Pascal
Pansu et Alain Somat, traite de thèmes qui, au sein de la communauté
scientifique, font débat et sont sources de polémique. Sans recourir à des
jugements de valeur, les ouvrages de la collection s’ancrent dans une position
critique et alimentent la controverse.

Déjà parus dans la collection
Blanchet A., Les psychothérapies sont-elles rationnelles ? Dire, faire dire et guérir,
2016
Larivée S., Quand le paranormal manipule la science. Comment retrouver l’esprit
critique, 2014
Pinsault N., Monvoisin R., Tout ce que vous n’avez jamais voulu savoir sur les
thérapies manuelles, 2014
Guillaume F., Tiberghien G., Baudouin J.-Y., Le cerveau n’est pas ce que vous
pensez. Images et mirages du cerveau, 2013
Pansu P., Dubois N., Beauvois J.-L., Dis-moi qui te cite et je saurai ce que tu
vaux. Que mesure vraiment la bibliométrie ?, 2013
Citations
« La science, guidée par la sensibilité humaine, s’emploie à abattre les barrières réelles ou imaginaires qui font obstacle aux soins et
aux traitements. La nouvelle conception qui se fait jour est porteuse d’espoir pour les malades mentaux. […] Nous avons les moyens et
les connaissances scientifiques requis pour aider les gens qui souffrent de troubles mentaux et cérébraux. Malheureusement, tant les
gouvernements que la communauté de la santé publique ont fait preuve de négligence. Par accident ou par dessein, nous sommes
tous responsables de cette situation. En tant que principale organisation de santé publique dans le monde, l’OMS n’a pas le choix : il lui
appartient de veiller à ce que notre génération soit la dernière à laisser la honte et la stigmatisation prendre le pas sur la science et la
raison. »

Docteur Gro Harlem Brundtland, directrice de l’OMS, Introduction du Rapport de l’OMS Rapport sur la santé dans le Monde 2001. Santé
mentale : nouvelle conception, nouveaux espoirs

L’ours allait à la chasse, apportait du gibier ;


Faisait son principal métier
D’être un bon émoucheur, écartait du visage
De son ami dormant ce parasite ailé
Que nous avons mouche appelé.
Un jour que le vieillard dormait d’un profond sommeil,
Sur le bout de son nez une allant se placer
Mit l’ours au désespoir ; il eut beau la chasser.
« Je t’attraperai bien, dit-il, et voici comme. »
Aussitôt fait que dit : le fidèle émoucheur
Vous empoigne un pavé, le lance avec roideur,
Casse la tête à l’homme en écrasant la mouche ;
Et non moins bon archer que mauvais raisonneur,
Raide mort étendu sur la place il le couche.

Rien n’est si dangereux qu’un ignorant ami ;


Mieux vaudrait un sage ennemi.

Jean de La Fontaine, L’ours et l’Amateur des jardins


Introduction

L’ objectif de cet ouvrage est d’examiner un phénomène dont l’importance n’a


cessé de croître au cours de la dernière décennie : l’intérêt majeur que porte
le dispositif de santé publique à la santé mentale des populations et des
individus. Le fait n’est pas totalement nouveau, mais jamais cet intérêt n’avait
atteint une intensité et un niveau de structuration semblable à celui que l’on
peut observer aujourd’hui. La santé publique s’intéresse à la santé mentale, en
tant que concept, en tant que discipline scientifique, mais aussi et surtout,
désormais, elle s’intéresse d’un point de vue pratique à notre santé mentale, celle
de « la population » comme celle de chacun de ses individus. Ce phénomène,
observable tant en France qu’au niveau international, s’étend sur trois
dimensions.
D’une part, l’attention traditionnellement dévolue par le milieu psychiatrique
aux « maladies mentales » « graves » – quelle que soit l’imprécision éventuelle
dont ces termes ont pu être entachés depuis qu’il existe une discipline
psychiatrique – s’est étendue aux « troubles mentaux » dits « caractérisés » (les
mental disorders du DSM par exemple), qui ne sont plus stricto sensu considérés
comme des maladies mentales, puis à la souffrance psychique, et enfin à la
santé mentale, tout d’abord dans les altérations qu’elle pouvait subir, puis dans
sa plus grande généralité comme santé mentale « positive ».
D’autre part, parallèlement, la focalisation principale sur le traitement, c’est-à-
dire la prise en charge des troubles ou des maladies lorsqu’ils sont déjà présents,
s’est élargie pour englober désormais la prévention des troubles, prévention
conçue comme devant être entreprise le plus précocement possible, c’est-à-dire
pour un individu donné dès sa naissance, voire avant, par exemple en agissant
sur ses (futurs) parents. Outre la prévention des troubles, le dispositif de santé
publique a également étendu sa juridiction sur la promotion de la santé
mentale, c’est-à-dire non plus seulement la tentative d’éviter des troubles, mais
celle de développer dans la population des caractéristiques spécifiquement
conçues comme relevant d’une santé mentale « positive ».
Enfin, ces deux accroissements des juridictions du dispositif de santé publique
se sont accompagnés d’une politisation croissante des enjeux liés à la santé
mentale. Dans les sociétés démocratiques contemporaines, la « bonne » santé
mentale définit de plus en plus ce qu’est une vie « bonne », et constitue de plus
en plus raison d’agir, qu’il s’agisse d’agir pour la préserver ou pour la
développer.
S’agissant de santé publique, ce triple mouvement se présente évidemment
comme œuvrant pour l’amélioration de la santé de la population, et plus
généralement pour le bien-être, voire le bien, de celle-ci, et de chacun des
individus qui la composent (Jourdan, 2012). Pour autant, et sans qu’aucun
procès d’intention ne soit a priori intenté à ce dispositif, ce mouvement
bienveillant mérite qu’on s’interroge sur les modalités de son développement,
les spécificités de ses orientations, et ses conséquences envisageables. En effet, le
caractère total (dans les thématiques, des maladies psychiatriques à la santé
mentale positive ; dans le temps, du prénatal au post-mortem (avec le deuil) ;
dans l’espace, de la population dans son ensemble à chacun de ses sous-groupes
à risque et jusqu’à chacun de ses individus) des ambitions de la santé publique
dans ce domaine, laisse supposer que ce sera bientôt le tout de l’humain qui
relèvera de la juridiction de son dispositif. Il est donc nécessaire de s’interroger
sur le type de construction anthropologique qui s’opère en ces lieux où la santé
publique commence à intervenir sur la santé mentale.
L’idée d’écrire cet ouvrage a pris naissance durant un projet d’implantation en
France d’un programme nord-américain de formation aux « bonnes pratiques
parentales » dans une perspective de prévention des troubles mentaux ultérieurs
des enfants qu’une agence gouvernementale de santé publique, que j’appellerai
l’Établissement français de prévention en santé (EFPS)1 souhaitait évaluer
avant une diffusion de grande envergure, évaluation dont le suivi m’avait été
confié. Les divers problèmes mis à jour en approfondissant le programme se
sont révélés si importants que j’ai finalement recommandé de ne pas mettre en
œuvre cette évaluation.
Plus tard, dans le cadre de mes fonctions au sein de la commission Prévention,
éducation et promotion de la santé du Haut Conseil de la santé publique
comme au sein d’une commission de la Haute Autorité de santé travaillant à la
rédaction d’une recommandation de bonne pratique sur la dépression de
l’enfant et de l’adolescent, j’ai à nouveau été amené à m’intéresser à la question
de la constitution des pratiques parentales comme cible d’interventions
formatives à visée préventive, dans le cadre de dispositifs de santé publique
visant à la prévention de troubles mentaux ou à la promotion d’états
spécifiques de santé mentale. Cette question a soulevé d’intenses débats
techniques, éthiques, anthropologiques, politiques… parmi les membres des
commissions, et j’ai éprouvé à de nombreux moments lors de ces débats
toujours passionnants, et parfois vifs, l’envie d’avoir à ma disposition un
ouvrage qui rassemblerait, sous une forme lisible et cohérente, les arguments
qui m’étaient nécessaires pour soutenir la position que je défendais. Je ne l’ai
pas trouvé, c’est pourquoi j’ai décidé de l’écrire.
Bien qu’il trouve sa motivation première dans les difficultés posées par un
programme d’éducation aux pratiques parentales, cet ouvrage ne cherche pas à
contribuer à la question des pratiques parentales en tant que telles, moins
encore à des questions de parentalité ou de famille. Ce sont les modes
d’appréhension de la santé mentale par la santé publique, tels qu’ils se révèlent
de façon paradigmatique dans ce type de programme, et dans le fait de
constituer la parentalité en facteur de risque de troubles ultérieurs d’un enfant
à peine, ou pas encore, né, qui sont la cible de cet ouvrage, avec les stratégies
d’intervention qui en découlent.
1. Pour des raisons de confidentialité des sources, les noms des institutions et personnes
physiques constituant le terrain de l’analyse présentée dans cet ouvrage ont été
systématiquement anonymisés.
Première partie
Analyse méthodologique et éthique des interventions de
santé publique en santé mentale
CHAPITRE 1

La formation au formatage de la famille


« scientifiquement validée »

S’ ilformalisation
existe un domaine qui semblerait a priori échapper à toute possibilité de
scientifique, la parentalité est de ceux-là. La relation parent(s)-
enfant(s) est l’un des principaux lieux de développement et de construction de
ce(s) dernier(s). Supposer une définition de cette relation et des lois d’exercice
scientifiquement fondées, semble a priori également supposer une définition
préalable et scientifique de l’humain en devenir auquel elle permet l’accès à la
vie tout d’abord, à l’éducation et à l’humanité ensuite, à l’autonomie adulte
enfin. Qu’est-ce qu’un être humain, qu’est-ce qu’un « bon » être humain, celui
qu’une « bonne » parentalité scientifiquement fondée se fixe comme objectif et
dont elle devrait permettre le développement ? La redoutable difficulté de la
question ne semble pas arrêter les concepteurs de programmes d’éducation aux
bonnes pratiques parentales, qui n’hésitent pas à proposer aux parents des
modes d’exercices fondés sur des évaluations empiriques, et des règles
systématiques.
Évaluation de quoi, et quelles règles, c’est ce que je vais examiner dans ce
chapitre, en m’appuyant sur l’exemple d’un programme d’éducation à la
parentalité qu’un important organisme français de santé publique,
l’Établissement français de prévention en santé (EFPS)2 avait souhaité évaluer
empiriquement, en relation avec la Mission interministérielle de lutte contre
les drogues et la toxicomanie (MILDT). La mise en œuvre de cette évaluation
m’avait été confiée, après que j’ai répondu à un appel d’offres. De la réponse à
cet appel d’offres à ma recommandation finale d’abandonner l’évaluation de ce
programme avant même sa mise en œuvre empirique, sur la base d’analyses
essentiellement méthodologiques, c’est le chemin que je propose de parcourir
dans ce chapitre.

Méthodologie d’évaluation du dispositif de formation


Dans le cadre d’un « avis d’appel public à la concurrence », l’EFPS publie
début 2009 un appel à proposition dans le cadre d’un « marché [ayant] pour
objet la réalisation d’une évaluation sous forme de recherche-action d’un
programme de soutien à la parentalité : Program for Families Improvement
(PFI)3 ». Le programme PFI y est présenté comme un programme de
« soutien » à la parentalité. L’ambiguïté entre « soutien à la parentalité »,
« éducation / formation à la parentalité », et « accompagnement à la
parentalité » est un classique du domaine. Le programme PFI se situe en fait
clairement, nous le verrons, dans le champ de l’éducation, en vérité de la
formation, aux « bonnes » pratiques parentales. La distinction est
d’importance : soutenir les pratiques éducatives des parents et les accompagner
dans leur parcours en leur fournissant les moyens de les mettre en œuvre, ou
leur fournir directement les bonnes pratiques qu’ils sont supposés mettre en
œuvre sont des choses très différentes.
S’agissant des objectifs, il s’agit « de réaliser une recherche-action visant à
implanter et évaluer un programme de prévention centré sur le soutien à la
parentalité qui a déjà été validé et implanté dans plusieurs pays ». Cette
recherche-action d’une durée de 36 mois « implique donc la mise en œuvre
d’une intervention en prévention / promotion de la santé (mentale) ainsi que la
réalisation d’une recherche évaluative ». Comme nous le verrons, il s’agit, selon
la logique usuelle de la santé publique, d’agir sur un facteur de risque /de
protection amont – en l’occurrence les pratiques parentales –, pour obtenir des
conséquences en aval – en l’occurrence sur la santé mentale des enfants et des
parents.
Le projet est également présenté comme se situant dans le « domaine de la
santé mentale et des addictions : études évaluatives, actions de
prévention / promotion de la santé mentale, evidence-based interventions ». Les
« addictions » aux substances ont ceci de particulier qu’elles se situent en
permanence à l’intersection du psychologique, du sanitaire, du judiciaire, et du
policier. Défini dans le DSM-IV comme un trouble mental – comprenant en
particulier l’abus, la dépendance, l’intoxication, le sevrage –, ce qui sert de
justification pour les intégrer dans un programme de prévention / promotion
en santé mentale, l’usage des « drogues » relève aussi du champ sémantique et
social de la délinquance, voire de la criminalité.
Le Règlement de la consultation de l’appel précise qu’il est en particulier
demandé aux candidats : « de fournir une présentation précise et opérationnelle
de la méthodologie prévue pour la partie intervention et pour la partie
évaluation. En particulier, les points suivants devront être explicités :
– […]
– participants : nombre de groupes, nombre de sujets par groupe (et formule
utilisée pour calculer la taille d’échantillon)…
– présentation de l’intervention du groupe contrôle (= “intervention classique
de soutien à la parentalité”).
– méthode de recrutement des participants et de répartition dans les groupes.
– méthode de randomisation prévue.
– […] »
Bien que la question de la méthodologie d’évaluation à utiliser semble ouverte,
l’examen des questions posées montre qu’en vérité une méthodologie unique
est envisagée : seul un Essai contrôlé randomisé (ECR) peut en effet
correspondre aux éléments qui sont exposés (groupe contrôle, randomisation,
etc.). L’Essai contrôlé randomisé est « l’étalon-or » de l’évaluation de l’efficacité
d’interventions. Il consiste à tester l’efficacité d’interventions sur deux ou trois
groupes, l’un des groupes servant de groupe contrôle (les participants à ce
groupe recevant une intervention placebo ou une intervention déjà connue)
auquel les autres groupes recevant l’intervention testée sont comparés. Pour
éviter les biais de répartition, les participants sont répartis au hasard
(randomisés) dans les groupes. Il est par ailleurs précisé que l’évaluation devra se
faire en collaboration avec l’équipe américaine qui a conçu le programme, et en
assure la diffusion commerciale et les formations. De fait, l’équipe américaine
impose l’utilisation d’un kit d’évaluation dont elle analysera les résultats pour
augmenter à chaque nouvelle implantation le nombre d’études evidence-based
sur lesquelles peut s’appuyer le programme. Il est d’ailleurs précisé que « de
même que l’intervention, l’évaluation du programme est largement structurée
et standardisée » : « un ensemble de questionnaires standardisés a été retenu par
les responsables du programme pour effectuer les mesures de résultat et de
processus ».
Le Règlement de la consultation comprend par ailleurs une partie
« Documents Techniques » qui précise que l’EFPS « est un établissement
public administratif sous tutelle du ministère de la Santé et des Solidarités,
dont l’activité s’inscrit dans le cadre de la politique de prévention du
gouvernement, qui a notamment pour missions :
– d’exercer une fonction d’expertise et de conseil en matière de prévention et
de promotion de la santé ;
– d’assurer le développement de l’éducation pour la santé, y compris de
l’éducation thérapeutique, sur l’ensemble du territoire ;
– de mettre en œuvre les programmes nationaux de prévention et d’éducation
pour la santé. »
Il est précisé que l’Organisme « en complément de ses actions de
communication, souhaite promouvoir l’implantation d’actions de terrain
validées dans le domaine de la promotion de la santé mentale et de la
prévention des consommations de substances psychoactives ». La mise en
œuvre du programme PFI est clairement présentée comme une action
s’insérant dans le cadre de la politique de prévention du gouvernement, dont la
mise en œuvre opérationnelle est confiée à un organisme sous tutelle. Cette
évaluation s’inscrit dans un contexte où l’EFPS souhaite développer ses actions
de terrain « validées » dans les deux domaines conjoints de la promotion de la
santé mentale et de la prévention des consommations de substances
psychoactives. Le terme « validé », sur lequel nous reviendrons, est ici – bien
que ses implications soient très différentes – utilisé comme synonyme du terme
anglo-saxon evidence-based, généralement traduit par « fondé sur les données
probantes » ou « fondé sur les preuves ».
Il est par ailleurs précisé qu’« au niveau international, de nombreuses études
évaluatives ont été réalisées ces trente dernières années dans ce domaine ; elles
ont permis de mettre en évidence l’efficacité de certaines formes
d’intervention » ; « les programmes de soutien à la parentalité représentent une
de ces formes d’intervention structurées et validées ». S’agissant plus
spécifiquement du programme qu’il est question d’évaluer, « c’est un
programme de soutien à la parentalité qui a été largement validé et implanté
dans de nombreux pays ». Il a été développé « au début des années 1980 par
une psychologue américaine, Karol Kumpfer, actuellement en poste au
département de promotion et d’éducation pour la santé à l’université d’Utah,
USA ». Ce programme « développé à l’origine pour prévenir la consommation
de substances psychoactives auprès de populations à risques (jeunes ayant des
parents consommateurs) » a depuis « été largement évalué, adapté et implanté
dans de nombreux contextes ». On apprend également que le programme a été
évalué « par des évaluateurs externes » dans « plus de 150 études évaluatives
standardisées », et que ces évaluations « ont permis de démontrer l’efficacité du
PFI » sur de multiples indicateurs. Sont ainsi mentionnés « réduction de la
consommation et de l’initiation de substances psychoactives (alcool, tabac,
drogues illicites) chez les jeunes et les parents ; diminution des problèmes
psychiques (trouble des conduites, dépression, anxiété, trouble de personnalité,
phobies) et des problèmes de comportements (violence, délinquance) ;
diminution des plaintes somatiques ; amélioration du climat et de la
communication familiale ; augmentation de la confiance et du sentiment
d’efficacité en matière de parentalité ; amélioration des résultats scolaires ». Le
programme est par ailleurs présenté comme très rentable, puisque « des
évaluations économiques ont estimé à 9,60 $ pour 1 $ dépensé le ratio
coût / bénéfice ». Cette efficacité « absolue » se double d’une efficacité
« relative » tout aussi probante, puisqu’une « méta-analyse réalisée par la
Cochrane collaboration reviews in medicine and public health at Oxford University
(Foxcroft, Ireland, Lister-Sharp, Lowe et Breen, 2003) a démontré que PFI
était environ deux fois plus efficace que les autres programmes visant à prévenir
les consommations abusives d’alcool ». Par ailleurs, le programme a été
« adapté et implanté » auprès de « populations à risque comme en population
générale », dans « diverses cultures (Afro-américains, Asiatiques, Latino-
américains, Amérindiens…) et différents milieux (rural, urbain…) ». La
première « implantation internationale » a eu lieu en Australie en 1996, et
depuis PFI « a été diffusé dans plus de 17 pays », une large diffusion « qui va de
pair avec la reconnaissance internationale de son efficacité (OMS, Cochrane,
Bureau des Nations unies-Drogue et Crime à Vienne, Maison blanche,
National institute on drug abuse (NIDA) aux États-Unis, etc.) ».
À l’issue de cette présentation laudative, nul ne peut plus ignorer que le
programme PFI est validé internationalement, reconnu comme d’excellence
par des institutions elles-mêmes d’excellence, adaptable et adapté dans de
nombreux contextes et cultures, efficace à faible coût sur la plupart des
indicateurs de santé mentale classiques. Audacieux qui oserait contester une
telle masse de validité et d’applicabilité scientifiquement établies ; c’est à la
Science qu’il s’attaquerait. À qui ce programme d’excellence est-il donc
destiné ? Le programme PFI d’origine est présenté comme « ciblant les groupes
à risques et s’adressant aux familles ayant des enfants âgés de 6 à 11 ans ». Dans
la langue vernaculaire de la santé publique, un groupe à risque est un ensemble
d’individus artificiellement regroupés dans le même ensemble par le fait qu’ils
présentent actuellement des caractéristiques associées à un risque statistique
accru de présenter ultérieurement un état ou un comportement indésirable.
Ainsi, les fumeurs sont-ils un groupe à risque de cancer, les femmes un groupe
à risque de dépression, les pauvres un groupe à risque de délinquance, les
enfants de parents toxicomanes un groupe à risque de toxicomanie, etc. En
toute rigueur, un « groupe à risque » n’est « à risque » que par rapport à un
groupe de référence. Les augmentations de risque ne sont en effet pas définies à
partir d’un seuil absolu, mais par rapport à un groupe de référence, celui dont
le risque est le plus faible. Le risque est donc, dans cette approche, défini par
l’écart à une norme de fait.
Le programme PFI est un programme structuré, qui comporte 14 séances de
deux heures présentées dans autant de manuels décrivant précisément les
contenus des séances. Durant la première heure, parents et enfant sont séparés
en deux groupes « afin d’apprendre chacun de nouvelles compétences ». Au
cours de la deuxième heure, parents et enfants sont regroupés « pour mettre en
pratique les compétences apprises ». La formation des parents vise à
« développer les compétences des familles, à accroître leurs capacités en matière
de : résolution de problèmes, gestion des conflits, communication, mise en
place d’une discipline adaptée, organisation du temps, réalisation d’activités en
commun… », tandis que celle des enfants « cherche à favoriser le
développement de compétences psychosociales : communication, résolution de
problèmes et de conflits, prise de décision, capacité de résister à la pression des
pairs… ». La séance commune quant à elle « porte sur l’amélioration de la
communication et des interactions parents-enfants et la mise en œuvre des
habiletés apprises ». Chaque séance, qui regroupe 10 à 14 familles, est animée
par quatre formateurs « formés en 2-3 jours par des formateurs agréés […]
s’appuyant sur des manuels d’intervention ». Si la possibilité de former en trois
jours des animateurs novices à la compréhension et à la mise en œuvre d’un
programme de 24 heures portant sur un thème aussi complexe et sensible que
la parentalité peut sembler étrange, nous verrons qu’il n’y a là rien d’incongru
dans la logique promue par le programme ; c’est qu’en particulier la
compréhension par les animateurs de ce à quoi ils forment les parents n’est pas
requise : les manuels sont suffisamment prescriptifs pour qu’il suffise de suivre
les procédures indiquées.
Ces éléments importants du programme étant posés, le règlement précise qu’il
sera demandé au futur titulaire du marché « (1) d’implanter le programme PFI
en France ; (2) d’évaluer le programme implanté » et que « ces deux prestations
devront être réalisées en parallèle ».
Concernant l’implantation, « l’intervention devra être réalisée auprès d’une
population à risque de troubles addictifs » c’est-à-dire « une population issue
des Zones d’éducation prioritaire ou une population suivie par l’Aide sociale à
l’enfance ou des familles en prise avec des problèmes d’addiction », et plus
précisément « des familles ayant au moins un enfant âgé de 6 à 11 ans ». Le
dispositif méthodologique envisagé est un Essai comparatif contrôlé randomisé
à trois bras, avec un groupe intervention PFI, un groupe « intervention
classique de soutien à la parentalité » et un groupe « pas d’intervention de
soutien à la parentalité », les sujets étant « recrutés et répartis de façon aléatoire
dans un des trois groupes selon une stratégie préétablie ». Il s’agira de mettre en
œuvre le programme de façon « conforme à la procédure proposée par les
concepteurs et responsables du programme PFI ». Ceci implique donc que
« l’intervention devra être réalisée en collaboration avec les partenaires
américains. Les animateurs de groupe ainsi que toutes les personnes associées à
ce programme seront formés au programme PFI par des formateurs PFI agréés
(le coût de cette formation s’élève à 3 650 $ pour une durée de deux jours) ».
Pour la formation, « les manuels du programme PFI auront été préalablement
traduits et adaptés au contexte français par l’Organisme ».
Concernant l’évaluation, « l’impact du programme PFI sur les enfants et les
parents sera évalué selon plusieurs dimensions ». Sont mentionnés en
particulier :
– « la consommation de substances psychoactives des parents et des enfants ;
– les troubles mentaux des parents et des enfants ;
– les compétences psychosociales des enfants ;
– les liens sociaux et l’influence des pairs ;
– les résultats scolaires ;
– les compétences parentales (style éducatif, discipline, sentiment d’efficacité,
attachement…) ;
– les relations intrafamiliales (conflit, communication, organisation…) ».
Les parents, les enfants et les intervenants sont impliqués dans cette évaluation,
« qui devra s’appuyer sur le kit d’évaluation proposé par les partenaires
américains ».

Justifications statistiques et présomptions d’universalité


L’annexe technique du dossier d’appel d’offres comprend trois documents : une
présentation du programme PFI issue de la présentation qu’en fait le Substance
abuse and mental health services administration (SAMHSA) américain, et reprise
sur le site commercial PFI ; un article présentant le processus « d’adaptation
culturelle » du programme pour sa dissémination internationale (Kumpfer,
Pinyuchon, Teixeira de Melo, & Whiteside, 2008) ; une présentation de la
méthodologie et des instruments d’évaluation.
La présentation du SAMHSA apporte différents éléments d’information sur le
programme PFI, ses origines et ses fondements théoriques. Il est précisé que le
programme a été initialement développé par le Dr Karol Kumpfer avec une
subvention du NIDA (National institute on drug abuse) et du NIH (National
institute of health) entre 1982 et 1986, et qu’il s’appuie sur les travaux
« scientifiquement fondés » antérieurs de cinq auteurs4. L’article concernant
l’adaptation culturelle précise par ailleurs que les fondements théoriques de PFI
peuvent être trouvés dans la théorie de l’écologie sociale (Bronfenbrenner,
1979) et dans le Social ecology model of adolescent substance abuse and
delinquency (Kumpfer & Alvarado, 2003). La liste des institutions par
lesquelles le programme PFI est reconnu comme « programme modèle » voire
comme « l’un des sept seuls programmes considérés comme “exemplaires” » est
fournie et comprend le SAMHSA, le NIDA, l’OJJDP, l’US Department of
Education, le White House Office of National Drug Control Policy, les Centers for
the Application of Prevention Technology. À l’instar des drogues dont il est censé
prévenir l’usage, la liste des institutions de référence montre que le programme
PFI se situe à l’intersection du sanitaire et du sécuritaire. Le programme est
présenté comme ayant été implémenté dans près de 3 000 sites aux États-Unis
et ailleurs.
Le programme n’est pas dirigé vers un type particulier de substance ou d’usage.
Il cible les facteurs de risque et de protection qui affectent les usages de
substances. Ces facteurs de protection se situent à quatre niveaux : l’individu,
la famille, les pairs, l’école. Au niveau de l’individu sont ciblés l’estime de soi,
les compétences sociales et les « compétences de vie », la résistance aux
influences négatives des pairs. Au niveau de la famille, l’efficacité parentale,
l’organisation familiale, la communication efficace, l’attachement parents-
enfant, la santé mentale des parents. Au niveau des pairs, la recherche de pairs
« pro-sociaux » et la communication efficace, et au niveau de l’école, les
diplômes et l’attachement à l’école. Les facteurs de risque se situent aux quatre
mêmes niveaux, et concernent : chez l’individu la dépression, les troubles des
conduites, l’agressivité / la violence / la délinquance, la timidité et la solitude.
Dans la famille, les conflits familiaux, les punitions excessives, les abus envers
les enfants et la négligence, la discipline inefficace, l’utilisation de drogues par
les membres de la famille ou le fait d’en favoriser l’usage, les situations
d’acculturation différentielle. Chez les pairs, il s’agit des pairs utilisateurs de
drogues, et de l’influence négative des pairs. Au niveau de l’école, les retards, les
absences, le manque de liens avec l’école.
S’agissant d’un programme qui se réclame d’une logique evidence-based, les
effets en ont nécessairement été mesurés sur différents indicateurs standardisés
de taille d’effet (effect sizes ou ES), et il est précisé que le programme « montre
des tailles d’effet modérées à importantes (ES = 0.2 à 1.3), et des effets
statistiquement et cliniquement significatifs pour des familles diverses et dans
des suivis allant jusqu’à 5 ans » sur différentes variables : les troubles des
conduites, les agressions, la délinquance, la dépression, globalement sur les
troubles internalisés et externalisés du comportement et les plaintes somatiques
chez les enfants physiquement abusés, la timidité. Des réductions significatives
dans la dépression parentale ont été mises en évidence. Les compétences de
communication, résolution de problème, résistance aux pairs et contrôle de la
colère sont améliorées. Des améliorations « de tailles d’effets petites à
modérées » dans les conflits familiaux, l’organisation, la communication, et la
cohésion ont été retrouvées. Des « réductions significatives » ont été mises en
évidence pour « l’utilisation et l’usage » de tabac, d’alcool et de drogues, allant
de « 30 à 60 % ». Ces résultats « obtenus dans 33 écoles d’Iowa du Sud ont
produit un rapport coût / bénéfice substantiel de 9 $ pour 1 $ investi ». Le
programme doit être implémenté de façon fidèle ; les « familles à faible risque
peuvent s’améliorer avec 12 séances, mais les familles à haut risque ou les
familles immigrantes ont besoin d’au moins 14 séances ». Il est intéressant de
remarquer l’usage rhétorique d’un « effet-dose », et la taille alléguée de celui-ci :
deux séances supplémentaires suffiraient ainsi à distinguer, en termes
d’efficacité, les familles « à faible risque » des familles « à haut risque ou
immigrantes ».
La présentation des résultats est typique des rhétoriques habituelles de
description des programmes evidence-based, et repose massivement sur l’usage
de deux notions : la taille d’effet, et la significativité statistique. Elle ne relate
que les tailles d’effets statistiquement significatives, sans préciser en rien
l’intérêt clinique ou de santé publique des effets observés, et sans détailler les
contenus du programme, suggérant ainsi que seuls importent les résultats sur
les indicateurs utilisés, quels que soient les moyens utilisés pour les obtenir.
L’usage de la taille d’effet est ici purement rhétorique ; il suggère que la mesure
est scientifique. L’interprétation de la pertinence de cet effet dépend en vérité
entièrement de l’indicateur utilisé pour le mesurer.
La taille d’effet est une mesure chiffrée de l’impact d’une intervention. Il en
existe de nombreux modes de calcul (Ellis, 2010), mais l’une des méthodes la
plus courante est le d de Cohen. Il s’agit simplement d’une différence
standardisée de moyennes : on calcule la différence des moyennes des résultats
des deux groupes (traité : t et contrôle : c) sur l’indicateur numérique utilisé
que l’on souhaite comparer, que l’on divise par l’écart-type s de la distribution.
En termes plus formels :
d = Mt − Mc
σ
d est donc une valeur numérique variant possiblement de −∞ à +∞ qui
exprime la différence des deux moyennes en proportion de l’écart-type des
valeurs composant les moyennes, c’est-à-dire de la dispersion de la distribution.
En d’autres termes, les chiffres 0.2 et 1.3 mentionnés plus haut signifient que
le programme PFI décale la moyenne du groupe qui reçoit ce programme de
0.2 à 1.3 écart-type par rapport à la moyenne du groupe contrôle.
Ce que signifie concrètement ce décalage dépend bien évidemment de ce que
mesure l’indicateur utilisé pour mesurer l’effet, dont il n’est ici rien dit.
L’affirmation que l’effet est « statistiquement significatif » signifie simplement
que des procédures statistiques ont été utilisées pour quantifier la probabilité
que l’effet observé puisse être dû au hasard, et que cette probabilité a été jugée
suffisamment faible pour être négligée, et décider que c’est bien l’intervention
qui est « causalement » responsable de l’effet observé.
Bien que la description mentionne que les résultats ont été obtenus dans 33
écoles d’Iowa du Sud, aucune conséquence n’est tirée de cette spécificité
géographique sur l’intérêt d’une utilisation en France. L’article décrivant le
processus d’adaptation culturelle précise qu’une adaptation fidèle autorise des
adaptations culturelles, mais pas la modification des composants du
programme, de la durée, ou de la structure générale. Une adaptation culturelle
comprend par exemple l’ajout de « repas et formules de convivialité, chansons,
histoires, danses, exercices, exemples, images, vidéos… » spécifiques à la culture
locale. Plusieurs étapes sont préconisées par l’article pour adapter le
programme.
1) Évaluer les besoins en fonction des « précurseurs étiologiques ». Les
précurseurs étiologiques sont les facteurs de risque des comportements
problématiques ciblés, empiriquement obtenus sur la base d’enquêtes en
population. L’approche par les facteurs de risque « est meilleure que les théories
sans fondements et devrait être mise en œuvre pour chaque nouvelle culture ou
pays ». S’agissant de PFI, un modèle à base d’équations structurelles a été testé
sur 10 000 « jeunes à haut risque » tirés d’une enquête nationale. Les modèles à
base d’équations structurelles sont un type de technique statistique multivariée
(Joreskog, 1970), qui vise à fournir un modèle de la structure des relations
entre un ensemble de variables d’un modèle en quantifiant les covariations de
ces variables. À l’instar de la taille d’effet, le recours à ces modèles a une
fonction rhétorique d’autant plus manifeste que les futurs animateurs du
programme auxquels il est présenté lors de formations à l’utilisation du modèle
PFI (éducateurs sociaux pour la plupart) ne disposent d’aucun outillage
conceptuel ou technique pour comprendre et critiquer ce qui leur est présenté.
L’argument scientifique est ici en vérité un argument d’autorité.
2) Sur cette base, il faut sélectionner le meilleur programme evidence-based
à adapter. Pour cela, il faut disposer « de sites Web ou de rapports qui incluent
des méta-analyses des tailles d’effets (par exemple d de Cohen) et sélectionner
le programme qui a la plus grande taille d’effet pour l’investissement prévu ».
C’est une logique de benchmarking.
3) Plusieurs tests pilotes doivent ensuite être mis en œuvre avec le
programme d’origine, sans adaptation, pour analyser ce qui fonctionne et ce
qui ne fonctionne pas, afin de fonder empiriquement les modifications
proposées.
4) Le processus d’adaptation culturelle tient compte des coutumes locales,
par exemple l’heure du repas associé à chaque séance dépend du pays : au
Portugal par exemple, le repas a lieu après la séance pour tenir compte des
heures de dîner habituelles.
Selon cette présentation, le choix d’un programme à mettre en œuvre repose
sur l’identification empirique (enquête en population à risque) des facteurs de
risque spécifiquement associés aux comportements à éviter dans la population
auprès de laquelle il est prévu de mettre en œuvre un programme. C’est à partir
de cette analyse qu’un programme ciblant ces facteurs de risque identifiés est
sélectionné, le programme présentant la plus grande taille d’effet devant être
choisi, car il offre le meilleur ratio coût / bénéfice. La notion d’adaptation
culturelle est en fait strictement réduite à l’adaptation aux coutumes locales :
les chansons, jeux, repas, horaires… sont ceux du lieu de mise en œuvre plutôt
que ceux des autochtones de l’Iowa du Sud, mais le concept même de cadre
social, et les articulations de ce cadre social avec les fonctionnements
psychiques, relationnels, familiaux, scolaires… des personnes auxquelles qu’il
est envisagé de soumettre au programme conçu dans un contexte social
déterminé ne font tout simplement pas partie des sujets évoqués, en un
ethnocentrisme parfaitement assumé, ou parfaitement inconscient, on ne sait.
Selon l’article, la « validité scientifique » des programmes evidence-based ne
garantit pas pour autant leur diffusion. Insensibles à ces multiples preuves, les
praticiens, en effet « souvent ne mettent pas en œuvre les programmes evidence-
based mais préfèrent créer leurs propres programmes ». Certes, « cela améliore
l’adhésion et l’enthousiasme envers le programme », mais l’efficacité de celui-ci
demeure inconnue « tant que le programme n’a pas été testé dans un essai
contrôlé randomisé ». La meilleure stratégie est donc de sélectionner un
programme evidence-based et de l’adapter aux spécificités de la population
locale, selon la procédure recommandée.
Au terme de cette présentation du programme PFI par les documents fournis
dans le cadre de l’appel à proposition d’évaluation de l’EFPS, rien n’a encore
été dit des contenus effectifs du programme dont les résultats ont été tant
vantés, ni des protocoles d’évaluation utilisés pour produire ces résultats.

Contenus d’un programme pour parents et enfants


scientifiquement validés
Le programme PFI repose sur un ensemble de manuels décrivant les contenus
que doivent mettre en œuvre les animateurs de séance auprès des parents et des
enfants. Chaque séance se décompose en trois sous-séances (la séance enfants,
la séance parents – qui sont menées en parallèle –, et la séance familles – où
parents et enfants sont regroupés), à chacune desquelles est associé un manuel.
Chacune des séances est consacrée à un thème spécifique (tableau 1).
Les manuels décrivent en détail les séances, par petites sections dont la mise en
œuvre dure de cinq à dix minutes. Typiquement, une séance comprend un
retour sur le travail à la maison réalisé durant la semaine écoulée, une petite
présentation théorique du thème de la séance, la description précise de la
technique éducative proposée, une mise en situation concrète, une présentation
du travail à la maison à mettre en œuvre pour la semaine suivante. Examinons
brièvement les contenus des séances.

Tableau 1. Organisation générale des séances du programme PFI.

S Parents Enfants Famille


Présentation et mise en place d’un groupe Accueil et règles Introduction
1 et formation
des groupes

Ce que les enfants savent faire et comment gérer Aptitudes sociales I Jeu de l’enfant
2 le stress

3 Récompenses Aptitudes sociales II Jeu de l’enfant

Buts et objectifs Récompenser les bons Buts et objectifs


4 comportements

Remarquer et ignorer / Tableaux et roulettes Dire « non » pour Tableaux et roulettes


5 éviter les problèmes

6 Communication I Communication I Communication I

7 Communication II Communication II Communication II

8 L’alcool, les drogues et les familles Alcool et drogues Apprendre des parents
Résoudre les problèmes et donner des Résoudre Jeu des parents
9 instructions des problèmes

Définir des limites I Présentation du Jeu des Jeu des parents


10 parents

Définir des limites II Reconnaître Jeu des parents


11 les sentiments

Définir des limites III Faire et accepter Jeu des parents


12 les critiques

Construire et utiliser des programmes basés sur Gérer la colère Rappel des notions
13 l’apprentissage de compétences

14 Favoriser et entretenir les bons comportements Ressources, bilan Séance finale

Un système de pilotage d’enfants


La première séance des parents, « Présentation et mise en place d’un groupe »,
est introduite par le jeu des M&M’s : chacun des participants prend des
M&M’s dans un récipient qui circule, et est ensuite sollicité pour « dire autant
de choses de lui qu’il a pris de M&M’s »5. Après avoir examiné différentes
considérations logistiques qui pourraient empêcher les participants de
participer aux séances, les « récompenses » qui ont été définies par l’organisme
mettant en place le programme pour majorer « la participation, la réalisation
du travail à la maison, ou le fait d’aller jusqu’au bout du programme » sont
présentées au groupe. On y trouve « des repas, des tickets de cinéma, des t-
shirts, des coupons de location de vidéos, des tickets de sport, des coupons de
crèmes glacées, des petits outils, des jus de fruits, etc. ». Le « travail à la
maison » à faire avant la séance suivante est ensuite présenté. Il est proposé aux
parents de noter à la maison les choses que leurs enfants « font ou disent qui
font que les parents se sentent bien », à trois reprises dans la semaine. Il est
également demandé aux parents de lire les pages du manuel concernant « les
changements comportementaux » et la manière de les favoriser. Il y est précisé
que « les comportements sont appris » et qu’ils peuvent être changés « en
fournissant aux enfants des récompenses pour l’apprentissage de nouveaux
comportements appropriés ». Il n’est pas nécessaire de « savoir pourquoi on fait
ce qu’on fait. Tout ce qu’on a besoin de savoir est comment changer, et le
faire ». Il s’agit d’être clair et précis sur « les comportements qu’on veut
obtenir ». Les fondamentaux du programme qui seront enseignés aux parents
et aux enfants sont ainsi mis en œuvre auprès des participants dès les premières
minutes de la première séance : apprentissage par renforcement positif,
utilisation des récompenses pour orienter les comportements, centration sur le
« positif », rejet de la compréhension au profit de l’agir, progression par
objectifs explicites.
Pendant ce temps, le programme et les règles de fonctionnement sont présentés
aux enfants dans le groupe qui leur est réservé. Les enfants chantent ensuite
une chanson de bienvenue à l’attention de chaque enfant du groupe. C’est sur
ce type d’item que les adaptations culturelles susmentionnées prennent place,
une chanson du folklore local devant être utilisée. L’objectif de la participation
au programme est présenté aux enfants de la façon suivante : « Vous et vos
parents venez ici pour apprendre comment mieux fonctionner ensemble, et
pour résoudre les problèmes qui surviennent dans votre famille. Nous allons
essayer de vous aider à vous parler les uns aux autres et à apprendre à dire aux
autres comment vous vous sentez sans les rendre fous ». Les enfants, dont il est
donc présupposé et auxquels il est affirmé, qu’ils ne sauraient pas dire aux
autres comment ils se sentent sans les rendre fous, sont ainsi informés qu’ils
sont là pour apprendre à mieux fonctionner ensemble et pour résoudre les
problèmes qui se posent dans leurs familles.
Un tableau des Faiseurs dynamiques (dynamic doers chart) est ensuite affiché au
mur, croisant les noms des enfants du groupe avec les comportements qu’on
leur demande de respecter. À chaque occurrence d’un bon comportement du
tableau, l’enfant « bon faiseur » se voit attribuer une étoile, affichée sur le
tableau. À la fin du groupe, chaque enfant qui aura plus de cinq points aura le
droit de choisir une récompense parmi celles prévues. Si un enfant ne respecte
pas une des règles, il est mis en « time-out », c’est-à-dire assis à l’écart durant
quelques minutes, avec pour consigne de se tenir calme, avant de pouvoir
« rejoindre le groupe et être un Faiseur dynamique ».
La séance « familles » regroupant parents et enfants précise que l’objectif des
séances est de développer en famille les « savoir-faire » qui auront été
préalablement travaillés dans les séances séparées des parents et des enfants. La
maîtrise de ces savoir-faire est acquise en quatre étapes :
1. Les formateurs expliquent aux enfants et aux parents comment utiliser le
savoir-faire.
2. Ils démontrent l’utilisation du savoir-faire.
3. Les parents pratiquent avec leurs enfants tandis que les formateurs les
« coachent » et leur « donnent un coup de main ».
4. Les savoir-faire sont pratiqués de façon formelle à la maison sur la base
d’exercices.
On reconnaîtra ici l’inspiration de l’apprentissage vicariant de Bandura,
apprentissage par observation et imitation (Carré, 2004). Au titre de ces
acquisitions, le Jeu de l’enfant (« l’un des plus importants savoir-faire que vous
apprendrez dans les cours PFI ») est le lieu où les parents apprendront « de
meilleures manières de récompenser l’enfant pour ses bons comportements et
d’augmenter les récompenses sociales données à l’enfant » (accentuation
d’origine). Globalement « notre objectif est de vous aider à obtenir davantage
des comportements que vous voulez pour votre enfant, et moins des
comportements que vous ne voulez pas ». Il s’agit ainsi d’apprendre aux parents
à piloter les comportements de leurs enfants pour qu’ils se conforment à ce que
souhaitent les parents. Il est donc question de doter des parents, dont il est
pourtant postulé qu’ils sont suffisamment incompétents pour avoir besoin de
ce programme, d’outils de manipulation leur permettant d’obtenir des enfants
ce qu’ils veulent, sans interrogation ni travail préalable aucun sur ce qui est
ainsi voulu.
Un manuel de Gospel mormon et des sandwiches anxiolytiques
La deuxième séance présente aux parents « Ce que les enfants savent faire et
comment gérer le stress ». S’agissant de ce que les enfants savent faire à un âge
donné – ce qui est l’objet central d’étude de la psychologie développementale,
dont les publications sont nombreuses –, le manuel des parents de la deuxième
séance précise que les contenus du manuel sont « adaptés de The how Book for
Teaching Children, Salt Lake City, Utah (1976) ». Cet ouvrage s’avère être un
manuel édité par l’Église Mormon de Salt Lake City, dite de Jésus-Christ des
Saints des Derniers Jours. L’ouvrage, épuisé, a été remplacé par Teaching, No
Greater Call: a Resource Guide for Gospel Teaching. Les premières phrases du
manuel de la deuxième séance et celles du manuel mormon illustrent la
similarité des deux ouvrages : « Les enfants grandissent constamment :
physiquement, mentalement, socialement et émotionnellement. Les enfants
grandissent et se développent selon un pattern général » (manuel PFI) ; « Les
enfants changent constamment physiquement, mentalement, socialement,
émotionnellement et spirituellement. Ils suivent un pattern général de
croissance et de développement » (manuel Mormon). Il en va de même de la
suite des deux documents.
Les ouvrages de psychologie du développement sont loin d’être une ressource
rare. Choisir de citer comme (unique) référence bibliographique de son
programme un manuel Mormon plutôt qu’un ouvrage classique parmi les
centaines qui existent est donc un choix délibéré. Il n’est pas dans mes objectifs
d’explorer ou de comprendre les raisons de ce choix du côté des concepteurs de
PFI (qui résident à Salt Lake City), mais les réactions des responsables
scientifiques français de l’EFPS à cette information sont intéressantes.
Confronté à cette information lors d’une présentation par l’auteur de ces lignes
durant une réunion du Haut Conseil de la santé publique, le responsable des
affaires scientifiques, fort peu ému par cette référence pourtant particulière, a
justifié son absence d’émoi en distinguant les programmes evidence-based
(qu’était supposé être le programme PFI) et les programmes theory-based (sous-
entendu sans fondements empiriques, donc sans intérêt autre que décoratif ), la
seule chose importante étant les effets empiriquement observés du programme,
peu importent les moyens utilisés pour les atteindre et les références théoriques
utilisées pour les justifier. Cette position n’est en rien atypique. C’est au
contraire une instanciation typique de la logique pragmatiste du « ça marche »
qui caractérise le domaine des interventions de santé publique. Les concepteurs
et acteurs de ces interventions partagent le présupposé selon lequel il y a un
problème de santé publique – quelle que soit la situation ainsi construite – et
qu’il faut agir – l’action étant hiérarchiquement supérieure à l’inaction. Dans
cette logique, seules les interventions ayant démontré un effet peuvent avoir
voix au chapitre, les autres approches étant postulées inefficaces. Nous
reviendrons sur cette erreur de raisonnement usuelle, qui confond absence de
preuve et preuve de l’absence, et rétro-conçoit le monde à la seule aune des
effets observés sur des observables prédéterminés, sans se préoccuper de savoir
quelle portion du territoire réel est vraiment couverte par cette carte conçue à
partir des seuls effets observés.
La seconde partie de la deuxième séance s’intéresse au stress parental. L’intérêt
de savoir le gérer est que lorsque les parents sont stressés, ils peuvent être
violents avec leurs enfants. Il est donc important de savoir identifier le stress et
le gérer. Pour l’identifier, les symptômes en sont décrits dans un test de stress
regroupant une soixantaine d’items, relevant des registres physiques,
émotionnels, attitudinaux, sociaux, cognitifs, professionnels.

Tableau 2. Test de stress du programme PFI.

Le test de stress : cochez chaque manifestation que vous avez observée récemment, chez
vous.
Physique Émotionnel Comportemental
fatigué très inquiet sentiment de vide
tendu humeur changeante négatif
n’arrive pas à dormir cauchemars en colère contre soi-même
dort beaucoup découragé en colère contre les autres
pas d’appétit peu d’entrain passivité
mange trop pleure souvent n’arrive pas à pardonner
rhumes, maux de tête sautes d’humeur doute de soi
douleurs musculaires ne parle pas attitude cynique
grincement de dents parle trop les buts dans la vie semblent insignifiants

Social Pensées Productivité


moins d’amis oublie les choses le travail s’accumule
plus souvent à la maison ne peut se concentrer absence plus fréquente au travail
en colère contre les autres rêvasse pressions au travail
se sent seul réfléchit trop n’arrive pas à finir ce qui est commencé
libido diminuée confus pas d’intérêt pour le travail
manipulateur pensées négatives reporte les choses
reste muet s’ennuie travaille longtemps

Le test de stress est introduit dans la séance de la façon suivante : « Nous avons
un test simple pour vous aider à voir et comprendre votre propre stress. Nous
vous demandons de le regarder et de cocher les items qui s’appliquent à vous.
Nous sommes certains que plus vous présentez de ces signes, plus vous
ressentez de stress. » Si les signes mentionnés peuvent en effet être des réactions
à des stresseurs, ils peuvent aussi être des symptômes de multiples
problématiques comprenant la dépression, l’anxiété, les troubles du
comportement alimentaires, les troubles de la personnalité, différentes maladies
somatiques, les conséquences iatrogènes de différentes substances… et bien
d’autres choses encore. Quelles peuvent être les conséquences d’amener les
parents à penser que ces signes sont les seuls effets du stress, sans
questionnement additionnel sur les autres causes envisageables ? Loin de cette
question qui nécessiterait pour trouver réponse une analyse un peu
approfondie, le manuel reste fidèle à son optique strictement pragmatique. Il
s’agit simplement de savoir « comment gérer le stress que vous ressentez lorsque
votre enfant se comporte mal », et non pas, par exemple, de savoir identifier
l’irritabilité dépressive, l’irritabilité hypoglycémique, ou tout autre déterminant
historique, normatif, caractérologique, psychologique, environnemental… qui
ferait considérer au parent que son enfant se comporte « mal » et qu’il le vit
comme intolérable. La technique présentée et travaillée durant la séance
consiste à compter lentement de 10 à 1 en s’imaginant descendre un escalier.
Parmi les autres techniques recommandées : quitter la pièce, faire autre chose :
« allumer la télé, manger un sandwich, n’importe quoi pour aider à se calmer,
garder son sens de l’humour ». Si l’écart est patent entre l’intensité des
symptômes du test utilisé, surtout s’ils se cumulent (je ne peux plus dormir,
plus manger, je fais des cauchemars, je deviens cynique, ma vie perd son sens,
j’ai moins d’amis…) et le simplisme de la solution proposée (compter jusqu’à
10), tout autant que le risque de recommander aux parents d’avoir recours à
des comportements dysfonctionnels (manger pour se calmer), c’est pourtant la
seule chose qui soit proposée par le programme.
Pendant que les parents apprennent à se déstresser, les enfants « développent
leurs aptitudes sociales », et tout d’abord s’entraînent à l’écoute. Pour leur
apprendre à montrer qu’ils écoutent, quatre règles leur sont présentées,
auxquelles ils s’entraîneront par le jeu de Jacques a dit :
1. Regarder la personne.
2. Avoir un visage avenant.
3. Poser des questions.
4. Mais ne pas interrompre.
Si le jeu de Jacques a dit nécessite en effet d’écouter et d’entendre ce que dit le
meneur pour s’y conformer, le choix de ce support est révélateur de la notion
d’écoute sous-jacente. Le jeu n’est en effet en rien un exemple d’une écoute de
la vie quotidienne, intégrée dans une interaction en relation, organisée autour
d’un échange. C’est une écoute destinée à se mettre en situation de pouvoir
exécuter un ordre.
Durant la séance « familles », on demande aux enfants de jouer tranquillement
à part en leur disant « nous allons parler à vos parents du Jeu de l’enfant. Le Jeu
de l’enfant les aidera à être de meilleurs parents en leur apprenant à faire un
meilleur travail d’attention à votre égard ». Les animateurs présentent le Jeu de
l’enfant aux parents, puis leur montrent comment féliciter les enfants de leur
calme en leur disant « Merci de jouer comme ça, ça nous aide et on aime
quand vous faites ça. » Les animateurs invitent ensuite les parents à féliciter
leurs enfants régulièrement, « d’abord en disant aux parents exactement quoi
dire et quand ».
Quels peuvent être les effets de dire aux parents en la présence des enfants, et
aux enfants en présence des parents que ces derniers vont apprendre des
techniques pour devenir « de meilleurs parents » ? Que peut penser l’enfant
auquel on apprend que ledit Jeu de l’enfant qui va être enseigné à ses parents
est en vérité une technique que ses parents acquièrent pour devenir meilleur, le
meilleur en question étant une capacité accrue à faire faire à l’enfant ce que le
parent veut qu’il fasse ? Les difficultés et contradictions de ce dispositif, où
parents et enfants sont successivement ou simultanément disqualifiés, mis en
position d’incompétence, félicités, mis en position de toute puissance,
objectivés comme cibles ou opérateurs d’une technique standardisée prescrite
et validée par les animateurs qu’il aura d’abord fallu observer, ne sont jamais
évoquées.
Le savoir-faire central du programme « ignorer et remarquer » est ensuite
enseigné aux parents. Il s’agit « de vous apprendre à utiliser votre attention
pour guider le comportement de votre enfant ». Les règles en sont les
suivantes :
1. « Récompensez immédiatement : tout comportement qui est récompensé
immédiatement a une plus grande probabilité de survenir à nouveau. »
2. Un enfant « travaillera pour l’attention positive, telle que les louanges
d’autrui, particulièrement des parents. Malheureusement, l’attention est si
importante que si un enfant ne reçoit pas suffisamment d’attention positive, il
cherchera de l’attention négative, même des punitions ».
3. « Ne récompensez pas accidentellement les comportements que vous ne
voulez pas. Ignorez les mauvais comportements. »
Il s’agit donc d’utiliser un élément fondamental pour l’enfant, l’attention de ses
parents, comme levier de manipulation pour sélectionner les comportements
souhaités par le parent.
Des récompenses à gogo
Savoir récompenser est l’objet de la troisième séance des parents. Il est
préconisé de leur demander de mentionner « une chose qu’ils ont faite cette
semaine et que l’enfant a aimée », et de « récompenser les parents qui ont pensé
à amener leur journal quotidien » dans lequel ils doivent noter les exercices à la
maison qu’ils ont faits. La théorie des récompenses présentée est la suivante :
« les récompenses sont la meilleure manière d’amener les enfants à apprendre
les comportements que vous voulez. Les enfants travailleront pour obtenir les
choses qu’ils aiment – de l’attention, des louanges, des friandises, des
cadeaux… ». Ce mécanisme n’est pas pour autant limité aux enfants puisque
« les adultes fonctionnent à l’identique. Pensez à la manière dont les adultes
sont récompensés au travail, à la maison, ou dans leurs relations ». Il est
important d’expliquer que « récompenser votre enfant pour un bon
comportement est une manière de montrer votre amour ». Toutefois, ledit
amour est ici conditionnel à l’accomplissement de la performance : « une
récompense n’est donnée qu’APRÈS6 le bon comportement, et si le
comportement n’a pas lieu, la récompense n’est pas donnée ». Aux parents qui
objecteraient qu’il s’agit là d’acheter le comportement de l’enfant, d’un pot-de-
vin, on répondra que « le pot-de-vin est le paiement d’une chose illégale, alors
qu’une récompense est le résultat naturel d’un bon comportement (un
salaire) ».
Sans entrer dans des détails que nous aborderons plus loin, mentionnons tout
de même dès à présent que de multiples travaux montrent que ce type de
comportement parental est associé à un risque accru de troubles
psychopathologiques chez l’enfant, qu’il s’agisse de troubles cliniques (axe 1 du
DSM) ou de troubles pérennes de la personnalité (axe 2 du DSM) (Barber,
1996 ; Brook, Zheng, Whiteman, & Brook, 2001 ; Johnson, Cohen, Chen,
Kasen, & Brook, 2006 ; Mariaskin, 2009 ; Sauer & Baer, 2010 ; Straus
& Field, 2003).
S’agissant des moyens de récompenser, une liste de 30 phrases prêtes à l’emploi
est fournie, ainsi qu’une liste d’actions réparties en trois groupes : (1) 12
récompenses personnelles (sourire, applaudir, serrer dans ses bras, etc.) ; (2) 32
choses à faire (jouer au Frisbee, peigner les cheveux du parent, aller au lit 15
minutes plus tard, avoir un bain à bulles, s’habiller avec des vêtements
amusants, s’asseoir sur les genoux du parent, etc.) ; (3) 26 choses à donner
(crayons, montres pour enfant, bande dessinée, lampe clignotante, jeux, pièces
de monnaie, etc.). Un tableau d’enregistrement des récompenses données est
fourni aux parents pour le travail à la maison.
En parallèle, les enfants entament le deuxième volet du développement de leurs
aptitudes sociales : après l’écoute, la prise de parole. Les savoir-faire pour parler
avec quelqu’un sont présentés en huit points :
1) Demander si c’est le bon moment pour parler.
2) Regarder la personne.
3) Avoir un ton et une voix plaisants.
4) Ne pas parler trop fort ou trop bas.
5) Ne pas se tenir trop loin ou trop près.
6) Alterner les tours de parole.
7) Savoir interrompre
a. Avoir un ton et une voix plaisants.
b. Regarder la personne.
c. Attendre une pause.
d. Dire « excusez-moi ».
8) Féliciter et faire des compliments.
Ces savoir-faire sont pratiqués en jeux de rôle avec le « fooler game », une
marionnette qui alterne les « vraies » félicitations et les « fausses », les enfants
exprimant leur accord / désaccord, et avec le « praise puppet show », une
marionnette qui trouve toujours un moyen de féliciter son interlocuteur, quels
que soient les sentiments exprimés par celui-ci, dont il n’est d’ailleurs tenu
aucun compte. La séance familiale a pour objectifs d’entraîner les parents aux
félicitations durant le jeu de l’enfant, « sous la supervision et les
encouragements des formateurs ».
Puisque les enfants savent désormais écouter et parler, et les parents féliciter, il
est possible et temps pour ces derniers d’apprendre à fixer des buts et des
objectifs clairs à leurs enfants. Mais les enfants aussi doivent savoir
récompenser les bons comportements de leurs parents et les « aider à devenir
meilleurs ». Il est précisé aux enfants que « nous aidons vos parents à améliorer
les mêmes savoir-faire que ceux que nous vous enseignons. Aujourd’hui vos
parents apprennent comment vous aider à faire davantage des choses qu’ils
veulent et moins des choses qu’ils ne veulent pas. Ils décident ce qu’ils aiment
dans votre comportement et ce qu’ils voudraient être différents. Dans cette
séance, nous allons faire la même chose pour vous afin que vous puissiez aider
vos parents à être de meilleurs parents ». Il est donc question de demander aux
enfants d’aider leurs parents à mieux les transformer afin qu’ils deviennent
davantage conformes à ce que veulent les parents. Pour cela, les « règles
magiques du succès » pour « aider les gens à changer la manière dont ils se
comportent » sont présentées aux enfants. Elles sont au nombre de deux :
1. Récompensez ce que vous aimez : « si vous flattez une personne quand elle
fait quelque chose que vous aimez, il y a une probabilité plus grande qu’elle
fasse à nouveau ce que vous aimez, parce que vous l’avez récompensée. Par
exemple, si vous caressez votre chien à chaque fois qu’il fait quelque chose que
vous aimez, il le refera. »
2. Ignorez ce que vous n’aimez pas : « si quelqu’un fait quelque chose que vous
n’aimez pas, ignorez-le en cessant de le regarder. Vos parents vont apprendre à
vous ignorer quand vous faites des choses qu’ils n’aiment pas. C’est une
manière de vous dire qu’ils ne sont pas contents de votre comportement.
Lorsqu’ils aimeront ce que vous faites, ils vous regarderont à nouveau. »
La séance familiale destinée à s’entraîner à ces nouvelles compétences est
décomposée en cinq minutes de discussion sur le travail effectué à la maison,
dix minutes d’observation du Jeu de l’enfant, quinze minutes d’activité en
famille autour d’un jeu de rôle avec discussion sur l’exercice (il s’agit de décider
en famille comment utiliser 100 $ qui viennent d’être gagnés à la loterie), cinq
minutes de présentation du travail à faire à la maison (continuer le Jeu de
l’enfant, noter sur le journal quotidien toutes les récompenses données aux
enfants pour avoir fait un comportement demandé par le parent).
Une boîte à outils skinnérienne
La cinquième séance parentale est introduite par l’explication suivante sur la
technique fondamentale de « remarquer et ignorer » : « Le truc est d’aider les
enfants à apprendre qu’ils obtiendront de l’attention pour les comportements
que vous7 voulez, tandis qu’ils seront ignorés pour les comportements que vous
ne voulez pas. Chaque parent décide pour lui-même ce qu’il veut et ce qu’il ne
veut pas. Cela signifie récompenser les comportements que nous voulons de
nos enfants, et de nos partenaires, et de nos collègues ». On reconnaîtra ici
aisément la classique technique skinnérienne de conditionnement opérant
(Skinner, 1965) avec renforcement des comportements souhaités par la
récompense et extinction des comportements non souhaités par l’ignorance
(conditionnement opérant avec punition négative). Le renforcement est une
procédure qui vise à augmenter la probabilité d’apparition d’un
comportement. La punition est une procédure qui entraîne une diminution de
la probabilité d’apparition d’un comportement. Le renforcement positif est
une procédure qui entraîne une augmentation de la fréquence d’un
comportement suite à la présentation d’un stimulus « appétitif ».
Symétriquement, la punition négative est une procédure qui entraîne une
diminution du comportement suite à la suppression ou à l’ajournement d’un
stimulus appétitif (Freixa i Baqué, 1981). Selon la théorie skinnérienne de
l’apprentissage, les comportements sont façonnés par les contingences
environnementales de renforcement et de punition, c’est-à-dire par les retours
que l’environnement fournit en réponse aux comportements. C’est cette
logique de façonnage que le programme PFI recommande ici d’appliquer aux
enfants.
Pour récompenser les comportements voulus, le protocole recommandé est le
suivant (cinq minutes de séance) :
1. Récompensez immédiatement.
2. Dites précisément ce que vous avez aimé.
3. Soyez cohérent, si vous récompensez une fois, récompensez toujours.
4. Soyez authentique, n’ayez pas l’air faux.
5. Utilisez des récompenses que l’enfant aime.
6. Diminuez les récompenses pour un comportement lorsque ce
comportement est acquis.
Pour ignorer les comportements non voulus, le protocole est (dix minutes de
séance) :
1. « Ne regardez pas l’enfant : détournez-vous totalement de lui, afin de ne pas
lui donner le moindre signe d’attention. »
2. « Ne parlez pas à l’enfant, même s’il vous demande pourquoi vous l’ignorez.
Sinon vous lui apportez une récompense en lui portant attention. Ne touchez
pas l’enfant, ne le laissez pas vous toucher. Ne dites à l’enfant pourquoi vous
l’ignorez que lorsque le comportement a cessé. »
3. « Si le comportement persiste, c’est peut-être qu’il est récompensé par
d’autres. Expliquez aux autres (amis, proches) qu’il faut ignorer le
comportement et comment le faire. »
La gestion des récompenses est ensuite présentée avec un outil qui sera fabriqué
durant la séance Famille : un tableau des bons comportements associé à une
loterie. Lorsque le nombre de bons comportements requis est atteint, l’enfant
peut tirer sa récompense au sort en utilisant la loterie. La séance familiale est
consacrée à la réalisation en famille du tableau de comportements et de la
loterie.
Des moments de Family Life
La septième séance est consacrée à la notion de réunion familiale. Le fait de
tenir régulièrement des réunions familiales est « le signe d’une famille forte et
soutenante ». Ces réunions, qui doivent être tenues de façon régulière,
hebdomadaire – typiquement le dimanche soir pour planifier la semaine à
venir –, « accroissent l’unité de la famille, améliorent la coopération familiale et
diminuent les conflits, augmentent l’amour et le respect mutuel, améliorent
l’organisation familiale et évitent les crises de dernière minute, et développent
les compétences sociales – en particulier pour les enfants ». Parmi lesdites
compétences sociales se trouve le fait de savoir demander de l’aide. L’idée
centrale est d’expliquer aux enfants que lorsqu’ils ont un problème « c’est leur
pouvoir personnel de dire à quelqu’un comment ils se sentent, le problème
qu’ils rencontrent, et de demander de l’aide ». Les savoir-faire sont travaillés
avec des marionnettes jouant différentes situations problématiques de la vie
quotidienne (racket, tentatives de séduction par des adultes étrangers, etc.). Il
s’agit d’identifier les adultes susceptibles d’apporter de l’aide et auxquels il faut
parler (parents, enseignants, policiers, médecins, etc.), mais aussi les pairs « de
confiance » auxquels les problèmes peuvent être confiés.
La séance familiale est un entraînement à la réunion de famille, autour d’un
problème que peut poser un enfant ou un adolescent. Les problèmes présentés
sont très clairement genrés :
– S’il s’agit d’une jeune fille « la discussion devrait tourner autour des règles à
mettre en place pour ses rendez-vous amoureux – âge approprié, qui est bon à
fréquenter… », à partir d’une situation dans laquelle la jeune fille a été invitée à
une soirée par un garçon plus âgé qu’elle.
– S’il s’agit d’un jeune garçon, « la discussion devrait tourner autour des règles
à mettre en place sur les amis qu’il fréquente, à partir d’une situation dans
laquelle le jeune a été invité à un concert, et sera emmené en voiture par des
amis plus âgés ».
Quelques substances psychotropes
La huitième séance est la séance « drogues » du programme. Le but de la séance
est de faire comprendre aux parents que leurs usages et leurs attitudes envers
toutes les drogues, qu’elles soient légales ou illégales, influenceront l’attitude de
leurs enfants et leurs usages futurs des drogues. Cependant, « certains enfants
ont une probabilité plus grande de développer des problèmes pour des raisons
qui n’ont rien à voir avec la qualité de leurs parents. Certains enfants sont tout
simplement nés irritables, en colère, anxieux et agressifs. Si vous avez un enfant
comme ça, vous avez besoin d’être un “super-parent” et d’obtenir autant d’aide
que vous pouvez de vos amis, de la famille, de l’école, des conseillers religieux,
des travailleurs sociaux et d’autres personnes qui peuvent vous aider à élever ces
enfants difficiles. Ces enfants sont souvent appelés à haut risque ou
vulnérables ». Plus un enfant est jeune lorsqu’il commencera à expérimenter
l’alcool, le tabac ou d’autres drogues, et plus la probabilité augmente qu’il
devienne dépendant ultérieurement. Chaque année de consommation évitée
apportera un délai important pour la croissance physique et le développement
intellectuel qui pourra aider l’enfant à résister aux pressions de consommation.
Les enfants à risque de consommer des drogues présentent selon les manuels
PFI différentes caractéristiques : des traits personnels et des comportements tels
qu’une faible estime personnelle, un usage précoce de l’alcool et du tabac, la
dépression et autres problèmes de santé mentale, un intérêt pour les
comportements à risque, des sentiments d’aliénation, un caractère opposant, de
la rébellion, de mauvaises compétences de coping. Des facteurs familiaux : un
environnement chaotique à la maison, une mauvaise communication familiale,
des abus et de la négligence sur l’enfant, des problèmes de substances chez les
parents, une parentalité inefficace ou un manque d’attention, un manque ou
un excès de discipline. D’autres facteurs interviennent également : la pression
des pairs, un comportement délinquant, de mauvais résultats scolaires, une
faible implication à l’école. Les enfants utilisent des drogues pour se sentir plus
grand, pour se sentir appartenir à des groupes, pour se détendre et échapper à
la pression, pour prendre des risques, se rebeller, pour satisfaire leur curiosité.
Mais les enfants ont une probabilité plus faible de devenir dépendant aux
drogues si leurs parents ne sont pas favorables à l’usage de drogues et
encouragent un mode de vie sain, s’ils incitent leurs enfants à participer à des
activités qui améliorent le développement d’un sens fort et positif d’eux-
mêmes, s’ils promeuvent des alternatives positives aux drogues, s’ils sont
sensibles à ce que les enfants sentent tout en leur posant des limites adéquates,
s’ils proposent une discipline, une structure et une cohérence dans
leur éducation, s’ils développent une communication familiale ouverte, s’ils
aident leurs enfants à développer un savoir-faire dans le fait de se fixer des buts,
de prendre des décisions et de résoudre les conflits, s’ils insistent sur l’âge
approprié pour utiliser l’alcool, le tabac et les drogues prescrites.
La séance des enfants est également consacrée aux drogues. Il est expliqué aux
enfants que « les drogues sont des produits chimiques qui affectent le
fonctionnement de notre corps et de notre esprit. Certaines drogues sont
légales, mais réservé aux adultes. L’alcool et les cigarettes sont des exemples de
produits qui contiennent de la drogue que les adultes peuvent utiliser s’ils le
veulent ». « Certaines drogues sont appelées des médicaments, car elles peuvent
nous soigner. Certaines sont si puissantes que même les adultes doivent avoir la
permission d’un médecin pour les acheter ». Différents produits « contiennent
des drogues qui font que les adultes se sentent mieux ». Le problème c’est que
« ces drogues qui permettent de se sentir mieux peuvent aussi faire du mal si
elles sont mal utilisées, ou trop longtemps ». La « chose la plus importante à
savoir pour les enfants à propos de l’alcool, du tabac et des autres drogues est
de savoir comment dire non et pourquoi » :
Que faire si on vous offre de l’alcool ou de la drogue ? La réponse du
programme est simple :
1. S’en aller.
2. Le dire à un adulte.
3. Dire non.
Que pouvez-vous faire au lieu de prendre des drogues ou de l’alcool ?
1. Appeler un ami.
2. Vous faire du bien : dessiner, chanter, danser, lire, nager…
3. Vous impliquer : aider d’autres gens, rejoindre un groupe.
4. Rêver de ce que vous voulez être, à qui vous voulez ressembler.
5. Vous amuser.
6. Parler de ce que vous ressentez.
La séance familiale est consacrée aux apprentissages implicites que font les
enfants en observant leurs parents. Des groupes sont constitués de telle
manière que les parents et les enfants d’une même famille ne soient pas
ensemble, et il leur est proposé de discuter des sujets suivants (durée de la
discussion : dix minutes) :
Pour les parents :
1. Est-ce qu’il y a des choses bonnes ou mauvaises que vos enfants ont apprises
en vous regardant ?
2. Que pensez-vous que vous pourriez changer dans vos comportements que
vous ne souhaitez pas que vos enfants apprennent ?
3. Comment pourriez-vous enseigner aux enfants de meilleurs
comportements ?
Pour les enfants :
1. Pensez-vous que vous êtes comme votre père ou votre mère ? De quelle
façon ?
2. Est-ce qu’il y a des choses que vous aimeriez que votre père ou votre mère
change ?
3. Qu’avez-vous appris de vos parents ?
Une discussion en famille est ensuite proposée aux parents et aux enfants
autour de la question de l’usage des drogues et de la façon dont il affecte leur
famille (durée de la discussion : dix minutes).
Un manuel du bon dirigeant
pour que les parents s’amusent aussi
La neuvième séance est consacrée, pour les parents comme pour les enfants,
aux techniques de résolution de problèmes et aux bonnes méthodes de
direction (savoir donner des directives). La séance familiale introduit une
nouvelle technique, le Jeu du parent. Le Jeu du parent, pendant du Jeu de
l’enfant, est une structure dans laquelle les parents donnent des directives et
apprennent à récompenser leurs enfants lorsqu’ils les suivent.
Les règles en sont les suivantes :
– Donner des directives claires et spécifiques.
– Formuler les directives de façon affirmative, pas interrogative.
– Remercier l’enfant lorsqu’il suit les directives.
– Utiliser des rappels et des avertissements lorsque l’enfant ne suit pas les
directives.
– Récompenser l’enfant lorsqu’il suit les directives.
La pratique du Jeu du parent est introduite durant la séance de la façon
suivante : Après avoir joué au Jeu de l’enfant, les parents demandent aux
enfants de ranger les jouets avec lesquels ils jouent « de façon très particulière,
voire difficile, afin de voir si les enfants peuvent suivre leurs directives », une
tâche clairement dénuée de tout intérêt écologique et de toute lisibilité, qui
permet essentiellement de s’assurer que ce qui est acquis est bien la compliance
aux ordres, et non une quelconque intelligence de la tâche.
Des algorithmes comportementaux
La dixième séance concerne pour les parents les techniques de gestion des
« comportements qu’on ne peut pas ignorer », et en particulier le non-respect
des directives. Pour que l’enfant suive les directives, il est important de lui
fournir des « signaux comportementaux » sous la forme de rappels ou
d’avertissements. Un arbre décisionnel est proposé, distinguant les
« comportements positifs » et les « comportements négatifs ».
Lorsque l’enfant ne suit pas les directives, il est mis en « time out » (cf. infra),
ou il lui est demandé de se livrer à une « pratique positive ». La pratique
positive est la répétition du comportement souhaité et qui n’a pas été exécuté.
Si par exemple l’enfant ne cesse pas de claquer la porte alors qu’il lui a été
demandé de ne pas le faire, il lui est demandé de fermer dix fois de suite la
porte calmement. S’il a causé des dégâts par son comportement, il lui est
demandé de les réparer. Pour le parent, il est « important de ne montrer aucune
émotion, de présenter un visage de marbre ». La raison en est que « le fait de
s’énerver récompense l’enfant. Il fera alors des choses que vous n’aimez pas
juste pour vous énerver ».
Le « time-out » est une « mise à l’écart des récompenses ». Elle consiste soit à
éloigner le problème de l’enfant (s’il joue avec un marteau, lui retirer le
marteau), soit à éloigner l’enfant du problème en le mettant à l’écart, jusqu’au
retour au calme. Si l’enfant résiste, « décidez quel niveau de force physique
vous êtes prêts à utiliser pour mettre votre enfant en time out ». Le time out doit
durer un temps décidé à l’avance, qui sera mesuré au chronomètre. Le mieux
est d’utiliser un chronomètre produisant un son audible par l’enfant au terme
du décompte. Le niveau de sévérité du time out est graduel : s’asseoir et
regarder l’activité des autres enfants, être mis à l’écart avec la porte ouverte, être
mis à l’écart avec la porte fermée, pendant une durée plus ou moins longue (« à
titre d’indication générale, une minute par année d’âge »), etc. À l’issue du time
out, identifier le premier « bon comportement » et le récompenser
abondamment.
Des glaces tombées et des grands-mères mortes
La onzième séance introduit les parents aux problèmes posés par le recours aux
stratégies punitives, en particulier les punitions physiques : « Les punitions ont
pour but de faire mal pour enseigner quelque chose. Elles peuvent en effet
arrêter de mauvais comportements, mais elles peuvent aussi, et en particulier
les punitions physiques, avoir de mauvais effets de bord. Les punitions de
toutes sortes devraient être utilisées seulement en dernière extrémité, si rien
d’autre ne marche ».
En parallèle, les enfants apprennent comment « identifier [leurs] émotions et
[leurs] sensations ». Il est tout d’abord proposé aux enfants de montrer
comment ils se sentent en ce moment en désignant un visage parmi une liste
d’icônes. L’apprentissage de l’expression des émotions s’appuie ensuite sur un
jeu de charade : une émotion est tirée au hasard à partir d’une liste, et un
enfant doit faire deviner cette émotion aux autres en la mettant en scène sur
lui-même. Il est également proposé aux enfants de montrer sur leur visage les
émotions qu’ils ressentiraient dans différentes situations (« ta glace est tombée
et un chien l’a mangée, tu as perdu 10 $, ta grand-mère préférée est
morte8… »), ou de remettre dans l’ordre les lettres d’un nom d’émotion associé
à une petite histoire.
Les bonnes stratégies du changement
et l’art de se mettre en colère
La treizième séance a pour objectif d’apprendre aux parents à « concevoir et
utiliser des plans de changement comportementaux », c’est-à-dire des stratégies
à long terme pour faire changer leurs enfants selon leurs souhaits, qui
combinent l’ensemble des techniques présentées lors des séances antérieures :
identifier le comportement problématique, fixer un objectif de comportement
alternatif, examiner si l’enfant fait déjà le comportement souhaité par ailleurs,
déterminer si le comportement souhaité est adapté à son âge, si les autres
enfants de son âge ont le comportement souhaité, récompenser les
comportements similaires que l’enfant a déjà mis en place, planifier les
récompenses à utiliser pour le nouveau comportement (verbales, autres
récompenses, utilisation de la loterie et du tableau de comportement), planifier
les stratégies à utiliser pour poser les limites (ignorer, pratique positive, time-
out). Une check-list détaillée est destinée à aider le parent dans la conception,
la mise en œuvre et l’évaluation de son plan de changement.
En parallèle, les enfants apprennent à « gérer la colère ». Un protocole en cinq
étapes est recommandé pour cela :
– S’arrêter.
– Penser à ce qui va se passer si on perd son contrôle.
– Se demander pourquoi on est vraiment en colère, ne pas transporter sa colère
à d’autres situations.
– Se calmer.
– Se récompenser pour avoir contrôlé sa colère.
Exprimer sa colère se fait en trois étapes :
1. Dire à la personne envers laquelle on est en colère comment on se sent.
2. Dire ce qui fait qu’on se sent comme ça.
3. Dire pourquoi on se sent comme ça.
Des diplômes et des stratégies marketing
La quatorzième et dernière séance enseigne aux parents « comment conserver
les bons comportements » qu’ils ont pu mettre en place en utilisant toutes les
techniques apprises. Il s’agit de :
1. Commencer par récompenser de façon systématique les nouveaux
comportements à acquérir.
2. Lorsque le comportement est appris, commencer à récompenser moins
souvent.
3. Si le comportement persiste, diminuer progressivement les récompenses
jusqu’à les supprimer.
La séance des enfants est une révision générale de toutes les séances, c’est-à-dire
des 16 techniques apprises durant le programme.

Tableau 3. Récapitulatif des 16 techniques enseignées aux enfants par le programme, extrait du manuel PFI.
A. Qu’avez-vous appris avec ce groupe de travail ?

B. Comment peut-on montrer aux autres qu’on les écoute ?

C. Comment peut-on parler pour que les autres aient envie de nous écouter ?

D. Citez-moi une façon polie d’interrompre une personne.

E. Donnez-moi un exemple de compliment.

F. Quelles sont les deux « clés de la réussite » ?

G. Quelles sont les quatre étapes pour éviter les ennuis ?

H. Quelles sont les « règles des discussions en famille » ?

I. Pouvez-vous parler à vos parents de la consommation de drogue et d’alcool ?

J. Quelles sont les cinq étapes pour résoudre un problème ?

K. Qu’est-ce que le jeu des parents ?

L. Peut-on éprouver plusieurs sentiments à la fois ?

M. Comment peut-on savoir ce que ressent une personne ?

N. Citez-moi une façon polie de critiquer une personne ?

O. Que devriez-vous faire si on vous critique ?

P. Citez-moi un bon moyen de gérer la colère.

La dernière séance en famille est consacrée à la « remise des diplômes », et à la


préparation du terrain pour les stages suivants. Ainsi qu’il est précisé à
l’attention des animateurs de groupe « souvenez-vous que les diplômés sont vos
meilleurs recruteurs pour les programmes à venir. Le succès de votre
programme dépend de l’intensité de votre recrutement de nouvelles familles.
Un bon programme et des diplômés enthousiastes sont essentiels pour le succès
du recrutement, mais vos efforts de recrutement ne devraient jamais cesser.
Soyez toujours en train de travailler pour le prochain groupe. Pensez également
à vous récompenser vous-même pour votre succès dans l’animation du
programme PFI : vous faites face à des problèmes très difficiles, et vous
façonnez, et même sauvez des vies. »
Nous venons d’examiner en détail les contenus du programme PFI, et la
présentation qui en est faite dans différents documents, dont l’appel d’offres
pour évaluation rédigé par l’EFPS. Dans la section suivante, nous examinerons
ce qu’il en est des allégations d’efficacité du programme.
2. Je rappelle que pour des raisons de confidentialité les noms des personnes physiques et
morales constituant le terrain de cette enquête ont été anonymisés.
3. Pour des raisons de confidentialité, le nom du programme a également été modifié.
4. Dr Gerald Patterson, Dr Myrna Shure, Dr Bernard Guerney, Dr Robert McMahon, Dr Rex
Forehand.
5. Sauf précision contraire, les citations de cette section sont extraites des manuels des
séances.
6. Accentuation d’origine.
7. Accentuation d’origine.
8. Sic.
CHAPITRE 2

De l’efficacité des méthodes de changement psychologique :


analyse critique méthodologique

A insi que nous l’avons vu dans l’analyse du dossier de présentation de l’appel d’offres, le programme
PFI est présenté comme un des meilleurs programmes au monde, un programme d’excellence à
l’efficacité avérée. Est en particulier citée à l’appui de cette affirmation une revue systématique de
littérature de la Fondation Cochrane (Foxcroft, Ireland, Lister-Sharp, Lowe, & Breen, 2003). La
Fondation Cochrane est un organisme réputé et estimé dans le monde de l’Evidence-based medicine
pour ses travaux de synthèse de la littérature scientifique internationale dans de nombreux domaines de
la médecine, et qui a d’ailleurs largement contribué à en formaliser les bonnes règles de réalisation
(Higgins & Green, 2008). La revue de littérature de Foxcroft suit comme il se doit ces règles.
L’introduction rappelle toutes les bonnes raisons de santé publique qu’il y a à s’intéresser à la question
étudiée, celle de la prévention à long terme des mésusages de l’alcool chez les jeunes. C’est une stratégie
rhétorique usuelle : « pour tout acteur désireux de faire interdire ou réprimer un comportement donné,
le meilleur moyen consiste à démontrer que ce comportement est un enjeu de santé publique, étant
entendu que le déficit de compréhension dont souffre l’épidémiologie facilite grandement la
“démonstration” » (Peretti-Watel & Moatti, 2009, p. 42). Ainsi, dans le monde, 5 % des décès des
jeunes entre 15 et 29 ans seraient attribuables à l’alcool, tandis qu’en Europe, un décès sur quatre dans
cette tranche d’âge serait lié à l’alcool. En 1999, 55 000 jeunes seraient ainsi décédés en Europe à cause
de l’alcool. La consommation d’alcool aurait augmenté, passant par exemple de six unités par semaine
en 1992 à dix unités par semaine en 1998 (en Angleterre). Un bon indicateur des problèmes à long
terme serait l’âge de la première initiation à l’alcool. Selon une étude épidémiologique anglaise, la
prévalence de la dépendance alcoolique sur l’ensemble de la vie est quatre fois supérieure chez les
personnes ayant commencé à consommer à 14 ans que chez celles ayant commencé à 20 ans. Le risque
de dépendance sur la vie diminuerait de 14 % avec chaque année de délai supplémentaire dans
l’initiation.
En réalité, selon l’OFDT « dans une compilation de l’ensemble des résultats d’enquêtes menées dans
les pays européens […] dans les années 1990 la prévalence moyenne de l’alcoolo-dépendance sur les
douze derniers mois se situe autour de 3 %. Mais les résultats sont très variables d’une étude à l’autre
(de 0,4 % à 14,5 % d’alcoolo-dépendants chez les hommes ; de 0,1 % à 4,2 % chez les femmes). Au
sein d’un même pays, les estimations peuvent varier du simple au double, selon les études. Il n’existe
pas de certitudes sur le nombre d’alcoolo-dépendants en France, et il paraît aujourd’hui nécessaire de
poursuivre la réflexion sur les avantages et les inconvénients de l’utilisation des différents tests de
dépistage de l’alcoolo-dépendance dans les enquêtes de consommation ». Une analyse qui permet de
mieux situer le degré de précision effectif des enquêtes.

De 6 000 études publiées à trois retenues


L’objectif de la revue Cochrane de Foxcroft était d’identifier les interventions de prévention primaire
des mésusages de l’alcool chez les jeunes et de synthétiser les évaluations de leur efficacité sur le long
terme, c’est-à-dire « plus que trois ans ». Les critères d’inclusion des études étaient l’âge des participants
(< 25 ans), l’existence dans l’intervention d’un module psychosocial (« interventions visant
spécifiquement à développer les savoir-faire psychologiques et sociaux des jeunes ») ou éducatif
(« interventions visant à augmenter la conscience des dangers des mésusages de l’alcool »), l’existence
d’indicateurs formels d’usage et de mésusages de l’alcool et de problèmes liés à l’alcool.
La qualité des études identifiées a été évaluée sur les critères suivants :
– qualité du groupe contrôle ;
– méthode de randomisation et d’allocation dans les groupes utilisée ;
– similarité des groupes au début de l’étude ;
– méthodes de maximisation de la validité des comportements auto-reportés ;
– ajustement pour les variables confondantes ;
– taux d’attrition et méthode de prise en considération de ce taux.
La recherche automatisée initiale sur mots-clés dans les bases de données bibliographiques utilisées a
identifié 6 000 études. 600 ont été considérées comme correspondant aux critères d’inclusion.
56 études seulement ont finalement été considérées comme de qualité suffisante pour être incluses dans
la revue systématique. 84 % de ces études ont eu lieu aux États-Unis (soit 47 études), trois au Canada,
deux en Angleterre, une en Norvège, une en Australie.
Seules 3 des 56 études contenaient des résultats portant sur une durée de plus de trois ans (Botvin,
Baker, Dusenbury, Botvin, & Diaz, 1995 ; Schinke, Tepavac, & Cole, 2000 ; Spoth, Redmond,
& Shin, 2001 ; Spoth, Redmond, Trudeau, & Shin, 2002). Des 6 000 études initiales ne demeurent
donc dans l’analyse que 3 études. L’étude de Spoth et collègues porte sur le programme PFI. La
présentation de Foxcroft précise que les interventions de ces trois études ont été réalisées en milieu
scolaire, et synthétise les résultats dans les tableaux suivants, représentatifs de l’idiome statistique utilisé
comme langue vernaculaire de la communauté de santé publique. Tant les auteurs que les lecteurs sont
socialisés à (n’)utiliser (que) ce type de mise en forme de la pensée, avec laquelle les problèmes sont
formalisés et les solutions imaginées. Dans l’espace ainsi défini, une solution à un problème est une
action qui est susceptible de modifier les chiffres du tableau de façon à faire apparaître des différences
statistiquement significatives entre les interventions (et donc une possibilité de déterminer des
interventions plus « efficaces » que d’autres), ce qui ne signifie pas nécessairement, nous le verrons plus
loin, que cela implique une quelconque modification dans le monde réel où est censé se situer le
problème ciblé.

Tableau 4. Présentation des résultats des trois études à « long terme » de trois interventions par Foxcroft.

Analyse en Intention de Traiter pour les études sélectionnées (l’unité d’analyse est l’étudiant)
Résultat n au n au % ayant n ayant n Nombre total Réduction Nombre
analysé départ suivi présenté présenté estimé d’événements absolue de sujets
Programme
l’événement l’événement (perdus du risque à traiter
de vue) (IC 95 %) (IC 95 %)
Plus de A: 455 A: 388 A: 0,23 B: A: 89 B: 102 A: 20 B: A: 109 B: 121 A vs. C : A vs. C :
4 verres B: 462 B: 399 0,25 C: 0,30 C: 124 19 C: C: 145 6.23 % 17 [9-
dans la C: 479 C: 20 [0.09- 1149] B
Skills Training semaine 412 12.36] B vs. C : 25
(Schinke et al. 2000) vs. C : [10-inf.]
(3.5 ans) 4.09 %
[-2,17-
10,27]

Program for A déjà bu PFI: PFI: PFI: 0,50 PFI: 65 PFI: 50 PFI: 115 PFI vs. PFI vs.
Family Improvement de l’alcool 205 131 PDFY: 0,60 PDFY: 73 PDFY: PDFY: 117 Ctrl : Ctrl : 9
(PFI) (Spoth et al. PDFY: PDFY: Ctrl: 0,67 Ctrl: 85 44 Ctrl: Ctrl: 117 11,39 % [5-inf.]
2001) (4 ans) 32 [-0,40-
187 122 23,19] PDFY vs.
Ctrl: Ctrl: PDFY vs. Ctrl : 21
174 126 Ctrl : [6-inf.]
4,97%
[-6,90-
16,83]

A déjà bu PFI: PFI: PFI: 0,40 PFI: 59 PFI: 49 PFI: 108 PFI vs. PFI vs.
de l’alcool 232 148 PDFY: 0,51 PDFY: 72 PDFY: PDFY: 116 Ctrl : Ctrl : 9
sans PDFY: PDFY: Ctrl: 0,59 Ctrl: 85 44 Ctrl: Ctrl: 117 11,98 % [5-160]
Program for permission 215 140 32 [0,63- PDFY vs.
Family Improvement Ctrl: Ctrl: 23,33] Ctrl : 22
(PFI) (Spoth et al. 200 145 PDFY vs. [7-inf.]
2001) (4 ans) Ctrl :
4,69 %
[-6,82-
16,19]

A déjà été PFI: PFI: PFI: 0,26 PFI: 39 PFI: 37 PFI: 76 PDFY: PFI vs. PFI vs.
ivre 232 148 PDFY: 0,35 PDFY: 50 PDFY: 83 Ctrl: 91 Ctrl : Ctrl : 9
PDFY: PDFY: Ctrl: 0,44 Ctrl: 66 33 Ctrl: 11,27 % [5-327]
Program for 216 141 25 [0,31- PDFY vs.
Family Improvement Ctrl: Ctrl: 22,24] Ctrl : 18
(PFI) (Spoth et al. 207 150 PDFY vs. [6-inf.]
2001) (4 ans) Ctrl :
5,56 %
[-5,73-
16,86]

Schinke : A, résolution de problème, coping personnel, communication interpersonnelle ; B, comme A, en intégrant des
habitants de la communauté ; C, groupe contrôle. Spoth : PFI, Programme for Family Improvement ; PDFY ; Preparing for
the Drug Free Years programme ; Ctrl : groupe contrôle.

Le tableau présente les résultats suivants en « intention de traiter » (c’est-à-dire en intégrant dans
l’analyse tous les sujets initialement inclus dans l’étude, y compris ceux qui ne l’ont pas poursuivie
jusqu’au bout) :
– Résultat analysé : l’événement mesuré. Pour PFI : « avoir déjà utilisé de l’alcool » (E1), « avoir utilisé
de l’alcool sans permission » (E2), « avoir déjà été ivre » (E3).
– n au départ : le nombre d’individus inclus dans l’étude à son démarrage. Pour PFI 205 ou 232 selon
l’indicateur utilisé.
– n au suivi : le nombre d’individus restant à la fin du suivi. Pour PFI 131 ou 148 selon l’indicateur
utilisé.
– % ayant présenté l’événement : la proportion d’individus ayant présenté l’événement lors du suivi.
Pour PFI E1 : 50 % ; E2 : 40 % ; E3 : 26 %.
– n ayant présenté l’événement : le nombre d’individus ayant présenté l’événement lors du suivi. Pour
PFI E1 : 65 % ; E2 : 59 % ; E3 : 39 %.
– n estimé (perdus de vue) : l’estimation du nombre d’événement parmi les individus perdus de vue, par
extrapolation à partir des résultats observés dans le groupe contrôle. Pour PFI E1 : 50 ; E2 : 49 ; E3 :
37.
– Nombre total d’événements : la somme des chiffres observés et des chiffres estimés. Pour PFI E1 : 115 ;
E2 : 108 ; E3 : 76.
– Réduction absolue du risque : la réduction absolue du risque de présenter l’événement, c’est-à-dire la
différence des proportions entre le groupe intervention et le groupe contrôle. Pour PFI E1 : 11,4
[−0.4-23.19] ; E2 : 12 % [0.6−23.3] ; E3 : 11.3 % [0.3−22.2]. Les chiffres entre crochets sont les
intervalles de confiance à 95 %.
– Nombre de sujets à traiter : le nombre de sujets à traiter pour éviter l’occurrence d’un événement.
Pour PFI, le NNT est de 9 quel que soit l’événement considéré, mais les intervalles de confiance
diffèrent. E1 : [5−∞], donc non statistiquement significatif ; E2 : [5−160], E3 : [5−327]. Cela signifie
que pour 9 enfants ayant suivi le programme, il y en aura un de moins (que dans le groupe contrôle)
qui aura consommé de l’alcool avec ou sans permission ou été ivre au terme des quatre ans de suivi.
Rappelons qu’un intervalle de confiance à 95 % signifie que la valeur observée dans des mises en œuvre
ultérieures dans des conditions « identiques » – tout le problème étant précisément de savoir ce que
sont des conditions « identiques » dans le domaine des sciences humaines – du programme devrait être
dans l’intervalle calculé dans 95 % des cas.
La conclusion de Foxcroft est que « les résultats de cette étude systématique pointent la valeur
potentielle du Program for families improvement (PFI) comme intervention efficace pour la prévention
primaire des mésusages de l’alcool », tandis que d’autres interventions comme Life skill training (LST)
sont moins prometteuses bien qu’elles soient largement diffusées. Cependant, rappelle Foxcroft, « la
comparaison directe des nombres de sujets à traiter entre différentes études est problématique en raison
des différents designs, méthodes, populations, mesures de résultats, et durée de suivi des études ». Par
ailleurs, ajoute-t-il, « la majorité de ces études, réalisées en milieu scolaire, ont été menées aux États-
Unis où le but des programmes de prévention des mésusages de substances tend à être l’abstention
totale (y compris pour l’alcool) ». Cet objectif « n’est pas nécessairement le même dans d’autres pays,
où l’on met davantage l’accent sur l’usage raisonné que sur l’abstention ». Foxcroft et ses collègues
insistent par ailleurs sur « la faible qualité de la plupart des recherches sur l’efficacité des interventions
analysées dans la revue de synthèse » ; même celles jugées de qualité suffisante pour être incluses dans la
revue présentent des problèmes.

Dans les détails de l’efficacité d’un programme de parentalité


Examinons à présent l’article princeps de Spoth intégré par Foxcroft dans sa revue (Spoth et al., 2001).
L’étude présentée visait à examiner l’efficacité du programme PFI et du programme Preparing for the
drug free years (PDFY) comparée à un groupe contrôle sur les niveaux d’initiation à l’alcool, au tabac,
et à la marijuana. Les participants à l’étude étaient des familles d’enfants du sixième niveau scolaire
(sixième niveau après la maternelle, soit des enfants de 11-12 ans), habitant dans 19 contés contigus
d’un État du Middle West américain. Les écoles étaient sélectionnées sur la base de la proportion de
familles à faible revenu bénéficiant d’une prise en charge totale ou partielle de la cantine. Sur les 1 309
familles présélectionnées, 667 ont été finalement intégrées dans l’étude. Sur les 437 familles
initialement prévues pour le bras PFI, seules 238 ont participé à l’évaluation initiale, et seulement 117
ont effectivement participé au groupe PFI.
Les familles comprenaient en moyenne trois enfants, les mères avaient 37 ans en moyenne, et les pères
40 ans, la quasi-totalité des parents avaient poursuivi leurs études jusqu’au niveau bac et les familles
habitaient dans des villages situés en moyenne à 100 kilomètres de la plus proche ville de plus de
50 000 habitants. On note quelques différences notables pouvant potentiellement avoir un impact sur
les résultats entre les groupes. Ainsi, les écoles se situaient dans des villages d’en moyenne 1 400
habitants pour le programme PFI (vs. 930 pour le programme PDFY), le revenu moyen des parents
était de 42 000 $ dans le groupe PFI vs. 38 000 $ dans les groupes PDFY et contrôle, soit
3 500 $/mois vs. 3 150 $, une différence de 350 $ par mois, soit 120 $ de plus par enfant en moyenne.
Chaque membre de la famille a rempli indépendamment un questionnaire écrit (60 à 80 minutes de
temps de remplissage). Les questionnaires d’évaluation ont été remplis à nouveau 18, 30 et 48 mois
après le premier test. Les usages de substance ont été évalués de trois façons différentes : (1) usage au
cours de la vie (alcool, alcool sans permission, ivresse, tabac, marijuana) ; (2) usage durant le mois
(alcool, tabac, marijuana) ou l’année précédant le questionnaire ; (3) un indice composite de
consommation d’alcool incluant les trois items d’usage sur la vie et un item d’usage actuel, codé 1 (oui)
ou 0 (non) pour chaque item, l’index pouvant donc prendre une valeur entre 0 (aucun usage) et 4
(tous les usages). Les résultats de Spoth montrent que les proportions de nouveaux utilisateurs de
substances à 48 mois par rapport au pré-test étaient plus basses dans les groupes interventions, mais il
s’agit de résultats « par protocole » (c’est-à-dire seulement sur les sujets qui ont poursuivi l’étude
jusqu’au bout) qui ne tiennent pas compte des abandons et sont donc largement plus élevés que les ré-
analyses en intention de traiter effectuées par Foxcroft. Or, les analyses par protocole n’ont guère
d’intérêt pour l’évaluation en santé publique, puisque l’effet global sur la population des programmes
intègre tout autant les participations effectives que les abandons. En médecine individuelle, l’analyse
par protocole peut avoir davantage d’intérêt, puisqu’elle exprime l’efficacité du traitement chez ceux
qui le prennent vraiment.

Qui vole un œuf vole un bœuf. Logiques de la prévention de masse


Si l’on considère l’indice composite d’usage pour l’alcool défini plus haut, il apparaît que la valeur de
cet indice est de 2.16 dans le groupe contrôle contre 1.51 dans le groupe PFI, soit une taille d’effet (en
d de Cohen, c’est-à-dire en proportion d’écart-type) de 0.38. Soit donc une proportion de variance
expliquée (r2) de 3,5 % (r2 = d2/(d2+4) (Wampold, 2001), p. 51). Pour l’intervention PDFY, la
proportion de variance expliquée est de 2 %, soit donc une différence de proportion de variance
« expliquée » de 1.5 % entre les deux interventions. Nonobstant ces résultats peu impressionnants,
Spoth conclut que « dans une perspective de santé publique ces résultats sont notables », en raison des
fortes prévalences des usages de substances chez les jeunes, des « indications empiriques claires des
études épidémiologiques selon lesquelles le risque de dépendance alcoolique sur la vie diminue de
14 % avec chaque année supplémentaire avant la première consommation », et en raison du fait que
« des interventions brèves de ce type peuvent facilement être mises en œuvre dans des écoles ou des
municipalités ». Ce qui est en fait sous-entendu est que, bien que le programme soit en vérité très peu
efficace, et sur un indicateur sans véritable intérêt de santé publique, il est intéressant car il est facile à
diffuser auprès d’une large population. C’est ici encore une stratégie commune des « préventeurs », que
décrivent Peretti-Watel & Moatti (2009, p. 58-59) : il vaut mieux viser un risque bénin qui concerne
l’ensemble de la population que de cibler une fraction de la population exposée à un risque grave. En
effet, les actions ciblées sont difficiles à mettre en œuvre. Il est plus facile de mener des campagnes de
masse qui enjoignent à chacun de moins boire, ou de mettre en place des programmes de formations
parentales structurant les pratiques parentales autour de la prévention de la future consommation
d’alcool du jeune enfant. Tout ceci repose sur une hypothèse éminemment contestable : celle selon
laquelle il existerait une continuité entre les différents niveaux d’intensité d’une conduite donnée et en
particulier entre les comportements moyens et les abus pathologiques. Le corollaire de cette stratégie
est que le niveau des « seuils de risque » à partir desquels il devient légitime d’intervenir ne cesse de
diminuer, puisqu’on dispose avec le développement de la santé publique de plus en plus de moyens
d’intervention de masse qui ont des effets très faibles, mais sur des populations très importantes :
justifier une intervention qui agit marginalement sur un précurseur marginalement relié à un problème
devient donc plus facile, puisque l’effet général engendré est supposé être pondérable. On se situe en
vérité rapidement très au-delà de ce que sont capables de démontrer les outils épidémiologiques utilisés
(Taubes, 1995). Cette logique a été formalisée dans une dite « loi de Lederman » (Ledermann, 1964)
« exemplaire de ces activités scientifiques par lesquelles se transforment les façons de présenter et de
percevoir un problème : en établissant une relation statistique entre une consommation moyenne de
boissons alcooliques et la proportion de “buveurs excessifs” dans une population, l’on sort du cadre de
la statistique descriptive pour une véritable approche probabiliste qui devient une justification, tout
autant qu’un outil de pilotage, de l’action publique » (Bergeron, 2008). Une analyse critique en est
proposée dans un rapport de l’INSERM (INSERM, 2003), dans un texte de Jacques Weill intitulé
« Considérations sur la loi de Lederman » (pp. 477-483). Nous en reprenons ci-après les éléments
essentiels.
Ledermann entendait démontrer que la consommation moyenne d’alcool d’une population en
détermine la proportion de buveurs excessifs. Il raisonne de la façon suivante : « si les individus étaient
libres dans leur consommation vis-à-vis du vin et de l’alcool, leur répartition selon leur consommation
moyenne aurait toute chance de pouvoir être rattachée à une loi normale de Laplace-Gauss ». Mais ceci
est contredit par la répartition observée. En particulier, comme la répartition commence
nécessairement à zéro, et qu’elle est symétrique par construction de la loi normale, son maximum
devrait être égal à deux fois sa moyenne. Or, ce maximum est trop faible. Par exemple pour un pays
comme la France ou la consommation moyenne en équivalent alcool pur se situe aux alentours de
12 litres, le maximum serait de 24 litres, ce qui n’est pas réaliste : cela représente une consommation
quotidienne moyenne de seulement six verres de vin, un seuil malheureusement fréquemment dépassé.
Lederman propose donc que « la répartition des individus semble bien pouvoir être rattachée à une loi
normale, mais à condition de prendre pour variable, non la consommation elle-même, mais le
logarithme de cette consommation. Un tel changement de variable est fréquent, lorsque le phénomène
considéré se développe selon un mécanisme du genre “contagion” ou “boule-de-neige”. Il traduit ici le
fait que le comportement de l’individu vis-à-vis du vin et de l’alcool n’est pas libre. »
On obtient ainsi une loi log-normale, dont le maximum est égal au carré de la moyenne dont
Lederman tire la « loi du carré » selon laquelle « la proportion de buveurs excessifs paraît croître selon
le carré de la consommation moyenne par tête de la population à laquelle ils appartiennent ».
Lederman supposait causale cette relation de la consommation moyenne à la consommation maximale,
et en déduisait qu’« il n’y a pas d’autres solutions que la suppression de l’alcool sous toutes les formes
sous lesquelles il est consommé » (Ravn, 1987).
Le problème fondamental de ce raisonnement est qu’il suppose à la consommation d’alcool une
distribution normale. Or, ce postulat ne repose sur aucune étude empirique. Par ailleurs, une puissance
causale est supposée à la relation statistique ainsi postulée : si la consommation moyenne baissait, il en
résulterait causalement une diminution de la proportion de buveurs excessifs. Mais on voit mal par
quel mécanisme une division par deux de la consommation des personnes qui consomment deux
bières par jour (par des campagnes de communication ou une augmentation des prix par exemple)
devrait « mécaniquement » réduire le nombre de personnes qui en consomment plus de vingt par
jours, pas plus qu’on ne comprend par quel mécanisme une augmentation de la consommation
moyenne (par exemple par diminution du nombre d’abstinents) devrait augmenter le nombre de
buveurs problématiques. De fait, des éléments empiriques montrent qu’une augmentation de la
consommation moyenne n’est pas associée à une augmentation des consommations problématiques
(Fitzgerald & Mulford, 1981, 1984a, 1984b). Le point central de l’argument ici développé ne
concerne pas tant l’application indue de la supposée loi de Lederman à la prévention alcoologique, que
l’utilisation en prévention générale du raisonnement sous-jacent à ladite loi, raisonnement selon lequel
il est possible et requis de modifier le comportement moyen de l’ensemble de la population pour
réduire la quantité de comportements extrêmes.

Revenons à l’analyse critique du programme PFI. Un article est cité en référence tant par Spoth que
par Foxcroft pour justifier l’intérêt de retarder au maximum l’âge de début de la première
consommation d’alcool, arguant de ce que chaque année de délai supplémentaire entraînerait une
diminution du risque de dépendance au cours de la vie de 14 % (Grant & Dawson, 1997). Cet article
présente les résultats d’une enquête, la National longitudinal alcohol epidemiologic survey (NLAES),
financée par le National institute on alcohol abuse and alcoholism (NIAAA). 43 000 habitants des États-
Unis de plus de 18 ans ont été interrogés en face-à-face pour mesurer les troubles liés à l’alcool au sens
du DSM-IV (abus et dépendance), en utilisant le questionnaire AUDADIS9 (Grant et al., 2003), un
questionnaire standardisé destiné à être utilisé par des enquêteurs non-cliniciens. L’âge de début de
consommation alcoolique était évalué en demandant aux répondants l’âge qu’ils avaient lorsqu’ils
avaient commencé à boire de l’alcool. Les mesures sélectionnées comme variables de contrôle pour les
analyses multivariées étaient « les variables démographiques et les items liés à l’alcool connus pour
affecter le risque d’abus et de dépendance à l’alcool, c’est-à-dire la race (noir vs. non noir), le sexe, l’âge
(18-25, 25-44, 45-64, > 65 ans), la durée de consommation d’alcool en année (âge de dernière
consommation) l’âge de la première consommation, le fait d’avoir des personnes de sa famille ayant
présenté des problèmes avec l’alcool ». 66 % (27 000 personnes) de l’échantillon étaient d’actuels
(18 000) ou d’anciens (9 000) consommateurs d’alcool, à proportion égale des hommes et des femmes.
Globalement, les prévalences d’abus et de dépendance diminuent avec l’âge de la première
consommation, passant par exemple pour la dépendance de 49 % pour un début à 13 ans à 9 % pour
un début à 25 ans, 19 % pour un début à 18 ans. Après ajustement sur les covariables présentées plus
haut, le risque de dépendance alcoolique sur la vie diminue de 14 % avec chaque année
supplémentaire de l’âge de première consommation (8 % pour l’abus). L’une des conclusions des
auteurs est que « l’age de première consommation d’alcool est un puissant prédicteur de l’abus et de la
dépendance d’alcool ».
Pourtant, aucune inférence causale ne peut être tirée du type de résultats présentés, qui ne peuvent être
considérés que comme des corrélations statistiques, de surcroît reposant sur des données rétrospectives.
En particulier, l’âge de début de consommation ne peut être considéré comme jouant en lui-même un
rôle causal dans la survenue d’une dépendance ou d’abus d’alcool. De très nombreux facteurs
susceptibles de contribuer à la genèse d’une dépendance ou d’un abus sont aussi des facteurs qui
favorisent l’initiation précoce à l’alcool. Les auteurs en sont d’ailleurs bien conscients lorsqu’ils tentent
d’expliquer les ruptures de continuité dans la décroissance de la prévalence de la dépendance (la
prévalence passe de 11 % pour une initiation à 22 ans à 16 % et 20 % pour une initiation à 23 et 24
ans respectivement). Ils expliquent qu’une « possible explication de ce résultat est qu’une initiation
anormalement tardive à l’alcool peut être un indicateur de la présence d’autres psychopathologies et
peut-être d’efforts pour s’auto-médiquer en réponse à ces troubles ». Cette explication vaut tout autant
pour l’initiation (trop) précoce que pour l’initiation (trop) tardive.
Si les auteurs affirment que leurs résultats pourraient suggérer que des efforts de prévention devraient
être dirigés vers le fait de retarder le début de consommation d’alcool jusqu’à l’âge de 18 ou 19 ans, âge
auquel les risques d’abus et de dépendance diminuent sensiblement, ils précisent pourtant qu’« une
telle recommandation devrait être considérée avec prudence ». En effet, ajoutent-ils, « l’efficacité d’une
telle stratégie préventive réside dans son focus sur la prévention des abus et de la dépendance à l’alcool
plutôt que sur la prévention de l’usage d’alcool, une stratégie qui reconnaît que la consommation
d’alcool est un phénomène très commun chez les adolescents et les jeunes ». Mais, toujours selon les
conclusions des auteurs, « la faiblesse d’une telle stratégie préventive réside dans le manque de
compréhension de la raison pour laquelle l’âge de début de consommation d’alcool serait relié au
développement de la dépendance de l’abus d’alcool ». Ils en appellent donc au développement
« urgent » d’études prospectives intégrant des actions de prévention dirigées vers les utilisateurs
précoces de l’alcool, qui permettraient de montrer si c’est véritablement la modification de l’âge de
début de consommation ou bien « plus probablement d’autres facteurs », écrivent-ils, qui expliquent la
relation inverse entre l’âge de première consommation et le risque de troubles alcooliques au cours de
la vie. Certaines études récentes s’intéressent à de tels « autres facteurs ». Par exemple une relation
positive entre l’hypo-activité de l’axe hypothalamo-hypophyso-surrénalien (HHS, dit « axe du stress »)
et l’âge précoce de début de consommation d’alcool est mise en évidence (Evans, Greaves-Lord, Euser,
Franken, & Huizink, 2012). L’hypothèse étiologique sous-jacente est que les adolescents chercheraient
par l’usage d’alcool à augmenter leur niveau d’activation, problématique qui ne serait en rien résolue
par le fait de tenter de retarder l’âge de début de consommation d’alcool, et pourrait même reporter la
recherche d’activation sur d’autres toxiques plus dangereux, si le facteur causal n’est pas considéré en
tant que tel. D’autres études montrent que le trouble anxieux généralisé, l’hypomanie, le trouble
panique avec agoraphobie sont des facteurs de risque de dépendance chronique à l’alcool, tandis que le
trouble primaire de dépendance à l’alcool n’est pas un facteur de risque significatif (Falk, Yi, & Hilton,
2008). Par ailleurs, aucune information n’est donnée dans l’article sur la structure d’âge de la
population enquêtée. Rien ne permet donc de comparer les risques en fonction de la durée
d’exposition des sujets. Parmi ceux-ci en effet le « durant la vie » (lifetime) dont il est question
comprend des jeunes adultes exposés au risque d’alcoolisme depuis 10 ans comme des personnes âgées
exposées à ce même risque depuis 50 ans.
Contrairement aux usages rhétoriques de Foxcroft, et de l’appel d’offres de l’EFPS, en aucun cas cette
étude ne peut donc être directement utilisée en tant que telle pour justifier qu’il y aurait une
quelconque pertinence à tenter spécifiquement et directement de différer l’âge de début de la
consommation d’alcool chez les enfants.

Parentalité efficace, ou variations aléatoires ?


Denis Gorman, professeur d’épidémiologie et directeur du département d’épidémiologie à la Texas
A&M Health Science Center School of rural public health, a publié de nombreux travaux critiques sur le
programme PFI, et plus généralement sur les programmes de prévention d’usage des drogues. Dans un
article publié en 2007 (Gorman, Conde, & Huber, 2007), il analyse l’évaluation du programme PFI
présentée dans trois articles de Spoth (Spoth, Randall, Shin, & Redmond, 2005 ; Spoth et al., 2002 ;
R. L. Spoth, Clair, Shin, & Redmond, 2006), auteur dont nous venons d’analyser un article de 2001
(Spoth et al., 2001), et dont il se trouve par ailleurs qu’il est « chercheur senior en prévention et
directeur des partenariats à l’Institut des sciences de la prévention » à l’université d’État de l’Iowa,
université dans laquelle le projet PFI a été initialement conçu. L’étude présentée dans ces trois articles
portait sur 36 écoles rurales du Middle West des États-Unis. Il s’agissait d’une étude trois bras
comparant PFI+LST, LST seul, et un groupe contrôle, dans lesquels les 36 écoles – et non les élèves –
ont été réparties au hasard. LST (Life skill training) est un programme comprenant un module
d’entraînement aux « compétences sociales », un module de développement de « l’efficacité
personnelle » et un module d’informations sur les drogues (Botvin & Griffin, 2004). 1813 élèves du
niveau 7 étaient éligibles, 1650 ont rempli l’évaluation initiale (541 PFI + LST, 618 LST seul, 491
groupe contrôle). Sur les 541 familles initialement assignées au groupe PFI, seulement 226 ont
finalement été sollicitées, et 130 seulement ont participé. Seules 115 ont participé à au moins quatre
séances du programme. L’attrition est donc énorme. Le problème est bien connu. Ainsi, un
pédopsychiatre interrogé le cadre d’une enquête sur les programmes de parentalité evidence-based dit-il
à propos de ces programmes : « Leur taux de “perdu de vue” est tellement incroyable que ça pose
quand même question » (Delawarde, 2012).
Le programme étudié par Spoth ciblait l’usage de l’alcool, du tabac et de la marijuana, résumé par un
indicateur d’usage, le SII (Substance initiation index, [0-3]), variable à laquelle une unité s’ajoutait pour
chaque drogue consommée au moins une fois. Deux autres variables dichotomiques mesuraient l’usage
« régulier » d’alcool (au moins une fois par mois) et l’ivresse hebdomadaire (avoir été ivre au moins une
fois par semaine). Les analyses statistiques ont été réalisées avec des tests unilatéraux (one-tailed, voir
plus bas), avec un risque alpha de 10 %. Sur la variable SII, la différence entre les groupes est très
faible : 1.21 vs. 1.31 à 18 mois, 1.43 vs. 1.52 à 30 mois, soit 0.1 point SII, c’est-à-dire « un dixième de
drogue consommée au moins une fois » en plus dans le groupe contrôle. Un rapide calcul montre qu’il
suffit d’augmenter le score SII de 30 des 399 élèves du groupe PFI de 1 point (soit donc une
consommation d’alcool supplémentaire par exemple), ou de diminuer celui de 30 des élèves du groupe
contrôle de 1 point pour rendre identiques les moyennes des scores SII des deux groupes ; une
vingtaine suffit à rendre la différence non significative. Or, la répartition aléatoire dans les trois bras de
l’étude ayant été réalisée au niveau des établissements scolaires, et non des élèves, les élèves d’une même
école appartiennent nécessairement au même bras, c’est-à-dire qu’ils reçoivent tous la même
intervention. Des différences au niveau des écoles (organisation de festivités ou de soirées entre élèves
par exemple) ou des quartiers dans lesquels elles se trouvent (présence ou non de débits de boisson à
proximité de l’école par exemple) peuvent donc aisément, avec de nombreux autres facteurs, expliquer
les différences observées, plutôt que l’effet supposé du programme testé. Le même type de résultat est
observé pour les autres indicateurs utilisés, l’usage régulier d’alcool et l’ivresse hebdomadaire. Une
différence de 0.022 sur l’ivresse hebdomadaire – équivalente à une réduction de 39 % de l’ivresse
hebdomadaire dans le groupe PFI par rapport au groupe contrôle – est interprétée par Spoth comme
prouvant que « pour 100 adolescents de la population générale présentant des ivresses hebdomadaires,
seulement 61 en présenteraient s’ils avaient suivi le programme PFI ». Pour Gorman, cette
interprétation ignore le fait que dans les deux groupes, la proportion d’ivresses hebdomadaires est très
faible (elle correspond à 14 enfants du groupe PFI sur 399 présents au suivi à 30 mois, et 21 enfants
du groupe contrôle sur 369 présents à 30 mois). Ceci correspond à la répartition suivante des effectifs
que l’on peut recalculer à partir des données présentées.

Tableau 5. Répartition des effectifs Ivresse / Pas d’ivresse entre les deux groupes.

Ivresse hebdomadaire Pas d’ivresse hebdomadaire Total

PFI 14 358 399

Contrôle 21 348 369

Total 35 733 768

La répartition de ces chiffres n’est pas significativement différente du hasard (p > 0.1), et pour
Gorman, aucune inférence ne peut donc être tirée pour la population générale de ces résultats non ou
très peu significatifs.

De l’art de la numérologie
Tester de façon rigoureuse des hypothèses dans la recherche évaluative requiert une méthodologie qui
limite au maximum la possibilité de s’arranger avec les faits pour les orienter dans le sens des
hypothèses que l’on souhaite soutenir. Pour cela de nombreux critères doivent être respectés. En
particulier, les résultats primaires et les méthodes statistiques doivent être précisément définis a priori,
et l’analyse doit adhérer de façon stricte à ce qui a été défini tout au long de la recherche. Si les
indicateurs utilisés, les méthodes statistiques, la constitution des échantillons peuvent être ajustés
durant l’analyse des données, et d’une analyse à une autre, alors il est probable que plutôt que de
mettre en évidence des faits qui confrontent les hypothèses au réel, le chercheur soit en train d’en
construire qui vérifient ses hypothèses.
Gorman présente une illustration particulièrement frappante de ce type de façonnage à visée
rhétorique de l’analyse des données dans un article où il rend artificiellement efficace un ancien
programme de prévention de l’usage de drogues (le programme américain DARE, Drug abuse resistance
education), dont l’inefficacité est reconnue, en lui appliquant les méthodes statistiques utilisées pour les
évaluations des programmes inscrits sur les listes officielles de programmes EBM efficaces (Gorman
& Huber, 2009). L’évaluation initiale du programme DARE avait concerné 2071 élèves du sixième
niveau de 31 écoles. Les élèves étaient évalués quatre mois après le programme (attrition 7 %),
annuellement durant quatre ans (attrition finale 45 %), et enfin dix ans après la fin du programme
(attrition 52 %). Les indicateurs évalués étaient les usages sur la vie, au cours de l’année, et au cours du
dernier mois d’alcool, de cigarettes, et de marijuana. Les usages étaient discrétisés sur une échelle à sept
niveaux. Pour l’alcool et la marijuana : aucun usage ; 1 à 2 fois ; 3 à 5 fois ; 6 à 9 fois ; 10 à 19 fois ; 20
à 39 fois ; 40 fois ou plus. Pour le tabac : aucun usage ; moins d’une cigarette ; 1 à 5 cigarettes ; 6 à 10
cigarettes ; 11 à 20 cigarettes ; 21 à 30 cigarettes ; 31 cigarettes ou plus.
Le programme n’avait aucun effet statistiquement significatif au post-test initial, au suivi à cinq ans, ni
au suivi à dix ans, résultats ayant contribué à ce qu’il soit considéré comme inefficace. Afin d’examiner
l’influence des méthodes d’analyse statistiques, Gorman a réutilisé les méthodes employées dans
d’autres programmes référencés dans les listes de programmes evidence-based. Il a tout d’abord utilisé
des tests unilatéraux au lieu de tests bilatéraux, une procédure qui divise immédiatement par deux la
taille de l’effet requis pour atteindre une valeur de risque alpha donnée (Ringwalt, Paschall, Gorman,
Derzon, & Kinlaw, 2011). Il a ensuite conduit des analyses par sous-groupes, une analyse par genre, et
une analyse en fonction du niveau d’usage initial de drogues. Six variables dichotomiques ont ensuite
été créées pour diviser les échelles de sept niveaux en deux parties (c’est-à-dire 1 vs. 2-7, 1-2 vs. 3-7,
etc.). Lorsque ces variables dichotomisées se sont avérées statistiquement significatives,
une interprétation signifiante a posteriori leur a été donnée, sur le modèle des variables utilisées dans les
évaluations des programmes EBM (a déjà fumé, a bu le mois dernier, a utilisé récemment
une substance, etc.). Une régression logistique expliquant la variable dichotomique « usage de
substance » et intégrant la couleur de peau (blanc vs. non blanc) comme variable d’ajustement a enfin
été calculée, en utilisant toutes les décompositions possibles. Les croisements entre les neuf
comportements (trois pour chaque substance) et les six variables dichotomiques pour les cinq points
d’évaluation génèrent 30 comparaisons DARE vs. Contrôle pour chaque comportement, soit 270
comparaisons au total pour tous les sujets. Lorsqu’une correction de Bonferroni (Bland & Altman,
1995 ; Hsueh, Chen, & Kodell, 2003) est appliquée – comme il se devrait, mais comme cela n’est que
très rarement fait dans les études critiquées – pour tenir compte de ces comparaisons multiples, aucune
comparaison n’est statistiquement significative pour des tests unilatéraux à 5 %. Sans cette correction,
en distinguant homme / femme / les deux confondus, 15 comparaisons sont statistiquement
significatives pour l’alcool, 24 pour la marijuana, aucune pour la cigarette. En se limitant au sous-
groupe des sujets non-utilisateurs de marijuana avant l’étude, 28 comparaisons statistiquement
significatives sont retrouvées pour la marijuana. Ces résultats sont simples à expliquer : la probabilité
d’obtenir un résultat significatif avec n tests d’hypothèse au seuil de signification de 5 % est 1-0.95n
(Bland & Altman, 1995). Avec 270 comparaisons, la probabilité de ne pas obtenir un tel résultat est
quasi-nulle. Le nombre attendu de résultats dus au hasard est n*0.05, soit dans le cas présent 13.5, ce
qui correspond effectivement globalement aux résultats obtenus.
Toutes les dichotomisations de variables ne peuvent pas être associées à une interprétation sensée.
Cependant, Gorman parvient à identifier sept variables dichotomiques auxquelles il est possible
d’associer une interprétation cohérente. Par exemple, « 10-19 fois par an » peut-être interprété comme
« usage mensuel », tandis que « 40 fois ou plus par an » peut être interprété comme « usage
hebdomadaire » de même que « 6 à 9 fois par mois », etc. L’évaluation de ces sept variables
interprétables aux cinq moments d’évaluation génère donc 35 comparaisons. 12 de ces comparaisons
sont statistiquement significatives en distinguant selon le genre, sur l’ensemble de l’échantillon, et
autant sur le sous-groupe des non-consommateurs. La majorité de ces effets concernent les enfants de
sexe masculin.
L’utilisation de ces quelques techniques tout à fait basiques d’analyse de données a donc permis de
rendre efficace un programme qui ne l’est pas. Il pourrait ainsi être allégué à bon droit que le
programme DARE « est efficace pour réduire l’usage d’alcool et de marijuana, tout particulièrement
chez les enfants de sexe masculin non déjà utilisateurs ». Dans la mesure où de nombreuses listes de
programmes evidence-based ne requièrent pour inclure un programme que la démonstration d’une
différence statistiquement significative entre le groupe contrôle et le groupe intervention, le
programme DARE pourrait ainsi devenir un programme recommandé. Pour Gorman, les
arrangements méthodologiques qu’il décrit ne sont en rien exagérés, et il en donne pour preuve un
article (Eisen, Zellman, & Murray, 2003) analysant un programme evidence-based de la liste du
National registry of evidence-based programs and practices 2006 qui conclue que « [le programme étudié]
lorsqu’il est proposé au septième niveau aide à réduire la prévalence de l’usage de marijuana sur la vie et
sur un mois jusqu’à la fin du huitième niveau, et est particulièrement utile pour réduire la prévalence
du binge drinking chez les élèves qui n’ont pas de comportement régulier de binge drinking avant la fin
du sixième niveau », ceci sur la base des trois seuls effets statistiquement significatifs observés (sur 7426
élèves) à partir de la dichotomisation d’échelles à cinq et sept niveaux pour neuf mesures différentes
d’usage de drogues. Ces arrangements ne sont pas non plus rares, comme le montre l’analyse de cinq
programmes evidence-based renommés (Gandhi, 2007). Ainsi, le programme ALERT (Bell, Ellickson,
& Harrison, 1993 ; St Pierre, Osgood, Mincemoyer, Kaltreider, & Kauh, 2005) ne produisait aucun
effet à 6, 12, et 18 mois lorsque l’ensemble de l’échantillon était analysé, mais bien quelques effets
statistiquement significatifs isolés lorsque de multiples analyses par sous-groupes étaient conduites
(Gorman & Conde, 2010).
Une culture de la confirmation d’hypothèses, et non de la réfutation d’hypothèses, s’est donc développée
dans le domaine des programmes de prévention evidence-based, portée par la demande de programmes
scientifiquement validés exprimée par les organismes financeurs. Non seulement la définition du
scientifiquement validé utilisée par ces instances autorise-t-elle les évaluateurs de programmes à conduire
de multiples analyses de leurs données et à n’en retenir que les quelques effets statistiquement
significatifs, nonobstant le fait que la majorité des comparaisons ne sont pas significatives, et sans
corriger les effets de ces comparaisons multiples malgré l’existence de techniques destinées à ces
corrections. Mais elle les y incite, voire les y contraints s’ils veulent se placer dans la compétition des
programmes validés, qui seuls auront accès à des financements par les organismes payeurs.
L’intervention de la demande finale dans la production des connaissances a un effet contraire au but
recherché, qui était de proposer les meilleurs programmes au public concerné. Ce pilotage par la
demande fait ainsi passer les chercheurs de la démarche scientifique classique de
conception / réfutation de modèles à une démarche de conception de méthodes destinés à produire des
effets statistiquement significatifs.

De la véracité des résultats statistiques : approfondissements techniques


Le problème statistique ici pointé par Gorman n’est que l’une des nombreuses difficultés engendrées
par les usages problématiques des statistiques, usages à ce point répandus que certains auteurs
n’hésitent pas à affirmer que « la plupart des résultats de recherche publiés sont faux ». Ainsi d’un
célèbre article de John Ioannidis intitulé « Why most published research findings are false” (Ioannidis,
2005). Le raisonnement est le suivant : on s’intéresse dans un champ scientifique donné à mettre en
évidence les relations entre différents paramètres (par exemple entre un gène et un comportement,
entre l’âge de première consommation d’alcool et les troubles ultérieurs, entre les composantes des
pratiques parentales et la vie ultérieure des enfants, etc.). Soit VR le nombre de « vraies relations »
(c’est-à-dire de relations réellement signifiantes entre deux paramètres) ; soit FR le nombre de « fausses
relations » (c’est-à-dire de binômes de paramètres sans lien réel) dans un champ scientifique donné. La
probabilité qu’un résultat de recherche obtenu par une étude soit vrai dépend :
1) de sa probabilité (plus exactement sa cote) a priori (pré-test) d’être vrai, c’est-à-dire du ratio
VR/FR ;
2) de la puissance statistique de l’étude, dépendant du risque de deuxième espèce β ;
3) du niveau de significativité statistique, risque de première espèce α (Wacholder, Chanock, Garcia-
Closas, El Ghormli, & Rothman, 2004).
Le raisonnement de Ioannidis, appuyé sur des travaux préalables (Wacholder et al., 2004) est le
suivant. On cherche à calculer la probabilité d’obtenir un résultat de recherche qui est un faux positif
(False positive report probability ou FPRP). Il s’agit donc de quantifier les cases du tableau 2×2 ci-
dessous, qui croise la vérité / fausseté de l’hypothèse nulle (H0) avec les résultats positifs / négatifs d’un
test statistique de l’hypothèse nulle (pas d’association).

Tableau 6. Répartitions possibles du croisement résultat de recherche / vérité empirique.

Vraie relation
Résultat de recherche
Oui Non

Oui Vrai positif (VP) Faux positif (FP)

Non Faux négatif (FN) Vrai négatif (VN)

Supposons que l’on mesure l’association entre un facteur et un effet (par exemple entre une variante
d’un gène G et une maladie D) sous la forme d’un risque relatif (RR). Dans la logique des tests
statistiques fréquentistes, RR a deux valeurs possibles : RR0 = 1 sous l’hypothèse nulle H0 qu’il n’existe
aucune association entre G et D, ou RRa (une valeur autre que 1) sous l’hypothèse alternative Ha qu’il
existe bien une relation entre G et D. Dans la théorie classique des tests fréquentistes, on ne se pose pas
la question des probabilités d’occurrence de H0 et Ha, contrairement à l’approche bayésienne
qu’adoptent les auteurs. Définissons π comme la probabilité que l’hypothèse alternative soit vraie
(π = Pr(Ha)). Pour calculer la valeur de π il est nécessaire de connaître les valeurs de significativité
statistique (α) et de puissance statistique (1−β). Rappelons qu’un test statistique T a un seuil de
significativité α pour le test de H0 lorsque le rejet de H0 est défini par le fait que T > zα, où zα est le
point α de la distribution normale standardisée, et que Pr (T > zα | H0 est vraie) = Pr (rejeter H0 | Ha
est fausse) = α. La puissance statistique 1−β est quant à elle définie par Pr (T > zα | H0 est fausse) = Pr
(rejeter H0 | Ha est vraie) = 1−β. La puissance statistique diminue donc en fonction inverse de la
significativité statistique : plus α diminue et zα augmente, plus 1−β diminue. La probabilité d’obtenir
un faux positif FPRP est définie comme la probabilité que H0 soit vraie lorsque le test est
statistiquement significatif : FPRP = Pr (H0 est vraie | T > zα). La différence entre α et FPRP est
fondamentale : α est la probabilité d’un résultat statistiquement significatif, sachant que H0 est vraie,
tandis que FPRP est la probabilité que H0 soit vraie, sachant que le test est statistiquement significatif
(p < α). Les formules de calcul des vrais / faux positifs / négatifs sont donc les suivantes :

Tableau 7. Formules de calcul des vrais / faux positifs / négatifs.

Vraie relation (hypothèse alternative est vraie)


Significativité du test
Oui Non Total

Significatif (1−β)π (VP) α(1−π) (FP) (1−β)π+α(1−π)

Non significatif β π (FN) (1−α)(1−π) (VN) βπ+(1−α)(1−π)

Total π 1−π 1

La formule de la FPRP (proportion de faux positifs sur le total des résultats significatifs FP/(VP+FP))
est donc α(1−π)/[(1−β)π+α(1−π)] = 1/[1+[π/(1−π)][(1−β)/α]]. La valeur de FPRP est donc d’autant
plus élevée que α est supérieur à π, et ce d’autant plus que 1-β est petit. Si l’on considère 1 000
relations possibles entre facteurs explicatifs et facteur expliqué, parmi lesquelles une seule existe
véritablement (c’est-à-dire que le facteur explicatif est véritablement associé au facteur expliqué), on a
π = 0.001. Si un test statistique de puissance maximale (1−β = 1) et de niveau de signification α = 0.05
est utilisé dans ce cas la probabilité d’avoir simultanément une vraie association et un rejet de
l’hypothèse nulle est 0.001 (0.001×1) et la probabilité d’avoir simultanément pas d’association et un
rejet de l’hypothèse nulle est 0.04995 (0.999×0.05). La probabilité d’un rejet est donc de 0.05095
(0.001+0.04995), et FPRP = 0.98 (0.04995 / 0.05095). Il n’y a donc que 2 % de chances qu’un
résultat statistiquement significatif corresponde à une vraie association. C’est-à-dire que,
conditionnellement à un rejet de l’hypothèse nulle par le test, il demeure 98 % de chance / risque qu’il
n’y ait pas d’association. Si par contre 500 facteurs explicatifs étaient véritablement associés à des
facteurs expliqués (π = 0.05), alors la FPRP serait en dessous de 5 %, et un résultat statistiquement
significatif aurait une probabilité de 95 % de correspondre à une véritable association.
L’intérêt des calculs proposés par Wacholder et al. est qu’ils permettent de déterminer les FPRP des
résultats des études en fonction des probabilités a priori et des odd-ratio obtenus. On obtient le tableau
croisé suivant pour quelques valeurs d’odd-ratio et de probabilités a priori :

Tableau 8. Tableau de FPRP pour quelques valeurs significatives.

Odd-ratio
Probabilité a priori 1.2 (1−β = 0.179) 1.5 (1−β = 0.904) 2 (1−β = 1)
0.25 0.094 0.020 0.018

0.1 0.238 0.058 0.053

0.01 0.774 0.405 0.380

0.001 0.972 0.873 0.861


0.0001 0.997 0.986 0.984

Seules les valeurs en gras sont donc significatives, si l’on retient un seuil de 0.5 pour la FPRP, c’est-à-
dire que le résultat a plus de chance d’être vrai que faux. On constate que dès que la probabilité a priori
est faible (en dessous de 1 %), la probabilité que les résultats obtenus soient vrais chute de façon
importante.
Après ce détour technique, revenons à l’article de Ioannidis. Pour simplifier les calculs, supposons qu’il
n’existe dans le champ testé qu’une seule « vraie relation », et notons R le ratio du nombre de vraies
relations au nombre de non-relations parmi celles testées dans le champ (c’est la cote des vraies
relations). Si l’on teste au hasard une relation entre deux paramètres, la probabilité pré-test qu’elle soit
« vraie » est R/(R+1). La probabilité qu’une étude dont l’erreur de type II est β trouve une vraie
relation qui est 1−β, la puissance du test. Rappelons que β est la probabilité d’accepter par erreur
l’hypothèse nulle qu’il n’y a pas de différence entre les groupes, c’est-à-dire de conclure qu’il n’y a pas
de différence alors qu’il y en a une. La probabilité de trouver par hasard une relation alors qu’il n’en
existe pas est l’erreur de type I, α. Si l’on suppose que c relations sont testées dans le champ (par
exemple les 270 relations de notre exemple précédent), on obtient le tableau 2×2 suivant, qui fournit
les proportions de vrais positifs (VP : il y a une relation causale et c’est ce que dit l’étude), vrais négatifs
(VN : il n’y a pas de relation causale et c’est ce que dit l’étude), faux positifs (FP : il n’y a pas de
relation causale mais l’étude dit qu’il y en a une) et faux négatifs (FN : il y a une relation causale mais
l’étude dit qu’il n’y en a pas).

Tableau 9. Formules de calcul de VP, FP, FN, VN.

Vraie relation
Résultat de recherche
Oui Non Total

Oui c(1−β)R/(R+1) (VP) cα/(R+1) (FP) c(R α−βR)/(R+1)

Non cβR/(R+1) (FN) c(1−α)/(R+1) (VN) c(1−α+βR)/(R+1)

Total cR/(R+1) c/(R+1) c

Ce qui nous intéresse donc, c’est la valeur prédictive positive (VPP) de l’étude (le symétrique de la
FPRP de Wacholder), c’est-à-dire la probabilité que la relation soit vraie lorsque l’étude dit qu’elle l’est.
C’est donc VP/(VP+FP) (c’est-à-dire la proportion de vrais positifs dans le total des résultats de
recherche positifs), c’est-à-dire c(1−β)R/(R+1)/c(R+α−βR)/(R+1), donc VPP = (1−β)R/(R− βR+α). Un
résultat de recherche a donc plus de chances d’être vrai que faux (c’est-à-dire sa PPV > 0.5) seulement
si (1-β)R > α, c’est-à-dire dans la majorité des cas (1−β)R > 0.05. Mais les études sont rarement menées
par une seule équipe dans le monde. Bien au contraire, de nombreuses équipes sont généralement
engagées en parallèle dans des études portant sur des thèmes similaires. Cette situation augmente donc
la probabilité de tirer au hasard un effet significatif. Plus formellement, pour n études indépendantes
de puissance équivalente, VPP = R(1−βn)/(R+1−[1−α]n−Rβn). Plus le nombre d’études indépendantes
augmente, plus la VPP tend donc à diminuer (sauf si 1−β < α).
Ioannidis tire cinq corollaires de ses calculs. Premièrement, plus les études conduites dans un champ
scientifique ont des effectifs faibles, moins il est probable que les résultats des recherches dans ce
champ soient vrais. Des études portant sur des dizaines de milliers de patients (comme en cardiologie
par exemple) ont donc plus de chances de produire des résultats vrais que des études portant sur
quelques dizaines de patients. Le deuxième corollaire est que plus les tailles d’effet sont petites, moins il
est probable que les résultats soient vrais. Lorsque les risques relatifs sont importants (3 à 20 par
exemple dans les associations entre tabac et cancer), les effets ont plus de chances d’être vrais que
lorsque les risques relatifs sont faibles (typiquement 1.1 à 1.5 ou 2 dans la plupart des résultats en
épidémiologie psychiatrique). Dans un domaine où les véritables tailles d’effet sont très petites (ce qui
est le cas dans le domaine de la prévention en santé mentale par exemple), il est très probable que ce
domaine soit rempli d’études produisant des faux positifs. Le troisième corollaire est que plus le
nombre de relations testées est grand et moins ces relations sont sélectionnées sur la base d’une théorie
crédible, moins la probabilité que les résultats soient vrais est grande. En effet, nous avons vu que la
probabilité post-étude qu’un résultat soit vrai (VPP) dépend beaucoup de la probabilité pré-étude (R).
Or cette probabilité dépend de la proportion de relations vraies sur le total des relations testées qui
augmente avec une théorie solide pour les sélectionner de façon pertinente. Le quatrième corollaire est
que plus il y a de flexibilité dans le design, les définitions, les résultats, et les méthodes analytiques
utilisées dans un champ scientifique, et moins grande est la probabilité que les résultats soient vrais. Par
exemple, l’utilisation de mesures de résultats plus imprécises diminue la probabilité que le résultat soit
vrai. C’est le cas par exemple si l’on utilise des échelles de mesure de troubles mentaux pour qualifier le
trouble, plutôt qu’un indicateur sans ambiguïté (mort ou pas mort par exemple). Le cinquième
corollaire est que plus un champ scientifique est actif, moins la probabilité que les résultats des études
qu’il produit soient vrais est élevée. Cette conclusion apparemment paradoxale découle du point
présenté plus haut sur l’augmentation de la probabilité d’obtenir par hasard un effet significatif avec
l’augmentation du nombre d’équipes. La conclusion de ce raisonnement pour Ioannidis est qu’il est
très difficile d’obtenir une VPP supérieure à 50 %. La majorité des résultats individuels des études ont
donc, conformément à ce qu’indique le titre de son article, plus de chance d’être faux que vrais. Un
résultat d’un essai contrôlé randomisé bien conduit, de puissance adéquate, entrepris avec une
probabilité a priori de 50 %, affirmant qu’une intervention est efficace se révélera vrai dans 85 % des
cas. Un résultat similaire sera obtenu à l’aide d’une méta-analyse de confirmation portant sur des essais
contrôlés randomisés (ECR) de bonne qualité. Au contraire, une méta-analyse intégrant des ECR aux
résultats divergents utilisée dans le but d’agréger les résultats pour pallier la faible puissance des études
individuelles est probablement fausse si R ≤ 1:3. Les résultats d’études exploratoires de faible puissance
ne s’avéreront corrects que dans un cas sur quatre, moins encore s’il y a des biais de conception. Dans
un champ scientifique « stérile », dans lequel il n’y aurait aucune relation pertinente à découvrir, la
conclusion des calculs de Ioannidis est que de nombreux résultats positifs seront pourtant produits, et
d’autant plus que le champ est actif. Les tailles d’effet alléguées ne sont alors rien de plus qu’une
mesure du biais systématique engendré par les méthodologies utilisées. C’est le cas par exemple lorsque
les instruments de mesure utilisés sont biaisés en termes de sensibilité (capacité de l’instrument à
identifier les cas positifs) et de spécificité (capacité de l’instrument à rejeter les cas négatifs), ce qui
oriente les mesures dans un sens ou dans l’autre.
Peut-on estimer le ratio faux positifs (FP) / faux négatifs (FN) dans les études épidémiologiques ? C’est
ce qu’essaie de faire Ioannidis dans un deuxième article (Ioannidis, Tarone, & McLaughlin, 2011). Le
ratio FP:FN est égal, en l’absence de biais, à α/(βR) (se reporter au tableau 8). Si l’on intègre une
correction pour les biais, c’est-à-dire pour la proportion u de résultats qui auraient été non significatifs
si le design avait été parfait, mais qui sont finalement publiés comme significatifs en raison des biais
(sur la question des biais, voir par exemple Melander, Ahlqvist-Rastad, Meijer, & Beermann, 2003), la
formule du ratio FP:FN devient [α(1−u)+u]/(1−u)βR. La plupart des designs d’enquêtes
épidémiologiques, épidémiologie psychiatrique comprise, partagent les caractéristiques suivantes : les
associations sont généralement testées et présentées une à la fois, au mieux quelques-unes à la fois, à
partir d’une hypothèse simple organisée autour d’un unique thème ; le niveau de significativité
statistique α utilisé est généralement de 0.05 ; les variables confondantes sont difficiles à contrôler et les
biais de confusion difficiles à exclure ; les données brutes ne sont généralement pas partagées
publiquement, ce qui ne permet pas de vérifications multiples par une communauté de chercheurs ; la
quête de la significativité statistique mène à d’importants biais de publications et à une sélection des
résultats présentés pour se limiter aux seuls positifs ; les instruments de mesure utilisés sont variables, et
de faible précision (questionnaire du CIDI-SF par téléphone pour le diagnostic de la dépression par
exemple) ; les effectifs des enquêtes sont généralement faibles, et quand ils ne le sont pas, la majorité
des analyses sont conduites sur des sous-groupes dont les effectifs obtenus sont faibles. Or, la
multiplication des facteurs étudiés amène très rapidement à être confronté à des sous-groupes d’effectif
faible, même avec des enquêtes dont l’effectif initial est conséquent. Supposons par exemple une
enquête portant sur 100 000 personnes – ce qui est très important. Supposons que l’on souhaite
contrôler avant d’étudier les relations entre deux variables qui sont les objets d’étude, pour limiter les
biais, l’âge, le genre, le niveau de revenu, le niveau d’études, le type d’études, le statut par rapport à
l’emploi, le statut marital, l’existence d’enfants, le lieu d’habitation, les caractéristiques du logement,
etc., autant de variables dont la littérature épidémiologique montre qu’elles ont – parmi de nombreuses
autres variables – une relation avec de nombreux états ou comportements de santé. Si l’on suppose que
chaque variable n’a que deux modalités (bien que souvent la situation soit pire que celle-ci car les
variables ont davantage de modalités), les strates finales résultant de la segmentation opérée par les
10 variables ne contiendraient plus (si les effectifs se répartissaient par moitié, cas purement théorique),
qu’environ 100 sujets chacune (100 000/2n). La détermination des odd-ratio entre les deux variables ne
reposerait donc que sur un tableau de quatre cases ne contenant chacune que 25 sujets. Le problème
est d’autant plus sérieux que la valeur du numérateur croît exponentiellement (et donc le nombre de
sujets dans les strates finales décroît exponentiellement) avec l’augmentation du nombre de variables
testées. En d’autres termes, même une étude épidémiologique de grande ampleur n’est capable
d’étudier les relations qu’entre une ou deux variables si elle veut contrôler les variables confondantes
essentielles. Seules des études de très grande ampleur, souvent infaisables, pourraient permettre
d’étudier davantage de variables avec un minimum de crédibilité.
Il résulte de tout ceci que les résultats obtenus ont une forte probabilité d’être des faux positifs. Plus
précisément, Ioannidis présente les résultats suivants :

Tableau 10. Illustration des estimations du ratio FP:FN pour différents dispositifs épidémiologiques classiques.

α β R u FP:FN

Étude cas-témoin classique, de bonne puissance, avec biais importants. 0.05 0.2 0.05 0.3 48:1

Étude de cohorte classique de grande ampleur, avec quelques biais. 0.05 0.2 0.05 0.1 32:1

É
Étude de cohorte classique de grande ampleur, non biaisée. 0.05 0.1 0.05 0 10:1

Étude de cohorte classique de grande ampleur, non biaisée, seuil α plus exigeant. 0.001 0.1 0.05 0 1:50

En supposant que R = 0.05 (c’est-à-dire qu’il y a un effet réel pour 20 effets nuls testés, ce qui est
classique dans les études exploratoires), si les biais sont de l’ordre de u compris entre 0.1 et 0.3 – soit
entre 10 % et 30 % de résultats apparemment significatifs en raison de biais alors qu’ils ne le sont pas,
ce qui n’est pas excessif et même probablement sous-estimé pour beaucoup des recherches actuelles en
santé mentale –, alors le rapport des faux positifs aux faux négatifs varie de 32 : 1 dans les études de
cohorte de grande taille à 48 : 1 dans les études cas-témoins. C’est seulement avec un seuil α
extrêmement exigeant (0.001) et des études au design parfait que le ratio FP:FN s’inverse et que l’on
obtient davantage de faux négatifs que de faux positifs (dernière ligne du tableau). Est-ce qu’il est
« mieux » d’obtenir plus de faux positifs que de faux négatifs ? La réponse à cette question dépasse les
limites de l’épidémiologie comme science, et dépend tout autant si ce n’est davantage de questions de
politiques de santé publique et de politique générale. Ainsi, fonder une politique de santé publique sur
des études d’efficacité d’interventions dont les allégations d’efficacité sont des faux positifs, et les
allégations de non-dangerosité sont des faux négatifs est à l’évidence un problème, mais la gravité de ce
problème dépend de multiples paramètres qui doivent faire l’objet d’une délibération dans laquelle la
science ne peut que contribuer à informer le débat, mais pas le trancher. En particulier, il est possible
de tolérer des risques de faux positifs élevés lorsqu’il s’agit d’études exploratoires dont on est certain
qu’il ne sera fait aucun usage pratique ou lorsqu’il s’agit d’interventions dont l’absence d’effets délétères
est raisonnablement certain, et sur lesquelles il est possible de revenir rapidement. C’est
malheureusement rarement le cas. D’une part, il est généralement impossible d’avoir des données
empiriques solides sur l’absence d’effets délétères à long terme d’une intervention, tout d’abord parce
qu’il est logistiquement extrêmement difficile de mener des études sur 10, 15, 20 ans, ensuite parce
que la solidité des résultats obtenus diminue mécaniquement avec la durée de l’étude en raison de
l’accroissement des biais de confusion non contrôlables avec le temps. Ainsi, les effets d’un mode de
parentalité se mesurent sur l’ensemble de la vie, mais on ne dispose d’aucune étude de ce type, et il est
impossible d’en disposer. D’autre part, il est généralement extrêmement difficile de revenir, en science,
sur des résultats publiés et en politique sur des pratiques installées. Il existe de nombreux effets de
cliquet et d’instanciations du principe de psychologie sociale selon lequel « l’engagement engage », tout
autant que de mécanismes organisationnels et sociologiques (puissance de la norme, mécanismes
identitaires groupaux, etc.) qui majorent l’inertie des pratiques et font qu’il est difficile de changer
même une équipe qui perd.
Ce d’autant que l’idée même de concevoir des études longues et coûteuses pour démontrer des effets
négatifs ou l’inexistence d’effets positifs est très peu valorisée. L’idéal-type du chercheur est celui
d’un « constructeur », pas d’un « mauvais coucheur » qui fait profession de démontrer que les études
« efficaces » développées à grands frais par ses collègues sont en fait inefficaces, voire dangereuses. Une
réaction commune observée dans le champ de la santé publique à une critique sur une intervention est
« et alors, vous proposez quoi ? ». Gorman, dont une partie significative de l’activité consiste à analyser
de façon critique des programmes qui n’en demandaient pas tant décrit ainsi trois types de réactions
qu’il observe communément parmi ses collègues lorsqu’il présente ses critiques (Gorman, 2003) : la
première est une disqualification de sa légitimité à critiquer (« qui êtes-vous pour critiquer ces
programmes que de nombreux experts ont jugés efficaces ? ») ; la deuxième est un rejet de l’intérêt de la
seule critique en l’absence de proposition alternative (« vous ne devriez pas critiquer, à moins d’avoir
des interventions alternatives à proposer ») ; la troisième est plus embarrassée, et concerne la rigueur
des critères scientifiques à exiger (« bien sûr, nous voulons que la prévention soit scientifique, mais les
critères que vous exigez sont trop stricts. En tant que nouveau champ, la prévention peut s’autoriser à
tordre un peu les règles scientifiques dans l’intérêt d’une bonne cause ».) Les réactions peuvent être
assez violentes. Gorman présente ainsi deux scènes ayant pris place dans des congrès. Dans la première,
Christina Hoff Sommers (une philosophe critique des approches « genrées ») était invitée à parler dans
une conférence du Center for substance abuse prevention – devant une audience composée de membres
du CSAP, de bénéficiaires de financements, de consultants… – des intentions du CSAP de
subventionner le programme « Boy Talk ». Le programme Boy Talk reposant sur le programme « Girl
Power ! », Sommers avait entrepris de rappeler que « Girl Power ! » ne disposait d’aucun support
scientifique, lorsqu’elle fût sèchement priée de terminer sur le champ sa présentation (il était
apparemment tabou de mentionner l’absence de fondements empirique de « Girls Power ! », comme le
précise une autre source10), ce qu’apparemment elle ne fît pas assez vite puisqu’un membre de
l’assistance lui demanda de « shut the f--- up, bitch », ce qui provoqua l’hilarité de l’assistance et aucune
excuse à l’oratrice. Dans une autre anecdote, Gorman décrit comment il a été présenté comme
« inadéquat » (en tant que personne) pour évaluer des programmes de prévention, et comment il lui a
été demandé « qui êtes-vous, de Bryan, Texas, pour critiquer le programme ATLAS qui a été honoré
par plusieurs experts faisant autorité », par le promoteur du programme ATLAS.
L’objectif de ces anecdotes n’est pas de suggérer que le monde de la santé publique ne serait peuplé que
de grossiers personnages. Il est de souligner que les pratiques qui sont ici analysées ne se limitent pas
aux procédures abstraites des publications statistiques, mais engagent des institutions et des personnes
physiques dont le fonctionnement quotidien dépend de ce que les justifications scientifiques sur
lesquelles ils justifient leurs actions à l’ère de l’evidence-based policy demeurent inattaquées, alors même
que leurs fondements sont extrêmement fragiles. Les tensions et les crispations sont d’autant plus vives
que ces personnes et institutions sont sous contrôle direct et permanent du pouvoir politique, ce qui
est le cas des agences opérationnelles de santé publique qui sont en contact direct quasi permanent avec
les cabinets ministériels. Lorsque ce pouvoir politique exerce une pression pour des résultats rapides,
visibles, facilement compréhensibles et orientés de façon prédominante vers des objectifs sécuritaires
maquillés en objectifs de santé publique, comme ce fut le cas en France durant la période 2007-2012,
la pression que vivent les agents peut devenir énorme et donner lieu aux déviances que nous venons de
relater. Loin d’être un champ strictement scientifique, la santé publique est également et peut-être
surtout un champ politique, dans lequel la rhétorique scientifique est, pour paraphraser Bourdieu, un
sport de combat.

Des biais systématiques dans les études d’efficacité


Après ces quelques éléments de vie quotidienne, dépassons les difficultés statistiques, déjà nombreuses
et qui impactent sérieusement la solidité des résultats sur lesquels peuvent se fonder des politiques de
santé publique, pour aborder les autres problèmes couramment observés dans les études de prévention.
Ainsi, peut-on décrire sept des principaux problèmes évoqués à des degrés divers dans les pages
précédentes, qui sont fréquemment rencontrés dans les études de prévention, et qui ne sont « pas
discutés publiquement » (Holder, 2010) ; voir également (Gandhi, 2007) qui apporte des critiques
complémentaires.
1) Les chercheurs sont juge et partie. Les programmes de prévention sont généralement conçus,
implémentés, et évalués par le même chercheur ou la même équipe, et ne sont que rarement évalués
par des équipes véritablement extérieures qui ne sont pas impliquées d’une manière ou d’une autre
dans la conception du programme. Ces chercheurs sont par ailleurs généralement des partisans de
l’usage de programmes de prévention. Les données princeps des études évaluatives ne sont que
rarement mises à disposition de la communauté scientifique internationale pour réanalyse, en
particulier parce qu’elles sont souvent couvertes par un copyright dans le cas où il y a une exploitation
commerciale du programme, ce qui est généralement le cas. Ainsi, dans le cas du programme PFI, les
concepteurs initiaux, universitaires, interviennent-ils de concert avec une société commerciale privée
avec laquelle ils entretiennent des liens étroits, pour « évangéliser » le terrain français en formant les
futurs intervenants, après avoir assuré la publication / publicité des résultats du programme auprès des
instances scientifiques d’abord, puis des agences gouvernementales pertinentes ensuite. Par ailleurs, le
plus souvent ces programmes sont développés sur des fonds publics difficiles à obtenir – dans le cadre
d’appels d’offres concurrentiels –, qui ne sont renouvelés que si le programme montre une efficacité.
Nous verrons les conséquences de cela sur les pressions à l’évaluation positive des résultats qui sont
exercées sur les intervenants mettant en place le programme.
2) Il y a des conflits d’intérêts commerciaux. Les programmes développés sont souvent exploités par
des entreprises commerciales, et sont en conséquence protégés par le droit d’auteur. Ils sont vendus –
sous des modalités diverses, allant des royalties au paiement de formateurs agréés – aux institutions
qui les utilisent (écoles, municipalités, centres médico-psychologiques, etc.). Les relations entre les
chercheurs et les entreprises sont bidirectionnelles, et les chercheurs reçoivent des fonds issus des ventes
des programmes, ce qui constitue un conflit d’intérêts pour une évaluation honnête des programmes.
3) Les résultats significatifs sont sélectionnés a posteriori. La sélection post-hoc des variables
statistiquement significatives, et la présentation de ces seules variables dans les articles publiés, plutôt
que la présentation complète de toutes les variables, y compris celles qui ne sont associées à aucun effet
significatif accroissent, nous l’avons vu, de façon proportionnelle au nombre de variables testées et non
présentées le risque de trouver un résultat positif par hasard.
4) La significativité statistique prime sur la significativité clinique. Les résultats sont en effet
sélectionnés en fonction de leur significativité statistique plutôt que sur leur significativité clinique. Or,
il est d’autant plus facile de mettre en évidence un effet statistiquement significatif que le nombre de
sujets est élevé, mais la taille de l’effet nécessaire pour obtenir cette significativité statistique diminue en
proportion. Avec suffisamment de sujets, il est facile d’obtenir des différences statistiquement
significatives qui n’ont aucune conséquence concrète. Ce mécanisme a tendance à se cristalliser : plus
les programmes acquièrent de notoriété, plus ils peuvent intégrer de sujets dans leurs études, et plus ils
peuvent faire montre de résultats statistiquement significatifs.
5) Il y a des biais de recrutement. Les sujets qui acceptent d’être inclus dans les études, et plus encore
ceux qui poursuivent l’étude jusqu’au bout, sont très généralement ceux qui sont les plus motivés, les
plus conscients de leurs difficultés éventuelles, les plus désireux de les résoudre, les plus en accord avec
la conceptualisation de leurs problèmes qu’offre le programme… Lors de la mise en place de
l’évaluation du programme PFI par l’EFPS, c’est de fait ce qu’il s’était passé ; les seuls (rares) parents à
répondre spontanément à la sollicitation diffusée dans toute la commune (par voie de presse et
d’affiches) pour participer au programme étaient des parents sans difficultés particulières avec leurs
enfants, et qui voulaient faire encore mieux. Il s’ensuit que c’est le plus souvent parmi les sujets qui
refusent de participer que les difficultés sont les plus grandes et la volonté d’amélioration la plus faible,
et que c’est parmi ceux-ci que les résultats risquent d’être les moins bons. Les résultats observés ne
peuvent donc être généralisés qu’aux sujets similaires à ceux qui participent jusqu’au bout, et non à
l’ensemble d’une population. Les seuls (très rares) parents rencontrant d’authentiques difficultés étaient
ceux qui étaient amenés par les responsables du programme, que leur position de recruteur amenait à
recatégoriser les problèmes de leurs administrés antérieurement pensés comme « sociaux » en
« problèmes de parentalité ». Ainsi de cette femme d’une cinquantaine d’années et de sa fille de huit
ans qui avaient été amenées par une des travailleuses sociales de la municipalité qui les suivait depuis
des années. La mère d’origine étrangère et peu à l’aise avec le français était mariée (apparemment
plutôt contre son gré) à un mari aujourd’hui handicapé et sans emploi dont elle s’occupait à domicile
tout en jonglant avec les divers temps partiels d’emplois dévalorisés et précaires habituellement dévolus
aux personnes défavorisés, ce qui ne permettait en rien de subvenir aux besoins financiers et matériels
de la famille. La petite fille présentait de façon visible les symptômes d’une maladie rare qui lui
parsemait le corps de petites boules et rencontrait des difficultés à l’école. Pris dans la nécessité
d’utiliser la grammaire et les catégories du programme PFI pour lequel ils avaient mission de recruter,
les agents municipaux présentant le programme (pourtant travailleurs sociaux aguerris et connaissant
cette famille depuis des années) ont placé les interactions avec cette famille dans ce cadre d’analyse,
engendrant ipso facto une surprenante réduction des problèmes rencontrés par l’enfant – qui n’en
pouvait mais – à des « problèmes de parentalité ». Mentionnons dans un autre registre le cas de cette
famille sans difficultés sociales ni financières dont la mère médecin, très imprégnée des
conceptualisations actuelles des prises en charge de l’autisme, venait chercher pour son fils qui
présentait ce diagnostic les similarités béhavioristes qu’elle avait reconnu dans le programme PFI avec
les méthodes ABA.
6) Les résultats ne résultent pas de mesures objectives. La plupart des variables utilisées sont fondées
sur des auto-déclarations des sujets, et non sur des mesures objectives externes, qu’il s’agisse de
déclarations de comportements, d’états psychologiques, ou de consommation de substances. Or,
lorsque des auto-déclarations sont confrontées à des mesures objectives (mesures biologiques de
substances par exemple), il y a des différences majeures. Par ailleurs, les auto-déclarations sont
particulièrement sensibles aux conditions normatives de l’environnement social. C’est d’autant plus le
cas lorsqu’il s’agit de comportements socialement réprouvés (comme les usages de drogues), que les
recueils de données sont effectués en présence des formateurs, et que les sujets sont des (jeunes)
enfants, qui intègrent très vite ce que souhaitent les adultes et ce qu’il faut répondre pour les satisfaire.
7) L’usage de tests statistiques unidirectionnels augmente la probabilité d’un résultat positif. Les
tests statistiques dont il est ici question visent typiquement à évaluer si les scores moyens M1 et M2 de
deux groupes, l’un (M2) recevant l’intervention et l’autre (M1) non, sont identiques ou pas. Lorsque
cette différence est statistiquement différente de 0, on estime que les deux moyennes sont différentes,
en tolérant un risque a, généralement fixé à 5 %, d’avoir accepté à tort cette différence, c’est-à-dire
d’avoir rejeté à tort l’hypothèse nulle. Connaissant la loi de répartition de la différence, qui est
généralement gaussienne, on va donc rejeter l’hypothèse nulle lorsque la valeur obtenue dans
l’expérimentation se situe au-delà des bornes de la courbe gaussienne qui intègrent 95 % de la surface
de la courbe. Les 5 % restants peuvent être répartis des deux côtés de la courbe (test bidirectionnel –
two-tailed –, dans ce cas la valeur inférieure à partir de laquelle on rejette est celle à gauche de laquelle
on a 2,5 % de la surface de la courbe, et la valeur supérieure celle à droite de laquelle on a 2,5 % de la
surface de la courbe) ; dans ce cas, on considère que la différence M2−M1 peut être positive ou
négative, c’est-à-dire que M1 peut être supérieur ou inférieur à M2. En d’autres termes, on ne fait pas
d’hypothèse sur le fait que l’intervention ait nécessairement un effet positif (M2−M1 > 0), ou qu’elle
puisse avoir un effet négatif (M2−M1 < 0). On peut aussi considérer que la différence doit
nécessairement être positive, c’est-à-dire que l’on suppose par avance que l’intervention ne peut pas
avoir d’effet négatif sur l’indicateur testé. L’usage de test unidirectionnel (one-tailed) de ce type majore
par deux la probabilité d’obtenir un résultat statistiquement significatif, mais il repose sur l’hypothèse
forte que les résultats des sujets du groupe intervention sont nécessairement meilleurs que ceux du
groupe contrôle, c’est-à-dire que l’intervention ne peut pas avoir d’effet négatif (Ringwalt et al., 2011).
Pour soutenir cette hypothèse, il faut disposer de données solides soutenant le caractère nécessairement
bénéfique du programme. Or, ces données ne sont que très rarement disponibles, et il existe au
contraire des éléments montrant que les programmes peuvent avoir des effets inverses à ceux qui sont
imaginés, par exemple qu’un programme de prévention de l’usage de l’alcool puisse jouer, s’il est mal
conçu, un rôle promoteur.

Qu’en est-il du programme PFI ?


Après ces analyses sur les problèmes posés par différentes méthodes statistiques, revenons à présent au
programme PFI, et à l’étude d’évaluation que nous avons présentée plus haut. Qu’en est-il de cette
étude, au regard des différentes critiques que nous avons évoquées jusqu’ici ? Considérons tout d’abord
les problèmes abordés par Holder (2010). Les deux premiers problèmes qu’il soulève sont que les
programmes de prévention sont généralement conçus, vendus, mis en œuvre et évalués par les mêmes
personnes. Ceci s’observe en effet dans l’évaluation française du programme PFI. La mise en œuvre du
programme nécessitait une formation des animateurs de groupe pressentis pour encadrer les séances.
Pour assurer ces formations, le programme exige le recours à des formateurs agréés. Deux formateurs
américains se sont donc déplacés en France pour assurer une formation de trois jours : l’une est la
conceptrice initiale du programme PFI, initialement à l’Université de l’Iowa, puis à l’Université d’Utah
à Salt Lake City. L’autre dirige la société qui commercialise le programme, à laquelle ont été facturés les
honoraires de formation (4 580 €).
La possibilité d’utiliser le programme PFI est soumise à l’exigence d’utiliser le package d’évaluation
fourni par les formateurs. Examinons-le en détail. Il comprend en particulier deux importants
questionnaires intitulés « test pré-post rétrospectif », l’un destiné aux enfants, l’autre aux adultes. Les
questionnaires sont remplis par les parents et les enfants lors d’une séance supplémentaire, ou à défaut
lors de la dernière séance de « remise des diplômes ». Cette séance d’évaluation est encadrée par les
animateurs qui ont animé les 14 séances du programme. Des « instructions aux personnes chargées de
gérer ce questionnaire » sont associées au questionnaire, et assorties de la mention suivante :
« Attention : à lire à l’avance.Ne PAS11 lire à haute voix ! ». Il y est précisé que « nous savons que le
processus d’évaluation peut paraître intrusif. Nous nous en excusons, mais nous avons besoin de votre
aide et de votre soutien pour effectuer ce travail – de façon à ce que PFI puisse devenir un “programme
basé sur les données probantes”. Cette qualification est essentielle pour le fonctionnement et le
financement à long terme du programme. Sans ce niveau d’évaluation, aucun financement ne sera
possible via les sources nationales, fédérales ou régionales. Nous avons ici l’opportunité de voir à quel
point ce programme est fructueux pour votre communauté. Votre attitude est contagieuse et vous vous
êtes posés vous-mêmes en tant que leaders et modèles de comportement pour ces familles. » Comme le
mentionnait Holder, l’importance de l’évaluation pour les financements publics est clairement mise en
exergue, en préalable au remplissage par les sujets, en présence des animateurs, du questionnaire
d’évaluation.
Les instructions « À lire EXACTEMENT TEL QUEL12 » aux parents avant le remplissage du
questionnaire sont les suivantes : « Votre famille et vous-mêmes vous êtes inscrits pour participer au
Programme de soutien à la parentalité afin d’aider votre famille à devenir plus forte, plus aimable et
plus organisée. Vous avez appris à être de meilleurs parents et vos enfants ont appris de nombreuses
compétences sociales nouvelles pour se faire des amis plus facilement, mieux se comporter à la maison
et mieux s’en sortir à l’école. Pour savoir dans quelle mesure vos enfants et vous-mêmes avez changé,
nous allons vous poser quelques questions. Nous vous poserons tout d’abord des questions sur votre
famille et vous-même AVANT ce stage, puis nous vous interrogerons pour savoir comment est votre
famille MAINTENANT. S’il vous plaît, répondez à ces questions de façon aussi honnête et exacte que
possible. Vos réponses sont confidentielles et ne seront communiquées à personne, y compris aux
membres du personnel de l’organisme qui travaille avec votre famille. Les résultats seront envoyés à
notre évaluateur, à l’Université d’Utah, sans que les noms n’y figurent ». Il est par ailleurs précisé « (1)
Prévoyez une enveloppe en papier kraft adressée au Dr XXX, YYY13, (2) Demandez aux parents de
glisser les questionnaires une fois complétés dans cette enveloppe. (3) Lorsque vous les avez tous
ramassés, faites-en des photocopies puis envoyez les originaux au Dr XXX par courrier. » Comme le
soulignait Holder, les évaluations sont donc assurées par les concepteurs / vendeurs / formateurs du
programme. Ces conflits d’intérêts, associés aux pressions sur les animateurs à propos des liens entre
évaluation et financement, et aux instructions présentées dans les consignes de remplissage et lues par
les animateurs en séance, orientant clairement les parents et les enfants dans le sens d’une évaluation
positive (« Vous avez appris à être de meilleurs parents et vos enfants ont appris de nombreuses
compétences sociales nouvelles »…) vont indubitablement dans le sens d’une majoration attendue des
résultats de l’évaluation.
Les parents remplissent cinq échelles d’évaluation pré-post, le score pré-étude étant évalué
rétrospectivement en demandant aux répondeurs après le programme quel était leur score avant le
programme sur les différentes variables évaluées. On appréciera la précision des résultats qu’il est
possible d’obtenir avec ce type de questions.
Ainsi que le soulignait Holder dans la présentation de son sixième problème, les évaluations sont toutes
fondées sur des auto-déclarations des sujets, et non sur des mesures objectives. Les comportements
auto-déclarés sont par ailleurs d’une précision toute théorique. Que signifie par exemple « boire de
l’alcool jusqu’à intoxication » (de l’ivresse légère au coma éthylique) ou « je bois de l’alcool » (d’un
panaché hebdomadaire à un demi-litre de vodka quotidien), ou encore « force spirituelle » ? Il existe
bien dans le DSM-IV une définition technique de l’intoxication alcoolique, à savoir au moins un des
signes suivants se développant pendant ou peu après la consommation d’alcool : discours bredouillant,
incoordination motrice, démarche ébrieuse, nystagmus, altération de l’attention ou de la mémoire,
stupeur ou coma. Mais il est très douteux que les sujets évalués en aient connaissance et s’y réfèrent
pour leurs réponses.
Le contexte de remplissage du questionnaire, déjà mentionné, soumet par ailleurs les sujets à une
pression normative manifeste, encore accentuée pour les enfants. Les rédacteurs du kit d’évaluation en
sont d’ailleurs bien conscients, qui précisent « Sachant que les enfants de cette tranche d’âge ont
souvent tendance à vous dire ce que vous voulez entendre, vous devrez faire très attention à ne pas
orienter leurs réponses. Vous pouvez prendre un peu de temps au début de la séance pour établir le
contact avec l’enfant, mais veillez à ne lui faire aucun commentaire tendancieux une fois que vous
commencez l’entretien. Lisez la question, notez la réponse qui correspond le mieux à la réponse de
l’enfant ; passez ensuite immédiatement à la question suivante. Même de petits gestes, des hochements
de tête, des clins d’yeux, des froncements de sourcils, etc. de votre part, influenceront la façon dont
l’enfant répondra à ces questions. » Sachant cela, on pourra s’interroger sur l’effet d’introduire le
remplissage du questionnaire en disant « vos parents ont appris à être de meilleurs parents et vous avez
appris de nombreuses compétences sociales nouvelles pour vous faire des amis plus facilement,
satisfaire vos parents et être mieux à l’école ». On pourra également se demander comment il est
possible aux animateurs d’atteindre ce niveau de neutralité pour un programme qu’ils ont eux-mêmes
animé durant 14 séances, et comment les enfants, et même les adultes, peuvent ne pas intérioriser ce
que les animateurs souhaitent qu’ils disent de leurs « progrès », dont dépendent les financements du
programme.
9. Alcohol use disorders and associated disabilities interview schedule.
10. The Center for Substance Abuse Prevention: What You Didn’t Know, David J. Hanson, Ph.D,
http://www.alcoholfacts.org/CSAPWhatYouDidntKnow.html, consulté le 29/06/2016.
11. Accentuation d’origine.
12. Toutes les accentuations sont d’origine.
13. XXX et YYY étant respectivement le chercheur universitaire concepteur initial du programme et la société qui le
commercialise.
CHAPITRE 3

Des effets pervers de la simplification

Punition négative, effets positifs ?


Revenons à présent, au-delà des méthodes, sur les contenus des manuels PFI.
Le manuel de la cinquième des 14 séances du programme présente ainsi aux
parents, sous la dénomination « récompenser / ignorer » la manière de mettre
en œuvre concrètement la classique technique skinnérienne de
conditionnement opérant avec renforcement des comportements souhaités par
la récompense et extinction des comportements non souhaités par l’ignorance
(conditionnement opérant avec punition négative) (Freixa i Baqué, 1981).
C’est une technique absolument centrale dans le programme, qui est utilisée en
permanence.
Rappelons que la présentation qu’en fait le manuel est la suivante : « Le truc est
d’aider les enfants à apprendre qu’ils obtiendront de l’attention pour les
comportements que vous voulez, tandis qu’ils seront ignorés pour les
comportements que vous ne voulez pas. Pour ignorer les comportements non
voulus :
« 1. Ne regardez pas l’enfant : détournez-vous totalement de lui, afin de ne pas
lui donner le moindre signe d’attention.
2. Ne parlez pas à l’enfant, même s’il vous demande pourquoi vous l’ignorez.
Sinon vous lui apportez une récompense en lui portant attention. Ne touchez
pas l’enfant, ne le laissez pas vous toucher. Ne dites à l’enfant pourquoi vous
l’ignorez que lorsque le comportement a cessé.
3. Si le comportement persiste, c’est peut-être qu’il est récompensé par
d’autres. Expliquez aux autres (amis, proches) qu’il faut ignorer le
comportement et comment le faire. »
Considérons à présent un article concernant les troubles externalisés du petit
enfant, paru en 2010 dans le Journal of Applied Developmental Psychology
(Verhoeven, Junger, van Aken, Deković, & van Aken, 2010). La revue de
littérature présentée dans l’article cite une dizaine d’articles différents montrant
que l’utilisation par les parents de techniques de contrôle psychologique a de
multiples effets délétères sur l’enfant, et en particulier qu’elles augmentent les
troubles externalisés de l’enfant. Ainsi, « l’utilisation parentale de contrôle
psychologique (i.e. retrait d’affection, cris) dégrade l’estime personnelle de
l’enfant et son intégrité ce qui peut, en retour, limiter le développement de
comportements socialement acceptés et conduire à des niveaux élevés de
comportements externalisés (Barber, 1996 ; Straus et Field, 2003) ». « De hauts
niveaux de contrôle psychologique conduisent à des niveaux élevés de
comportements externalisés chez l’enfant. Par ailleurs, en affichant des hauts
niveaux de comportements externalisés, les enfants éprouvent les ressources de
leurs parents, rendant difficile pour les parents de rester structurées dans leurs
pratiques parentales et de ne pas utiliser de techniques disciplinaires violentes.
En fait, plusieurs études ont montré une association entre de hauts niveaux de
ces comportements parentaux négatifs et les comportements externalisés des
enfants ». « Le contrôle psychologique maternel, mais pas paternel, est
positivement associé à une agressivité accrue chez les enfants de 1 à 3 ans. »
Or, la définition opérationnelle du dit « contrôle psychologique » employée
dans la littérature comprend en particulier l’item suivant « lorsque mon enfant
se comporte mal, je cesse de lui parler jusqu’à ce qu’il me satisfasse à nouveau »,
soit donc la recommandation centrale des stratégies parentales recommandées
dans tout le programme PFI. Mentionnons également une étude approfondie
montrant que ce type de comportement parental est associé au développement
de fonctionnements obsessionnels-compulsifs chez les enfants (Mariaskin,
2009). Nous en sommes donc rendus à une situation pour le moins regrettable
dans laquelle un programme utilisé dans un cadre de santé publique pour
améliorer la santé des enfants utilise des techniques dont la littérature montre
qu’elles ont des effets délétères sur ladite santé (Barber, 1996) (Barber, Xia,
Olsen, McNeely, & Bose, 2011).

Toujours moins sur toujours plus : la logique des executive


summaries bibliographiques
L’objectif des méta-analyses est de réduire la complexité des données issues des
études expérimentales. Une méta-analyse de la Fondation Cochrane, (Furlong
et al., 2012), organisme qui fait référence dans son domaine, a ainsi colligé les
résultats de treize essais contrôlés randomisés d’un programme de formation à
la parentalité comportementaux et cognitivo-comportementaux destiné à
prévenir / traiter les troubles des conduites précoces chez les enfants de 3 à 12
ans. Pour ce faire, 14 000 articles initialement identifiés ont été réduits à 250
éligibles, puis 13 retenus, pour n’en retenir finalement comme résultat primaire
qu’une unique valeur numérique, consistant en une différence standardisée de
moyennes résumant les évolutions pré-post sur quelques échelles numériques
de problèmes de comportements des enfants remplies par les parents ou par les
expérimentateurs. Une réduction de complexité plutôt drastique ! Pour autant,
même cette complexité extrêmement réduite reste difficile à maîtriser. La dite
méta-analyse comprend 357 pages, plusieurs dizaines de tableaux et figures
reposant sur des calculs statistiques complexes. C’est un niveau de difficulté qui
ne convient pas aux agences de santé publique opérationnelles, qui ont besoin
de critères de décisions vraiment simples pour choisir les interventions à
implanter. Il faudra donc développer de nouvelles méthodologies de synthèse
fournissant des résultats encore plus simplifiés que ceux des méta-analyses.
C’est ainsi que l’Institut national de prévention et d’éducation à la santé
(INPES) a mis en place une méthodologie « dans le but de pouvoir réaliser,
dans un temps raisonnable, de nombreuses synthèses de littérature rigoureuses
sur les interventions préventives validées ». La notion de temps raisonnable
étant dans la réalité synonyme de délai compatible avec les exigences des
cabinets ministériels sous tutelle desquels se trouvent les agences
gouvernementales qui sont en charge de mener ce type de travaux. Il s’agit de
pouvoir répondre en quelques jours à toute demande de santé publique,
demande généralement teintée d’une ambiance d’urgence, puisque par
définition « il y a des risques pour la population ». Un état d’urgence
préventive dont certains auteurs considèrent qu’il s’agit de l’une des expressions
d’une tendance qui ferait de l’état d’exception un paradigme de gouvernement
de la santé publique (Jourdan, 2012). Procédure accélérée qui a été appliquée à
la sélection des « Interventions validées en prévention et promotion de la santé
mentale auprès des jeunes » (Lamboy, Clément, Saias, & Guillemont, 2011).
L’article est introduit en rappelant comme il est d’usage que « l’ampleur des
troubles psychiques ainsi que les liens établis entre la santé mentale, la santé
physique et le développement socio-économique de la société font de la santé
mentale une question majeure de santé publique » et qu’« en 2001,
l’Organisation mondiale de la santé (OMS) estimait que les troubles mentaux
touchaient environ 450 millions de personnes dans le monde ». Il déplore que
« les ressources ont, jusqu’à maintenant, été investies quasi exclusivement dans
les services de soin et de réadaptation » alors que « le champ de la santé
mentale qui vise à renforcer les compétences psychosociales et à prévenir
l’apparition des troubles psychiques a été peu soutenu ». Or, « le domaine de la
prévention / promotion de la santé mentale mérite toute notre attention si l’on
souhaite faire face efficacement à cet enjeu sociétal majeur ». L’OMS propose
de distinguer la promotion de la santé mentale « qui vise à agir sur les
déterminants de la santé mentale afin d’accroître la santé mentale positive » et
la prévention des troubles mentaux « qui vise à réduire l’incidence, la
prévalence et la récurrence des troubles mentaux ». Cependant, « en pratique,
les interventions de prévention des troubles psychiques et les actions de
promotion de la santé mentale ont tendance à se confondre ». En conséquence,
ces deux termes sont dans l’article « accolés pour faire référence au même
champ d’intervention », alors que la confusion de la prévention et de la
promotion ramène sur un même plan ce que l’on cherche à éviter et dont on
veut s’éloigner (la prévention) et ce que l’on cherche à promouvoir et vers quoi
on veut aller (la promotion). L’effet est que l’on cherche alors à éviter tout ce
qui n’est pas promu.
De même, « si la nomenclature historique de la prévention consistait à
différencier la prévention « primaire », « secondaire » et « tertiaire », l’INSERM
recommande désormais de différencier la prévention selon la population
ciblée :
– la prévention « universelle » qui s’adresse à toute la population ;
– la prévention « sélective » qui cible les personnes à risque du fait de facteurs
familiaux ou environnementaux ;
– la prévention « indiquée » qui s’adresse aux personnes présentant des facteurs
de risque individuels ou / et manifestant des premiers symptômes.
Ici encore, il n’est tiré ni conséquence ni analyse de cette recommandation de
changement, alors que le changement est conceptuellement majeur, puisqu’il
s’agirait de passer d’une prévention organisée par l’évolution chronologique des
troubles à une prévention organisée par les agrégations de groupes de
population selon des facteurs de risque. Il s’agit ici d’être compliant envers un
organisme qui fait autorité, et de garantir l’homogénéité des pratiques entre
agences. Si celles-ci sont scientifiques, cela ferait en effet désordre qu’elles
soient divergentes.
Or, « dans le champ de la santé mentale, les interventions sélectives et
indiquées ne sont pas toujours différenciées ». Elles seront donc désignées dans
l’article comme « interventions ciblées ». Les conséquences de cette confusion
majeure entre des personnes présentant les prodromes d’un trouble et celles qui
sont « statistiquement à risque » ne sont pas davantage mentionnées ni
explorées, alors que les prodromes de troubles concernent des personnes
individuelles, tandis que les facteurs de risque concernent des répartitions de
proportion entre des groupes, en aucun cas des individus. L’immense majorité
des personnes qui présentent un facteur de risque d’un événement indésirable
ne présenteront jamais d’occurrence de cet événement. Si l’on cumule les
facteurs de risque épidémiologiquement avérés de tous les problèmes possibles,
c’est tout individu qui devient la cible potentielle de plusieurs actions de
prévention. À ce titre par exemple, sachant que la prévalence de la dépression
chez les femmes est deux fois supérieure à celle des hommes, c’est toute femme
qui devrait être inscrite dès sa naissance dans un programme de prévention de
la dépression, ce d’autant que la prévalence de l’Épisode dépressif caractérisé en
population générale est autour de 6 % (INPES, 2005, 2007).
Selon les auteurs, les interventions en prévention et promotion de la santé
mentale cherchent à modifier « certains déterminants de la santé mentale (en
particulier, les déterminants génériques), en augmentant les facteurs de
protection et en diminuant les facteurs de risque » dans le but « d’empêcher
l’apparition des problèmes de santé mentale ». Ceci implique donc « une
bonne connaissance des publics à risque, des déterminants des troubles
mentaux ciblés, ainsi que des stratégies susceptibles d’influencer ces facteurs ».
C’est pour ces raisons qu’une « forte articulation entre la recherche et la
pratique est nécessaire : on parle alors d’interventions fondées sur les données
probantes (evidence-based interventions) ».
Loin des subtilités des articles approfondis de définition détaillée de ce qu’est
une intervention empiriquement supportée (Chambless & Hollon, 1998 ; Flay
et al., 2005), les auteurs préfèrent à la référence au soutien empirique le recours
au terme « validé », plus définitif, et « [appelleront] validée une intervention
pour laquelle des effets positifs ont été démontrés empiriquement par des
protocoles expérimentaux, ont été maintenus à long terme (au moins un an) et
répliqués dans au moins deux sites différents ». Seront distinguées les
interventions « validées » (« efficacité reconnue par au moins un des documents
sélectionnés ») et les interventions « prometteuses » (« efficacité pressentie par
au moins un document tout en n’étant pas validée par les autres »). Il est
précisé que la revue de littérature proposée « ne remonte pas aux études
évaluatives empiriques primaires et s’appuie sur les critères de validité retenus
dans les synthèses de littérature les plus récentes et dont la qualité est reconnue
en santé publique et par la communauté scientifique pour déterminer les
interventions validées et prometteuses ». Sont ainsi considérées comme « de
qualité reconnue » :
– « Les revues Cochrane » ;
– « Les synthèses de littérature réalisées par des organismes de santé publique
reconnus : toutes les synthèses qui ne portent pas exactement sur la même
thématique que les revues Cochrane, ainsi que les synthèses traitant exactement
du même sujet que les revues Cochrane mais qui sont plus récentes » ;
– « Les synthèses de littérature publiées dans des revues à comité de lecture
ayant un facteur d’impact élevé : toutes les synthèses qui sont plus récentes que
les revues Cochrane et que les synthèses réalisées par les organismes ».
Se pose alors évidemment la question de savoir ce qu’est « un organisme de
santé publique reconnu ». L’annexe 1 de l’article nous apprend qu’il s’agit
d’une liste fermée qui comprend les organismes suivants :
– Institut national de la santé et de la recherche médicale (INSERM)
– Haute Autorité de santé (HAS)
– Agence nationale de sécurité sanitaire de l’alimentation, de l’environnement
et du travail (ANSES)
– La Documentation française
– Organisation mondiale de la santé (OMS)
– National institute for health and clinical excellence (NICE)
– Institut national de santé publique du Québec (INSPQ)
– American public health association
– Public health agency / Canada
– CDC (US Centers for disease control and prevention)
– Department of health of England
– Ministry of health and social services of Quebec
– NHS health Scotland
– Australian department of health
– Queensland government (Australie)
Pourquoi ces organismes, et eux seuls, sont-ils considérés comme « organisme
de santé publique reconnu », si ce n’est que l’INPES les reconnaît comme tels,
on ne le saura pas. On ne saura pas davantage pourquoi « La Documentation
française » organisme qui se présente comme « une marque de la Direction de
l’information légale et administrative (DILA), reconnue pour son rôle majeur
dans l’édition publique française, qui publie près de 400 ouvrages et
périodiques pour ses partenaires (plus de 150 administrations et organismes)
ou pour son propre compte (une vingtaine de publications), dont le périmètre
est national, européen et international sur des thèmes variés, essentiellement
administratifs, économiques, sociaux et juridiques » est ici considérée comme
un « organisme de santé publique reconnu ». On apprend ensuite qu’une
« recherche systématique sur les bases Psycinfo et PubMed à l’aide des termes
“mental health”, “prevention” ou “promotion”, “children” ou “adolescents” », a
permis de retenir sept revues Cochrane, sept synthèses de littérature par
« organisme reconnu » (parmi les 36 identifiées) et trois articles de synthèse
(parmi les dix identifiés). Cette revue de littérature identifie « une vingtaine
d’interventions de prévention actuellement reconnues comme pouvant avoir de
l’impact sur la santé mentale des enfants et des adolescents [dont la moitié
environ s’adresse à la population générale] ». Parmi celles-ci, « de par la qualité
des résultats d’études évaluatives », l’article déclare qu’« environ la moitié sont
considérées comme validées ». Un tableau de synthèse résume les
« interventions spécifiques visant des populations spécifiques d’enfants de
moins de cinq ans » en sept items : le type d’intervention utilisé, les publics
bénéficiaires, le niveau de preuve (validé ou prometteur), des exemples de
programmes, les principaux résultats « sur le problème à prévenir ou ses
déterminants », les références bibliographiques des études.
Les résultats attendus des interventions peuvent se répartir en six grands
groupes :
– Les problèmes de comportement, la violence, la délinquance, la criminalité.
C’est la catégorie la plus importante, avec 21 items. Les interventions sont
donc supposées avoir des effets (y compris à long terme) sur les comportements
agressifs, les problèmes de / du comportement, les violences physiques et
sexuelles, les comportements antisociaux, la délinquance, et jusqu’à la
criminalité.
– Les relations parents-enfants (13 items), avec des effets sur les interactions
parents-enfants, mais aussi les « compétences parentales », l’engagement mère-
enfant, les « pratiques dysfonctionnelles »…
– La santé mentale (13 items), celle de l’enfant comme celle de la mère
(« spécialement chez les mères primipares – les plus à risques14 »). Il s’agit en
général de l’anxiété et de la dépression.
– L’adaptation sociale et les comportements pro-sociaux (sept items) :
amélioration de l’ajustement comportemental, comportements pro-sociaux…
– L’amélioration du fonctionnement scolaire (huit items) : diminution des
problèmes scolaires, meilleure réussite scolaire, meilleure implication…
– La gestion du stress et les mécanismes de coping (deux items) : gestions des
émotions, résolution de problèmes.

Toujours plus sur toujours moins : de la promotion de la santé au


contrôle de la violence
Ce sont donc avant tout la violence et les comportements agressifs (21 items)
qui sont les cibles des programmes de prévention présentés, programmes dont,
nous l’avons vu, la moitié s’adresse à la population générale. Cette focalisation
sur la (prévention de) la violence est également présente dans un autre article
de (Lamboy, 2006), par ailleurs membre de l’expertise collective de l’INSERM
sur les troubles des conduites de l’enfant et de l’adolescent (INSERM, 2005)
(cf. infra). L’article, publié dans la revue Cerveau et Psycho, une revue de
vulgarisation grand public de bon niveau, est introduit par l’exergue suivant :
« Chez les tout jeunes enfants, la prévention est cruciale pour éviter les
comportements violents. Pourquoi rien n’est-il fait en France en la matière,
alors que des études internationales proposent des pistes pour éviter le
déchaînement de la violence ? »
L’article présente les interventions que l’auteur estime essentielles à mettre en
œuvre pour prévenir les violences, tout particulièrement celles des jeunes issus
de zones urbaines sensibles. Parmi celles-ci, les interventions préventives
portant sur des facteurs psychosociaux joueraient un rôle prépondérant Ces
comportements violents se développeraient en effet sur une « quadruple
défaillance ». La première défaillance serait liée à l’éducation parentale, dont
différentes caractéristiques sont associées un ensemble de comportements
violents et de « refus de toute autorité ». La deuxième défaillance serait liée à
certaines caractéristiques du milieu familial. Par exemple, conduites
antisociales, consommation de drogues, troubles mentaux, violences ou conflits
conjugaux, situation matérielle précaire chronique chez les parents. Le
troisième niveau de facteurs de risque serait lié à l’enfant lui-même, s’il présente
de faibles capacités de régulation de ses émotions, un manque d’habileté
sociale, une tendance à l’impulsivité, des troubles de l’attention, un retard
d’apprentissage du langage. Enfin, l’école serait le quatrième facteur défaillant.
On y trouverait des réactions inappropriées des enseignants, du rejet par les
pairs, des fréquentations de pairs déviants eux-mêmes en difficulté.
Selon des enquêtes longitudinales menées par Richard Tremblay, de l’université
de Montréal, 5 à 10 % des enfants maintiendraient des niveaux d’agressivité
élevés après trois ans et n’acquerraient pas la capacité de régulation « qui est
nécessaire pour parvenir à ses fins sans recourir à l’agressivité physique ». Ces
enfants « issus de milieux défavorisés et de famille aux liens perturbés »,
qualifiés de « fragiles et vulnérables » rencontreraient « un milieu scolaire qui
ne serait pas préparé à faire face aux difficultés qu’ils posent. À l’adolescence, ne
trouvant sa place dans aucune institution sociale ou familiale, le jeune
commencerait alors à fréquenter des milieux qui ne feraient qu’accentuer ses
problèmes d’intégration sociale, en particulier parce que « les conduites
agressives, les comportements délinquants et la fuite vers les substances psycho
actives » y seraient valorisés et renforcées ». C’est sur la base de cette analyse de
la situation que, précise l’auteur, « des centaines de programmes de prévention
contre la violence ont été mis en place surtout dans les pays anglo-saxons ».
Parmi eux, « une vingtaine ont fait la preuve de leur efficacité ». Puisque l’on
distingue quatre facteurs de risques majeurs, les méthodes d’intervention sont
aussi de quatre types. Une première série de méthodes centrées sur les enfants
vise à favoriser le développement des habiletés sociales, émotionnelles et
cognitives. Un deuxième type de programmes de prévention insiste sur l’aide
aux parents. Il s’agit que des spécialistes intervenant à domicile avant trois ans
apportent un soutien relationnel aux parents ainsi que des conseils en matière
d’éducation pour la santé. Le cas échéant, ils font le lien entre les parents
« dépassés par les événements » et d’autres professionnels et structures
compétentes (psychologues, pédopsychiatre, éducateurs, centres médicaux
psychologiques, éducatif…). Plus tard, de 3 à 16 ans, les méthodes
d’intervention se présentent le plus souvent « sous la forme de formation
parentale abordant différentes dimensions telles que la gestion de la colère de
l’enfant, la mise en œuvre d’une discipline positive et non violente, l’éducation
parentale compréhensive, le renforcement positif, la communication parent-
enfant efficace, les connaissances du développement de l’enfant, etc. », tel que
nous l’avons vu plus haut dans le cadre de l’analyse du programme PFI.
D’autres méthodes de prévention se concentrent sur les enseignants, en ayant
recours là encore au renforcement positif. Selon l’auteur, cette approche est
trop peu développée en France, et « il y a urgence à changer de ligne de
conduite car l’ensemble de ces méthodes de prévention portent leurs fruits
lorsqu’elles sont correctement structurées ».
Ainsi, un programme américain nommé Fast Track comporte un volet de
prévention des troubles des conduites « au sein de populations à risque
comparables à certains milieux sociaux de nos banlieues défavorisées ». Ce
programme comporte des interventions auprès des enfants en 131 séances
proposées en cinq ans, où l’on insiste sur la régulation de soi, la compréhension
des émotions et des relations interpersonnelles ainsi que sur la façon de
résoudre les difficultés relationnelles, et des interventions auprès des parents en
45 séances sur trois ans pour favoriser la mise en place d’une « communication
et d’une discipline efficaces à la maison ». Un autre programme américain
(Elmira Home Visitation Study) a également été validé. Ce programme a été
proposé dans l’État de New York à 116 femmes âgées de moins de 19 ans.
Quinze ans après, on constate chez elles selon l’auteur moins de maltraitance,
de négligence, de consommation d’alcool et de drogues, de grossesses
prématurées ou non désirées, d’aides sociales et de comportements antisociaux.
Les enfants de ces mères présentaient également moins de comportements
antisociaux et moins de consommations d’alcool et de tabac.
Ce programme ayant ensuite été mis en place dans d’autres régions des États-
Unis et étant actuellement en voie d’implantation dans plusieurs pays tels que
le Canada ou les Pays-Bas, l’auteur se demande avec irritation pourquoi des
programmes de ce type n’ont-ils toujours pas été mis en place en France, alors
qu’ils sont largement disponibles au niveau international. Elle avance les
hypothèses suivantes : d’une part, ces méthodes préventives seraient
méconnues des principaux acteurs du champ sanitaire et social « généralement
formés à d’autres théories et pas forcément très à l’aise avec la langue, les
concepts et le pragmatisme anglo-saxon ». D’autre part, le champ de « la santé
mentale (et la problématique de la violence) » serait abordé en France quasi
exclusivement sous l’angle du soin : « les professionnels sont mobilisés lorsque
les problèmes sont déjà installés alors que la possibilité d’agir en amont sur des
facteurs ou des publics à risque n’est pas envisagée ». Ensuite, le monde de la
recherche scientifique et celui de l’intervention ne se fréquenteraient guère:
« d’un côté se trouve l’univers des chiffres et des modèles, de l’autre celui de la
subjectivité et de l’être ».
Dans sa conclusion, l’auteur se pose une question, « la même que posait
Richard Tremblay, rompu depuis des années à ces problématiques de
prévention de la violence » : « ne devrions-nous pas nous convaincre et
convaincre les décideurs politiques et le grand public que les bases du contrôle
de la violence physique sont apprises au cours des deux ou trois premières
années de la vie ». À cette question, le dit Richard Tremblay répondait en
proposant « de mettre nos ressources limitées à disposition des jeunes femmes
qui ont des problèmes d’adaptation, ce qui serait vraisemblablement plus
rentable sur du long terme que de consacrer la plupart de nos ressources à
essayer de soigner des adultes devenus agressifs ».

Et le gène du péché croqua la pomme d’Adam


Examinons donc les points de vue de Richard E. Tremblay, chercheur très
réputé, productif et cité dans le domaine de la recherche sur les trajectoires
développementales de la violence, sur l’enfant, le parent et les stratégies
préventives qu’il convient de mettre en place, qu’il expose dans un article
intitulé “Developmental origins of disruptive behavior problems: the ‘original sin’
hypothesis, epigenetics and their consequences for prevention” (Tremblay, 2010),
publié en 2010 dans le Journal of Child Psychology and Psychiatry15, revue très
citée. L’article est introduit par la très classique opposition entre les points de
vue de Hobbes et ceux de Rousseau sur l’enfant « naturellement » mauvais ou
bon. Pour R. Tremblay, « Du citoyen (Hobbes, 1647) devrait être une lecture
obligatoire pour les professionnels qui gèrent des problèmes sociaux », de
même qu’Erasme, théologien néerlandais du xve siècle, pour lequel « depuis
Adam, le premier homme de la race humaine, une disposition au mal a été
profondément plantée en nous ». « 2 000 ans de pensée philosophique » pour
Richard Tremblay, qui se désole que ces réflexions aient été mises à mal par
É
Jean-Jacques Rousseau qui prétendait au contraire dans son Émile que les
enfants naissent bons et sont pervertis par leur environnement. Selon
Tremblay, ce point de vue rousseauiste erroné a orienté l’essentiel de la
recherche sur les comportements perturbateurs durant la première moitié du
xxe siècle, en particulier via l’influence de la théorie de l’apprentissage social.
Ceci alors même que « plus d’un siècle plus tôt, Darwin avait fourni une
explication puissante des mécanismes par lesquels Adam et Ève avaient hérité
du “péché originel” et l’avaient transmis à tous leurs descendants ».
Inspiré à nouveau par Erasme, mais aussi par Rodhe, qui postulait en effet dès
1886 une trajectoire développementale que les psychopathologues du
développement ont tenté de formaliser scientifiquement dans les dernières
décennies, Tremblay affirme qu’« on ne peut pas trop exagérer l’importance des
premières années pour la trajectoire qu’un enfant suivra durant sa vie ».
S’appuyant sur des données historiques relatives à l’évolution des homicides
chez l’humain (de 40 pour 100 000 à 1 pour 100 000 en Europe en 500 ans)
et sur une comparaison avec les taux des chimpanzés (261 pour 100 000),
Tremblay convoque Norbert Elias pour conclure que la civilisation des mœurs
a apporté de nombreux avantages aux humains, mais que pour autant « nous
regardons souvent avec nostalgie vers notre nature primitive ! » La propension
au crime diminue avec l’évolution phylogénétique, mais aussi avec l’évolution
ontogénétique, et Tremblay n’hésite pas à rassembler dans sa présentation de
cette évolution des études de 2003 et les travaux d’Adolphe Quételet sur la
propension au crime datant de 1833 : « La probabilité de commettre un
homicide et la plupart des autres crimes décroît de l’adolescence tardive à l’âge
adulte et à la vieillesse (Eisner, 2003 ; Quételet, 1833-1984) » écrit-il. Une
évolution empiriquement observée de la violence dont l’explication proposée
est que le processus d’apprentissage du contrôle sur l’agression physique,
entrepris dès 3 ans, se poursuivrait à l’âge adulte.
Rappelons que Quételet fut, outre l’un des grands développeurs de la
statistique publique, le concepteur de la notion d’homme moyen, « cause
constante » qui explique la distribution gaussienne des caractéristiques autour
de la forme parfaite centrale, idéal de perfection dont tout être humain concret
est une reproduction imparfaite, un individu doté, au même titre que d’une
taille et d’un poids, d’une « propension à se marier, à se suicider, ou à tuer
autrui » (Desrosières, 2002). Une conception essentialiste de la nature humaine
qui suppose qu’il existe une bonne forme humaine théorique, dont toute
déviation empirique chez un individu, écart à la norme moyenne, doit être
corrigée.
La violence ne doit pas selon Tremblay être relativisée par l’âge de l’agresseur.
Ce n’est pas parce qu’un coup d’un adolescent de 100 kilos a potentiellement
des conséquences plus graves qu’un coup du même individu lorsqu’il avait
deux ans que les coups de l’enfant devraient être négligés : « la sévérité de
l’agression physique décroît généralement avec l’âge, mais cela ne signifie pas
qu’un adolescent de 16 ans qui commet les plus sévères agressions physiques
pour son âge ne commettait pas les plus sérieuses agressions physiques pour
son âge lorsqu’il avait 2 ans ». Une position que l’on retrouve dans le
commentaire dramatisant accompagnant le documentaire vidéo réalisé par
Richard Tremblay, « Aux origines de l’agression : la violence de l’agneau », dans
lequel il précise que « si les enfants de 2 ans mesuraient 6 pieds, s’ils pesaient
250 livres, s’ils avaient accès à des armes, leurs agressions pourraient provoquer
de très sérieuses blessures. Elles pourraient même tuer ». C’est un peu comme
pour les gouttes de pluie ; si elles étaient des boules de pétanque, elles
pourraient tuer ! Méfions-nous donc des ondées.
Le caractère non intentionnel de l’agression, et l’absence de compréhension par
l’enfant des conséquences de ses actes, ne doivent pas non plus relativiser la
violence. L’idée selon laquelle les enfants seraient incapables d’avoir une
intention violente par incapacité à comprendre les conséquences de leurs actes
a selon Tremblay empêché jusqu’à récemment les chercheurs de s’intéresser à la
violence de l’enfant, alors que cette idée n’a pas inhibé les chercheurs qui
travaillent sur l’agression chez la souris, le rat et le singe. Pour Tremblay, ce
questionnement est sans objet, car la majorité des comportements agressifs est
liée à l’impulsivité et n’est pas planifiée : de nombreuses agressions physiques
sont liées au « système fight-flight qui contrôle les réactions comportementales à
la punition inconditionnée et à la non-récompense ».
La transgression du sens de la propriété est une des causes majeures de
déclenchement de la violence, sens de la propriété qui n’est pas pour Tremblay
socialement défini. Pour lui, « le “sens de la propriété” n’est pas soudainement
apparu dans l’esprit d’un adulte perverti, comme Rousseau voulait nous le faire
croire. Nous avons à l’évidence hérité le “sens de la propriété” de nos lointains
ancêtres ». Il y a là une confusion classique entre propriété et possession,
concepts que même des auteurs en faveur de l’existence de bases biologiques à
la propriété ne manquent pas de distinguer. C’est le cas par exemple de
(Brosnan, 2011) pour qui si d’autres espèces que l’espèce humaine ont les
fondations cognitives nécessaires pour gérer la possession, telles que
l’imposition des normes par des tiers, ou une réciprocité bien développée, il
leur manque toujours pour gérer la propriété les compétences leur permettant
de communiquer à propos des transgressions de la propriété par autrui. Cela
limite leur capacité de demander de l’aide pour faire valoir leurs droits et
d’avertir les autres à propos de ceux qui ne les respectent pas. Ces limitations
empêchent sérieusement le développement de ces normes. Ce qui a permis leur
développement chez l’humain pourrait être le développement d’une capacité à
comprendre que la propriété, au-delà de la possession immédiate ou du
contrôle, est toujours de la propriété, et que les autres ne devraient pas s’en
emparer (c’est-à-dire la notion d’un propriétaire et pas seulement d’un
détenteur), et ensuite les compétences linguistiques nécessaires pour requérir le
soutien d’autrui pour faire persister cette norme, compétences qui n’existent
que chez l’humain.
Pour Tremblay, certains enfants sont dès leurs premières années sur une
trajectoire persistante de comportements disruptifs, qu’il s’agisse de violence
physique, de comportements oppositionnels et provocateurs, de transgression
des règles, de vol et de vandalisme. Quels en seraient les facteurs de risque et les
mécanismes causaux ? Le premier facteur allégué est génétique : il existerait une
forte héritabilité familiale des problèmes de comportement, avec un index h2
de 0.8. Des facteurs environnementaux sont cependant, concède Tremblay,
impliqués. Mais, ajoute-t-il, les quatre études sur ces facteurs qu’il cite
concernant l’agression physique et le non-respect des règles portent certes sur
un total de plus de 14 000 enfants mais n’ont pas été faites dans le contexte
d’un protocole génétiquement informé, ce qui empêche que l’on détermine
dans quelle mesure les facteurs de risque environnementaux significatifs sont
corrélés ou interagissent avec des facteurs génétiques. Remarquons que bien
que l’objection symétrique s’applique tout autant aux études génétiques (qui
n’ont pas été menées dans un contexte sociologiquement informé), elle n’est
pas évoquée par Tremblay. Pour autant précise-t-il, les études de facteurs de
risques environnementaux ont permis de mettre en évidence quatre catégories
de facteurs de risque : les caractéristiques maternelles (style de vie, santé
mentale) ; les caractéristiques familiales ; le parentage maternel ; les
caractéristiques de l’enfant. Les caractéristiques maternelles et familiales sont
selon Tremblay cruciales pour les interventions préventives « car elles peuvent
être utilisées pour identifier les femmes à risque durant la grossesse », ces
caractéristiques à risque étant le jeune âge de la mère à la naissance du premier
enfant, le comportement antisocial de la mère durant l’adolescence, la
dépression maternelle, le faible niveau d’éducation maternel, le tabagisme
durant la grossesse, le faible niveau de revenu de la famille, les
dysfonctionnements familiaux, la présence d’une fratrie, le manque de
stimulation.
Comme le reconnaît Tremblay, les connaissances disponibles sur les facteurs de
risque de trajectoires chroniques de troubles des conduites sont fondées sur un
petit nombre d’études. Par ailleurs, bien qu’elles comprennent de grands
échantillons représentatifs de la population, avec des évaluations répétées sur de
nombreuses années, les résultats environnementaux viennent d’études de
corrélation qui ne peuvent mettre en évidence de mécanismes causaux et les
études génétiques n’identifient pas de gènes spécifiques. En bref donc, ces
études n’apportent pas d’éléments probants, et pour identifier les facteurs
causalement impliqués, d’autres études seraient nécessaires. Sont mentionnées
par Tremblay les études de génétique moléculaire et les études épigénétiques.
Les études de génétique moléculaire ont certes identifié quelques gènes associés
aux troubles du comportement, en particulier des gènes impliqués dans les
voies dopaminergiques et sérotoninergiques. Par exemple, des variantes du
récepteur D4 de la dopamine sont associées à l’impulsivité et à une dégradation
des fonctions exécutives et interviennent comme modératrice entre les
comportements externalisés et les capacités cognitives. Mais comme le rappelle
Tremblay à juste titre, « en étudiant l’interaction statistique entre un gène et
une caractéristique environnementale à la fois nous sommes très loin de décrire
les innombrables interactions statistiques et bio-psycho-sociales entre des
milliers de gènes et des milliers de conditions environnementales qui mènent à
des milliers d’endophénotypes et de phénotypes chez un individu ». Et de citer
à bon escient la réfutation – après cinq ans de citations pléthoriques et
enthousiastes – d’une étude sur les interactions entre le gène du transporteur
de la sérotonine et les événements de vie stressants dans la dépression parue
dans Science (Caspi et al., 2003), par une méta-analyse parue dans le JAMA
(Risch et al., 2009). Cette alternance de découvertes fracassantes et de
réfutations flamboyantes est classique dans le domaine de la génétique, et a
même été théorisée sous le terme de phénomène Protéus (Ioannidis
& Trikalinos, 2005). Les auteurs de cette réfutation concluaient – à l’instar des
auteurs que nous avons examinés précédemment – que la probabilité de faux
positifs est très importante lorsque les gènes testés n’ont pas d’effets importants,
ce qui est le cas des troubles mentaux pour lesquels, il existe d’innombrables
données montrant qu’ils sont sous l’influence de multiples facteurs biologiques,
psychologiques, sociaux, en interactions complexes les uns avec les autres.
Selon Tremblay, ce champ de recherche s’apparente, s’agissant de la recherche
de mécanismes causaux, à la « recherche d’une aiguille dans une botte de
foin ». La conclusion qu’il en tire est drastique, puisqu’il propose que nous
devrions, en l’absence de compréhension réelle des mécanismes impliqués,
« trouver des moyens de prévenir les troubles avant de trouver leurs
mécanismes causaux à l’aide d’études de corrélation ».
Rappelons que, en effet, les études d’interactions gènes-environnement sont
généralement fondées sur un dispositif méthodologique cherchant à mettre en
évidence des interactions statistiques, souvent obtenues par des tableaux 2×2
comparant les comportements au sein de quatre groupes obtenus en croisant
deux allèles d’un gène avec l’occurrence ou l’absence d’un paramètre
environnemental. Il s’agit de quantifier la probabilité que la répartition
observée des effectifs dans les groupes soit due au hasard, en utilisant un test
statistique, typiquement un test du khi-2 ou un équivalent. Si la probabilité
obtenue est faible, typiquement inférieure à 0.05, une étude d’interaction
gène-environnement aura tendance à conclure que la différence est due au
gène, même si cette conclusion est logiquement infondée, puisque non
seulement d’autres variables non contrôlées peuvent expliquer l’association
statistique observée, mais que même statistiquement le problème des faux
positifs vient empêcher toute conclusion de ce type (voir à nouveau plus haut
l’analyse des travaux de Ioannidis).
Les études épigénétiques développent une approche différente. L’épigénétique
est la science qui s’intéresse aux mécanismes qui régulent l’expression des gènes
et qui peuvent avoir un effet stable et persistant dans les fonctions des gènes
sans les modifier. Cette programmation est sensible aux influences
environnementales et particulièrement, rappelle Tremblay, durant le
développement fœtal et post-natal précoce. L’épigénétique s’intéresse donc aux
effets physiques de l’environnement sur l’expression des gènes (Toyokawa,
Uddin, Koenen, & Galea, 2012). Un des exemples typiques, cité par Tremblay,
est que les petits rats insuffisamment léchés par leur mère montrent une
méthylation accrue du gène codant pour les récepteurs aux glucocorticoïdes
dans l’hippocampe, avec pour résultat une diminution de l’expression du gène
(Weaver, Meaney, & Szyf, 2006). Cette diminution a des conséquences en aval
sur l’axe hypothalamo-hypophyso-surrénalien impliqué dans la régulation du
stress. De même, chez la souris, la séparation précoce d’avec la mère produit
des altérations de la méthylation de certains gènes, qui sont associées à une
hypersécrétion de corticostéroïdes, avec des conséquences sur la gestion du
stress et la mémoire (Murgatroyd et al., 2009). Les mécanismes épigénétiques
sont donc particulièrement importants car pour Tremblay « ils fournissent une
explication puissante de la transmission maternelle des troubles, qui va au-delà
des explications traditionnelles de la transmission génétique ». Par ailleurs, les
évolutions de la méthylation de l’ADN au cours du temps pourraient être
utilisées pour l’évaluation des effets des interventions préventives et correctives
qu’il propose. Pour autant, concède-t-il, « les mécanismes bio-psycho-sociaux
exacts reliant un environnement de mauvaise qualité à un comportement
désorganisé demeurent flous [et sont loin d’être clairement compris], et c’est
une litote ». Ce qui n’empêche pas l’auteur d’affirmer que « l’aspect le plus
fascinant de ce mécanisme est qu’il fournit une explication environnementale
de la transmission intergénérationnelle des troubles physiques et mentaux qui
impliquent des gènes mais ne sont pas génétiquement transmis » –
représentatif en cela d’un style rhétorique typique dans ce domaine dont le
topos récurrent est « on manque d’études pour pouvoir conclure, néanmoins il
est clair que… » –. D’ailleurs, arguant que des études auraient montré des
différences dans les profils de méthylation « d’individus masculins se situant sur
des trajectoires normales ou sur des trajectoires chroniques d’agression
physique », Tremblay voit dans ces mécanismes épigénétiques – « un secret
bien gardé jusqu’à présent » dit-il – « le principal mécanisme nature-culture par
lequel le “pêché originel” est transmis, amplifié ou muté de générations en
générations ».

Le seul bon enfant est l’enfant pas encore né


La conséquence des nouvelles connaissances sur ces mécanismes serait donc
que qu’il faudrait commencer la prévention du développement des troubles
sévères du comportement à la conception, voire plus tôt, et que cette
prévention devrait cibler les femmes qui ont un passé de problèmes
d’adaptation sociale. Il faut donc renverser la logique actuelle de la prévention
des comportements violents : si ce sont bien les hommes qui sont les plus
violents, ce sont les femmes qu’il faut cibler principalement pour prévenir
« une nouvelle génération d’hommes et de femmes présentant des troubles
comportementaux ». Selon Tremblay, ces conclusions ne stigmatisent pas les
femmes pour les problèmes comportementaux de leurs enfants car « les mères,
les pères et les enfants ne sont pas responsables des gènes et de l’environnement
qu’ils ont reçu à la conception ». Ce qu’il faut en conclure c’est que la solution
réside dans le fait de faire des parents la cible d’interventions précoces « pour
aider les enfants à devenir plus responsables et pour empêcher d’autres
générations de victimes ». Le problème, ajoute-t-il cependant, c’est que très peu
d’études se sont intéressées à la prévention précoce chez les enfants d’âge
préscolaire, problème qu’il impute aux représentations « soutenues par les
médias et le grand public » selon lesquelles c’est à l’adolescence qu’il faut
intervenir parce que c’est à l’adolescence que les problèmes se posent.
Malgré le manque évident d’études expérimentales, Tremblay estime qu’il y a
des preuves que les interventions préscolaires visant spécifiquement les
comportements disruptifs peuvent avoir un effet positif significatif. Pour autant
admet-il, les évaluations de suivi dont on dispose sont d’une durée trop courtes
pour savoir si les effets perdureront durant l’enfance, à l’adolescence et au
début de l’âge adulte. Ceci ne l’empêche pourtant pas de penser qu’il y aura des
impacts à long terme, ce parce que « au moins une intervention intensive
précoce avec des garçons disruptifs dès le jardin d’enfants issus
d’environnements socio-économiques de bas niveau a montré des impacts
positifs significatifs sur la réussite au collège et sur la criminalité au début de
l’âge adulte ». Une véritable intervention préventive doit débuter avant 12-17
mois après la naissance, et être aussi proche que possible de la conception ;
selon Tremblay, les interventions mises en œuvre après ce délai seraient en
réalité des interventions correctives, et non plus préventives. En vérité, selon lui,
les interventions préventives sur l’enfant sont en réalité des « interventions
correctives sur les mères qui ont une longue histoire de problèmes d’adaptation
sociale et mentale ». Et d’ajouter que « c’était l’une des principales conclusions
du psychiatre suisse Lucien Bovet dans le premier rapport de l’OMS
commandé après sa création en 1951 » ; « ces interventions ne modifieront pas
les gènes, mais elles modifieront l’expression des gènes ».
L’appui que cherche Tremblay dans ce rapport de l’OMS (Bovet, 1950) est
assez surprenant. Retournons au texte original du rapport. Le psychiatre
affirme bien que « si nous avons surtout insisté jusqu’ici sur les mesures
applicables à la première enfance, c’est parce que nous partageons l’avis des
auteurs modernes qui font remonter à cette période de la vie l’origine première
de la tendance à la plupart des désadaptations sociales, même si celles-ci ne se
manifestent que beaucoup plus tard » (ibid., p. 118), et qu’« il est donc
indiqué, semble-t-il, de faire porter sur la petite enfance le principal effort
prophylactique ». Mais c’est pour ajouter immédiatement qu’« il serait
absolument faux de négliger pour autant l’âge scolaire et l’adolescence. Le
terrain préparé pendant les premières années de la vie, si favorable soit-il au
développement d’herbes folles, peut néanmoins en être souvent préservé ou
débarrassé par des interventions ultérieures. Et, justement chez certains sujets
les plus exposés à devenir des délinquants, ce terrain ne se forme que très
lentement ; toute l’évolution de la personnalité est chez eux retardée, et une
action judicieuse exercée à l’âge scolaire, et même, dans certains cas, durant
l’adolescence, peut avoir encore des effets décisifs sur l’achèvement tardif de
leur “moi” et de leur “surmoi” ».
Par ailleurs, rien dans les conclusions de Bovet ne laisse supposer qu’il aurait pu
partager les orientations ou les recommandations de Tremblay. Ainsi précise-t-
il (ibid., p. 141) que « c’est sur la base de la structure psychologique de chaque
cas et en tenant compte, bien entendu, d’un certain nombre d’autres facteurs
d’ordre social, familial, juridique – que les indications particulières de telle ou
telle mesure devront être posées […] il faudra encore et toujours
individualiser ». Par ailleurs, sa vision semble davantage être celle de l’enfant en
danger que de l’enfant dangereux, de l’enfant qui a peur que de l’enfant qui fait
peur : « quels que soient les chemins par lesquels le mineur arrive à la
délinquance, nous avons reconnu le commun dénominateur criminogène dans
le cercle vicieux : insécurité, angoisse, agressivité, culpabilité, insécurité.
De même, le commun dénominateur thérapeutique, c’est la sécurité retrouvée.
C’est dans l’expérience vécue d’une relation solide avec la personne de
l’éducateur ou du thérapeute, basée sur le respect mutuel, ayant pour condition
l’autonomie des deux parties, que le mineur retrouvera cette sécurité » (ibid.,
p. 142).
Si Tremblay cherche ainsi des appuis historiques auprès d’institutions
légitimantes, c’est sans doute parce que c’est à ce stade que l’un des éléments
centraux de son raisonnement est présenté. L’outillage épigénétique
aujourd’hui disponible permettrait en effet de mesurer l’effet des interventions
préventives non plus seulement sur les comportements visés, mais sur la
séquence d’effets biologiques qui suit l’expression des gènes et mènerait à des
problèmes de comportement. Une intervention efficace serait donc une
intervention qui a des effets visibles sur des marqueurs biologiques indicateurs
de l’expression des gènes. Or, la seule description des trajectoires
développementales de la naissance à la mort est un préalable à la
compréhension des relations entre la méthylation de l’ADN et les troubles du
comportement, et elle prendrait selon Tremblay « au moins 90 ans ». La
quantité de travail nécessaire pour réaliser ces descriptions et mettre en
évidence les relations causales entre les différents niveaux de développement est
dit-il quelque chose de « difficile à saisir et à accepter ». En vérité cette tâche est
inenvisageable, et pour lui « le seul raccourci disponible passe par
l’expérimentation » sur l’efficacité d’interventions préventives, des
expérimentations qui devraient « être menées de façon cordonnée au niveau
international sur une période d’au moins plusieurs décennies ». Un projet dont
l’ambition serait donc à la hauteur des coûts que représenteraient les problèmes
de comportement pour la société. Pour mener à bien ces études, il est
nécessaire de disposer de classifications diagnostiques appropriées, et donc de
modifier les classifications actuelles en conséquence. En particulier, ces
classifications devraient intégrer les stades de développement. Les classifications
psychiatriques correspondantes, et en conséquence les cliniciens, devraient
intégrer des dimensions pronostiques dans toute rencontre thérapeutique,
sachant que « plus le patient est jeune, meilleur est le pronostic ». Trois ou
quatre ans après la naissance, l’enfant « disruptif » n’a plus que « la moitié de
son potentiel d’expression des gènes pour être capable de se contrôler ». À cet
égard, Tremblay suggère de distinguer deux cas de trajectoires individuelles : le
cas chronique « qui atteint le niveau de haute fréquence [des comportements] à
chaque évaluation » ; le cas « situationnel », un individu « qui n’a jamais eu de
problèmes sérieux d’agression mais qui peut se retrouver dans des conditions
qui vont déclencher une agression physique sérieuse ». Des « gens biens
peuvent être rendus mauvais par les circonstances », s’ils se trouvent placés dans
des circonstances dans lesquels les « instincts primitifs que nous apprenons à
contrôler durant l’enfance sont ramenés à la surface : la socialisation est une
fine membrane que la bête du péché originel peut facilement rompre si elle est
excitée ». En d’autres termes, et pour paraphraser le Dr Knock, tout enfant non
violent est un psychopathe qu’on ignore, et son calme n’augure rien de bon.
Pour Tremblay, le temps est donc venu d’investir massivement dans
l’évaluation expérimentale d’interventions préventives de grande ampleur
menées de façon collaborative au niveau international. Dans la mesure où les
connaissances authentiquement épigénétiques sur les problèmes de
comportement n’apportent aucune information utile, et n’en apporteront
aucune dans le siècle à venir, « les essais contrôlés randomisés sont le meilleur
outil pour tester des hypothèses causales tout en testant des interventions
efficaces ». Il s’agit d’en évaluer les effets « de la période prénatale jusqu’à au
moins la période prénatale de la troisième génération ».
L’usage scientiste de la méthode scientifique que promeut Tremblay devient
alors le moyen quasi totalitaire d’instituer un contrôle biomédical
transgénérationnel à grande échelle. Il s’agit en effet d’appliquer à de larges
populations, voire à l’ensemble de la population, des méthodes de formations
aux pratiques parentales qui seront considérées comme les meilleures possibles
sur la base de leurs performances comparées sur des indicateurs relevant d’un
paradigme biomédical du fonctionnement humain, ce afin d’obtenir dans
quelques générations une humanité enfin conforme à ces indicateurs. Le
procédé confine, sous couvert d’éducation aux bonnes pratiques d’élevage des
enfants, à une forme d’eugénisme épigénétique.

Politiques et pratiques de prévention à l’épreuve du discernement


éthique
Selon le rapport de l’OMS de 2005 (OMS, 2005) sur la promotion de la santé
mentale, la santé publique et la promotion de la santé ne correspondent pas à
« l’approche détachée, froide et sceptique […] qui représente l’idéal abstrait de
la science positive ». Au contraire, il est précisé que « La santé publique et la
promotion de la santé sont essentiellement des activités politiques, car elles
sont financées pour travailler pour le bien public, bien qu’il y ait souvent des
désaccords viscéraux sur ce qu’est le “bien” public et sur les façons de le
rechercher. » (p. 24)
Se pose en particulier une interrogation : « quel niveau de risque, avec quel
degré de certitude, pour combien et pour quelles sortes de gens, devrait être
manifeste avant que les droits d’une minorité ne soient abrogés pour la
protection de la majorité, et à quel niveau doit-on définir “une minorité” et
“une majorité” ? ». Une excellente question, que le rapport ne pose que de
façon purement rhétorique, et qu’aborde Didier Jourdan dans son ouvrage La
santé publique au service du bien commun ?, sous-titré « Politiques et pratiques
de prévention à l’épreuve du discernement éthique » (Jourdan, 2012). L’auteur
part du constat que la question de la santé publique tient une place
considérable dans les préoccupations des exécutifs des états occidentaux,
préoccupations qui se traduisent par un large éventail d’interventions, parmi
lesquelles se trouvent les interventions en santé mentale, cas particulier – c’est-à-
dire conçu comme tel par le dispositif de santé publique, et nous verrons que
c’est précisément là un problème des plus sérieux – d’un dispositif plus général
qu’analyse Didier Jourdan. L’une des questions fondamentales qu’examine
l’auteur est le postulat de neutralité de ces interventions. Contrairement aux
représentations communément admises, elles ont en effet « pour conséquence
en particulier une limitation de la liberté des citoyens à disposer d’eux-mêmes,
et ce au nom de leurs propres intérêts ». Il est alors impératif de préciser ce qui
fonde la légitimité des états à intervenir dans le domaine de la santé. Le fait
que la santé individuelle et collective soit l’objet d’une politique nécessite en
particulier une réflexion amont sur « la place de la personne et de sa liberté
dans le dispositif et sur les référents anthropologiques qui conditionnent les
choix ». La nécessité de cette réflexion est d’autant plus importante qu’il ne
s’agit plus seulement d’intervenir dans un cadre curatif en réponse à une
demande de soin formulée par les personnes elles-mêmes, ou seulement en
contexte de crise sanitaire majeure, mais bien dans un cadre préventif, c’est-à-
dire « avant qu’un mal ne se soit déclaré et sans que la personne l’ait
demandé ». Dans ce contexte où la santé publique peut apparaître aujourd’hui
comme une « entreprise d’acculturation dont le mandat serait de promouvoir
les valeurs véhiculées par une culture sanitaire [il est indispensable de] savoir
qui définit ces valeurs, dans quelle mesure il est légitime de les promouvoir, et
quel doit être le rôle des pouvoirs publics en la matière » : qui décide ce qui est
bon, à quelle vision de l’humain les visées et les méthodes d’intervention de la
santé publique se réfèrent-elles ?
Le champ de la santé publique est, nous l’avons vu, large. C’est en vérité tous
les domaines de l’humain qui entrent potentiellement dans sa juridiction.
Comme le souligne Jourdan, « on serait tenté d’entrée de jeu de se demander
ce qui échappe à la santé publique. Le champ est tellement vaste qu’on a peine
à se le représenter ». Le terme est d’ailleurs en lui-même polysémique : il réfère
tout autant à un état sanitaire et épidémiologique (supposé représenter celui la
santé de la population) ; à un mode de gestion par l’État de la santé à l’échelon
d’un pays avec ses multiples agences ; à un domaine d’activité, qui comprend
ses professionnels, ses formations, ses diplômes ; à un champ disciplinaire avec
ses colloques, ses sociétés savantes, ses revues spécialisées, ses thèmes de
recherche… Avant tout, la santé publique est une politique à visée
planificatrice dont les objectifs, définis par l’OMS, conduisent à une action qui
déborde largement le seul secteur sanitaire. La santé publique est une politique
avant d’être une science, et « un pouvoir avant d’être un savoir », pouvoir qui
s’instaure et se déploie pleinement dans les états d’exception qu’engendrent les
crises liées aux grandes épidémies historiques (peste de 1348 en Europe,
choléra de 1848 à Londres, pandémie de grippe espagnole en 1918…). Ce qui
était initialement gestion réactionnelle et temporaire de l’urgence se pérennise
progressivement dans un dispositif de contrôle permanent qui fonde l’une
des tendances fortes de l’évolution de la santé publique, à savoir l’appui sur le
régime de crise pour prendre en charge l’état normal, état normal qui devient
lui-même un état de crise permanent dans les logiques préventives fondées sur
les facteurs de risque de problèmes et non plus sur les problèmes eux-mêmes. Là
où les grandes épidémies étaient des possibles certes anxiogènes, mais pensés
comme des événements à venir, et non toujours déjà présents, les facteurs de
risque sont là en permanence, et constituent en quelque sorte l’avant-garde de
l’armée des problèmes sanitaires contre laquelle il convient de se prémunir en
maintenant l’état d’urgence, qui justifie les états d’exception. Pour cela, il est
nécessaire de se prémunir contre l’assoupissement qui – telle la sentinelle qui
ne voit jamais l’ennemi et finit par dormir au lieu de monter la garde – guette
la population, en mettant en évidence en permanence de nouveaux dangers
déjà présents à notre insu. Ainsi des enfants pas encore nés dont les
caractéristiques des parents constitueront les facteurs de risque contre lesquels
il convient de mobiliser la puissance de l’État.
Cette extension topique – de plus en plus de lieux d’action – et chronique –
des actions de plus en plus précoces – de la santé publique sur une santé dont
l’extension est aujourd’hui quasi infinie (« un état de complet bien-être
physique, mental et social » selon la définition sur-citée de l’OMS) entraîne
nécessairement une extension illimitée de son champ d’intervention. La santé
est en effet sous l’influence de tant de déterminants qu’aucun domaine de la vie
n’est en réalité décorrélé de la santé des individus. À ce titre, « il devient
légitime, en vue d’une finalité sanitaire, d’agir sur toutes les dimensions de
l’existence », et tout devient susceptible d’être constitué en problème de santé
publique. En raison de la remontée du niveau d’abstraction des
problématiques, la nature socialement construite des problèmes de santé
publique devient évidente. Pour autant, la puissance d’action et de conviction
de la santé publique, outre qu’elle prétend agir pour le bien(-être) de chacun –
louable objectif difficile à contester – vient aussi de ce que « la légitimité de son
action est systématiquement référée aux données scientifiques [la référence à
l’épidémiologie constituant la clé de voûte de la légitimation de ce type
d’intervention]. Toute contestation doit alors être considérée comme étant soit
le fruit d’obscurantistes, soit celui de lobbyistes à la solde de telle ou telle
faction ». Comme le rappelle Didier Jourdan, la santé publique, munie « des
outils puissants du droit et de la science », touche non seulement « aux
éléments centraux de ce qui fait la liberté humaine », mais aussi – comme toute
pratique médicale – aux éléments d’un système humain qu’il est plus aisé de
dégrader que d’améliorer. Une réflexion éthique et technique sur ses pratiques
et ses rapports bénéfices / risques est donc indispensable.
Les sources de légitimité / légitimation de la santé publique sont en tout
premier lieu, s’agissant de ses finalités, morales : personne n’aime être en
mauvaise santé, moins encore être malade, et moins que tout mourir ou voir
mourir ses proches, et tout le monde aime se sentir bien et vivre longtemps en
bonne santé. Toute intervention visant à éviter ces états aversifs et à favoriser
ces états appétitifs est donc par nature perçue comme bonne et légitime.
Depuis la fin des années 1980 se développe à cet égard une argumentation
supplémentaire fondée sur la réduction des inégalités sociales de santé, et sur le
caractère moralement inacceptable du constat empirique que certains groupes
de population non seulement vivent moins longtemps que d’autres, mais en
moins bonne santé (HCSP, 2010). C’est s’agissant de ses moyens d’action que
la légitimation devient scientifique : la santé publique s’appuie pour justifier ses
interventions sur des résultats scientifiquement fondés supposés apporter la
preuve de la relation entre les interventions mises en œuvre et les fins visées.

Mouche ton nez et dis bonjour à la dame, p < 0.05


Revenons aux méthodes employées pour produire ces résultats
« scientifiquement fondés ». Parmi ces données obtenues par des méthodes
scientifiques, la part des données issues d’études épidémiologiques est
croissante. Quelle que soit la complexité des méthodes statistiques mises en
œuvre dans ces études (le plus souvent les méthodes utilisées appartiennent à la
classe des régressions logistiques), leur principe est globalement toujours le
même : il s’agit de quantifier, dans un échantillon sélectionné de façon
pertinente, la proportion de personnes appartenant à un groupe lorsqu’elles
appartiennent aussi à un autre groupe, et les variations de proportion d’un
sous-groupe à un autre.
L’épidémiologie a pour intérêt essentiel de permettre de dimensionner des
politiques sanitaires (offre de soin par exemple), et d’orienter vers l’existence de
possibles mécanismes causals que l’on cherchera à comprendre par d’autres
moyens. En aucun cas l’épidémiologie n’apporte par elle-même d’information
utilisable pour prédire l’appartenance d’un individu à un groupe ou à un autre.
L’épidémiologie quantifie des associations statistiques, et comme toute
probabilité, cette quantification n’a pas de sens individuel. Comme le rappelle
Didier Jourdan (ibid.) « un discours d’éducation à la santé normatif “si tu fais
ci, il va t’arriver ça” est donc incompatible avec la réalité du savoir
épidémiologique », tout autant qu’un discours prédictif du type « si ses parents
sont comme ça, alors il deviendra comme ci, sauf si on le traite ». On peut
donc s’interroger sur la légitimité de l’utilisation des données épidémiologiques
pour mettre en place des interventions qui s’adressent à des individus. Cela ne
signifie pas pour autant que l’information n’est pas utilisable au niveau
individuel par l’individu lui-même. Considérons pour cela une petite
métaphore.
S’il faut, pour sortir d’un endroit dans lequel on ne peut rester, passer par l’un
ou l’autre de deux seuls chemins possibles parsemés de mines dissimulées,
l’information selon laquelle sur l’un des deux chemins il y a 500 mines et sur
l’autre 1 000 devrait amener, en l’absence de toute autre information¸ à choisir le
premier chemin. Dans ce cas, la seule information quantitative emporte la
décision, et l’usage des statistiques est pertinent. Mais s’il se trouve que les deux
chemins font 50 kilomètres, que l’on est en plein désert, qu’il fait 40°, et qu’il
n’y a de l’eau que sur le deuxième chemin, il faudra hiérarchiser les risques en
fonction de ce que l’on sait de ses aptitudes et de sa tolérance à l’angoisse (les
mines) d’une part et à la déshydratation d’autre part. Si l’on y ajoute le fait que
l’estimation du nombre de mines repose en fait sur un échantillonnage d’une
portion de chemin, et que l’on ne dispose que des intervalles de confiance
[200-800] et [900-1100], le processus de décision devra intégrer cette nouvelle
information. L’important ici est que seule une délibération individuelle dans le
référentiel de valeurs et de connaissances propre à l’individu, peut être utilisée :
c’est l’individu, et lui seul, qui peut intégrer à son référentiel singulier les
informations statistiques dont il disposerait pour construire une décision
rationnelle pour lui. Par ailleurs, l’information apportée par les statistiques ne
vaut qu’en l’absence de connaissances directement utilisables sur la situation. Si
notre voyageur dispose d’une carte ou d’un détecteur de mines, l’information
additionnelle apportée par les statistiques est quasi nulle. S’il se connaît
suffisamment pour connaître sa résistance à la déshydratation (pour l’avoir
éprouvée préalablement dans des conditions similaires par exemple),
l’information statistique selon laquelle 90 % des personnes ne survivent pas à
50 kilomètres de marche sans eau dans ces conditions ne lui sera pas plus utile.
Ce n’est que s’il ne dispose pas de ces informations sur lui-même que
l’information statistique portant sur des populations lui sera (éventuellement)
utile. Imposer à un individu qui sait pouvoir marcher 50 kilomètres sans eau
dans les conditions dans lesquelles il se trouve de choisir le chemin sur lequel il
y a de l’eau, au motif que les probabilités sont en faveur de ce choix, serait
absurde, et entraînerait une perte de chance. C’est le problème auquel le
recours aux seuls résultats statistiques pour décider confronte tout individu en
situation de prendre cette décision.
C’est en particulier la question de la causalité et de la mesure de sa force qui
pose problème. Bien que les données issues des modèles statistiques
épidémiologiques portent par définition sur des associations statistiques, et ne
permettent quasiment jamais de mettre en évidence des relations causales, « il
n’en reste pas moins que, malgré la fragilité des connaissances sur les liens de
causalité, la plupart des stratégies de santé publique sont basées sur l’hypothèse
de l’existence de liens de causalité simples entre les comportements à risque et
leurs déterminants » (Jourdan, 2012, p. 68). Outre que ces causalités ne sont
que très rarement avérées au-delà de la seule association statistique, la tentation
est grande de confondre les liens simples de corrélation internes au modèle
supposé décrire et prédire le réel et les liens complexes de causalité du réel lui-
même, et de tenter de conformer le réel au modèle plutôt que de conformer le
modèle au réel. C’est une activité tout à fait usuelle de la recherche évaluative
en santé publique que de réduire sa cible à quelques variables (un humain à sa
consommation d’alcool, son (hyper)activité, sa classe sociale, par exemple), de
réduire la situation dans laquelle elle vit à quelques autres variables (les
pratiques éducatives de ses parents par exemple), de concevoir des
interventions qui agissent sur les secondes dans le but d’agir sur les premières,
d’examiner les associations statistiques des variations obtenues, de considérer
que les associations statistiquement significatives correspondent à des relations
causales, d’en déduire que l’intervention est efficace, et de la mettre en œuvre
dans la réalité. Le problème est que souvent les paramètres sont trop complexes
pour pouvoir être étudiés empiriquement. Il est alors impossible d’obtenir des
preuves empiriques. Dans un contexte où l’obtention de la preuve est une
exigence normative, ce qui est le cas général en santé publique, cette absence de
preuve se transforme rapidement en preuve de l’absence. Ne peuvent alors plus
être mises en œuvre que des interventions disposant de preuves empiriques,
quand bien même ceci entraîne une réduction de l’humain cible à quelques-
uns de ses paramètres observables et numérisables, représentant une portion
infinitésimale de ce qui le constitue, et une limitation des interventions
envisageables aux seuls paramètres pour lesquels une évaluation empirique
numérique est possible, empêchant ainsi le développement et la mise en œuvre
d’autres stratégies. La situation la plus regrettable se produit lorsque la
focalisation sur un paramètre secondaire nuit aux développements d’autres
paramètres essentiels.
Revenons un instant au programme de parentalité PFI afin d’illustrer ce point.
Supposons que l’accent mis sur la conformation de l’enfant aux attentes
parentales par l’utilisation d’une technique de conditionnement opérant se
fasse au détriment du développement de sa culture, de ses connaissances, de ses
capacités réflexives, de ses capacités d’observation et de compréhension du
monde… bref de tout ce qui dépasse les simples capacités ratières nécessaires
pour ajuster des comportements aux manipulations des récompenses et des
punitions dans l’environnement parental. Supposons encore que ces capacités
inhibées soient, non seulement l’essentiel de l’humain qui est en train d’être
réduit à ses comportements conditionnés, et de son devenir, mais encore
qu’elles soient bien plus efficaces sur le comportement visé (l’alcoolisme) que le
conditionnement opérant mis en œuvre. Le rapport bénéfices / risques du
programme serait alors extrêmement défavorable. Le problème est que non
seulement rien dans le dispositif méthodologique mis en œuvre pour évaluer
l’efficacité de l’intervention ne permet de le savoir, mais que tout l’empêche
puisqu’aucun des éléments mentionnés ne fait partie des variables utilisées
pour obtenir des associations statistiquement significatives, et que ces types de
variables sont le plus souvent trop complexes pour être opérationnalisées dans
les dispositifs d’enquête empirique.

Carte de la vie, échelle 1/1 000 000


Résumons. La santé publique, en tant que dispositif politique, se donne pour
objectif d’agir sur les états (construits comme) de santé de la population – ce
qui implique des modifications des états (d’au moins certains) des individus
qui la compose – dans le but de les améliorer – selon la définition de
l’amélioration qui est donnée. Et comme moyen d’y parvenir, des interventions
portant sur l’environnement et / ou sur les individus, dont l’efficacité a été
empiriquement évaluée. Pour cela, un certain nombre de préalables sont
requis. Il faut tout d’abord des définitions formelles des états de santé à éviter
et des états de santé à rechercher. Il faut ensuite des instruments d’observation
permettant de diagnostiquer ces états, et des instruments d’observation
permettant d’en quantifier la sévérité et d’en suivre l’évolution. Une définition
des facteurs de risque et de protection est nécessaire, ainsi que les instruments
d’observation associés. Diverses méthodologies d’enquête expérimentales ou
observationnelles permettent de calculer les associations statistiques entre les
différents facteurs de risque / protection et les états de santé visés. Dans le but
de modifier les facteurs ayant montré une association statistiquement
significative avec les états de santé, des interventions sont conçues et évaluées
par des méthodologies expérimentales dont l’étalon-or est l’Essai contrôlé
randomisé. Les étapes du processus qui vient d’être décrit sont ascendantes :
elles partent du réel pour en construire un modèle. Dans un second temps
vient l’usage politique de ces connaissances : des organismes mondiaux (tels
que l’OMS) ou nationaux définissent les cadres politiques et les objectifs à
atteindre, des manuels décrivant les interventions estimées efficaces sont
publiés, les organismes de synthèse de l’état de la science – le centre d’expertise
collective de l’INSERM, la Fondation Cochrane… – les ordonnent selon leur
efficacité, les agences de régulation des pratiques de soins telles que la HAS les
intègrent dans des recommandations de bonne pratique, ces recommandations
sont intégrées à la formation initiale et continue des acteurs de santé et à
l’évaluation de leurs pratiques professionnelles, les organismes tels que l’INPES
informent le grand public sur les catégories utilisées et les interventions
recommandées, et la boucle est bouclée, de la recherche à la pratique, et du
modèle au réel. Ce second temps est descendant : pour que la recherche puisse
(in)former la pratique, il faut que les mêmes catégories et les mêmes outils
soient utilisés d’un côté et de l’autre ; le réel est donc sommé de se conformer
aux catégories du modèle, et les acteurs d’employer fidèlement les méthodes
dont l’efficacité a été démontrée (Briffault, 2013). La fidélité est, dans cette
logique, un impératif. En effet, les fondements de l’efficacité supposée du
modèle sont statistiques, et non logiques ou causals. Nul ne sait vraiment
comment les interventions sont supposées produire leurs effets ; on sait
seulement qu’elles les produisent – si elles les produisent, nous avons vu ce
qu’il en était de beaucoup d’allégations. Pourtant, si l’on comprend les
mécanismes causals qui vont des prémisses aux conséquences, nul besoin de
statistiques pour prendre les décisions nécessaires à l’action, et moins encore de
programmes que l’on suit à la lettre sans savoir pourquoi.
——
Nous avons examiné dans cette première partie différents arguments,
essentiellement méthodologiques, destinés comme je le précisais en
introduction à ébranler, sur les mêmes bases scientifiques que celles qui ont
servi à les produire, les certitudes affirmées sur l’efficacité scientifiquement
démontrée sur lesquelles se fondent les choix des programmes d’intervention
en santé publique, dans le domaine de la santé mentale. La deuxième partie
poursuit cet ébranlement en examinant différents résultats empiriques obtenus
dans le champ de l’évaluation des psychothérapies, avant que la troisième ne
l’achève en adoptant une perspective socio-épistémologique sur la santé
mentale.
14. Rappelons que, par définition, toute mère a été primipare, et a donc fait partie de la
population « la plus à risque ».
15. Impact Factor de 6.5, deuxième revue la plus citée dans le champ de la psychologie
développementale, 13e en psychiatrie.
Deuxième partie
Analyse sociologique et épistémologique des logiques
d’intervention de santé publique en santé mentale
CHAPITRE 4

De l’efficacité des méthodes de changement


psychologique : analyse critique empirique

Comment déterminer ce qui est efficace


dans les psychothérapies ?
L’objectif de cette deuxième partie est d’examiner différents éléments
empiriques disponibles sur l’évaluation de l’efficacité des interventions en santé
mentale, permettant de compléter la critique méthodologique entreprise dans
la première partie. Nous examinerons plus particulièrement les travaux menés
en évaluation des psychothérapies. La masse de données disponibles dans ce
domaine est énorme. Même si des synthèses sont régulièrement publiées – par
exemple l’excellent Bergin and Garfield’s Handbook of psychotherapy and
behavior change, régulièrement révisé (Bergin & Garfield, 2003), ou le non
moins excellent What works for whom (Roth & Fonagy, 2005) –, il est très
difficile de faire sens des résultats disponibles sans un certain nombre de
principes capables d’aider à les organiser de façon signifiante, et à construire
une théorie explicative des mécanismes qui fondent l’efficacité (ou la non-
efficacité) des interventions pour lesquelles on dispose de résultats empiriques.
C’est un ensemble de principes de ce type que propose Bruce Wampold. Ce
chercheur américain doté d’une double formation en psychothérapie et en
statistiques s’intéresse depuis 20 ans aux facteurs impliqués dans l’efficacité des
psychothérapies et a publié de nombreux travaux sur la question. Il a en
particulier formalisé une méthode de comparaison de deux « méta-modèles »
en compétition pour rendre compte au mieux des résultats empiriques
disponibles sur l’efficacité des psychothérapies afin, selon une méthode
classique de « réfutation poppérienne », de chercher celui qui est davantage
réfuté que l’autre par ces résultats (Wampold, 2001).
Comment mesurer l’efficacité d’une intervention, et surtout déterminer les
éléments qui fondent cette efficacité ? Il est possible de raisonner à plusieurs
niveaux d’abstraction. Wampold en distingue quatre. Au niveau le plus bas se
trouvent les « techniques », actions et interventions concrètes du thérapeute
telles qu’elles sont déterminées par une théorie ou une méthode
psychothérapeutique particulière. On peut ainsi chercher à comparer l’efficacité
des techniques entre elles. Tenter cela, c’est déjà supposer qu’une efficacité peut
être liée spécifiquement et directement à une technique particulière.
On cherche donc à mettre en œuvre l’efficacité différentielle de facteurs
(techniques) spécifiques. Le problème est qu’à un si faible niveau d’abstraction,
tout peut être une « technique », et même les plus technicistes des
psychothérapeutes sont d’accord pour considérer que l’utilisation des
techniques doit tout de même être un peu organisée par une stratégie
thérapeutique. C’est d’ailleurs le niveau d’abstraction que Wampold appelle
niveau des stratégies.
Mais ces stratégies ne sont pas conçues au hasard et découlent d’un niveau
d’abstraction supérieur qui est celui de la théorie des troubles et de la
psychothérapie qui est utilisée, et que Wampold appelle niveau de l’approche
théorique. Ce niveau est relativement abstrait, mais il continue à poser des
problèmes pour l’évaluation de l’efficacité psychothérapeutique. Tout d’abord,
le nombre d’approches théoriques peut être élevé. Ensuite, il faut croiser les
théories avec les troubles. Si l’on souhaite tester l’efficacité d’une vingtaine
d’approches théoriques sur une centaine de troubles, on se trouve déjà
confrontés à 2000 croisements pour lesquels il faudra obtenir (critères EBM)
au moins deux ECR montrant un effet statistiquement significatif. Rappelons
que le chiffre de 100 est très inférieur au nombre de troubles contenus dans le
DSM, et que s’agissant des approches théoriques, le chiffre de 20 est une
plaisanterie : si l’on ne considère que les thérapies cognitives, les thérapies
comportementales, les cognitives et comportementales, les multiples sous-
sortes d’approches psychodynamiques (freudiennes, lacaniennes, kleiniennes,
jungienne, bionniennes, sullivanniennes, winiccotiennes), les diverses sous-
sortes de thérapies humanistes ou du mouvement du potentiel humain
(Gestalt, approche rogérienne, bioénergie, etc.), les thérapies systémiques et
leurs différentes versions, l’EMDR, l’hypnose… le chiffre de 20 est bien vite
atteint et dépassé. En fait, les chiffres couramment cités se situent aux alentours
de 250 pour les thérapies et 300 pour les troubles (Goldfried et Wolfe, 1996).
Ce constat n’a pas effrayé les chercheurs, puisque c’est précisément cette
démarche de croisements exhaustifs qui est principalement mise en œuvre
actuellement dans le champ de l’évaluation des psychothérapies, et que
conteste Wampold. Ce qu’il observe en examinant les différentes approches
théoriques disponibles, c’est qu’elles peuvent être rattachées à deux grandes
« méta-théories » : une méta-théorie qui instancie un « modèle médical » de la
psychothérapie, et une seconde qui adopte un « modèle contextuel ». Ce
niveau d’abstraction est très intéressant : s’il est en effet possible de réfuter l’une
des deux méta-théories, c’est toutes les approches qui en dépendent qui
seraient réfutées du même mouvement. Une démarche beaucoup plus efficiente
et productive que de tenter de réfuter / valider des milliers de croisements
troubles / approches théoriques, sans parler des dizaines de milliers de
croisements troubles / techniques. Comment Wampold définit-il donc les deux
méta-théories qu’il souhaite examiner ?
Le modèle médical, première grande méta-théorie, présente cinq grandes
caractéristiques. La première est que le patient est pensé sous l’angle d’un
problème spécifique qu’il a, et qui peut être circonscrit et isolé. Le modèle
médical ne requiert pas que le problème ciblé soit un diagnostic caractérisé de
trouble mental. Il suffit qu’un aspect isolable du client susceptible d’être
modifié soit identifiable par la théorie sous-tendant l’approche thérapeutique
utilisée. C’est le X de la phrase « le problème chez vous c’est X », X pouvant
être n’importe quel élément appartenant à la théorie de référence du
thérapeute : le manque d’estime personnelle, le déficit de compétences sociales,
le clivage du moi, le double lien à la mère, la forclusion du nom du père, la
phobie des araignées, l’image du père, l’œdipe non résolu, le déni, l’addiction,
l’absence de symbolisation, l’allèle court du transporteur de la sérotonine, etc.
La deuxième caractéristique est que l’on dispose d’une explication
psychologique du trouble, problème, plainte. C’est-à-dire qu’une relation
causale est supposée dans la théorie entre des mécanismes psychologiques et le
problème considéré, les mécanismes expliquant directement le problème
(comme le dysfonctionnement des cellules ß des îlots de Langerhans explique
le diabète de type I, ou comme le bacille de Koch explique la tuberculose).
Ainsi, selon l’obédience du thérapeute, la dépression est-elle due à des pensées
irrationnelles, à un manque de renforcement positif, à des problèmes
interpersonnels, à un deuil non fait, à un manque de sérotonine, à une neuro-
inflammation, etc. La troisième caractéristique est que la théorie
psychothérapeutique dispose d’une théorie des mécanismes de changement qui
précise comment les mécanismes problématiques sont susceptibles d’évoluer.
La quatrième caractéristique est que la théorie prescrit des ingrédients
thérapeutiques spécifiques à chacun desquels (c’est la cinquième
caractéristique) est associée une efficacité spécifique sur un mécanisme
spécifique, à l’instar de l’antibiotique qui agira sur la bactérie mais pas
immédiatement sur la fièvre, à la différence de l’antipyrétique qui agira sur la
fièvre mais pas sur la bactérie. Le modèle médical préconise l’évaluation par
essais contrôlés randomisés de traitement décrits le plus précisément possible
dans des manuels de protocoles, spécifiquement ciblés sur des troubles le plus
précisément définis possible, en utilisant des indicateurs de résultats spécifiques
distincts les uns des autres, dans le but de produire des listes de « traitements
empiriquement supportés » qui associent à chaque trouble un ensemble de
traitements qui ont fait la preuve de leur efficacité. Le modèle médical est celui
qui sous-tend les approches que nous avons examinées dans la première partie
de cet ouvrage, du programme PFI aux différentes logiques d’interventions
présentées dans les documents de l’INPES, de l’INSERM, de l’OMS. Ainsi, le
programme PFI correspond précisément aux critères énoncés.
Le modèle contextuel, que Wampold pose en challenger – en vérité plutôt un
outsider, tant la domination du modèle médical est grande dans le champ de
l’évaluation et de la santé publique – repose sur une axiomatique radicalement
différente. Tout d’abord, l’approche monothéorique issue du modèle médical a
rencontré différentes objections. L’approche dite « intégrative » a proposé de
rassembler plusieurs théories « primitives » dans des théories englobantes, plus
puissantes et intégrant les concepts, théories du changement et approches
thérapeutiques des théories intégrées. Les rapprochements les plus improbables
ont pu être proposés, mais la visée intégrative ne change rien au fait que si les
théories originales relèvent du modèle médical, le résultat de l’intégration en
relèvera tout autant. La psychothérapie intégrative n’est donc pas une
alternative au modèle médical. Une autre démarche, l’éclectisme technique, ne
cherche pas à produire de théories plus puissantes en en intégrant plusieurs,
mais utilise selon les besoins spécifiques du client et de la situation des
techniques qui relèvent a priori d’approches théoriques différentes. Moins
encore que l’approche intégrative, l’approche éclectique qui se fonde
directement sur l’hypothèse d’une efficacité spécifique des techniques peut être
une alternative au modèle médical, dans la mesure où elle convoque
simplement davantage de techniques et de théories qu’une approche
monothéorique, sans modifier la logique fondamentale qui veut que ce soit les
techniques elles-mêmes qui soient porteuses d’une efficacité. La troisième
contestation de la logique des facteurs spécifiques associés à une approche
thérapeutique unique s’est faite au nom des « facteurs communs », et aime
généralement citer le fameux « Dodo bird verdict » rendu par Rosenzweig dès
1936 parlant des différentes approches (déjà) en compétition à l’époque il
déclarait « tout le monde a gagné, et tout le monde a droit à un prix »16
(Rosenzweig, 1936). L’idée générale est que si la psychothérapie fonctionne, ce
que constatent les praticiens des diverses approches, ce n’est pas pour les
raisons qu’ils supposent (l’efficacité spécifique de leur approche), mais en raison
du fait que toutes les approches thérapeutiques partagent de nombreux facteurs
communs, et que ce sont ces facteurs qui sont efficaces. Trois types de facteurs
communs sont classiquement distingués : tout d’abord les facteurs
thérapeutiques communs aux différentes approches, par exemple le
développement de l’insight, la possibilité de vivre des expériences correctives,
l’opportunité d’exprimer des émotions, le développement d’un sentiment de
contrôle sur sa vie… Ensuite les facteurs interpersonnels et le contexte, par
exemple la relation thérapeutique, les facteurs sociaux extra-thérapeutiques…
Enfin les attentes du client, le degré d’engagement dans la thérapie… Stricto
sensu, l’approche des facteurs communs, bien qu’elle soit des trois que nous
venons de présenter la plus éloignée d’une logique de l’efficacité différentielle
de facteurs spécifiques à des approches thérapeutiques, continue de se situer
dans la logique du modèle médical, bien que cette approche soit parfois
comprise, voire conçue, comme une alternative à ce dernier. En effet, les
facteurs communs ont beau ne pas être spécifiques à une théorie, il n’en
demeure pas moins que c’est à chacun de ces facteurs communs qu’une
efficacité spécifique est supposée, ce qui est le propre du modèle médical tel que
nous l’avons défini.
Le modèle contextuel, comme son nom l’indique, met l’accent sur les facteurs
contextuels de la psychothérapie, c’est-à-dire sur ce dans quoi elle prend place,
et non pas seulement sur ce qui prend place dans ce contexte. Plus précisément,
c’est du contexte que ce qui y prend place prend son sens et son efficacité.
Parmi les différents modèles contextuels de psychothérapie qui ont été
proposés, c’est sur celui proposé en 1991 par Jérôme Frank dans Persuasion and
Healing (Frank & Frank, 1993) que Wampold s’appuie plus spécifiquement.
Selon la définition qu’il reprend, « le but de la psychothérapie est d’aider les
personnes à mieux se sentir et à mieux fonctionner en encourageant des
modifications appropriées dans leur système axiomatique propre, transformant
ainsi la signification des expériences en significations plus favorables ». Selon
Frank, les personnes viennent en psychothérapie davantage en raison de la
démoralisation (dépression, anxiété, etc.) qui résulte de leurs symptômes qu’en
raison de leurs symptômes eux-mêmes. C’est la raison pour laquelle il a
proposé que « la psychothérapie produit ses effets largement en traitant
directement la démoralisation et seulement indirectement en traitant les
symptômes visibles d’une psychopathologie sous-jacente ». Selon cette
approche, toutes les thérapies ont en commun différentes caractéristiques. Tout
d’abord, toute thérapie implique une relation de confiance, émotionnellement
chargée avec une personne aidante (le thérapeute). Ensuite, cette relation prend
place dans un contexte de soin, dans lequel le client se présente à un
professionnel dont il croit qu’il peut lui apporter de l’aide, et qu’il charge de
travailler pour lui. Ensuite, il existe une logique explicative, un schéma
conceptuel, un « mythe » qui fournit une explication plausible des symptômes
du patient et prescrit un rituel ou une procédure pour les faire disparaître.
Selon la position adoptée par Frank, cette logique explicative n’a pas besoin
d’être « vraie » (au sens des sciences expérimentales, c’est-à-dire reposant sur
des lois naturelles). Mais il est critique qu’elle soit, ou devienne, compatible
avec la vision du monde, les bases axiomatiques, les attitudes et les valeurs du
client. Enfin, il existe un rituel, une procédure, qui requiert la participation
active du client, qui se fonde sur la logique explicative des problèmes et dont le
client pense qu’il peut l’aider. Sur ces « procédures » sont décrits six éléments
qui sont communs à toutes les psychothérapies (Frank & Frank, 1993) : tout
d’abord, le thérapeute combat le sentiment d’aliénation du client en
développant une relation qui demeure sans être altérée même après que le
client ait laissé paraître ses sentiments de démoralisation, ce qui distingue cette
relation des relations sociales habituelles, dans lesquelles l’expression de
symptômes « psychopathologiques », ou a minima dérogeant aux attendus des
relations communes, a des conséquences sur le fonctionnement de la relation.
Ensuite, le thérapeute maintient les attentes du client envers la thérapie, en
faisant des liens entre les espoirs d’amélioration et le processus de la thérapie.
Troisièmement, le thérapeute permet de nouvelles situations d’apprentissage,
qu’elles soient internes aux séances, ou qu’elles émergent dans la vie du client
du fait de la thérapie ou de propositions du thérapeute. Quatrièmement, il y a
une activation émotionnelle qui résulte de la thérapie. Cinquièmement, le
thérapeute améliore le sentiment d’efficacité et de maîtrise de sa vie du client.
Sixièmement, le thérapeute fournit des opportunités de mettre en application
les nouveaux fonctionnements qui se développent au cours de la thérapie.
Bien évidemment, comme le rappelle Wampold (p. 25), les « techniques »
psychothérapiques ne sont pas tenues pour quantité négligeable dans ce
modèle. Ce qui différencie, sur ce point, le modèle contextuel du modèle
médical, c’est que pour ce dernier les techniques ont une efficacité « en tant
que telles », alors que pour le modèle contextuel c’est de leur cohérence avec le
cadre contextuel dans lequel elles prennent place, de la cohérence de celui-ci, et
du sens qui leur est attribué par le patient qu’elles tirent cette efficacité. En
conséquence, l’efficacité des techniques ne peut pas être évaluée
individuellement sans prendre en considération la « totalité signifiante » dans
laquelle leur utilisation prend place. Une position cohérente avec celle de
Rosenzweig qui écrivait en 1936 « dans la mesure où le thérapeute a une
personnalité fonctionnelle, qu’il adhère de façon cohérente à un système
conceptuel qu’il maîtrise et qui, d’une manière ou d’une autre, est adapté à la
personnalité problématique du patient, alors la méthode précise que le
thérapeute utilise est de relativement peu d’importance […] au regard de la
cohérence formelle selon laquelle le thérapeute adhère à la doctrine employée,
car c’est grâce à cette cohérence que le patient reçoit un schéma à partir duquel
il peut atteindre un certain type et un certain degré d’organisation de sa
personnalité » (cité par Wampold, p. 26).
Les deux modèles en compétition étant ainsi définis, comment les départager ?
C’est ici que la démarche de Wampold prend tout son intérêt. Il présente
(p. 35) les prédictions que l’on peut tirer des deux modèles sur six dimensions,
et propose d’examiner les données empiriques pour déterminer les prédictions
qui sont réfutées par les résultats empiriques disponibles.

Tableau 11. Hypothèses différentielles pour le modèle médical et le modèle contextuel (p. 35).

Hypothèse Prédiction du modèle médical Prédiction du modèle contextuel


Efficacité La psychothérapie est efficace. La psychothérapie est efficace.
absolue
Efficacité Il y a des méthodes plus efficaces que L’efficacité est identique quelle que soit
relative d’autres. la méthode.

Facteurs Il a des effets spécifiques de facteurs Il n’y a pas d’effets spécifiques de facteurs
spécifiques spécifiques. spécifiques.

Facteurs Les effets des facteurs communs sont Les effets des facteurs communs sont
communs inférieurs à ceux des facteurs spécifiques. supérieurs à ceux des facteurs spécifiques.

Allégeance L’adhérence est critique, l’allégeance sans L’adhérence est sans importance, mais
et adhérence importance. l’allégeance est critique.

Effets du Les effets du traitement sont supérieurs Les effets du traitement sont inférieurs à
thérapeute aux effets du thérapeute. ceux du thérapeute.

Ces prédictions étant posées, la question est de savoir comment déterminer


lesquelles de ces prédictions sont davantage soutenues ou réfutées par les
données disponibles dans la littérature scientifique. Pour cela, plutôt que de
mobiliser des critiques extra-paradigmatiques, comme nous le ferons dans la
troisième partie, Wampold se fonde uniquement sur l’analyse de résultats
empiriques disponibles dans le champ de l’évaluation des psychothérapies, et
en particulier sur les méta-analyses d’essais contrôlés randomisés, telles que
celles que nous avons examinées. C’est toute l’originalité de sa démarche, que
de pousser le modèle médical à ses limites internes, en s’appuyant sur la
principale méthodologie d’évaluation qu’il a mise en place, celle des essais
contrôlés randomisés. À l’instar de l’analyse que nous avons développée dans la
première partie du présent ouvrage, l’analyse de Wampold ne nécessite aucun
postulat éthique ou anthropologique a priori pour être menée à bien. La seule
analyse empirique suffit à contester le modèle de l’intérieur.

L’efficacité absolue des psychothérapies


Considérons tout d’abord la question de l’efficacité absolue : la psychothérapie
est-elle efficace, et si oui, dans quelle mesure ? Wampold s’intéresse tout
d’abord à la première méta-analyse de l’efficacité des psychothérapies (Smith
& Glass, 1977). Elle portait sur 833 tailles d’effets différentes (concernant des
variables aussi différentes que l’estime de soi, l’anxiété, les résultats scolaires, le
stress physiologique, etc.) issues de 375 études contre groupe contrôle,
regroupant environ 25 000 patients, dont l’âge moyen était de 22 ans. La durée
moyenne des thérapies évaluées était de 17 heures, et les thérapeutes avaient en
moyenne trois ans et demi d’expérience. Les résultats ont été mesurés environ
quatre mois après la fin de la thérapie. Les évaluations portent donc sur des
thérapies de faible durée (17 heures, soit quatre mois à raison d’une séance par
semaine), menées par des thérapeutes relativement peu expérimentés. La taille
d’effet moyenne obtenue, définie comme la différence des moyennes divisée
par l’écart-type du groupe contrôle, était de 0.68.
L’écart-type des tailles d’effet était de 0.67, et seuls 12 % étaient négatives.
L’amplitude des tailles d’effet était différente selon le type de résultat observé.
Ainsi, la psychothérapie était beaucoup plus efficace sur l’anxiété (0.97) et
l’estime de soi (0.9) que sur l’adaptation (0.56) ou les résultats scolaires (0.31).
La conclusion laconique de Smith et Glass est que ces résultats démontrent les
effets bénéfiques du counseling et de la psychothérapie. Ces résultats, qui
venaient contester les conclusions de Eysenck, alors très influent, selon
lesquelles la psychothérapie était inefficace (Eysenck, 1952), ont été l’objet de
multiples contre-expertises (plusieurs dizaines de méta-analyses), aux termes
desquelles il ressort que la taille d’effet moyenne de la psychothérapie sur les
différentes variables étudiées dans les études se situe entre 0.75 et 0.85, 0.80
étant l’approximation couramment retenue.
Cela signifie que les résultats moyens des personnes ayant suivi une
psychothérapie sont meilleurs que ceux de 79 % des clients non traités, et que
la psychothérapie explique 14 % de la variance des résultats. Selon les termes
de Wampold, « la psychothérapie est remarquablement efficace » (p. 71).
Cependant, bien qu’intéressant en lui-même, ce résultat n’est pas discriminant
pour la comparaison des deux méta-modèles, puisqu’ils prédisent chacun ce
résultat.

L’efficacité relative des psychothérapies


L’efficacité relative des méthodes est la première prédiction sur laquelle les deux
modèles diffèrent. S’il est possible de mettre en évidence des effets différents,
cela serait plutôt en faveur du modèle médical. Dans le cas contraire, ce serait
plutôt le modèle contextuel qui serait soutenu. La méta-analyse de Smith et
Glass aborde également cette question de l’efficacité relative en examinant les
effets de dix types de thérapie. Les résultats semblent a priori soutenir le
modèle médical, puisque les tailles d’effets sont très différentes selon les
méthodes (de 0.26 à 0.91). En vérité, de nombreuses variables confondantes
autres que la seule méthode sont susceptibles d’expliquer les différences
observées : la durée des thérapies, le type de problème ciblé, les variables
évaluées… Les résultats bruts ne doivent donc pas être interprétés prima facie.
Afin de réduire la variabilité due à ces variables, les auteurs ont regroupé les
méthodes en deux grands groupes : les méthodes comportementalistes d’une
part (implosion, désensibilisation systématique, thérapie comportementale
skinnérienne) et les méthodes non-comportementalistes d’autre part
(psychothérapie psychanalytique, adlérienne, rogérienne, émotive-rationnelle,
et analyse transactionnelle). Le résultat est que les 200 évaluations des thérapies
comportementales ont produit une taille d’effet moyenne de 0.8 (écart-
type = 0.3) contre les groupes contrôle, tandis que les 170 évaluations des
méthodes non-comportementales ont produit une taille d’effet moyenne de 0.6
(écart-type = 0.4).
Ici encore, il existe une différence, en faveur des méthodes comportementales.
Cette différence est cependant faible (d = 0.2, soit 1 % de variance due à la
différence de méthodes) et surtout, pour Smith et Glass, elle est explicable par
différentes variables confondantes. D’une part, les thérapies du groupe
comportementaliste ont été évaluées en moyenne deux mois après la fin de la
thérapie, contre cinq mois pour celles du groupe non-comportementaliste. Par
ailleurs, la réactivité des mesures était supérieure pour les thérapies
comportementales, et donc également la susceptibilité aux biais, en particulier
de subjectivité. Pour les auteurs, cela suggère que les résultats sont biaisés en
faveur des thérapies comportementales. Mais dans quelle mesure ? Pour le
déterminer, ont été étudiées les 120 tailles d’effets des études trois bras dans
lesquelles une méthode comportementale et une méthode non
comportementale ont été simultanément comparées à un groupe contrôle non
traité, et pour lesquelles les paramètres de durée, expérience des thérapeutes,
nature des problèmes traités, types de mesures de résultats, délai de mesure
post-thérapie, etc. sont donc identiques. Dans ces conditions, la différence
initiale de taille d’effet de 0.2 se trouve réduite à 0.07 : aucune différence n’est
donc plus observable entre les deux groupes de méthodes.
L’utilisation d’un modèle de régression multiple associant la taille d’effet à
différentes variables pertinentes, pour chaque méthode de thérapie, permet
d’estimer la taille d’effet qui serait obtenue par chaque méthode dans
différentes conditions. Les coefficients de régression obtenus diffèrent
sensiblement selon les méthodes. Cela signifie qu’une thérapie pourra être
supérieure à une autre dans une situation, et inférieure dans une autre
situation. En effet, les équations de régression multiple permettent d’estimer la
taille d’effet attendue pour chacune des trois thérapies pour un client donné
variant en fonction des caractéristiques de ce client, c’est-à-dire des valeurs des
variables décrivant ce client auxquelles sont associés les coefficients obtenus par
l’analyse de régression multiple.
Ainsi par exemple, dans une situation où des sujets d’une intelligence élevée
d’une vingtaine d’années seraient traités pour des phobies simples par un
thérapeute ayant deux ans d’expérience et évalués immédiatement après la
thérapie, les tailles d’effets obtenues seraient de 0.919 pour les thérapies
psychodynamiques, de 1.049 pour la désensibilisation systématique, et de
1.119 pour les thérapies comportementales. Mais dans la situation que Smith
et Glass présente comme celle du « névrosé typique d’intelligence moyenne vu
en clinique de santé mentale pour une thérapie individuelle avec un thérapeute
ayant cinq ans d’expérience en moyenne », la thérapie comportementale serait
plus efficace (0.847) que la thérapie psychodynamique (0.643), elle-même
supérieure à la désensibilisation systématique (0.516). L’efficacité, absolue
comme relative, des thérapies évaluées dépend donc, même en utilisant les
modèles statistiques conçus pour discriminer les thérapies entre elles, des
caractéristiques spécifiques de chaque personne, c’est-à-dire du croisement
entre une personne et une approche thérapeutique, et non de l’approche
thérapeutique seule.
La conclusion des auteurs est que « malgré les volumes consacrés aux
différences théoriques entre les différentes écoles de psychothérapie, les résultats
des recherches démontrent des différences négligeables dans les effets produits
par différents types de thérapie ». En conséquence de quoi, ajoutent-ils, « les
jugements de supériorité d’une approche sur une autre et tout ce que cela
implique en termes de traitements et de politiques de formation sont
injustifiés ».
Vingt ans plus tard, une nouvelle méta-analyse (Wampold et al., 1997) utilise
les méthodes plus sophistiquées dont nous disposons aujourd’hui. Seules les
études comparant directement les méthodes entre elles ont été incluses ; les
méthodes n’ont pas été regroupées en catégories plus générales comme dans la
méta-analyse de Smith et Glass ; seules les psychothérapies « de bonne foi17 »
(bona fide) ont été considérées. Les articles ont été sélectionnés dans les six
principales revues publiant des études d’efficacité des psychothérapies,
entre 1970 et 1995. 277 comparaisons entre thérapies ont été obtenues. Les
résultats montrent que la taille d’effet moyenne des comparaisons entre
méthodes se situe entre 0 et 0.2. Cette taille d’effet correspond à la moitié de
celle de la comparaison entre un placebo et une absence de traitement, qui
s’élève à 0.42. Une méga-analyse de Grissom en 1996 (32 méta-analyses méta-
analysées) obtient un résultat similaire (d = 0.23). Pour Wampold, cela
confirme que la limite supérieure de la taille d’effet des comparaisons entre
méthodes est de 0.2. Cela signifie que le type de méthode utilisée n’explique au
mieux que 1 % de la variance utilisée, c’est-à-dire 7 % des 14 % de variabilité
des résultats qu’explique la psychothérapie.
Ce résultat, obtenu en agrégeant l’ensemble des études indépendamment des
mesures de résultats utilisées, est également confirmé dans des cas plus
spécifiques, en comparant les résultats de thérapies ciblant les mêmes
problèmes. Wampold présente ainsi (p. 101-118) les cas de la dépression, de
l’anxiété, et des thérapies conjugales. S’agissant de la dépression, il mobilise en
particulier les résultats du Treatment of Depression Collaborative Research
Program du NIMH, l’une des plus importantes études sur la dépression jamais
conduite. Cette étude multicentrique méthodologiquement solide a comparé
en particulier la thérapie cognitivo-comportementale (huit thérapeutes) et la
thérapie interpersonnelle (dix thérapeutes). Les thérapeutes étaient
spécifiquement formés, supervisés, et allégeant au traitement. Les résultats
étaient évalués sur l’échelle de Hamilton (HRSD), l’échelle de Beck (BDI), la
Global Assessment Scale (GAS), la Symptom Check-List de Hopkins (HSCL-90
T). Trois sous-groupes de patients étaient distingués : les 84 personnes ayant
poursuivi leur thérapie jusqu’au bout (G84) ; les 105 personnes ayant suivi la
thérapie durant au moins 3,5 semaines (G105) ; les 239 personnes initialement
incluses dans l’étude (G239). Tous les participants présentaient un épisode
dépressif majeur.
Globalement, les scores post-traitement sont plutôt bons pour les scores de
dépression. Ainsi les scores HRSD se situent aux alentours de 7, soit donc une
quasi-absence de symptômes dépressifs. On observe un effet que l’on peut
considérer en première lecture comme un effet dose – plus la thérapie est
longue, meilleurs sont les résultats. Le score et la dispersion sont d’autant plus
faibles – c’est-à-dire que les scores sont de plus en plus resserrés autour de
niveaux de dépression de plus en plus faibles – que le nombre de séances a été
élevé.
Pour autant, les scores de fonctionnement (GAS) demeurent relativement bas,
aux alentours de 70, ce qui correspond selon la description du DSM-IV à
« quelques symptômes légers (par exemple humeur dépressive et insomnie
légère) ou une certaine difficulté dans le fonctionnement social, professionnel
ou scolaire, mais fonctionne assez bien de façon générale et entretient plusieurs
relations interpersonnelles positives ». En termes de différences entre méthodes,
les écarts sont, selon les termes de Wampold « minuscules quel que soit le
point de vue » (p. 107) ; ils expliquent, pour G84, 0,4 % de la variance. En
considérant comme « guéris » les sujets présentant un score HDRS < 7, la
proportion de guérison en TCC est de 51 % contre 55 % en thérapie
interpersonnelle. Si on utilise l’échelle de Beck avec un score < 9, les scores
sont respectivement de 65 et 70. On constate avec cette comparaison des deux
échelles, l’importance des différences de résultats mesurés sur une même
situation, entre une échelle de Beck auto-administrée qui privilégie plutôt les
symptômes cognitifs, et une échelle de Hamilton hétéro-administrée qui
privilégie plutôt les symptômes somatiques.
Les conclusions de Wampold pour l’anxiété sont similaires, sur la base du
même type de raisonnement méta-analytique. Plus intéressante est son analyse
des psychothérapies conjugales (pp. 115-117), dans laquelle il utilise des
arguments similaires à ceux que nous avons déjà présentés, relatifs à la
probabilité d’obtenir par hasard un résultat positif lorsqu’on effectue de
multiples comparaisons, ce qui est le cas lorsque l’on compare des méthodes
dans de nombreuses études. Si l’on dispose par exemple de m méthodes, il y a
c = m(m−1)/2 comparaisons à effectuer. Or, la probabilité d’obtenir par hasard
un résultat positif avec c tests (probabilité d’au moins une erreur de type I de
niveau α) est égale à 1−(1−α) c. Avec dix comparaisons (cinq méthodes), la
probabilité d’obtenir un résultat positif par hasard est donc de 40 %.
C’est exactement ce type de situation que Wampold décrit comme étant celle
que l’on retrouve dans une méta-analyse des effets des psychothérapies
conjugales (Shadish et al., 1993). Six méthodes y sont comparées, générant 15
comparaisons, parmi lesquelles trois sont statistiquement significatives
(α = 0.05), avec des tailles d’effet de 0.25 (thérapie comportementale contre
thérapie éclectique), 0.37 (thérapie comportementale contre « thérapies
diverses ») et 0.55 (thérapie éclectique contre « thérapies diverses »). Or, la
probabilité d’obtenir par hasard un résultat positif dans cette situation est de
0.54, si les comparaisons sont indépendantes, ce qu’elles ne sont pas. Avec cette
caractéristique supplémentaire, la probabilité d’un résultat positif au hasard est
comprise entre 0.54 et 0.75 (Wampold, p. 117). Au moins un des trois
résultats positifs est donc probablement dû au hasard. Dans la mesure où les
autres effets observés ne sont pas significatifs, il est clair qu’aucune cohérence
ne se dégage des résultats. Cette absence de cohérence est d’autant plus claire si
l’on remarque que la relation d’ordre des tailles d’effets obtenues n’est même
pas transitive (Wampold, p. 117-118). Si on prend la thérapie
comportementale comme base, l’ordre d’efficacité est comportemental,
éclectique, divers. Les thérapies comportementales sont à 0.37 des thérapies
diverses, et à 0.25 des thérapies éclectiques. Les thérapies éclectiques seraient
donc à 0.12 des thérapies diverses. Mais si on prend les thérapies éclectiques
comme base, elles sont à 0.25 en dessous des thérapies comportementales, et à
0.55 en dessous des thérapies comportementales, les thérapies diverses seraient
donc à 0.30 au-dessus des thérapies comportementales, et l’ordre serait alors
thérapies diverses, thérapies comportementales, thérapies éclectiques. Selon la
base de référence, les thérapies « diverses » sont donc les plus efficaces ou les
moins efficaces !
Pour Wampold, la conclusion de l’échec à mettre en évidence des différences
d’efficacité entre méthodes de thérapies confirme le « Dodo bird verdict », plus
exactement ne l’infirme pas, et il doit donc être considéré vrai jusqu’à ce que
des résultats contraires viennent éventuellement l’infirmer. Ces résultats laissent
donc supposer que ce ne sont pas des ingrédients spécifiques qui seraient
responsables des bénéfices de la psychothérapie : c’est le premier élément en
défaveur du modèle médical de la psychothérapie.
Le problème est qu’il s’agit seulement d’une supposition. En effectuant les
comparaisons au niveau des méthodes, on ne peut pas disposer de preuves
directes au niveau des ingrédients spécifiques. Il se pourrait par exemple que
des ingrédients spécifiques soient efficaces, mais que cette efficacité soit
masquée par l’inefficacité d’autres qui leur sont associés dans la même
méthode. Il faut donc tester spécifiquement les effets spécifiques au niveau des
ingrédients thérapeutiques eux-mêmes. Comme le précise Wampold (pp. 119-
120), quatre types de dispositifs méthodologiques peuvent être utilisés pour
cela. Dans une étude par composants, on ajoute ou on supprime des
ingrédients spécifiques qui sont supposés (dans la théorie de la méthode
thérapeutique qui les promeut par exemple) être responsables de l’efficacité18.
Dans une deuxième stratégie, on compare les thérapies contenant les
ingrédients spécifiques à une thérapie « placebo » supposée contenir tous les
facteurs communs et aucun facteur spécifique. Dans une troisième stratégie, on
examine les médiateurs qui se situent entre les ingrédients spécifiques et les
résultats : si un ingrédient thérapeutique a une efficacité spécifique, on doit
pouvoir la retrouver dans un mécanisme identifiable. Enfin, on peut examiner
les interactions entre les caractéristiques des patients qui ont une importance
théorique et les différentes méthodes : on devrait alors trouver une meilleure
efficacité des approches dont les ingrédients spécifiques correspondent mieux
aux caractéristiques des patients. Qu’en est-il ?
La revue méta-analytique des études par composants proposée par Wampold
(pp. 123-126) porte sur 27 études ayant étudié des techniques spécifiques aussi
diverses que le mouvement des yeux (dans l’EMDR), les techniques de
relaxation, l’exposition in vivo (en thérapie comportementale), l’entraînement à
l’expression des émotions (dans les thérapies conjugales comportementales), le
soutien social (dans l’entraînement aux aptitudes parentales), etc. La taille
d’effet globale obtenue était de −0.2 (suggérant donc un effet délétère de l’ajout
de la technique !) mais statistiquement non significatif. Par ailleurs, les tailles
d’effet individuelles étaient homogènes, suggérant qu’aucune variable
modératrice n’affectait les processus étudiés. Selon cette analyse, ajouter ou
supprimer un composant supposé efficace n’a donc pas d’effet sur les résultats
observés.
Si la méthode par comparaison directe de l’efficacité des ingrédients spécifiques
ne pose pas de problèmes méthodologiques fondamentaux, tel n’est pas le cas
de la comparaison contre placebo. En effet, concevoir une psychothérapie
placebo – c’est-à-dire véritablement inactive – pour contrôler tous les facteurs
non spécifiques est non seulement impossible du point de vue pratique, mais
c’est surtout logiquement impossible : toute thérapie placebo impliquant un
thérapeute formé contiendra nécessairement nombre des facteurs communs des
psychothérapies – mais pas tous –, qui ont en eux-mêmes une efficacité, sans
que l’on sache nécessairement préciser laquelle. La thérapie « placebo » d’une
étude comparative ne peut donc fournir une base stable à partir de laquelle
l’efficacité d’ingrédients spécifiques puisse être mesurée de façon standardisée.
Cependant, dans la mesure où la thérapie « placebo » a une efficacité en raison
des facteurs communs qu’elle contient, l’efficacité observée des thérapies
« placebo » fournit une estimation plancher de la proportion de la taille d’effet
due aux facteurs communs, à l’exception notable de l’allégeance du thérapeute
envers le traitement, puisque celui-ci suppose généralement que la thérapie
placebo qu’il délivre est moins efficace que la thérapie expérimentale testée
dans l’autre groupe. Une revue d’une quinzaine de méta-analyses parvient aux
résultats suivants (Wampold, p. 134) : placebo vs. pas de traitement : 0.42 ;
psychothérapie vs. placebo : 0.48 ; psychothérapie vs. pas de traitement : 0.82.
Le « placebo » (c’est-à-dire les quelques facteurs communs qu’il contient)
correspond donc à une taille d’effet de 0.4, soit 4 % de la variance des résultats,
soit un score quatre fois supérieur à celui des différences entre méthodes (1 %
de variance expliquée). En d’autres termes, les facteurs généraux sont bien plus
prédictifs des résultats que les facteurs spécifiques.
Une variable m est supposée intervenir comme médiatrice entre une variable
indépendante x et une variable dépendante y si (a) x et y sont corrélées ; (b) x
et m sont corrélées ; et (c) lorsque l’on prend m en considération, la corrélation
entre x et y diminue de façon significative ou disparaît. La position de
Wampold est qu’aucune variable médiatrice, ou processus médiateur, n’a pu
être mise en évidence de façon convaincante dans le champ des
psychothérapies. Son raisonnement est le suivant. Il examine le cas du
mécanisme théorique postulé par les thérapies cognitives dans la dépression, à
savoir les cognitions négatives (à propos de soi, des autres et de l’avenir). Une
méta-analyse a effectivement clairement mis en évidence des liens entre
thérapies cognitives et modification des cognitions négatives. Comme la
théorie suppose par ailleurs un lien entre cognitions négatives et dépression, les
cognitions négatives pourraient ainsi être établies comme variables médiatrices
entre la thérapie et la dépression, sur lesquelles des techniques spécifiques des
TCC agiraient. Mais il existe au moins trois autres explications alternatives
possibles (p. 137-141). On observe tout d’abord que des thérapies qui ne
ciblent en rien les cognitions négatives – des thérapies comportementales pures
par exemple – ont pourtant des effets similaires sur ces cognitions à des
thérapies cognitives qui les prennent explicitement pour cible. C’est même le
cas de thérapies pharmacologiques. Ceci va à l’encontre de l’hypothèse de la
spécificité du mécanisme d’intervention cognitiviste sur la variable médiatrice
supposée. On peut ensuite supposer que les cognitions négatives diminuent
certes, mais que cette diminution est l’effet, et non la cause, de la diminution
de la dépression. C’est ce que suggère une étude sur la rapidité d’action de la
thérapie cognitive (p. 138). La majorité de l’amélioration symptomatique
survient durant les trois premières semaines de la thérapie, 80 % de
l’amélioration finale étant typiquement obtenue lors de la quatrième semaine,
et ce alors même que selon le manuel de thérapie cognitive utilisé dans l’étude
présentée, le travail sur les cognitions négatives n’était entrepris qu’à partir de la
quatrième semaine. L’hypothèse est donc que la modification cognitive est
conséquente à la diminution de la dépression (due à d’autres mécanismes), et
non pas antécédente. Une hypothèse renforcée par le résultat d’une autre étude
montrant que dépression et cognitions ne sont corrélées que lorsque la mesure
de la dépression utilisée est issue de l’échelle de Beck (BDI) échelle qui, nous
l’avons vu, fait la part belle aux cognitions, à la différence de l’échelle de
Hamilton. Une dernière explication alternative est qu’il existe des influences
réciproques entre différents mécanismes, qui tous influencent la dépression.
Cette hypothèse est également supportée par les résultats obtenus par l’étude
TDCRP du NIMH déjà citée. Dans cette étude qui comparait dans un
dispositif méthodologique uniforme TCC, thérapies interpersonnelles et
imipramine, trois instruments de mesure ont été spécifiquement utilisés pour
mesurer les effets des trois traitements sur les variables médiatrices postulées
par les trois théories sous-jacentes. Il était ainsi attendu que les TCC aient
davantage d’effets visibles sur la Dysfunctional Attitude Scale (qui mesure les
cognitions dysfonctionnelles), les thérapies interpersonnelles sur la Social
Adjustment Scale (qui mesure les fonctionnements sociaux, centraux dans les
thérapies interpersonnelles), et l’imipramine plus d’effets sur les symptômes
neurovégétatifs et somatiques, mesurés par l’instrument Schedule for Affective
Disorders and Schizophrenia. Il n’en a rien été. Aucune des thérapies n’a produit
d’effet plus marqué qu’une autre sur les mesures en relation avec ses hypothèses
théoriques. Les résultats des études de médiations sont donc eux aussi selon
Wampold en défaveur du modèle médical, qui postule une efficacité
d’ingrédients spécifiques agissant sur des variables médiatrices précises.
L’une des critiques classiquement formulée par les partisans du modèle médical
à l’encontre des résultats qui viennent d’être présentés est que l’uniformité des
résultats observés pourrait être due au manque de subtilité des catégories
diagnostiques utilisées, qui regrouperaient sous une même étiquette des
étiologies radicalement différentes qui justifieraient chacune d’une approche
thérapeutique spécifique, qui n’est jamais mise en place puisque les patients ne
sont pas distingués selon ces voies étiopathogéniques (par exemple, tous les
patients dépressifs sont regroupés comme « épisode dépressif majeur »). Si c’est
le cas, on devrait trouver des effets spécifiques plus importants lorsque des
thérapies ciblant le mécanisme étiopathogénique spécifique du patient sont
utilisées. Ici encore, la revue de littérature (pp. 141-147) n’identifie rien de tel.
Par exemple, même le degré « d’endogénéicité » de la dépression n’est pas
prédictif de l’efficacité d’une thérapie cognitive ou d’une thérapie
pharmacologique.
Pour Wampold, les études utilisant les dispositifs méthodologiques qui
viennent d’être présentés ont échoué à apporter des preuves de l’existence
d’actions spécifiques d’ingrédients spécifiques sur des paramètres spécifiques, ce
qui contredit le modèle médical.

Les facteurs communs des psychothérapies


Si ce ne sont pas les ingrédients spécifiques à différentes méthodes
psychothérapiques qui sont responsables de leur efficacité empiriquement
observée, ce seraient donc des facteurs communs aux différentes méthodes. Est-
il possible de soutenir cette hypothèse, et donc le modèle contextuel, à partir
des résultats empiriques disponibles ? Nous avons vu plus haut que la taille
d’effet des thérapies « placebo » fournissait un plancher de l’efficacité de
facteurs communs (0.4). Peut-on être plus précis et mettre en évidence certains
facteurs communs plus particulièrement impliqués ? C’est ce que tente de faire
Wampold en examinant l’influence de l’alliance thérapeutique, de l’allégeance
du thérapeute, de l’adhérence au manuel, et du thérapeute lui-même.
L’alliance thérapeutique
L’alliance thérapeutique est caractérisée par l’existence de liens chargés d’affects
avec le thérapeute ; la motivation du client et sa capacité à travailler de façon
collaborative avec le thérapeute ; la réponse empathique du thérapeute, et son
engagement dans la thérapie ; l’accord du client et du thérapeute sur les buts et
les moyens de la thérapie. Deux méta-analyses présentées par Wampold
(pp. 151-154) montrent qu’il existe une association nette entre l’alliance
thérapeutique et les résultats, indépendamment de l’échelle de mesure des
résultats utilisée : la part de variance expliquée se situe entre 5 et 7 %, soit cinq
à sept fois plus que l’efficacité des facteurs spécifiques, un résultat nettement en
faveur du modèle contextuel.
L’allégeance
Concernant l’allégeance – degré selon lequel le thérapeute croit que le
traitement qu’il délivre est efficace – et l’adhérence – degré selon lequel le
thérapeute utilise les prescriptions du manuel, et seulement celles-ci pour
mener la thérapie –, les prédictions du modèle médical et du modèle
contextuel diffèrent. Pour le modèle contextuel, l’allégeance est un élément
essentiel de l’efficacité. Pour le modèle médical au contraire, elle n’est pas
centrale : ce sont les techniques qui sont efficaces en elles-mêmes, que le
thérapeute « y croit » ou pas. Quant à l’adhérence, elle est essentielle pour le
modèle médical : si ce sont les techniques, reposant sur la théorie sous-jacente,
qui ont une efficacité spécifique, le degré d’adhérence au manuel est prédictif
de l’efficacité. Pour le modèle contextuel, les choses sont un peu plus
complexes. Ce qui est important dans ce modèle, c’est la cohérence du cadre
théorique. Le fait de suivre un manuel peut y contribuer, mais l’efficacité
observée serait alors due à l’amélioration de la cohérence, et à l’allégeance du
thérapeute au manuel, et non aux techniques spécifiques du manuel et à
l’adhérence du thérapeute. Les différentes méta-analyses passées en revue par
Wampold (pp. 165-168) montrent que la taille d’effet de l’allégeance se
situerait aux alentours de 0.6, un résultat clairement en faveur du modèle
contextuel. Concernant l’adhérence, les études passées en revue par Wampold
(pp. 172-183) montrent également des résultats en faveur du modèle
contextuel. Ainsi, une méta-analyse de Robinson et al. en 1990 montre que les
tailles d’effet de 14 études utilisant des manuels (0.82) ne diffèrent en rien de
celles de 17 études n’en utilisant pas (0.84). D’autres méta-analyses portant sur
des études menées dans des contextes réels, et non dans des dispositifs
scientifiques expérimentaux, montrent que les résultats observés ne sont pas
moins bons dans les situations réelles, dans lesquelles l’usage contrôlé et strict
de manuels est rare. L’étude TDCRP du NIMH déjà citée a tenté de mettre en
évidence une relation entre l’adhérence aux manuels et les résultats. Dans ce
dispositif, l’adhérence aux manuels était associée à une proportion négligeable
de la variabilité des résultats. Au contraire même, bien que la compétence du
thérapeute n’apparaissait pas comme reliée aux résultats dans les analyses
initiales, elle le devenait lorsque l’adhérence était contrôlée, ce qui signifie que
l’adhérence peut avoir un effet délétère sur les résultats, en particulier en
empêchant l’exercice libre et créatif de la compétence. Des résultats similaires
sont obtenus dans une étude sur les psychothérapies psychodynamiques en
temps limité (Henry, Schacht, Strupp, Butler, & Binder, 1993 ; Henry, Strupp,
Butler, Schacht, & Binder, 1993). La formation des thérapeutes au manuel,
relativement intensive (50 séances hebdomadaires de 2 heures), et l’adhérence
mesurée, a eu pour conséquence une détérioration de différents aspects
interpersonnels et interactionnels des psychothérapies. Les auteurs en donnent
l’analyse suivante, joliment formulée : « bien que “le traitement ait été
administré”, la thérapie n’a pas toujours eu lieu » (cité par Wampold, p. 178).
Ils en concluent que « les tentatives de modifier ou de dicter le comportement
des thérapeutes peuvent altérer d’autres variables thérapeutiques de façon
inattendue et même contre-productive ».
Le thérapeute
Le dernier facteur commun examiné par Wampold est le thérapeute lui-même.
Les prédictions du modèle contextuel et du modèle médical sur le thérapeute
sont différentes, bien que tous deux s’accordent sur l’importance du
thérapeute. Le modèle médical accorde une importante certaine au thérapeute,
mais c’est en tant qu’il a plus ou moins les compétences requises pour mettre
en œuvre le protocole thérapeutique. À l’instar de la chirurgie, c’est bien la
technique qui est efficace, mais sa mise en œuvre est opérateur-dépendante.
Pour le modèle contextuel, le thérapeute est en lui-même, et pas seulement en
tant que vecteur d’un protocole thérapeutique, une variable critique du
processus thérapeutique. Le modèle médical prévoit donc que la variabilité des
résultats des traitements est supérieure à celle de la variabilité des thérapeutes,
tandis que le modèle contextuel prévoit que c’est la variabilité des résultats des
thérapeutes qui est supérieure à celle des traitements.
La détermination des effets attribuables au thérapeute est méthodologiquement
difficile. Deux principaux dispositifs expérimentaux sont envisageables. Dans le
design « imbriqué », chaque thérapeute de l’étude est associé aléatoirement à
une et une seule méthode testée et prend en charge plusieurs patients –
aléatoirement affectés – avec cette méthode. Dans le design « croisé », chaque
thérapeute prend en charge plusieurs patients – aléatoirement affectés – dans
chacune des méthodes testées (dont la condition placebo s’il y en a une).
L’avantage du design imbriqué est que – en affectant les thérapeutes à leur
méthode de référence – on peut comparer des traitements délivrés par des
thérapeutes dont le niveau d’allégeance est élevé, ce qui permet de contrôler ce
paramètre. L’inconvénient est qu’il y a confusion des thérapeutes et des
méthodes, ce qui ne permet pas de bien discriminer les effets de l’un et de
l’autre. Il se peut par exemple que tous les thérapeutes mettant en œuvre la
méthode A soient meilleurs que ceux mettant en œuvre la méthode B. Dans ce
cas, la supériorité de A est due aux thérapeutes et pas à la méthode, mais il est
difficile de le savoir. Dans le design croisé, il est important de s’assurer que les
thérapeutes sont identiquement formés, compétents et allégeant aux différentes
méthodes qu’ils mettent en œuvre. Si les thérapeutes sont incompétents ou
négligents dans l’une des méthodes qu’ils utilisent, les moins bons résultats de
cette méthode devront être attribués au thérapeute et pas à la méthode, mais il
faut disposer des moyens de le contrôler. Ces précautions méthodologiques
étant posées, les études permettant une estimation de la taille d’effet du
thérapeute fournissent une estimation aux alentours de 0.6, soit environ 9 %
de la variance des résultats expliquée par le thérapeute (sur un total de 14 %
expliqué par la psychothérapie, soit plus de 60 %). D’après Wampold (p. 200),
si la variabilité spécifiquement due aux thérapeutes est prise en considération
dans les comparaisons d’efficacité entre méthodes, la taille d’effet plafond de
0.2 représentant l’efficacité spécifique d’une méthode est en fait réduite à zéro :
elle est totalement expliquée par la variabilité due aux thérapeutes. Le
psychothérapeute est donc une variable critique pour le succès d’une
psychothérapie. Pour Wampold « l’essence de la psychothérapie est incorporée
dans le thérapeute » (p. 202).
En conclusion, les résultats présentés par Wampold soutiennent le modèle
contextuel au détriment du modèle médical. La psychothérapie est efficace
(d = 0.8 vs. pas de traitement), comme le prédisent les deux modèles. Ce
résultat est bien établi. Les prédictions du modèle médical selon lesquelles on
pourrait montrer une efficacité différentielle d’ingrédients spécifiques ne sont
pas soutenues par les données disponibles. Au contraire, beaucoup d’éléments
montrent que les différentes approches sont d’une efficacité similaire, et les
études de composants, de médiateurs, ou de modérateurs ne parviennent pas
à montrer de connexions convaincantes entre les hypothèses théoriques des
modèles et les résultats observables. Globalement, moins de 1 % de la
variabilité des résultats est due aux ingrédients spécifiques, et ce pourcentage
tend vers zéro si la variabilité due aux thérapeutes est prise en considération.
Symétriquement, les résultats montrent que les facteurs communs et en
particulier l’alliance thérapeutique, l’allégeance, et le thérapeute lui-même
expliquent en fait l’essentiel de la variabilité des résultats imputables à la
psychothérapie.

Les conséquences de l’adoption d’un modèle contextuel


De cette réfutation du modèle médical, Wampold tire diverses conséquences.
Tout d’abord, il s’agit de mettre un frein à l’utilisation systématique et
obligatoire des essais contrôlés randomisés pour évaluer l’efficacité des
psychothérapies. La méthodologie des ECR s’inscrit directement dans la
logique du modèle médical, dont la pertinence en psychothérapie est remise en
cause. Dans ces circonstances, ajouter de nouveaux ECR aux centaines déjà
disponibles n’apportera aucune information supplémentaire utile. Pour
Wampold, il ne s’agit même plus de la recherche d’une aiguille dans une botte
de foin (la découverte finale de LA technique enfin efficace), mais bien
davantage de la quête absurde d’un mirage : celui de l’efficacité d’une
technique spécifique lors même que tout démontre que l’efficace des
psychothérapies n’est pas là. Ensuite, plutôt que de dépenser de l’énergie à
chercher la technique miracle, il s’agirait de concentrer les efforts pour
comprendre ce qui demeure incompris et recèle un véritable gisement de
progrès : les mécanismes par lesquels les facteurs généraux agissent, et surtout
de quoi sont faits les 87 % de variance non expliqués par la psychothérapie,
92 % si l’on y intègre les 22 % de part de variance inexpliqués au sein de la
variance expliquée par la psychothérapie. C’est de cette compréhension qu’il
serait possible de déduire les manières pertinentes de former les
psychothérapeutes dans le but de maximiser leur efficacité. En effet, la
formation des psychothérapeutes ne peut pas, si le modèle médical est réfuté,
se limiter à l’acquisition des divers manuels de traitement disponibles pour les
différents troubles nosographiés. Le cœur des manuels, qui dérivent d’une
logique médicale de la psychothérapie, est constitué d’ingrédients spécifiques
standardisés pour des troubles eux-mêmes standardisés : « les manuels dirigent
l’attention vers les terres stériles, loin des zones fertiles » (p. 212). Tenter
frénétiquement de standardiser thérapeutes et traitements, alors même que
l’analyse des données empiriques montre que c’est précisément leur adaptation
aux spécificités du patient qui contribue le plus à l’efficacité des
psychothérapies, serait une absurdité. En conséquence, il faut également mettre
un terme aux listes de « traitements empiriquement supportés », dont la
logique d’évaluation fait que seuls les traitements qui peuvent se comparer
entre eux sur une logique de facteurs spécifiques peuvent prétendre y entrer.
Ceci a pour conséquence que cela limite la compétition aux 0 à 1 % de
variance expliquée par les facteurs spécifiques, au lieu d’ouvrir vers les zones
inexplorées où se trouve la quasi-totalité de la variance inexpliquée. Pour le dire
vite, la logique des traitements empiriquement supportés pourrait avoir pour
effet malencontreux de promouvoir les traitements les plus efficaces… au sein
des plus inefficaces.
Le soutien au modèle contextuel ne doit pas être interprété comme une
caution à n’importe quelle approche psychothérapeutique, ni comme un rejet
des techniques. Le point central du modèle contextuel est que les techniques
ne sont pas efficaces en elles-mêmes, mais seulement en tant que composants
signifiants d’un contexte thérapeutique reposant sur une théorie cohérente des
problèmes du patient, compatible avec ses caractéristiques et sa vision du
problème. Comme l’écrit Jérôme Frank, « ma position n’est pas que la
technique n’a aucun lien avec les résultats. Ce que j’affirme, c’est plutôt que le
succès de toutes les techniques dépend de l’alliance ressentie par le patient avec
un thérapeute réel ou symbolique. Cette position implique que, idéalement, le
thérapeute devrait sélectionner pour chaque patient la thérapie qui s’accorde,
ou peut être mise en accord, avec les caractéristiques personnelles du patient et
sa vision du problème. Cela implique aussi que le thérapeute devrait chercher à
se former dans autant de méthodes qu’il trouve convaincantes et avec lesquelles
il se sent en accord. » (cité par Wampold, ibid., p. 217). Les techniques ne sont
pas efficaces par elles-mêmes et « l’adhérence servile à un protocole théorique et
la promotion frénétique d’une unique approche théorique sont en
contradiction flagrante avec les données scientifiques » (idem). En
conséquence, les thérapies mises en œuvre par les thérapeutes ne devraient pas
se limiter à celles issues d’une liste fermée de traitements empiriquement
supportés, ledit support empirique étant issu des procédures méthodologiques
mêmes qui montrent que le modèle médical qui les promeut n’est pas soutenu
par les faits, et le libre choix – du thérapeute et de la méthode – des personnes
cherchant à suivre une psychothérapie devrait être garanti, puisqu’il participe
de l’efficacité de la démarche entreprise. Un point important que développe
Wampold est que les conséquences du modèle contextuel sont en contradiction
avec les orientations du système de soin en tant que ce dernier intègre la
psychothérapie dans une logique issue du modèle médical. L’assimilation de la
psychothérapie dans une culture médicale a pour conséquence que les
approches psychothérapeutiques promues seront des psychothérapies courtes,
protocolisées dans des manuels, choisies parmi des listes de traitements
empiriquement supportés, appliqués à des troubles standardisés décrits dans
des listes nosographiques mondialisées, qui seront conduites par des
thérapeutes formés selon la logique médicale, accrédités par des agences
gouvernementales, des assurances et des mutuelles.
C’est pour ce type de raisons que Wampold préconise de repenser la relation de
la psychothérapie au système de soin établi. Pour lui, en tant que champ social
et disciplinaire, la psychothérapie n’a qu’une relation ténue avec la médecine et
le système de santé établi : même si, écrit-il, les origines de la psychothérapie
peuvent être trouvées en médecine, et si la cure par la parole a longtemps été
pratiquée par les psychiatres, il estime qu’elle se trouve aujourd’hui
principalement dans le domaine des psychologues, des travailleurs sociaux, et
des counselors. Pour autant, cela n’empêche en rien que des pressions s’exercent
en permanence sur le champ de la psychothérapie pour qu’elle se rapproche de
la médecine. La question du remboursement des soins est l’un des éléments
majeurs de cette pression, en particulier parce que la psychothérapie est un soin
dont le coût relativement élevé en réduit l’accès aux personnes qui n’ont pas les
moyens de le financer sur leurs fonds personnels.
Pour Wampold, « la psychothérapie est une culture minoritaire contrainte de
coexister avec une culture dominante dont les valeurs sont différentes ». Parmi
les stratégies de survie classiquement adoptées par les cultures dominées se
trouve la tentative / tentation de l’assimilation, c’est-à-dire de l’adoption des
codes et des valeurs de la culture dominante, dans le but de pouvoir y
fonctionner, voire simplement y survivre. C’est typiquement ce qui se passe
avec la question de l’efficacité telle qu’elle est posée par celle du remboursement
des psychothérapies : pour pouvoir continuer à exister – en tout cas dans
l’espace financier, tel qu’il est massivement organisé par la question du
remboursement –, la psychothérapie doit s’intégrer dans un fonctionnement
analogue à celui de la médecine. C’est ce qu’on observe dans la
recommandation de la puissante American Psychological Association (APA) citée
par Wampold : « si la psychologie clinique veut survivre en cet âge d’or de la
psychiatrie biologique, l’APA doit agir pour mettre en évidence les forces de ce
que nous avons à offrir – une variété de psychothérapies à l’efficacité prouvée »,
psychothérapies pour lesquelles les psychothérapeutes obtiendraient donc un
droit de prescription, droit de prescription qui représente la quintessence de la
légitimité dans le système de valeurs de la culture dominante.
Pour Wampold, c’est une stratégie perdante. La psychothérapie ne peut pas
jouer dans la même cour que la médecine, dont la puissance est largement
assise sur celle de l’industrie pharmaceutique qui lui fournit ses moyens
thérapeutiques. Adhérer à un modèle médical de la psychothérapie, dans le but
de la promouvoir, c’est adopter volontairement les règles d’un jeu qui ne peut
être gagné. L’assimilation dans la culture médicale changerait la nature de la
psychothérapie, en la limitant, nous l’avons vu, à des approches à court terme,
décrites dans des manuels standardisés, choisies parmi des listes des traitements
autorisés par les assurances et les autorités de régulation, et ciblant des
symptômes et des troubles définis dans des nosographies standardisées. C’en
serait fini, selon Wampold, de « la psychothérapie comme moyen de donner
sens à sa vie, de faire face à ses difficultés psychologiques et de les dépasser,
d’opérer des changements fondamentaux dans sa vie ».
D’où l’intérêt d’une seconde stratégie, celle de la rupture et de la séparation. Il
y aurait alors deux systèmes parallèles de soin et de prise en charge financière :
l’un pour la santé physique, l’autre pour la santé mentale. Les patients putatifs
disposeraient ainsi d’un véritable choix entre deux logiques différentes
pleinement assumées : ceux qui verraient un intérêt à une prise en charge
pharmacologique de leur dépression pourraient avoir recours au système
médical et à sa logique, tandis que ceux qui chercheraient la solution de leurs
problèmes dans les modifications fondamentales du fonctionnement psychique
et de l’être au monde que permet la psychothérapie pourraient le faire dans le
cadre d’un système de santé mentale qui serait scientifiquement fondé, bien
que pas sur le modèle médical. La déplorable alternative obligatoire, entre une
psychothérapie à l’efficacité amputée du fait de sa médicalisation et une
psychothérapie relevant davantage – dans le champ couramment et très
improprement appelé « développement personnel » – du spiritisme et de la
magie que d’une démarche de changement efficace serait ainsi évitée aux
patients. Mais cette deuxième stratégie présente pour Wampold le double
inconvénient de séparer nettement la santé « mentale » et la santé « physique »,
alors même que les relations entre les deux sont empiriquement avérées et de
constituer la psychothérapie en « culture minoritaire résistant à l’oppression »,
position dans laquelle ses chances de pouvoir mettre en place les ressources
nécessaires à son bon fonctionnement en tant que champ sont à peu près aussi
faibles que dans l’intégration au sein du modèle médical. À ces deux solutions
insatisfaisantes, Wampold ajoute la solution « multiculturelle », dans laquelle la
culture du modèle médical et celle du modèle contextuel fonctionneraient
conjointement côte à côte, chaque groupe « maintenant et développant une
identité groupale, développant une acceptation et une tolérance des autres
groupes, s’engageant dans des contacts et des partages avec eux, apprenant le
langage des autres », une stratégie que « les forces dominantes en
psychothérapie et en médecine ne semblent pas désireuses de poursuivre ».
C’est peu de le dire, et Wampold lui-même y croit apparemment si peu qu’il
ne consacre à cette piste que deux paragraphes (p. 229).
16. S’inspirant en cela de l’oiseau Dodo de l’Alice au pays des merveilles de Lewis Carroll qui à
un moment arbitraire d’une course sans queue ni tête destinée à ce que tout le monde se
sèche après un bain malencontreux, l’interrompt et déclare que « tout le monde a gagné et a
droit à un prix ». En effet, tout le monde est sec.
17. La thérapie était menée par un thérapeute ayant au moins un Master ; une relation avait
été développée avec le patient ; la thérapie était adaptée au patient et ajustée à ses
caractéristiques ; le problème considéré devait être un problème pour lequel les gens
consultent classiquement en psychothérapie ; la thérapie menée respectait au moins deux des
quatre critères suivants : une approche reconnue de psychothérapie était utilisée, une
description de la thérapie était contenue dans l’article et la description faisait référence à des
mécanismes psychologiques, un manuel était utilisé pour guider la thérapie, les éléments
actifs de la thérapie étaient identifiés et associés à des références.
18. Cette démarche était déjà celle de la célèbre étude d’Elton Mayo dans les années 1930, qui
cherchait à examiner le rôle de différents facteurs d’ambiance dans la productivité d’ouvrières
dans une usine, et qui n’ayant pu réussir à mettre en évidence aucun effet de ce type, conclut à
un effet général du contexte en particulier au fait de participer à une étude, de créer des liens
avec les autres participants à l’étude, etc. Effet devenu célèbre sous le nom d’effet Hawthorne,
du nom de l’usine ou se déroulait l’étude.
CHAPITRE 5

De l’efficacité des méthodes de changement


psychologique : analyse critique socio-
épistémologique

N ous avons examiné dans la première partie de cet ouvrage les travaux et les
actions de la santé publique dans le domaine de la santé mentale, en
particulier en prévention et promotion, d’un point de vue empirique, de façon
« intra-paradigmatique », en utilisant les méthodes mêmes qu’utilise la santé
publique pour fonder ses propositions. Dans le chapitre précédent nous avons
examiné les conséquences qui pouvaient être tirées des données empiriques
disponibles sur l’évaluation des psychothérapies, en particulier en termes de
réfutation de la pertinence du modèle médical dans ce domaine. Dans ce
dernier chapitre, nous examinons le même objet d’un point de vue
épistémologique et sociologique, en discutant les fondements axiomatiques du
dispositif.

Malaise dans l’évaluation de la santé mentale


Les analyses des deux premières parties montrent l’ampleur des difficultés
rencontrées lorsqu’il est question d’évaluer l’efficacité d’interventions
psychologiques. Dans un article qu’il intitule « Malaise dans l’évaluation de la
santé mentale » (Ehrenberg, 2006) Alain Ehrenberg examine ces mêmes
difficultés en s’appuyant sur une analyse critique d’un rapport d’expertise
collective de l’INSERM (INSERM, 2005) sur le trouble des conduites qui
souleva une importante polémique ; il formule cinq remarques portant un
regard sociologique et épistémologique sur (1) les distinctions faits / valeurs et
leur pertinence ; (2) la trivialité des résultats obtenus ; (3) le déni du contexte ;
(4) le réductionnisme factoriel des causes et des actions ; (5) les confusions de
la biomédecine et de la santé publique.
La première remarque concerne la classique distinction entre les faits (qui
seraient objectifs et objets de science) et les valeurs (qui seraient subjectives et à
éliminer de toute démarche scientifique, ce que ferait donc l’expertise collective
qui adopterait un point de vue objectif neutre). Cette séparation est totalement
légitime dans les sciences de la nature. On peut parfaitement séparer le fait que
la Terre tourne autour du Soleil, et le fait que beaucoup ont cru ou croient
encore que c’est l’inverse. Le Soleil et la Terre se moquent de ce que pensent
Galilée ou Madame Michu de comment ils tournent ; les faits astronomiques
ne contiennent rien d’humain. À l’inverse, les sociétés humaines ont longtemps
pu fonctionner sur ces « croyances », dont l’absence de fondements empiriques
n’empêchait en rien qu’elles aient des effets sociaux ; les faits humains ne
contenaient rien d’astronomique. Le problème est que dans le cas du rapport
INSERM, il est impossible de séparer les faits des valeurs, parce que ce sont
précisément des « faits de valeurs » qui sont l’objet de ce rapport. En effet, le
trouble des conduites est caractérisé par « une atteinte aux droits d’autrui et
aux normes sociales », et les différents items qui s’y rattachent (la culpabilité et
son absence, les émotions et leurs déficits, l’empathie et sa carence, avoir du
remords ou pas, etc.) ne deviennent des « faits » que parce qu’ils s’insèrent dans
l’architecture de la morale ordinaire qui organise nos mœurs, « l’esprit
objectif » auquel s’articulent les esprits subjectifs, y compris ceux dont le
(dys)fonctionnement semble les amener à s’en désarticuler ; les « valeurs » ne
relèvent pas en leurs fondements d’une opinion subjective, mais d’une
organisation sociologiquement hiérarchisée.
La deuxième remarque est que les résultats du rapport sont, sous couvert de
scientificité, généralement vagues et triviaux. Faut-il vraiment en effet avoir
colligé des milliers d’articles expérimentaux pour conclure qu’il vaut mieux
pour son avenir avoir eu des parents bienveillants et aimants, fermes mais pas
rigides, cohérents mais pas psychorigides, intelligents et ouverts, cultivés et
joueurs, plutôt riches et socialement insérés – bref « suffisamment bons »
comme le disait Winnicott – que des Thénardier bornés, désocialisés, alcoolisés
à longueur de journée et qui ne connaissent d’autre méthode éducative que les
cris, les privations et le fouet ? Sans doute pas, et par ailleurs (faire) croire que
des Thénardier vont changer de méthodes parce qu’une méta-analyse aura
conclu que la relation entre leur comportement et les troubles mentaux de
l’enfant a un odd-ratio supérieur à 1, ou parce qu’ils auront suivi 14 séances
d’éducation parentale skinnérienne, c’est confondre la connaissance des effets
d’un comportement et les raisons de son utilisation. Lucien Bovet, l’expert
psychiatre de l’OMS maladroitement appelé à la rescousse par Richard
Tremblay (cf. supra), écrivait en 1950 qu’« il conviendra seulement de se
rappeler que les simples conseils donnés aux parents, s’ils ne sont pas inutiles,
ne sont que rarement suffisants. Des motifs affectifs empêchent notamment
certaines mères19 de modeler leur comportement selon des conseils dont elles
reconnaissent pourtant, mais sur un plan purement intellectuel, qu’ils sont
judicieux. Il est donc nécessaire que les conseillers éducatifs, les psychologues,
les psychothérapeutes descendent jusqu’à la couche des problèmes affectifs
personnels des parents et qu’ils y opèrent, par un moyen ou par un autre, les
déplacements et les réajustements sans lesquels tous les conseils qu’ils pourront
donner resteront à la surface, à moins qu’ils ne créent, chez une mère qui
ressentirait à la fois combien les avis qu’on lui donne sont justes et combien
elle est incapable de les suivre, une angoisse parfois plus nocive encore que les
erreurs qu’on voulait essayer de corriger » (Bovet, 1950, p. 118). S’il suffisait de
savoir que c’est mauvais pour sa santé ou celle de ses enfants d’être dépressif,
anxieux, obsessionnel, paranoïaque, narcissique, borderline, psychotique…
pour se débarrasser du problème, le monde serait plus simple ! Quant au
vague, la propension systématique à affirmer qu’il y a toujours un peu de tout
dans tout, tout problème étant « génético-bio-psycho-environnementalo-
social », et à aligner les uns à côté des autres les facteurs de risque ou de
protection avec leurs odd-ratio, contribue-t-elle vraiment à faire avancer le
débat et à donner des arguments pour des actions pertinentes et priorisables ?
On peut en douter, sauf à supposer que ce qui constitue l’humain est à ce point
peu organisé, doté de sens et d’intentionnalité que le fait d’ajouter un peu de
n’importe quoi au récipient fera toujours monter le niveau du contenu, quoi
qu’il advienne. Il n’y a bien évidemment pas dans cette critique d’Alain
Ehrenberg, qui pourrait irriter certains scientifiques qui y verraient le retour du
primat de l’opinion sur les faits expérimentaux, de rejet global de la démarche
scientifique. L’argument, sur lequel nous reviendrons, que soutient Alain
Ehrenberg en s’appuyant sur des positions développées par le philosophe
américain Stanley Cavell, est que dans le domaine de la sociologie comme de la
psychologie, certaines démarches scientifiques nous en diraient non pas plus,
mais moins que ce que nous savons déjà, et que nous pouvons utiliser si nous
ne sommes pas contraints de nous limiter aux connaissances ainsi
scientifiquement non pas validées, mais limitées : « On a quelques fois
l’impression que la psychologie (universitaire), à la différence d’autres pratiques
que nous appelons sciences, nous en dit moins que ce que nous savons déjà.
Comme si ce qui la distinguait de la physique, ou même de l’économie par
exemple, n’était pas le manque de précision ou de capacité de prédiction, mais
le fait de ne pas savoir faire usage de ce que nous savons déjà sur les sujets dont
elle traite » (Stanley Cavell, Les Voix de la raison, cité par Ehrenberg, 2008a).
La troisième remarque concerne le total vide contextuel, sociologique,
économique, juridique, géographique, historique… dans lequel se trouvent
placés les résultats du rapport. S’il est ainsi postulé dans le rapport, sous forme
d’hypothèse, qu’« il existe en France quelques interventions ponctuelles visant à
prévenir les comportements violents chez les enfants et les adolescents », cette
postulation fait d’un même mouvement table rase de tout ce qui existe en
France comme étant d’une pertinence et d’un intérêt nul pour la prévention
desdits comportements violents. Ainsi, les 300 intersecteurs de
pédopsychiatrie, les CMPP, les services socio-éducatifs, les PMI, les réseaux
médico-sociaux, les écoles, la PJJ… sont-ils supposés soit ne rien faire, soit être
totalement inefficaces. Inefficacité dont le postulat se construit sur l’inexistence
d’Essais contrôlés randomisés dans la littérature scientifique internationale
pour ces dispositifs, dont l’intérêt supposé dans le domaine concerné découle
d’un axiome des sciences naturelles expérimentales, selon lequel toute
démonstration d’un fait scientifique doit se faire à environnement stable et
constant pour prouver son universalité. Enlever purement et simplement le
contexte est la meilleure manière de ne pas avoir à rendre compte de ses effets,
et de pouvoir prétendre qu’un programme de formation aux bonnes pratiques
parentales développé il y a trente ans en Iowa du sud (le programme PFI par
exemple) a une valeur universelle. Or ceci, qui s’applique parfaitement aux
sciences naturelles, ne correspond « à rien de ce qui peut se passer dans la vie
sociale, où tout ce qui arrive est incompréhensible sans insertion dans un
contexte relationnel plus vaste qui donne sens aux événements ». Cette
incompréhension de ce qu’est un fait social a pour conséquence qu’aucune
comparaison sensée de ce que qui se fait en France et à l’étranger ne peut être
faite, puisque toute comparaison de ce type nécessiterait de replacer ledit fait
social dans la place qu’il occupe et les articulations qu’il développe dans les
deux contextes. Les comparaisons qui sont effectuées se bornent donc dans
l’immense majorité des cas à considérer que tout dispositif empiriquement
évalué, quels que soient la réalité de l’efficacité observée et le contenu de
l’intervention, est supérieur à tout autre dispositif non évalué. À la limite, on
proposerait presque de reconcevoir tout le dispositif français sur la base du
dispositif requis par les interventions empiriquement évaluées.
La quatrième remarque porte sur le « factoriologisme » des logiques de santé
publique, inspirées de l’épidémiologie, qui décompose le réel en facteurs de
risque / de protection disposant chacun d’un odd-ratio, que l’on peut prendre
comme cible individuelle d’une intervention spécifique visant à le faire baisser
(facteur de risque) ou augmenter (facteur de protection). C’est la même
logique que celle du modèle médical que nous avons examiné à propos des
psychothérapies. L’hypothèse que ces facteurs puissent faire partie d’une totalité
organisée – qu’elle soit psychique ou sociale –, au sein de laquelle ils prennent
sens, et que ce soit en tant que partie d’un tout qu’ils doivent être ciblés par les
interventions, n’est pas présente dans cette logique factoriologique. Ainsi en
est-il du compartimentage des troubles observable dans le rapport (trouble des
conduites, TDAH, TOP, troubles de l’humeur, troubles anxieux, etc.) dont les
relations mutuelles se limitent à des prévalences de comorbidités et de quelques
facteurs communs, ce qui interdit de penser ces troubles dans leur dimension
signifiante globale pour les enfants qui les présentent, et de faire par exemple
l’hypothèse que « ces enfants et ces adolescents expriment de manière bruyante
ou silencieuse une souffrance psychique assez vive pour faire l’objet sinon d’un
diagnostic de pathologie psychiatrique, du moins d’une grave détresse
psychologique qui s’exprime dans le comportement, et cela d’autant plus que
l’investissement de ces enfants dans le langage est faible ». Selon cette
hypothèse, les pathologies de l’agir seraient alors « une conduite auto-
thérapeutique ou de défense de la part de ces enfants qui vise à lutter contre
l’effondrement dépressif », que cet effondrement dépressif soit dû à des motifs
internes ou à des motifs externes. Ce point de vue est préférentiellement celui
des approches psychodynamiques dans lesquelles le symptôme n’est pas,
comme souvent dans les logiques cognitivo-comportementales et
neurobiologiques, la simple expression d’un déficit qui se traduit par
l’incapacité visible dans le symptôme (incapacité à se concentrer, à contrôler
son impulsivité, à gérer sa motricité, etc.), mais doit être interprété en tant qu’il
a un sens spécifique pour le sujet qui l’exprime, à la place qu’il occupe dans
l’organisation dynamique de l’esprit de ce sujet particulier, qui peut le
mobiliser pour des raisons « défensives » (au sens des mécanismes de défense)
davantage que pour des raisons déficitaires. Un déficit qui n’est pas
nécessairement compris comme l’effet d’une lésion des substrats biologiques,
mais aussi comme écart par rapport à la norme : « Il est courant en
psychopathologie cognitive de parler de “déficit” pour signifier l’absence d’un
traitement cognitif attendu dans une tâche expérimentale donnée, sans, pour
cela, s’inscrire dans un “modèle déficitaire” de la pathologie. Mais […] il s’agit
plutôt d’un modèle déficitaire élargi qu’il faut comprendre non en regard d’une
lésion, mais d’un écart par rapport à la norme : il s’agit moins de traiter la
personnalité du malade mental que de lui fournir les compétences
fonctionnelles particulières qui lui manquent du fait de sa pathologie »
(Ehrenberg, 2008a). Le problème ici n’est pas de trancher sur la pertinence de
l’une ou l’autre des approches. Il est que la démarche adoptée par le rapport de
l’INSERM, et plus généralement par la santé publique en santé mentale, ne
permet de poser les questions qu’en termes de déficits, portant sur des facteurs
et des troubles rendus arbitrairement indépendants les uns des autres. En
conséquence de quoi, « au lieu d’une approche globale sur les problèmes d’une
enfance en danger, dont une partie deviendra une adolescence et une
population adultes dangereuses, on a un entassement de facteurs, génétiques,
neurobiologiques, d’attachement, d’environnement… dont on ne voit ni les
liens entre eux, ni la ligne directrice ». Additionner ainsi des facteurs
hétérogènes, et appartenant à des champs incommensurables, « sans disposer
du principe de leur articulation d’ensemble » c’est postuler que les méthodes
analytico-réductionnistes de la science expérimentale, pertinentes dans les
sciences physiques et (peut-être) biologiques, le sont aussi pour l’analyse des
entités sociales. Or, si « les entités sociales ont autant de cohérence que les
entités biologiques, cette cohérence n’est pas de même nature ». Pour autant,
alors même qu’« en sociologie comme en biologie, les méthodes doivent être
adaptées à l’objet que l’on observe et sur lequel on prétend agir », aucune
réflexion de ce type n’est menée dans ce rapport de l’INSERM, pas plus qu’en
santé publique s’agissant des questions de santé mentale.
Si aucune réflexion n’est menée c’est en particulier, selon Alain Ehrenberg,
parce que les experts impliqués dans le rapport confondent point de vue
médical et point de vue de santé publique. Le trouble des conduites, parce que
c’est un problème qui n’est pas uniquement (physio ou psycho)pathologique,
mais qui s’intègre dans un contexte social, environnemental et relationnel
souvent problématique, n’a pas de solution uniquement thérapeutique. Ce
contexte inclut des questions qui sont loin d’être strictement biologico-
médicales telles que « les problèmes de l’offre de soins et de l’accessibilité, de la
continuité du suivi, du partenariat entre clinique, école, justice, travail, social,
qui sont les problèmes essentiels pour réduire les risques de psychopathie et de
délinquance à l’adolescence et qui sont d’abord des problèmes de politiques
publiques, de lutte contre les inégalités sociales » (Ehrenberg, 2006). Même si
cet entremêlement de problèmes est fréquemment mentionné dans les travaux
du type de ceux que mobilise le rapport, et dans le rapport lui-même, « il n’en
est tiré aucune conséquence, parce que l’outillage conceptuel permettant d’en
faire autre chose qu’un facteur de risque supplémentaire fait défaut ».
L’INSERM a, selon le terme particulièrement provoquant choisi par Ehrenberg
« une approche métaphysique des problèmes », approche qui limite ses
investigations au ciel des idées, en l’occurrence au ciel des facteurs de risque et
des évaluations d’efficacité des interventions, et prétend les appliquer sans autre
forme de procès au réel qui entretient avec la chimère ainsi construite un
rapport plus que ténu. Ce d’autant que le réel dont il est question n’est pas
qu’un réel physiopathologique, dans lequel les démarches de la biomédecine
ont une capacité de compréhension et d’intervention bien supérieure à celles
qu’elles ont dans les « maladies qui atteignent l’imagination, les émotions et les
sentiments moraux, font souffrir l’être humain en invalidant sa vie relationnelle
(méfiance excessive qui déclenche la violence, culpabilité ou honte
pathologiques qui engendrent l’inhibition et l’isolement…) ». Si l’INSERM,
écrit Alain Ehrenberg, a pour rôle de contribuer à des débats de société, ce qui
est le rôle de toute institution en santé publique, il lui faut « faire un effort
sociologique pour comprendre ce qu’est “une société”, ce qu’est une entité
sociale, en quoi elle se différencie d’une entité naturelle ou biologique ». Et,
ajoute-t-il, « ce n’est pas une mince affaire, car il lui faudra réformer sa
démarche médicale ».

Qu’est-ce qu’une entité sociale ?


Ce qu’est une entité sociale, et en quoi elle se distingue d’une entité naturelle
ou biologique, c’est ce qu’Ehrenberg tente de préciser dans un article intitulé

É
« Épistémologie, sociologie, santé publique : tentative de clarification »
(Ehrenberg, 2007a), toujours en s’appuyant sur les problématiques associées
aux troubles du comportement. Reconsidéré d’un point de vue sociologique, et
pas seulement biologique ou psychiatrique, le trouble du comportement se
caractérise par une incapacité à entrer dans le type de socialité aujourd’hui
requise, caractérisée par la normativité de l’autonomie et non plus par
l’obéissance disciplinaire, c’est-à-dire par « l’incapacité à être autonome et à
avoir des relations stables avec autrui ». Ce sont les évolutions de la socialité,
d’une normativité de l’obéissance disciplinaire à une normativité de
l’autonomie qui lui devient supérieure en valeur qui, d’une part, constituent
progressivement les troubles des conduites en problèmes de santé publique, et
d’autre part rendent plus probables, et donc possiblement plus fréquents, les
dysfonctionnements individuels sur cet axe. Cela signifie, selon ce point de
vue, que le trouble des conduites est davantage un problème qui dérive de la
difficulté des individus à trouver des solutions satisfaisantes leur permettant de
s’articuler à cette socialité qu’un problème de gènes ou de dysfonctionnement
cérébral initial. Difficulté que le type de socialité requise aujourd’hui rend
redoutable. L’insécurité personnelle y devient en effet un problème majeur, car
elle agit comme révélateur des difficultés de structuration de soi, qui n’étaient
pas un problème dans les sociétés disciplinaires, mais qui le devienne dans les
sociétés de l’autonomie car elles rendent impossible de décider et d’agir par soi-
même de façon appropriée, comme cela est désormais normativement requis.
Dans l’actuelle socialité de l’autonomie généralisée, la responsabilité
individuelle de sa propre vie n’est pas un élément qui viendrait se surajouter à la
vie sociale. Elle en est la toile de fond. C’est pourquoi le processus de civilisation
des mœurs, pour reprendre le titre du célèbre ouvrage de Norbert Elias, consiste
désormais « en schémas permettant, obligeant ou poussant chacun à être
l’agent de son propre changement ». Pour cela, trois grands modes d’institution
d’individus idéalement autonomes en toutes circonstances sont mobilisés et
valorisés : « la transformation permanente de soi, le développement de
compétences sociales ou relationnelles et l’accompagnement des trajectoires de
vie ». Modes d’institution que l’on retrouve dans les programmes d’éducation
parentales que nous avons examinés en première partie, comme dans les
psychothérapies que nous avons examinées en deuxième partie, et qui
concernent chaque individu, qu’il soit « schizophrène, adolescent en difficulté
ou guichetier de banque ».
C’est sur fond de cette analyse sociologique qu’Alain Ehrenberg aborde les
problèmes épistémologiques que pose le mode d’approche de la santé mentale de
la santé publique, en s’appuyant sur les travaux de Marcel Mauss et son
concept de « fait social total » : « c’est […] la totalité biologique que rencontre
la sociologie. Ce qu’elle observe partout et toujours, c’est non pas l’homme
divisé en compartiments psychologiques, ou même en compartiments
sociologiques, c’est l’homme tout entier » (Mauss, 1927, p. 213). Remplaçons,
comme A. Ehrenberg le suggère, « compartiments par facteurs –
psychologique, biologique, sociologique », et cette phrase de Mauss du début
du xxe siècle devient très actuelle dans ce qu’elle suggère de problématique dans
l’approche factoriologique de la santé publique et de l’épidémiologie, en
particulier psychiatrique. En appeler à considérer « l’homme tout entier » n’est
pas ici l’expression d’une éthique spécifique, d’une position anthropologique a
priori. Il s’agit d’une démarche méthodologique qui prend appui sur la nature
des entités sociales. Selon la définition d’Ehrenberg, « une entité peut être
appelée “sociale” lorsque faits et valeurs (morales) sont enchevêtrées, lorsqu’elle
est un fait de valeur ». Ainsi des valuations des sentiments moraux utilisées
pour caractériser les troubles des conduites. Considérons dans le trouble des
conduites les symptômes d’absence de culpabilité, de manque d’empathie, de
transgression des droits d’autrui, de transgression des « règles et des normes
établies ». Dans le TDAH du DSM les symptômes « souvent20, ne se conforme
pas aux consignes », « se lève souvent dans les situations où il est supposé rester
assis », « souvent, grimpe ou court partout dans les situations où cela est
inapproprié », « a souvent du mal à attendre son tour ». Dans la mélancolie ou
même dans l’épisode dépressif majeur du DSM : « sentiment de dévalorisation
ou de culpabilité excessive ou inappropriée ». Dans le trouble dysthymique :
« faible estime de soi », etc. Ces symptômes ne sont pas des faits dans le même
sens que « la pomme tombe si elle se décroche du pommier », « U = RI », ou
« l’eau bout à 100° au niveau de la mer ». C’est de l’évaluation, en l’occurrence
morale, de ces caractéristiques que naît leur factualité, c’est du fait que « nous
accordons une valeur à un fait sans laquelle il n’y aurait aucun fait » que naît le
fait, en l’occurrence le fait social, dans la constitution même duquel se trouvent
enchevêtrés des éléments – que l’idiome de la santé publique appelle –
« objectifs » (c’est-à-dire des éléments empiriquement observables et
éventuellement mesurables) et des éléments – que l’idiome de la santé publique
appelle – « subjectifs », en réalité issus de l’organisation sociale des normes et
des valeurs.
À ce premier problème épistémologique de la santé publique, celui de la
séparation arbitraire, et épistémologiquement infondée s’agissant des entités
sociales, des faits et des valeurs, s’en ajoute un second : « la distinction
épistémologique entre des entités qui sont des ensembles et celles qui sont des
touts ». Dans un ensemble, les éléments existent indépendamment de
l’ensemble dans lequel ils sont rassemblés : si on retire un caillou d’un tas de
caillou, cela reste un caillou. Par ailleurs, si l’agencement des cailloux du tas est
modifié, cela reste un tas. Les ensembles se rencontrent tout particulièrement
dans le monde naturel. Il en va différemment des « touts ». Considérons par
exemple des mots et des phrases de la langue française. La lettre « s » ne peut
pas être considérée comme un élément, dans le même sens que les cailloux sont
des éléments d’un tas, des mots « raser » ou « rassis ». C’est de leur
appartenance en tant que partie à un tout qui lui préexiste (le mot, la syllabe)
que le « s » de « raser » et le « s » de « rassis » tirent leurs prononciations et leurs
significations différentes. Pour autant le statut de « partie » n’est pas, c’est
évident, une propriété intrinsèque de la partie, mais de sa relation au tout.
Ainsi, les lettres des mots peuvent être rendues à leur statut d’éléments, par
exemple si on fait lire à un enfant de quatre ans les lettres de l’alphabet
disposées au hasard. Qu’il puisse se trouver que les lettres forment par hasard
un mot ne leur donne pas dans ce cadre un statut de partie. Ainsi, ni les lettres
« r a s e r » ni les lettres « r a s s i s » ne peuvent être considérées comme des
parties de « raser » ou « rassis » dans la suite aléatoire de lettres
A F A G A G R A S E R D I D C R R A S S I S J S A.
Il en va de même des actes sociaux : « un acte social n’est pas une chose, c’est
un genre d’entité qui est un fait relationnel ». À ce titre, les « acteurs sociaux »
– c’est-à-dire ceux qui instancient l’acte social – sont dans la même relation à
l’acte social que les lettres aux mots, mais pas que les cailloux aux tas. Sortis de
la relation préalable qui les constitue en parties, les acteurs sociaux ne
conservent pas ce qu’ils étaient en tant que parties : « Dans un tout, les
éléments (appelées parties) ne peuvent être définis en dehors du tout dont ils
sont une partie propre ». La simple conjonction de deux individus empiriques
et leurs interactions ne constituent pas un fait social : « c’est la relation qui est
le fait », et elle préexiste aux individus. Considérons par exemple la différence
entre « être tué » et « être assassiné ». « Être tué » peut être un simple fait,
résultant d’une action physique. On peut être tué par un caillou, tombé
naturellement d’une montagne. « Être tué » peut être un fait physique, parce
que « être mort » est un état biologique, donc physique. Mais « être assassiné »
n’est pas une simple action : l’acte d’assassiner n’est pas réductible à l’action
physique de tuer. Il présuppose une institution sociale – elle-même articulée
selon des relations partie-tout à d’autres institutions sociales –, l’assassinat, fait
de relation qui lorsqu’il s’instancie concrètement constitue deux actants
humains comme parties de la relation d’assassinat, l’un comme partie
assassinante, l’autre comme partie assassinée. En l’absence de l’institution
sociale « Assassinat » préexistant aux individus qui l’instancient, il n’y a pas
d’assassinat, même s’il peut y avoir une action physique d’un individu qui a
pour résultat d’en tuer un autre. La nuance peut être difficile à saisir dans le cas
de l’assassinat, dont la structure peut sembler isomorphe à l’action physique de
tuer, et qui est une institution vieille comme Caïn et Abel. Elle est plus
apparente dans le cas de notions plus récentes. Considérons la notion juridique
de harcèlement sexuel. Il n’y avait, avant la loi instituant le délit en 1992 ni
harcèlement, ni donc harceleur ou harcelé, au sens d’une relation socialement
instituée de harcèlement, même si les actions empiriques constitutives dudit
harcèlement existaient bien évidemment. Lorsque le 4 mai 2012 le Conseil
constitutionnel abroge ladite loi, il n’y a plus à nouveau ni harceleur, ni harcelé,
puisque l’institution sociale, ici juridique, de harcèlement disparaît.
L’erreur épistémologique de l’expertise collective sur le trouble des conduites de
l’INSERM est, selon Alain Ehrenberg, qu’elle a adopté une démarche
ensembliste empirique, éventuellement pertinente pour des faits naturels, alors
que son objet était constitué de faits sociaux, relevant d’une analyse
méréologique, c’est-à-dire d’une analyse des systèmes formels organisant les
relations entre le tout et les parties. Il a ainsi été supposé que le trouble des
conduites était une entité discrète, qui pouvait être étudiée en tant que telle,
parmi un ensemble d’autres troubles eux-mêmes discrets, bien
qu’éventuellement comorbides. La même logique a été appliquée aux
différentes approches : la médecine a été considérée comme un sous-ensemble,
comprenant parmi ses éléments les différents troubles, dont les apports sur ces
éléments pouvaient être complétés par ceux d’autres sous-ensembles, la
génétique, l’épidémiologie, l’éthologie, la psychologie, certains points de vue de
sociologie… Cette démarche est celle que l’on retrouve dans la logique dite
bio-psycho-sociale en santé publique. Si cette logique est le plus souvent
présentée comme intégrative, il s’agit pourtant bien d’une logique ensembliste :
du biologique, juxtaposé à du psychologique, juxtaposé à du social. C’est là
que, précisément, se trouve l’erreur épistémologique : « quand une entité est la
partie propre d’un tout, un point de vue partiel est un point de vue erroné
pour la raison qu’il n’y a pas d’indépendance des éléments. On peut
additionner des sous-ensembles, mais on ne peut additionner des parties. En
revanche, on doit décomposer un tout en parties ». On reconnaît ici, transposé
au niveau supérieur, celui du social et de la santé publique, le modèle
contextuel défendu par Wampold au niveau inférieur, celui du psychisme et de
la psychothérapie. Là où Wampold affirmait que les techniques ne tirent leur
efficacité que du cadre dans lequel elles s’intègrent et du sens qui leur est
attribué par le patient dans la relation psychothérapeutique (le patient « partie
de » la relation thérapeutique pourrait-on dire), Ehrenberg écrit que le social
est « la toile de fond qui donne sens aux facteurs », le tout au sein duquel les
parties s’organisent. L’homme n’existe pas « avec un environnement » (comme
la grenouille dans l’étang), comme une base matérielle, biologique, à laquelle
on ajouterait du social, des relations intersubjectives… Il est une « partie
propre » de ce tout. « L’individu est entièrement traversé par le social » et toute
analyse ensembliste, raisonnant en termes de facteurs et de listes non organisées
de mesures ou d’interventions, détruit par les modalités mêmes d’observation
et de raisonnement mises en œuvre l’objet sur lequel porte l’analyse.
Cet objet, c’est « ce niveau de la vie humaine sans lequel celle-ci est
incompréhensible » et qui est « l’esprit de l’institution » (Ehrenberg, 2007b).
Qu’est-ce qu’une institution, entendue en ce sens ? C’est, selon la définition
qu’emprunte Ehrenberg à celle qu’en donnent Mauss et Fauconnet dans un
texte qu’il qualifie de « décisif » : « toutes les manières d’agir et de penser que
l’individu trouve préétablies et dont la transmission se fait le plus généralement
par l’éducation. Il serait bon qu’un nom spécial désignât ces faits spéciaux, et il
semble que le mot institutions serait le mieux approprié. Qu’est-ce en effet
qu’une institution sinon un ensemble d’actes et d’idées tout institués que les
individus trouvent devant eux et qui s’imposent plus ou moins à eux ? Il n’y a
aucune raison pour réserver exclusivement, comme on le fait d’ordinaire, cette
expression aux arrangements sociaux fondamentaux. Nous entendons donc par
ce mot aussi bien les usages et les modes, les préjugés et les superstitions que les
constitutions politiques ou les organisations juridiques essentielles ».
L’existence des institutions est un préalable à toute vie sociale humaine,
entendue comme la possibilité de fonctionner ensemble, de se coordonner.
C’est donc un préalable à, et un constituant de, l’agir. Le social constitue l’agir
par l’obligation qu’il engendre chez les membres de la société. Comment cette
obligation opère-t-elle ? La société exerce certes une contrainte sur les
individus, mais ce qui oblige les individus n’est pas uniquement une force qui
s’exercerait sur eux par les moyens concrets d’exercice de la contrainte dont se
dotent généralement les sociétés (forces de l’ordre, dispositifs punitifs,
contraintes physiques, contrôle des déplacements, etc.) ou qui résultent de
l’ordre social établi (allocation différentielle des ressources matérielles,
financières, culturelles, etc. par exemple). L’obligation sociale est avant tout une
contrainte logique, en ce que l’institution sociale est « institution du sens ». En
effet, avant que puisse même être formulé quelque interdit ou permission que
ce soit, ce qui va être interdit ou permis doit avoir été défini, en l’occurrence
socialement institué. L’autorité de la société est donc avant tout d’ordre logique
et descriptif. L’obligation sociale est une obligation logique : le système
ontologique, le système axiomatique, le système inférentiel… défini dans le
système préétabli des institutions du sens articulées entre elles d’un système
social particulier, tel qu’il se transmet par l’éducation, ont autorité sur
l’individu qu’elles ont formé avant même qu’une quelconque prescription ou
proscription explicite ne vienne le limiter explicitement. Là où les sciences
naturelles voient le monde (y compris social) en termes de relations et de
conditionnement causal, les sciences sociales voient le monde (mais seulement
le monde social) en termes de relations et de conditionnements logiques,
transmis par l’éducation et le langage. Apprendre des mots, c’est être initié à
une forme de vie : « En apprenant le langage, vous n’apprenez pas seulement le
nom des choses, mais ce qu’est un nom ; pas seulement la forme d’expression
convenant à l’expression d’un désir, mais ce qu’est exprimer un désir ; pas
seulement ce qu’est le mot père, mais ce qu’est un père ; pas seulement le mot
amour, mais ce qu’est l’amour. En apprenant le langage, on n’apprend pas
seulement la prononciation des sons et leur ordre grammatical, mais aussi les
formes de vie qui font de ces sons les mots qu’ils sont, en état de faire ce qu’ils
font » (Stanley Cavell, cité par Ehrenberg, 2008b). En conséquence,
« apprendre des mots, c’est apprendre des concepts sociaux, c’est être initié à
une forme de vie » (Ehrenberg, 2010, p. 248).
C’est la raison pour laquelle, par exemple, le trouble des conduites ne peut être
uniquement considéré comme un fait empirique isolable dont la survenue
découlerait causalement d’un enchaînement d’événements physiques,
neurologiques ou psychologiques ; étant constitué, de par sa définition même –
qui comprend essentiellement des éléments moraux – d’items appartenant au
registre de la socialité, qui sont donc des institutions du sens, il est lui-même
institué. En tant que catégorie savante, comme en tant que mode d’agir d’un
individu spécifique, il doit donc être considéré dans ses relations structurales de
partie au tout social auquel il s’articule. Le problème, pour la santé publique
qui mobilise des méthodes empiriques héritées des sciences naturelles, c’est que
tout ceci ne constitue en rien « un ensemble de faits positifs : on n’a aucun
moyen d’observer directement pour regarder comment les éléments se placent
dans l’ensemble, comme c’est le cas dans les sciences expérimentales où on
observe des entités réelles ». Sans un outillage conceptuel et méthodologique
comparable à celui qui vient d’être présenté, la santé publique qui s’occupe de
santé mentale rate donc nécessairement son objet, parce que les outils dont elle
dispose ne lui permettent pas de le comprendre.

Le concept de santé mentale


Dans ses « remarques pour éclaircir le concept de santé mentale » (Ehrenberg,
2004b), Alain Ehrenberg situe la souffrance psychique et la santé mentale
comme symboles des bouleversements qu’a connus la psychiatrie depuis les
années 1970. Ces deux expressions ont considérablement élargi son périmètre
d’action, accru l’hétérogénéité des problèmes que traitent les praticiens, et
donné à ces problèmes une importance économique, sociale, politique et
culturelle inédite. La psychiatrie, ce n’est plus aujourd’hui la grande folie,
l’asile, la psychose… Souffrance psychique et santé mentale semblent « être
l’horizon de l’individualisme contemporain, comme l’enfer et le paradis étaient
celui du Moyen Âge ». Comment cet horizon s’est dévoilé est une question de
nature anthropologique qui renvoie à « la conception que nous nous faisons de
nous-mêmes en tant que membres de la société ». Ce qui, précisément, s’est
transformé dans cette conception dans les deux ou trois dernières décennies,
c’est que « la “subjectivité” individuelle est devenue une question collective ».
En résulte et en atteste en particulier le gigantesque investissement collectif de
santé publique pour investir ce lieu, dont nous avons donné un aperçu dans la
première partie de cet ouvrage.
La question mentale, telle que l’aborde Ehrenberg, désigne « l’usage récent et
systématique d’un vocabulaire dont le noyau est composé des mots “mental”,
“psychique”, “subjectivité”, “intériorité” ou, plus récemment “cerveau” ». Trois
critères la caractérisent. Un critère de valeur tout d’abord. L’atteinte psychique
est désormais conçue comme un mal au moins aussi grave que l’atteinte
corporelle. Un critère d’étendue ensuite : l’atteinte psychique concerne chaque
institution (école, famille, entreprise, justice) et elle mobilise les acteurs les plus
hétérogènes, des cliniciens les plus divers, médicaux ou non, aux travailleurs
sociaux, éducateurs, DRH, mais aussi enseignants, et jusqu’aux parents. Le
troisième critère est celui de sa forme sociale : l’idiome de la santé mentale se
présente comme un style de description de problèmes, qui peut être utilisé
pour décrire toutes sortes de situations, de celles qui relevaient
traditionnellement de la juridiction « psy » ou de la juridiction médicale, à
celles qui relevaient traditionnellement du « social » ou de l’économique
(le chômage, le revenu, l’insertion, la carrière, etc.), de l’organisation (les
relations au sein de l’entreprise, le climat entre collègues, etc.), de
l’enseignement (les « compétences de vie des enfants », leur « assertivité », leur
« estime personnelle »), de l’éducation parentale (les valeurs, les styles de vie, les
modalités éducatives, etc.) : « d’un point de vue sociologique, c’est-à-dire
descriptif, la santé mentale est un langage social permettant de formuler et de
faire reconnaître des tensions multiples accompagnant [le mode de vie
engendré par la normativité de l’autonomie] et de leur trouver des solutions.
Elle leur donne une forme reconnaissable par chacun et que chacun emploie
de multiples manières. Bref, la santé mentale, à la différence de la psychiatrie,
est au cœur de la socialité de l’individu contemporain, et pas seulement de sa
santé. »
La « santé mentale » est un terme particulièrement polysémique. Il vise à la fois
la déstigmatisation des malades mentaux atteints de troubles psychiatriques
graves, la mise en place de réponses spécifiques pour des populations ou des
syndromes spécifiques, la prise en compte de la souffrance psychique dans les
maladies somatiques graves, et tout un tas de demandes et de problématiques
hétérogènes « auxquelles la multiplication des syndromes psychiatriques dans
les nomenclatures a donné un nom, donc une identification sociale ». Elle
apparaît comme un élément clef de la santé en général (« pas de santé sans
santé mentale » selon un slogan de l’OMS (Prince et al., 2007), et fait partie
d’une « dynamique générale de reconnaissance de la santé comme problème
médical, la médecine ayant tendance à inclure le bien-être dans son domaine ».
La notion est si large (des psychoses les plus graves aux multiples recettes du
bonheur) qu’elle en est indéterminée. Cette indétermination est d’ailleurs
probablement l’une des clés de son succès, chacun pouvant s’en emparer et
l’appliquer à toute chose, bénéficiant ainsi de sa position dominante dans la
hiérarchie des valeurs contemporaines.
S’agissant de l’usage transversal, quasi ubiquitaire, de cette notion
indéterminée, la thèse d’Ehrenberg est la suivante : « on a affaire à une
ambiance, un climat, un esprit commun qui fait du couple souffrance
psychique-santé mentale l’expression d’un langage qui place au centre de la vie
sociale la subjectivité de chaque individu (son « intériorité » psychique ou
cérébrale), et cela à mesure que l’autonomie devient notre valeur cardinale :
plus l’individu est considéré comme un tout autonome, qui doit être capable
de décider et d’agir par lui-même, plus la question de son intériorité devient
une préoccupation publique ». Au point donc que comme nous l’avons vu tout
au long de la première partie, l’intériorité de l’individu devienne une
préoccupation de santé publique, et que soit adopté « un langage de la
vulnérabilité individuelle de masse qui permet de nommer, voire de traiter les
nouvelles tensions de l’indétermination démocratique suscitées par l’emploi
généralisé de la référence à l’autonomie, notre signification imaginaire
centrale ». C’est le lieu de ce qu’Ehrenberg nomme « le grand renversement ».
Retournement hiérarchique dans lequel au sein de la modification de la relation
normal-pathologique qui s’opère, la maladie mentale n’est plus pensée comme
la partie « pathologique » d’un territoire séparé par la « frontière normale-
pathologique » ; elle est désormais conçue comme un aspect subordonné du
couple santé mentale-souffrance psychique.
Le « grand renversement » peut être caractérisé par trois modalités (Ehrenberg,
2004a). Tout d’abord, au lieu que le malade mental soit une catégorie à part, il
devient un cas particulier du cas général du citoyen en difficulté affecté par des
« événements de vie ». Les modalités de répression du fou à enfermer évoluent
au profit de modalités de soutien que l’on propose au citoyen en difficultés,
sous réserve qu’il s’accepte comme l’acteur de sa maladie. C’est cette dimension
d’acteur qui fait de l’individu, en tant que tel, un problème et donc un objet
des politiques de santé publique ; le renversement hiérarchique du malade et
du citoyen institue que personne n’est à l’abri des troubles mentaux, et soit
donc une cible potentielle des politiques de santé publique. Tout le monde est
concerné, selon le motto des campagnes de santé publique. Comme le dit
Ehrenberg de façon concise : « La souffrance était un élément de la psychose, la
psychose est aujourd’hui un élément de la souffrance ». L’une des conséquences
de ce renversement est une tendance, que nous avons observée dans la première
partie de cet ouvrage, à présenter et à parler des troubles mentaux sans les
hiérarchiser. Pour reprendre la citation que fait Ehrenberg d’une expertise de
l’INSERM sur la psychiatrie de l’enfant de 2002, dans laquelle on reconnaîtra
tout aussi bien le pattern des documents de l’OMS que celui de l’INPES et
autres rapports INSERM : « Un enfant sur huit souffre d’un trouble mental en
France. Qu’il s’agisse d’autisme, d’hyperactivité, de troubles obsessionnels
compulsifs, de troubles de l’humeur, d’anxiété, d’anorexie, de boulimie ou de
schizophrénie ». C’est ainsi que les troubles communs comportementalo-anxio-
dépressifs se trouvent mis au même niveau que des troubles rares et sévères tels
que l’autisme ou la schizophrénie, ce qui permet incidemment de leur
appliquer à tous, et à tout un chacun qui pourrait en souffrir, la logique
interventionniste qui prévaut en santé publique, mais sans disposer « d’aucun
critère de hiérarchisation des priorités pourtant indispensable à l’élaboration
d’une politique publique cohérente » (Ehrenberg, 2005).
Le deuxième renversement est celui qui fait, s’agissant des soins, du
consentement la règle et de la contrainte l’exception. En contrepartie de cette
reconnaissance de l’autonomie de la personne et de ses droits, il est attendu du
patient désormais autonome qu’il devienne un patient compétent, capable
d’autogérer ses symptômes et d’aller solliciter de lui-même un nouveau
traitement ou l’augmentation de l’actuel lorsqu’il reconnaît les prémisses
d’aggravation qu’on lui aura appris à détecter. Toute rupture de compliance
tend à rompre la délégation de décision : « le malade mental qui refuse des
soins est transformé en insensé incapable de consentir en raison de ses troubles,
mais reste ou redevient apparemment apte à ce consentement dès lors qu’il
accepte des soins sans protester ». En raison du premier renversement, même si
le problème se pose surtout actuellement pour les troubles avérés de la raison,
toute personne qui refuse les soins (y compris préventifs) qui lui sont prodigués
(ou à ses enfants) rompt le contrat de confiance d’autonomie et de
responsabilité que la société passe avec elle, et peut dès lors en subir les
conséquences répressives. L’extension du consentement s’accompagne,
apparemment paradoxalement, d’une extension de l’obligation de soin : « en
même temps que le patient est érigé en acteur responsable, il peut aussi être
facilement considéré comme responsable de l’échec de la relation
contractuelle ».
Le troisième renversement est la tendance à penser la pathologie mentale en
termes de handicap, la visée étant l’intégration du patient dans la vie sociale
malgré les handicaps causés par sa maladie. Le handicap est une manière de
placer dans une même catégorie l’ensemble des difficultés sociales,
psychologiques et médicales en fonction d’un critère relationnel qui mesure le
degré de socialisation de la personne. C’est ce que fait typiquement l’échelle
globale de fonctionnement (EGF) du DSM dont le stade ultime (100 sur une
échelle de 0 à 100) est décrit de la façon suivante : « niveau supérieur de
fonctionnement dans une grande variété d’activités. N’est jamais débordé par
les problèmes rencontrés. Est recherché par autrui en raison de ses nombreuses
qualités. »
Dans ce nouveau paradigme social, la santé mentale n’est plus seulement un
élément de la prise en charge des patients psychiatriques, mais aussi et surtout
une valeur sociale de portée générale : « la raison tient à ce qu’elle incarne la
bonne socialisation de chacun ». À l’inverse, « la souffrance psychique est un
élément clé de la désocialisation ». L’idée centrale d’Ehrenberg concernant les
reformulations des relations normal-pathologique du côté du pôle normal est
que c’est autour de la normativité de l’autonomie que s’opèrent ces
reformulations (apparemment) paradoxales : « plus on considère l’individu
comme une totalité (autonome) plus son “intériorité” est mise en avant », et
plus elle devient en réalité un objet « public », car social. La conséquence de
cette totalisation de l’individu, qui le fait (se) considérer comme une entité
autonome indivise, à la source d’elle-même et productrice du social par la
rencontre intersubjective (l’individu existerait d’abord « à l’intérieur de lui-
même » et ferait ensuite société en rencontrant d’autres monades individuelles)
génère une contradiction permanente entre « la croyance que l’on trouve en
soi, la source de toutes nos actions, comme si la société était ajoutée à
l’individu, et le fait que l’individu est un être social, qui vit dans un système
d’interdépendances, d’obligations, de dettes et de créances, qui agit et pense
dans un contexte normatif ». Ce qui importe selon ce dernier point « ce n’est
donc pas la conscience de soi mais la conscience de soi en tant que je me réfère
à un tout (l’opinion commune) sans lequel il me serait strictement impossible
de croire, par exemple, que je suis un individu libre moralement de choisir ma
vie. Il faut donc arrêter de penser la souffrance psychique et la santé mentale
comme une expérience intérieure, car ce sont les règles de conduite qui ont
changé et les attentes qui se sont transformées. »
Or, penser la souffrance psychique et la santé mentale comme une expérience
purement intérieure, et développer sa conscience de soi sans qu’elle ne se réfère
à un tout, c’est exactement l’impasse vers laquelle conduisent les orientations
(médicales) de la santé publique de santé mentale que nous avons présentées
dans les premières sections de cet ouvrage. C’est précisément ce en quoi elles
présentent un caractère problématique que nous allons à présent examiner en
détail.
Ce qui change, précisément, dans ce couple souffrance psychique / santé
mentale et dans « les nouvelles espèces morbides dont il est composé »
(Ehrenberg, 2005) est « l’expression publique des tensions d’un type d’individu
auquel on demande certes toujours de la discipline et de l’obéissance, mais
surtout de l’autonomie, de la capacité à décider et à agir par lui-même ». La
hiérarchie des valeurs s’est inversée entre obéissance et autonomie : il s’agit
toujours d’obéir, mais dans le cadre d’une initiativité qui lui est supérieure en
valeur. Il y a là une « dynamique d’institution de l’individu comme mode
d’action » qui s’accompagne d’une augmentation de la responsabilité
individuelle et de l’insécurité personnelle dont l’expression attendue s’inscrit
dans l’idiome de la santé mentale. La règle sociale n’est pas seulement la
contrainte qui « lie les hommes par les paroles comme on lie les bœufs par les
cornes ». Elle est bien plus proche de l’attente que de la contrainte : « “je
m’attends”, c’est la définition même de tout acte de nature collective », selon le
propos de Marcel Mauss. Ce qui est ici attendu, c’est la manière de poser les
problèmes en termes de couple souffrance psychique-santé mentale : « ces
expressions collectives, […] ce sont comme des phrases et des mots. Il faut les
dire, mais s’il faut les dire, c’est parce que tout le groupe les comprend. […]
On se les manifeste à soi en les exprimant aux autres et pour le compte des
autres. C’est essentiellement une symbolique ». L’essentiel est ici que ces
expressions sont, précisément, collectives. Elles ne sont pas individuelles,
intrapsychiques. Plus exactement, si évidemment elles sont à un moment
donné intégrées au psychisme de celui qui les exprime, il n’en est pas à
l’origine, et « l’attendu » préexiste aux individus, qu’il met en relation sociale.
C’est la raison pour laquelle la société ne résulte pas de la rencontre de
subjectivités monadiques contractualisant leurs relations entre libres parties, les
individus n’y étant engagés que par ce qu’ils décident eux-mêmes d’engager.
Cette vision de la société comme rencontre de monades interagissant de façon
contractualisée en se pilotant par les contingences environnementales est par
contre typique de celle que nous avons examinée dans les programmes
d’éducation à la parentalité de type PFI dans la première partie de cet ouvrage,
dans lesquels les individus (parents-enfants) se constituent mutuellement en
contingences environnementales les uns des autres et régulent leurs relations en
manipulant ces contingences. La particularité des relations sociales est qu’elles
sont instituées et préalables aux individus empiriques qui les instancient. À cet
égard, devenir autonome ce n’est pas se poser comme sujet auto-généré et isolé,
comme une monade produisant de l’intérieur une auto-fondation magique21 :
« c’est acquérir une capacité à l’activité délibérée », acquisition qui passe
nécessairement par l’apprentissage (les parents, l’école…), qui va lier esprit
objectif (de la société) et esprit subjectif (de l’individu empirique) : « ce qui se
présente hors de l’individu sous la forme des modèles préétablis et des usages
institués [esprit objectif ] se présente dans l’individu sous la forme des aptitudes
acquises d’abord par l’apprentissage, ensuite seulement par la formation de soi-
même [esprit subjectif ] », selon la formule de Vincent Descombes
(Descombes, 2004, p. 22) citée par Ehrenberg. L’esprit subjectif est donc fait
de et à partir de l’esprit objectif, et ce dans un double sens : d’une part les
contenus psychiques de l’esprit subjectif sont faits de et façonnés par les
éléments de l’esprit objectif ; d’autre part, l’individu n’agit jamais comme
individuum, entité qui serait séparée du social par une frontière à travers
laquelle transiteraient les messages intersubjectifs. Il se situe toujours comme
partie d’une « totalité sociale […] définie par des faits de relation fondés sur
l’action et ordonnés par une règle ou une loi […] engagée comme “système
polyadique”, […] pourvoyeuse d’un “ordre de sens” […] dont elle est en
quelque sorte la cause formelle » selon les termes de Louis Quéré (Kaufman et
Quéré, 2001, p. 371) cités par Ehrenberg. L’autonomie se trouve donc dans le
processus même d’acquisition d’aptitudes acquises dans un apprentissage qui
« vise à développer chez l’agent des capacités d’agir, des dispositions à agir, des
aptitudes, des habitudes, donc des mœurs ». Le processus de l’autonomie est
donc un cercle moral, c’est-à-dire qui porte sur des mœurs. Ce n’est qu’à partir
de là que l’individu peut mettre en œuvre des actions de changement
personnel, se corriger de lui-même, changer de lui-même, être son propre
instructeur. Et c’est précisément ce stade que ne visent jamais à atteindre, ni ne
permettent d’atteindre, les programmes de parentalité ou de santé mentale de
santé publique.
Comment caractériser précisément cet objet que rate la santé publique dans sa
démarche actuelle et dont nous avons esquissé les contours dans les pages
précédentes ? Si c’est dans l’école « française » de la sociologie (Durkheim,
Mauss, Dumont) qu’Alain Ehrenberg puise l’outillage conceptuel qui en fonde
la définition, c’est du philosophe Vincent Descombes qu’il affirme tirer le
motif initial de ce « retour à la tradition de l’École sociologique française de
Durkheim et Mauss [via Wittgenstein] » (Ehrenberg, 2007b) dont il dit suivre
la démarche.

Ou trouver l’esprit ?
Cette démarche que nous allons maintenant examiner est détaillée dans trois
ouvrages du philosophe : La Denrée Mentale (Descombes, 1995) – DM dans la
suite – et Les Institutions du Sens (Descombes, 1996) – IS – deux tomes d’une
étude sur les « disputes de l’esprit » ; Le Complément de Sujet : Enquête sur le
fait d’agir de soi-même (Descombes, 2004) – CS. La présentation détaillée des
travaux de Vincent Descombes nous est indispensable pour deux raisons :
d’une part parce qu’ils définissent le cadre théorique que, dans la continuité
d’Alain Ehrenberg, nous allons utiliser pour poursuivre l’analyse critique que
nous avons entreprise de la façon dont la santé publique s’empare de la santé
mentale ; d’autre part, parce que dans le parcours qui le mène à la
démonstration de sa thèse principale – celle de « l’extériorité de l’esprit » (CS,
p. 10), Descombes propose une critique pertinente de nombre de
conceptualisations, théories, paradigmes qui sont massivement structurants de
la logique de santé publique que nous examinons depuis le début de cet
ouvrage.
Le travail de Vincent Descombes est un travail de philosophie de l’esprit, qui
s’intéresse tout d’abord à la question fondamentale de savoir où trouver cet
esprit dont il est question : « dedans, selon les héritiers mentalistes de
Descartes, de Locke, de Hume et de Maine de Biran, héritiers parmi lesquels
on peut compter les phénoménologues et les cognitivistes » (DM, p. 10), ainsi
que, ajouterais-je, les santé-mentalistes de santé publique dont nous avons
présenté les travaux en première partie de cet ouvrage. « Dehors, selon les
philosophes de l’esprit objectif et de l’usage public des signes, comme l’ont
soutenu par exemple Peirce et Wittgenstein ». C’est cette seconde thèse, que
nous nommerons « de l’esprit objectif », que va soutenir Descombes contre,
notamment, la récente philosophie de l’esprit du cognitivisme. Là où le
béhaviorisme s’était construit dans le rejet de la notion même d’esprit, en
référence en particulier à son acception cartésienne, res cogitans, en
contradiction intolérable avec la nécessaire matérialité exigée par la science
moderne – res extensa –, la philosophie cognitiviste réhabilite une notion
d’esprit : il y a bien quelque chose entre le stimulus et la réponse, et ce quelque
chose a des logiques propres. Mais il est entendu d’emblée que ce quelque
chose qui est un esprit est dans la tête, et qu’il est bien, et n’est qu’« un procès
physique […], un système matériel, à savoir tout simplement le cerveau »
(DM, p. 13). Cette thèse de l’intériorité du mental que Descombes qualifie de
thèse exigeante, nous semble en vérité dans la socialité contemporaine de
l’autonomie et de l’individualité si peu exigeante et plutôt tellement une
évidence qu’elle n’est le plus souvent pas formulée comme thèse, mais comme
une évidence naturelle, ou comme un résultat indiscutable de la science
(naturelle). C’est pourquoi, en préalable, il est nécessaire de restituer à cette
« vérité » son statut de thèse philosophique.
Telle que la définit Descombes, une philosophie mentale est « une pensée qui
assure d’abord l’autonomie du mental en le détachant du monde extérieur
(matériel), pour se poser ensuite le problème inextricable de l’interaction entre
le mental et le physique » (DM, p. 23), à l’instar des auteurs oulipiens de
Raymond Queneau, s’auto-définissant comme des « rats qui construisent eux-
mêmes le labyrinthe dont ils se proposent de sortir ». Toute philosophie de
l’esprit n’est pas une philosophie mentale entendue en ce sens, et Descombes
propose une typologie des philosophies de l’esprit à partir de leurs
phénoménologies, lieux d’existence de l’esprit et modalités de son apparaître.
Tableau 12. Quatre philosophies de l’esprit (DM, p. 25).

Mode d’apparaître de Lieu d’existence de l’esprit


l’esprit Interne Externe
Philosophie Philosophie de l’intention
Direct de la conscience (intentionnalisme)

Théorie de l’inconscient Théorie des causes mentales


Indirect (Mentalisme)

À ces différentes possibilités théoriques correspondent des doctrines


philosophiques qui ont été soutenues au cours de l’histoire, au sein desquelles
la philosophie de la conscience occupe la place majeure, « les théories de
l’inconscient et celles des causes mentales [pouvant être] tenues pour des essais
de corriger la philosophie de la conscience, d’abord en renonçant à la donation
directe de l’esprit par son phénomène, ensuite en renonçant également au
point de vue dit de la “première personne” » (DM, p. 25). À ce titre, pour
Descombes, ces trois philosophies (en caractères droits dans le tableau)
appartiennent bien à la « philosophie mentale » telle qu’il la définit. Ce n’est
pas le cas de la quatrième possibilité (en italique dans le tableau) – celle de
l’intentionnalisme – qu’il défend en ce qu’« elle est la seule qui refuse de tenir
le détachement de l’esprit pour le principe de sa réalité autonome » (DM,
p. 26). Selon la thèse que soutient Descombes, celle du holisme
anthropologique, il n’y a pas de détachement de l’esprit : « l’esprit n’est pas
d’abord dans les têtes et ensuite, à titre d’effet ou de dérivation, dans les
signes » (IS, p. 10). C’est l’inverse : « l’esprit objectif des institutions précède,
et rend possible l’esprit subjectif des personnes particulières » (IS, p. 15). À la
différence de la position défendue par les thèses internalistes « ce qui sert de
critère au mental, ce n’est pas l’intériorité, c’est la signification » (IS, p. 10).
Les conséquences de cette thèse absolument « contradoxale » dans les termes
non seulement de la science naturelle moderne mais aussi et surtout dans ceux
de la socialité contemporaine de l’autonomie et de l’individualisme, sont
énormes. En effet, « si le mode intentionnel de description ne peut jamais être
éliminé au profit du mode naturaliste » – rappelons que c’est le mode
qu’adopte la santé publique pour s’emparer de la santé mentale – « les sciences
de l’esprit ne feront pas partie de la science unifiée de tous les phénomènes »
(IS, p. 11). Sauf à décréter que les seuls phénomènes qui soient dignes d’intérêt
sont ceux qu’on peut décrire en termes naturels. C’est, de fait, ce qu’il se passe
lorsque la santé publique (ne) s’intéresse à la santé mentale (qu’)en des termes
naturels, considérés comme les seuls permettant d’obtenir une description
factuelle. Ceci parce que les sciences de l’esprit, elles, ne seraient pas des
sciences, c’est-à-dire des dispositifs méthodologiques permettant des épreuves
de type factuel, des résultats réfutables. Elles (ne) seraient alors (que) des
constructions personnelles ou de libres interprétations. C’est en effet une
position empiriquement observable chez les acteurs de santé publique de santé
mentale.
Soit donc le raisonnement suivant : les seuls phénomènes dignes de ce nom
sont ceux qu’on peut décrire en termes naturels ; or la santé publique s’intéresse
forcément à des phénomènes dignes de ce nom, sinon elle ne serait digne ni du
crédit ni des crédits dont elle bénéficie ; mais les phénomènes de l’esprit ne
sont pas descriptibles en termes naturels ; donc ils ne sont pas dignes d’intérêt ;
donc la santé publique ne doit pas s’y intéresser, et doit les considérer comme
du « bla-bla ». Et elle le peut, car ce bla-bla serait sans conséquence pratique
autre que marginale et contingente. C’est ce type de position que l’on voit à
l’œuvre dans le programme PFI, pour lequel l’adaptation culturelle que
nécessite la transposition des programmes d’éducation aux pratiques parentales
se limite à remplacer « Jingle Bells » par « Vive le vent » dans le matériel
d’animation des séances. C’est là qu’est l’erreur lourde de conséquence, celle
qui rend selon Alain Ehrenberg « [l’INSERM] inutile pour la santé publique ».
Car dans la vie réelle, c’est avec ce bla-bla que les gens raisonnent pratiquement
– c’est-à-dire avec l’esprit constitué de ce bla-bla –, et déterminent leurs actes.
Aucune description scientifique qui se passerait de ce niveau ne peut donc être
d’une quelconque utilité pour comprendre le fonctionnement de cette vie
réelle, qui est pourtant celle dans laquelle prétend intervenir la santé publique
de santé mentale.
Pour Descombes, qui prend ledit bla-bla au sérieux, « l’étude de l’esprit sera
holiste, ou alors elle ne sera pas ». Qu’est-ce donc qu’une étude holiste, et
cohérente, de l’esprit ? Le holisme se caractérise par une position inverse à celle
de l’atomisme, tant en ce qui concerne le langage que l’esprit. La position de
l’atomisme est qu’il est possible de constituer un langage en se donnant un
signe pour une chose, puis un signe pour une autre chose, tout comme il est
possible de constituer un esprit en se donnant un atome psychique pour une
représentation, puis un autre atome psychique pour une autre représentation,
sans que ni dans un cas ni dans l’autre « la relation du signe [linguistique ou
psychique] à la chose dépende en rien de ce qui se passe en d’autres points »
(IS, p. 97). La position du holisme est au contraire que « la relation sémantique
fondamentale n’est pas le rapport d’un symbole et d’une partie du monde, mais
qu’elle est plutôt dans les rapports des symboles entre eux, dans le rôle qu’ils
jouent les uns par rapport aux autres. Pour le holisme, ce sont ces rapports au
sein du système qui assurent la relation d’un assemblage de signes au monde ».
On perçoit d’emblée l’importance de la proposition, et ses liens avec les
questions que nous évoquons depuis le début de cet ouvrage : si c’est
l’assemblage de signes qui est relié au monde – et pas chaque signe
indépendamment –, toute intervention dans cette relation devra prendre en
considération cet assemblage ; il ne pourra être question d’intervenir
localement de façon décontextualisée sur une partie spécifique de l’assemblage,
en considérant qu’il s’agit là d’un atome disjoint du reste de la structure. On
saisit immédiatement la parenté de cette position avec celle d’Alain Ehrenberg,
tout autant qu’avec celle de Bruce Wampold, bien que l’un développe une
analyse sociologique (« de l’esprit objectif »), et l’autre une analyse
psychologique (« de l’esprit subjectif »).

CECIN’ESTPASUNEPHRASE
Dans une philosophie holiste du langage, la relation sémantique entre le signe
et la chose n’est jamais dyadique. Ce qui fait de quelque chose un signe « c’est
la fonction qu’il joue dans un système de signes, lequel à son tour à une place
dans une pratique sociale ou une activité intentionnelle » (IS, p. 103). Pour le
holisme structural, dont se réclame Descombes (IS, p. 115), « les parties du
tout ne sont identifiables que dans le tout, de sorte qu’il faut partir du tout (ou
de la relation entre les parties) et non des éléments disjoints pour décrire les
parties » (IS, p. 157) ; « par définition, des choses simples (des monades) ne
sauraient dépendre les unes des autres ». De sorte que toute théorie, ou toute
méthode d’analyse « qui veut faire passer la complexité d’une chose complexe
dans la complexité de la description de plusieurs choses simples se condamne à
manquer cette dépendance mutuelle des parties » (IS, p. 159). C’est
précisément ce que manque la méthodologie factoriologique de l’épidémiologie
psychiatrique, comme la méthodologie des Essais contrôlés randomisés en
santé mentale qui s’appuie sur des définitions catégorielles (atomiques) des
troubles pour évaluer l’efficacité d’interventions ponctuelles (atomiques) en
fonction des variations observables sur des indicateurs indépendants
(atomiques).
Le tout n’est pas composé de parties comme il est composé d’éléments ; il y a
toujours trois niveaux dans une totalité signifiante : le tout, les parties, les
éléments. Ce qui nous permet de distinguer deux types de totalités : la totalité
empirique, qui existe nécessairement après ses éléments (qui en sont la cause
matérielle), et la totalité signifiante qui existe nécessairement avant ses parties,
puisque c’est elle qui détermine l’ordre signifiant dans lequel doivent être
placées les parties (dont elle est la cause formelle). La structure de la totalité
signifiante ne concerne pas les individus empiriques. Elle formule des
conditions sur les instanciations légitimes des différentes places prévues. La
structure n’est donc en rien un arrangement d’éléments : « La structure d’une
totalité signifiante est une forme de formes. C’est une façon de dire que les
éléments n’entrent dans la structure que s’ils sont eux-mêmes dotés d’une
forme » (IS, p. 171). Cette forme n’est pas une propriété intrinsèque des unités
élémentaires. Les éléments empiriques préexistent bien évidemment à la
structure et ne lui doivent pas leur existence. Mais ils ne sont pas, pris
isolément, des éléments signifiants. Et « telle est justement la thèse holiste sur
les totalités signifiantes : les éléments ne sont des signes que dans le système22 » (IS,
p. 177).

Les atomes ne se marient pas


S’il en est ainsi, il faut alors inverser les ordres de primauté : ce ne sont plus les
éléments qui priment (empiriquement) sur la relation qui émerge de leur
rencontre (telle la société de l’individualisme méthodologique qui émergerait
des relations résultant de la rencontre de structures internes aux individus),
mais ce sont les relations (constituant la totalité signifiante organisée) qui
priment (logiquement) sur les termes « qu’elles constituent formellement dans
ce qu’ils sont ». Bien entendu, toutes les relations possibles ne constituent pas
formellement les termes dans ce qu’ils sont. Si la boîte de conserve est sur la
table, ni la boîte, ni la table ne sont formellement constituées par la relation
« sur ». Mais si Pierre et Julie sont mariés, c’est l’existence préalable d’une
relation de mariage qui permet que, dans son instanciation à ces deux
individus empiriques, Pierre soit constitué comme l’époux de son épouse, et
Julie comme l’épouse de son époux. Bien entendu, la relation spatiale « sur »
existe également, en tant que relation ayant un sens spécifique, avant la table et
la boîte. Mais elle n’existe empiriquement qu’après que la boîte soit sur la table,
et il y a des faits positifs, observables, empiriques, qui permettent d’attester la
relation. Il n’y a rien de tel dans la relation de mariage : il n’y a nul mariage
constitué qui ne soit l’effet d’une intention de marier, exécutée par un
opérateur légitime, c’est-à-dire socialement désigné pour pouvoir constituer les
individus empiriques Julie et Pierre en les deux parties logiques de la relation de
mariage, ce que cet opérateur fait en le disant : « en vertu des pouvoirs qui me
sont conférés, je vous déclare mari et femme ». Ce type de relations, qui
peuvent être – pour paraphraser le titre du célèbre ouvrage d’Austin « quand
dire, c’est faire » – faites d’être dites, Descombes, suivant Peirce, les appelle
triadiques (IS, p. 211-236). Ce qui s’ajoute à une relation dyadique – telle que
celle qui pourrait qualifier les positions spatiales de Pierre et Julie durant la
cérémonie, Pierre est à droite de Julie – pour constituer une relation triadique,
c’est un élément mental ou intentionnel, qui n’est pas un fait positif. On pourra
descendre aussi loin que l’on voudra dans la décomposition analytique de la
position spatiale de Pierre et Julie (fait empirique), on trouvera toujours
quelque chose de nouveau et de plus précis, qui permettra de préciser la
relation empirique : Pierre est à droite, à 1 mètre ; Pierre est à 87° nord, à
1.02 mètres ; le pied gauche de Pierre est à 97 cm, et son épaule gauche à
84 cm, à 11 h 12 min 25 s, etc. Mais on ne trouvera jamais la relation de
mariage dans aucun fait empirique que l’on parviendrait à observer, aussi loin
poursuivrait-on l’investigation : une description à l’atome près des corps de
Julie et Pierre et des anneaux qu’ils s’échangent ne nous apprendrait rien de
plus sur l’effet social de la phrase « je vous déclare unis par les liens du
mariage » prononcée dans les conditions adéquates.
Ce point est très bien rendu par la citation de Peirce que donne Descombes
(p. 221) : « le principe du contrat [entre A et B] repose sur l’intention. Et
qu’est-ce que l’intention ? C’est que certaines règles de nature conditionnelle
gouvernent la conduite de A et de B. Il n’y a pas ici de faits positifs : tout y est
conditionnel et intentionnel. À plus forte raison, il n’y a ici rien qui soit une
entité monadique. Il est bien fait référence à des conditions de l’expérience, ce
qui inclut l’existence, donc le fait dyadique. On pourrait dire que c’est un fait
psychique. C’est exact pour autant qu’en effet un fait psychique est inclus.
Mais il n’y a pas d’intention qui ne soit l’intention de quelque chose, et cela sur
quoi porte l’intention ne peut être rendu par aucun fait que ce soit. L’intention
dépasse tout ce qui peut jamais être fait ou s’être produit, parce qu’elle couvre
toute l’étendue de la condition générale. Or l’idée d’une liste de tous les cas
possibles est absurde. Il appartient à la nature d’une telle liste qu’on puisse la
continuer aussi loin qu’on soit allé dans la spécification. La condition générale
couvre justement toute cette possibilité inépuisable » (p. 221). Il s’ensuit que
« le monde des faits ne contient pas de triades. Au-delà du fait, il y a le monde
du possible. Pour trouver une triade, nous devons donc sortir du positif
(correspondant à ce qui est et à ce qui sera) et entrer dans le conditionnel (ce
qui serait, le would be) » (p. 222).
Le point essentiel ici est que, s’il n’y a aucun fait positif dans ces situations,
aucune des méthodologies empiriques que nous avons examinées jusqu’ici dans
le domaine de la santé publique en santé mentale (épidémiologique
psychiatrique, essais contrôlés randomisés, décomposition en facteurs,
instruments psychométriques, nosographies syndromiques…) n’est capable
d’en rendre compte ni même d’en dire quelque chose d’utile. Or, selon Peirce,
« même si le monde positif ne contient pas de triades, il peut être gouverné par
des triades » (p. 222). Comment ? C’est ce que l’examen de la relation
paradigmatique des relations triadiques, la relation de don, permet de
comprendre.

Objectivement subjectif, subjectivement objectif


Le don ne se laisse pas décomposer en une séquence de relations dyadiques du
type A donne (physiquement) C à B, et B prend (physiquement) C de A. Il
s’agit là de la description de faits positifs, qui correspondent à un transfert
physique d’objet. Nous avons vu que dans la relation triadique venait s’ajouter
un élément mental, ou intentionnel. Mental ou intentionnel, non pas dans le
sens de la philosophie de la conscience selon Brentano – l’esprit est dans la tête,
et « toute conscience est conscience de », ce qui crée une relation dyadique
entre l’objet visé et sa représentation mentale –, mais dans le sens évoqué plus
haut d’un esprit défini par sa capacité à créer un ordre de sens téléologique ; la
formule est alors triadique : « toute conscience intentionnelle est conscience du
rapport final (ou intentionnel) de quelque chose à quelque chose » (p. 239). Et
ce rapport final n’est pas dans la tête des protagonistes, il ne résulte pas de leur
interprétation post hoc de la séquence des mouvements physiques observables :
« le contexte qui fait de ces actes une action de donner est institutionnel »
(p. 241). On voit ici l’exemple concret de l’aphorisme holiste selon lequel le
tout est donné avant les parties : « la préséance du tout sur les parties est à
comprendre comme la présupposition d’une règle pour que le fait en question
soit donné : pour que A puisse être décrit comme donnant C à B, il faut que
les faits bruts se produisent dans le contexte d’une règle du don » (p. 242). La
relation de don est une relation intentionnelle, c’est-à-dire gouvernée par des
règles. C’est la propriété des faits de relations, sociaux : le tout – la relation – y
est donné avant les parties – les participants à la relation –, mais il est donné
« à la façon d’une règle plutôt que d’un fait. […] Une institution ne consiste
jamais dans des données actuelles. On ne saurait en rendre compte par le relevé
des faits bruts. […] La description a pour mode grammatical le conditionnel
(would be) plutôt que l’indicatif (will be) » (IS, p. 256). La règle n’a pas de
puissance de détermination causale, elle ne détermine pas l’avenir par
l’enchaînement d’une séquence de mécanismes empiriques ; elle a une
puissance de détermination logique. Et ce pourquoi elle acquière cette
puissance concrète de « gouvernement du monde » que nous mentionnions
plus haut, c’est que bien que « la règle [ne soit] pas une cause efficiente de la
conduite (un mécanisme, psychologique ou autre) », elle est « une norme que
les gens suivent parce qu’ils veulent s’en servir pour se diriger dans la vie ». Et à
ce titre, « les structures de l’esprit sont plutôt comme la Loi, que nul n’est censé
ignorer, que comme des lois physiques » (IS, p. 266). L’esprit objectif « c’est la
présence du social dans l’esprit de chacun […], une relation à des familiers que
je n’ai pas à rejoindre ou à interpréter parce qu’ils sont déjà présents au plus
profond de moi-même, dans mon langage et dans ma pensée » (IS, p. 289).
L’esprit objectif n’est pas la simple ressemblance de fait que l’on pourrait
observer dans les représentations d’individus vivant dans des conditions
similaires. Il n’y a rien de social au fait que des individus vivant dans un même
contexte en viennent à concevoir des représentations similaires ; c’est là le
simple effet de l’apprentissage de régularités. Ce n’est pas en ce sens que les
représentations de l’esprit objectif sont communes : « ce sont des significations
instituées, qui sont non seulement publiques, mais sociales. […] Elles sont
inculquées aux individus de façon à rendre possible de la part de chacun d’eux
des conduites coordonnées et intelligibles du point de vue du groupe »
(p. 294). Les institutions de l’esprit objectif ne peuvent émerger de
l’intersubjectivité. Le « nous » de la relation intersubjective est un « nous » de la
coïncidence : “il se trouve que nous pensons la même chose” ; c’est contingent.
Au contraire, « les significations authentiquement communes ne mettent pas
en présence deux libres subjectivités, mais deux partenaires qui doivent faire
des choses différentes et dont les rôles sont justement fixés par une règle établie,
un usage social que les gens suivent ». L’intention peut être pensée comme
l’organisation même du procès découlant de l’orientation des actions et des
décisions en fonction d’un but que l’acteur se fixe, et qui n’a pas besoin d’être
présent à son esprit en permanence pour causer ces actions et décisions. Pour
l’intentionnaliste, c’est « cet ordre de subordination des moyens à la fin qui
donne son contenu au concept d’intention ». C’est le façonnage logique de
l’humain par les institutions sociales du sens, par l’éducation, qui génère cette
intentionnalité toujours-déjà présente, et qui crée ce « je m’attends » dont
Mauss considérait que c’est la définition même de tout acte de nature
collective. La question de la téléologie est centrale, et la réponse qu’on lui
donne peut être considérée comme la ligne de démarcation entre approches
naturalistes par les causes – dans lesquelles la téléologie n’a pas d’existence
possible, la nature n’ayant ni but ni sens – et approches herméneutiques par les
raisons – dans lesquelles la compréhension du sens de l’action est non
seulement possible, mais nécessaire et consubstantielle de l’action elle-même.
Les conséquences de l’adoption d’une position ou d’une autre sont énormes :
« les phénomènes naturels ne sont pas directement intelligibles, les
phénomènes de la conduite humaine le sont », du moins à ceux qui ont été
correctement socialisés aux coutumes humaines. C’est par la médiation des
formes de vie, sociales, et apprises, que nous comprenons ce qui se passe en
société et que nous pouvons y vivre avec pertinence. En un sens, les
occurrences possibles des formes de vie dans ce contexte sont déjà contenues
dans les règles qui les régulent, et la compréhension, contextualisée, de ces
formes est suffisante, sans qu’il soit nécessaire, ni même utile, d’y ajouter
aucune autre information qui viendrait en supplément de celles dont on
dispose déjà sur le sens attribué par les acteurs à la situation.
Et ce que nous savons déjà, nous le savons parce que nous sommes les auteurs
quotidiens d’actes du sens desquels nous ne sommes pas les auteurs, car ce sens
existe déjà avant les individus qui l’instancient empiriquement, dans les
institutions sociales du sens qui nous ont été transmises. Le sujet des
institutions n’est ni la personne individuelle, ni une sorte d’entité
métaphysique qui serait La Société et qui par le truchement d’un moyen
mystique ferait agir ses membres. Le sujet des institutions est « l’agent dont
l’action trouve dans l’institution son modèle et sa règle » (IS, p. 307). Selon
cette conception, et pour en revenir à notre question initiale de ce qu’est
l’esprit, « avoir un esprit, c’est manifester dans sa conduite une puissance
intentionnelle de mise en ordre. Un agent manifeste un esprit quand sa
conduite est organisée selon une structure rationnelle : ses faits et gestes
s’expliquent par des relations d’intention » (IS, p. 308). Cette organisation
structurelle des relations d’intention manifeste tout à la fois un esprit subjectif,
c’est-à-dire une capacité à traiter en contexte pour-soi les significations
instituées – capacité soutenue par l’existence d’une machinerie capable de
l’instancier, en l’occurrence le corps et le cerveau –, et un esprit objectif qui
recèle ces significations instituées et organise les possibilités de coordonner ses
actes à ceux des autres particuliers. L’esprit subjectif est donc en ce sens une partie
de l’esprit objectif.
Il nous reste à comprendre comment se construit cette articulation de l’esprit
subjectif et de l’esprit objectif. C’est ce à quoi nous aide l’analyse que propose
Vincent Descombes dans le Complément de Sujet. Sa position est simple :
« comprendre la règle, ce n’est pas faire un “acte de comprendre” (qui devrait
embrasser d’un seul regard intellectuel l’ensemble infini des applications
possibles de la règle), mais c’est avoir la capacité de produire maintenant une
opération correcte au regard de la règle. L’agent montre qu’il a saisi la règle en
l’appliquant correctement » (CS, p. 448). L’exemple paradigmatique en est le
langage : les locuteurs natifs parlent leur langue maternelle sans être capables
d’en expliciter les règles, et surtout sans se référer pour chaque production
linguistique à une règle dont ils interpréteraient la signification pour en
déduire la forme correcte de leur énoncé. C’est bien « dans l’agent que se fait la
connexion intelligente entre la règle et l’action » (CS, p. 448), mais il n’y a
aucune force mystique métaphysique qui opérerait depuis la société vers l’agent
pour le faire agir selon son bon vouloir. C’est bien l’agent qui agit, mais il agit
sur le fondement d’une règle dont il a une compréhension pratique « laquelle
consiste seulement à savoir agir comme la règle le demande, sans passer par un
jugement explicite sur ce qu’elle demande » (CS, p. 449).
La norme sociale est « embodied », elle pré-structure motricité et perception au
point que le monde subjectivement (au sens de l’esprit subjectif ) vécu est le
monde objectivement (au sens de l’esprit objectif ) normé. Mais cet
« embodiment » n’est pas, contrairement aux usages classiques du terme, une
structuration « bottom-up » primaire, par les caractéristiques naturelles
préalables du corps. C’est une structuration « top-down » secondaire du corps
dans sa sensori-motricité par la socialité acquise, qui en rend les actions
concrètes isomorphes aux formes génériques instituées.
Ce qui se passe, pour cette formation du corps, c’est que « l’enfant, l’adulte,
imite des actes qui ont réussi et qu’il a vu réussir par des personnes en qui il a
confiance et qui ont autorité sur lui. L’acte s’impose du dehors, d’en haut, fût-il
un acte exclusivement biologique, concernant son corps. L’individu emprunte
la série des mouvements dont il est composé à l’acte exécuté devant lui ou avec
lui par les autres » (Mauss, 1934). Et, ajoute Mauss, « c’est précisément dans
[la] notion de prestige de la personne qui fait l’acte ordonné, autorisé, prouvé,
par rapport à l’individu imitateur, que se trouve tout l’élément social. Dans
l’acte imitateur qui suit se trouvent tout l’élément psychologique et l’élément
biologique. Mais le tout, l’ensemble est conditionné par les trois éléments
indissolublement liés ». Le terme essentiel ici est « indissolublement ». Nulle
analyse dissolvant cette liaison ne pourrait prétendre dire quoi que ce soit
d’intéressant, c’est-à-dire d’utile à l’action, sur le fait social total qu’elle aurait
ainsi détruit par la simple apposition de sa méthode réductionniste. L’acte
technique du corps « est senti par l’auteur comme un acte d’ordre mécanique,
physique ou physico-chimique et il est poursuivi dans ce but » : j’ai faim, je
mange ; j’ai soif, je bois ; j’ai besoin de voir, je regarde ; et jusqu’à je manque
d’oxygène, je respire. Tous ces actes ont l’évidence directe d’actions
biomécaniques. Pourtant « cette adaptation constante à un but physique,
mécanique, chimique (par exemple quand nous buvons) est poursuivie dans
une série d’actes montés, et montés chez l’individu non pas simplement par
lui-même, mais par toute son éducation, par toute la société dont il fait partie,
à la place qu’il y occupe ». Et dans tout ce dispositif « monté », Mauss voit « les
faits psychologiques comme engrenage et […] ne les voit pas comme causes,
sauf dans les rares moments de création ou de réforme ». Certes, « les cas
d’adaptation sont une chose psychologique individuelle ». Mais généralement,
« ils sont commandés par l’éducation, et au moins par les circonstances de la
vie en commun, du contact ».

De l’esprit des institutions à l’esprit des individus


Il nous reste désormais à examiner ce qu’impliquent les thèses que nous venons
de développer pour les questions de santé mentale. La piste est esquissée dès
l’introduction de son Esprit malade (Castel, 2010) par Pierre-Henri Castel :
c’est qu’il faut « revenir sur le “je”, y compris sur les théories psychologiques les
plus sophistiquées qu’on en a (psychanalytiques ou cognitives) à partir de
l’irréductible extériorité de l’esprit, des règles linguistiques qu’il suit et des
contraintes logiques de l’agir et de l’agir collectif auquel il est soumis » (p. 21).
Car on ne peut pas, nous l’avons amplement montré dans les pages
précédentes, faire « dériver cette extériorité-là, sociale et culturelle, d’une
intériorité quelconque, psycho- ou neuro-biologique » (idem). Il est donc
nécessaire, pour apprendre quelque chose de cette partie du « je » qui est un
« nous » – étant entendu qu’il y a d’autres parties du « je » qui ne sont pas ce
« nous », et que dans ces autres parties il y a des composants naturels –
d’examiner et d’être sensible à ce qui constitue « les langues, les institutions, les
rites et les rituels, les usages sociaux du corps, la grammaire logique de
l’expression des émotions, ou encore la signification des délires, des actes
compulsifs, etc. » (p. 17).
Examinons comment il applique cette démarche à un cas particulier, celui de la
compréhension de la dépression. Le premier point est l’élimination dans les
théories contemporaines de la dépression de ses raisons, c’est-à-dire des raisons
qu’a le dépressif de l’être, au profit de ses causes naturelles – en l’occurrence
cérébrales –, lesdites raisons étant postulées être de simples effets desdites
causes, des artefacts ou des rationalisations a posteriori, qui ne joueraient
aucun rôle constitutif dans la dépression elle-même. Les états mentaux –
la dépression – sont ici postulés être des effets causés par des états cérébraux,
eux-mêmes postulés dysfonctionnels. Mais lesdits états mentaux ne sont en
réalité rien de plus que la collection des différents items arbitrairement
découpés par les instruments psychométriques utilisés pour évaluer la
dépression et ses évolutions dans les études sur l’efficacité des traitements. En
effet, c’est un sujet que nous avons déjà largement abordé dans les pages
précédentes, seuls des items standardisés, disjoints, et décontextualisés sont
traitables par les procédures statistiques indispensables à la production des
tailles d’effets des interventions à comparer. Mais « les “troubles dépressifs”
obtenus par ce moyen [n’ont plus] par principe aucun ancrage subjectif, [ni
même] et c’est encore plus important d’ancrage individuel » (p. 148). Aucune
des circonstances particulières valables pour la dépression de Paul ou de
Virginie ne peut être intégrée à ces items, sans détruire immédiatement toute
possibilité de comparer les individus, et donc de produire des résultats
statistiques. Mais ce faisant, on fait perdre à la dépression « toute qualité et
toute forme, elle n’est plus rien qui se vive, mais quelque chose = x qui a pour
effet que vous éprouvez en gros (i.e. statistiquement) ce que les gens nomment
dépression quand ils n’ont plus que ce mot pour parler de leur tristesse, de leur
deuil, de leur épuisement » (ibid.). La dépression est donc cette chose = x dont
on postule l’existence cérébrale et qui aurait pour effet de produire des scores
élevés sur les items des échelles de dépressivité. Mais que des personnes
souffrant de « quelque chose » puissent décrire ce quelque chose dans les
termes des questions qu’on leur pose, et seulement celles-ci, pour décrire ce
dont elles souffrent, ce qui permet de dire que cette chose existe bien, il n’y a là
rien de très mystérieux. Au-delà, lorsque le langage des questionnaires
imprègne l’idiome de la santé mentale qu’il est requis d’utiliser pour parler de
son mal-être à autrui, il n’y a pas de difficultés à « persuader les patients de
s’autodécrire dans ces termes naturalisés (de répondre par « je pleure moins »
ou « je dors plus », etc.), ce qui « confirme » leur pertinence. Le lexique
scientifique de la dépression naturalisée fonctionne alors au second degré
comme un nouvel espace de raisons, suscitant d’autres interactions, selon
d’autres règles sociales » (p. 151). Un processus que Castel résume de la façon
suivante (ibid.) :
– On traite les expressions de la dépression comme des effets neurobiologiques.
– On individualise ces effets chacun à part, afin de pouvoir en quantifier et
mesurer les variations. En revanche, les signes émotifs et les expressions
narratives de la dépression appartiennent à un réseau où ils ne font sens qu’en
relation les uns avec les autres.
– L’écrasement des signes sur des causes capte les régularités les plus générales
du processus dépressif. Mais c’est en homogénéisant /moyennant les
expériences dépressives, en sorte que ce processus dépressif résulte au moins
autant de l’opération statistique que du fait qui la précède et est mesuré par
elle.
– L’épidémiologue et le psychopharmacologue ont besoin de cette réécriture
causale / quantitative / psychométrique pour définir l’objet « dépression ».
– Et finalement on peut persuader les patients de s’auto-décrire dans ce
nouveau langage.
Mais ce nouveau langage n’est pas la description supposément scientifique d’un
état supposément naturel, que les mots de la psychométrie viendraient
exactement désigner, enfin débarrassés des scories du social, des représentations
et des croyances. Ce qu’apportent ces termes, c’est une nouvelle représentation
sociale, de nouvelles institutions du sens, de nouvelles structures signifiantes,
qui opèrent dans la relation, qu’il s’agisse de relation avec un thérapeute ou de
relations sociales communes, en façonnant les « particuliers » qui instancient
les rôles et les catégories qu’elles définissent. Ils apportent une nouvelle socialité
humaine, c’est-à-dire qu’ils « ne produisent pas seulement des explications pour
les hommes, mais des hommes pour ces explications » (p. 27). Et, bien
évidemment, ceci ne se limite pas à la dépression. Ce dispositif vaut pour
toutes les questions de santé mentale.
Ainsi, pour en revenir aux programmes de formation aux pratiques parentales à
l’origine de cet ouvrage « on ne parle pas innocemment des conditions du bon
développement neurobiologique des enfants ; on en infère les conditions
neurobiologiques, donc “apolitiques”, du bon développement en général, dont
les adultes se retrouvent responsables comme citoyens. À eux d’y conformer les
institutions et pratiques éducatives » (p. 27). C’est donc toute une « fabrique
de l’humain » qui se joue ici, dont il convient de comprendre les implications
avant que de la laisser se mettre en place, portée par l’apparente obligation
morale de résoudre les « graves problèmes de santé publique » posés par les
altérations de la santé mentale. Car tout aussi graves sont les conséquences de
ces nouvelles institutions du sens dans la santé mentale : « s’il s’agit de réduire
au silence la folie qui commence, les conséquences en sont si graves sur la
manière dont je travaille chaque jour à rester proche des fous, qu’il me faut un
peu plus qu’une éblouissante conjonction de philosophie, de clinique et de
neurosciences pour renoncer aux postures traditionnelles du soin psychique »,
écrit Pierre-Henri Castel (p. 136) en conclusion de son chapitre sur
« l’hypothèse Grivois-Proust-Jeannerod » (naturaliste) du moment inaugural de
la psychose. Si ce propos est ici appliqué au cas particulier de la psychose, il
vaut tout autant dans le cas plus général de la santé mentale : s’il s’agit de
réduire au non-sens du biologique, et donc au silence, la souffrance psychique
et les manifestations qui l’accompagnent, les conséquences en sont si graves sur
ce que nous mettons en place pour les accueillir et tenter de les faire évoluer
qu’il nous faut plus qu’une conjonction de tailles d’effet, d’odd-ratios, et
d’imagerie cérébrale épigénétisée pour renoncer à des modalités de soin
psychique dont langage et socialité forment les fondements.
Que perdrions-nous donc de si important à adopter l’idiome épidémiologico-
naturaliste de la santé mentale ? Beaucoup de choses, mais que l’on peut sans
trop d’approximation ramener à la perte d’un principe fondamental : la notion
que les actions humaines, à la différence de celles de la méduse, de l’aplysie
d’Éric Kandell, ou des enfants des programmes PFI, sont des actes, c’est-à-dire
qu’elles sont orientées par une intentionnalité, dont l’action est le support, et
non la cause. « Être social, ce n’est nullement effectuer des actions, au sens de
mouvements matériels et corporels, mais poser des actes. Ne rien dire, ne rien
faire, cela peut avoir les conséquences les plus considérables. […] La raison en
est que nos “faits et gestes” sont avant tout interprétés comme des actes et pas
juste perçus comme des mouvements » (Castel, p. 161). À l’instar des soldats
anglais de Mauss dont la motricité ne pouvait produire de marche militaire
française, la motricité des dépressifs, comme celle de chacun, est – pour
reprendre les termes d’Alain Ehrenberg – entièrement traversée du social,
jusque dans son inhibition ou son extinction. Il n’y a pas que le Bartleby de
Melville (Melville, 2010) pour constituer une non-action en acte – et en
mourir d’ailleurs. Tout vaut acte chez l’humain, et c’est pourquoi il est vain –
dans la dépression comme ailleurs, dans le trouble des conduites dans
l’hyperactivité, le trouble oppositionnel…, ou n’importe quelle conduite
humaine, dont la recatégorisation d’action à acte commence dès la première
seconde de la naissance, et sans doute avant – « l’espoir de capter […] un
noyau pré-discursif, présocial, ou pour ainsi dire une ancre qui arrête la dérive
infinie des descriptions et des évaluations intentionnelles de l’agent et de ceux
avec qui il interagit » (Castel, p. 162). En vérité, mais seulement sous réserve
qu’on veuille bien y consacrer le temps, la finesse et la compétence nécessaire,
« il reste constamment possible de rendre compréhensibles [les] dépressions,
[les] plus profondes et [les] plus biologiquement déterminées » (ibid., p. 165),
tout autant qu’il reste constamment possible de rendre compréhensibles les
troubles des conduites, les troubles anxieux, les troubles de l’attention, les
troubles oppositionnels, les troubles de la personnalité… bref tous ces troubles
que l’approche épidémiologico-naturaliste de la santé publique rend
incompréhensibles en les limitant aux quelques pourcents de variance de
quelques portions atomisées de fonctionnements « qu’expliquent » les théories
et les interventions qu’elle produit. Quelques petits pourcents car, comme les
échecs empiriquement observés de cette approche en santé mentale nous
l’indiquaient, comme les résultats de Wampold sur le modèle contextuel en
psychothérapie nous le montraient expérimentalement, comme l’analyse
d’Alain Ehrenberg et de Vincent Descombes nous le suggérait socio-
épistémologiquement, et comme celle de Pierre-Henri Castel nous le montre
logico-grammaticalement « on aura beau faire, l’appréciation de la situation,
donc les intentions supposées des autres et, réciproquement celles qu’ils nous
imputent, auront toujours préséance sur les intentions motrices, même
précâblées, pour interagir avec les régularités saillantes du milieu comme avec
nos congénères – ou, du moins, ceux d’entre eux que nous tenons pour des
“semblables”, ce qui dépend des conditions, instituées et morales, de
l’interaction. Il est donc vraisemblable que ces intentions motrices déterminent
très peu nos interactions » (Castel, p. 165).
La clé ne fonctionne que dans la serrure pour laquelle elle a été conçue. Ce
n’est pas par hasard, en piochant sa forme dans un ensemble « naturel » de clés
comme on piocherait dans un ensemble naturel de cailloux pour en trouver un
qui sied bien à faire des ricochets, que la clé prend la forme qui sied à la
serrure. C’est parce qu’elles sont l’une et l’autre les produits de moules qui
dérivent d’un plan qui a été conçu dans le but de les faire se correspondre.
Mais dans cette métaphore de la relation sociale, l’humain souffrant (comme
d’ailleurs tout humain, tout enfant) qui se présente à quelqu’un ou quelque
chose dont il espère qu’il lui apportera de l’aide – un thérapeute, un dispositif
de santé publique – n’est pas une clé qui trouve sa serrure. C’est plutôt
l’équivalent d’un parapluie de serrurier, ce petit outil à tiges mobiles qui prend
progressivement la forme de la serrure dans laquelle on l’insère, qui va intégrer
progressivement la forme des affordances que propose l’environnement. Les
positions relationnelles de l’enfant à ses parents, du patient au thérapeute, du
subordonné au directeur – pour reprendre les trois professions impossibles de
Freud – ne sont pas symétriques. Le parent, le thérapeute, le directeur affordent
davantage que l’enfant, le patient, le subordonné qui eux se conforment
davantage. Les relations / institutions sociales sont, nous l’avons vu, des formes
de formes. Elles sont conformantes en ce qu’elles exigent des compatibilités
morpho-logiques des individus aux places qu’ils occupent dans la totalité
structurée des institutions / relations sociales. Mais compatibilité n’est ni
conformité, ni assujettissement. Compatibilité implique simplement – mais
c’est une simplicité bien difficile à atteindre – la capacité d’exercer « le jeu
raffiné (le libre jeu, si l’on préfère) des raisons qui permettent aux êtres
humains d’interagir au moyen du langage ordinaire » (p. 173). C’est cette
capacité qu’il faut permettre aux enfants d’acquérir et de développer, aux
patients de réacquérir et de développer, par la mise en place d’un cadre (d’un
contexte dans les termes de Wampold) qui offre (« afforde ») les conditions
nécessaires à cela.
Et ce cadre ne peut être instituant, dans le sens que nous venons de préciser,
que s’il est constitué d’une totalité signifiante articulée de façon pertinente aux
totalités signifiantes sur-ordonnées (celles au sein desquelles prend place le
cadre dans lequel s’insère la relation). S’il n’y a dans ce cadre – qui est celui
qu’institue le « soignant » (parent, thérapeute, dispositif de santé publique) –
pour toute totalité signifiante articulée que des entités naturelles supposées agir
en sous-main pour causer ce qui advient (structures cérébrales,
neuromédiateurs, protéines, infrastructures pulsionnelles… peu importe), ou
des facteurs de risque atomisés dont il s’agirait de réduire pour chacun l’odd-
ratio du problème à venir, on conçoit que la possibilité pour le patient, l’enfant
qui y serait cadré de développer un « esprit subjectif » riche, cohérent, créatif,
compatible mais non asservi à « l’esprit objectif » dont il est partie, et
générateur de joie de vivre plutôt que de souffrance psychique, risque d’être
sérieusement réduite.
En ce sens, le dispositif actuel de santé publique en santé mentale, et la
conformation des interventions qui en découle, sont en eux-mêmes un
problème de santé publique !

Le raisonnement de l’ours
Revenons pour comprendre ce problème à la fable de La Fontaine citée en
exergue de cet ouvrage, celle de l’Ours et du Jardinier, dont j’ai emprunté l’idée
à Vincent Descombes qui s’en sert de support dans le chapitre « Le
raisonnement de l’ours » de son ouvrage éponyme (Descombes, 2007). L’ours,
que j’utilise ici on l’aura compris comme une allégorie de la santé publique en
santé mentale, est un mauvais raisonneur dit Descombes. Ce n’est pas un
mauvais raisonneur parce qu’il aurait tiré de prémisses explicitement posées des
conséquences qui n’en découlaient pas logiquement, mais parce qu’« il a oublié
qu’il n’était pas seulement en charge d’une fin unique […], mais aussi de tout
un ensemble complexe et diffus de fins qu’il lui appartenait d’ordonner dans sa
délibération » (p. 120). C’est bien le cas de la santé publique en santé mentale :
obnubilée par ses louables intentions d’empêcher ses administrés, adultes
comme enfants, nés ou à naître, de boire, de fumer, d’être distraits, tristes,
anxieux, bizarres, opposants, énervés, différents, de conduire trop vite,
d’écouter trop fort, de bronzer trop longtemps, de consommer des aliments-
trop-gras-trop-salés-trop-sucrés ou moins-de-5-fruits-et-légumes-par-jour, bref
de nuire à l’idéal de santé totale de l’OMS, la santé publique a oublié que
c’était seulement s’ils demeuraient des humains, avec tout ce que nous venons
de voir que cela (pré-)suppose qu’il y avait peut-être un intérêt à ce qu’ils
boivent moins, fument moins, s’agitent moins, et mangent plus de brocolis.
S’il faut instituer comme cadre éducatif des enfants, ou comme cadre
thérapeutique des patients, plus généralement comme cadre de vie des
administrés de la santé publique une boîte de Skinner pour qu’ils décalent de
quatre ans – dans les écoles d’Iowa du Sud ou les expérimentations ont été
menées – leur première consommation de bière non autorisée, aurons-nous
vraiment fait mieux que l’ours de La Fontaine ?
Mais si l’ours, et la santé publique en santé mentale, sont de mauvais
raisonneurs, que serait un raisonnement satisfaisant en cette matière, matière
pratique, puisqu’il est question d’agir concrètement dans la vie des gens ?
L’élément central que propose Descombes, est qu’« il ne suffit pas qu’un
raisonnement porte sur une matière pratique pour qu’il soit pratique, il faut
qu’il affecte réellement la conduite du sujet » (p. 114). Ce qui distingue le
raisonnement pratique du raisonnement logique, c’est qu’il se termine par une
action, et pas par la seule acquisition d’une opinion sur ce qu’il faut faire. La
conséquence, énorme pour les sujets dont nous traitons ici, est que le
raisonnement pratique ne doit pas seulement être conçu dans une perspective
pratique (dans un plan de santé publique, un manuel d’intervention, un
protocole d’éducation…) à l’intention d’un sujet qui veut agir rationnellement
(un thérapeute, un médecin de santé publique, un parent…) ; « le
raisonnement [pratique] doit être construit par le sujet pratique lui-même, par
celui qui va agir pour les raisons assemblées par le syllogisme [pratique] »
(idem). C’est une position que Descombes, en cohérence avec les positions que
nous avons présentées plus haut, appelle « intentionnaliste », pour dire que
« l’analyse du « syllogisme pratique » fait apparaître une structure
intentionnelle », c’est-à-dire en d’autres termes « une structure téléologique
dans laquelle la fin répond à une intention du sujet » (p. 115).
Le raisonnement théorique n’est contestable que de deux manières : soit on
montre qu’une prémisse est fausse soit on montre qu’une étape du
raisonnement est erronée. Les logiques de démonstration de la santé publique
que nous avons examinées dans cet ouvrage sont des raisonnements théoriques :
ils peuvent être attaqués par ces deux moyens (et nous avons vu que souvent
l’attaque porte, tant les biais de raisonnement sont courants), mais s’il s’avérait
qu’un raisonnement de santé publique résiste à la contradiction logique, il
devrait être considéré comme vrai, et donc engendrer sa mise en œuvre
concrète. Soit par exemple le raisonnement suivant : il est bon de décaler l’âge
de première consommation d’alcool ; or le programme X décale l’âge de
première consommation d’alcool ; donc il faut mettre en œuvre le programme
X. Sous réserve que la prémisse soit correcte, et la conséquence démontrée, le
raisonnement n’est pas attaquable sur des bases logiques, il faut donc accepter
la conclusion. C’est pourtant là un exemple de raisonnement de l’ours, que
l’on aimerait pouvoir contester avant que le jardinier n’ait la tête fracassée, ou
que les enfants ne soient devenus sobres, mais idiots. La solution que propose
Descombes est que le raisonnement, lorsqu’il est pratique, peut être contesté
par une troisième méthode : l’ajout d’une prémisse qui remet en cause la
conclusion. Le raisonnement pratique est à cet égard similaire au raisonnement
juridique dont les conclusions sont annulables en cas d’apparition d’éléments
nouveaux dont on aurait voulu tenir compte si on avait pu en avoir connaissance
au moment de construire l’inférence ou de poser l’acte. Ainsi, l’ours a oublié
d’inclure dans ses prémisses une clause précisant que le moyen utilisé pour
chasser la mouche ne devait pas contredire la finalité implicite de l’acte, qui
était de préserver le sommeil du dormeur. Si cette clause est ajoutée, les effets
du moyen contredisent cette fin, et le raisonnement est donc pratiquement
erroné. C’est la bonne vieille blague sur les stratégies de raisonnement des
chirurgiens : « l’opération a réussi, mais le malade est mort ».
Le problème d’introduire des finalités hétérogènes, car provenant d’horizons et
de champs différents, c’est qu’il se pose immédiatement la question de leur
hiérarchisation. Vous me dites que ce programme rend les enfants idiots au
motif de les rendre sobres. Peut-être. Mais pourquoi ne serait-il pas préférable
de les rendre sobres, même si cela les rend idiots ? Après tout, l’alcool ne rend-il
pas idiot lui aussi ? Qui va hiérarchiser ces finalités, et comment ? Vincent
Descombes, dans un texte intitulé L’illusion nomocratique (Descombes, 2007,
pp. 287-308), où il reprend les analyses de Cornelius Castoriadis sur le
Politique de Platon (Castoriadis, 1999), propose quelques pistes de réflexion
utiles.
Reprenons tout d’abord le texte de Platon sur la loi dans la traduction qu’en
donne Castoriadis, pour en apprécier la pertinence s’agissant du type
d’approche de la santé publique que nous examinons depuis les premières
pages de cet ouvrage : « Jamais la loi ne pourra, en embrassant exactement ce
qui est le meilleur et le plus juste pour tous, ordonner ce qui est le plus parfait,
car les dissimilitudes des hommes et des actes et le fait que presque aucune
chose humaine n’est jamais en repos ne permettent d’énoncer rien d’absolu
et allant de soi pour tous les cas et pour tous les temps dans aucune matière et
pour aucune science. […] Or nous voyons que c’est à cela même que la loi veut
parvenir, c’est-à-dire énoncer des absolus valant pour tous et pour tous les cas,
comme un homme arrogant et ignare qui ne permettrait à personne de rien
faire contre ses ordres ni de lui poser des questions, ni même, si quelque chose
de nouveau survenait, de faire mieux que ce que postule la loi en dehors de ses
prescriptions » (Descombes, 2007, p. 288).
C’est toujours aussi vrai 2 500 ans plus tard, l’invention de l’Essai contrôlé
randomisé, de la méta-analyse, et de l’evidence-based policy ayant redonné un
nouveau souffle à cette illusion nomocratique. Le problème n’est pas que les
lois, ou les manuels evidence-based, soient contingentement imparfaits, et que
cette imperfection puisse être améliorée par des modifications ou des
découvertes ultérieures : « ce qui est en cause n’est pas la loi elle-même, mais la
nature des choses : le propre des choses humaines, c’est qu’elles ne sont jamais
en repos, jamais semblables. C’est pourquoi la rationalité pratique ne peut pas
être modelée sur les formes de la rationalité théorique (déductive) »
(Descombes, 2007, p. 289).
Dans ce texte de Platon, Castoriadis trouve le « noyau de toute critique du
totalitarisme », une critique que nous pouvons transposer aux prétentions
totales de la santé publique et qui porte sur trois niveaux : le totalitarisme
inhérent à l’utopie ; le totalitarisme comme idéal d’un pouvoir de direction
séparé de toutes les tâches d’exécution ; le totalitarisme comme promotion de
l’universel abstrait. La critique de l’utopie, c’est d’abord la condamnation de
toute utopie, c’est-à-dire « de toute tentative de définir et fixer la société
parfaite » (Descombes, 2007, p. 293), par exemple la société en parfaite santé.
Et c’est dans l’usage normatif du singulier du substantif (généralement assorti
d’une majuscule, explicite ou implicite) que Descombes voit « l’utopie par
excellence » (p. 294). C’est à partir de l’exemple de la Révolution qu’il raisonne,
mais ce raisonnement s’applique tout autant à la Santé. La deuxième critique
est celle de la bureaucratie, et plus généralement de la tendance des sociétés
modernes à la « rationalisation », selon les termes de Weber. La bureaucratie,
c’est la conjonction de deux phénomènes (p. 295) : une division des tâches
d’exécution et des tâches de direction ou de conception des buts ; une
rationalisation des tâches d’exécution en vue d’en maximiser l’efficience par
une décomposition suivie d’une programmation séquentielle éliminant toute
espèce d’hésitation, d’incertitude ou de recours au jugement personnel de
l’agent. Une description qui s’applique parfaitement aux dispositifs de santé
publique que nous avons examinés, de la conception des plans de santé
publique avec leurs objectifs et leurs indicateurs aux procédures des manuels
formalisant les pratiques (parentales par exemple). Cette tentative d’intégrer de
façon dense toutes les étapes du chemin qui va des objectifs de santé publique
aux comportements que doivent, par exemple, avoir les parents face à leurs
enfants relève à l’évidence de l’épistémologie fonctionnaliste la plus brutale.
Penser ainsi la santé (publique), c’est concevoir la société, via la santé, comme
une usine où, à l’instar de l’ouvrier transformé en « un pur principe physique
de mise en mouvement » (Descombes, 2007, p. 296), le citoyen se voit
dépossédé des fins qu’il vise, « de tout élément de direction, de signification de
son acte [qui] lui est enlevé pour être déposé dans la réglementation
bureaucratique ». La critique de l’universel abstrait ne porte pas sur
l’entendement théorique, mais sur l’entendement pratique. L’entendement
théorique a fonction de « concevoir des genres de choses et de classer les choses
dans ces genres ». C’est essentiellement une fonction descriptive. Abstraire,
faire abstraction, en matière descriptive est sans conséquence. Je n’ai rien dit de
faux en disant qu’il y a un animal dans ce jardin, plutôt que de dire qu’il y a
Médor. Pas plus qu’en disant que le fait de suivre tel programme de formation
aux pratiques parentales décale – peut-être – dans le temps la première
consommation d’alcool non autorisée chez un enfant sur dix ayant suivi le
programme. Mais je n’ai rien dit de pratiquement utile non plus. Car en
abstrayant, j’ai pu faire abstraction de ce qui, précisément, était pertinent pour
l’action. Si je dois rentrer dans le jardin en passant par-dessus la barrière, savoir
qu’il y a un animal dans ce jardin ne m’est pas de la même utilité que de savoir
si c’est un hérisson ou un pit-bull affamé. Si je dois choisir comment éduquer
mes enfants, faire abstraction de tout ce qui constitue leur vie hors la date de
leur future première consommation d’alcool a des conséquences pratiques qui
sont telles que je ne peux pas souhaiter faire cette abstraction, si je les considère
dans leur ensemble. Abstraire, en matière pratique, « est une décision qui peut
être grave » (Descombes, 2007, p. 300). La rationalité pratique ne requiert pas
seulement la rationalité théorique ; elle requiert surtout la faculté de phronèsis,
c’est-à-dire « la faculté de juger non pas seulement si tel cas entre dans le
champ d’application de telle règle, mais bien de discerner ce qui est pertinent
et ce qui ne l’est pas » (p. 301). La phronèsis, selon la définition qu’en donne
Castoriadis et que reprend Descombes « c’est le jugement dans ce qu’il a de
créateur » (Descombes, 2007, p. 301). Et ce qu’il a de créateur, ce n’est pas de
trouver à partir d’un cas unique une règle originale qui s’applique à ce cas, sans
intégrer en rien les règles plus générales déjà disponibles ; c’est de savoir faire
avec le fait qu’une situation n’est précisément pas un cas, où telle règle
particulière doit s’appliquer, mais plusieurs cas en un seul, « comme le point
d’application possible de plusieurs règles, qui ne sont pas toujours
conciliables » (p. 303). On ne doit pas confondre « le travail théorique de
l’enquêteur » (qui est celui du scientifique, épidémiologiste, évaluateur,
expérimentaliste, etc.) et « le travail délibératif d’un acteur », qui est celui que
doit accomplir toute personne concrète ayant à accomplir un acte en situation.
La capacité créative phronétique, c’est de savoir utiliser de façon pertinente, en
situation, les multiples abstractions possibles de cette situation, éventuellement
contradictoires, pour ce qu’elles sont capables d’apporter pour le choix de
l’action. C’est « l’exercice d’un sens qui permet de distinguer ce qui est
pertinent et ce qui ne l’est pas. Il ne s’agit plus [seulement] de ce qui existe,
mais de ce qui importe. Il s’agit d’assigner un ordre de valeur ou de priorité : il
y a les choses importantes, qu’on ne peut pas se permettre de négliger, et il y a
les choses secondaires, qu’on peut tenir pour insignifiantes ou indifférentes à la
chose qui nous occupe » (p. 304). Et c’est par l’éducation que, comme le reste,
ce sens peut se développer, et ce que Castoriadis applique à la démocratie et
aux lois s’applique tout autant à la santé et aux sciences : « si donc nous
acceptons qu’il y ait un petit espoir avec cette foule du bétail humain, à ce
moment-là la conséquence du texte platonicien est évidente : c’est l’auto-
institution démocratique permanente de la société [l’auto-institution
permanente de la santé publique]. Pourquoi ? Parce qu’il faut éduquer les gens
de telle sorte qu’ils puissent eux-mêmes constamment combler cet écart entre
les grammata, les lettres mortes de la loi [des sciences], et la réalité, qu’ils
puissent eux-mêmes chacun s’asseoir à leur propre chevet – puisque personne
d’autre ne peut le faire pour eux » (p. 307).
C’est ce que devrait faire tout dispositif de santé publique en santé mentale qui
ne s’inscrit pas dans une dynamique tendanciellement totalitaire. Non pas
mettre en place une organisation scientifico-bureaucratique visant à
promouvoir et à instancier une utopie de santé abstraite et universelle, reposant
de surcroît s’agissant de santé mentale sur une conception
épistémologiquement problématique – pour dire le moins – de l’esprit, mais
agir de sorte à permettre aux citoyens de développer et d’appliquer ce sens
phronétique, dont l’exercice aura, de surcroît, des effets positifs de santé
publique sans qu’ils aient été visés en tant que tels.
19. Le langage et les représentations sont d’époque, il va de soi que cela ne s’applique pas
qu’aux mères.
20. C’est moi qui souligne.
21. La seule manière ayant une cohérence logique de concevoir une auto-fondation non
magique est de la fonder dans la génétique : c’est seulement s’ils la contenaient déjà dans
leurs gènes que la société peut émerger de l’interaction des individus. C’est d’ailleurs de fait,
nous l’avons vu, la position qui sous-tend les approches de santé publique que nous avons
évoquées, celle du « sujet cérébral ».
22. L’accentuation est d’origine.
Conclusion

N ous voici parvenus au terme de la triangulation méthodologique, empirique


et socio-épistémologique que j’annonçais en introduction. Reprenons-en
les principales étapes. Nous avons tout d’abord examiné un programme nord-
américain de formation aux pratiques parentales et familiales, destiné à
contrôler les consommations de psychotropes et les comportements
« déviants » des enfants. Ce programme a été examiné non pas en tant qu’il
présenterait un intérêt particulier, mais au contraire en tant qu’il représente un
exemple tout à fait commun et paradigmatique des démarches et programmes
evidence-based dominants en prévention, promotion, et prise en charge de la
santé mentale en santé publique, tels que les promeuvent par exemple l’INPES,
l’INSERM, l’OMS…
L’examen a révélé que ce(s) programme(s) sont des instanciations typiques du
modèle médical que nous avons examiné dans la deuxième partie. Les
individus y sont construits au sein de la famille, plus généralement au sein de la
société, comme des monades indépendantes entrant en relations
interpersonnelles au sein d’un environnement conçu comme un biotope.
L’éducation des enfants, et plus généralement la régulation des comportements
individuels et interindividuels, y sont conçues comme résultant de la
manipulation par les parents des contingences environnementales, dont les
parents eux-mêmes, autour de la technique de conditionnement opérant
skinnérien. Les personnes y sont réduites à un ensemble de facteurs, de
symptômes non articulés entre eux, et qui sont ciblés par des interventions
spécifiques reposant sur des hypothèses étiologiques internes à ces personnes,
ou à des facteurs environnementaux eux-mêmes factorisés. Les interventions
préconisées, décrites dans des manuels standardisés, sont a-contextuelles et a-
sociales. Conçues à partir de modèles théoriques simplistes et non-articulés
entre eux, quand ce n’est pas uniquement à partir de leurs effets
empiriquement observés sur quelques indicateurs considérés comme mesurant
des « problèmes de santé publique », ces interventions sont généralement d’une
grande pauvreté, lorsqu’elles ne recommandent pas au nom d’une efficacité
supposée sur un problème donné des stratégies comportementales dont les
effets délétères sont manifestes (manger un sandwich pour gérer le stress,
ignorer les enfants avec un visage de marbre et sans aucune parole lorsqu’ils ont
un comportement qui déplaît, leur demander de jouer l’émotion qu’ils
ressentiraient si leur « grand-mère préférée » mourait – juste après leur avoir
demandé de jouer celle qu’il ressentirait si un chien mangeait leur glace –,
réduire l’écoute à la capacité d’exécuter un ordre procédural…). Tout ceci dans
le but de faire varier quelques indicateurs lointainement reliés à des problèmes
de santé publique, variations dont l’ampleur est le plus souvent, si on les
considère dans leur valeur faciale présentée, sans intérêt réel clinique ou de
santé publique, et qui sont généralement réduites à néant si l’on intègre les
biais méthodologiques des études qui ont servi à les produire. En le formulant
dans les termes de l’idiome de la santé publique, le rapport bénéfice-risque de
ces interventions est dérisoire, quand il n’est pas nul ou défavorable. Faut-il par
exemple prendre pour les enfants le risque des conséquences délétères
prévisibles, ou empiriquement observées, des stratégies éducatives ou de
prévention des troubles mentaux recommandées dans les programmes evidence-
based, en utilisant ces programmes non seulement en prévention indiquée,
mais en population générale, au motif que ces programmes décaleraient de
trois ans chez un enfant sur dix la première consommation d’alcool non
autorisée, ou réduirait d’un dixième de verre la quantité consommée ? Surtout
lorsque ce résultat, par lui-même sans aucun intérêt, repose in fine sur le fait
qu’il y ait eu une soirée d’anniversaire arrosée de plus ou de moins dans l’une
des écoles de l’étude ayant produit ces résultats. La réponse à ces questions est
évidemment au terme de la première critique, méthodologique, que nous
avons conduite, clairement négative.
Pourrait-on cependant considérer que ces rapports bénéfices-risques dérisoires
ou défavorables, ne seraient que contingents, et que des améliorations à venir
dans les programmes les augmenteraient ? La réponse, obtenue dans la
deuxième partie après analyse des résultats empiriques disponibles sur
l’évaluation des psychothérapies est à nouveau négative. Les travaux menés par
Bruce Wampold montrent en effet que le modèle médical qui sous-tend la
conception de ces programmes n’est pas soutenu par les faits, qu’il est erroné,
et qu’aucune nouvelle intervention qui s’en inspirerait ne pourrait prétendre à
faire mieux que celles dont nous disposons déjà. Aucune « découverte miracle »
n’est à attendre dans ce domaine. Bien au contraire, persister dans la logique du
modèle médical, c’est se limiter à ordonner par ordre d’efficacité des
interventions dont on a par avance restreint l’espace d’efficacité envisageable à
une toute petite sous-partie des possibilités théoriques, au motif qu’elles sont
examinables par les méthodologies nécessaires au modèle médical.
L’analyse épistémo-sociologique menée en troisième partie permet de
comprendre les raisons de ces constats. La logique promue par le modèle
médical tel qu’utilisé par la santé publique pour s’attaquer à la santé mentale
est nécessairement inefficace, parce qu’elle est inadaptée à l’objet qu’elle vise, les
troubles de l’esprit subjectif (la « santé mentale »), dont les travaux de Vincent
Descombes, Alain Ehrenberg et Pierre-Henri Castel montrent qu’il doit être
considéré comme une partie articulée à une totalité signifiante, l’esprit objectif,
constitué de et organisé par des institutions sociales du sens, pour la
compréhension et la transformation de laquelle il est impossible de faire
abstraction de la socialité, de l’intentionnalité et du sens. Aucune analyse des
conduites humaines qui tenterait cette abstraction – et c’est le cas de toute
l’épidémiologie psychiatrique et des approches individualistes du psychisme et
de la santé mentale –, et aucune intervention dont la conception reposerait sur
ce type d’analyse, ne pourrait prétendre parvenir à quoi que ce soit d’utile à
une action pertinente. Au contraire, puisque toute méthode de ce type détruit
l’objet qu’elle prétend analyser en en désarticulant les articulations signifiantes,
toute tentative de conformer le réel aux modèles qu’elle produirait constituerait
un appauvrissement majeur de ce réel, et de l’humain dont il est fait.
Les conséquences de la thèse qui est soutenue ici sont majeures pour
l’organisation de la prise en charge comme de la prévention et de la promotion
en santé mentale. C’est à l’opposé de la direction indiquée par les divers
programmes evidence-based, plus généralement à l’opposé du modèle
biomédical, qu’il faut se diriger pour intervenir en santé mentale. Plutôt que
d’universaliser, de standardiser, de décontextualiser et de désémantiser les
dispositifs, il faut au contraire les localiser, les singulariser, les contextualiser et
les sémantiser. Pour cela, plutôt que de réduire la formation des intervenants,
qu’ils soient au contact direct des personnes ou plus en amont dans
l’organisation des politiques, à l’apprentissage conforme en quelques mois, par
des personnels peu qualifiés, d’une liste de manuels d’intervention associés à
une liste de troubles mentaux universalisés, il faut au contraire doter des
intervenants hautement qualifiés d’une formation complexe, intégrant
l’ensemble des compétences pratiques et des connaissances théoriques
nécessaires à l’exercice pratique du discernement nécessaire pour intervenir
avec pertinence sur les situations toujours complexes qui constituent les
problématiques de santé mentale.
S’il fallait nommer en quelques mots l’erreur fondamentale des approches
contemporaines de la santé publique en santé mentale que nous avons
examinées tout au long de cet ouvrage, il s’agirait de l’adhésion forcenée au
mythe de l’auto-fondation du sujet dans une substance naturelle, en
l’occurrence la matière cérébrale. La démarche sociologique et épistémologique
que nous avons suivie permet d’en montrer le caractère erroné et les
conséquences délétères s’agissant du sujet socialisé et parlant qu’est l’être
humain (Briffault, 2009). D’autres démarches argumentaires complémentaires
sont possibles pour parvenir aux mêmes conclusions. La passionnante analyse
ancrée dans la pragmatique linguistique que développe Alain Blanchet dans
son ouvrage sur la centralité du langage dans les psychothérapies (Blanchet,
2016) est de celles-ci. Comme il l’écrit en conclusion de son enquête, « l’esprit
n’est pas composé de “phénomènes psychologiques”, comme le serait un corps
chimique composé de substances élémentaires. L’esprit est un phénomène
émergeant, c’est-à-dire la manifestation abstraite et mouvante de l’être au
monde de l’homme » (p. 114). Et c’est par la médiation du langage, dont nous
avons vu l’origine sociale dans les institutions du sens, que ce phénomène
émerge. Ce mécanisme constitue « la clé de la compréhension des principes qui
sous-tendent les guérisons par la parole ». Précisément, il est essentiel de
comprendre que « le soi est une fiction susceptible de se déplacer au gré de
l’expérience comme les déformations des figures géométriques déplacent leur
centre de gravité. Ainsi, le soi n’a pas de mode d’existence objectal, il est un
centre de gravité narratif et c’est pour cette raison qu’il est constitué par les
précipités des opérations de langage » (ibid., p. 115).
C’est pourquoi l’intervenant de santé mentale idéal devrait être tout à la fois un
psychiatre, un psychologue, un psychanalyste, un psychothérapeute, un
linguiste, un sociologue, un épistémologue, un philosophe… et tout cela en
étant fondamentalement un praticien c’est-à-dire quelqu’un en capacité de
mobiliser pratiquement au service du patient ces différentes sources de savoir.
Si des parcours individuels permettent évidemment d’atteindre ce niveau
d’intégration, il n’existe en France aucun dispositif institutionnel complet qui
permette la formation de ce type de professionnels (Van Effenterre, Azoulay,
Champion, & Briffault, 2013). À ce jour, l’essentiel des prises en charge en
santé mentale est assuré par les médecins généralistes, une tâche à laquelle leur
cursus ne les prépare en rien, et le dispositif de santé publique en santé mentale
est contraint dans le discours qu’il est capable de produire sur ce sujet par le
paradigme très limitatif qui est le sien. Considérant la part majeure
qu’occupent les problèmes de santé mentale dans la morbi-mortalité des
sociétés contemporaines, dont la France, il est urgent de faire évoluer cette
situation.
Bibliographie

Barber, B. K. (1996). Parental psychological control: revisiting a neglected


construct. Child Dev, 67(6), 3296-3319.
Barber, B. K., Xia, M., Olsen, J. A., McNeely, C. A., & Bose, K. (2011).
Feeling disrespected by parents: Refining the measurement and understanding
of psychological control. J Adolesc.
Bell, R. M., Ellickson, P. L., & Harrison, E. R. (1993). Do drug prevention
effects persist into high school? How project ALERT did with ninth graders.
Prev Med, 22(4), 463-483.
Bergeron, H. (2008). Qualifier en politique : l’exemple du problème alcool.
Santé Publique, 20(4).
Bergin, A. E., & Garfield, S. L. (2003). Bergin and Garfield’s Handbook of
Psychotherapy and Behavior Change: John Wiley & Sons Inc.
Blanchet, A. (2016). Les psychothérapies sont-elles rationnelles ? Dire, faire dire,
guérir. : Presses Universitaires de Grenoble.
Bland, J. M., & Altman, D. G. (1995). Multiple significance tests: the
Bonferroni method. BMJ, 310(6973), 170.
Botvin, G., Baker, E., Dusenbury, L., Botvin, E. M., & Diaz, T. (1995). Long-
term follow-up results of a randomized drug abuse prevention trial in a white
middle-class population. JAMA, 273(14), 1106-1112.
Botvin, G., & Griffin, W. (2004). Life Skills Training: Empirical Findings and
Future Directions. J Prim Prev, 25(2), 211-232.
Bovet, L. (1950). Les aspects psychiatriques de la délinquance juvénile. Bull
World Health Organ, 3(1), 63-162.
Briffault, X. (2009). Conflits anthropologiques et stratégies de lutte autour de
l’évaluation des psychothérapies. Nouvelle Revue de Psychosociologie, 2(8).
Briffault, X. (2013). Le process de construction de l’esprit malade et de sa
maintenance à l’ère de l’Evidence-Based Mental Medicine. Topique (123).
Bronfenbrenner, U. (1979). Ecology of Human Development: Experiments by
Nature and Design: Harvard University Press.
Brook, J. S., Zheng, L., Whiteman, M., & Brook, D. W. (2001). Aggression in
toddlers: associations with parenting and marital relations. J Genet Psychol,
162(2), 228-241.
Brosnan, S. F. (2011). Property in nonhuman primates. New Directions for
Child and Adolescent Development, 2011, 9-22.
Carré, P. (2004). Bandura : une psychologie pour le xxie siècle ? Savoirs, Hors
série (5), 9-50.
Caspi, A., Sugden, K., Moffitt, T. E., Taylor, A., Craig, I. W., Harrington, H.,
et al. (2003). Influence of life stress on depression: moderation by a
polymorphism in the 5-HTT gene. Science, 301(5631), 386-389.
Castel, P.-H. (2010). L’Esprit malade. Cerveaux, folies, individus: Les Éditions
d’Ithaque.
Castoriadis, C. (1999). Sur “le politique” de Platon: Seuil.
Chambless, D. L., & Hollon, S. D. (1998). Defining empirically supported
therapies. J Consult Clin Psychol, 66(1), 7-18.
Delawarde, C. (2012). Représentations et référentiels théoriques des experts en
matière de prévention et promotion en santé mentale : le cas du soutien à la
parentalité Paris Descartes.
Descombes, V. (1995). La denrée mentale. Paris : Éditions de Minuit.
Descombes, V. (1996). Les institutions du sens : Éditions de Minuit.
Descombes, V. (2004). Le complément de sujet: Éditions de Minuit.
Descombes, V. (2007). Le raisonnement de l’ours: Seuil.
Desrosières, A. (2002). Adolphe Quételet. Courrier des statistiques, 104.
Ehrenberg, A. (2004a). Les changements de la relation normal-pathologique. À
propos de la souffrance psychique et de la santé mentale. Esprit (mai).
Ehrenberg, A. (2004b). Remarques pour éclaircir le concept de santé mentale.
Revue Française des Affaires sociales (1).
Ehrenberg, A. (2005). La plainte sans fin. Réflexions sur le couple souffrance
psychique / santé mentale. Cahiers de recherche sociologique, 41-42, 17-42.
Ehrenberg, A. (2006). Malaise dans l’évaluation de la santé mentale. Esprit,
2006(5).
Ehrenberg, A. (2007a). Épistémologie, sociologie, santé publique : tentative de
clarification. Neuropsychiatrie de l’enfance et de l’adolescence, 55(8), 450-455.
Ehrenberg, A. (2007b). Sciences neurales, sciences sociales : de la totémisation
du soi à la sociologie de l’homme total. In M. Wieworka (Ed.), Les sciences
sociales en mutation: Sciences humaines Éditions.
Ehrenberg, A. (2008a). Le cerveau «social » Chimère épistémologique et vérité
sociologique. Esprit (1).
Ehrenberg, A. (2008b). Les chimères du cerveau social. Sciences Humaines,
198(11), 5-5.
Ehrenberg, A. (2010). La société du malaise : Odile Jacob.
Eisen, M., Zellman, G. L., & Murray, D. M. (2003). Evaluating the Lions-
Quest “Skills for Adolescence” drug education program. Second-year behavior
outcomes. Addict Behav, 28(5), 883-897.
Ellis, P. D. (2010). The Essential Guide to Effect Sizes: Statistical Power, Meta-
Analysis, and the Interpretation of Research Results: Cambridge University Press.
Evans, B. E., Greaves-Lord, K., Euser, A. S., Franken, I. H., & Huizink, A. C.
(2012). The relation between hypothalamic-pituitary-adrenal (HPA) axis
activity and age of onset of alcohol use. Addiction, 107(2), 312-322.
Eysenck, H. J. (1952). The effects of psychotherapy: an evaluation. J Consult
Psychol, 16(5), 319-324.
Falk, D. E., Yi, H. Y., & Hilton, M. E. (2008). Age of onset and temporal
sequencing of lifetime DSM-IV alcohol use disorders relative to comorbid
mood and anxiety disorders. Drug Alcohol Depend, 94(1-3), 234-245.
Fitzgerald, J. L., & Mulford, H. A. (1981). The prevalence and extent of
drinking in Iowa, 1979. J Stud Alcohol, 42(1), 38-47.
Fitzgerald, J. L., & Mulford, H. A. (1984a). Factors related to problem-
drinking rates. J Stud Alcohol, 45(5), 424-432.
Fitzgerald, J. L., & Mulford, H. A. (1984b). Seasonal changes in alcohol
consumption and related problems in Iowa, 1979-1980. J Stud Alcohol, 45(4),
363-368.
Flay, B. R., Biglan, A., Boruch, R. F., Castro, F. G., Gottfredson, D., Kellam,
S., et al. (2005). Standards of evidence: criteria for efficacy, effectiveness and
dissemination. Prev Sci, 6(3), 151-175.
Foxcroft, D. R., Ireland, D., Lister-Sharp, D. J., Lowe, G., & Breen,
R. (2003). Longer-term primary prevention for alcohol misuse in young
people: a systematic review. Addiction, 98(4), 397-411.
Frank, J. D., & Frank, J. B. (1993). Persuasion and Healing: A Comparative
Study of Psychotherapy: Johns Hopkins University Press.
Freixa i Baqué, E. (1981). Une mise au point de quelques concepts et termes
employés dans le domaine du conditionnement opérant. L’année
psychologique, 81(1), 123-129.
Furlong, M., McGilloway, S., Bywater, T., Hutchings, J., Smith, S. M.,
& Donnelly, M. (2012). Behavioural and cognitive-behavioural group-based
parenting programmes for early-onset conduct problems in children aged 3 to
12 years. Cochrane Database Syst Rev, 2, CD008225.
Gandhi, A. (2007). The Devil Is in the Details: Examining the Evidence for
“Proven” School-Based Drug Abuse Prevention Programs. Evaluation Review,
31(1), 43-74.
Goldfried, M. R., & Wolfe, B. E. (1996). Psychotherapy practice and research.
Repairing a strained alliance. Am Psychol, 51(10), 1007-1016.
Gorman, D. (2003). The best of practices, the worst of practices: The making
of science-based primary prevention programs. Psychiatr Serv, 54(8), 1087-
1089.
Gorman, D., & Conde, E. (2010). The Making of Evidence-based Practice:
The Case of Project ALERT. Child Youth Serv Rev, 32(2), 214-222.
Gorman, D., Conde, E., & Huber, J. C. (2007). The creation of evidence in
‘evidence-based’ drug prevention: a critique of the Strengthening Families
Program Plus Life Skills Training evaluation. Drug Alcohol Rev, 26(6), 585-
593.
Gorman, D., & Huber, J. C. (2009). The social construction of “evidence-
based’’ drug prevention programs: a reanalysis of data from the Drug Abuse
Resistance Education (DARE) program. Eval Rev, 33(4), 396-414.
Grant, B. F., & Dawson, D. A. (1997). Age at onset of alcohol use and its
association with DSM-IV alcohol abuse and dependence: results from the
National Longitudinal Alcohol Epidemiologic Survey. J Subst Abuse, 9, 103-
110.
Grant, B. F., Dawson, D. A., Stinson, F. S., Chou, P. S., Kay, W., & Pickering,
R. (2003). The Alcohol Use Disorder and Associated Disabilities Interview
Schedule-IV (AUDADIS-IV): reliability of alcohol consumption, tobacco
use, family history of depression and psychiatric diagnostic modules in a
general population sample. Drug Alcohol Depend, 71(1), 7-16.
HCSP. (2010). Les inégalités sociales de santé. ADSP, 73.
Henry, W. P., Schacht, T. E., Strupp, H. H., Butler, S. F., & Binder, J. L.
(1993). Effects of training in time-limited dynamic psychotherapy: mediators
of therapists’ responses to training. J Consult Clin Psychol, 61(3), 441-447.
Henry, W. P., Strupp, H. H., Butler, S. F., Schacht, T. E., & Binder, J. L.
(1993). Effects of training in time-limited dynamic psychotherapy: changes in
therapist behavior. J Consult Clin Psychol, 61(3), 434-440.
Higgins, J. P. T., & Green, S. (2008). Cochrane Handbook for Systematic
Reviews of Interventions: Wiley-Blackwell.
Holder, H. (2010). Prevention programs in the 21st century: what we do not
discuss in public. Addiction, 105(4), 578-581.
Hsueh, H. M., Chen, J. J., & Kodell, R. L. (2003). Comparison of methods
for estimating the number of true null hypotheses in multiplicity testing. J
Biopharm Stat, 13(4), 675-689.
INPES. (2005). La dépression en France, enquête ANADEP 2005 : Éditions
INPES.
INPES. (2007). Baromètre santé 2005: Éditions INPES.
INSERM. (2003). Alcool : dommages sociaux, abus et dépendances: Éditions de
l’INSERM.
INSERM. (2005). Trouble des conduites chez l’enfant et l’adolescent: Éditions de
l’INSERM.
Ioannidis, J. P. (2005). Why most published research findings are false. PLoS
Med, 2(8), e124.
Ioannidis, J. P., Tarone, R., & McLaughlin, J. K. (2011). The false-positive to
false-negative ratio in epidemiologic studies. Epidemiology, 22(4), 450-456.
Ioannidis, J. P., & Trikalinos, T. A. (2005). Early extreme contradictory
estimates may appear in published research: the Proteus phenomenon in
molecular genetics research and randomized trials. J Clin Epidemiol, 58(6),
543-549.
Johnson, J. G., Cohen, P., Chen, H., Kasen, S., & Brook, J. S. (2006).
Parenting behaviors associated with risk for offspring personality disorder
during adulthood. Arch Gen Psychiatry, 63(5), 579-587.
Joreskog, K. G. (1970). A General Method for Analysis of Covariance
Structures. Biometrika, 57(2).
Jourdan, D. (2012). La santé publique au service du bien commun ? Politiques et
pratiques de prévention à l’épreuve du discernement éthique : Éditions de Santé.
Kaufmann, L., Quéré, L. (2001), « Comment analyser les collectifs et les
institutions ? », dans M. de Fornel, A. Ogien et L. Quéré (dir.),
L’Ethnométhodologie. Une sociologie radicale :Paris, La Découverte, 2001.
Kumpfer, K. L., & Alvarado, R. (2003). Family-strengthening approaches for
the prevention of youth problem behaviors. Am Psychol, 58(6-7), 457-465.
Kumpfer, K. L., Pinyuchon, M., Teixeira de Melo, A., & Whiteside, H. O.
(2008). Cultural adaptation process for international dissemination of the
strengthening families program. Eval Health Prof, 31(2), 226-239.
Lamboy, B. (2006). Où, quand, comment prévenir la violence ? Cerveau
& Psycho, 13.
Lamboy, B., Clément, J., Saias, T., & Guillemont, J. (2011). Interventions
validées en prévention et promotion de la santé mentale auprès des jeunes.
Santé Publique, 23 Suppl 6, S113-125.
Ledermann, S. (1964). Alcool, alcoolisme, alcoolisation : Presses universitaires de
France.
Mariaskin, A. (2009). The Roles of Parenting and Moral Socialization in
Obsessive-Compulsive Belief and Symptom Development. Unpublished
Dissertation, Department of Psychology and Neuroscience, Duke University
Mauss, M. (1934). Les techniques du corps. Journal de Psychologie.
Melander, H., Ahlqvist-Rastad, J., Meijer, G., & Beermann, B. (2003).
Evidence b(i)ased medicine – selective reporting from studies sponsored by
pharmaceutical industry: review of studies in new drug applications. BMJ,
326(7400), 1171-1173.
Melville, H. (2010). Bartleby le scribe: Gallimard.
Murgatroyd, C., Patchev, A. V., Wu, Y., Micale, V., Bockmuhl, Y., Fischer, D.,
et al. (2009). Dynamic DNA methylation programs persistent adverse effects
of early-life stress. Nat Neurosci, 12(12), 1559-1566.
OMS (Ed.) (2005). Promoting Mental Health : Concepts, emerging evidence,
practice: OMS.
Peretti-Watel, P., & Moatti, J.-P. (2009). Le principe de prévention : Le culte de
la santé et ses dérives : Seuil.
Prince, M., Patel, V., Saxena, S., Maj, M., Maselko, J., Phillips, M. R., et al.
(2007). No health without mental health. Lancet, 370(9590), 859-877.
Ravn, I. (1987). The control-of-consumption approach to alcohol abuse
prevention. II. A review of empirical studies. Int J Addict, 22(10), 957-979.
Ringwalt, C., Paschall, M. J., Gorman, D., Derzon, J., & Kinlaw, A. (2011).
The use of one- versus two-tailed tests to evaluate prevention programs. Eval
Health Prof, 34(2), 135-150.
Risch, N., Herrell, R., Lehner, T., Liang, K. Y., Eaves, L., Hoh, J., et al.
(2009). Interaction between the serotonin transporter gene (5-HTTLPR),
stressful life events, and risk of depression: a meta-analysis. JAMA, 301(23),
2462-2471.
Robinson, L. A., Berman, J. S., & Neimeyer, R .A. (1990). Psychotherapy for
the treatment of depression: a comprehensive review of controlled outcome
research. Psychological Bulletin, 108, 30-49.
Rosenzweig, S. (1936). Some implicit common factors in diverse methods of
psychotherapy. American Journal of Orthopsychiatry, 6(3), 412-415.
Roth, A., & Fonagy, P. (2005). What Works For Whom? A Critical Review Of
Psychotherapy Research: Guilford Publications.
Sauer, S. E., & Baer, R. A. (2010). Validation of measures of biosocial
precursors to borderline personality disorder: childhood emotional
vulnerability and environmental invalidation. Assessment, 17(4), 454-466.
Schinke, S. P., Tepavac, L., & Cole, K. C. (2000). Preventing substance use
among Native American youth: three-year results. Addict Behav, 25(3), 387-
397.
Shadish, W. R., Montgomery, L. M., Wilson, P., Wilson, M. R., Bright, I.,
& Okwumabua, T. (1993). Effects of family and marital psychotherapies: a
meta-analysis. J Consult Clin Psychol, 61(6), 992-1002.
Skinner, B. F. (1965). Science And Human Behavior: Free Press.
Smith, M. L., & Glass, G. V. (1977). Meta-analysis of psychotherapy outcome
studies. Am Psychol, 32(9), 752-760.
Spoth, Randall, Shin, & Redmond. (2005). Randomized study of combined
universal family and school preventive interventions: patterns of long-term
effects on initiation, regular use, and weekly drunkenness. Psychol Addict
Behav, 19(4), 372-381.
Spoth, Redmond, & Shin. (2001). Randomized trial of brief family
interventions for general populations: adolescent substance use outcomes 4
years following baseline. J Consult Clin Psychol, 69(4), 627-642.
Spoth, Redmond, Trudeau, & Shin. (2002). Longitudinal substance initiation
outcomes for a universal preventive intervention combining family and
school programs. Psychol Addict Behav, 16(2), 129-134.
Spoth, R. L., Clair, S., Shin, C., & Redmond, C. (2006). Long-term effects of
universal preventive interventions on methamphetamine use among
adolescents. Arch Pediatr Adolesc Med, 160(9), 876-882.
St Pierre, T. L., Osgood, D. W., Mincemoyer, C. C., Kaltreider, D. L., &
Kauh, T. J. (2005). Results of an independent evaluation of Project ALERT
delivered in schools by Cooperative Extension. Prev Sci, 6(4), 305-317.
Straus, M. A., & Field, C. J. (2003). Psychological Aggression by American
Parents: National Data on Prevalence, Chronicity, and Severity. Journal of
Marriage and Family, 65(4), 795-808.
Taubes, G. (1995). Epidemiology faces its limits. Science, 269(5221), 164-169.
Toyokawa, S., Uddin, M., Koenen, K. C., & Galea, S. (2012). How does the
social environment ‘get into the mind’? Epigenetics at the intersection of
social and psychiatric epidemiology. Soc Sci Med, 74(1), 67-74.
Tremblay, R. E. (2010). Developmental origins of disruptive behaviour
problems: the ‘original sin’ hypothesis, epigenetics and their consequences for
prevention. J Child Psychol Psychiatry, 51(4), 341-367.
Van Effenterre, A., Azoulay, M., Champion, F., & Briffault, X. (2013). La
formation aux psychothérapies des internes de psychiatrie en France: résultats
d’une enquête nationale. L’Encéphale, 39(3), 155-164.
Verhoeven, M., Junger, M., van Aken, C., Deković, M., & van Aken, M. A. G.
(2010). Parenting and children’s externalizing behavior: Bidirectionality
during toddlerhood. Journal of Applied Developmental Psychology, 31(1), 93-
105.
Wacholder, S., Chanock, S., Garcia-Closas, M., El Ghormli, L.,
& Rothman, N. (2004). Assessing the probability that a positive report is
false: an approach for molecular epidemiology studies. J Natl Cancer Inst,
96(6), 434-442.
Wampold, B. E. (2001). The Great Psychotherapy Debate: Models, Methods, and
Findings: Lawrence Erlbaum Associates Inc.
Wampold, B. E., Mondin, G. W., Moody, M., Stich, F., Benson, K., & Ahn,
H.-n. (1997). A meta-analysis of outcome studies comparing bona fide
psychotherapies: Empiricially, “all must have prizes”. Psychol Bull, 122(3),
203-215.
Weaver, I. C., Meaney, M. J., & Szyf, M. (2006). Maternal care effects on the
hippocampal transcriptome and anxiety-mediated behaviors in the offspring
that are reversible in adulthood. Proc Natl Acad Sci U S A, 103(9), 3480-
3485.
TABLE DES MATIÈRES
Table des matières

Copyright
Titre
Collection Points de vue et débats scientifiques
Citations
Introduction

Première partie. Analyse méthodologique et éthique


des interventions de santé publique en santé mentale
CHAPITRE 1

La formation au formatage de la famille « scientifiquement validée »


Méthodologie d’évaluation du dispositif de formation
Justifications statistiques et présomptions d’universalité
Contenus d’un programme pour parents et enfants scientifiquement validés
Un système de pilotage d’enfants
Un manuel de Gospel mormon et des sandwiches anxiolytiques
Des récompenses à gogo
Une boîte à outils skinnérienne
Des moments de Family Life
Quelques substances psychotropes
Un manuel du bon dirigeant pour que les parents s’amusent aussi
Des algorithmes comportementaux
Des glaces tombées et des grands-mères mortes
Les bonnes stratégies du changement et l’art de se mettre en colère
Des diplômes et des stratégies marketing

CHAPITRE 2
De l’efficacité des méthodes de changement psychologique : analyse
critique méthodologique
De 6 000 études publiées à trois retenues
Dans les détails de l’efficacité d’un programme de parentalité
Qui vole un œuf vole un bœuf. Logiques de la prévention de masse
Parentalité efficace, ou variations aléatoires ?
De l’art de la numérologie
De la véracité des résultats statistiques : approfondissements techniques
Des biais systématiques dans les études d’efficacité
Qu’en est-il du programme PFI ?
CHAPITRE 3

Des effets pervers de la simplification


Punition négative, effets positifs ?
Toujours moins sur toujours plus : la logique des executive summaries
bibliographiques
Toujours plus sur toujours moins : de la promotion de la santé au contrôle de la
violence
Et le gène du péché croqua la pomme d’Adam
Le seul bon enfant est l’enfant pas encore né
Politiques et pratiques de prévention à l’épreuve du discernement éthique
Mouche ton nez et dis bonjour à la dame, p < 0.05
Carte de la vie, échelle 1/1 000 000

Deuxième partie. Analyse sociologique et épistémologique


des logiques d’intervention de santé publique en santé mentale
CHAPITRE 4

De l’efficacité des méthodes de changement psychologique : analyse


critique empirique
Comment déterminer ce qui est efficace dans les psychothérapies ?
L’efficacité absolue des psychothérapies
L’efficacité relative des psychothérapies
Les facteurs communs des psychothérapies
L’alliance thérapeutique
L’allégeance
Le thérapeute

Les conséquences de l’adoption d’un modèle contextuel


CHAPITRE 5

De l’efficacité des méthodes de changement psychologique : analyse


critique socio-épistémologique
Malaise dans l’évaluation de la santé mentale
Qu’est-ce qu’une entité sociale ?
Le concept de santé mentale
Ou trouver l’esprit ?
CECIN’ESTPASUNEPHRASE
Les atomes ne se marient pas
Objectivement subjectif, subjectivement objectif
De l’esprit des institutions à l’esprit des individus
Le raisonnement de l’ours

Conclusion
Bibliographie
TABLE DES MATIÈRES
This le was downloaded from Z-Library project

Your gateway to knowledge and culture. Accessible for everyone.

z-library.se singlelogin.re go-to-zlibrary.se single-login.ru

O cial Telegram channel

Z-Access

https://wikipedia.org/wiki/Z-Library
ffi
fi

Vous aimerez peut-être aussi