Vous êtes sur la page 1sur 151

Développement d’un questionnaire cognitif bref,

le FaCE (The Fast Cognitive Evaluation), selon la


modélisation Rasch adapté aux patients avec
cancer

Mémoire

Amel Baghdadli

Maîtrise en épidémiologie
Maître ès sciences (M.Sc.)

Québec, Canada

© Amel Baghdadli, 2016


Développement d’un questionnaire cognitif bref,
le FaCE (The Fast Cognitive Evaluation), selon la
modélisation Rasch adapté aux patients avec
cancer

Mémoire

Amel Baghdadli

Sous la direction de :

Bruno Gagnon, directeur de recherche


Résumé

Les déficits cognitifs sont présents chez les patients atteints de cancer. Les tests cognitifs tels que
le Montreal Cognitive Assessment se sont révélés peu spécifiques, incapables de détecter des
déficits légers et ne sont pas linéaires. Pour suppléer à ces limitations nous avons développé un
questionnaire cognitif simple, bref et adapté aux dimensions cognitives atteintes chez les patients
avec un cancer, le FaCE « The Fast Cognitif Evaluation », en utilisant la modélisation Rasch (MR).

La MR est une méthode mathématique probabiliste qui détermine les conditions pour qu’un
outil soit considéré une échelle de mesure et elle est indépendante de l’échantillon. Si les résultats
s’ajustent au modèle, l’échelle de mesure est linéaire avec des intervalles égaux. Les réponses
sont basées sur la capacité des sujets et la difficulté des items. La carte des items permet de
sélectionner les items les plus adaptés pour l’évaluation de chaque aspect cognitif et d’en réduire
le nombre au minimum. L’analyse de l’unidimensionnalité évalue si l’outil mesure une autre
dimension que celle attendue.

Les résultats d’analyses, conduites sur 165 patients, montrent que le FaCE distingue avec
une excellente fiabilité et des niveaux suffisamment différents les compétences des patients
(person-reliability-index=0.86; person-separation-index=2.51). La taille de la population et le
nombre d’items sont suffisants pour que les items aient une hiérarchisation fiable et précise (item-
reliability=0.99; item-séparation-index=8.75). La carte des items montre une bonne dispersion de
ceux-ci et une linéarité du score sans effet plafond. Enfin, l’unidimensionnalité est respectée et le
temps d’accomplissement moyen est d’environ 6 minutes.

Par définition la MR permet d’assurer la linéarité et la continuité de l’échelle de mesure.


Nous avons réussi à développer un questionnaire bref, simple, rapide et adapté aux déficits
cognitifs des patients avec un cancer. Le FaCE pourrait, aussi, servir de mesure de référence pour
les futures recherches dans le domaine.

iii
Abstract

Cognitive deficits are prevalent in patient with cancer all along their trajectory. Specifics cognitive
functions are affected in this population. Several questionnaires are used to assess the cognitive
impairment but they are not adapted for this population. In order to provide a reliable tool, we
developed an adapted, simple and fast questionnaire, the Fast Cognitive Evaluation (FaCE) by
exploring its psychometric properties using the Rasch analysis.

The Rasch model (RM) is a psychometric mathematical method that establishes the conditions that
a measurement tool has to satisfy to be considered a rating scale. Unlike traditional psychometric
analysis, RM has the advantage of being sample independent. If the results fit the RM the numerical
scale is linear with equal interval. RM response is based on the person-abilities and the item-
difficulty. The item-map allows the selection of the best item that measures each cognitive aspect
to reduce the number to the minimum. The dimensionality analysis estimates the possibility of
measuring a secondary factor.

The analysis performed on 165 participants (49% male, median-age=64) show that the FaCE has
a person-separation index=2.51 and a person-reliability=0.86 (the FaCE distinguish between high
and low performers with enough levels). An item-separation index=8.75, an item-reliability=0.99
(the sample is large enough to confirm the item difficulty hierarchy with precisely located items).
The map shows no considerable gap and no ceiling effect and the data fit the RM. Finally the
unidemensionality was clinically respected.

By definition the RM ensures the linearity of the scale and allows us to generalize the results. We
succeeded in developing a simple and fast questionnaire that takes less than 6 minutes to assess
the cognitive failure from major to mild impairment. The FaCE could be used in all oncology
departments to improve treatment or in future research that examines cognitive disorders in a
population with cancer.

iv
Table des matières
Résumé .......................................................................................................................................... iii
Abstract ......................................................................................................................................... iv
Table des matières ........................................................................................................................ v
Liste des tableaux......................................................................................................................... ix
Liste des figures ............................................................................................................................ x
Liste des abréviations .................................................................................................................. xi
Remerciements ............................................................................................................................ xii
Avant-propos .............................................................................................................................. xiii
Introduction .................................................................................................................................... 1
1. Chapitre 1 : Problématique ................................................................................................... 2
2. Chapitre 2 : Hypothèse de recherche et objectifs .............................................................. 4
2.1. Hypothèse de recherche ............................................................................................... 4
2.2. Objectifs principaux de recherche............................................................................... 4
3. Chapitre 3 : Modélisation Rasch .......................................................................................... 5
3.1. Notions générales sur les qualités d’un questionnaire et de la modélisation Rasch
……………………………………………………………………………………………………5
3.2. Notions statistiques de la modélisation Rasch .......................................................... 6
4. Chapitre 4 : Structure du questionnaire cognitif générique analysé ............................ 15
4.1. Construction du questionnaire cognitif générique ................................................. 15
4.2. Description générale du questionnaire cognitif générique..................................... 16
4.2.1. Aspect orientation temporo-spatiale ..................................................................16
4.2.2. Mémoire immédiate ..............................................................................................16
4.2.3. Fonctions visuo-spatiales et exécutives ............................................................17
4.2.4. Attention ................................................................................................................17
4.2.5. Langage et idéation ..............................................................................................18
4.2.6. Rappel différé ........................................................................................................18
5. Chapitre 5 : Méthodologie .................................................................................................. 19
5.1. Population .................................................................................................................... 19
5.1.1. Processus de recrutement...................................................................................19
5.1.2. Critères d’éligibilité ..............................................................................................19
5.1.2.1. Critères d’inclusion ......................................................................................19
5.1.2.2. Critères d’exclusion .....................................................................................20
5.1.3. Procédure et déroulement de l’entrevue ............................................................20
5.2. Analyse statistique descriptive .................................................................................. 20
5.3. Application de la modélisation Rasch pour l’analyse des propriétés
psychométriques du FaCE ..................................................................................................... 21
5.3.1. Objectivité de mesure ..........................................................................................25
5.3.1.1. Hiérarchisation des réponses aux items....................................................25
5.3.1.2. Linéarité de l’échelle ....................................................................................26

v
5.3.1.3. Unidimensionnalité .......................................................................................26
5.3.1.4. Indépendance locale ....................................................................................27
5.3.2. Analyse de la qualité de la modélisation............................................................28
5.3.2.1. Vérification de l’ajustement des données aux exigences de la
modélisation Rasch ..........................................................................................................30
5.3.2.2. Analyse des statistiques d’ajustement ......................................................33
5.3.2.2.1. Corrélation des scores attendus et observés .......................................33
5.3.2.2.2. Évaluation de l’ajustement (« Fit analysis »).........................................34
5.3.2.3. Qualité psychométrique du questionnaire FaCE ......................................36
5.3.2.3.1. Validité.......................................................................................................37
5.3.2.3.1.1. Validité de contenu ...........................................................................37
5.3.2.3.1.2. Validité prédictive .............................................................................37
5.3.2.3.1.3. Validité conceptuelle/théorique.......................................................38
5.3.2.3.1.4. Validité apparente .............................................................................38
5.3.2.3.2. Fiabilité ......................................................................................................38
5.3.2.3.2.1. Fiabilité de reproductibilité ..............................................................39
5.3.2.3.2.2. Indice de séparation des personnes (« person-séparation-index »)
indice de fiabilité des personnes (Person-reliability index (IFP)) ........................39
5.3.2.3.2.3. Indice de séparation des items (« person-séparation-item »)......39
5.3.2.3.3. La plus petite différence mesurable.......................................................40
5.3.2.3.4. Le fonctionnement différentiel des items ..............................................40
6. Chapitre 6 : Résultats .......................................................................................................... 42
6.1. Population .................................................................................................................... 42
6.2. Résultats descriptifs ................................................................................................... 42
6.2.1. Score total obtenu et le temps d’accomplissement du questionnaire cognitif
générique ...............................................................................................................................42
6.2.2. Résultats de l’analyse des scores obtenus du questionnaire cognitif
générique à chaque aspect cognitif évalué .......................................................................43
6.2.2.1. Orientation .....................................................................................................43
6.2.2.2. Mémoire immédiate et rappel différé ..........................................................43
6.2.2.3. Fonctions visuo-spatiales............................................................................43
6.2.2.4. Attention ........................................................................................................43
6.2.2.5. Langage et idéation ......................................................................................44
6.2.3. Résultats de l’analyse de l’influence des intervenants sur le score obtenu au
questionnaire cognitif générique par les participants......................................................44
6.2.3.1. Résultats de la vérification des postulats :................................................44
6.2.3.1.1. Distribution normale ................................................................................44
6.2.3.1.2. Indépendance des groupes.....................................................................44
6.2.3.1.3. Homoscédasticité ....................................................................................45
6.2.3.2. Résultats d’analyses statistiques ...............................................................45
6.3. Développement du FaCE ............................................................................................ 45

vi
6.3.1. Résultats de l’analyse du questionnaire cognitif générique........................45
6.4. Analyse du FaCE ......................................................................................................46
6.4.1. Hiérarchisation des réponses aux items........................................................46
6.4.1.1. Unidimensionnalité .......................................................................................48
6.4.2. Qualité de la modélisation ...................................................................................49
6.4.2.1. Vérification de l’ajustement des données aux exigences de la
modélisation Rasch ..........................................................................................................49
6.4.2.2. Résultat de l’analyse des statistiques d’ajustement ................................49
6.4.2.2.1. Corrélation des scores attendus et observés .......................................49
6.4.2.2.2. Évaluation de l’ajustement (« Fit analysis »).........................................49
6.4.2.3. Résultats de l’analyse de la qualité psychométrique du FaCE................50
6.4.2.3.1. Validité.......................................................................................................50
6.4.2.3.2. Fiabilité ......................................................................................................50
6.4.2.3.2.1. Fiabilité de reproductibilité ..............................................................50
6.4.2.3.2.2. Indice de séparation des personnes (« person-séparation-index »)
et indice de fiabilité des personnes («person-reliability index ») ........................50
6.4.2.3.2.3. Indice de séparation des items (« person-séparation-item ») et
indice de fiabilité de l’item (« item-reliability index ») ..........................................50
6.4.2.3.3. La plus petite différence mesurable.......................................................50
6.4.2.3.4. Le fonctionnement différentiel des items ..............................................50
6.5. La conversion du FaCE en échelle de 0 à 100, sa comparaison avec le test cognitif
générique et son utilisation clinique ou de recherche ........................................................ 51
7. Chapitre 7 : Discussion ....................................................................................................... 53
7.1. Qualité de la modélisation Rasch du questionnaire FaCE ...................................... 53
7.2. Qualités psychométriques du questionnaire FaCE ................................................. 54
7.3. Points à investiguer..................................................................................................... 55
7.4. Limites du recours au questionnaire FaCE pour une évaluation des fonctions
cognitives chez les sujets atteints d’un cancer ................................................................... 56
7.5. Avantages du recours au questionnaire FaCE pour une évaluation des fonctions
cognitives chez les sujets atteints d’un cancer clinique ou de recherche........................ 57
Conclusion ................................................................................................................................... 58
Bibliographie ................................................................................................................................ 59
Figures .......................................................................................................................................... 71
Annexes ........................................................................................................................................ 84
Annexe 1 : Questionnaire cognitif générique ....................................................................... 84
Annexe 2 : Carte de répartition des sujets en relation aux différents items du MoCA .... 85
Annexe 3 : Carte des mesures empiriques des items du FaCE ......................................... 86
Annexe 4 : Tableau des Résultats du test de normalité du score total et du temps
questionnaire cognitif générique ........................................................................................... 87
Annexe 5 : Courbe caractéristique d’items de tous les items du questionnaire cognitif
générique .................................................................................................................................. 88
Annexe 6 : Combinaison de réponse des sujets aux items .............................................. 117

vii
Annexe 7 : Détail de la conversion du score du FaCE d’une mesure en Logit à un
pourcentage ........................................................................................................................... 118
Annexe 8 : Étapes préliminaires au développement du FaCE .......................................... 119

viii
Liste des tableaux

Tableau 1 : Caractéristiques des participants ...........................................................................63


Tableau 2 : Étendue du score total obtenu au questionnaire cognitif générique par les
participants et du temps d’accomplissement ...........................................................................64
Tableau 3 : Résultats de l’analyse ANOVA de comparaison du score obtenu par les
participants en fonction des différents intervenants................................................................64
Tableau 4 : Table des variances résiduelles standardisées (analyse de la dimensionnalité)
du FaCE .........................................................................................................................................65
Tableau 5 : Mesures (Logit) des items de la version finale du FaCE ......................................66
Tableau 6 : Tableau de corrélation des scores attendus et observés du FaCE ....................67
Tableau 7 : Tableau des analyses d’ajustement (Fit-Analysis) de la version finale du FaCE
........................................................................................................................................................69
Tableau 8 : Grille d’interprétation du score final du FaCE .......................................................70

ix
Liste des figures

Figure 1 : Courbe caractéristique d’un item suivant une formulation dichotomique de la


modélisation Rasch ......................................................................................................................71
Figure 2 : Distribution des types de cancer des participants ..................................................72
Figure 3 : Distribution du score total obtenu au questionnaire cognitif générique par les
participants ...................................................................................................................................73
Figure 4 : Distribution des scores des participants pour l’évaluation de l’aspect cognitif
relatif à l’orientation .....................................................................................................................73
Figure 5 : Distribution des scores (nombre de mots) des participants pour l’évaluation de
l’aspect cognitif relatif à la mémoire immédiate (répétition des 7 mots cités par l’évaluateur,
figures A et B) et évaluation du rappel différé (rappel des 7 mots, figure C) .........................74
Figure 6 : Distribution des scores (réussite de la tâche) des participants pour l’évaluation
de l’aspect cognitif relatif aux fonctionnements visuo-spatial et exécutives (TMT-B (1-8; A-
H), dessin du cube en 3 dimensions, dessin de l’horloge) ......................................................75
Figure 7 : Distribution des scores (réussite de la tâche) des participants pour l’évaluation
de l’aspect cognitif relatif à l’attention .......................................................................................76
Figure 8 : Distribution du nombre de fruits et de légumes nommés par les participants ....77
Figure 9 : Carte de répartition des sujets en relation aux différents items du FaCE ............78
Figure 10 : Combinaison de réponses aux items (sujets avec des combinaisons de réponse
différentes de celle attendue) ......................................................................................................80
Figure 11 : Illustration du score total obtenu au questionnaire cognitif générique (converti
en un score sur 100) et du score final au FaCE (linéaire) ........................................................81
Figure 12 : Illustration d’un exemple d’utilisation du FaCE pour l’estimation du niveau
cognitif d’un patient atteint de cancer,.......................................................................................82
Figure 13 : FaCE (Fast Cognitive Evaluation) ............................................................................83

x
Liste des abréviations
ANOVA : ANalysis Of VAriance (Analyse des variances)
AVC : Accident vasculaire cérébral
CA : Capacité de la personne A
CCI : Courbe caractéristique de l’item
CORR: Correlation (corrélation)
CRCEO : Centre de Recherches Clinique et Évaluative en Oncologie de Québec
DX : Difficulté de l’item X
ET: Écart-Type
Exp: Expected (attendu)
FaCE: Fast Cognitive Evaluation

FDI : Fonctionnement Différentiel des Items


ISP : Indice de Séparation des Personnes
Logit : logarithme odds unit (Unité de logarithme de cote)
MMSE : Mini-Mental State Examination
MoCA: Montreal Cognitive Assessment
MNSQ : MeaN SQuare (Somme des carrés moyens)
MR: Modélisation Rasch
Obs: Observed (observé)
P : Probabilité globale de réponse à deux items (X et Y)
PAX0 : Probabilité d’échec
PAX1 : Probabilité de réussite
PX : Probabilité de réponse de l’item X
PY : Probabilité de réponse de l’item Y
RVAX1 : rapport de vraisemblance de réussite
TMT-B: Trail Making Test partie B (Test d’exécution de traces partie B)
ZSTD : STanDardized as a Z-score (Standardise tel qu’un score “Z”)

xi
Remerciements

Avant tout je tiens à remercier tous les membres actuels et passés de l’Équipe de Recherches
Michel Sarrazin en Oncologie psychosociale et soins palliatifs (ERMOS). Vous avez été une
deuxième famille pour moi et d’un grand soutien au quotidien durant mes années d’études.

Un profond « Merci », à mon directeur de recherche, Dr Bruno Gagnon qui a su m’encadrer par
ses connaissances et son expérience. Il m’a fait l’honneur de partager son savoir et a eu la patience
de me guider. Merci de m’avoir fait repousser mes limites pour atteindre des objectifs que je
pensais irréalisables et d’avoir été présent et disponible jusqu’à la fin.

Je remercie aussi grandement Giovanni Arcuri qui a participé au développement du protocole initial
de ce projet et qui s’est rendu disponible pour partager ses expériences et ses connaissances.

Je tiens aussi à remercier les membres du Jury d’évaluation de cet ouvrage, Dr Denis Talbot, Dr
Pierre R. Gagnon et Dr Robert Laforce Jr., qui ont pris le temps de lire et corriger ce mémoire pour
l’améliorer par leurs connaissances et leurs expertises.

Un merci particulier à Renée Drolet, sans qui je n’aurais jamais entrepris ce projet, et à Gabrielle
Dumas qui a participé à l’amorcer.

Merci à François Tardif, Joanie Lemoignan, Marie-Anik Robitaille, Sandy Lavoix, Véronique
Turcotte, et à tous les autres pour leurs conseils éclairés, leur aide, leur soutien permanent et leur
bonne humeur. Merci de m’avoir permis de ventiler quand j’en ai eu besoin.

Je remercie Cinthia Lacroix pour son soutien, son aide et pour son travail rigoureux durant les
premières étapes du projet. Merci à Anne-Marie Veillette d’avoir grandement participé au maintien
de ma forme physique et morale. Merci aux autres membres de l’équipe que je n’ai pas nommés,
mais qui sont dans mes pensées.

Merci à Lynn Gauthier pour son soutien et sa grande compréhension pendant la finalisation de ce
travail.

Enfin, et surtout, Je remercie ma famille adorée qui me manque énormément et qui croit en moi,
quels que soient les défis que je me fixe. Elle m’a beaucoup encouragée et supportée même en
étant de l’autre côté du monde. Et merci à ma toute nouvelle famille d’adoption qui m’a donné de
l’énergie quand j’en eu besoin et qui m’a offert un support et un confort inestimables. Mes amis qui
m’ont supporté tout au long de la réalisation de mes projets et à Guillaume qui partage mes
craintes, mes doutes, mes espoirs et mes rêves au quotidien.

Je vous aime très fort.

xii
Avant-propos

Le projet de recherche décrit dans cet ouvrage est le résultat d’un travail rigoureux de la part d’une
équipe dont la préoccupation principale était d’apporter de nouvelles connaissances fiables afin
d’améliorer la prise en charge globale des patients souffrant d’un cancer.

Je suis convaincue que le résultat de ce travail aura l’impact souhaité et qu’il permettra de réfléchir
à de nouvelles options pour l’amélioration de la qualité de vie des patients.

J’ai eu le privilège de travailler sur le projet ambitieux de développer un outil unique avec une
équipe merveilleuse. Je suis très fière d’avoir réalisé ce projet jusqu’au bout et d’avoir apporté ma
modeste contribution.

Cela a été un réel défi pour moi de découvrir une méthodologie d’analyse, la méthodologie Rasch,
qui me paraissait insurmontable et que j’ai fini par trouver passionnante.

Mon travail dans ce projet a consisté à recruter certains participants et effectuer les entrevues, à
collecter les informations médicales dans le dossier patient électronique, à performer des analyses
statistiques et enfin réaliser la modélisation Rasch du questionnaire.

Les résultats de ce projet ont été et seront présentés à diverses rencontres scientifiques :

‐ Présentation par affiche :

Advanced Learning in Palliative Medicine Conference: New Frontiers in Palliative Medicine, 28-30
mai 2015, Calgary, Alberta

Journée Scientifique de la Maison Michel-Sarrazin, Université Laval, Québec 25 novembre 2015.

Advance learning in palliative medicine conference, Ottawa, 12-14 mai 2016.

Congrès du département de médecine familiale et de médecine d’urgence, volet


Érudition/Recherche, Université Laval, Québec 19-20 mai 2016.

16èmes journées annuelles de la recherche en santé, Université Laval, Québec 25-26 mai 2016.

‐ Présentation orale :

Évaluation d’un questionnaire cognitif bref conçu pour les patients atteints du cancer. Rencontre
scientifique de l’Équipe de Recherche Michel-Sarrazin en Oncologie psychosociale et Soins
palliatifs - ERMOS. CHU de Québec- L’Hôtel-Dieu de Québec. Vendredi 13 septembre 2013

Analyse des propriétés psychométriques d’un nouveau questionnaire cognitif bref adapté aux
patients avec cancer, The Fast Cognitive Evaluation (FaCE) : Résultats préliminaires et aspects

xiii
cognitifs liés au cancer. Rencontre scientifique de l’Équipe de Recherche Michel-Sarrazin en
Oncologie psychosociale et Soins palliatifs - ERMOS - CHU de Québec- L’Hôtel-Dieu de Québec.
9 avril 2015

‐ Présentation orale à venir : Atelier Rasch analysis basis to develop a brief cognitive
questionnaire, The Fast Cognitive Evaluation (FaCE), 21e Congrès international de soins
palliatifs, Montréal, 18-21 octobre 2016.

Les prochaines étapes seront la rédaction d’un article scientifique qui présentera les différentes
étapes de ce projet et qui aboutira, je l’espère, à une publication.

L’outil développé, le FaCE, va servir d’outil d’évaluation du statut cognitif des participants à un futur
projet qui portera sur les options thérapeutiques de la perte cognitive chez les patientes en
rémission d’un cancer du sein.

Dans les premières parties de cet ouvrage, les bases de la méthodologie Rasch seront présentées
afin de faciliter la lecture des résultats. S’en suivront une discussion sur les objectifs et l'hypothèse
de recherche ainsi qu’une conclusion qui permettra d’amener une réflexion sur de futurs sujets de
recherche.

xiv
Introduction

L’espérance de vie après un cancer a nettement augmenté durant les dernières décennies1, 2. Les
troubles cognitifs, très fréquents chez les survivants au cancer3-9, sont présents à différents stades
de la maladie est à différents moments de sa trajectoire. Le « Brain Fog », ou brouillard cérébral, est
l’ensemble des déficits cognitifs de cette population10. Selon les résultats d’études portant sur la
prévalence de ce phénomène10-12, il apparait que 4 à 75% des patients avec un cancer rapportent
une détérioration de leurs capacités cognitives. Le « Brain Fog » peut durer plusieurs années, même
après la guérison du cancer13. Il en résulte une détérioration considérable de la qualité de vie de ces
patients5, 13-16.

Le phénomène du « Brain Fog » est évalué en utilisant, entre autres, des questionnaires tels que le
Montreal Cognitive Assessment (MoCA) ou le Mini-Mental State Examination (MMSE) qui ont été
développés pour l’évaluation des troubles cognitifs chez les patients âgés, et ne sont, donc, pas
adaptés aux patients atteints d’un cancer. L’analyse des propriétés psychométriques du MoCA que
nous avons menée dans une population atteinte de cancer17 a mis en évidence plusieurs limites. Il
est indispensable de travailler au développement d’un questionnaire adapté aux déficits cognitifs
spécifiques aux patients avec un cancer qui soit linéaire, fiable et précis afin de pallier aux limites des
outils présentement utilisés. Le développement d’un tel outil offrirait une échelle d’évaluation valide
pour de futures recherches qui portent sur le suivi et l’évaluation des troubles cognitifs de cette
population et pourrait améliorer la prise en charge globale et la qualité de vie de ces patients.

Cet ouvrage présente les différentes étapes de l’analyse psychométrique d’un test cognitif générique
basée sur la modélisation Rasch qui ont conduit au développement d’un questionnaire cognitif bref,
Le FaCE (The Fast Cognitive Evaluation) qui pallie aux limites des tests cognitifs actuels. Le modèle
Rasch constitue une approche mathématique simple appartenant aux concepts d’analyse de la
théorie des réponses aux items18, 19. Son but est de modéliser la relation fondamentale entre le trait
latent d’un sujet (la capacité cognitive dans cet ouvrage) et sa probabilité de réussir un item avec une
difficulté donnée. Il assure une linéarité et une continuité de l’échelle de mesure et permet d’apprécier
la précision et la fiabilité de l’outil.

Les principes fondamentaux de la modélisation Rasch seront présentés et détaillés afin de faciliter la
lecture des étapes de la méthodologie employée lors des analyses psychométriques du FaCE. Des
étapes d’analyses précédant le développement du FaCE ont été nécessaires. Dans cet ouvrage, les
résultats présentés sont ceux de la modélisation Rasch du FaCE qui permettent d’apprécier ses
qualités psychométriques et d’avancer des conclusions éclairées.

1
1. Chapitre 1 : Problématique

Durant ces dernières décennies le nombre de survivants au cancer20 et leur espérance de vie1, 2 ont
augmenté. Cette population3-9 et en particulier les personnes sous ou ayant reçu de la
chimiothérapie21, 22 rapportent un ensemble de troubles cognitifs qui est un réel handicap à leur survie
et détériore considérablement leur qualité de vie5, 13-16.

Dans un premier temps cet ensemble de déficits des fonctions cognitives a été décrit comme étant
en lien avec les traitements du cancer, plus précisément la chimiothérapie. Ce phénomène connu
sous le nom de « Chemo Brain », ou « Chemo Fog », est plus généralement appelé aujourd’hui
«Brain Fog » (brouillard cérébral) par le fait qu’il a été décrit par des personnes atteintes de cancer
avant de recevoir de la chimiothérapies10, 23 et même au moment du diagnostic24, 25. Ce phénomène
a aussi été rapporté au cours de la grossesse26-28 et de la ménopause29 et au cours de différentes
pathologies, entre autres, la maladie cœliaque30, l’obésité31 et le syndrome de tachycardie
orthostatique posturale32.

La prévalence du Brain Fog est d’environ 50% selon certains auteurs4, 33, 34 et varie de 4 à 75% selon
d’autres études10-12, en fonction du type de cancer et de son pronostic. Il peut durer plusieurs années,
voire le reste de la vie, même après la guérison du cancer13. Sa physiopathologie est encore mal
connue35, 36 et son traitement est en cours d’investigation37-40.

Les aspects cognitifs les plus atteints dans le Brain Fog3, 4, 10, 13, 21, 41, 42 concernent des déficits de :

1- L’attention et de la concentration : c’est une difficulté à demeurer attentif sur une même tâche
pour une période plus ou moins longue ou encore, une difficulté à rester concentré sur
l’énoncé d’indications pour l’exécution d’une tâche donnée si celles-ci requièrent plusieurs
étapes ou détails.
2- La mémoire immédiate et le rappel différé : c’est une difficulté à se rappeler des évènements
ou des informations au-delà de quelques secondes après leur survenue. Les informations
sont oubliées au fur et à mesure qu’elles se succèdent.
3- Le rappel différé : c’est une difficulté à se rappeler d’un évènement ou d’une information au-
delà des quelques minutes qui suivent leurs survenues.
4- La fonction visuo-spatiale43 : c’est une difficulté à s’orienter dans l’espace, de percevoir les
objets de l’environnement et de les organiser en une scène visuelle cohérente ou d’imaginer
mentalement un objet physiquement absent.
5- La rapidité à l’idéation et du langage: c’est un ralentissement de la formation et de
l’enchaînement d’idées et de les formuler verbalement avec le mot adéquat.
6- La capacité à exécuter plusieurs tâches consécutives : c’est une difficulté à exécuter
correctement plusieurs tâches successives dans le bon ordre et qui sont intriquées
dépendantes les unes des autres.

2
Ces aspects spécifiques aux personnes atteintes d’un cancer sont différents des atteintes cognitives
des personnes âgées. Même si ces déficits cognitifs peuvent être intriqués, les déficits cognitifs du
Brain Fog, de la sénilité ou de la détérioration des capacités intellectuelles dans les dégénérescences
cérébrales liées à l’âge ne sont pas superposables. Dans la maladie d’Alzheimer44, par exemple, les
premiers troubles cognitifs les plus atteints sont la mémoire épisodique, les fonctions exécutives et
la vitesse de perception. L’attention les fonctions visuo-spatiales et la mémoire immédiate ne sont
pas atteints dans les premières phases de la maladie contrairement au « Brain Fog ».

Pourtant, les outils d’évaluation utilisés présentement pour évaluer et identifier le Brain Fog sont ceux
créés pour l’évaluation des troubles cognitifs chez les personnes âgées. Non seulement ils ne sont
pas adaptés à la population avec un cancer, mais en plus ils ont des limites psychométriques
importantes21, 45

Le MoCA est l’un d’entre eux, sa sensibilité est de 90% chez les personnes âgées, mais une
différence importante4, 8, 41, 46
a été mise en évidence entre les signes subjectifs du Brain Fog
(rapportés par les patients atteints de cancer) et les signes objectifs rapportés par des questionnaires
tels que le MoCA. Son utilisation chez cette population a été investiguée ; certaines études ont
démontré qu’il était possible de se fier au MoCA47-49, mais l’analyse des qualités psychométriques de
ce test qui est acceptable dans une population âgée50 démontre plusieurs limites dans une population
avec un cancer17. Parmi ses limites, le MoCA montre une incapacité à détecter les troubles légers.
Son échelle de mesure n’est pas linéaire et présente des niveaux intermédiaires insuffisants.

Devant ce manque24 de disponibilité de tests cognitifs adaptés aux patients avec un cancer, l’analyse
Rasch18, 51 des propriétés psychométriques d’un questionnaire cognitif générique a été conduite afin
de développer un questionnaire capable de pallier les limites des questionnaires actuels et d’apporter
un test cognitif adapté et fiable. La modélisation Rasch basée sur la théorie des réponses aux items
permet de fixer les conditions nécessaires pour qu’un questionnaire soit une réelle échelle de
mesure52, 53. Il assure la linéarité de l’échelle de mesure afin de permettre une interprétation fiable
des résultats et permet d’apprécier les qualités du test, telles que sa précision, sa fiabilité et l’influence
de biais externe sur les scores. Grâce à ce type de modélisation, les items les plus adaptés,
discriminants et ajustés sont identifiés afin que le questionnaire construit soit le plus fiable possible.
Si les items sont ajustés au modèle Rasch, ils composent une échelle linéaire avec des intervalles
égaux qui mesure une seule dimension.

Le développement d’outil d’évaluation cognitive adapté aux troubles spécifiques liés au cancer ou à
son traitement, permettrait non seulement une meilleure prise en charge de ces patients, une
amélioration de leur qualité de vie et comblerait le manque actuel de mesure fiable et précise des
fonctions cognitives. Ceci apporterait un outil de référence pour les recherches dans ce domaine en
particulier.

3
2. Chapitre 2 : Hypothèse de recherche et objectifs

2.1. Hypothèse de recherche

L’analyse Rasch des propriétés psychométriques d’un questionnaire cognitif générique de patients
avec un cancer permettra de développer un test cognitif adapté à cette population qui est une réelle
échelle de mesure linéaire, fiable, précise, rapide et facile à administrer

2.2. Objectifs principaux de recherche

Objectif général : Développement d’un questionnaire cognitif bref adapté à une population de
patients avec cancer, FaCE (the Fast Cognitive Evaluation), à partir de l’amélioration des
propriétés psychométriques d’un questionnaire cognitif générique, basé sur les troubles cognitifs
décrits chez les patients avec un cancer, avec la modélisation Rasch.
Objectifs spécifiques détaillés :
- Évaluer la capacité des patients à répondre à chacune des questions du test.
- Évaluer le temps nécessaire pour répondre au test.
- Évaluer la difficulté d’administration du test.
- Évaluer les qualités générales de l’échelle de mesure avec la modélisation Rasch
(linéarité, dimensionnalité, objectivité).
- Identifier les items les plus ajustés et discriminants de chaque aspect cognitif évalué
avec la modélisation Rasch pour les conserver dans le questionnaire.
- Évaluer les propriétés psychométriques de l’échelle de mesure avec la modélisation
Rasch (précision, fiabilité).

4
3. Chapitre 3 : Modélisation Rasch

3.1. Notions générales sur les qualités d’un questionnaire et de la modélisation


Rasch

Afin, de comprendre ce qu’est une modélisation Rasch, il est important de se familiariser avec les
propriétés d’un questionnaire et les impératifs d’un outil pour qu’il soit considéré comme un outil ou
une échelle de mesure.

Un questionnaire est un outil de classement ou de mesure d’une caractéristique. Il permet d’ordonner


des objets ou sujets selon une propriété ou aptitude choisie. Presque tous les questionnaires ou tests
permettent ainsi de situer un sujet par rapport à un autre. Cependant, tous les outils de mesure n’ont
pas les mêmes possibilités et ne mènent pas tous au même résultat. En sciences de la santé, le
domaine concerné par cet ouvrage, l’objectif est de mesurer un trait latent des sujets. Dans le cas de
ce présent projet en particulier, il s’agit des aptitudes cognitives. Afin d’ordonner les sujets en fonction
de leur capacité, il est facile d’utiliser des questionnaires « standards » (qui ne répondent pas aux
exigences d’une échelle de mesure) et il ne serait pas erroné de les classer les uns par rapport aux
autres (ce sujet est meilleur que l’autre, car il a un score total supérieur). L’erreur serait, d’utiliser ces
outils pour faire des comparaisons arithmétiques entre les sujets (exemple : 2 fois plus capable).

Ainsi, créer un questionnaire en vue de mesurer un trait latent n’est pas aussi simple qu’il n’y paraît
à première vue. Il ne suffit pas de faire l’addition des questions ou items réussis et d’en faire un score
total. Une telle échelle ne ferait qu’ordonner les sujets les uns par rapport aux autres, il s’agirait dans
ce cas d’une échelle ordinale.

Pour qu’une échelle puisse comparer des sujets entre eux de sorte qu’il soit possible d’estimer
mathématiquement cette relation et qu’elle soit considérée une échelle linéaire, il lui est nécessaire
de posséder une unité de mesure constante. Dans une telle échelle, contrairement aux échelles
ordinales, il est donc possible d’affirmer que la quantité de changement entre 2 et 3 est la même
qu’entre 3 et 4. C’est-à-dire qu’une perte cognitive de 3 points de 6 à 3 signifie la même dégradation
des fonctions cognitives que si le score passait de 9 à 6.

De plus, cette échelle ne doit pas avoir de zéro absolu. Par exemple, dans les instruments de mesure
de la température gradués en Celsius ou Fahrenheit, le zéro est placé de manière conventionnelle.
Ainsi, un sujet qui, dans le type d’échelles qui nous intéresse, se classerait à zéro ne signifierait pas
qu’il ne possède aucune aptitude cognitive, mais qu’il en possède bel est bien une, mais en dehors
du seuil d’aptitude cognitive mesurée. Seules les échelles avec un point d’origine peuvent avoir un
zéro absolu, comme dans le cas de l’échelle de température en Kelvin.

Une façon utilisée pour contourner les limites d’une échelle ordinale est d’attribuer aux items de celle-
ci des coefficients de pondération, mais cette technique ne fait que prendre en considération la

5
difficulté théorique d’un exercice sans considérer d’autres paramètres pouvant influencer la réussite
ou l’échec. Ainsi, il peut arriver que l’aptitude du sujet à répondre à une question puisse aussi
dépendre de la réussite à une autre question. Il est ici question de la dépendance inhérente entre
les items de tout questionnaire qui, si elle n’est pas prise en considération, dévie la mesure principale
de l’échelle et détériore sa qualité essentielle qui est de donner un score total juste.

Face aux limitations des échelles numériques ordinales et des insuffisances de l’approche par
attribution de coefficient de pondération, la modélisation Rasch permet de surmonter les premières
et d’éviter les dernières. La modélisation Rasch fait partie de la famille des modèles probabilistes et
particulièrement de ceux basés sur la réponse aux items. Elle permet de développer une échelle
réellement linéaire mesurant une variable d’intérêt (dans le cas de cette étude, la capacité cognitive)
à partir d’un questionnaire comprenant plusieurs items. Ainsi, la somme des valeurs des items
composant le questionnaire est un score numérique « brut » et ne permet que d’ordonner les
individus selon une échelle numérique ordinale. La modélisation Rasch permet la conversion de la
valeur de chaque item en score numérique « relatif » créant une échelle de mesure linéaire à
intervalles égaux.

Ce type de modélisation est le fruit du travail du mathématicien Danois Georg Rasch qui fut le
premier, en 1960, à l’utiliser pour mesurer l’aptitude à la lecture18, 19. Il a démontré que la probabilité
de réussite à un item augmente de manière continue en fonction du niveau de la capacité de la
personne à réussir le test.

Comme il sera expliqué plus en profondeur plus bas, le principe majeur de ce type de modèle est
que plus l’aptitude d’un sujet est grande, plus grande est sa probabilité de réponse correcte à un
item, et vice versa. La probabilité de réussite est donc la probabilité de la différence entre l’aptitude
du sujet et la difficulté de l’item.

3.2. Notions statistiques de la modélisation Rasch

La modélisation Rasch peut s’exécuter selon plusieurs formulations : La formulation dichotomique,


la formulation polytomique54 dont le modèle « rating scale »55 et le modèle « partial credit »56. Il existe
aussi le modèle Rasch de comptage selon la loi de Poisson51 et le modèle binomial selon la loi de
Bernouilli53, 55. Enfin il existe un modèle Rasch dit « modèle à plusieurs facettes » où l’aptitude du
sujet et la difficulté de l’item ne sont pas les seuls paramètres pris en compte57. Dans cet ouvrage,
l’utilisation de la formulation dichotomique du modèle Rasch sera utilisée.

Une modélisation dichotomique signifie que tous les items mesurant la variable d’intérêt sont à deux
niveaux. Conventionnellement, le niveau 0 signifie un échec ou une réponse négative, le niveau 1
signifie la réussite ou une réponse positive.

6
Selon le modèle Rasch la probabilité de réponse (PAX) d’une personne (A) à un item (X) est calculée
en fonction de la capacité de cette personne (CA) et de la difficulté de l’item (DX). Ces deux
paramètres sont les « points d’identité » de la probabilité. Puisque les items sont tous à deux niveaux,
la probabilité de succès (PAX1) est le complément de la probabilité d’échec (PAX0).

Le concept principal sur lequel se base la modélisation Rasch est que plus la capacité du sujet est
importante plus sa probabilité d’une réponse correcte à un item est haute, et vice versa.
Conceptuellement, il est possible de formuler cette relation de la manière suivante : si la capacité de
la personne A (CA) est supérieure à la difficulté de l’item X (DX) la probabilité de réussite (PAX1) est
supérieure à 0,5 (50% de chances).

Mathématiquement, l’ensemble des probabilités est défini de la façon suivante :

Si : Ca > DX donc CA - DX > 0 alors PAX1 > 0,5 et PAX0 < 0

Si : Ca < DX donc CA - DX < 0 alors PAX1 < 0,5 et PAX0 > 0

Si : Ca = DX donc CA - DX = 0 alors PAX1 = 0,5 = PAX0

Par définition, toute probabilité varie de 0 à 1 (0% à 100%). Le résultat d’une différence mathématique
entre deux nombres réels peut, lui, varier d’une différence infiniment petite à infiniment grande (-∞ à
+∞). Afin que les deux paramètres de l’équation précédente (PAX et CA – DX) varient selon la même
plage, une fonction exponentielle est appliquée dans un premier temps pour imposer une borne
inférieure, puis un facteur de normalisation est introduit pour limiter la borne supérieure.

Dans : PAX = (CA – DX)

0 < PAX < 1 et -∞ < (CA – DX) < +∞,

0 < exp (CA – DX) < +∞ (application de la fonction exponentielle

0 < [exp (CA – DX)] / [1 + exp (CA – DX)] < 1 (introduction d’un facteur de normalisation)

Ainsi, l’équation précédente dévie :

PAX1 = [exp (CA – DX)] / [1 + exp (CA – DX)]

Et,

PAX0 = [1 - PAX1 = 1] / [1 + exp (CA – DX)]

Le rapport entre la probabilité (PAX1) (réponse correcte) et la probabilité (PAX0) (réponse incorrecte)
est appelé le rapport de vraisemblance de réussite (RVAX1) du sujet A à l’item X. Il peut être exprimé
mathématiquement comme suit :

RVAX1 = PAX1 / PAX0 ou RVAX1 = PAX1 / [1 - PAX1]

7
Afin de normaliser ce rapport, le logarithme népérien est introduit dans l’équation :

Ln (RVAX1) = Ln (PAX1 / PAX0) = Ln {[(exp (CA – DX)) / (1 + exp (CA – DX))] / [1 / (1 + exp (CA – DX))]}

La résolution de cette équation conduit à Ln (PAX1 / PAX0) = CA – DX Par le fait même, CA – DX peut
être exprimé en Logit (logarithme odds unit) du rapport de vraisemblance.

Ainsi, l’unité de mesure utilisée par la modélisation Rasch est « le Logit » de la différence entre la
capacité du sujet à répondre à un item spécifique et la difficulté de celui-ci (RVAX1).

De plus, si une capacité déterminée est comparée entre deux sujets A et B (CA - CB) à partir d’un
instrument de mesure basé sur la modélisation Rasch, la différence entre leur capacité respective
serait :

CA - CB = (CA – DX) – (CB – DX) = LogitAX – LogitBX

Notons donc que le Logit en tant que mesure utilisée dans une modélisation Rasch correspond à la
différence entre un seul paramètre, soit la capacité des sujets (CA - CB). C’est ce qui est appelé
l’unidimensionnalité statistique d’un instrument.

Cette formule est valable, quel que soit le niveau de capacité des sujets comparés.

En pratique, l’intérêt de considérer le « Logit » comme unité de mesure réside dans le fait de pouvoir
certifier que la différence d’une «unité» de capacité entre deux sujets est constante quel que soit le
niveau où cette différence se situe dans l’échelle de mesure.

La modélisation Rasch en plus de situer sur une courbe les sujets en fonction de leur capacité permet
de situer de façon linéaire sur l’échelle les items en fonction de leur difficulté. L’espacement de deux
sujets dont la différence de capacité est égale à exactement une unité Logit, correspond à la quantité
d’augmentation du rapport de vraisemblance d’un item pour que la capacité des deux sujets devienne
égale. Cette quantité d’augmentation nécessaire est de 2,71 (exp(1)) exactement. De la même façon,
si deux items sont espacés d’une unité Logit exactement, cela signifie que leur difficulté diffère d’une
unité Logit. Dans ce cas, pour qu’un sujet réussisse aux deux items, les rapports de vraisemblance
de réussite du sujet à chacun des deux items devraient être égaux. Pour ce faire, il faudrait que le
rapport de vraisemblance de réussite à l’item le plus difficile diminue de 2,71 équivalent à la
diminution d’une unité Logit.

Cette différence unitaire du Logit est vraie, quel que soit l’endroit où le sujet se situe dans l’échelle
de mesure. C’est-à-dire que, quelle que soit la capacité du sujet en fonction d’un item donné ou quelle
que soit la difficulté de l’item en fonction de la capacité d’un sujet. C’est ce principe qui est appelé
« Linéarité », pour plus de détails se référer au point 5.3.1.4 de la partie méthodologie.

8
Connaissant la probabilité de réussite et d’échec d’un sujet à un item (tel que vu précédemment). Il
est possible de calculer le score attendu de chaque sujet à chacun des items.

Il est égal à la probabilité de réussite d’un sujet à un item. La relation entre le score attendu d’un item
et la mesure réelle d’un sujet est schématisée par une courbe appelée « courbe caractéristique de
l’item » (CCI) (figure1). Dans le cas d’une formulation dichotomique du modèle, les courbes de
chaque item sont identiques et parallèles, car le point de coupure entre réussite et échec est toujours
à une probabilité égale à 0.5. Cette courbe modélise la relation entre la capacité cognitive d’un sujet,
dans le cas de cet ouvrage, et sa probabilité de réussite à un item. La probabilité de réussite à un
item augmente de façon monotone et continue en fonction de la capacité du sujet. Cette relation est
le principe fondamental de la modélisation Rasch. En abscisse, on retrouve la différence entre
l’aptitude du sujet et la difficulté d’un item (CA – DX), autrement dit la probabilité de réussite du sujet
à l’item.

Tel que constaté sur la figure 1 représentant une CCI, plus la différence (CA – DX) est positive (ce qui
signifie aussi que la capacité du sujet est supérieure à la difficulté de l’item) plus la probabilité de
réussite est haute et tend vers 1, et vice versa.

Figure 1 : Courbe caractéristique d’item (CCI)

9
Un exemple simple peut être considéré afin d’illustrer ces principes de base. Admettons que 100
personnes passent un test composé de 5 questions et que 10 personnes d’entre elles obtiennent le
même score total égal 3. Il serait erroné de penser que leur aptitude est similaire, car plusieurs
combinaisons de réponses sont possibles et de ce fait, des probabilités de réussite à chaque item
différentes. Ainsi, pour un item donné de ce test, la réussite ou l’échec à cet item dépend de l’aptitude
du sujet à y répondre et de la difficulté propre de cet item, chaque sujet ayant une aptitude particulière
et chaque item, une difficulté propre. Si à un item donné, 3 des 10 personnes qui ont un score total
égal à 3 ont répondu correctement, la probabilité de répondre correctement à cet item est de 3/10.
Si, toujours pour ce même item, mais cette fois pour 10 personnes qui ont obtenu un même score
total égal à 4 et que 6 de ceux-ci y ont répondu correctement, la probabilité de réussite d’un de ces
sujets à y répondre correctement est de 6/10.

Par la modélisation Rasch, les probabilités sont formulées d’une manière continue résultant en une
courbe sigmoïde : la probabilité de réussite d’un item variant de manière continue permettant de
différencier les niveaux d’aptitude sur l’échelle de mesure.

Ce principe du modèle Rasch est la linéarité et la répartition en continu de la mesure (ce point sera
détaillé dans le chapitre « Méthodologie »).

Un autre principe important de la modélisation Rasch est l’objectivité spécifique. Il a été convenu que
ce type de modèle illustre la probabilité de réussite ou d’échec selon deux qualités : l’aptitude du
sujet et la difficulté de l’item. Le principe d’objectivité spécifique signifie que ces deux paramètres ne
s’influencent pas. Autrement dit, l’aptitude du sujet est indépendante de la difficulté de l’item.

Enfin, l’unidimensionnalité du test est, aussi, un principe majeur de la modélisation Rasch. Elle est
définie comme la capacité d’un outil de mesure à évaluer une seule qualité de la propriété mesurée.
Dans les paragraphes précédents, cette notion a été abordée. La modélisation Rasch, prend en
compte la capacité ou l’aptitude des personnes uniquement, lors de la comparaison des
performances de 2 sujets à un item donné. Cette propriété est une notion statistique de probabilité.
En pratique il est difficile, voire, impossible, d’isoler une seule qualité d’un sujet afin de la mesurer
elle uniquement. Ainsi, cette notion d’unidimensionnalité est un idéal difficile à atteindre, voire même
impossible, mais il est important et primordial de s’en approcher au maximum lors de la construction
d’une échelle de mesure basée sur une modélisation Rasch.

Lors de la mesure de la longueur d’une table, par exemple, il est facile de certifier que le nombre
rapporté concerne sa longueur uniquement et qu’elle n’est influencée par aucune autre qualité de
cette table (hauteur, largeur, etc.).

Lors de la mesure d’un trait latent, cela devient un sujet à discussion. Si le but d’une étude est de
mesurer à quel point les enfants aiment aller au zoo. La mesure pourrait être influencée par le fait
d’apprécier d’être en groupe et de partager des moments plaisants lors des trajets. De même, le fait

10
d’être en plein air pourrait influencer la mesure obtenue, ou encore, la phobie des animaux, etc. Ainsi,
nous ne pouvons pas être certains que la réponse, en demandant à un groupe d’enfants à quel point
ils aiment aller au zoo, ne soit pas influencée par d’autres paramètres. Le mieux est de s’assurer que
la question est posée dans un contexte limitant l’influence d’autres paramètres, ou de la mesurer par
des questions plus précises. Si la mesure est le plus proche possible d’une réponse non influencée
par d’autres caractères, en d’autres termes, une réponse unidimensionnelle, l’objectif d’isoler la
qualité mesurée et de la mesurer en se focalisant dessus est atteint et ainsi, limitant l’influence
d’autres caractères.

Lors de l’analyse de cette notion d’unidimensionnalité, il faut que la performance au test soit
influencée de manière dominante par la variable mesurée ou que les dimensions surajoutées sous
des « sous-dimensions » qui forment un ensemble menant à la mesure d’une seule propriété58 (par
exemple, la longueur et la largeur d’une table sont deux dimensions différentes, mais elles sont
indissociables pour mesurer la forme globale de la table). L’unidimensionnalité est donc un concept
relatif58, 59.

La mesure concernée par le questionnaire FaCE est l’aptitude cognitive des sujets. Une capacité
cognitive comporte plusieurs dimensions. Si les dimensions qui influencent la mesure du FaCE sont
des dimensions prévues ou attendues, la mesure de l’item sera considérée unidimensionnelle
conceptuellement même si la modélisation Rash suggère le contraire. Ces possibles dimensions
surajoutées composent le statut cognitif global des sujets et ne font que préciser des aspects propres
à la capacité cognitive. En outre, il est évident que si pour un item donné, l’existence d’un autre
paramètre, tel que la capacité motrice, prend le dessus sur la capacité cognitive, ce dernier sera retiré
de l’échelle, car il faussera la mesure.

Ainsi, même si une capacité cognitive implique plusieurs composantes, il peut être utile de considérer
sa mesure comme unidimensionnelle. Cette notion d’unidimensionnalité est largement sujette à la
subjectivité des évaluateurs et à ce qu’on s’attend à mesurer.

L’unidimensionnalité de l’ensemble du questionnaire est explorée par la variance résiduelle


standardisée(VRR). C’est la somme des carrés des analyses Rasch observées et prédites. Elle est
basée sur la variance expliquée par la mesure, celle expliquée par les sujets, celle expliquée par les
items et enfin celle non expliquée par l’un des derniers paramètres.

Une VRR est la variance équivalant à la différence entre la variance attendue du modèle et la variance
observée du modèle60, 61. Cette variance résiduelle est standardisée pour correspondre au nombre
des items compris dans l’échelle. Elle indique de combien d’item le modèle s’éloigne de
l’unidimensionnalité. L’unité mesurant cette différence est appelée l’ « eigenvalue ». Si l’eigenvalue
est égale à 2,8 ou moins, ceci implique qu’il y a environ 2,8 items qui dévient le modèle par
l’implication d’au moins une autre dimension. Dans ce cas, cette différence est imputée au hasard et

11
n’a pas besoin d’être plus amplement investiguée. Une dimension surajoutée ne peut être considérée
réelle que si au moins 3 items forment un ensemble considéré assez important pour dévier la mesure
de la variable à l’étude. Ainsi, si l’eigenvalue est supérieure à 2,8, il est recommandé d’investiguer
les items concernés. Les unités d’eigenvalue sont ajustées au nombre d’items de l’échelle afin que
leur interprétation ait une logique pratique.

Avant de commencer à investiguer les items suspectés d’ajouter une dimension non attendue au
modèle, il faut examiner les proportions de variances du modèle.

Une variance observée expliquée par le modèle dont la valeur est très supérieure à la valeur de la
variance observée inexpliquée par le modèle atténue l’importance d’une dimension surajoutée
présumée. Sachant que la variance expliquée par le modèle est composée de la variance expliquée
par les sujets, celle expliquée par les items et celle expliquée par la mesure, il va de soi qu’un nombre
important d’items peut mimer une possible multidimensionnalité. De même que des sujets peu
nombreux.

Comme une espèce d’effeuillement du modèle, la modélisation Rasch va procéder en analysant le


modèle de la construction la plus éloignée de l’unidimensionnalité, ce qui est appelé « le premier
contraste », à une construction de plus en plus proche du modèle unidimensionnel. Un « contraste »
dans l’exploration de la dimensionnalité est le contraste entre les items qui s’éloignent le plus du
modèle de part et d’autre de la construction et qui seraient suspects d’ajouter une ou plusieurs
dimensions non attendues. Afin d’apprécier l’importance de chaque contraste, le nombre d’items qui
forme ces ensembles éloignés du modèle unidimensionnel doit être apprécié. Pour ce faire, chaque
eigenvalue supérieure à 2,8 est suspecte. L’étape qui suit consiste à comparer la proportion de
variances observées inexpliquées du modèle qui est attribuable aux items identifiés lors de chaque
contraste à la variance observée expliquée par les items. Si la première est très inférieure à la
seconde, l’importance d’une potentielle dimension surajoutée est atténuée. Les ensembles d’items
les plus éloignés du modèle sont identifiés comme des groupements. Trois groupements sont
identifiés pour chaque contraste, le premier et le dernier correspondent aux items aux deux pôles
(qui s’éloignent le plus du modèle), et l’autre groupement identifie le reste des items du test. Les
groupements des deux pôles doivent être identifiés. Ce sont les items qui sont susceptibles d’ajouter
une dimension au test. Un test de corrélation entre chacun des groupements, deux à deux, permet
d’évaluer si les items mesurent de la même façon la capacité des sujets. Si l’indice de corrélation
désatténuée (qui fait fi de l’erreur standard) est entre 0,5 et 1, les items des groupements comparés
mesurent de la même façon la capacité des sujets et appartiennent à la même dimension. Si l’indice
de corrélation est inférieur à 0,5, une dimension influençant la mesure est très probable et correspond
aux items de l’un des groupements d’items les plus éloignés du modèle. Les contrastes suivants sont
examinés de la même façon jusqu’à ce que l’eigenvalue du contraste en question soit inférieure à
2,8.

12
Après avoir identifié sur la carte des contrastes les groupements d’items suspects, leur
dimensionnalité propre doit être explorée, d’abord en examinant la Courbe caractéristique d’item
(CCI) de chaque item. Si une tendance opposée à la tendance de réponse globale (correspondant à
la courbe sigmoïde caractéristique, figure1.) est constatée, cela signale, sans toutefois le certifier,
qu’une potentielle dimension autre que celles mesurées compose la réponse à un item. L’analyse de
la corrélation statistique entre les items des groupements suspects par l’indice de corrélation de
Pearson ou l’indice de corrélation désatténuée (qui fait fi de l’influence des erreurs de mesure pour
calculer la vraie corrélation) permet de certifier la présence ou absence d’une dimension surajoutée.
Plus les statistiques de corrélation sont proches du zéro, plus la corrélation est inexistante entre les
items, donc, le groupement d’items mesure une dimension indépendante des autres items et leur
impact est suffisamment important pour dévier la mesure (la mesure n’est pas focalisée sur le trait
mesuré seulement) du modèle par une dimension surajoutée. La suite de l’analyse consiste à juger
en fonction de l’importance de la dimension surajoutée, si celle-ci est une dimension acceptable qui
est considérée comme faisant partie de la dimension mesurée par la variable étudiée, ou si elle n’est
pas acceptable et devrait faire l’objet d’une échelle de mesure indépendante.

En résumé, l’unidimensionnalité selon le modèle Rasch est le fait de focaliser ou préciser la mesure
de la propriété du sujet qui est étudiée (ou mesurée), sans prendre en compte les autres possibles
caractéristiques qui pourraient faire dévier, ou dégrader la qualité de la mesure.

Une possible multidimensionnalité peut être explorée par la variance résiduelle standardisée qui est
le résidu généré par la différence entre la variance observée et celle attendue.

L’existence d’une multidimensionnalité doit être investiguée lorsqu’un groupement de 3 items ou plus
contraste avec le modèle unidimensionnel. L’unité illustrant le nombre d’item est appelée
l’« eigenvalue ».

L’identification et l’investigation de l’importance d’une possible multidimensionnalité se basent sur la


comparaison de la variance observée expliquée par les items à celle inexpliquée à chaque contraste.
Si l’eigenvalue est supérieure ou égale à 3, cela signifie qu’il y a un groupement d’au moins 3 items
qui constitue une possible dimension surajoutée. Cette possibilité est assez importante pour justifier
le fait d’investiguer davantage ou d’amener des ajustements au modèle. Il faut s’intéresser à la carte
des items de chaque contraste. Identifier les groupements d’items les plus éloignés verticalement et
qui semblent former un groupement. Si les items identifiés sont corrélés et que cette corrélation est
avérée, il faut la quantifier grâce au coefficient de corrélation de Pearson, ou mieux encore par le
coefficient de corrélation désatténuée qui est une corrélation atténuée (corrigée par l’erreur de
mesure) dont on supprime l’atténuation et donc la part de la valeur de la corrélation attribuable à
l’erreur de mesure. Elle est ainsi nommée corrélation désatténuée et elle a toujours une valeur plus
importante (plus extrême dans le cas des analyses de dimensionnalité) que la corrélation observée.

13
Si ces coefficients sont proches de 1, une forte corrélation est probable entre les items du
groupement. Ceci pourrait signifier que la dimension apportée par ces items est assez importante
pour faire dévier la mesure de la qualité étudiée. La question quant au fait que la possible dimension
surajoutée fait partie intégrante de la mesure à l’étude est sujette à discussion. Des experts du sujet
doivent se réunir et décider par consensus si, oui ou non, la deuxième dimension identifiée est
réellement une dimension surajoutée ou est-ce simplement une partie de la dimension de la mesure
de la qualité étudiée.

La vraie question à se poser est : cette possible deuxième dimension va-t-elle améliorer la qualité de
mesure du trait étudié ou va-t-elle au contraire la dévier? Est-il nécessaire de supprimer les items
des groupements identifiés de l’échelle principale pour les mesurer dans une échelle indépendante?

Si les réponses aux questions soulevées sont :


- Oui, les groupements d’items apportent une dimension qui ne fait pas partie de la mesure
principale.
- Oui, le fait de laisser ces items dans notre échelle dégraderait la mesure de la qualité à l’étude.
- Oui, ces items mériteraient d’être évalués dans une échelle indépendante de l’échelle principale.
Alors, l’échelle de mesure principale est multidimensionnelle en pratique et il est nécessite d’effectuer
des changements à l’échelle.

Si au contraire, ces items définissent une dimension faisant partie intégrante de la mesure étudiée,
ils ne nécessitent pas une échelle d’évaluation indépendante puisqu’ils améliorent la qualité de la
mesure à l’étude. Alors, l’échelle de mesure principale est considérée unidimensionnelle en pratique
et ce peu importe les statistiques. Ainsi, les analyses statistiques servent de guide exploratoire, sans
toutefois permettre de confirmer l’existence d’une unidimensionnalité.

Les notions statistiques importantes de la modélisation Rasch sont en résumé:

- Une échelle n’est pas nécessairement une échelle de mesure linéaire, et ce particulièrement
lorsqu’il s’agit de mesurer des traits latents (capacité cognitive, en ce qui concerne cet ouvrage),
ce qui rend impossible la réalisation de comparaisons arithmétiques.
- Le recours à une modélisation Rasch permet de convertir des scores totaux en probabilités de
réussite ou d’échec et de les formuler selon une unité de mesure (le Logit) qui transforme un
questionnaire « standard » (ordinal) en une mesure linéaire à intervalles égaux.
- Le modèle Rasch prend en compte deux paramètres, l’aptitude propre du sujet à réussir un item
donné et la difficulté de cet item. Le principe de base est que la probabilité de réussite d’un sujet
à un item augmente plus sa capacité de réussite en lien avec le trait mesuré est importante.
- Les deux paramètres précédents sont indépendants l’un de l’autre ce qui confère à la mesure
une objectivité spécifique, dénommée «invariance».

14
4. Chapitre 4 : Structure du questionnaire cognitif générique analysé

4.1. Construction du questionnaire cognitif générique


Le questionnaire cognitif générique (Annexe 1) a été créé en s’inspirant des résultats obtenus
précédemment de l’analyse des propriétés psychométriques du MoCA17 administré à une population
de patients atteints du cancer grâce à la modélisation Rasch. Cette analyse a permis de conclure
que le MoCA avait plusieurs limites :

 Un effet plafond : c’est une incapacité à distinguer entre eux les sujets avec des déficits très
légers. Plus simplement, une fois le score maximal du MoCA atteint il est impossible de
distinguer les sujets qui auraient pu mieux performer de ceux qui étaient aux limites de leurs
capacités. Prenant l’analogie d’un escalier, les patients avec un déficit léger se retrouveraient
tous à la dernière marche, peu importe si certains sujets avaient la capacité de monter encore
des marches supplémentaires.
 Des niveaux de difficulté intermédiaires insuffisants : ceci signifie que le MoCA ne peut pas
classifier adéquatement des sujets ayant des capacités cognitives distinctes à l’intérieur de ses
valeurs possibles, ce même escalier manquant de marches. Si, par exemple, les marches 5 et
6 sont manquantes, tous les sujets capables de monter 4, 5 ou 6 marches se retrouvent tous à
la 4ième marche. Ces deux derniers, pouvant théoriquement montrer 5 à 6 marches, seraient
considérés de façon erronée comme ayant une capacité équivalente à ceux ne pouvant monter
qu’à la 4ième marche.

Après avoir identifié les limites du MoCA, la construction d’un questionnaire, le FaCE, qui puisse, en
théorie, suppléer à ces lacunes s’imposait si l’on voulait disposer d’un instrument simple et rapide
d’évaluation de la fonction cognitive des patients avec cancer n’ayant pas les limites du MoCA. La
description détaillée du processus de développement du questionnaire cognitif générique analysé
afin de développer le FaCE dépasse le cadre de ce mémoire.

En résumé, c’est en se basant sur les conclusions d’une revue de la littérature traitant des troubles
cognitifs spécifiques aux patients avec un cancer, sur les propriétés psychométriques des
instruments disponibles et sur l’opinion d’experts qu’un test cognitif générique a été développé.
Théoriquement, ce questionnaire générique a été conçu de façon à comprendre des items plus
difficiles à réaliser par les sujets que le MoCA afin d’éviter un effet plafond. De plus, certains items
ont été modifiés et d’autres, ajoutés pour assurer des niveaux de difficulté intermédiaires suffisants
afin de mieux classifier les sujets, entre eux. Enfin, certains items du MoCA ont été retirés, car ils
évaluaient des domaines de difficultés cognitives non reliés au cancer et à son traitement.
L’évaluation abstraite en est un exemple, son atteinte est présente lors des démences62, mais ne fait
pas partie des déficits cognitifs rapportés en lien avec le cancer ou son traitement3, 4, 34. De plus,

15
l’analyse des propriétés psychométriques du MoCA17 a identifié une redondance entre le premier
item évaluant la capacité d’abstraction et le dessin de l’horloge et entre le deuxième item évaluant la
capacité d’abstraction et le TMT-B.

Le questionnaire cognitif générique (Annexe 1) évalue avec 24 questions, 6 dimensions cognitives,


résultats en un score maximal de 38 points :

 L’orientation temporo-spatiale
 La mémoire immédiate
 Les fonctions visuo-spatiales et exécutives
 L’attention et la concentration
 Langage et idéation.
 Le rappel différé

4.2. Description générale du questionnaire cognitif générique

Les questions et les tâches pour chaque aspect sont ordonnées de la plus facile à la plus difficile.

4.2.1. Aspect orientation temporo-spatiale

Le score maximal possible est de 6 points.

Six questions sont posées au participant : la date du jour de l’entrevue, le mois, l’année, la journée
de la semaine, la saison et enfin la ville où l’entrevue se déroulait. Ces questions ont été choisies
pour leur niveau de difficulté relativement bas, afin de détecter les déficits cognitifs très importants
et, aussi, de permettre au participant de relaxer dès le début du questionnaire puisque ces questions
sont simples à réaliser et n’entrainent pas un sentiment d’inaptitude courant chez les patients lorsque
leurs fonctions cognitives sont évaluées. Cela permet que le niveau de stress ou d’anxiété soit
amoindri limitant ainsi l’influence de ces facteurs sur la qualité des réponses. Un point est accordé
par bonne réponse avec un maximum de 6 points.

4.2.2. Mémoire immédiate

Le score maximal possible est de 7 points.

Deux tâches évaluent cet aspect : l’assistante de recherche nomme 7 mots, chacun représente une
chose ou un concept différent (« Jambe » - une partie du corps; « Laine » - une matière; « Château »
- un bâtiment ou édifice; « Tulipe » - une fleur; « Bleu » - une couleur; « Cheval » - un animal;
« Patate » - un légume). Afin de réussir cette tâche au score maximal, le participant doit se souvenir
et répéter les 7 mots, l’ordre n’ayant pas d’importance. La deuxième tâche consiste à répéter le
processus de la tâche précédente une deuxième fois (répéter 7 mots après que l’évaluateur les ait
cités à nouveau).

16
Contrairement au MoCA, cette tâche contient 7 mots et qu’il faut remarquer que chaque mot répété
avec succès alloue un point au score de cette tâche jusqu’à un maximum de 7 points. Cette
différence a été introduite afin d’aller chercher des items avec des difficultés au haut de l’échelle, ce
que le MoCA ne faisait pas bien.

4.2.3. Fonctions visuo-spatiales et exécutives

Le score maximal possible est de 6 points.

Trois tâches indépendantes permettent d’évaluer cet aspect : la première est le test « Trail Making
Test partie B » qui consiste à relier un chiffre et une lettre en dessinant des flèches tout en les
alternant dans un ordre croissant. Le premier chiffre est le « 1 », le dernier, le « 8 », la première lettre
est le « A » et la dernière, le « H ». Le début de la tâche est donné (le « 1 » relié au « A » et le « A »
relié au « 2 » afin qu’elle soit bien comprise. Le score maximal de cette épreuve est de 1 si la tâche
est réussie jusqu’au bout et sans erreur.

La deuxième tâche consiste à reproduire le dessin d’un cube en 3 dimensions identique au modèle
présenté au participant. Le score maximal pour cette épreuve lorsque la reproduction du cube est
sensiblement identique au modèle est de 2. Si le dessin n’est pas sensiblement reproduit, mais que
les erreurs sont mineures, 1 point est accordé. Aucun point n’est accordé par ailleurs.

La dernière tâche est de dessiner une horloge avec tous les chiffres et d’indiquer par des aiguilles
14h40. Un score maximal de 3 est attribué lorsque l’horloge est correctement dessinée (ronde, tous
les chiffres présents et à la bonne place, une petite aiguille et une grande aiguille indiquant 14h40).
L’absence de chaque élément entraine une perte d’un point. Aucun point n’est accordé si tous les
éléments sont manquants.

4.2.4. Attention

Le score maximal possible est de onze (11) points (6 pour la première partie + 5 points pour la
deuxième partie). Onze questions sont posées au participant comme suit :

Six questions pour la première partie de cette évaluation. Le participant doit répéter 4 chiffres qui lui
sont nommés par l’assistante de recherche. Par la suite, le participant doit répéter d’autres chiffres
nommés, mais en sens inverse (un exemple est donné au participant : « Si je vous dis « 1, 2, 3 »,
vous devez me répondre « 3, 2, 1 » ».) Cette répétition en sens inverse est demandée pour 3 chiffres,
puis 4, 5, 6, et 7 chiffres. 1 point est accordé pour chaque répétition correcte pour un total de 6 points.

La deuxième partie de cette évaluation consiste à demander au participant de soustraire 7 du nombre


« 101 », et de continuer à soustraire 7 du résultat obtenu jusqu’à ce que l’assistante de recherche lui
demande de s’arrêter. 1 point est accordé pour chaque bonne réponse. Si le patient se trompe à la
première soustraction, mais que lorsqu’il accomplit la deuxième soustraction à partir du résultat

17
erroné de la première et que le résultat est correcte, le point pour la deuxième soustraction lui est
quand même accordé. Un total de cinq soustractions est réalisé pour un maximum de 5 points.

4.2.5. Langage et idéation

Le score maximal possible est de 1 point.

Le participant doit nommer le maximum de fruits et de légumes différents en une minute (60
secondes). Le choix de nommer des fruits et des légumes s’est basé sur l’opinion que cette tâche
serait peu influencée par le niveau d’éducation ou de littératie, contrairement à énumérer des mots
commençant par une lettre spécifique comme dans le MoCA. De plus, la connaissance des fruits et
des légumes est universelle étant donné son usage dans la vie quotidienne. Aucune limite, dans le
nombre de fruits et légumes à nommer, n’est imposée. En cas de répétition du même fruit ou légume,
ce dernier n’est comptabilisé qu’une seule fois. 1 point est accordé lorsque le participant arrive à
nommer 20 fruits et légumes au minimum, cette information n’est pas donnée au participant. Le
chronomètre est démarré à l’énoncé du premier fruit ou légume par le participant et arrêté à 60
secondes.

4.2.6. Rappel différé

Le score maximal possible est de 7 points.

L’assistante de recherche demande au participant d’essayer de se rappeler des sept mots cités au
début du questionnaire et de les nommer. L’ordre n’a pas d’importance. Un point est accordé par mot
rappelé avec un maximum de 7 mots.

Le score total maximal du questionnaire cognitif générique est de 38 points. 1 point supplémentaire
est ajouté au score obtenu si le participant a moins de 12 ans de scolarité.

18
5. Chapitre 5 : Méthodologie

5.1. Population
5.1.1. Processus de recrutement

Ce projet de recherches a reçu l’approbation du comité d’éthique de la recherche du CHU de Québec


Université Laval le 18 juin 2013 sous le numéro d’approbation : 2014-1209; A13-05-1209. Son
approbation éthique a été renouvelée chaque année jusqu’à ce jour.

Les participants à cette étude ont été recrutés dans le Centre de Recherche Clinique et Évaluative
en Oncologie de Québec (CRCEO). Les médecins oncologues (urologue, gynécologue, gastro-
entérologue, psycho-oncologue, soins palliatifs) du centre ont été invités à mettre à disposition les
coordonnées des patients qui se présenteraient à leur consultation et qui, potentiellement,
souhaiteraient prendre part à ce projet. Les participants ont été contactés par courrier postal ou par
une relance de la part de leur médecin traitant. Nous leur avions adressé une lettre expliquant
brièvement les buts et objectifs du projet ainsi que le déroulement et la procédure des entrevues lors
de leur participation. À cette lettre étaient jointes, une lettre d’accord de leur médecin traitant, une
lettre informative du chercheur principal ainsi que le formulaire de consentement à la participation au
projet*. Après le premier envoi, les participants ont été contactés par téléphone afin de s’assurer de
la bonne réception du courrier et de répondre brièvement à certaines de leurs questions. Un
maximum de trois (3) relances, que ce soit par courrier postal ou par téléphone, a été fixé avant de
prendre la décision d’exclure les patients qui n’avaient pas répondu.

5.1.2. Critères d’éligibilité

Après avoir reçu le consentement des participants recrutés, leur éligibilité était vérifiée par un
questionnaire sociodémographique* et en consultant leurs informations médicales via le dossier
patient électronique. Les participants éligibles étaient tous des patients âgés de plus de 18 ans et
ayant un cancer à l’exception de ceux atteints d’une pathologie ou d’une complication pouvant
affecter de façon majeure et/ou définitive leurs capacités intellectuelles. Les critères d’éligibilité
étaient comme suit :

5.1.2.1. Critères d’inclusion


 Avoir 18 ans et plus
 Être atteint du cancer

*
Ces documents, ainsi que le protocole soumis au comité d’éthique de la recherche du CHU de Québec, sont disponibles pour consultation
auprès de Dr Bruno Gagnon (Gagnon.Bruno@crchudequebec.ulaval.ca).

19
5.1.2.2. Critères d’exclusion
- Avoir un cancer du cerveau
- Avoir des métastases au cerveau
- Avoir une démence vasculaire ou la maladie d’Alzheimer
- Avoir eu une insulte cérébrale (accident vasculaire cérébrale (AVC), lésion cérébrale
traumatique)
- Avoir obtenu un diagnostic de schizophrénie

5.1.3. Procédure et déroulement de l’entrevue

La date de l’entrevue était fixée de manière à ce qu’elle coïncide avec une journée de rendez-vous
au CRCEO afin de minimiser les déplacements.

L’entretien durait en moyenne 15 minutes et se déroulait dans une pièce claire et au calme.

Des assistantes de recherches entraînées dirigeaient la rencontre. Le consentement du participant


était obtenu après la relecture du formulaire de consentement et d’avoir répondu à toutes leurs
questions. Le formulaire de données sociodémographiques était complété avec l’aide de l’assistante.

Lors de l’étape suivante de l’entretien, l’assistante administrait le questionnaire cognitif générique en


parlant d’une façon calme, claire et en s’assurant que le participant pouvait entendre et comprendre
clairement les directives.

La durée totale pour compléter le questionnaire était calculée en débutant à la première réponse
jusqu’à ce que la dernière tâche soit complétée. Cette durée était notée par l’assistante de recherches
à la fin de l’entrevue.

À la fin de l’entretien, les participants ont reçu une compensation financière correspondant au
remboursement de leurs frais de transport ou de stationnement, jusqu’à concurrence de 20$.

5.2. Analyse statistique descriptive

Afin d’avoir une vision d’ensemble des données, des analyses statistiques de proportion et de
fréquence ont été réalisées, ainsi que le calcul de la moyenne ou de la médiane et de l’étendue des
variables. Le logiciel SAS 9.4 Software a été utilisé dans ce but. Ce qui permet d’apprécier les
caractéristiques de la population ainsi que la répartition des items dans le questionnaire cognitif
générique. La présence de comorbidités cardiovasculaires (athérosclérose63, diabètes64,65,
anévrysme de l’aorte abdominale, insuffisance cardiaque66) a été analysée afin d’évaluer leur
possible impact sur les capacités cognitives67. Un test « T de Student » a été réalisé afin d’évaluer si

20
la répartition des âges des participants en fonction de chaque intervenant était différente. Les âges
des participants ont été catégorisés en variable dichotomique (inférieur à 65 ans et supérieur ou égal
à 65 ans). Quatre intervenants différents étaient chargés de conduire les entrevues des participants.
Une analyse de variance de type ANOVA (ANalysis Of Variance) a été effectuée afin d’évaluer si le
fait d’avoir fait appel à des intervenants différents pour l’administration du questionnaire aux
participants avait un impact sur le temps d’accomplissement du questionnaire par les participants,
ainsi que sur le score total. Les quatre postulats pour que ces analyses soient possibles ont été
vérifiés. Ils se résumaient en :

- La distribution dans la population des variables analysées doit être appréciée et doit
correspondre à une distribution normale ou Gaussienne. Dans le but d’examiner la
distribution du score total obtenu au questionnaire cognitif générique et du temps
d’accomplissement, plusieurs tests sont possibles. Le test de normalité de Shapiro-Wilk a été
effectué sur les résidus de ces deux variables d’intérêt avec un seuil d’erreur alpha de 0.05.
Pour que la distribution d’une variable soit considérée normale, il faut que la statistique de
Shapiro-Wilk (W) soit le plus proche possible de 1 et que la valeur-p de cette statistique soit
supérieure à 0.05 ce qui permet d’accepter l’hypothèse nulle qui signe la normalité de la
distribution de la variable. Cependant, les tests statistiques68-70 du type « t de student » et
ANOVA, sont robustes et peuvent être utilisés sans risque d’erreur majeure.
- Une indépendance des observations Les participants ne doivent pas être liés les uns aux
autres (même famille, même employeur, etc..).
- Un nombre de participants supérieur à 30 (pour le test de comparaison de proportions).
- Homoscédasticité ou homogénéité des variances. Pour toute valeur fixée « i » de X, la
variance Var(Y) est constante. Vérifiée par le test de Levene qui teste l’hypothèse nulle que
les variances sont homogènes.

Les tests cités ci-dessus ont été interprétés avec un seuil acceptable d’erreur « α » de 5%. Ainsi le
seuil de signification statistique correspond à une valeur-p = 0,05.

5.3. Application de la modélisation Rasch pour l’analyse des propriétés


psychométriques du FaCE

Les analyses selon la modélisation Rasch ont été réalisées avec le logiciel Winsteps version 3.81.0
statistical software71.

Les premières étapes de l’analyse Rasch sont l’identification de la variable mesurée, la sélection des
items ou des questions, la construction de l’échelle suivant le modèle Rasch et enfin son évaluation.

21
 L’identification de la variable d’intérêt (la variable mesurée) :

La variable d’intérêt était le score obtenu au questionnaire qui reflétait la capacité cognitive des sujets.
Cette variable avait plusieurs caractéristiques, telles que sa distribution, sa précision, sa fiabilité, etc.
Avant de pouvoir lui attribuer des caractéristiques, il convenait d’identifier et de caractériser en
premier lieu chacun des items qui construisent ce questionnaire.

 La sélection des items et leur construction:

Tous les items du questionnaire cognitif générique, excepté le dessin de l’horloge et le dessin du
cube en 3 dimensions, ont été construits en variables dichotomiques, c’est-à-dire que chaque
question ou chaque tâche demandée au cours du questionnaire avait deux niveaux, soit une valeur
de « 1 » signifiant la réussite de l’épreuve en question ou « 0 » signifiant l’échec ou la non-réussite
à l’épreuve. Ces items n’avaient pas besoin d’être modifiés pour être intégrés à la modélisation Rash.

Par ailleurs, le dessin de l’horloge et le dessin du cube en 3 dimensions étaient construits avec la
caractéristique d’avoir des valeurs de réponse soit à plusieurs catégories ou soit à plusieurs niveaux
possibles (format polythomique). Les catégories de réponses à ces questions ont été dichotomisées.

Deux autres tâches du questionnaire posaient problème : le dessin du cube et celui de l’horloge.
Comme mentionné plus haut, leurs scores étaient initialement prévus à 3 niveaux (voir : chapitre 4 :
4.2.2 Fonctions visuo-spatiales et exécutives). Le problème rencontré dans ce cas était que le score
attribué était trop influencé par l’appréciation de l’assistante de recherche qui évaluait la qualité du
dessin. Afin de pallier ce manque d’objectivité, une décision, par consensus d’experts, a été prise de
modifier le format du score attribué à cette tâche. Ainsi, le dessin du cube était aussi noté suivant un
format dichotomique « 1 » si le cube était sensiblement reproduit et « 0 » dans tous les autres cas.
La même logique a été appliquée concernant le dessin de l’horloge. Dans ce cas précis, ce n’était
pas seulement l’objectivité du score qui était à mettre en cause. Le problème rencontré, était
l’énoncée de la tâche. Il a été demandé au participant de dessiner une horloge avec tous les chiffres
et dont les aiguilles indiquaient 14h40. Aucune spécification n’a été donnée concernant la forme de
l’horloge ni la taille des aiguilles. Il n’était donc pas possible d’attribuer un score qui ne pénaliserait
pas les participants n’ayant pas répondu à tous les critères de réussite puisque ceux-ci n’étaient pas
clairement énoncés. D’autre part, l’appréciation de la satisfaction de chaque spécification de cette
tâche était aussi sujette à un jugement par les intervenants (Exemple : l’horloge pourrait être jugée
sensiblement ronde par un intervenant ou pas assez ronde par un autre.). Donc, le score attribué
pour cette tâche qui était à 4 niveaux a été redéfini en un score dichotomique (1 : le dessin d’une
horloge dont les chiffres étaient présents et bien positionnés et que les aiguillent indiquaient la bonne
heure; 0 : dans toutes les autres situations.)

Un autre item a demandé une réflexion quant à la manière dont le score avait été construit. Les
soustractions lors de l’évaluation de l’aspect cognitif relatif à l’attention (voir chapitre4 : « 4.2.4

22
attention »). Dans ce cas chaque soustraction réussie correspondait à un score de 1 et « 0 » en cas
d’échec. Cependant, comme précisé dans le chapitre précédent, l’objectif initial de cette tâche ne
consistait pas à évaluer la possibilité d’effectuer des soustractions consécutives. Or, après réflexion,
il était clair que le niveau de difficulté diminuait, plus le diminuende devenait petit ou si ce dernier
était un chiffre dont la soustraction ne demandait pas une retenue (Exemple : soustraire 7 de 101 est
plus difficile que de soustraire 7 de 87). Ainsi, le principe que les tâches étaient construites en fonction
d’une difficulté croissante était remis en cause. De ce fait, une décision par consensus a été prise
de modifier le score de cet item. Ce dernier était noté en créant des variables distinctes en fonction
du nombre de soustractions consécutives réussies. Avec cette tâche, l’objectif n’était pas d’évaluer
la performance mathématique des participants, mais plutôt l’aptitude des sujets à conserver leur
attention sur la tâche en cours tout au long de cette dernière. Ainsi, si la première soustraction était
incorrecte, mais que les quatre suivantes étaient réussies, le score pour au moins quatre
soustractions consécutives était attribué. Le pointage de cette tâche correspondait aux variables
suivantes:

Variable pour au moins une soustraction réussie : « 1 » point attribué et « 0 » dans le cas contraire.
Variable pour au moins deux soustractions consécutives réussies : « 1 » point attribué et « 0 » dans
le cas contraire.
Variable pour au moins trois soustractions consécutives réussies : « 1 » point attribué et « 0 » dans
le cas contraire.
Variable pour au moins quatre soustractions consécutives réussies : « 1 » point attribué et « 0 » dans
le cas contraire.
Variable pour au moins cinq soustractions consécutives réussies : « 1 » point attribué et « 0 » dans
le cas contraire.
Suivant cette logique méthodologique, le score pour les tâches évaluant l’aspect cognitif relatif à la
mémoire immédiate et le rappel différé a été modifié. Cela correspondait aux variables suivantes :

Mémoire immédiate : répétition des sept mots cités par l’évaluateur :

Variable pour au moins un mot répété : « 1 » point attribué et « 0 » dans le cas contraire.
Variable pour au moins deux mots répétés : « 1 » point attribué et « 0 » dans le cas contraire.
Variable pour au moins trois mots répétés : « 1 » point attribué et « 0 » dans le cas contraire.
Variable pour au moins quatre mots répétés : « 1 » point attribué et « 0 » dans le cas contraire.
Variable pour au moins cinq mots répétés : « 1 » point attribué et « 0 » dans le cas contraire.
Variable pour au moins six mots répétés : « 1 » point attribué et « 0 » dans le cas contraire.
Variable pour au moins sept mots répétés : « 1 » point attribué et « 0 » dans le cas contraire.

23
Rappel des sept mots pour évaluer le rappel différé de la mémoire épisodique :

Variable pour au moins un mot rappelé : « 1 » point attribué et « 0 » dans le cas contraire.
Variable pour au moins deux mots rappelés : « 1 » point attribué et « 0 » dans le cas contraire.
Variable pour au moins trois mots rappelés : « 1 » point attribué et « 0 » dans le cas contraire.
Variable pour au moins quatre mots rappelés : « 1 » point attribué et « 0 » dans le cas contraire.
Variable pour au moins cinq mots rappelés : « 1 » point attribué et « 0 » dans le cas contraire.
Variable pour au moins six mots rappelés : « 1 » point attribué et « 0 » dans le cas contraire.
Variable pour au moins sept mots rappelés : « 1 » point attribué et « 0 » dans le cas contraire.

Dans un souci d’affiner l’évaluation de l’aspect « langage et idéation », le score qui était dichotomique
« 1 » attribué si au moins vingt fruits et légumes étaient nommés et « 0 » dans le cas contraire, une
décision par consensus, a été prise de catégoriser cet item en fonction du nombre de fruits et de
légumes nommés. C’est en créant des variables échelonnées par palier de deux à partir de douze à
trente fruits et légumes nommés que le score a été modifié (la réflexion quant à cette décision sera
plus largement discutée dans le chapitre 6 « Résultats ») :

Au moins douze fruits et légumes différents nommés en une minute : « 1 » point attribué et « 0 »
dans le cas contraire.
Au moins quatorze fruits et légumes différents nommés en une minute : « 1 » point attribué et « 0 »
dans le cas contraire.
Au moins seize fruits et légumes différents nommés en une minute : « 1 » point attribué et « 0 » dans
le cas contraire.
Au moins dix-huit fruits et légumes différents nommés en une minute : « 1 » point attribué et « 0 »
dans le cas contraire.
Au moins vingt fruits et légumes différents nommés en une minute : « 1 » point attribué et « 0 » dans
le cas contraire.
Au moins vingt-deux fruits et légumes différents nommés en une minute : « 1 » point attribué et « 0 »
dans le cas contraire.
Au moins vingt-quatre fruits et légumes différents nommés en une minute : « 1 » point attribué et
« 0 » dans le cas contraire.
Au moins vingt-six fruits et légumes différents nommés en une minute : « 1 » point attribué et « 0 »
dans le cas contraire.
Au moins vingt-huit fruits et légumes différents nommés en une minute : « 1 » point attribué et « 0 »
dans le cas contraire.
Au moins trente fruits et légumes différents nommés en une minute : « 1 » point attribué et « 0 » dans
le cas contraire.

24
Concernant, l’évaluation de la mémoire immédiate, du rappel différé et nommer des fruits et des
légumes, il faut noter que le sujet conserve la codification « 1 » (réponse correcte) des niveaux
inférieurs jusqu’à son niveau maximal.
Afin d’assurer la formulation dichotomique du score de tous les items du questionnaire, les items
restants étaient notés de la manière suivante :

Orientation :
Donner la date correcte : « 1 » point attribué et « 0 » dans le cas contraire.
Donner le jour correct : « 1 » point attribué et « 0 » dans le cas contraire.
Donner l’année correcte : « 1 » point attribué et « 0 » dans le cas contraire.
Donner la saison correcte : « 1 » point attribué et « 0 » dans le cas contraire.
Donner la ville correcte : « 1 » point attribué et « 0 » dans le cas contraire.

De cette manière, tous les items du FaCE se caractérisent finalement par un score dont le format est
strictement dichotomique.

 Construction de l’échelle du FaCE suivant la modélisation Rasch.

Le FaCE a été construit selon la modélisation Rasch répondant aux caractéristiques d’une échelle
de mesure basée sur la définition d’une échelle de mesure fixée par « the institute for objective
measurement »72, “objective measurement is the repetition of a unit amount that maintains its size,
within an allowable range of error, no matter which instrument, intended to measure the variable of
interest, is used and no matter who or what relevant person or thing is measured”. Traduction libre:
« mesurer de manière objective consiste à répéter une quantité unitaire de grandeur constante,
dans des limites acceptables d’erreur, quel que soit l’instrument utilisé pour mesurer la variable
d’intérêt et quelle que soit la personne ou la chose mesurée ».

Les items du questionnaire FaCE devaient répondre à ces exigences. Elles ont été vérifiées, une par
une au cours de cette étude.

5.3.1. Objectivité de mesure


5.3.1.1. Hiérarchisation des réponses aux items

Pour vérifier ce critère, la hiérarchisation de chacun des items et tâches qui composent le FaCE a
été analysée. L’analyse de la carte des items a permis d’avoir une vision d’ensemble de la
hiérarchisation de tous les items et d’en apprécier les écarts d’unité Logit.

À titre d’exemple : effectuer une soustraction est plus facile que d’en effectuer deux consécutivement,
qui est à son tour plus facile que d’en effectuer trois consécutivement, etc.

25
5.3.1.2. Linéarité de l’échelle

Comme il a été dit plus haut, la linéarité d’une échelle de mesure est une qualité importante, car elle
permet d’affirmer que la quantité de changement de la qualité mesurée est la même tout au long de
l’échelle pour tout changement d’une unité.

Dans le cas de la modélisation Rasch, l’unité est le Logit. C’est en transformant les scores totaux en
Logit que cette linéarité est imposée par le modèle Rasch. Le Logit étant le logarithme népérien du
rapport entre la probabilité de réussite et la probabilité d’échec (rapport de vraisemblance de
réussite).

Exemple pratique : soit 10 items dichotomiques cotés 1 (réussite) ou 0 (échec). Les scores totaux
s’étendent de 0 à 10. Pour une personne obtenant un score total de 1, la proportion d’items réussis
est de 1/10, la proportion d’items échoués est de 9/10 et le rapport de vraisemblance est de 1/9. Si
un score de 6 est obtenu, le rapport de vraisemblance vaut 3/2. La seconde étape de cette procédure
consiste à prendre le logarithme népérien du rapport de vraisemblance. Dans cet exemple, ln (3/2)=
-0.40. Cette transformation se fait tout le long de l’échelle de mesure et ainsi permet d’avoir une
échelle avec des intervalles égaux en termes de Logit.

Le fait que l’unité de mesure de la modélisation Rasch se base sur un modèle probabiliste impose
une progression en continu selon la capacité des sujets. La probabilité de réussite qui est prise en
compte dans l’unité de mesure est en fonction de la capacité du sujet et de la difficulté de l’item.
Chaque sujet est considéré distinct d’un autre par son aptitude à répondre aux items. Ainsi, la
progression se fait toujours dans le même sens, car plus la capacité du sujet est importante plus la
probabilité de réponse correcte aux items est haute.

5.3.1.3. Unidimensionnalité

La notion d’unidimensionnalité de l’échelle du FaCE a été appréciée dans un premier temps, par
l’analyse de la dimensionnalité de chaque item en examinant la Courbe caractéristique d’item (CCI)
de chaque item afin d’identifier les items qui pourrait être mis en cause lors de l’analyse de la
dimensionnalité de l’échelle de mesure en globalité.
Lorsqu’une dimension autre que celle mesurée composait la réponse à un item, il était facile de
constater une tendance opposée à la tendance de réponse globale (correspondant à la courbe
sigmoïde caractéristique, figure1.) Un exemple concret sera illustré lors de l’analyse du dessin de
l’horloge dans la partie « Résultats ».

Par la suite l’analyse de la dimensionnalité globale de l’échelle de mesure est appréciée par les
variances résiduelles standardisées observées et attendues du modèle.

26
Les variances observées du modèle expliquée et non expliquée par la mesure sont comparées à
celles attendues par la modélisation Rasch. La variance du modèle non expliquée par la mesure est
investiguée par la mise en contraste des items les plus éloignés du modèle. À chaque contraste, le
nombre d’items suspects (éloignés du modèle) est apprécié par les eigenvalue. Lorsqu’un
groupement d’items est identifié (eigenvalue > 2.8) l’indice de corrélation désatténuée de Pearson
est alors apprécié afin de déterminer si le groupement d’items ne mesure qu’une « sous-dimension »
de la dimension principale (indice de corrélation désatténuée de Pearson > 0.5) ou s’il s’agit bel est
bien d’une dimension entièrement différente que celle mesurée. Pour plus de détails quant à
l’interprétation des résultats, se référer au point 6.4.1.1 dans la partie résultats.

5.3.1.4. Indépendance locale

L’indépendance locale exigée dans la modélisation Rasch consiste en réalité en une indépendance
statistique. Comme au niveau de la réponse aux items où la réponse d’un sujet à un item n’influence
pas la direction (succès ou échec) de la réponse à un autre item, la probabilité de réponse à un item
n’influence pas la probabilité de réponse à un autre item. Ainsi la probabilité globale (P) de réponse
à deux items (X et Y) est le produit de la probabilité de réponse de chacun des deux items ((PX) X
(PY)).

La notion d’indépendance locale permet d’affirmer que la probabilité de réponse correcte d’un sujet
« A » à un item « X » est indépendante de sa probabilité de réussite à un autre item « Y », ceci est
vrai peu importe le nombre d’items composant l’échelle de mesure. De la même façon, les
probabilités de réponse correcte d’un ensemble de sujets « N » à un item « X » sont indépendantes.
De ce fait, il est possible d’en conclure que la probabilité de réussite d’un sujet « A » à un ensemble
d’items est le produit de la probabilité de réussite de chacun des items.

Le score attendu de l’échelle de mesure est, par conséquent, le produit des scores attendus de
chacun des items. Cette notion est importante pour comprendre comment la modélisation Rasch
calcule et définit le score des items en fonction de la réponse d’un ensemble de sujets.

L’indépendance locale est donc une notion statistique de la modélisation Rasch. L’objectivité
spécifique est une autre exigence de la modélisation qui se rapporte à l’indépendance de deux
caractères, la capacité des sujets et la difficulté des items.

Comme discuté dans la partie « Notions statistiques de la modélisation Rasch », la modélisation


Rasch schématise la réponse aux items en fonction de deux paramètres la capacité des sujets et la
difficulté des items. Ces deux paramètres ont une mesure propre sur la CCI. Le premier étant
indépendant de l’autre, et leur jonction traduit la mesure unitaire des réponses (ou scores) aux items.
L’objectivité spécifique certifie que les items ne sont pas positionnés (localisés sur la courbe) par

27
l’influence de la capacité des sujets et la position de la capacité de chaque sujet n’est pas en lien
avec la position des items.

En pratique, la CCI schématisant la réponse de chaque item ne doit pas être biaisée par une relation
quelconque entre la difficulté de l’item et la capacité du sujet. Non seulement la réponse d’un sujet à
un item ne permet pas de prédire sa réponse à un autre item, mais en plus, le classement des sujets
selon leur capacité ne doit pas être prédit par la difficulté (ou position) des items et vice versa.

5.3.2. Analyse de la qualité de la modélisation

Les paragraphes précédents traitaient des exigences et caractéristiques que le modèle Rasch
impose afin que l’échelle d’évaluation du questionnaire soit une échelle de mesure.

Ce qui sera discuté ici, ce sont les différentes analyses faites pour vérifier si les paramètres du
questionnaire s’ajustaient aux exigences de la modélisation Rasch et quels étaient les changements
nécessaires afin de satisfaire ces impératifs.

La position (classement) des paramètres (capacité du sujet et difficulté de l’item) a été estimée par
la méthode suivante. En connaissant la fréquence de réponses correctes d’un groupe de sujets à un
item, il a été possible de constater si cet item était réussi par la majorité des sujets et donc estimer
que cet item était facile ou au contraire, que cet item était difficile, si un petit nombre de sujets avait
obtenu une réponse correcte. Suivant cette même logique, les sujets qui réussissaient le maximum
d’items étaient considérés comme ayant une capacité importante, les sujets qui réussissaient un
minimum d’item étaient considérés ayant une capacité faible.

Cette estimation de la position des deux paramètres essentiels du modèle Rasch s’est faite aisément.
Ainsi, chaque paramètre s’est vu attribuer un score.

En principe, il est facile d’estimer la position de chaque paramètre en fonction de la fréquence de


réussite, mais quand il y a des scores extrêmes (scores parfaits ou scores nuls) les choses
deviennent plus complexes.

Si tous les sujets échouent à un item donné, la conclusion qui semblerait la plus logique est que cet
item est trop difficile pour le groupe de sujets en question. De même que, si un sujet répond à tous
les items correctement, la même logique conduirait à en conclure que ce sujet à une capacité trop
haute pour la série d’items en question. Ces conclusions ne permettent en aucune manière d’estimer
la vraie valeur de la difficulté de l’item trop difficile ou la vraie valeur de la capacité du sujet trop
capable. Cette vraie valeur se situerait entre les bornes (supérieure et inférieure) des estimations de
score et l’infini.

28
Afin de suppléer à cette difficulté, ces valeurs extrêmes ont été retirées des analyses dans un premier
temps puis réintroduites suivant une approche qui réduit la distance entre les bornes des estimations
et ces valeurs extrêmes en les situant à peine en dehors des valeurs bornes73.

Les détails de la procédure d’estimation des paramètres essentiels utilisés dans les analyses de la
modélisation Rasch se résument comme suit : la procédure inconditionnelle52, 73 estime la valeur des
paramètres pour lesquelles la probabilité de réussite est maximale. Elle est appelée inconditionnelle,
car l’estimation des paramètres est conjointe, mais ne s’influence pas. Ainsi, les paramètres sont
estimés théoriquement pour obtenir les probabilités de réponse observées pour chaque sujet à
chaque item du continuum de réponses. Ce type de procédure ne se déroule pas en un seul temps,
les estimations sont recalculées à plusieurs reprises après des ajustements jusqu’à ce qu’elles soient
le plus proche possible des valeurs observées. Dans un modèle parfait, les valeurs estimées
théoriquement, qui sont nommées « valeurs attendues » sont égales aux vraies valeurs ou « valeurs
observées ». À la fin de cette procédure, les valeurs obtenues définissent la localisation (du plus
difficile au plus facile, ou du plus capable au moins capable) des paramètres d’item et de sujet.
Comme dans toute estimation statistique, il existe une erreur standard, plus celle-ci est minime, plus
les estimations sont précises. Cependant, cette dernière, dans le cas de la modélisation Rasch, peut
être influencée par le nombre de sujets constituant l’échantillon de répondants, le nombre d’items de
l’échelle d’évaluation et la répartition des sujets par rapport aux items. Plus le nombre de sujets est
important plus l’erreur standard est réduite, de même que lorsque le nombre d’items est important.
Si les sujets sont répartis de façon très excentrique par rapport à la répartition des items, l’erreur
standard est importante. Afin d’évaluer ce dernier point, il suffit de comparer la valeur nulle des Logits
à la moyenne des réponses correctes des sujets.

La carte des items-personnes, par exemple celle présentée en Annexe 2 qui résulte de l’analyse des
propriétés psychométriques du MoCA, est une illustration de la répartition des items et des personnes
en fonction de leur estimation. La répartition se fait sur un axe vertical. À droite de l’axe, les items les
plus difficiles se situent en haut et les items les plus faciles en bas. À gauche, les personnes les plus
capables sont positionnées en haut et les moins capables en bas. La répartition se fait selon deux
échelles. L’estimation des Logit sur le côté gauche et la fréquence de réponses correctes sur l’axe,
de la plus rare en haut à la plus fréquente en bas.

Cette illustration permet de visualiser la répartition des sujets par rapport aux items et de repérer les
items redondants (qui évaluent le même aspect). De plus, elle permet d’obtenir une image globale
de la situation de chaque item en fonction de sa difficulté et d’estimer l’éloignement de la médiane
par rapport au Logit 0 pour apprécier la précision de la mesure (éloignement de la mesure observée
et de la probabilité attendue pour chaque item).

Ce type de carte a été utilisé afin de réduire le questionnaire au nombre minimum d’items en
supprimant les items redondants, plus facilement repérés sur cette carte. Aussi, elle permet de

29
constater l’existence d’un possible effet plafond. Autrement dit, si en haut de l’axe les sujets sont
cumulés au dernier item de l’échelle c’est qu’un questionnaire a une limite supérieure de détection et
donc qu’il n’est pas discriminatif pour les sujets les plus capables. Dans le cas particulier d’un
questionnaire cognitif, ceci correspondrait à une incapacité à détecter les déficits cognitifs légers chez
les sujets avec une aptitude élevée. Enfin, la carte des items-personnes permet d’obtenir une vue
d’ensemble des valeurs Logit par rapport aux fréquences de réponse correcte. Plus le Logit 0 est
proche de la moyenne (répartition centrique des sujets par rapport aux items), plus il est possible
d’avancer le fait que la mesure est précise.

5.3.2.1. Vérification de l’ajustement des données aux exigences de la


modélisation Rasch

Avant d’aborder cette tâche, un petit rappel s’impose. L’objectif de cette étude était l’analyse
des propriétés psychométriques du questionnaire cognitif générique pour développer un
questionnaire bref fiable et précis, le FaCE. Afin que ce questionnaire soit considéré comme une
échelle de mesure proprement dite, il doit répondre aux exigences de la modélisation Rasch. Les
points abordés jusqu’ici permettent de vérifier si les impératifs à l’utilisation de ce type de modélisation
sont respectés. Afin de s’assurer d’être dans la bonne direction et que les objectifs de cette étude
sont accomplis, il était impératif de vérifier l’ajustement des données obtenues à chaque étape des
analyses.

La modélisation Rasch a permis de déterminer un score attendu d’une personne donnée à un item
choisi. Ce score est celui qu’il est attendu d’observer si le questionnaire construit s’ajuste
parfaitement au modèle Rasch. Évidemment, un ajustement parfait est impossible, car plusieurs
facteurs peuvent influencer le score observé, contrairement au score théorique attendu. Certains de
ces facteurs ont été cités dans les paragraphes précédents, tels que l’erreur standard et les facteurs
qui l’influencent ou encore la multidimensionnalité.

L’objectif, ici, consistait à évaluer si les items choisis et les scores observés répondaient aux
exigences de la modélisation Rasch. Le score attendu était déterminé grâce à la CCI et correspondait
à la probabilité de réussite d’un sujet à un item donné. Cependant, certains sujets ne répondaient
pas d’une façon qui est en accord avec la probabilité de réussite déterminée. Deux hypothèses
pouvaient être posées, soit que le sujet avait une particularité qui l’a amené à répondre différemment
de la réponse attendue, soit que l’item n’avait pas le pouvoir discriminatif attendu ou que cet item
évaluait plusieurs dimensions.

Par conséquent, selon la méthodologie de la modélisation Rash, il est de rigueur d’identifier les sujets
« atypiques » ou les items au « comportement » différent. Comme tous les items du questionnaire
FaCE ont été transformés pour avoir une réponse formulée d’une façon dichotomique, les réponses
d’un sujet donné à tous les items se présentaient en une série de « 0 » pour les items échoués

30
(difficiles), une série de « 1 » pour les items réussis (faciles) et une alternance de « 0 » et de « 1 »
pour les items plus ou moins réussis (difficulté moyenne). De même, les réponses à un item par
plusieurs sujets combinaient le même type de score. L’ordre de la combinaison de ces scores qui
s’observe lors d’une situation où les réponses d’un sujet à une série d’items l’ajustent parfaitement
au modèle Rasch est :

Item plus facile 1111011010101011100000 item plus difficile

Lorsque les réponses diffèrent des réponses attendues, l’ordre de la combinaison de score est
différent.

Les « comportements » inattendus peuvent concerner une atypie dans les caractéristiques d’un sujet
ou dans les caractéristiques d’un item. Ainsi, la combinaison de score peut avoir pour objectif, soit
d’identifier les sujets aux réponses inattendues et les investiguer pour en trouver la raison. Soit
d’identifier l’item mal ajusté et une cause probable liée à l’item ou à un biais externe.

Plusieurs situations peuvent être rencontrées concernant les réponses d’un sujet à plusieurs items:

- Modèle de réponse idéal :


Item plus facile 1111011010101011100000 item plus difficile
- Une mauvaise codification des items :
Item plus facile 0000000000111111111111 item plus difficile
Ici la codification des items est inversée, le « 1 » signifie échec au lieu de réussite et le « 0 » réussite
au lieu d’échec. Une correction de la codification s’impose afin de ne pas être en contradiction avec
le reste des concepts statistiques.
- Erreur d’inattention :
Item plus facile 0111111111100000000000 item plus difficile
Le sujet à fait une erreur parmi les item jugés faciles par rapport à sa capacité, il est possible d’en
déduire qu’il s’agit ici d’une erreur d’inattention. Ce type de mauvais ajustement n’a pas d’impact sur
la qualité des données.
- Devinette :
Item plus facile 1111111111100000000001 item plus difficile
Le sujet a répondu correctement à l’un des items qui sont jugés trop difficiles par rapport à sa
capacité. Cette réponse inattendue peut être attribuée à la chance, ou que le sujet a répondu
correctement par hasard. Ce type de mauvais ajustement n’a pas d’impact sur la qualité des données.
- Aptitude particulière antérieure :
Item plus facile 1111111111100011100000 item plus difficile
Le sujet a répondu correctement à une série d’items faisant partie des items jugés trop difficiles par
rapport à sa capacité. Ici, il est possible d’en conclure que la série d’items en question correspond à

31
une aptitude particulière du sujet, une spécialité qui est en dehors de son aptitude générale. Ce type
de mauvais ajustement n’a pas d’impact sur la qualité des données.
- Réponse aléatoire :
Item plus facile 1010101010101010101010 item plus difficile.
Aucun ordre logique en fonction de l’aptitude du sujet et de la difficulté des items ne peut être expliqué
par la combinaison des réponses de ce sujet. Les réponses semblent aléatoires, des items difficiles
ont été répondus correctement et des items faciles ont été échoués. L’hypothèse possible serait que
le sujet a répondu d’une façon complètement aléatoire ou que le test ne l’intéressait pas. Ce type de
mauvais ajustement n’a pas d’impact sur la qualité des données si très peu de sujets ont répondu de
la même manière.
- Modèle de Guttman (modèle de mesure déterministe) :
Item plus facile 1111111111100000000000 item plus difficile
C’est un mauvais ajustement, car le passage des items échoués aux items réussis est plus rapide
que le modèle Rasch le prescrit, les résultats sont donc trop prévisibles (ce qui est appelé « hyper-
ajustement » ou « Overfit »)
- Réponses influencées par un biais externe (tricherie, aide de l’examinateur,
bruits..) :
Item plus facile 11111010101101101001010000 item plus difficile.
L’ordre des réponses de ce sujet semble correspondre au modèle idéal, sauf pour une série d’items
où ses réponses deviennent inattendues sans toutefois suivre un nouveau modèle. Ce type de
mauvais ajustement n’a pas d’impact sur la qualité des données si très peu de sujets ont répondu de
la même manière. Il faudrait toutefois investiguer davantage afin d’identifier un potentiel biais de
méthodologie.
Des situations similaires peuvent être rencontrées concernant les réponses de plusieurs sujets à un
item:

- Erreur de syntaxe ou de formulation de l’item:


Personne la moins capable 0000000000111111111111 personne la plus capable
Ce que la question de l’item demande n’est pas clair pour les sujets. Par exemple si la question est
formulée à la forme négative, il ne serait pas clair si la réponse « oui » signifierait « d’accord » ou
« pas d’accord ». Une correction de la codification s’impose afin de ne pas être en contradiction avec
le reste du questionnaire.
- Biais de l’item par rapport à la sélection des sujets :
Personne la moins capable 1111111111100011100000 personne la plus capable
Certains sujets semblent plus aptes à répondre que d’autres. Le sexe, l’âge ou l’ethnie peuvent être
des raisons. Ce type de mauvais ajustement n’a pas d’impact sur la qualité des données.
- Influence d’une autre dimension:
Personne la moins capable 1010101010101010101010 personne la plus capable

32
Dans cette situation, il est impossible de prévoir les réponses aux items. Un facteur externe pourrait
influencer la réponse aux questions, comme une autre dimension de l’item. L’item peut être considéré
comme un item qui ne répond pas aux exigences de la modélisation Rasch et il serait possible de
décider de le supprimer. (C’est ce qui est appelé « sous-ajustement » ou « Underfit »)

Une fois que les items ou sujets aux scores inattendus ont attiré notre attention. Comment décider
s’il faut les exclure de notre modèle et si l’impact de leur score est assez important pour dégrader la
qualité de notre mesure?

Des analyses d’investigation s’imposaient afin de guider la décision d’exclure ou non un item du
modèle et d’apprécier si l’impact de son score était assez important pour dégrader la qualité de la
mesure modélisée. Il s’agissait d’effectuer l’analyse de l’ajustement proprement dit au modèle Rasch.
Ce qui est appelé en anglais l’analyse « Infit-Outfit». Cependant, même après toutes les analyses de
ce type, le dernier mot quant au retrait ou à la conservation du sujet ou de l’item dans notre modèle
revenait à la décision clinique et pratique de tolérer le mauvais ajustement au modèle. Les statistiques
nous ont guidés, mais elles ne pouvaient pas «imposer» la décision. Il en est ainsi, car il est important
d’apprécier les résultats des analyses statistiques afin de guider le sens des conclusions, mais il faut
garder à l’esprit que l’objectif ultime est une application et une interprétation pratique qui ne peut être
faite que par un jugement éclairé par des situations réelles d’application des conclusions.

5.3.2.2. Analyse des statistiques d’ajustement


5.3.2.2.1. Corrélation des scores attendus et observés

Dans un modèle parfaitement ajusté, le score attendu est égal au score observé. Inutile de préciser
qu’aucun modèle n’est parfait et que l’objectif, ici, était de s’approcher au maximum de cet idéal. Ce
qu’il serait idéal de constater pour que le modèle soit considéré proche d’un ajustement parfait, c’est
une différence minime de la probabilité de réussite d’un sujet à un item. Une différence de 5% (0,05)
entre le score attendu et le score observé est fixée, par consensus, comme une valeur tolérée.

Afin d’examiner la polarité des items, la corrélation entre les réponses aux items et l’aptitude des
sujets a été explorée. Autrement dit, c’était la vérification d’un des concepts de base de la
modélisation Rasch, plus l’item est difficile, plus la capacité cognitive d’une personne ayant répondu
correctement est haute, et vice versa.

La corrélation bisériale ponctuelle, « point-measure correlation » en anglais, rapporte à quel point


cette corrélation est avérée. Idéalement les chiffres doivent être largement positifs, ou dans le cas où
un nombre est proche du zéro, une différence entre les mesures de corrélation observées et
attendues doit être minime (maximum 0,05). Un point de mesure de corrélation négatif signifie que
la réponse à l’item en question est en contradiction avec la direction de la mesure d’intérêt (la capacité
cognitive). Une mauvaise corrélation pourrait être due à l’une des raisons de mauvais ajustements

33
citées dans la partie précédente (erreur d’inattention, tricherie, etc.). Pour investiguer davantage un
item qui démontre une corrélation contradictoire, il a été utile d’avoir une vue d’ensemble de
l’orientation de chaque item grâce à la carte des mesures empiriques des items (Annexe 3). De haut
en bas les items sont classés en fonction de leur difficulté décroissante. Les séries de « 1 » et de
« 0 » représentent les catégories de réponse possible à chaque item. L’espacement vertical des
items correspond à l’espacement en unité Logit déterminé par la modélisation. L’ordre des « 1 » à
droite et des « 0 » à gauche doit être respecté pour chaque item afin de certifier que la codification
et les catégories de réponses de chaque item sont bien celles souhaitées et que la codification suit
un ordre logique. L’espacement horizontal des « 1 » et des « 0 » est l’étendue de l’amélioration
nécessaire de la capacité d’un sujet pour que la probabilité de réussite à l’item soit maximale. Ce qui
veut dire que, plus cet espacement est important, plus les catégories échec (« 0 ») et réussite (« 1 »)
sont éloignées. Dans ce cas, il aurait peut-être été pertinent d’ajouter une catégorie de réponse à
l’item. De même que si l’espacement est minime, la discrimination entre réussite et échec n’est pas
assez importante.

Une information importante, présentée dans cette carte, permettait de déterminer si le questionnaire
est trop difficile pour la population cible. Il s’agit de l’appréciation de l’écart entre la moyenne des
réponses observées (désignée par la lettre « M » sur l’axe des abscisses) et le score attendu moyen
(Logit 0). Une échelle de mesure à but d’évaluation ne devrait pas avoir un écart de ses deux
paramètres de plus de 1,5 Logit74-76 (80% de succès au test).

5.3.2.2.2. Évaluation de l’ajustement (« Fit analysis »)

L’évaluation de l’ajustement des données au modèle Rasch consistait en l’interprétation des indices
d’ajustement « Infit » et « Outfit ».

Afin de bien comprendre à quoi correspondent ces indices, il faut comprendre comment ils sont
calculés et à quoi ils servent.

Ces indices quantifient l’ajustement des sujets et des items au modèle. Ce sont la somme des résidus
standardisés des réponses de tous les sujets à un item, le « person-fit » et les réponses à tous les
items par un sujet, le « item-fit ». L’ «Outfit » ou « Outlier-sensitive fit statistic » est la moyenne des
carrés des résidus standardisés, il est très sensible aux réponses inattendues des sujets très éloignés
de l’item. Plus simplement, les résidus étant la différence entre les scores calculés et ceux attendus
pour un item donné. Un résidu standardisé est ajusté à la plage d’item composant l’échelle de
mesure. Les résidus de chaque item sont élevés au carré afin d’éviter qu’ils s’annulent. La moyenne
de ces résidus est calculée et c’est ce qui amène à la valeur du carré moyen de l’indice
d’ajustement « Outfit ».

34
La valeur des carrés moyens de l’ « Outfit » quantifie l’éloignement des scores des sujets aux items
des valeurs attendues selon le modèle Rasch. La valeur attendue en cas d’un ajustement parfait est
égale à « 1 ». Afin d’évaluer si la valeur de cet éloignement du modèle attendu est significative, c’est-
à-dire qu’elle a une influence statistiquement assez importante pour altérer la qualité de la
modélisation, il faut examiner la statistique « ZSTD » OU « STanDardized as a Z-score »77, 78. Cette
statistique est la transformation de Wilson-Hilferty du carré moyen de l’indice d’ajustement. Elle teste
l’hypothèse nulle que les données s’ajustent parfaitement au modèle. Si la valeur de cette statistique
est comprise entre les valeurs +2 et –2 l’hypothèse nulle est acceptée et les données seront
considérées ajustées au modèle. De la même façon, l’indice d’ajustement « Infit » est calculé (Infit
est le diminutif de « Information-weighted fit statistic »). Le carré des résidus standardisés est
multiplié par la variance du score attendu puis le résultat est divisé par la somme des variances des
scores attendus. L’indice d’ajustement « Infit » est très sensible aux réponses inattendues situées
très proche de l’item.

L’interprétation des indices d’ajustement a été faite, dans un premier temps, par l’appréciation de la
quantité d’éloignement des réponses observées de celles attendues : les carrés moyens des indices
« Infit » et « Outfit ».

Prenant l’exemple d’une situation où l’objectif est de composer une mélodie (dans le cas de ce projet,
la composition d’une mélodie est une analogie de la construction de questionnaire cognitif.
L’altération de cette mélodie correspond au mauvais ajustement des items du questionnaire au
modèle Rasch), les indices d’ajustement permettent d’apprécier la qualité de cette mélodie tant au
niveau des instruments et des accords qu’au niveau du volume du son. Lorsque la valeur des carrés
moyens dépasse les valeurs tolérées 1 ± 0,5 (1 étant la valeur normale d’un ajustement parfait, 0,5
la marge d’erreur tolérée avant de considérer que la mélodie est altérée), plusieurs paliers sont
possibles et chacun d’entre eux signifie une altération différente de la mélodie (ou de l’ajustement
des items du questionnaire au modèle Rasch).

Si la valeur est comprise entre 1,5 et 0,5 : tout va bien la mélodie est proche de la perfection et il est
grandement plaisant de l’écouter à n’en plus finir! Les items du questionnaire s’ajustent parfaitement
au modèle Rasch et le questionnaire, les réponses observées sont quasi identiques à celles
attendues.

Si la valeur est inférieure à 0,5 : la mélodie est toujours harmonieuse, mais le volume est au plus bas.
Il est difficile d’entendre la mélodie, mais elle reste proche de ce qui est souhaité comme harmonie.
C’est ce qui s’appelle l’ « hyper-ajustement » ou « Overfit ». Les scores augmentent plus rapidement
que ce qui est prévu par le modèle. Ce cas de mauvais ajustement n’est pas considéré très altérant79,
car comme pour la mélodie, l’harmonie reste bonne. Les items du questionnaire dépassent
l’ajustement prévu par le modèle Rasch, les réponses sont plus prévisibles qu’elles ne devraient.

35
Toutefois, Ce mauvais ajustement (sur ajustement) n’altère pas suffisamment la qualité du
questionnaire pour être investiguer davantage en vue de les modifier ou de les supprimer.

Si la valeur est comprise entre 1,5 et 2 : plusieurs bruits externes viennent s’ajouter à la mélodie. Le
résultat est une mélodie dont l’harmonie est différente de celle souhaitée. Le volume est bon, mais
la mélodie est différente de celle prévue à cause des bruits ajoutés. C’est ce qui est appelé un « sous-
ajustement » ou « Underfit ». Ce type de mauvais ajustement altère la mélodie, mais pas assez pour
la dégrader. La mélodie composée ressemble à celle souhaitée et elle est encore audible, mais il
n’est pas plaisant de l’écouter à n’en plus finir à cause des nuisances sonores qui se sont greffées.
Dans ce cas les items sont moins ajustés au modèle Rasch que prévu. Les réponses aux items sont
moins prévisibles qu’elles devraient. Certains facteurs peuvent influencer l’ajustement de ces items
au modèle Rasch. Cependant, l’importance de mauvais ajustement (sous-ajustement) n’est pas
assez importante pour altérer la qualité de la mesure. Ces items ne nécessiteraient une investigation
plus approfondie en vue de les modifier ou de les supprimer du modèle seulement si ce mauvais
ajustement et combiné à d’autres déviations statistiques de la modélisation Rasch.

Si la valeur est supérieure à 2 : c’est le cas le plus grave de mauvais ajustement. Dans ce cas la
mélodie ne ressemble plus du tout à la mélodie composée. Des bruits surajoutés se sont greffés à la
mélodie de base et ont un volume tellement haut qu’ils prennent le dessus et la mélodie n’est plus
audible. La mélodie est complètement différente de celle souhaitée. De la même manière, une échelle
de mesure se verrait altérée et sa qualité dégradée. Les items du questionnaire s’ajustent très mal
au modèle Rasch. Les réponses ne sont pas prévisibles selon la modélisation Rasch, ce qui altère
la qualité de l’échelle de mesure du questionnaire et nécessite une investigation approfondie afin
d’apporter des modifications ou de les supprimer.

Une fois que le mauvais ajustement au modèle a été identifié et quantifié, il a fallu évaluer si cette
quantité était significative au moyen de la statistique « ZSTD » tenant en compte que toute valeur qui
n’était pas comprise entre +2 et -2 était suspecte demandant une évaluation plus approfondie afin
d’établir si l’item ou le sujet en question méritait d’être exclu du modèle ou du moins d’examiner les
raisons pour expliquer ces réponses très inattendues.

5.3.2.3. Qualité psychométrique du questionnaire FaCE

Une fois qu’il a été vérifié que le questionnaire FaCE répond à toutes les spécifications de la
modélisation Rasch. Il est possible, sans se tromper, d’avancer le fait que c’est un questionnaire
linéaire, qui mesure une seule dimension représentée par la capacité cognitive des sujets. Puisque
les scores observés s’ajustent aux scores prévus par le modèle, il est possible d’en déduire que le
questionnaire a la capacité probabiliste attendue. Il serait facile de supposer que puisque le FaCE
correspond aux exigences d’un instrument de mesure objective, sa qualité et sa précision ne peuvent
être mises en doute.

36
Pourtant, de nouvelles questions peuvent être soulevées!

Est-ce que ce questionnaire est valide pour mesurer la qualité (capacité cognitive) étudiée?
Est-il juste de considérer les résultats du questionnaire FaCE suffisants pour quantifier les
changements cognitifs des sujets?
Le FaCE est-il reproductible sur d’autres sujets que ceux sélectionnés pour son analyse
psychométrique?
Quelle est la marge d’erreur attribuable au résultat du questionnaire FaCE?
Quelle est la précision du questionnaire et quelle est la plus petite quantité de changement
mesurable?
Enfin, quels sont les facteurs propres aux caractéristiques des sujets ou des items qui influencent les
mesures et à quel point?
Les réponses à ces questionnements résident dans l’évaluation de la validité, de la fiabilité et d’autres
paramètres spécifiques à l’influence des facteurs externes sur la qualité de la mesure, l’analyse du
fonctionnement différentiel des items « FDI».

5.3.2.3.1. Validité

Un outil de mesure valide est un outil qui mesure ce qui est souhaité de mesurer. Plusieurs types de
validité doivent être recherchés :

5.3.2.3.1.1. Validité de contenu

Est-ce que tout ce qui a été fait a été fait dans les règles et suivant une méthodologie valide selon
les experts du domaine?

C’est l’avis des experts et leur approbation qui sont attendus pour considérer que le questionnaire
FaCE a une validité de contenu. C’est en examinant l’existence de biais ou d’irrégularité de
méthodologie que ce type de validité est explorée.

5.3.2.3.1.2. Validité prédictive

Est-ce que les sujets sont classés dans l’échelle de mesure en concordance avec d’autres facteurs
propres qui prédisent cette position?

Ceci consiste à examiner si les sujets les plus malades, selon des critères médicaux et cliniques,
sont ceux qui ont les scores le moins bons. Autrement dit, il suffit d’évaluer si les sujets sont classés
suivant une logique basés sur leur condition globale.

37
5.3.2.3.1.3. Validité conceptuelle/théorique

Est-ce que les scores du questionnaire FaCE peuvent à eux seuls être interprétés pour évaluer la
capacité cognitive des sujets?

Il s’agit de juger si les objectifs principaux du projet d’étude sont restés les mêmes et que les
analyses effectuées étaient bien celles qui permettent de tester l’hypothèse de recherche fixée lors
de l’élaboration du projet. L’un des objectifs principaux était d’améliorer les propriétés
psychométriques du questionnaire FaCE afin qu’il permette une évaluation fiable et précise du statut
cognitif des sujets atteints d’un cancer en s’assurant que ce questionnaire permette à lui seul
d’évaluer les fonctions cognitives (non pas d’autres traits latents) des sujets avec un cancer (pas
d’une autre population). Afin de satisfaire ce type de validité, le questionnaire FaCE devait être
suffisant et démontrer une concordance entre la théorie et l’utilité pratique.

5.3.2.3.1.4. Validité apparente

Est-il facile d’administrer le questionnaire, et est-il déplaisant ou pénible de s’y soumettre?

C’est par l’appréciation des intervenants ayant administré le FaCE aux participants et par
l’appréciation des participants eux-mêmes qu’il était possible d’explorer ce type de validité. C’est une
appréciation très subjective qui s’est faite lors du prétest d’un projet d’étude en collectant les
commentaires et suggestions des personnes en lien avec le questionnaire.

Deux types d’erreurs peuvent affecter une mesure, quelle qu’elle soit. Les erreurs aléatoires et les
erreurs systématiques. Les premières affectent le score de tous les sujets d’une façon différente à
chaque fois. Les deuxièmes, affectent de la même façon le score de tous les sujets. C’est l’évaluation
de l’existence des biais liés au questionnaire, liés à la sélection de la population ou encore liés à un
facteur méthodologique qui influencerait la mesure (ex. : condition d’administration du FaCE) qu’il est
possible d’identifier ces types d’erreurs et de les classer.

5.3.2.3.2. Fiabilité

Quelle est la quantité d’erreurs de mesure associée au score de l’échelle de mesure?

Quelle est la vraie valeur des scores obtenus et à quel point varie-t-elle?

C’est l’analyse de la variance des scores observés qui indique quels sont les scores réels, les erreurs
de mesure et leur distribution. Elle est calculée en fonction de la variance des scores observés et la
variance des erreurs de mesure. Afin d’estimer la proportion de cette variance qui est attribuable à la
mesure réelle, le coefficient de fiabilité qui est le rapport entre la variance des scores réels et la
variance des scores observés a été interprété. Sa valeur s’étend de zéro (0) à un (1). Plus l’indice de
fiabilité s’approche du 1, plus la mesure est considérée fiable, car la proportion de la variance d’erreur

38
de mesure qui compose la variance des scores observés est petite. Un test est considéré fiable au-
delà d’une valeur du coefficient de fiabilité de 0,8576, 80.

5.3.2.3.2.1. Fiabilité de reproductibilité

Le test statistique de corrélation de Pearson a permis d’explorer si le questionnaire FaCE pouvait


être reproductible au même sujet plusieurs fois par le même examinateur. Toutefois, certaines
conditions s’imposent. Il faut un intervalle de temps entre deux temps de mesure suffisamment long
pour éviter la fatigue ou l’effet d’apprentissage, mais suffisamment court pour que la capacité
cognitive n’ait pas changé significativement pour changer le score. Les mêmes tests statistiques de
corrélation ont été utilisés pour évaluer si des examinateurs différents peuvent administrer le
questionnaire FaCE au même sujet sans altérer la fiabilité de la mesure. Elle est estimée par l’indice
de fiabilité des personnes de la première administration du questionnaire.

5.3.2.3.2.2. Indice de séparation des personnes (« person-


séparation-index ») indice de fiabilité des personnes (Person-
reliability index (IFP))

L’indice de séparation des personnes (ISP) indique le nombre de «niveaux» de capacités différentes
qui sont distingués au sein de la population à l’étude. C’est le rapport entre la déviation standard des
scores réels et la déviation standard due aux erreurs de mesure56. Le nombre de niveaux différents
qui compose l’échelle de mesure est (4*ISP +1)/381. Un ISP inférieur à 2 signifie que le test ne
distingue pas d’une façon assez discriminante entre les sujets avec une faible capacité et les sujets
avec une haute capacité, des items supplémentaires devraient être ajoutés. Un indice de fiabilité des
personnes égal à 0.9 signifie que la capacité déterminée évaluée par un questionnaire comporte au
moins 3 niveaux, s’il est égal à 0,8, il détecte 2 à 3 niveaux et s’il est égal à 0,5 cela signifierait que
le questionnaire n’est pas assez discriminatif entre les sujets, car il ne comporterait que 1 à 2 niveaux.
Dans, ce dernier cas, il est nécessaire d’ajouter des items. L’ISP a été utilisé pour évaluer la capacité
discriminante du FaCE.

5.3.2.3.2.3. Indice de séparation des items (« person-


séparation-item »)

L’indice de séparation des items indique si le nombre de sujets sélectionnés est suffisant pour
confirmer la hiérarchisation des items en fonction de leur difficulté. Il est composé de l’indice de
difficulté de l’item qui doit être supérieur à 3 et de la fiabilité de l’item supérieure à 0,960, 80. Si ces
chiffres sont atteints pour les deux paramètres qui composent cet indice, alors, il est possible de
conclure que la population est suffisamment importante pour respecter la hiérarchisation des items.
Cet indice a été utilisé pour déterminer si la population était suffisamment importante.

39
5.3.2.3.3. La plus petite différence mesurable

Avec la modélisation choisie (Rasch), l’unité de mesure est le Logit, mais à quelle quantité de
changement de la capacité cognitive correspond la variation d’un point de score? C’est ce qui
correspond à la plus petite différence mesurable par l’échelle de mesure.

Elle est estimée par rapport à l’erreur standard des personnes :

Plus petite différence mesurable= 1,96* (erreur standard des personnes)* (fiabilité de reproductibilité)

Il est important de noter que la différence de score mesurable par une échelle dépend aussi de la
marge d’erreur du score et de sa variance. Plus cette différence est petite, plus le test est précis et
focalisé (unidimensionnel).

5.3.2.3.4. Le fonctionnement différentiel des items

L’identification du fonctionnement différentiel des items (FDI) se fait par l’estimation de la variabilité
d’un questionnaire en fonction des facteurs indépendants du test lui-même. Autrement dit, ceci
consiste en l’appréciation de l’altération de l’ajustement des réponses au modèle Rasch en fonction
du changement de la valeur d’une variable de qualité de la population étudiée (exemple : genre, âge,
etc.). Le type de cancer, le stade du cancer et l’existence de comorbidités ont été évalués en plus de
l’âge et du sexe. Les différents intervenants ont aussi fait partie de cette analyse afin de juger de
l’impact du recours à plusieurs évaluateurs sur l’ajustement au modèle Rasch.

L’examen de la CCI a permis de juger de l’impact des facteurs testés (l’âge, le sexe, le type de cancer,
le stade du cancer, l’existence de comorbidités) sur l’ajustement au modèle Rasch. L’effet possible
induit par les différents intervenants qui ont administré le FaCE a aussi fait partie de cette analyse.

Dans une situation idéale, le score moyen attendu ne diffère pas en fonction du changement de
valeur des facteurs analysés. En pratique, il suffit de repérer sur des courbes les items qui ont une
différence d’au moins 1.5 Logit60 en fonction du changement de valeur d’une variable. Des
ajustements de l’item en question sont recommandés si cette différence est statistiquement
significative à un seuil de 5%, selon le test de Mantel-Heanzel qui teste l’hypothèse nulle que la
différence de mesure entre les groupes est zéro. La probabilité qui en résulte est celle que la
différence de mesure entre les groupes est nulle. Il est recommandé76 que la taille de chacun des
groupes soit supérieure à 30 sujets pour une étude pilote ou que la population soit supérieure à 200
sujets, dans le cas contraire, des FDI pourraient apparaître faussement significatifs. Le plus important
lors de l’analyse du fonctionnement différentiel d’items est d’évaluer l’impact du FDI identifié. Elle
correspond au rapport entre la taille de la différence de mesure et la taille du test (nombre d’items).
L’impact du fonctionnement différentiel d’item est la différence de mesure d’un groupe de sujet par
rapport à un autre à un item donné, elle est rapportée en Logit. Si un FDI de 4 est identifié pour un

40
test de 10 items, l’impact sur la mesure de l’un des groupes comparés par rapport à l’autre est de 0,4
Logit, ce qui peut être considéré important. Si pour le même FDI identifié le test est composé de 100
items, l’impact est alors 0,04 Logits60, ce qui peut être considéré en termes de mesure.

Deux situations peuvent être rencontrées :

Un FDI uniforme, c’est-à-dire que le changement reste constant dans les deux groupes (exemple :
femme et homme) et évolue d’une façon parallèle. L’interprétation plausible serait que la capacité
des femmes (ou hommes) est plus importante pour cet item par rapport au groupe opposé.

Un DFI non uniforme : c’est le cas où l’évolution des scores dans les 2 groupes n’est pas parallèle.
Dans ce cas, la capacité d’un des deux groupes à l’item donné varie en fonction de la localisation
des sujets dans l’échelle. Exemple : les femmes les plus capables ont une capacité supérieure à celle
des hommes pour cet item. Ce qui n’est pas le cas des femmes moins capables.

Si un fonctionnement différentiel d’un item est identifié, plusieurs actions sont possibles sachant qu’il
est aussi possible de n’effectuer aucun changement. Dans le cas qui nous intéresse, le questionnaire
FaCE est un outil d’évaluation des fonctions cognitives qui peut être administré à plusieurs reprises
dans le temps chez un même sujet. Le score d’un sujet pourra être comparé à son score ultérieur.
Ainsi, certaines qualités, telles que le sexe restent identiques. Ces dernières peuvent ne nécessiter
aucun changement si elles sont à l’origine d’un fonctionnement différentiel pour un item donné. Ce
point sera plus amplement détaillé dans le chapitre 8 : « discussion ». Il est toutefois, nécessaire afin
de bien comprendre l’interprétation des résultats d’un questionnaire tel que le FaCE par le clinicien
d’identifier les items avec un FDI.

Dans le cas où un item avec un fonctionnement différentiel nécessite des modifications. Il doit être
subdivisé en sous-item, quel que soit le type de FDI identifié. Ainsi, chaque sous-item sera transformé
en mesure objective qui fera partie intégrante de l’échelle de mesure linéaire. Il peut y avoir autant
de sous-item que de sous-groupe identifié par l’analyse FDI.

Le développement du FaCE a nécessité des étapes intermédiaires. Le processus détaillé de ces


étapes est expliqué dans l’Annexe 8. Les résultats présentés dans cet ouvrage sont ceux de l’analyse
des propriétés psychométriques du FaCE.

41
6. Chapitre 6 : Résultats
6.1. Population
Des 1242 potentiels participants qui ont été contactés par courrier postal, 171 participants ont
exprimé vouloir prendre part au projet, les autres n’ayant pas répondu malgré 3 relances
téléphoniques. De plus, 14 participants ont été recrutés directement via leurs médecins traitants. Au
total 185 participants ont été recrutés et leurs dossiers médicaux ont été révisés afin de s’assurer de
leur éligibilité. Il y avait 20 sujets qui présentaient des pathologies faisant partie des critères
d’exclusion ou qui ont abandonné le projet de recherche pour cause de fatigue ou de manque de
temps: 3 abandons, 10 avaient des antécédents d’AVC, 4 souffraient de démence vasculaire ou de
maladie d’Alzheimer, 1 avait reçu un diagnostic de schizophrénie et 2 présentaient des métastases
cérébrales actives. Au final, 165 participants ont été recrutés et ont complété le questionnaire cognitif
générique.

Les caractéristiques des participants sont présentées dans le tableau 1.

La moyenne d’âge des participants était de 63 ans (Écart-Type = 11,82), dont 48,5% d’hommes et
51,5% de femmes. Une proportion de 78% des sujets avaient effectué moins de 12 ans de scolarité.
Les 165 participants recrutés étaient tous atteints du cancer (Figure 2), dont les plus fréquents
étaient : 24,85% cancer gastroentérologique, 20% cancer du sein, 16,36% cancer de la prostate et
13,94% cancer gynécologique. Les participants étaient majoritairement au stade I de l’évolution de
leur cancer avec une proportion de 65,45%, 19,39% au stade II,III et 15,15% au stade IV. Parmi les
participants, 44,25% étaient en cours de traitement de chimiothérapie et 46,67% étaient en cours de
traitement de radiothérapie. Environ 28% des participants présentaient au moins une comorbidité
cardiovasculaire.

6.2. Résultats descriptifs


6.2.1. Score total obtenu et le temps d’accomplissement du questionnaire
cognitif générique
Le score total maximal du questionnaire cognitif générique était de 38, le score moyen était de 26,81
(Écart-Type (ET)= 4,54), la médiane était de 27 avec un minimum obtenu de 14 et un maximum de
36 (Tableau 2).

Le temps moyen d’accomplissement était de 9,52 minutes (ET = 2,46), ou 9 minutes et 31 secondes
(ET = 2 minutes 28 secondes). Le temps médian était de 9,22 minutes (9 minutes et 13 secondes),
le participant le plus rapide en 4,67 minutes (4 minutes et 40 secondes) et celui le moins rapide en
22 minutes (Tableau 2).

La figure 3 montre la distribution du score total du questionnaire cognitif générique obtenu par les
participants. De cette figure il est possible de remarquer une tendance de distribution normale de la

42
variable (test de Shapiro Wilk démontre que la distribution n’est pas Gaussienne (p = 0.0029)). De
plus, cette figure permet de constater qu’il n’y a aucun sujet au niveau des scores extrêmes (score
nul et score maximal)

6.2.2. Résultats de l’analyse des scores obtenus du questionnaire cognitif


générique à chaque aspect cognitif évalué
6.2.2.1. Orientation
La figure 4 présente les résultats de l’évaluation de l’aspect cognitif relatif à l’attention. Un total de
147 (89,1%) participants ont obtenu le score maximal (6/6) à l’évaluation de cet aspect. Il est l’aspect
le mieux réussi du questionnaire cognitif générique. Le meilleur score obtenu lors de l’évaluation de
l’aspect cognitif relatif à l’orientation concerne la question posée au participant de donner la ville avec
une proportion de 100% de réponses correctes, les autres questions sont réussies de manière assez
similaire à la dernière. Le score minimum obtenu ici est de 4/6 par 2 sujets (1,2%).

6.2.2.2. Mémoire immédiate et rappel différé


Les résultats de l’évaluation de l’aspect cognitif relatif à la mémoire immédiate sont présentés par les
figures 5-A et 5-B. Seulement 6 (3,64%) sujets ont réussi à se souvenir de tous les mots lors de la
première tentative et 59 sujets (35,76%) à la deuxième tentative. De plus, 141 (85%) sujets ont réussi
à répéter 4 à 6 mots lors de la première tentative et 146 (88,5%) sujets ont réussi à se rappeler de 5
à 7 mots lors de la deuxième tentative. Les résultats de l’évaluation du rappel différé sont présentés
dans la figure 5-C. Cinq (3%) sujets se sont rappelés de tous les mots, 55 (33%) se sont rappelé de
5 à 6 mots, 65 (39,4%) sujets se sont rappelé de 3 à 4 mots et 21 (12,73%) participants ont échoué
à cet exercice en ne se souvenant d’aucun des 7 mots. Ces chiffres démontrent que c’est l’item le
plus difficile et discriminant du questionnaire cognitif générique.

6.2.2.3. Fonctions visuo-spatiales


Les résultats obtenus lors de l’évaluation du fonctionnement visuo-spatial sont présentés dans la
figure 6. La tâche la moins bien réussie fut celle de reproduire le dessin d’un cube en 3 dimensions,
seulement 73 (44,24%) participants l’ont réussie et le TMT-B (1 à 8; A à H) était la mieux réussie
(109 sujets ont réussi (66,06%)). 104 sujets (63,03%) ont dessiné une horloge avec tous les chiffres
correctement positionnés et qui indiquait la bonne heure (14h40).

6.2.2.4. Attention
La figure 7-A présente les résultats de la première partie de l’évaluation de l’aspect cognitif relatif à
l’attention (répétition de chiffres). Seulement 16 (9,7%) sujets ont réussi à compléter l’exercice avec
succès. En outre, 159 (96,4%) sujets ont réussi à répéter 3 chiffres en sens inverse. À noter que
répéter 3 chiffres en sens inverse est mieux réussi que de répéter 4 chiffres dans le même ordre
qu’énoncé. Clairement, il y a eu une augmentation des proportions d’échecs avec le nombre croissant
chiffres à répéter.

43
La figure 7-B présente les résultats de la deuxième partie de l’évaluation de l’aspect cognitif relatif à
l’attention (soustractions consécutives). L’exercice qui consiste à effectuer 5 soustractions
consécutives correctes a été accompli avec succès par 100 (60,6%). Et seulement 5,4% des sujets
n’ont réussi aucune soustraction correcte.

6.2.2.5. Langage et idéation

Les figures 8-A et 8-B présentent les résultats de l’évaluation de l’aspect cognitif relatif au langage et
à la rapidité d’idéation. La moyenne de fruits et de légumes nommés par les participants est de 19,5
(écart-type = 5,26). La médiane est de 19 avec un minimum de 4 fruits et de légumes nommés et un
maximum de 41. En décomposant les réponses des participants en fonction du nombre de fruits et
de légumes nommés, la figure 8-B démontre, comme on peut s’y attendre, une tendance à la baisse
de la proportion des participants en fonction du nombre croissant de fruits et de légumes nommés.
Cet item comme du rappel différé est discriminant.

6.2.3. Résultats de l’analyse de l’influence des intervenants sur le score


obtenu au questionnaire cognitif générique par les participants.
6.2.3.1. Résultats de la vérification des postulats :
6.2.3.1.1. Distribution normale
L’annexe 4 présente les résultats du test de normalité pour les deux variables d’intérêt, le score total
obtenu au questionnaire cognitif générique par les participants et le temps d’accomplissement du
questionnaire cognitif générique. Les valeur-p de la statistique de Shapiro-Wilk sont inférieures à 0,05
(Score total : valeur-p = 0,029; Temps d’accomplissement : valeur-p <0,0001) ce qui aboutit au rejet
de l’hypothèse nulle selon laquelle la distribution des variables suit une répartition normale.
Cependant, la taille de la population à l’étude est de 165 sujets, ce qui est largement suffisant par
rapport au minimum exigé de 30 sujets pour ce genre de test. Vu la robustesse des tests
statistiques68-70 du type « t de student » et ANOVA, ils peuvent être utilisés sans risque d’erreur
majeure.

6.2.3.1.2. Indépendance des groupes


Bien que la sélection des participants se soit effectuée dans le même centre recherche, la
participation au projet était volontaire. Les participants étaient contactés individuellement, et ce avant
de prendre connaissance de leurs informations personnelles ou médicales. De plus, aucun
participant n’avait de lien avec un autre, de même pour les évaluateurs. Chaque entrevue était
conduite individuellement et à des moments différents. Les évaluateurs ont suivi un guide détaillé
pour conduire chaque étape de l’entrevue. Il est acceptable d’avancer que l’indépendance des
groupes est respectée. De plus, pour l’analyse Rasch, l’indépendance des groupes n’est pas
essentielle.

44
6.2.3.1.3. Homoscédasticité
Le T-test d’homogénéité de Levene pour le score total est p = 0,85 et celui du temps
d’accomplissement est p = 0,21, ce qui indique que les variances sont homogènes.

6.2.3.2. Résultats d’analyses statistiques


La valeur-p du test « t de Student » (0,35) est supérieure au seuil fixé de signification statistique
(0,05). La différence de moyenne est 0.028 (intervalle de confiance à un seuil de 95% = [-0.13; 0.19]).
La relation entre les différents intervenants et le score total obtenu au questionnaire cognitif générique
n’était pas significative (ANOVA : p= 0,88), de même que pour la relation entre les différents
intervenants et le temps d’accomplissement (t-test : p= 0,85). Les différences de moyennes du score
obtenu par les participants entre chacun des 4 d’intervenants sont présentées au tableau 3.

6.3. Développement du FaCE


Le questionnaire cognitif générique a fait l’objet d’analyses psychométriques successives avant
d’aboutir à la « version » FaCE qui fut à son tour analysée. À chaque étape des analyses, certains
items ont été supprimés du questionnaire, le détail des résultats des différentes étapes est présenté
à l’annexe 8. Les résultats et conclusions sommaires des étapes préliminaires à la version FaCE sont
présentés dans cette section.

6.3.1. Résultats de l’analyse du questionnaire cognitif générique


L’analyse des propriétés psychométriques du questionnaire cognitif générique a abouti à la
suppression des items dont la corrélation entre la mesure observée et attendue n’était pas bonne et
qui ne s’ajustaient pas à la modélisation Rasch. Il s’agissait du dessin de l’horloge et des items de la
première partie de l’évaluation de l’attention (répétition de chiffres dans l’ordre énoncé puis en sens
inverse). Tous les items relatifs à l’évaluation de l’orientation ont aussi été supprimés de l’échelle de
mesure, sans toutefois les supprimer du questionnaire. Ils démontraient à la fois un mauvais
ajustement au modèle Rasch et un pouvoir discriminant quasi nul. Une version modifiée du
questionnaire cognitif générique composée des items restants a été analysée.

6.3.2. Résultats de l’analyse du questionnaire cognitif générique modifié

L’analyse du questionnaire cognitif générique modifié a abouti à la suppression des items non
discriminants où plus de 95% des sujets avaient répondu correctement. L’analyse d’ajustement au
modèle de ces items démontrait un sur-ajustement ou encore une mesure hautement prédictible. Il
s’agissait des items évaluant la mémoire immédiate : « Répéter au moins 1 mot à la première
tentative », « Répéter au moins 2 mots à la première tentative », « Répéter au moins 1 mot à la
deuxième tentative », « Répéter au moins 2 mots à la deuxième tentative », « Répéter au moins 3
mots à la deuxième tentative ». Cette version du test cognitif générique qui comporte les 31 items
restants a fait l’objet d’une analyse de ses propriétés psychométriques afin d’apprécier toutes les

45
qualités. Les résultats se sont montrés excellents, il constitue donc la version qui est maintenant
nommée le « Fast Cognitive Evaluation » (FaCE). Les résultats de l’analyse psychométrique du
FaCE sont présentés dans la section qui suit (6.4).

6.4. Analyse du FaCE


6.4.1. Hiérarchisation des réponses aux items
La hiérarchisation des réponses aux items suite à l’analyse de la carte de répartition des sujets en
relation aux différents items est présentée à la Figure 9. L’axe vertical à gauche présente les unités
Logit qui réfèrent au positionnement de chaque item. La lettre « M » à gauche de l’axe désigne la
moyenne de mesure de la capacité des personnes, celle de droite désigne la moyenne des mesures
de la probabilité de réussite des items. Les lettres « S » situent un écart-type de la moyenne et les
lettres « T » deux écarts-types de la moyenne. À gauche de l’axe central se trouvent les sujets,
chacun identifié par leur numéro de participant. À droite la hiérarchisation des items identifiés par leur
libellé. Les items sont localisés selon une difficulté théorique logique. La carte des items-personnes
présente les items échelonnés du mieux réussi ou le plus facile en bas de l’axe central au moins bien
réussi ou le plus difficile en haut de l’axe. Il faut noter que la moyenne de la valeur des items en Logit
(probabilité de réussite) se situe à une valeur égale à 0 (Logit 0) qui est très proche de la moyenne
de mesure de la capacité des personnes. Les items relatifs au fait de nommer les fruits et légumes,
par exemple, sont ordonnés de bas en haut de 16 fruits et légumes au niveau Logit -1,54 jusqu’au
Logit +4,96 qui correspond à nommer 30 fruits et légumes et plus. Il en est de même pour la répétition
des 7 mots évaluant la mémoire immédiate ou encore le rappel de ces mots pour l’évaluation du
rappel différé. La mesure Logit s’entend de + 4,96 Logit en haut qui correspond aux items les moins
bien réussis, donc les plus difficiles (« se rappeler de tous les mots » et « nommer 30 fruits et légumes
et plus »), à -4,07 Logit qui correspond à l’item le mieux réussi et donc le plus facile (« Répéter au
moins 3 mots à la deuxième tentative »). « Réussir à nommer au moins 20 fruits et légumes » se
trouve proche de la moyenne des mesures de la probabilité de réussite (Logit 0,49). La valeur Logit
exacte de chaque item est présentée au tableau 5.

Il n’y a pas d’effet plafond désigné par le fait que 3 items (« réussir à se rappeler de tous les mots »,
« nommer 30 fruits et légumes ou plus » et « réussir à répéter tous les mots ») se trouvent localisés
plus haut que le sujet le plus capable (sujet 148). De plus, il ne semble pas y avoir de niveau
intermédiaire manquant à part dans le haut de la carte où 2 sujets (sujets 8 et 113) ne sont localisés
en face d’aucun item, Cependant, il est possible de se référer aux mesures supérieures ou inférieures
non éloignées. Les moyennes de réponses correctes et de mesure sont espacées d’environ une
demi-unité Logit. Les mesures Logit des items démontrent que seulement deux redondances
composées de deux items sont présentes pour 2 mesures (4,96 Logit : « se rappeler de tous les
mots » et « nommer 30 fruits et légumes et plus »; -0,16 Logit : « effectuer 5 soustractions
consécutives correctes » et « se rappeler d’au moins 4 mots »).

46
Figure 9 : Carte des items-personnes du FaCE.

47
La carte des mesures empiriques des items (annexe 3), présente l’ordre des réponses pour chaque
item pris individuellement. Tel que constaté, les réponses correctes (« 1 ») sont toutes à droite et les
réponses incorrectes (« 0 ») sont à gauche. Ceci est l’ordre attendu pour que les items correspondent
à une notation correctement construite. L’espacement horizontal des items est dans les limites
recommandées (3 Logits) pour la très grande majorité d’entre eux82.

6.4.1.1. Unidimensionnalité
Les CCI de tous les items sont présentées dans l’annexe 5 (de A à C’). Chaque courbe représente
un item. L’axe horizontal représente la mesure relative à la difficulté de l’item (en Logit), l’axe vertical
représente le score ou la probabilité de réussite de l’item, tel que décrit dans la section « Notions
statistiques de la modélisation Rasch ». La courbe rouge est la courbe caractéristique des items
attendue dans un modèle parfait. La courbe bleue représente le pattern de l’item. Les courbes grises
de chaque côté des courbes représentent les limites de l’intervalle de confiance. Tous les items
s’ajustent statistiquement très bien au modèle attendu de la CCI sauf ceux correspondant à une
soustraction correcte, à deux soustractions consécutives correctes et au dessin du cube en 3
dimensions qui ne présentent qu’une légère déviation opposée à la courbe de la CCI attendue
seulement au niveau des valeurs extrêmes.

Le tableau 4 présente les résultats de l’analyse des variances résiduelles standardisées. La variance
du modèle est expliquée à 57,3% (43,3 eigenvalue) par la mesure (la valeur attendue fixée par la
modélisation Rasch étant 58,0%). La variance du modèle non expliquée par la mesure est 42,7% ou
31 eigenvalue (la valeur attendue fixée par la modélisation Rasch est 42%). Quatre items (4
eigenvalue) sont identifiés au premier contraste, ils représentent 5,9% de la variance inexpliquée par
la mesure. Le deuxième contraste met en évidence 3,5 eigenvalue (4,9% de la variance inexpliquée).
Le troisième contraste identifie moins de 2,8 eigenvalue. Les groupements d’items les plus éloignés
du modèle identifiés au premier contraste sont le rappel des mots et les soustractions. L’indice de
corrélation désatténuée de Pearson entre les groupements situés aux deux pôles est 0,28 et les
autres indices de corrélation (entre le groupement d’un des pôles et le reste des items et le
groupement du pôle opposé et le reste des items) sont 0,7. Au deuxième contraste, les deux
groupements les plus éloignés sont les items relatifs aux soustractions et ceux qui consistent à
nommer les fruits et légumes avec l’indice de corrélation désatténuée de Pearson de 0,44 et pour
l’indice de corrélation désatténuée de Pearson des items relatifs aux soustractions et le reste des
items du questionnaire est 0,47. Il apparaît que les soustractions consécutives forment un
groupement d’items qui constitue une dimension autre que celle de la mesure principale du
questionnaire. Une réflexion s’impose quant au fait de la considérer une précision de la dimension
principale du questionnaire ou au contraire une dimension surajoutée qui altère la qualité du test.

48
6.4.2. Qualité de la modélisation
6.4.2.1. Vérification de l’ajustement des données aux exigences de la
modélisation Rasch
L’annexe 6 présente les combinaisons de réponses des sujets (échec : « 0 », réussite : « 1 ») à
chaque item. Il n’est observé aucune mauvaise codification des items. La figure 10 présente les
combinaisons d’items différentes de la combinaison attendue du modèle. Quinze combinaisons (9%
des sujets) présentent un modèle déterministe (Overfit) et une combinaison (0.6% des sujets)
rapporte des erreurs d’inattention et trois (1,82% des sujets) combinaisons rapportent l’influence d’un
biais externe ou d’une dimension surajoutée. Huit combinaisons (4,8% des sujets) rapportent
l’influence d’une capacité particulière. Certaines d’entre elles pourraient statistiquement traduire une
devinette, mais en se basant sur le type d’items qui compose le FaCE, elles sont considérées
rapportant une capacité particulière, par exemple, un sujet réussi à se rappeler des 7 mots, mais
n’est pas capable de nommer 30 fruits et légumes ou 28 fruits et légumes. La réussite à ces items
fait appel à des capacités différentes, le fait d’avoir réussi à se rappeler 7 mots ne peut en aucun cas
être considéré une devinette en se basant sur l’échec aux items précédents (par exemple sans se
rappeler 6 mots). Ce type de combinaison traduit donc, d’une part, une capacité particulière à se
rappeler des mots (rappel différé) et d’autre part, une incapacité à nommer un nombre important de
fruits et de légumes (langage et rapidité d’idéation).

6.4.2.2. Résultat de l’analyse des statistiques d’ajustement


6.4.2.2.1. Corrélation des scores attendus et observés
Le tableau 6 présente les résultats des analyses de corrélation des scores attendus et observés. À
gauche, le libellé des items analysés. Les deux premières colonnes sous le titre « Correspondance
exacte » présentent les scores observés (OBS%) et attendus (EXP%). Idéalement la différence (en
valeur absolue) entre les valeurs de ces deux colonnes (présenté dans la colonne sous le
titre « Différence : OBS% - EXP% ») serait nulle ou inférieures à 5%. Les items «Dessin du cube en
3 dimensions », « Répéter au moins 5 mots à la première tentative » et « Nommer au moins 20 fruits
et légumes » ont une différence entre les mesures observées et attendues entre 0,051 et 0,061. Les
items « TMT-B (1 à 8; A à H) et « effectuer au moins 5 soustractions consécutives » présentent une
correspondance altérée de 0,079 entre les scores attendus et les scores observés. Le point de
mesure de corrélation confirme cette corrélation inappropriée. Bien que les valeurs soient positives,
elles ne correspondent pas aux valeurs attendues par la modélisation.

6.4.2.2.2. Évaluation de l’ajustement (« Fit analysis »)


Cette évaluation quantifie l’ajustement des sujets et des items au modèle et l’éloignement des scores
des sujets aux items des valeurs attendues. C’est la somme des carrés moyens présentés au tableau
7 sous le titre « Outfit : MNSQ » qui permet l’analyse de ces ajustements. Il n’y a aucune valeur
supérieure à 2 (Underfit qui dégrade le modèle). Les items surlignés en jaune présentent une valeur

49
de carré moyen supérieure à 1,5. Il s’agit des items « Dessin du cube en 3 dimensions » et « Répéter
tous les mots à la première tentative ». Les statistiques « ZSTD » de ces items démontrent que le
mauvais ajustement du premier item est statistiquement significatif (3,6) (valeurs acceptées : de 2 à
-2).

Les six items surlignés en bleu présentent une valeur MNSQ inférieure à 0,5 (Overfit). La statistique
ZSTD est dans l’intervalle 2 à -2.

6.4.2.3. Résultats de l’analyse de la qualité psychométrique du FaCE


6.4.2.3.1. Validité
La validité du Questionnaire FaCE sera discutée dans le chapitre suivant.

6.4.2.3.2. Fiabilité
6.4.2.3.2.1. Fiabilité de reproductibilité
La fiabilité de reproductibilité ou encore l’indice de fiabilité test-retest est égal à l’indice de fiabilité
des personnes du premier test. La fiabilité de reproductibilité du FaCE est de 86%

6.4.2.3.2.2. Indice de séparation des personnes (« person-


séparation-index ») et indice de fiabilité des personnes
(«person-reliability index »)
L’indice de séparation des personnes est de 2,51, l’indice de fiabilité des personnes est de 86%.

6.4.2.3.2.3. Indice de séparation des items (« person-séparation-


item ») et indice de fiabilité de l’item (« item-reliability
index »)
L’indice de séparation des items est de 8,75. L’indice de fiabilité des items est de 99%

6.4.2.3.3. La plus petite différence mesurable


La déviation standard des personnes est égale à 1,57. La plus petite différence mesurable par le
FaCE est égale à 2,64 unités.

6.4.2.3.4. Le fonctionnement différentiel des items


L’âge (supérieur ou inférieur à 65 ans), le sexe, le grade du cancer (I; II,III; IV), le niveau de scolarité
(inférieur ou supérieur à 12 ans de scolarité), la radiothérapie (n’ayant jamais reçu de radiothérapie,
encours de radiothérapie et en post-radiothérapie) ainsi que les intervenants (4 intervenants
différents) ne démontrent aucun fonctionnement différentiel d’item significatif.

La chimiothérapie (n’ayant jamais reçu de chimiothérapie, en cours de chimiothérapie et en post-


chimiothérapie) a démontré un fonctionnement différentiel du dessin du cube en trois dimensions. La
taille de la différence détectée entre les sujets n’ayant jamais eu de chimiothérapie et ceux en post-

50
chimiothérapie est de 1,46 Logits avec une probabilité de Mantel-Heanzel de 42%. Les sujets en
post-chimiothérapie sont au nombre de 4, l’impact du fonctionnement différentiel de cet item entre
ces groupes est estimé à 0,05 Logits en faveur de ceux n’ayant jamais eu de chimiothérapie. La
présence de comorbidités cérébro-vasculaires a aussi démontré un fonctionnement différentiel de
l’item « nommer au moins 28 fruits et légumes ». La taille de la différence détectée entre les sujets
sans comorbidités cérébro-vasculaires et ceux avec au moins une comorbidité cérébro-vasculaire
est de 1,57 Logits avec une probabilité de Mantel-Heanzel de 17%. Les sujets avec au moins une
comorbidité cérébro-vasculaire sont au nombre de 45, l’impact du fonctionnement différentiel de cet
item entre ces groupes est estimé à 0,05 Logits en faveur du groupe avec comorbidités cérébro-
vasculaires.

6.5. La conversion du FaCE en échelle de 0 à 100, sa comparaison avec le test


cognitif générique et son utilisation clinique ou de recherche
La transformation des mesures Logits en pourcentage permet d’attribuer un score à chaque item.
Le détail de la conversion de la mesure Logit83 en pourcentage est présenté à l’annexe 7. Dans
l’échelle de mesure Logit du FaCE, les items sont ordonnés en fonction de la valeur Logit qui leur
correspond, la probabilité de réussite de chaque sujet aux items correspond à la valeur Logit de l’item
le plus haut, ou le plus difficile, que le sujet a réussi. Suivant cette même logique, après la
transformation de la valeur Logit des items en probabilité de réussite, le score final obtenu en
pourcentage au FaCE correspond à la plus haute probabilité de réussite d’item que le sujet aura
atteinte.

Le tableau 8 présente la grille d’interprétation du score final du FaCE. Il évalue le niveau cognitif basé
sur 5 aspects cognitifs : la mémoire immédiate, l’attention, les fonctions visuo-spatiales, le langage
et la rapidité d’idéation et le rappel différé. Le score obtenu avec le FaCE, qui est un score linéaire
basé sur la probabilité de réussite des personnes aux items (en Logit), est transformé en une échelle
de 0 à 100. Chaque item des aspects cognitifs mesurés a son propre score et le score attribué au
patient correspond à la valeur de l’item le mieux noté.

La figure 11 présente la proportion de patients en fonction du score obtenu au questionnaire cognitif


générique (le score total calculé sur un maximum de 38 points a été converti en un score total calculé
sur 100 points afin que la comparaison des 2 scores soit plus facile), comparée à la proportion de
sujets en fonction du score final obtenu au FaCE.

Le score final obtenu au FaCE est généré par la modélisation Rasch et représente les probabilités
de réussite des sujets distribués d’une façon linéaire. Il s’étend de 0 à 100%.

Le score des participants obtenus avec le questionnaire cognitif générique qui correspond à la
somme des scores des items et le score obtenu avec le FaCE qui est un score linéaire basé sur la
probabilité de réussite des personnes aux items ne sont pas superposables. Le premier s’étend de

51
37% à 95% avec une concentration plus importante des participants autour de 70%, le score des
participants obtenu avec le FaCE s’étend de façon linéaire de 1% à 99%. Ceci démontre l’intérêt de
ne pas se fier à une mesure basée sur le calcul du score total du questionnaire cognitif générique,
qui ne fait que situer les sujets les uns par rapport aux autres sans mesurer leur réelle capacité
cognitive. L’application de la modélisation Rasch pour développer le FaCE a permis l’obtention d’un
score linéaire qui permet d’obtenir une réelle mesure capable de quantifier d’une façon fiable la
capacité cognitive des sujets en fonction des items.

Prenons un exemple théorique, tel que présenté à la figure 12. Il s’agit du parcours d’un sujet atteint
d’un cancer et qui en guéri après une chirurgie et des traitements de radiothérapie et de
chimiothérapie. À l’annonce du diagnostic, son médecin évalue ses capacités cognitives pour la
première fois avec le FaCE. Après environ 5 minutes, le patient a répondu à toutes les questions du
FaCE et la meilleure réponse obtenue selon la grille d’interprétation du questionnaire est de 86%
correspondant au fait qu’il a réussi à nommer au moins 24 fruits et légumes en une minute. Ses
fonctions cognitives peuvent être considérées comme excellentes.

Après ses traitements, une nouvelle évaluation cognitive est faite, car le patient ressent de la difficulté
à se rappeler des évènements et des choses, il a des signes de paresthésie et de coordination
motrice en plus d’une fatigabilité importante. Le FaCE est administré pour la seconde fois, le score
obtenu est 52%, car la tâche la plus difficile réussie est le dessin du cube en 3 dimensions. Il semble
donc présenter une diminution de ses fonctions cognitives. Son médecin lui explique que cela peut
arriver et qu’habituellement ces difficultés s’atténuent avec le temps.

Son cancer étant guéri, le patient souhaiterait reprendre sa vie active et professionnelle. Après un
an, il ressent toujours de la difficulté à se rappeler des évènements et noms des personnes, même
dans un délai très court après les avoir vécus ou entendus. Son attention est très facilement
détournée lors d’une conversation ou de l’énoncé d’instructions. Il n’arrive pas à être aussi efficace
qu’avant pour effectuer de multiples tâches et à se concentrer lors de l’exécution d’une tâche, ce qui
lui demande plus de temps qu’avant. Son médecin réévalue ses capacités cognitives avec le FaCE.
Cette fois-ci, parmi toutes les questions du questionnaire, la question la mieux réussie correspond
au fait de réussir à répéter 7 mots à la deuxième tentative. Son score est maintenant de 72%. En
plus de démontrer des signes de déficits cognitifs résiduels, il présente une diminution de ses
capacités cognitives en comparaison à celles mesurées au moment du diagnostic. La figure 13
représente le questionnaire FaCE.

52
7. Chapitre 7 : Discussion

En procédant à plusieurs analyses Rasch subséquentes du test cognitif générique qui avait été
développé par consensus d’experts pour l’évaluation des fonctions cognitives des patients atteints
d’un cancer à différents stades d’évolution, une version clinique et de recherche d’un test cognitif
simple, rapide à administrer et présentant les qualités essentielles d’un instrument de mesure soit
l’unidimensionnalité, la linéarité, valeurs intermédiaires suffisantes et absence d’effet plafond, a été
développée : le Fast Cognitive Evaluation (FaCE).

7.1. Qualité de la modélisation Rasch du questionnaire FaCE

Le FaCE présente la qualité essentielle d’une échelle qui est l’unidimensionnalité. L’analyse de
l’unidimensionnalité du FaCE démontre que la variance du modèle est largement expliquée par la
mesure (57%). Sans cette qualité, il ne pourrait pas servir pour évaluer la fonction cognitive de façon
juste, puisque certains autres traits latents seraient sous-jacents et influeraient le score obtenu par
les sujets. Par exemple, la présence de dépression ou d’anxiété. Seuls les items concernant les
soustractions consécutives ont été identifiés comme étant ceux qui ajoutent une autre dimension au
FaCE. La dimension surajoutée qui serait hypothétiquement celle de l’aptitude de base propre à
l’individu aux opérations mathématiques n’influence que très légèrement la mesure globale du FaCE.
La décision de conserver ces items dans le questionnaire est basée sur le fait que bien que ceux-ci
analysent la capacité des sujets à effectuer une opération arithmétique correcte, ils évaluent aussi la
capacité des sujets à conserver leur attention sur l’exercice demandé afin d’en effectuer le plus
possible de façon consécutive. De plus, il est presque impossible qu’un questionnaire de mesure
d’un trait latent soit unidimensionnel, l’important est d’estimer l’importance de la dimension
surajoutée60. En ce qui concerne le FaCE, la dimension surajoutée attribuable à la capacité des sujets
à effectuer des opérations arithmétiques semble avoir une influence minime, vu le type de dimension
qui se rapporte à la formulation de la tâche à effectuer. Ce trait latent peut être considéré comme
faisant partie de l’évaluation au sens large de la fonction cognitive.

Aucun participant n’a obtenu le score maximal à la version initiale du FaCE. Le temps moyen
d’accomplissement du FaCE était sensiblement court, probablement moins de 6 minutes, et le fait
que son administration par plusieurs intervenants n’a eu aucun impact statistiquement significatif sur
le score obtenu par les participants ou sur le temps d’accomplissement, démontre que son
administration est simple, rapide et fiable.

La hiérarchisation des items du FaCE correspond à un ordre de difficulté croissant logique et attendu
avec une précision de la mesure supérieure à 80%, ce qui correspond aux recommandations pour
ce type de test84. L’étendue de mesure est équilibrée de part et d’autre de la moyenne de mesure
(Logit=0) d’environ deux écarts-types (4,8 Logit) ce qui est plus que nécessaire pour classer les sujets
selon leur capacité cognitive. Le fait que le FaCE ne démontre pas d’effet plafond, signifie qu’il est

53
capable de classer les sujets avec un niveau cognitif supérieur à celui de la population de cette étude,
puisque très peu de sujets ont réussi les items les plus difficiles, et aucun d’entre eux n’a obtenu le
score maximal. De même, les items les plus faciles permettent d’identifier les troubles cognitifs très
importants. Il n’y a pas de niveaux intermédiaires insuffisants. Comme le démontre la figure 11, il est
raisonnable de conclure que le FaCE est une mesure linéaire de la fonction cognitive.

Les résultats de l’analyse de l’ajustement des items de la version finale du FaCE au modèle Rasch
démontrent que la majorité des items sont bien ajustés. Le dessin du cube en 3 dimensions est
légèrement sous-ajusté au modèle (1.5< MNSQ < 2), mais ceci ne dégrade pas la mesure globale. Il
est donc conservé dans le questionnaire. Les items qui présentent un sur-ajustement au modèle sont
conservés, car d’une part, le sur-ajustement n’est pas considéré comme étant un mauvais
ajustement18, mais simplement comme une haute prédictibilité de la mesure. D’autre part, leur impact
sur le FaCE est minime puisque moins de 10% des sujets sont concernés par ce type d’ajustement.

7.2. Qualités psychométriques du questionnaire FaCE

L’administration du questionnaire cognitif générique aux participants a été effectuée suivant un


protocole méthodologique rigoureux qui a été soumis et approuvé après évaluation par le comité
d’éthique de la recherche du CHU de Québec Université Laval. Les résultats du projet ont été guidés
par l’hypothèse de départ sans en dévier et en se référant aux objectifs de départ.

La validité apparente a été évaluée en effectuant des prétests entre les assistants de recherches
avant de débuter l’administration du test cognitif générique aux participants. Tous les participants
étaient invités à faire part de la moindre gêne, fatigue ou autre sentiment déplaisant lors des
entrevues. Aucune remarque de ce type n’a été enregistrée. Les participants, tous atteints de cancer,
ont été soumis au questionnaire FaCE dans des conditions sensiblement similaires. Au vu de toutes
ces précautions méthodologiques et du fait qu’aucune remarque n’a été formulée par les participants,
la validité apparente du questionnaire cognitif générique semble être acceptable, ce qui peut être
étendu au FaCE.

L’analyse selon la modélisation Rasch du test cognitif générique démontre que le FaCE a une fiabilité
de reproductibilité de 86%, ce qui signifie que lors des évaluations ultérieures des mêmes sujets, la
mesure obtenue serait fiable pour le suivi des changements cognitif à hauteur de 86%.

Le FaCE a été administré sur un nombre suffisant de sujets afin de configurer la bonne hiérarchisation
des items avec un haut pouvoir discriminant pour distinguer les sujets à faible capacité de ceux avec
une haute capacité et fiable pour distinguer 2 à 3 niveaux d’aptitudes différents.

Le fonctionnement différentiel d’item détecté en lien avec la chimiothérapie doit être considéré avec
réserve vu le nombre de sujets largement en dessous du minimum recommandé de 30 sujets par
groupe comparé85. Le fonctionnement différentiel concernant l’item « nommer au moins 28 fruits et

54
légumes » en lien avec l’existence de comorbidités cérébro-vasculaires a un impact relativement
faible (0.05 Logits) sur les performances des sujets. Cependant, il est attendu que les patients ayant
reçu de la chimiothérapie ou présentant des comorbidités cérébro-vasculaires aient une performance
amoindrie à ces items. L’importance de ces différences ne justifie pas la création d’une version
différente du FaCE accommodant ces variabilités. L’impact de la consommation du tabac, de la
consommation d’alcool et de la quantité et de la qualité du sommeil n’a pas été évalué, cependant
leur impact sur les fonctions cognitive est moindre par rapport aux comorbidités testées qui n’ont
démontré aucune influence sur la mesure du FaCE. La consommation de drogue et de médicaments
opioïdes, par exemple, pourrait influencer les performances des sujets et nécessiterait la création
d’une version adaptée pour la mesure du niveau cognitif. Ce point demanderait à être investiguer
dans de futures études.

En bref, le FaCE comprend un nombre d’items suffisant ayant une hiérarchisation cohérente pour
distinguer avec une bonne fiabilité les sujets avec une haute capacité cognitive de ceux avec une
capacité limitée. Les items s’ajustent sensiblement bien au modèle Rasch et la corrélation des scores
observés et attendus est plus qu’acceptable. Le FaCE comprend suffisamment de niveaux
intermédiaires pour que l’échelle de mesure linéaire et continue ait des échelons suffisants pour
ordonner les sujets en fonction de différents niveaux de capacité cognitive. Le FaCE ne démontre
pas de fonctionnement différentiel d’item avec un impact suffisamment important pour être considéré
comme altérant la mesure globale.

La présence d’un nombre d’items plus important qu’au FaCE (avec un score moyen de 70,5 au
questionnaire cognitif générique) s’explique par le fait que certains items qui étaient présents dans le
questionnaire cognitif générique ont été supprimés dans le FaCE. Soit parce qu’ils s’ajustaient mal
au modèle, soit qu’ils étaient redondants et donnaient des points secondaires « extra » à leur score,
mais qui n’avait aucune utilité ou importance supplémentaire pour établir leur capacité cognitive. Par
contre, le score du FaCE évalue avec beaucoup plus de précision la capacité cognitive des
participants avec une distribution homogène et étendue, de façon linéaire et continue, et ce sans
niveaux intermédiaires manquants.

7.3. Points à investiguer

Un essai clinique devrait être envisagé afin de constituer la dernière étape de la validation du FaCE
afin d’investiguer la validité de contenu, ceci en examinant les potentiels biais qui pourraient
influencer le score obtenu au FaCE et en se basant sur l’avis d’experts du domaine. Les informations
médicales des sujets devraient être plus amplement investiguées quant à leur impact sur la capacité
cognitive, le type histologique des cancers, l’existence de maladie chronique évolutive concomitante
au cancer. L’anxiété, la douleur et la dépression86-88 sont des symptômes communs chez les patients

55
souffrants d’un cancer qui sont connus pour influencer les fonctions cognitives. Leur impact sur le
score du FaCE devrait être exploré.

L’étude de la corrélation du questionnaire FaCE avec différents tests psychométriques standardisés


apporterait des informations importantes afin de définir plus clairement les fonctions cognitives
évaluées par le FaCE et celles qui sont laissées de côté.

Concernant les items du FaCE, les soustractions en particulier devraient être examinées plus en
détail afin d’évaluer si un effet d’apprentissage des questions serait présent. Par exemple, est-ce que
de débuter les soustractions à 101 à chaque administration du FaCE influencerait le score de la
deuxième administration, par le fait que les sujets pourraient se rappeler de ce nombre et s’entrainer
à faire les soustractions entre chaque évaluation. Remplacer 101 par le nombre 103, par exemple,
bien que cela prévienne le problème signalé précédemment, pourrait aussi avoir comme impact de
rendre la tâche plus difficile. Plus le diminuende est élevé, plus la soustraction est difficile à effectuer.

La capacité du FaCE à mesurer un changement de la capacité cognitive des patients selon l’évolution
de leur maladie ou lors d’essais cliniques d’interventions thérapeutiques des troubles cognitifs restent
à démontrer. Comme l’existence du « Brain Fog » est suggéré chez les personnes souffrants d’autres
pathologies, telles qu’entre autres, la maladie cœliaque30, l’obésité31, ou encore au cours de la
grossesse26-28 et de la ménopause29, il serait intéressant de tester les qualités psychométriques du
FaCE et sa capacité à mesurer les capacités cognitives des personnes dans ces situations.

7.4. Limites du recours au questionnaire FaCE pour une évaluation des fonctions
cognitives chez les sujets atteints d’un cancer

La perte cognitive observée chez les patients atteints du cancer est un phénomène complexe qui se
manifeste par des déficits dans différents aspects de la cognition. Le FaCE permet de mesurer de
façon sommaire le niveau cognitif des patients avec un cancer basé sur les aspects cognitifs les plus
atteints chez ces patients3-9, à savoir, la concentration, la mémoire immédiate et le rappel différé,
l’attention, les fonctions visuo-spatiales, le langage et la rapidité d’idéation. Cependant il ne permet
pas d’identifier les aspects cognitifs spécifiques les plus atteints. Il serait utile d’évaluer si le FaCE
pourrait être un instrument de dépistage. Les déficits dans ces aspects cognitifs sont ceux qui ont été
rapportés par les personnes atteintes d’un cancer. La capacité d’exécuter de tâches multiples
simultanément (« multitasking functionning ») constitue aussi un déficit cognitif lors d’un Brain Fog89,
son évaluation dans le FaCE n’est pas clairement établie. Pourtant, le TMT-B et la question qui
consiste à nommer le plus de fruits et de légumes en une minute sont des tâches qui pourraient, en
un sens, évaluer cet aspect. Outre leur objectif premier qui est l’évaluation des fonctions visuo-
spatiales pour la première et du langage et vitesse d’idéation pour la seconde, elles permettent aussi
d’apprécier la performance des sujets à exécuter plus d’une tâche en même temps. Le TMT-B
nécessite que le patient alterne systématiquement un chiffre et une lettre. De plus, il faut que l’ordre

56
des chiffres soit croissant et que celui des lettres le soit tout autant. Nommer le maximum de fruits et
de légumes en une minute constitue, aussi, un exercice qui nécessite l’exécution de plusieurs tâches
en même temps. Le patient doit être rapide lors de l’énoncé des fruits et des légumes, mais en plus,
il doit, aussi, se rappeler quels sont ceux énoncés pour ne pas les répéter. Malgré le fait que ces
items semblent permettre d’évaluer l’exécution de tâches multiples simultanées, afin d’assurer une
évaluation de tous les aspects cognitifs, il serait nécessaire d’associer le FaCE à un test spécifique
au « multitasking functionning ».

Une différence entre l’évaluation subjective des patients de leurs déficits et celle basée sur les
questionnaires cognitifs a été démontrée par certains auteurs4, 8, 14, 21, 33, 41, 46, 90. Le FaCE ne permet
pas de mesurer la perception des patients de leur capacité cognitive et de l’impact de leurs déficits
sur leur qualité de vie. De ce fait, pour une évaluation complète du statut cognitif des patients atteints
d’un cancer, il serait utile d’associer une mesure subjective, telle que le questionnaire FACT-Cog
(The Functional Assessment of Cancer Therapy-Cognitive Function)91 et une mesure de leur qualité
de vie.

7.5. Avantages du recours au questionnaire FaCE pour une évaluation des


fonctions cognitives chez les sujets atteints d’un cancer clinique ou de
recherche

Le FaCE permet de mesurer de façon fiable et précise le niveau cognitif des sujets atteints de cancer,
tel que démontré par les indice de fiabilité de personnes et de reproductibilité ainsi que par la
précision de la mesure à 80% et de son unidimensionnalité. Le test cognitif générique qui comportait
plus de 50 items nécessite 10 minutes en moyenne pour son administration. Le FaCE qui comporte
31 items devrait être beaucoup plus rapide à administrer (environ 6 minutes en moyenne) surtout que
le dessin de l’horloge a été retiré. L’avantage de l’utilisation du FaCE est qu’il a été développé
spécifiquement pour les personnes avec un cancer et permet d’évaluer les aspects cognitifs les plus
atteints de façon précise, même pour les déficits légers.

Il est adapté à tout type de cancer et à différents stades à l’exception du cancer du cerveau ou des
métastases cérébrales, quel que soit le moment de la trajectoire de la maladie.

57
Conclusion

Les déficits cognitifs, ou le Brain Fog sont fréquents chez les patients atteints de cancer et
représentent un réel handicap pour cette population, ce qui a un impact majeur sur leur qualité de
vie. Les tests cognitifs existants qui permettent l’évaluation de ces troubles ne sont non seulement
pas adaptés aux atteintes spécifiques des personnes souffrants d’un cancer, mais en plus l’analyse
de leurs propriétés psychométriques a mis en évidence plusieurs limites17. L’objectif de l’étude décrite
dans cet ouvrage était de pallier ces limites par le développement d’un outil d’évaluation cognitive
adapté, fiable et précis.

La modélisation Rasch a permis de développer un questionnaire bref, le Fast Cognitive Evaluation


(FaCE), qui démontre des qualités psychométriques suffisamment bonnes pour le considérer comme
un outil de mesure fiable et précis.

Le FaCE permet d’évaluer le niveau cognitif dans une population avec un cancer grâce à une échelle
de mesure linéaire et continue. Son unidimensionnalité et sa reproductibilité sont sensiblement
respectées. Le FaCE permet en un temps relativement court de détecter deux à trois niveaux
différents de la capacité cognitive, de la plus limitée à une très performante. La linéarité de son échelle
de mesure permet des comparaisons faciles et fiables entre les capacités cognitives mesurées.
Aucun biais mesuré n’a d’impact sur la qualité de la mesure du FaCE.

La prochaine étape pour la validation du FaCE est l’exploration de ses qualités au sein d’une
population atteinte de cancer suivie prospectivement pour confirmer la validité clinique de sa mesure
et analyser les biais potentiels. Le FaCE ne permettant pas de mesurer la capacité à exécuter des
tâches multiples simultanées et la perception des patients de leurs troubles cognitifs et de leurs
impacts sur leur qualité de vie, il serait nécessaire de l’associer à des outils spécifiques pour évaluer
ses paramètres. Cette dernière étape de la validation du FaCE permettra d’apporter un outil de
référence adapté, rapide, fiable et précis pour l’évaluation et le suivi des troubles cognitifs des
patients atteints de cancer.

58
Bibliographie

1. Quaresma M, Coleman MP, Rachet B. 40-year trends in an index of survival for all cancers
combined and survival adjusted for age and sex for each cancer in England and Wales, 1971–2011:
a population-based study. The Lancet. 2015;385: 1206-1218.
2. Canada; ScdcAdspdCS. Statistiques canadiennes sur le cancer 20152015.
3. Von Ah D. Cognitive changes associated with cancer and cancer treatment: state of the science.
Clin J Oncol Nurs. 2015;19: 47-56.
4. Weis J, Poppelreuter M, Bartsch HH. Cognitive deficits as long-term side-effects of adjuvant
therapy in breast cancer patients: 'subjective' complaints and 'objective' neuropsychological test
results. Psychooncology. 2009;18: 775-782.
5. Neyt M, Albrecht J. The long-term evolution of quality of life for disease-free breast cancer
survivors: a comparative study in Belgium. J Psychosoc Oncol. 2006;24: 89-123.
6. Hodgson KD, Hutchinson AD, Wilson CJ, Nettelbeck T. A meta-analysis of the effects of
chemotherapy on cognition in patients with cancer. Cancer Treat Rev. 2013;39: 297-304.
7. Anderson-Hanley C, Sherman ML, Riggs R, Agocha VB, Compas BE. Neuropsychological effects
of treatments for adults with cancer: a meta-analysis and review of the literature. J Int Neuropsychol
Soc. 2003;9: 967-982.
8. Hutchinson AD, Hosking JR, Kichenadasse G, Mattiske JK, Wilson C. Objective and subjective
cognitive impairment following chemotherapy for cancer: a systematic review. Cancer Treat Rev.
2012;38: 926-934.
9. Schmidt JE, Beckjord E, Bovbjerg DH, et al. Prevalence of perceived cognitive dysfunction in
survivors of a wide range of cancers: results from the 2010 LIVESTRONG survey. J Cancer Surviv.
2016;10: 302-311.
10. Raffa R, Duong P, Finney J, et al. Is ‘chemo‐fog’/‘chemo‐brain’caused by cancer chemotherapy?
Journal of Clinical Pharmacy and Therapeutics. 2006;31: 129-138.
11. Schagen SB, van Dam FS, Muller MJ, Boogerd W, Lindeboom J, Bruning PF. Cognitive deficits
after postoperative adjuvant chemotherapy for breast carcinoma. Cancer. 1999;85: 640-650.
12. Tannock IF, Ahles TA, Ganz PA, Van Dam FS. Cognitive impairment associated with
chemotherapy for cancer: report of a workshop. J Clin Oncol. 2004;22: 2233-2239.
13. Schagen SB, Muller MJ, Boogerd W, et al. Late effects of adjuvant chemotherapy on cognitive
function: a follow-up study in breast cancer patients. Ann Oncol. 2002;13: 1387-1397.
14. Boykoff N, Moieni M, Subramanian SK. Confronting chemobrain: an in-depth look at survivors'
reports of impact on work, social networks, and health care response. J Cancer Surviv. 2009;3: 223-
232.
15. Stein KD, Syrjala KL, Andrykowski MA. Physical and psychological long-term and late effects of
cancer. Cancer. 2008;112: 2577-2592.
16. Ganz PA, Desmond KA, Leedham B, Rowland JH, Meyerowitz BE, Belin TR. Quality of life in
long-term, disease-free survivors of breast cancer: a follow-up study. J Natl Cancer Inst. 2002;94: 39-
49.
17. Arcuri GG, Palladini L, Dumas G, Lemoignan J, Gagnon B. Exploring the measurement properties
of the Montreal Cognitive Assessment in a population of people with cancer. Support Care Cancer.
2015;23: 2779-2787.
18. Rasch G. A mathematical theory of objectivity and its consequences for model construction.
European Meeting on Statistics, Econometrics and Management Science, Amsterdam, 1968.
19. Rasch G. Probabilistic models for some intelligence and attainment tests. Expanded ed ed.
[Chicago]: University of Chicago Press, 1980.
20. DeSantis CE, Lin CC, Mariotto AB, et al. Cancer treatment and survivorship statistics, 2014. CA
Cancer J Clin. 2014;64: 252-271.
21. Argyriou AA, Assimakopoulos K, Iconomou G, Giannakopoulou F, Kalofonos HP. Either called
"chemobrain" or "chemofog," the long-term chemotherapy-induced cognitive decline in cancer
survivors is real. J Pain Symptom Manage. 2011;41: 126-139.
22. Wefel JS, Vardy J, Ahles T, Schagen SB. International Cognition and Cancer Task Force
recommendations to harmonise studies of cognitive function in patients with cancer. The Lancet
Oncology. 2011;12: 703-708.

59
23. Raffa RB, Duong PV, Finney J, et al. Is 'chemo-fog'/'chemo-brain' caused by cancer
chemotherapy? J Clin Pharm Ther. 2006;31: 129-138.
24. Vardy J, Wefel JS, Ahles T, Tannock IF, Schagen SB. Cancer and cancer-therapy related
cognitive dysfunction: an international perspective from the Venice cognitive workshop. Ann Oncol.
2008;19: 623-629.
25. Wefel JS, Vidrine DJ, Veramonti TL, et al. Cognitive impairment in men with testicular cancer prior
to adjuvant therapy. Cancer. 2011;117: 190-196.
26. Keenan PA, Yaldoo DT, Stress ME, Fuerst DR, Ginsburg KA. Explicit memory in pregnant women.
Am J Obstet Gynecol. 1998;179: 731-737.
27. Rendell PG, Henry JD. Prospective-memory functioning is affected during pregnancy and
postpartum. J Clin Exp Neuropsychol. 2008;30: 913-919.
28. Sharp K, Brindle PM, Brown MW, Turner GM. Memory loss during pregnancy. Br J Obstet
Gynaecol. 1993;100: 209-215.
29. Maki PM, Henderson VW. Cognition and the menopause transition. Menopause. 2016;23: 803-
805.
30. Lichtwark IT, Newnham ED, Robinson SR, et al. Cognitive impairment in coeliac disease improves
on a gluten-free diet and correlates with histological and serological indices of disease severity.
Aliment Pharmacol Ther. 2014;40: 160-170.
31. Theoharides TC, Stewart JM, Hatziagelaki E, Kolaitis G. Brain "fog," inflammation and obesity:
key aspects of neuropsychiatric disorders improved by luteolin. Front Neurosci. 2015;9: 225.
32. Ross AJ, Medow MS, Rowe PC, Stewart JM. What is brain fog? An evaluation of the symptom in
postural tachycardia syndrome. Clin Auton Res. 2013;23: 305-311.
33. Jansen CE. Cognitive changes associated with cancer and cancer therapy: patient assessment
and education. Semin Oncol Nurs. 2013;29: 270-279.
34. Braun IM, Rao SR, Pirl WF. Comparison of self-reported cognitive difficulties in a national sample
of long-term cancer survivors and cancer-naive controls. Psychosomatics. 2012;53: 68-74.
35. Society AC. Chemo Brain. Available from URL:
http://www.cancer.org/treatment/treatmentsandsideeffects/physicalsideeffects/chemotherapyeffects/
chemo-brain.
36. Merriman JD, Von Ah D, Miaskowski C, Aouizerat BE. Proposed mechanisms for cancer- and
treatment-related cognitive changes. Semin Oncol Nurs. 2013;29: 260-269.
37. Jenkins V, Thwaites R, Cercignani M, et al. A feasibility study exploring the role of pre-operative
assessment when examining the mechanism of 'chemo-brain' in breast cancer patients. Springerplus.
2016;5: 390.
38. Tanimukai H. [Cancer-related Cognitive Impairment: Current Knowledge and Future Challenges].
Seishin Shinkeigaku Zasshi. 2015;117: 585-600.
39. Patel SK, Hurria A, Mandelblatt JS. Chemobrain: is it time to initiate guidelines for assessment
and management? Oncology (Williston Park). 2014;28: 809-810.
40. Fighting the fog of "chemo brain." Chemotherapy may keep your cancer at bay but it also may
cloud your mind. Duke Med Health News. 2009;15: 8-9.
41. Myers JS. Cancer- and chemotherapy-related cognitive changes: the patient experience. Semin
Oncol Nurs. 2013;29: 300-307.
42. Moore HC. An overview of chemotherapy-related cognitive dysfunction, or 'chemobrain'.
Oncology (Williston Park). 2014;28: 797-804.
43. Marendaz C, Valdois S, Walch J-P. Dyslexie développementale et attention visuo-spatiale.
L'année psychologique. 1996;96: 193-224.
44. Backman L, Jones S, Berger AK, Laukka EJ, Small BJ. Cognitive impairment in preclinical
Alzheimer's disease: a meta-analysis. Neuropsychology. 2005;19: 520-531.
45. Vardy J, Rourke S, Tannock IF. Evaluation of cognitive function associated with chemotherapy:
a review of published studies and recommendations for future research. J Clin Oncol. 2007;25: 2455-
2463.
46. Jean-Pierre P, Winters PC, Ahles TA, et al. Prevalence of self-reported memory problems in adult
cancer survivors: a national cross-sectional study. J Oncol Pract. 2012;8: 30-34.
47. Olson RA, Chhanabhai T, McKenzie M. Feasibility study of the Montreal Cognitive Assessment
(MoCA) in patients with brain metastases. Support Care Cancer. 2008;16: 1273-1278.

60
48. Olson RA, Iverson GL, Carolan H, Parkinson M, Brooks BL, McKenzie M. Prospective comparison
of two cognitive screening tests: diagnostic accuracy and correlation with community integration and
quality of life. J Neurooncol. 2011;105: 337-344.
49. Koski L, Xie H, Konsztowicz S. Improving precision in the quantification of cognition using the
Montreal Cognitive Assessment and the Mini-Mental State Examination. Int Psychogeriatr. 2011;23:
1107-1115.
50. Freitas S, Prieto G, Simoes MR, Santana I. Psychometric properties of the Montreal Cognitive
Assessment (MoCA): an analysis using the Rasch model. Clin Neuropsychol. 2014;28: 65-83.
51. Rasch G. Studies in mathematical psychology: I. Probabilistic models for some intelligence and
attainment tests1960.
52. Wright B, Panchapakesan N. A procedure for sample-free item analysis. Educational and
Psychological measurement. 1969;29: 23-48.
53. Rasch G. Objektivitet i samfundsvidenskaberne et metodeproblem. Nationaløkonomisk Tidsskrift.
1972;110.
54. Wright BD, Stone MH. Best Test Design. Rasch Measurement1979.
55. Andrich D. A rating formulation for ordered response categories. Psychometrika. 1978;43: 561-
573.
56. Wright BD, Masters GN. Rating Scale Analysis. Rasch Measurement. ERIC, 1982.
57. Linacre J. Many-facet Rasch Measurement. Chicago: Measurement. Evaluation, Statistics, and
Assessment Press. 1989.
58. Hambleton RK, Swaminathan H, Rogers HJ. Fundamentals of item response theory
(Measurement methods for the social sciences series, Vol. 2): London: SAGE, 1991.
59. Andrich D. Rasch Models for Measurement: SAGE Publications. Sage Publications, 1988.
60. Linacre L. Winsteps Tutorial 4. June. Recuperado de http://www. winsteps. com/a/winsteps-
tutorial-4. pdf en enero. 2012;12.
61. Linacre JM. Detecting multidimensionality: which residual data-type works best? J Outcome
Meas. 1998;2: 266-283.
62. Rapp AM, Wild B. Nonliteral language in Alzheimer dementia: a review. J Int Neuropsychol Soc.
2011;17: 207-218.
63. Wang T, Mei B, Zhang J. Atherosclerotic carotid stenosis and cognitive function. Clinical
neurology and neurosurgery. 2016;146: 64-70.
64. Gould CE, Beaudreau SA, Salman H. Diabetes is associated with cognitive impairment no
dementia in the aging, demographics, and memory study (ADAMS). International Psychogeriatrics.
2013;25: 167-168.
65. van Boxtel MP, Buntinx F, Houx PJ, Metsemakers JF, Knottnerus A, Jolles J. The relation between
morbidity and cognitive performance in a normal aging population. The Journals of Gerontology
Series A: Biological Sciences and Medical Sciences. 1998;53: M147-M154.
66. Nagai M, Kario K. [Ischemic heart disease, heart failure, and their effects on cognitive function].
Nihon rinsho. Japanese journal of clinical medicine. 2014;72: 715-720.
67. Ciobica A, Padurariu M, Bild W, Stefanescu C. Cardiovascular risk factors as potential markers
for mild cognitive impairment and Alzheimer’s disease. Psychiatria Danubina. 2011;23: 340-346.
68. Glass GV, Peckham PD, Sanders JR. Consequences of failure to meet assumptions underlying
the fixed effects analyses of variance and covariance. Review of educational research. 1972;42: 237-
288.
69. Harwell MR, Rubinstein EN, Hayes WS, Olds CC. Summarizing Monte Carlo results in
methodological research: The one-and two-factor fixed effects ANOVA cases. Journal of Educational
and Behavioral Statistics. 1992;17: 315-339.
70. Lix LM, Keselman JC, Keselman H. Consequences of assumption violations revisited: A
quantitative review of alternatives to the one-way analysis of variance F test. Review of educational
research. 1996;66: 579-619.
71. Linacre JM. WINSTEPS1991.
72. Definition of Objective Measurement. . Objective Measurement. Chicago. 2000;The Program
Committee of the Institute for Objective Measurement. : Seminar
73. Wright B. Estimating measures for extreme scores. Rasch measurement transactions. 1998;12:
632-633.

61
74. Linacre JM. Practical Rasch measurement: Retrieved from www. winsteps. com/ tutorials. htm,
2012.
75. Linacre JM. Predicting responses from Rasch measures. J Appl Meas. 2010;11: 1-10.
76. Linacre J. Winsteps® Rasch Tutorial 3: Ficha, 2012.
77. Patel JK, Read CB. Handbook of the normal distribution. CRC Press, 1996.
78. Schulz M. The standardization of mean-squares. Rasch measurement transactions. 2002;16:
879.
79. Linacre J. What do infit and outfit, mean square and standardized mean? Rasch Measurement
Transactions, 12 (2), 878, 2002.
80. Linacre JM. Rasch measurement forum/Reliability and separation of measures. Available from
URL: http://www.winsteps.com/winman/reliability.htm.
81. Fisher WP. Reliability statistics. Rasch measurement transactions. 1992;6: 238.
82. Linacre JM. Data variance explained by Rasch measures. Rasch measurement transactions.
2006;20: 1045.
83. MacCann RG, Stanley G. The use of Rasch modeling to improve standard setting. Practical
Assessment Research and Evaluation. 2006;11: 1-17.
84. Linacre JM. Rasch model estimation: further topics. J Appl Meas. 2004;5: 95-110.
85. Linacre JM. Rasch measurement forum. Available from URL: http://raschforum.boards.net/.
86. Ko HJ, Seo SJ, Youn CH, Kim HM, Chung SE. The Association between Pain and Depression,
Anxiety, and Cognitive Function among Advanced Cancer Patients in the Hospice Ward. Korean J
Fam Med. 2013;34: 347-356.
87. Oh PJ, Kim JH. [Chemotherapy-related Cognitive Impairment and Quality of Life in People with
Colon Cancer: The Mediating Effect of Psychological Distress]. J Korean Acad Nurs. 2016;46: 19-28.
88. Von Ah D, Tallman EF. Perceived cognitive function in breast cancer survivors: evaluating
relationships with objective cognitive performance and other symptoms using the functional
assessment of cancer therapy-cognitive function instrument. J Pain Symptom Manage. 2015;49: 697-
706.
89. Deprez S, Vandenbulcke M, Peeters R, et al. Longitudinal assessment of chemotherapy-induced
alterations in brain activation during multitasking and its relation with cognitive complaints. J Clin
Oncol. 2014;32: 2031-2038.
90. Bender CM, Thelen BD. Cancer and cognitive changes: the complexity of the problem. Semin
Oncol Nurs. 2013;29: 232-237.
91. Joly F, Lange M, Rigal O, et al. French version of the Functional Assessment of Cancer Therapy-
Cognitive Function (FACT-Cog) version 3. Support Care Cancer. 2012;20: 3297-3305.

62
Tableaux

Tableau 1 : Caractéristiques des participants


Caractéristiques des participants N=165 N (%)
Âge (années) moyenne (ET) 63,01 (11,82)
Participants < 65 ans 83 (53,55)
Participants ≥ 65 ans 72 (46,45)
Homme 80 (48,48)
Femme 85 (51,52)
Scolarité < 12 ans 129 (78,18)
Scolarité ≥ 12 ans 36 (21,82)
Traitement de Chimiothérapie*
Aucun traitement de chimiothérapie 52 (31,52)
Pendant la chimiothérapie 73 (44,24)
Après des traitements de chimiothérapie 4 (2,42)
Traitement de radiothérapie**
Aucun traitement de radiothérapie 70 (42,42)
Pendant la radiothérapie 77 (46,67)
Après des traitements de radiothérapie 3 (1,82)
Stade du Cancer
Stade I 108 (65,45)
Stade II-III 32 (19,39)
Stade IV 25 (15,15)
Type de cancer
Tête et du cou (larynx, langue, lèvres, etc.) 8 (4,85)
Prostate 27 (16,36)
Gynécologique (utérus, ovaires) 23 (13,94)
Sein 33 (20,00)
Gastroentérologique (intestins, foie, estomac, œsophage, etc.) 41 (24,85)
Poumon 7 (4,24)
Hématolymphatique (leucémie, Lymphome et Lymphome Malin Non 16 (9,70)
Hodgkinien)
Autres (thyroïde, peau, etc.) 18 (10,91)
Comorbidités cardiovasculaires (athérosclérose, diabètes, anévrysme de l’aorte
abdominale, insuffisance cardiaque)
Avec 45 (27,27)
Sans 120 (72,73)
N Nombre de participants
% Proportion de participant par rapport au nombre total de 165 participants.
ET : Écart type
* « Pendant la chimiothérapie » correspond à une période allant du premier traitement
de chimiothérapie à 6 mois après le dernier traitement de chimiothérapie, au-delà de
cette période il s’agit du moment désigné par « Après des traitements de
chimiothérapie »
**« Pendant la radiothérapie » correspond à une période allant du premier traitement de
radiothérapie à 3 mois après le dernier traitement de radiothérapie, au-delà de cette
période il s’agit du moment désigné par « Après des traitements de radiothérapie »

63
Tableau 2 : Étendue du score total obtenu au questionnaire cognitif générique par
les participants et du temps d’accomplissement
Score total sur 38 points
Moyenne (ET) 26,81 (4,54)
Médiane (min-max) 27 (14-36)
Temps d’accomplissement du questionnaire FaCE (minutes)
Moyenne (ET) 9,52 (2,46)
Médiane (min-max) 9,22 (4,67-22)
ET : Écart-type
Min-max : valeur minimale-valeur maximale

Tableau 3 : Résultats de l’analyse ANOVA de comparaison du score obtenu par les


participants en fonction des différents intervenants

Comparaison Différence entre les Intervalle


entre moyennes de confiance à 95%
intervenants de score
Limite Limite
inférieure supérieure
4-3 0.3030 -2.9025 3.5086
4-1 0.6411 -1.9344 3.2165
4-2 0.7887 -2.1773 3.7548
3-4 -0.3030 -3.5086 2.9025
3-1 0.3380 -2.4641 3.1402
3-2 0.4857 -2.6792 3.6506
1-4 -0.6411 -3.2165 1.9344
1-3 -0.3380 -3.1402 2.4641
1-2 0.1477 -2.3770 2.6724
Comparaisons significatives au niveau 0.05 indiquées par ***. Aucune différence de moyenne
n’est significative.

64
Tableau 4 : Table des variances résiduelles standardisées (analyse de la
dimensionnalité) du FaCE

Observé Attendu
100,00 100,00
Total de variances observées 74,4 % %
Variance expliquée par la mesure 43,4 58,40% 58,90%
Variance expliquée par les personnes 16,3 21,90% 22,10%
Variance expliquée par les items 27,1 36,50% 36,80%
Total de variances inexpliquées 31 41,60% 100,00% 41,10%
Variance inexpliquée au premier contraste 4 5,40% 13,00%
Variance inexpliquée au deuxième
contraste 3,3 4,50% 10,80%
Variance inexpliquée au troisième
contraste 2,5 3,30% 8,00%
Variance inexpliquée au quatrième contraste 2,2 3,00% 7,10%
Variance inexpliquée au cinquième contraste 1,8 2,40% 5,90%

65
Tableau 5 : Mesures (Logit) des items de la version finale du FaCE

MODÈLE Nombre de
ITEM participants
MESURE Écart-type ayant réussi
Rappeler au moins 7 mots 4,96 0,48 5
Nommer au moins 30 fruits et légumes 4,96 0,48 5
Répéter au moins 7 mots à la première tentative 4,75 0,44 6
Nommer au moins 28 fruits et légumes 4,41 0,39 8
Nommer au moins 26 fruits et légumes 3,28 0,28 19
Rappeler au moins 6 mots 2,81 0,25 26
Nommer au moins 24 fruits et légumes 2,31 0,22 35
Répéter au moins 6 mots à la première tentative 1,72 0,21 48
répéter 7 mots à la deuxième tentative 1,31 0,2 58
Nommer au moins 22 fruits et légumes 1,27 0,2 59
Rappeler au moins 5 mots 1,24 0,2 60
Dessin du cube en 3 dimensions correctement 0,75 0,19 73
Nommer au moins 20 fruits et légumes 0,49 0,19 80
Effectuer au moins 5 soustractions consécutives
correctement -0,24 0,2 100
Rappeler au moins 4 mots -0,24 0,2 100
Nommer au moins 18 fruits et légumes -0,4 0,2 104
TMT-B -0,59 0,2 109
Répéter au moins 5 mots à la première tentative -0,63 0,2 110
Répéter au moins 6 mots à la deuxième tentative -1,2 0,22 123
Effectuer au moins 4 soustractions consécutives
correctes -1,29 0,22 125
Rappeler au moins 3 mots -1,39 0,22 127
Nommer au moins 16 fruits et légumes -1,54 0,23 130
Rappeler au moins 2 mots -2,12 0,26 140
Effectuer au moins 3 soustractions consécutives
correctes -2,32 0,27 143
Rappeler au moins 1 mot -2,4 0,27 144
Répéter au moins 5 mots à la deuxième tentative -2,55 0,28 146
Répéter au moins 4 mots à la première tentative -2,63 0,29 147
Effectuer au moins 2 soustractions consécutives
correctes -3,2 0,33 153
Effectuer au moins 1 soustraction correcte -3,57 0,37 156
Répéter au moins 3 mots à la première tentative -3,89 0,42 158
Répéter au moins 4 mots à la deuxième tentative -4,07 0,44 159
TMT-B: Trail Making Test partie B

66
Tableau 6 : Tableau de corrélation des scores attendus et observés du FaCE
PTMEASURE-
CORRESPONDACE EXACTE Nombre de
A
ITEM participants
Différence :
ayant réussi
CORR. EXP. OBS% EXP% OBS% - EXP%
Rappeler au moins 7
mots 0,14 0,24 96,4 96,3 0,1 6
Nommer au moins 30
fruits et légumes 0,18 0,23 97 97 0 5
Répéter au moins 7 mots
à la première tentative 0,26 0,23 97 97 0 5
Nommer au moins 28
fruits et légumes 0,28 0,32 93,9 94,7 -0,8 156
Nommer au moins 26
fruits et légumes 0,32 0,36 92,1 92,9 -0,8 153
Rappeler au moins 6 mots 0,33 0,28 95,8 95,2 0,6 8
Nommer au moins 24
fruits et légumes 0,37 0,56 69,7 75,5 -5,8 73
Répéter au moins 6 mots
à la première tentative 0,37 0,27 96,4 96,4 0 159
répéter 7 mots à la
deuxième tentative 0,38 0,29 96,4 95,8 0,6 158
Nommer au moins 22
fruits et légumes 0,39 0,55 70,3 78,2 -7,9 109
Rappeler au moins 5
mots 0,43 0,56 68,5 76,4 -7,9 100
Dessin du cube en 3
dimensions correctement 0,44 0,44 87,3 88,4 -1,1 143
Nommer au moins 20
fruits et légumes 0,45 0,39 90,9 89,3 1,6 19
Effectuer au moins 5
soustractions
consécutives
correctement 0,47 0,44 87,9 88,8 -0,9 144
Rappeler au moins 4 mots 0,47 0,44 87,9 86,3 1,6 26
Nommer au moins 18
fruits et légumes 0,47 0,55 73,3 78,4 -5,1 110
TMT-B 0,48 0,54 72,7 77,2 -4,5 59
Répéter au moins 5 mots
à la première tentative 0,51 0,55 73,3 77,1 -3,8 60
Répéter au moins 6 mots
à la deuxième tentative 0,51 0,52 79,4 83 -3,6 127
Effectuer au moins 4
soustractions
consécutives correctes 0,52 0,51 83 84 -1 130
Rappeler au moins 3 mots 0,52 0,42 90,3 90 0,3 147
Nommer au moins 16
fruits et légumes 0,52 0,52 78,2 79 -0,8 48
Rappeler au moins 2 mots 0,53 0,46 89,1 87,3 1,8 140

67
Effectuer au moins 3
soustractions
consécutives correctes 0,54 0,52 81,8 82,4 -0,6 125
Rappeler au moins 1 mot 0,54 0,48 83,6 82,9 0,7 35
Répéter au moins 5 mots
à la deuxième tentative 0,54 0,42 92,1 89,6 2,5 146
Répéter au moins 4 mots
à la première tentative 0,55 0,56 75,8 76,4 -0,6 100
Effectuer au moins 2
soustractions
consécutives correctes 0,6 0,53 85,5 81,7 3,8 123
Effectuer au moins 1
soustraction correcte 0,64 0,54 81,8 77,4 4,4 58
Répéter au moins 3 mots
à la première tentative 0,64 0,56 80,6 77 3,6 104
Répéter au moins 4 mots
à la deuxième tentative 0,65 0,57 81,2 75,1 6,1 80
TMT-B: Trail Making Test Partie B. CORR.: corrélation. ObS.: observé. Exp: attendu

68
Tableau 7 : Tableau des analyses d’ajustement (Fit-Analysis) de la version finale du
FaCE

OUTFIT INFIT Nombre de


participants
ITEM
ayant
MNSQ ZSTD MNSQ ZSTD réussi
Dessin du cube en 3 dimensions correctement 1,83 3,6 1,34 3,6 73
Répéter au moins 7 mots à la première tentative 1,70 1,0 1,14 0,5 6
Effectuer au moins 5 soustractions consécutives
correctement 1,49 2,2 1,26 2,6 100
TMT-B 1,42 1,7 1,34 3,1 109
Répéter au moins 5 mots à la première tentative 1,22 1,0 1,16 1,6 110
répéter 7 mots à la deuxième tentative 1,15 0,7 1,13 1,4 59
Rappeler au moins 5 mots 1,03 0,2 1,09 1,0 60
Rappeler au moins 7 mots 1,02 0,3 1,07 0,3 5
Rappeler au moins 4 mots 1,00 0,1 1,03 0,4 100
Effectuer au moins 4 soustractions consécutives
correctes 0,92 -0,1 1,05 0,4 127
Répéter au moins 6 mots à la première tentative 0,87 -0,4 1,01 0,1 48
Nommer au moins 16 fruits et légumes 0,78 -0,5 1,00 0,0 130
Rappeler au moins 3 mots 0,76 -0,7 0,99 -0,1 125
Répéter au moins 6 mots à la deuxième
tentative 0,72 -0,9 0,84 -1,4 123
Nommer au moins 18 fruits et légumes 0,72 -1,4 0,84 -1,8 104
Nommer au moins 20 fruits et légumes 0,72 -1,7 0,84 -1,9 80
Rappeler au moins 6 mots 0,71 -0,6 0,94 -0,4 26
Effectuer au moins 3 soustractions consécutives
correctes 0,70 -0,5 1,06 0,4 143
Nommer au moins 22 fruits et légumes 0,68 -10,5 ,81 -2,1 58
Effectuer au moins 2 soustractions consécutives
correctes 0,62 -0,5 1,16 0,8 153
Rappeler au moins 1 mot 0,62 -0,7 0,96 -0,2 144
Nommer au moins 24 fruits et légumes 0,61 -1,1 0,89 -0,9 35
Effectuer au moins 1 soustraction correcte 0,58 -0,5 1,18 0,7 156
Rappeler au moins 2 mots 0,55 -1,0 0,87 -0,8 140
Nommer au moins 26 fruits et légumes 0,52 -0,9 0,91 -0,5 19
Répéter au moins 4 mots à la première tentative 0,48 -1,0 0,76 -1,4 147
Nommer au moins 30 fruits et légumes 0,40 -0,8 0,94 0,0 5
Nommer au moins 28 fruits et légumes 0,39 -0,9 0,91 -0,2 8
Répéter au moins 5 mots à la deuxième
tentative 0,36 -1,4 0,75 -1,5 146
Répéter au moins 3 mots à la première tentative 0,23 -1,3 0,85 -0,4 158
Répéter au moins 4 mots à la deuxième
tentative 0,17 -1,5 0,84 -0,4 159
TMT-B: Trail Making Test partie B, ZSTD : STanDardized as a Z-score, MNSQ : Somme des carrés moyen, INFIT :
Ajustement, OUTFIT : Non ajustement. Cellules en jaune : MNSQ > 1,5 (Underfit) et ZSTD > 2.
Cellules en bleu : MNSQ < 0,5 (Overtfit)

69
Tableau 8 : Grille d’interprétation du score final du FaCE

Grille d'interprétation du Score du FaCE


Items Score
Tous les items réussis 100%
Rappeler au moins 7 mots 100%
Nommer au moins 30 fruits et légumes 100%
Répéter au moins 7 mots à la première tentative 100%
Nommer au moins 28 fruits et légumes 99%
Nommer au moins 26 fruits et légumes 99%
Rappeler au moins 6 mots 97%
Nommer au moins 24 fruits et légumes 93%
Répéter au moins 6 mots à la première tentative 90%
Répéter 7 mots à la deuxième tentative 85%
Nommer au moins 22 fruits et légumes 77%
Rappeler au moins 5 mots 71%
Dessin du cube en 3 dimensions correctement 65%
Nommer au moins 20 fruits et légumes 59%
Effectuer au moins 5 soustractions consécutives correctement 52%
Rappeler au moins 4 mots 45%
Nommer au moins 18 fruits et légumes 37%
TMT-B 30%
Répéter au moins 5 mots à la première tentative 25%
Répéter au moins 6 mots à la deuxième tentative 22%
Effectuer au moins 4 soustractions consécutives correctes 18%
Rappeler au moins 3 mots 14%
Nommer au moins 16 fruits et légumes 12%
Rappeler au moins 2 mots 10%
Effectuer au moins 3 soustractions consécutives correctes 8%
Rappeler au moins 1 mot 5%
Répéter au moins 5 mots à la deuxième tentative 3%
Répéter au moins 4 mots à la première tentative 2%
Effectuer au moins 2 soustractions consécutives correctes 1%
Effectuer au moins 1 soustraction correcte 1%
Répéter au moins 3 mots à la première tentative 0%
Répéter au moins 4 mots à la deuxième tentative 0%
Aucun item réussi 0%
TMT-B: Trail Making Test partie B
Le score final du FaCE correspond au score de l'item réussi qui a le plus haut
score

70
Figures

Figure 1 : Courbe caractéristique d’un item suivant une formulation dichotomique de


la modélisation Rasch

Probabilité

1,0

0,8

0,6

0,5

0,4

0,2

0,0
‐4 ‐2 2 4
0

CA : Capacité d’un sujet « A » à répondre correctement à un item « X ».


CA – DX (Logits)
Dx : Difficulté de l’item « X ».

Plus la différence (CA – DX) est positive (ce qui signifie aussi que la capacité du sujet est
supérieure à la difficulté de l’item), plus la probabilité de réussite est haute et tend vers 1, et vice
versa. Quand la capacité du sujet est égale à la difficulté de l’item (« 0 ») sur l’axe des abscisses, les
probabilités de réussite et d’échec sont équivalentes et égales à 50% (0,5 sur l’axe des ordonnées).

71
Figure 2 : Distribution des types de cancer des participants

Tête et du cou

Prostate
Autres Tête et du cou
10% 5%

Gynécologique Prostate
Hémato‐lymphatique
9%
16%
Poumon
4%
Sein Gynécologique
Gastroentérologique 13%
24% Sein
Gastroentérologique 19%

Poumon

Hémato‐
lymphatique

Autres (thyroïde,
peau, etc.)

72
Figure 3 : Distribution du score total obtenu au questionnaire cognitif générique par
les participants

Proportion de participants en fonction du score total


obtenu au questionnaire cognitif générique
14%
12,1%
11,5%
12%

10% 9,1%
8,5%
7,9%
8% 7,3%
6,7%
6% 4,9% 4,9%
4,2%
3,6%3,6%
4%
2,4% 2,4% 2,4% 2,4%
1,8% 1,8%
2%
0,6%0,6% 0,6% 0,6%
0% 0% 0%
0%
0‐13
14
15
16
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
Score total obtenu au questionnaire cognitif générique

Figure 4 : Distribution des scores des participants pour l’évaluation de l’aspect


cognitif relatif à l’orientation

Évaluation de l'aspect : Orientation

100%
90%
80%
70%
60%
50% 96,4% 99,4% 98,2% 98,2% 95,2% 100%
40%
30%
20%
10%
0%
Date Mois Année Jour Saison Ville

Proportion de sujet ayant répondu correctement

73
Figure 5 : Distribution des scores (nombre de mots) des participants pour l’évaluation
de l’aspect cognitif relatif à la mémoire immédiate (répétition des 7 mots cités par
l’évaluateur, figures A et B) et évaluation du rappel différé (rappel des 7 mots, figure
C)
A- Mémoire immédiate : première tentative
37,58%
40%

30% 25,45%
22,42%
20%
6,67%
10%
0% 1,82% 4,42% 3,64%
0%
0 Mots 1 Mot 2 Mots 3 Mots 4 Mots 5 Mots 6 Mots 7 Mots

Nombre de mots

B- Mémoire immédiate : deuxième tentative


38,79%
40% 35,76%

30%

20% 13,94%
7,88%
10%
0% 0,61% 1,82% 1,21%
0%
0 Mots 1 Mot 2 Mots 3 Mots 4 Mots 5 Mots 6 Mots 7 Mots

Nombre de mots

C- Rappel différé
24,24%
25% 20,61%
20% 15,15%
15%
12,73% 12,73%
9,09%
10%
2,42% 3,03%
5%
0%
0 Mots 1 Mot 2 Mots 3 Mots 4 Mots 5 Mots 6 Mots 7 Mots

Nombre de mots

74
Figure 6 : Distribution des scores (réussite de la tâche) des participants pour
l’évaluation de l’aspect cognitif relatif aux fonctionnements visuo-spatial et
exécutives (TMT-B (1-8; A-H), dessin du cube en 3 dimensions, dessin de l’horloge)

Évaluation de l'aspect: fonctionnement visuo‐spatial

Proportion des sujets ayant


effectué la tâche correctement
100%

80%

60%
63,03%
66,06%
40%
44,24%
20%

0%
TMT‐B (1‐8; A‐H) Dessin du cube en 3 Dessin d'une horloge
dimensions

75
Figure 7 : Distribution des scores (réussite de la tâche) des participants pour
l’évaluation de l’aspect cognitif relatif à l’attention
A : Évaluation de l'aspect: Attention-première partie

Répétition de chiffres
Proportion de sujets
96.4%
100% 92.7%
90%
80%
70% 60.6%
60%
50%
33.9%
40%
30%
20% 7.9% 9,70%
10%
0%
Répétition de Répétition de Répétition de Répétition de Répétition de Répétition de
4 chiffres 3 chiffres en 4 chiffres en 5 chiffres en 6 chiffres en 7 chiffres en
sens inverse sens inverse sens inverse sens inverse sens inverse

B: Évaluation de l'aspect: Attention-deuxième partie

Soustractions consécutives
Proportion de sujets
94,55% 91,73%
100% 86,67%
90% 76,97%
80%
70% 60,61%
60%
50%
40%
30%
20% 5,45%
10%
0%
Aucune Au moins 1 Au moins 2 Au moins 3 Au moins 4 Au moins 5
soustraction Soustraction Soustractions Soustractions Soustractions Soustractions
réussie réussie consécutives consécutives consécutives consécutives
réussies réussies réussies réussies

76
Figure 8 : Distribution du nombre de fruits et de légumes nommés par les
participants
A : Nombre de participants en fonction du nombre de fruits et de légumes nommés

Nombre de participants
16

14

12

10

0
4 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 33 41

Nombre de fruits et de légumes

B : Proportion de participants en fonction du nombre de fruits et de légumes nommés,

Proportion de sujets
100% 95%
90%
90%
79%
80%
70% 63%
60%
48%
50%
40% 35%
30% 21%
20% 12%
10% 5% 5% 3% 2%
0%
Moins Au Au Au Au Au Au Au Au Au Au Plus
de 12 moins moins moins moins moins moins moins moins moins moins de 30
12 14 16 18 20 22 24 26 28 30
Fruits et légumes

77
Figure 9 : Carte de répartition des sujets en relation aux différents items du FaCE

L’axe vertical à gauche présente les unités Logit qui réfère au positionnement de chaque item. La
valeur Logit exacte de chaque item est présentée au tableau 4. La mesure Logit s’étend de + 4,96
Logit en haut qui correspond aux items les moins bien réussis (« se rappeler de tous les mots » et «

78
nommer 30 fruits et légumes et plus »), à -4,07 Logit qui correspond à l’item le mieux réussi et donc
le plus facile (« Répéter au moins 3 mots à la deuxième tentative »). La lettre « M » à gauche de l’axe
désigne la moyenne de mesure des personnes, celle de droite désigne la moyenne des mesures des
items (Logit 0). Les lettres « S » situent un écart-type de la moyenne et les lettres « T » deux écarts-
types de la moyenne. À gauche de l’axe central se trouvent les sujets, chacun identifié par leur
numéro de participant et à droite la hiérarchisation des items identifiés par leur nom. Les items sont
localisés selon une difficulté théorique logique. La carte des items-personnes présente les items
échelonnés du mieux réussi, ou le plus facile, en bas de l’axe central au moins bien réussi, ou le plus
difficile, en haut de l’axe. Les items relatifs au fait de nommer les fruits et légumes, par exemple, sont
ordonnés de bas en haut de 16 fruits et légumes au niveau Logit -1,54 jusqu’au Logit 4,96 qui
correspond à nommer 30 fruits et légumes et plus. Il en est de même pour la répétition des 7 mots
évaluant la mémoire immédiate ou encore le rappel de ces mots pour l’évaluation du rappel différé,
« Réussir à se rappeler de 1 mot » est situé vers le bas de l’axe central au Logit -2,4, c’est l’item le
mieux réussi ou le plus facile de cette tâche, « Réussir à se rappeler au moins 3 mots » est situé au
Logit -1,29. « Réussir à se rappeler au moins 5 mots » est situé au Logit -1,24, ainsi de suite, jusqu’au
Logit 4,96 où est situé le plus difficile des items de cette tâche et du questionnaire FaCE « Réussir à
se rappeler au moins 7 mots ».

79
Figure 10 : Combinaison de réponses aux items (sujets avec des combinaisons de
réponse différentes de celle attendue)

Ordre de combinaison attendue:


111111111110101010101010101000000000000
Où, 1 : réponse correcte et 0 : réponse incorrecte

80
Figure 11 : Illustration du score total obtenu au questionnaire cognitif générique
(converti en un score sur 100) et du score final au FaCE (linéaire)

Proportion des sujets


14%

12%

10%

8%

6%

4%

2%

0%
10
12
14
18
22
25
30
39
45
50
53
58
61
65
68
74
77
82
85
89
92
95
99
0
2
5

100
Score au questionnaire cognitif générique Score final au FaCE

Le score au questionnaire cognitif générique est converti d’un score sur 38 à un score sur 100.
Le score final obtenu au FaCE est généré par la modélisation Rasch en probabilité de réussite qui
s’étend de 0 à 100%.

Le score obtenu avec le questionnaire cognitif générique qui correspond à la somme des scores des
items et le score obtenu avec le FaCE qui est un score linéaire basé sur la probabilité de réussite
des personnes aux items ne sont pas superposables. Le premier s’étend de 37% à 95% avec une
concentration plus importante des participants autour de 70%, le score des participants obtenu avec
le FaCE s’étend de façon linéaire de 1% à 99%.

81
Figure 12 : Illustration d’un exemple d’utilisation du FaCE pour l’estimation du niveau
cognitif d’un patient atteint de cancer,

82
Figure 13 : FaCE (Fast Cognitive Evaluation)

83
Annexes
Annexe 1 : Questionnaire cognitif générique

84
Annexe 2 : Carte de répartition des sujets en relation aux différents items du MoCA

Référence: Arcuri GG, Palladini L, Dumas G, Lemoignan J, Gagnon B, Exploring the measurement properties of the Montreal
Cognitive Assessment in a population of people with cancer, Support Care Cancer, 2015;23: 2779-2787,

85
Annexe 3 : Carte des mesures empiriques des items du FaCE

86
Annexe 4 : Tableau des Résultats du test de normalité du score total et du temps
questionnaire cognitif générique

Variable : Score Total au FaCE


N 165 Somme des poids 165
Moyenne 26,8121212 Somme des observations 4424
Écart-type 4,54327146 Variance 20,6413156
Skewness -0,4403175 Kurtosis 0,07059484
Somme des carrés non corrigée 122002 Somme des carrés corrigée 3385,17576
Coef Variation 16,9448416 Std Error Mean 0,3536932
Tests de normalité
Test Statistique P-value
Shapiro-Wilk W 0,973458 Pr < W 0,0029
Kolmogorov-Smirnov D 0,096514 Pr > D <0,0100
Cramer-von Mises W-Sq 0,207515 Pr > W-Sq <0,0050
Anderson-Darling A-Sq 1,288719 Pr > A-Sq <0,0050

Temps d’accomplissement du FaCE


N 165 Somme des poids 165
Moyenne 9,52666667 Somme des observations 1571,9
Écart-type 2,46377841 Variance 6,07020407
Skewness 1,76461605 Kurtosis 6,5250079
Somme des 15970,4808 Somme des carrés corrigée 995,513467
carrés non
corrigée
Coef Variation 25,8619148 Std Error Mean 0,19180489
Tests de normalité
Test Statistique P-value
Shapiro-Wilk W 0,886658 Pr < W <0,0001
Kolmogorov- D 0,091855 Pr > D <0,0100
Smirnov
Cramer-von W-Sq 0,388568 Pr > W-Sq <0,0050
Mises

87
Annexe 5 : Courbe caractéristique d’items de tous les items du questionnaire cognitif
générique

88
89
90
91
92
93
94
95
96
97
98
99
100
101
102
103
104
105
106
107
108
109
110
111
112
113
114
115
116
Annexe 6 : Combinaison de réponse des sujets aux items
1 : réponse correcte
0 : réponse incorrecte

117
Annexe 7 : Détail de la conversion du score du FaCE d’une mesure en Logit à un
pourcentage

118
Annexe 8 : Étapes préliminaires au développement du FaCE

1. Analyse des propriétés psychométriques selon la modélisation Rasch du


questionnaire cognitif générique conduisant au test cognitif générique modifié,
1.1. Hiérarchisation des réponses aux items

L’analyse de la hiérarchisation des réponses aux items a été faite par l’analyse de la carte de
répartition des sujets en relation aux différents items (Figure 1-annexe). Les items sont localisés
selon une difficulté théorique logique. Tous les items suivent un pattern similaire, échelonnés du
mieux réussi (le plus facile) en bas de l’axe central au moins bien réussi (plus difficile) en haut de
l’axe. Par contre, la répétition des chiffres ne correspond pas à l’ordre théorique de difficulté attendu.
Répéter 4 chiffres dans l’ordre énoncé est moins difficile que de répéter 3 chiffres en sens inverse.
La mesure Logit s’étend de + 5,8 Logit en haut qui correspond à l’item le moins bien réussi («Répéter
7 chiffres en sens inverse», à -6,13 pour les items les mieux réussis («Répéter 1 mot 1ère tentative »,
« Répéter 2 mots 1ère tentative » et « Donner la ville correcte de l'entrevue » suivis de « Répéter 2
mots 2ème tentative» au Logit -4,91. «Répéter 5 mots 1ère tentative » se trouve proche de la
moyenne de mesure (Logit 0). La valeur Logit exacte de chaque item est présentée au Tableau 1-
annexe 8,
Il n’y a pas d’effet plafond puisque 3 items (« Répéter 7 chiffres en sens inverse», « Réussir à se
rappeler 7 mots » et « Nommer 30 fruits et légumes ou plus ») se retrouvent localisé plus haut que
le sujet le plus capable (sujet 13), De plus, il ne semble pas y avoir de niveaux intermédiaires
manquants. Les moyennes de réponses correctes et de mesure sont espacées d’environ une demi-
unité Logit. Les redondances d’items sont identifiées en rouge dans le Tableau 1-annexe 8. Elles
sont au nombre de 7, certaines concernent 2 items (exemple : au Logit 5,55 « Nommer au moins 30
fruits et légumes » et « Rappeler 7 mots »), d’autres concernent 3 items (exemple au Logit 0,55
« Répéter 4 chiffres dans le même sens », « Effectuer au moins 5 soustractions consécutives
correctes » et « Rappeler au moins 4 mots »). Les mesures Logit des items démontrent que
seulement deux redondances composées de deux items sont présentes pour 2 mesures (4,96 Logit
: « Se rappeler de tous les mots » et « Nommer 30 fruits et légumes et plus »; -0,16 Logit : « Effectuer
5 soustractions consécutives correctes » et « Se rappeler d’au moins 4 mots »),
Les items « Répéter 1 mot 1ère tentative », « Répéter 2 mots 1ère tentative » et « Donner la ville
correcte de l'entrevue » ont une valeur de mesure extrême très éloignée du reste des items (environ
1,5 Logit) et ont une proportion de réussite de 100% des sujets. Ils sont exclus automatiquement du
reste des analyses psychométriques du modèle par le Logiciel Winsteps du fait que leur capacité de
discrimination est nulle et que leur éloignement de la mesure des autres items provoque « une
rupture » de l’échelle et du continuum de question.
La carte des mesures empiriques des items (figure 2-annexe 8), présente l’ordre des réponses pour
chaque item pris individuellement. Tel que constaté, les réponses correctes (« 1 ») sont toutes à
droite et les réponses incorrectes (« 0 ») sont à gauche. Ceci est l’ordre attendu pour que les items
correspondent à une notation correctement construite. L’espacement horizontal des items est dans
les limites recommandées pour la très grande majorité d’entre eux.
1.2. Unidimensionnalité :

L’unidimensionnalité des items par l’exploration des CCI de chaque item pris un par un ou par groupe
qui évalue le même aspect est présentée à la figure 3-annexe. Les items relatifs à la répétition des
chiffres et le dessin de l’horloge (section E et section G de la figure) présentent une déviation de la
courbe en comparaison avec la CCI attendue. Ceci ne permet pas de conclure à l’existence d’une
dimension surajoutée, car cela pourrait aussi signifier un mauvais ajustement des items au modèle,
mais demande une investigation approfondie de ceux-ci.

119
1.3. Qualité de la modélisation
1.3.1.Statistiques d’ajustement
1.3.1.1. Corrélation des scores attendus et observés

Le tableau 2-annexe 8 présente le tableau de corrélation des scores attendus et observés. À gauche,
le libellé des items analysés. Les deux dernières colonnes présentent les correspondances entre les
scores attendus et observés. Idéalement les valeurs de ces deux colonnes seraient identiques en
fixant un seuil de 0,05 (5%),
Les items (en rouge dans le tableau) « Répéter 4 chiffres dans le même sens », « Le dessin de
l’horloge », « Répéter 5 chiffres en sens inverse », « Le dessin du cube en 3 dimensions », « TMT-
B », « Nommer au moins 22 fruits et légumes » et « Nommer au moins 18 fruits et légumes »
démontrent une mauvaise concordance entre les scores observés et attendus.
Les items (en bleu dans le tableau) « Donner l’année correcte de l’entrevue » et « Donner le mois
correct de l’entrevue » ont un point de mesure de corrélation proche de 0 (0,04 et 0,05,
respectivement). Ces items nécessitent plus d’investigation.
1.3.1.2. Évaluation de l’ajustement (« Fit analysis »)

Cette évaluation quantifie l’ajustement des sujets et des items au modèle et l’éloignement des scores
des sujets aux items des valeurs attendues selon le modèle Rasch. C’est la somme des carrés
moyens présentée tableau 3-annexe 8 sous le titre « Outfit : MNSQ » qui permet l’analyse de ces
ajustements.
Les items identifiés en orange ont une valeur MNSQ supérieure à 2 ce qui signe un important sous-
ajustement (« Underfit »). Ce type de mauvais ajustement dégrade la qualité de la mesure. De ce fait
ces items étaient les premiers à être investigués. Il s’agit des items : « Répéter 6 chiffres en sens
inverse», « Répéter 4 chiffres dans le même sens» et « Donner la saison correcte de l'entrevue». La
statistique « ZSTD » signe le fait que le mauvais ajustement des deux premiers items n’est pas dû
au hasard et qu’il est statistiquement significatif (valeurs acceptées : - 2 > ZSTD > 2). Les items
relatifs à la répétition de chiffres (« Répéter 4 chiffres dans le même sens » et « Répéter 5 chiffres
en sens inverse »), identifiés en jaune dans le tableau 3-annexe, présentent un mauvais ajustement
(Underfit) qui est moins important que les précédents (MNSQ > 1,5), mais qui est statistiquement
significatif (ZSTD = 4,1 et 2,9, respectivement).
Le dessin de l’horloge présente, aussi, un mauvais ajustement au modèle (Underfit) avec une valeur
MNSQ supérieure à 1,5 (1,71).
Les questions relatives à l’évaluation de l’orientation : « Donner la saison correcte de l'entrevue »,
« Donner le jour correct de l'entrevue » et « Donner l'année correcte de l'entrevue », présentent un
mauvais ajustement au modèle (MNSQ = 2,01, 1,71, 1,56, respectivement).
1.4. Discussion :

Les items qui consiste à la répétition de chiffres présentent d’une part, un mauvais ajustement au
modèle (Underfit ou sous ajustement) et une mauvaise corrélation des scores attendus et observés.
D’autre part, la carte des items-personnes a démontré qu’il y avait une hiérarchisation qui ne
correspondait pas à celle attendue. Lors des entrevues, il était demandé aux participants de continuer
l’exercice jusqu’à la fin. Par exemple, peu importe si le sujet échouait à répéter quatre chiffres au
sens inverse qu’énoncé, il lui était demandé de répéter cinq chiffres en sens inverse qu’énoncé puis
six chiffres, enfin sept chiffres. Selon un raisonnement logique, la difficulté de l’exercice croit en
fonction du nombre de chiffres à répéter. Si le sujet était incapable de répéter quatre chiffres en sens
inverse qu’énoncé, il n’était pas utile de lui demander d’effectuer les tâches suivantes qui sont
théoriquement plus difficiles pour évaluer sa capacité cognitive (attention dans ce cas). Au vu des
résultats statistiques d’ajustement au modèle et de corrélation des scores qui ne correspondent pas
aux valeurs recommandées et des arguments pratiques de la construction du questionnaire cognitif
générique, tous les items du continuum d’évaluation qui consistent à répéter les chiffres dans l’ordre
énoncé et en ordre inverse ont été supprimés du questionnaire.

120
Le dessin de l’horloge qui posait des interrogations quant à la méthodologie de notation lors de la
construction du questionnaire cognitif générique présente un mauvais ajustement au modèle et une
corrélation altérée des scores attendus et observés. De plus la CCI de cet item présente une déviation
en dehors des limites extrêmes de la CCI attendue. Au vu des résultats statistiques démontrant le
mauvais ajustement de cet item et des arguments pratiques quant à la construction du questionnaire,
le dessin de l’horloge a été supprimé du test. De ce fait, l’évaluation de l’aspect cognitif relatif aux
fonctions visuo-spatiales qui était composé de trois taches, «TMT-B », «Dessin du cube en trois
dimensions » et « Dessin de l’horloge », est réduit aux deux premières.
Les items relatifs à l’évaluation de l’orientation présentent une corrélation altérée des scores attendus
et observés et un point de mesure de corrélation proche de 0, De plus, ils s’ajustent mal au modèle.
Ceci amène une investigation de ces items. Les questions évaluant l’orientation étaient les premières
questions posées lors de l’administration du questionnaire cognitif générique. Elles suivaient
immédiatement la signature du formulaire de consentement où les patients devaient inscrire le lieu,
la date, le mois et l’année du jour de l’entrevue. Les participants pouvaient demander ces informations
à l’évaluateur. De ce fait, lors de l’évaluation de l’orientation, les réponses aux questions posées
venaient d’être données aux participants. Vu ces arguments pratiques et des résultats statistiques
de corrélation des scores et d’ajustement au modèle. Tous les items relatifs à l’orientation ont été
supprimés du questionnaire cognitif générique. Cet aspect cognitif n’est pas rapporté comme faisant
partie des atteintes cognitives les plus fréquentes lors du Brain Fog. Leur suppression n’a pas
d’impact important sur la qualité de l’évaluation de la capacité cognitive, mais bien qu’ils ne feront
plus partie de l’échelle de mesure du questionnaire, ces questions seront conservées afin de relaxer
le participant dès le début du questionnaire par des questions faciles qui semblent accessibles et
d’éviter que les sentiments de stress ou d’inaptitude n’influencent les réponses du reste du
questionnaire.
La version du questionnaire cognitif générique composée des items restant après la suppression des
items mal ajustés doit être analysée de nouveau, car l’échelle de mesure n’est plus composée du
même nombre d’items et les valeurs des indices de corrélation et d’ajustement sont susceptibles de
changer. Il s’agit d’une version appelée questionnaire cognitif générique modifié dont les résultats de
l’analyse des propriétés psychométriques sont présentés dans les paragraphes suivants.

121
Figure 1-annexe 8 Carte des items-personnes du questionnaire cognitif générique

L’axe vertical à gauche présente les unités Logit qui réfère au positionnement de chaque item. La
lettre « M » à gauche de l’axe désigne la moyenne de mesure de la capacité des personnes, celle de
droite désigne la moyenne des mesures de la probabilité de réussite des items (Logit 0). Les lettres
« S » situent un écart-type de la moyenne et les lettres « T » deux écarts-types de la moyenne. À
gauche de l’axe central se trouvent les sujets, chacun identifié par leur numéro de participant. À droite
la hiérarchisation des items identifiés par leurs libellés.

122
Figure 2-annexe 8 : Carte des mesures empiriques du questionnaire cognitif générique

123
Figure 3-annexe 8 : Courbe caractéristiques d’items

124
Tableau 1-annexe 8 : tableaux des mesures Logit des items du questionnaire cognitif
générique
Nombre de
MESURE Écart-
ITEM participants
(Logit) type
ayant réussi
Répéter 7 chiffres en sens inverse 5,8 0,53 4
Nommer au moins 30 fruits et légumes 5,55 0,48 5
Rappeler au 7 mots 5,55 0,48 5
Répéter tous les 7 mots 1ère tentative 5,34 0,44 6
Nommer au moins 28 fruits et légumes 5 0,39 8
Rappeler au moins 6 mots 5 0,39 8
Nommer au moins 26 fruits et légumes 3,88 0,27 19
Répéter 6 chiffres en sens inverse 3,42 0,24 26
Nommer au moins 24 fruits et légumes 2,95 0,22 35
Répéter 6 mots 1ère tentative 2,38 0,20 48
Répéter 5 chiffres en sens inverse 2,07 0,19 56
Nommer au moins 22 fruits et légumes 2 0,19 58
Répéter tous les 7 mots 2ème tentative 1,96 0,19 59
Rappeler au moins 5 mots 1,93 0,19 60
Dessin du cube 1,47 0,19 73
Nommer au moins 20 fruits et légumes 1,23 0,18 80
Répéter 4 chiffres dans le même sens 0,55 0,19 100
Effectuer au moins 5 soustractions correctes
consécutives 0,55 0,19 100
Rappeler au moins 4 mots 0,55 0,19 100
Nommer au moins 18 fruits et légumes 0,4 0,19 104
TMT-B 0,22 0,19 109
Répéter 5 mots 1ère tentative 0,18 0,19 110
Répéter 6 mots 2ème tentative -0,33 0,21 123
Rappeler au moins 3 mots -0,42 0,21 125
Effectuer au moins 4 soustractions correctes
consécutives -0,51 0,21 127
Nommer au moins 16 fruits et légumes -0,65 0,22 130
Dessin de l'horloge -0,8 0,22 133
Rappeler au moins 2 mots -1,18 0,24 140
Effectuer au moins 3 soustractions correctes
consécutives -1,36 0,26 143
Rappeler au moins 1 mot -1,43 0,26 144
Répéter 5 mots 2ème tentative -1,57 0,27 146
Répéter 4 mots 1ère tentative -1,64 028 147
Nommer au moins 14 fruits et légumes -1,72 0,28 148
Répéter 4 chiffres dans le même sens -2,17 0,32 153
Effectuer au moins 2 soustractions correctes
consécutives -2,17 0,32 153

125
Effectuer au moins 1 soustraction correcte -2,53 0,36 156
Donner la saison correcte de l'entrevue -2,67 0,38 157
Répéter 3 mots 1ère tentative -2,82 0,41 158
Donner la date correcte de l'entrevue -3 0,43 159
Répéter 3 chiffres en sens inverse -3 0,43 159
Répéter 4 mots 2ème tentative -3 0,43 159
Répéter 3 mots 2ème tentative -3,45 0,52 161
Donner le jour correct de l'entrevue -3,76 0,60 162
Répéter 1 mot 2ème tentative -3,76 0,60 162
Donner l'année correcte de l'entrevue -4,19 0,72 163
Donner le mois correct de l'entrevue -4,91 1,01 164
Répéter 2 mots 2ème tentative -4,91 1,01 164
Mesure
extrêmes
1,83 165
rapprochée à
Répéter 1 mot 1ère tentative -6,13
Mesure
extrêmes
1,83 165
rapprochée à
Répéter 2 mots 1ère tentative -6,13
Mesure
extrême
1,83 165
rapprochée à
Donner la ville correcte de l'entrevue -6,13
TMT-B : Trail Making Test partie B, En rouges : items redondants (ayant la même valeur
Logit, En bleu les items dont la proportion de réussite est de 100%

126
Tableau 2-annexe 8: Tableau de corrélation des scores attendus et observés du
questionnaire cognitif générique,
PTMEASURE- CORRESPONDACE
Nombre de
A EXACTE
participants
ITEM Différence :
ayant
CORR, EXP, OBS% EXP% OBS%-
réussi
EXP%
Donner l'année correcte de
l'entrevue 0,04 0,14 98,8 98,8 0 163
Donner le mois correct de l'entrevue 0,05 0,1 99,4 99,4 0 164
Répéter tous les 7 mots 1ère
tentative 0,12 0,25 96,4 96,3 0,1 6
Donner le jour correct de l'entrevue 0,13 0,17 98,2 98,2 0 162
Répéter 2 mots 2ème tentative 0,13 0,1 99,4 99,4 0 164
Répéter 4 chiffres dans le même
sens 0,14 0,31 92,7 92,8 -0,1 153
Donner la saison correcte de
l'entrevue 0,14 0,26 95,2 95,1 0,1 157
Nommer au moins 30 fruits et
légumes 0,17 0,23 97 97 0 5
Donner la date correcte de l'entrevue 0,18 0,23 96,4 96,3 0,1 159
Rappeler au moins 7 mots 0,22 0,23 97 97 0 5
Répéter 3 chiffres en sens inverse 0,22 0,23 96,4 96,3 0,1 159
Répéter 4 chiffres dans le même
sens 0,25 0,52 61,8 74,3 -12,5 100
Dessin de l'horloge 0,25 0,44 75,2 83,3 -8,1 133
Répéter 1 mot 2ème tentative 0,25 0,17 98,2 98,2 0 162
Nommer au moins 28 fruits et
légumes 0,26 0,28 95,8 95,2 0,6 8
Effectuer au moins 1 soustraction
correcte 0,27 0,27 94,5 94,5 0 156
Rappeler au moins 6 mots 0,3 0,28 94,5 95,2 -0,7 8
Répéter 3 mots 2ème tentative 0,3 0,19 97,6 97,6 0 161
Répéter 5 chiffres en sens inverse 0,32 0,51 69,1 76,1 -7 56
Effectuer au moins 2 soustractions
correctes consécutives 0,32 0,31 92,7 92,8 -0,1 153
Répéter 7 chiffres en sens inverse 0,34 0,21 97,6 97,6 0 4
Répéter 4 mots 2ème tentative 0,35 0,23 96,4 96,3 0,1 159
Répéter 3 mots 1ère tentative 0,36 0,25 95,8 95,7 0,1 158
Dessin du cube 0,38 0,52 66,7 73,4 -6,7 73
TMT-B 0,39 0,5 69,1 76 -6,9 109
Nommer au moins 14 fruits et
légumes 0,41 0,35 90,9 90,1 0,8 148
Effectuer au moins 3 soustractions
correctes consécutives 0,44 0,39 87,3 87,4 -0,1 143
Nommer au moins 26 fruits et
légumes 0,45 0,38 89,7 89,2 0,5 19
Effectuer au moins 5 soustractions
correctes consécutives 0,45 0,52 71,5 74,3 -2,8 100

127
Rappeler au moins 1 mot 0,46 0,38 89,1 88 1,1 144
Répéter 6 chiffres en sens inverse 0,47 0,42 86,7 86 0,7 26
Répéter tous les 7 mots 2ème
tentative 0,47 0,51 70,9 75,5 -4,6 59
Rappeler au moins 5 mots 0,48 0,51 71,5 75,3 -3,8 60
Répéter 5 mots 1ère tentative 0,48 0,5 73,9 76,3 -2,4 110
Répéter 4 mots 1ère tentative 0,49 0,36 90,3 89,5 0,8 147
Effectuer au moins 4 soustractions
correctes consécutives 0,51 0,46 79,4 81,2 -1,8 127
Rappeler au moins 2 mots 0,51 0,41 87,3 86 1,3 140
Répéter 6 mots 1ère tentative 0,52 0,5 78,8 78,1 0,7 48
Nommer au moins 16 fruits et
légumes 0,52 0,45 83,6 82,3 1,3 130
Répéter 5 mots 2ème tentative 0,52 0,37 90,9 89 1,9 146
Nommer au moins 24 fruits et
légumes 0,53 0,46 83,6 82,3 1,3 35
Rappeler au moins 4 mots 0,53 0,52 72,7 74,3 -1,6 100
Rappeler au moins 3 mots 0,53 0,47 81,8 80,5 1,3 125
Répéter 6 mots 2ème tentative 0,57 0,47 83 79,8 3,2 123
Nommer au moins 22 fruits et
légumes 0,62 0,51 81,2 75,7 5,5 58
Nommer au moins 18 fruits et
légumes 0,62 0,51 81,8 74,9 6,9 104
Nommer au moins 20 fruits et
légumes 0,63 0,53 76,4 72,9 3,5 80
TMT-B: Trail Making Test- parte B, Corr,: corrélation, EXP,: attendu, OBS: observé, en rouge: les
items dont la différence entre la corrélation observée et attendue est supérieure à 5%, en bleu les
items dont la corrélation est proche de 0

128
Tableau 3-annexe 8: Analyse de l’ajustement des items au modèle (« fit analysis ») du
questionnaire cognitif générique

OUTFIT Nombre de
INFIT
participants
ITEM
ayant
MNSQ ZSTD MNSQ ZSTD réussi
Répéter 6 chiffres en sens inverse 4,6 3,2 0,88 -0,3 8
Répéter 4 chiffres dans le même sens 2,45 2 1,17 0,8 153
Donner la saison correcte de l'entrevue 2,01 1,4 1,11 0,5 157
Répéter 4 chiffres dans le même sens 1,85 4,1 1,41 4,4 100
Donner le jour correct de l'entrevue 1,71 1 1,03 0,2 162
Dessin de l'horloge 1,71 1,9 1,31 2,3 133
Répéter 5 chiffres en sens inverse 1,64 2,9 1,29 3 56
Donner l'année correcte de l'entrevue 1,56 0,8 1,08 0,3 163
Répéter tous les 7 mots 1ère tentative 1,49 0,8 1,19 0,6 6
Dessin du cube 1,4 2,4 1,23 2,6 73
TMT-B 1,22 1,1 1,2 2,2 109
Effectuer au moins 5 soustractions correctes
consécutives 1,19 1,1 1,1 1,2 100
Répéter 7 chiffres en sens inverse 1,12 0,4 1,09 0,4 5
Répéter tous les 7 mots 2ème tentative 1,08 0,5 1,07 0,8 59
Répéter 5 mots 1ère tentative 1,05 0,3 1,04 0,5 110
Donner le mois correct de l'entrevue 1,03 0,3 1,03 0,4 164
Donner la date correcte de l'entrevue 1,02 0,3 1,04 0,2 159
Rappeler au moins 5 mots 1,01 0,1 1,06 0,7 60
Rappeler au moins 4 mots 0,9 -0,5 0,99 0 100
Répéter 6 mots 1ère tentative 0,86 -0,6 0,96 -0,4 48
Rappeler au moins 6 mots 0,75 -0,6 0,92 -0,5 26
Effectuer au moins 4 soustractions correctes
consécutives 0,74 -0,9 0,94 -0,5 127
Nommer au moins 16 fruits et légumes 0,74 -0,8 0,88 -1 130
Répéter 3 chiffres en sens inverse 0,72 -0,2 1,04 0,2 159
Rappeler au moins 3 mots 0,72 -1 0,92 -0,7 125
Nommer au moins 20 fruits et légumes 0,72 -2,1 0,83 -2,3 80
Nommer au moins 22 fruits et légumes 0,71 -1,7 0,82 -2,1 58
Nommer au moins 18 fruits et légumes 0,7 -1,8 0,82 -2,1 104
Répéter 6 mots 2ème tentative 0,68 -1,3 0,83 -1,6 123
Nommer au moins 24 fruits et légumes 0,65 -1,3 0,91 -0,8 35
Effectuer au moins 3 soustractions correctes
consécutives 0,61 -0,9 0,96 -0,2 143
Rappeler au moins 1 mot 0,6 -0,9 0,88 -0,7 144
Effectuer au moins 2 soustractions correctes
consécutives 0,56 -0,7 1,04 0,3 153
Nommer au moins 14 fruits et légumes 0,55 -0,9 0,94 -0,3 148

129
Rappeler au moins 2 mots 0,55 -1,3 0,83 -1,2 140
Nommer au moins 30 fruits et légumes 0,54 -0,5 1,07 0,3 5
Effectuer au moins 1 soustraction correcte 0,54 -0,6 1,1 0,4 156
Nommer au moins 26 fruits et légumes 0,53 -1,1 0,91 -0,4 19
Nommer au moins 28 fruits et légumes 0,49 -0,7 1,04 0,2 8
Répéter 4 mots 1ère tentative 0,46 -1,3 0,8 -1,2 147
Répéter 5 mots 2ème tentative 0,39 -1,6 0,75 -1,5 146
Répéter 3 mots 1ère tentative 0,25 -1,4 0,86 -0,4 158
Répéter 2 mots 2ème tentative 0,23 -1 0,99 0,3 164
Répéter 1 mot 2ème tentative 0,22 -1,2 0,91 0 162
Répéter 4 mots 2ème tentative 0,22 -1,4 0,84 -0,4 159
Répéter 3 mots 2ème tentative 0,19 -1,4 0,85 -0,2 161
Répéter 7 chiffres en sens inverse 0,16 -1,4 0,77 -0,4 4
TMT-B: Trail Making Test partie B, ZSTD : STanDardized as a Z-score, MNSQ : Somme des
carrés moyen, INFIT : Ajustement, OUTFIT : Non ajustement
Cellules en orange : MNSQ > 2
Cellules en jaune : MNSQ > 1,5 (Underfit) et ZSTD > 2
Cellules en bleu : MNSQ < 0,5 (Overtfit)

130
2. Analyse et amélioration des propriétés psychométriques du questionnaire
cognitif générique modifié
2.1. Hiérarchisation des réponses aux items

La carte item-personnes du questionnaire générique modifié, présentée à la figure 4-annexe 8 montre


une bonne hiérarchisation des items, une absence d’effet plafond et des niveaux intermédiaires
suffisants. Les valeurs exactes de la mesure Logit sont rapportées au tableau 4-annexe. La mesure
Logit s’étend de 5,49 Logit pour les items les plus difficiles en haut (« Rappeler tous les 7 mots » et
« Nommer au moins 30 fruits et légumes ») à -5,55 Logit pour l’item le plus facile (« Répéter 2 mots
2ème tentative ») en bas de l’axe de la carte item-personnes du questionnaire. Trois redondances
composées de deux items sont observées. Il s’agit des items au Logit 5,49 : « Rappeler tous les 7
mots » et « Nommer au moins 30 fruits et légumes » pour la première, « Effectuer au moins 5
soustractions correctes consécutives » et « Rappeler au moins 4 mots » au Logit 0,28 pour la
deuxième. Enfin, « Répéter 4 mots 1ère tentative » et « Nommer au moins 14 fruits et légumes »
pour la troisième. Les items identifiés en bleu dans le tableau 4-annexe 8 (« Répéter 3 mots 2ème
tentative », « Répéter 1 mot 2ème tentative », « Répéter 2 mots 2ème tentative »), sont ceux dont la
proportion de réussite est supérieure à 97% des participants.

2.2. Qualité de la modélisation


2.2.1.Statistiques d’ajustement
2.2.1.1. Corrélation des scores attendus et observés

Le tableau 5-annexe 8 présente l’analyse de la corrélation des scores attendus et observés du


questionnaire générique modifié.
Il n’y a pas d’item dont la valeur du point de corrélation de mesure est trop proche de 0. Le dessin du
cube est le seul item à présenter une corrélation altérée entre les scores attendus et observés
(10,7%).
2.2.1.2. Évaluation de l’ajustement (« Fit analysis »)

Les items « Dessin du cube en 3 dimensions » et « Effectuer au moins 5 soustractions correctes


consécutives » montrent un sous-ajustement (Underfit) statistiquement significatif au modèle avec
une valeur MNSQ 1,84 et 1,57, respectivement, et une valeur de la statistique ZSTD 3,5 et 2,5
respectivement. Le mauvais ajustement identifié. Les items identifiés en bleu dans le tableau 6-
annexe 8 démontrent un sur-ajustement au modèle (Overfit) avec une valeur MNSQ < 1,5. Ces deux
types de mauvais ajustement (1,5 < MNSQ < 2 et MNSQ <1,5) ne dégradent pas la qualité de la
mesure de l’échelle.

2.3. Discussion :

Les items redondants évaluent le même aspect cognitif, les supprimer n’a pas d’influence sur la
qualité de la mesure, n’apporte aucune information supplémentaire sur le classement des participants
et permet de raccourcir le temps d’accomplissement du questionnaire en limitant le nombre de
questions au minimum nécessaire. Toutefois, il est important de s’assurer que le continuum de
question auquel appartient l’item à supprimer ne soit pas altéré.
« Nommer au moins 14 fruits et légumes » est un item redondant qui fait partie du groupement d’items
évaluant le langage et la rapidité d’idéation. Du fait que cet item se trouve être la « borne » inférieure
de ce groupement d’items (item extrême), sa suppression n’altère pas le continuum ou la qualité de
la mesure.
Les items dont la proportion de réussite est supérieure à 97% (« Répéter 3 mots 2ème tentative »,
« Répéter 1 mot 2ème tentative » et « Répéter 2 mots 2ème tentative ») n’apportent aucune
information fiable et pertinente quant à la capacité cognitive des participants et ne permet pas de

131
certifier que le déficit cognitif identifié (très important dans ce cas) n’est pas dû au hasard vu le
nombre minime de participants ayant échoué à ces items (moins de 5 sujets). De plus, ces items,
bien qu’ils fassent partie du continuum de question évaluant la mémoire immédiate sont des items
localisés à la borne inférieure (extrêmes). La suppression de ces items n’a pas d’influence sur la
qualité de la mesure et pourrait, même, la préciser et améliorer sa fiabilité clinique.
L’analyse de la corrélation des scores attendus et observés du questionnaire cognitif générique
modifié montre que l’item « Dessin du cube en 3 dimensions » a une corrélation altérée (>10%), mais
l’analyse de l’ajustement au modèle montre un sous-ajustement de cet item. Toutefois, la valeur
MNSQ qui est 1,84 identifie un sous-ajustement qui ne dégrade pas le modèle et qui peut être
considéré dans les limites acceptables d’ajustement. L’action de supprimer les items précédemment
cités pourrait amener un changement de ces chiffres. Le conserver permet de conserver deux tâches
différentes pour l’évaluation de l’aspect cognitif relatif aux fonctions visuo-spatiales sans dégrader la
qualité de la mesure. Les indices d’ajustement du reste des items ne désignent aucun mauvais
ajustement qui dégrade la qualité de la mesure et ne nécessite aucune modification ou investigation
supplémentaire.
Après la suppression des items précédemment argumentés, l’échelle du questionnaire cognitif
générique modifié est différente. Le questionnaire composé des items restants est le FaCE. L’analyse
de ces propriétés psychométriques est détaillée dans le corps de cet ouvrage.

132
Figure 4-annexe 8: Carte des items-personnes du questionnaire générique modifié,

L’axe vertical à gauche présente les unités Logit qui réfèrent au positionnement de chaque item. La
lettre « M » à gauche de l’axe désigne la moyenne de mesure de la capacité des personnes, celle de
droite désigne la moyenne des mesures de la probabilité de réussite des items (Logit 0). Les lettres
« S » situent un écart-type de la moyenne et les lettres « T » deux écarts-types de la moyenne. À
gauche de l’axe central se trouvent les sujets, chacun identifié par leur numéro de participant. À droite
la hiérarchisation des items identifiés par leurs libellés.

133
Tableau 4-annexe 8: Tableau des mesures Logit des items du questionnaire cognitif
générique modifié
Nombre de
ITEM participants
MESURE E,T ayant réussi
Rappeler tous les 7 mots 5,49 0,48 5
Nommer au moins 30 fruits et légumes 5,49 0,48 5
Répéter tous les 7 mots 1ère tentative 5,28 0,44 6
Nommer au moins 28 fruits et légumes 4,94 0,39 8
Nommer au moins 26 fruits et légumes 3,81 0,28 19
Rappeler au moins 6 mots 3,34 0,25 26
Nommer au moins 24 fruits et légumes 2,84 0,22 35
Répéter 6 mots 1ère tentative 2,25 0,21 48
Nommer au moins 22 fruits et légumes 1,84 0,2 58
Répéter tous les 7 mots 2ème tentative 1,8 0,2 59
Rappeler au moins 5 mots 1,77 0,2 60
Dessin du cube 1,28 0,19 73
Nommer au moins 20 fruits et légumes 1,02 0,19 80
Effectuer au moins 5 soustractions correctes consécutives 0,28 0,2 100
Rappeler au moins 4 mots 0,28 0,2 100
Nommer au moins 18 fruits et légumes 0,13 0,2 104
TMT-B -0,07 0,2 109
Répéter 5 mots 1ère tentative -0,11 0,2 110
Répéter 6 mots 2ème tentative -0,68 0,22 123
Rappeler au moins 3 mots -0,77 0,22 125
Effectuer au moins 4 soustractions correctes consécutives -0,87 0,22 127
Nommer au moins 16 fruits et légumes -1,02 0,23 130
Rappeler au moins 2 mots -1,6 0,26 140
Effectuer au moins 3 soustractions correctes consécutives -1,81 0,27 143
Rappeler au moins 1 mot -1,88 0,27 144
Répéter 5 mots 2ème tentative -2,04 0,28 146
Répéter 4 mots 1ère tentative -2,2 0,29 147
Nommer au moins 14 fruits et légumes -2,2 0,29 148
Effectuer au moins 2 soustractions correctes consécutives -2,69 0,34 153
Effectuer au moins 1 soustraction correcte -3,07 0,38 156
Répéter 3 mots 1ère tentative -3,39 0,42 158
Répéter 4 mots 2ème tentative -3,57 0,45 159
Répéter 3 mots 2ème tentative -4,05 0,53 161
Répéter 1 mot 2ème tentative -4,37 0,61 162
Répéter 2 mots 2ème tentative -5,55 1,02 164
TMT-B : Trail Making Test partie B, En rouges : items redondants (ayant la même valeur Logit, En bleu : les items
avec plus de 97% de réussite,

134
Tableau 5-annexe 8 : Tableau de corrélation des scores attendus et observés du
questionnaire cognitif générique modifié
PTMEASURE-
A CORRESPONDANCE EXACTE Nombre de
ITEM
Différence : participants
CORR, EXP, OBS% EXP% OBS%-EXP% ayant réussi
Répéter tous les 7 mots
1ère tentative 0,14 0,24 96,4 96,3 0,1 6
Répéter 2 mots 2ème
tentative 0,17 0,12 99,4 99,4 0 164
Rappeler tous les 7 mots 0,18 0,22 97 97 0 5
Nommer au moins 30
fruits et légumes 0,26 0,22 97 97 0 5
Effectuer au moins 1
soustraction correcte 0,27 0,33 93,9 94,7 -0,8 156
Répéter 1 mot 2ème
tentative 0,28 0,2 98,2 98,2 0 162
Effectuer au moins 2
soustractions correctes
consécutives 0,32 0,36 92,7 93,1 -0,4 153
Nommer au moins 28
fruits et légumes 0,33 0,28 95,8 95,2 0,6 8
Répéter 3 mots 2ème
tentative 0,33 0,23 97,6 97,6 0 161
Dessin du cube 0,37 0,56 64,8 75,5 -10,7 73
Relier une lettre-un chiffre 0,38 0,56 71,5 78,3 -6,8 109
Répéter 3 mots 1ère
tentative 0,39 0,29 96,4 95,8 0,6 158
Répéter 4 mots 2ème
tentative 0,39 0,27 95,8 96,4 -0,6 159
Effectuer au moins 5
soustractions correctes
consécutives 0,42 0,57 68,5 76,6 -8,1 100
Nommer au moins 14
fruits et légumes 0,43 0,41 89,7 90,6 -0,9 148
Effectuer au moins 3
soustractions correctes
consécutives 0,44 0,45 86,1 88,5 -2,4 143
Nommer au moins 26
fruits et légumes 0,45 0,39 90,9 89,3 1,6 19
Rappeler au moins 6 mots 0,47 0,43 87,9 86,3 1,6 26
Répéter 5 mots 1ère
tentative 0,47 0,56 73,9 78,5 -4,6 110
Rappeler au moins 1 mot 0,47 0,44 87,9 88,9 -1 144
Répéter tous les 7 mots
2ème tentative 0,48 0,54 72,7 77,2 -4,5 59
Effectuer au moins 4
soustractions correctes
consécutives 0,49 0,52 78,8 83,1 -4,3 127
Rappeler au moins 5 mots 0,51 0,55 73,3 77,1 -3,8 60
Répéter 6 mots 1ère
tentative 0,52 0,52 78,2 79 -0,8 48

135
Répéter 4 mots 1ère
tentative 0,53 0,42 91,5 90,2 1,3 147
Nommer au moins 24
fruits et légumes 0,54 0,48 83,6 82,9 0,7 35
Rappeler au moins 3 mots 0,54 0,53 82,4 82,4 0 125
Nommer au moins 16
fruits et légumes 0,54 0,51 84,2 84 0,2 130
Rappeler au moins 2 mots 0,54 0,47 87,9 87,4 0,5 140
Rappeler au moins 4 mots 0,55 0,57 75,8 76,6 -0,8 100
Répéter 5 mots 2ème
tentative 0,55 0,43 93,9 89,8 4,1 146
Répéter 6 mots 2ème
tentative 0,6 0,53 84,8 81,8 3 123
Nommer au moins 22
fruits et légumes 0,64 0,54 81,8 77,4 4,4 58
Nommer au moins 20
fruits et légumes 0,65 0,57 81,2 75,2 6 80
Nommer au moins 18
fruits et légumes 0,65 0,56 81,8 77,3 4,5 104
TMT-B: Trail Making Test- parte B, Corr,: corrélation, EXP,: attendu, OBS: observé, en rouge:
les items dont la différence entre la corrélation observée et attendue est supérieure à 5%

136
Tableau 6-annexe 8: Analyse de l’ajustement des items au modèle (« fit analysis ») du
questionnaire cognitif générique modifié
OUTFIT INFIT Nombre de
ITEM participants
MNSQ ZSTD MNSQ ZSTD ayant réussi
Dessin du cube 1,84 3,5 1,35 3,6 73
Répéter tous les 7 mots 1ère tentative 1,69 1 1,14 0,5 6
Effectuer au moins 5 SCC 1,57 2,5 1,27 2,8 100
TMT-B 1,51 2 1,36 3,3 109
Répéter 5 mots 1ère tentative 1,26 1,1 1,17 1,6 110
Répéter tous les 7 mots 2ème tentative 1,16 0,7 1,14 1,4 59
Rappeler au moins 5 mots 1,05 0,3 1,09 1 60
Rappeler tous les 7 mots 1,01 0,3 1,07 0,3 5
Rappeler au moins 4 mots 1 0,1 1,05 0,5 100
Effectuer au moins 4 SCC 0,96 0 1,08 0,7 127
Répéter 6 mots 1ère tentative 0,89 -0,3 1,01 0,1 48
Rappeler au moins 3 mots 0,77 -0,7 1 0 125
Nommer au moins 16 fruits et légumes 0,74 -0,7 0,96 -0,3 130
Répéter 6 mots 2ème tentative 0,72 -0,9 0,85 -1,4 123
Effectuer au moins 3 SCC 0,72 -0,4 1,09 0,6 143
Nommer au moins 18 fruits et légumes 0,71 -1,5 0,82 -1,9 104
Rappeler au moins 6 mots 0,7 -0,6 0,94 -0,4 26
Nommer au moins 20 fruits et légumes 0,7 -1,7 0,83 -2 80
Nommer au moins 22 fruits et légumes 0,67 -1,5 0,81 -2,1 58
Effectuer au moins 2 SCC 0,66 -0,4 1,2 0,9 153
Rappeler au moins 1 mot 0,63 -0,6 0,98 -0,1 144
Nommer au moins 24 fruits et légumes 0,61 -1,1 0,89 -0,9 35
Effectuer au moins 1 soustraction correcte 0,61 -0,4 1,24 0,9 156
Rappeler au moins 2 mots 0,55 -1 0,87 -0,8 140
Nommer au moins 14 fruits et légumes 0,55 -0,8 1,03 0,2 148
Nommer au moins 26 fruits et légumes 0,52 -0,9 0,91 -0,5 19
Répéter 4 mots 1ère tentative 0,48 -1 0,76 -1,4 147
Nommer au moins 30 fruits et légumes 0,4 -0,8 0,94 0 5
Nommer au moins 28 fruits et légumes 0,39 -0,9 0,91 -0,2 8
Répéter 5 mots 2ème tentative 0,37 -1,4 0,74 -1,5 146
Répéter 3 mots 1ère tentative 0,22 -1,3 0,82 -0,5 158
Répéter 1 mot 2ème tentative 0,19 -1,3 0,83 -0,2 162
Répéter 4 mots 2ème tentative 0,15 -1,5 0,81 -0,5 159
Répéter 3 mots 2ème tentative 0,13 -1,5 0,84 -0,2 161
Répéter 2 mots 2ème tentative 0,11 -1,6 0,97 0,3 164
SCC : soustractions correctes consécutives. TMT-B: Trail Making Test partie B, ZSTD : STanDardized as a Z-score,
MNSQ : Somme des carrés moyen, INFIT : Ajustement, OUTFIT : Non ajustement, Cellules en jaune : MNSQ > 1,5
(Underfit) et ZSTD > 2, Cellules en bleu : MNSQ < 0,5 (Overfit)

137

Vous aimerez peut-être aussi