Vous êtes sur la page 1sur 17

(article à connaître, pas par cœur, mais les différents design expérimentaux)

ARTICLE 1 : METHODES
1. Introduction

• Les méthodes des psychologues différentiels sont les méthodes de tous les scientifiques : décrire et tester des
modèles de données.
- Ce qui distingue notre domaine, c'est ce qui constitue les données et quels sont les outils analytiques spéciaux que
nous utilisons.
- Pour le psychologue différentiel, les données proviennent de l'auto-rapport, des observations, de la physiologie et
des résidus comportementaux.
- Les données sont enregistrées dans le temps et dans l'espace.
- Les défis de la collecte de données ne sont limités que par notre imagination.
- Les méthodes d'analyse mettent l'accent sur l'ajustement et l'évaluation des modèles.
• Les objectifs des méthodes de la psychologie différentielle ne sont pas différents de ceux de toute autre science : des
explications descriptives et vérifiables des phénomènes.
- Les méthodes impliquent donc la collecte et l'analyse de données.
- Ce qui distingue les domaines scientifiques les uns des autres, et le domaine de la psychologie différentielle en
particulier, c'est ce qui constitue les données, les théories de nos données et les techniques analytiques utilisées pour
décrire et modéliser les données.
- Ce chapitre est divisé en deux sections principales : les types et les sources de données que nous collectons et les
manières dont nous modélisons (analyse) les données.
- Dans la mesure où des manuels entiers sont consacrés à la collecte de données, à la conception, à l'inférence et à
chacune des nombreuses façons de modéliser les données, cet examen portera nécessairement sur les concepts de
base plutôt que sur les spécificités de méthodes particulières.

1.1. Données = Modèle +Erreur (1)

• Une révolution dans l'analyse des données a eu lieu au cours des trente dernières années : la reconnaissance du fait
que nous modélisons les données et comparons les modèles alternatifs les uns aux autres
- Cette approche est résumée dans l'équation 1 qui, si nous reconnaissons que notre erreur est le signal de quelqu'un
d'autre, est mieux exprimée sous la forme de l'équation 2 : Données = Modèle + Résidu. (2)

• Le processus de recherche consiste alors à trouver des modèles qui correspondent aux données avec des valeurs
résiduelles acceptables.
- "Les modèles, bien sûr, ne sont jamais vrais, mais heureusement, il faut seulement qu'ils soient utiles. Pour cela, il est
généralement nécessaire qu'ils ne soient pas grossièrement erronés".
- L'approche actuelle va au-delà de la simple demande d'utilité en demandant si le modèle spécifié est meilleur que les
autres modèles
• Les côtés gauches des équations 1 et 2 sont des données.

2. Théorie des données de Coomb et la boîte de données de Cattell

• Quelles sont les données que nous recueillons ?


- À un niveau abstrait, les données peuvent être organisées selon trois dimensions différentes : le type de
comparaison (ordre par rapport à la proximité), les éléments comparés (personnes, objets, personnes x objets) et le
nombre de comparaisons (une ou plusieurs).
- Dans ce cadre, on peut dire qu'une personne est plus qu'un objet (par exemple, si elle réussit un test d'aptitude) ou
qu'elle est proche d'un objet (si elle approuve un test d'attitude), et une personne peut préférer un objet à un autre
(être plus proche d'une attitude que d'une autre) ou avoir une préférence plus marquée que quelqu'un d'autre.
- Les pairs peuvent également différer dans la manière dont ils regroupent les objets.
- Le modèle de Coombs continue d'être utilisé en psychométrie en raison de la distinction entre les items de
capacité et de préférence dans la théorie de la réponse aux items et en termes de différences individuelles dans la
mise à l'échelle multidimensionnelle du stress situationnel.

• L'encadré de Cattell met l'accent sur trois sources de données : les personnes, les tests et les occasions et a examiné
comment les corrélations peuvent être établies entre les tests et entre les personnes et occasions (analyse R), tout
comme les corrélations peuvent être trouvées entre les personnes d'un test à l'autre (analyse Q), ou les tests peuvent
être corrélés entre les personnes d'une même occasion (analyse P), etc.
- Par la suite, il a élargi la boîte de données pour y inclure des variables de fond ou précédentes ainsi que des
observateurs.
- Les applications de la boîte de données confirment qu'il existe de nombreuses façons d'analyser nos données, mais
que la principale influence a probablement été exercée sur ceux qui étudient la personnalité, le développement
cognitif et les changements au cours de la vie

Page 1 sur 17
(article à connaître, pas par cœur, mais les différents design expérimentaux)
3. Méthodes de collecte des données

• Les différences individuelles peuvent être évaluées en interrogeant les gens sur eux-mêmes (leur identité) et sur les
autres (leur réputation) ou en observant le comportement (ce que font les gens ou les autres animaux), la
physiologie et les résidus comportementaux.
- Parmi ces méthodes, la plus répandue est probablement celle de l'auto-évaluation, par le biais de questionnaires,
d'instruments projectifs ou de récits.

3.1. Auto-rapport

• "Vous vous mettez facilement en colère, vous avez du mal à approcher les autres, vous mettez les gens à l'aise, vous
faites les choses selon un plan, vous portez la conversation à un niveau supérieur ». Il s'agit d'éléments
d'autoévaluation typiques tirés de l'International Personality Item Pool
- Ils suivent le principe de base selon lequel si vous voulez savoir quelque chose sur quelqu'un, demandez-lui.
- Avec l'instruction de répondre à la façon dont vous vous comportez normalement, ces mesures des traits de caractère
Neuroticisme, Extraversion, Agréabilité, Conscience et Ouverture montrent une stabilité sur de longues périodes et
sont corrélées avec des observations comportementales et d'autres rapports
- Contrairement aux mesures de capacité, ces éléments sont censés mesurer des performances typiques.
- En d'autres termes, ils permettent de savoir comment une personne pense, se sent et se comporte habituellement
plutôt que de savoir si elle est capable de penser.

• Un exemple similaire comprendrait des éléments d'auto-évaluation qui permettent de faire des inférences sur les
états internes d'éveil énergétique ou d'éveil tendu
- Lorsqu'on les interroge sur l'éveil énergétique (comment une personne alerte, active ou vigoureuse se sent par rapport
à une personne endormie, fatiguée ou somnolente) ou l'éveil tendu (anxiété, inquiétude ou tension par rapport à une
personne calme ou détendue), les scores des sujets changent au cours de la journée et en fonction de facteurs tels que
la caféine, les films excitants ou déprimants et l’exercice

• Ces éléments sont directs et évidents.


- Ils peuvent être formés en échelles à l'aide d'une saisie factorielle homogène, également connue sous le nom de
stratégie inductive.
- Des exemples classiques de tels inventaires sont l'inventaire de personnalité Eysenck, le NEO-PIR, et les seize
facteurs de personnalité.
- Certains inventaires sont cependant développés en utilisant la stratégie empirique ou externe consistant à trouver
des éléments qui distinguent des groupes connus des personnes en général, par exemple le MMPI ou le Strong
Vocational Interest Inventory.
- Ils diffèrent également des tests rationnels ou déductifs tels que le California Psychological Inventory ou le
Personality Research Form

• Les avantages et les inconvénients des techniques de saisie empirique, rationnelle et homogène sont :
- En général, les techniques rationnelles et factorielles fonctionnent mieux pour prédire des critères plus prévisibles,
mais les techniques empiriques/externes sont plus à même de prédire des critères très imprévisibles (par exemple,
l'abandon des études).
- Les tests d'évaluation des intérêts ont traditionnellement utilisé des méthodes empiriques de construction d'échelle
et ont une validité progressive lorsqu'il s'agit de prédire divers critères tels que la réussite aux études supérieures

• Certains s'interrogent sur la validité des auto-évaluations, compte tenu de la tendance à la dissimulation ou à
l'amélioration
- Certains auteurs abordent cette question pour prédire les critères de la vie réelle (efficacité du leadership dans les
organisations) : les mesures d'auto-évaluation sont assez efficaces pour prédire ce critère important -> ils abordent
directement le problème de la simulation et indiquent que cela n'a pas posé de problème pour la sélection des
candidats à des postes de sécurité.

3.2. Construction d'inventaires d'auto-rapports.

• Les conseils pratiques pour l'élaboration d'inventaires d'auto-rapports destinés au psychologue différentiel mettent
l'accent sur une bonne compréhension théorique des construits à mesurer et de la population concernée, la rédaction
d'éléments clairs et lisibles, l'examen de la structure interne des éléments, l'épuration des échelles élaborées, la
vérification de la validité externe en termes de corrélations avec les groupes de critères, la poursuite de l'affinement
des éléments et, enfin, une documentation approfondie.
- Les questions à prendre en compte sont notamment l'étendue des éléments, la définition des facettes du concept, la
clarté de la formulation des éléments, l'analyse des réponses à l'aide de la technique IRT, l'adéquation à la population
cible et les preuves de la validité convergente, discriminante et conceptuelle.
- Les types de techniques de sélection d'items comprennent les techniques empiriques basées sur des groupes connus,
homogènes, basées sur la structure des facteurs/groupes du domaine des items, ou simplement un choix rationnel
basé sur la théorie.
Page 2 sur 17
(article à connaître, pas par cœur, mais les différents design expérimentaux)
3.3. Récits

• Les approches narratives des différences individuelles ont gagné en popularité ces dernières années.
- Les chercheurs qui collectent des données narratives le font généralement pour évaluer comment les gens donnent
un sens à leur vie
- Par conséquent, l'unité d'analyse privilégiée est l'histoire de la vie ou des scènes distinctes de l'histoire de la vie
d'une personne.
- De nombreux chercheurs en narration travaillent dans la perspective de l'identité narrative : la construction
psychologique et la narration d'une histoire de vie rassemblent le passé dont on se souvient et l'avenir imaginé en
une identité narrative qui fournit potentiellement à la vie un certain degré d'unité, de signification et de but -> les
récits de vie comportent des scènes particulières se déroulant à différents moments de la vie et, comme toute bonne
histoire, ils abordent une variété de thèmes par leur structure, leurs personnages et leur intrigue

• En raison de la quantité massive de scènes, d'événements et de souvenirs qu'une personne accumule tout au long de sa
vie, l'analyse quantitative de l'identité narrative semble à première vue une sous-estimation décourageante : les
méthodes lourdes de l'étude de cas et de l'étude des vies individuelles se prêtent davantage à une analyse
qualitative.
- Cependant, les chercheurs narratifs modernes ont toujours été à la hauteur de la tâche, car les deux dernières
décennies ont vu une croissance constante des méthodes créatives et quantitatives d'analyse des récits.

• Une approche fructueuse pour traiter le problème de la sélection des scènes est l'introduction de l'interview
standardisée de récit de vie dans laquelle les gens évaluent un ensemble de scènes importantes de leur vie (points
forts, points faibles, tournants, souvenirs vivants de l'enfance, de l'adolescence, de l'âge adulte et une scène future
imaginée) et des codeurs humains formés évaluent ces scènes pour des éléments structurels et thématiques.
- Les études qui utilisent cette approche permettent d'agréger les scores pour des thèmes tels que le ton émotionnel, la
complexité et la cohérence

• Une autre approche pour les récits analysants, qui se concentre sur l'importance de chaque scène plutôt que sur
l'histoire entière, consiste à faire raconter aux gens un souvenir qui se définit lui-même
- Les souvenirs auto-définis sont des scènes particulièrement émotionnelles et vivantes qui communiquent comment
les gens sont devenus ce qu'ils sont aujourd'hui et peuvent être codés de la même manière que les scènes de
l'interview d'un récit de vie.

• Une méthode innovante d'évaluation des données narratives consiste à coder la façon dont les gens pensent à leurs
propres récits, appelée raisonnement autobiographique
- Le processus de raisonnement autobiographique est analogue à celui d'un méta-narratif, les gens réfléchissant et
commentant la signification des différentes scènes de leur propre récit et les implications que ces scènes peuvent
avoir
- D'autres encore évitent le recours à des codeurs humains en tirant parti de la capacité des programmes d'analyse de
texte informatisés à compter les mots relevant de diverses catégories thématiques
- Par exemple, les chercheurs qui s'intéressent à la quantité de contenu émotionnel positif véhiculé dans un récit ont la
possibilité de compter le nombre de mots d'émotion positifs tels que "happy", "joy", "elated", etc. qui apparaissent
dans les récits de leurs participants.

3.4. Tests d’aptitude

• L'inventaire type d'auto-déclaration mesure ce que les gens font normalement.


- Les tests d'aptitude permettent de déterminer leur niveau de compétence.
- Initialement conçus comme des indicateurs de mauvaises performances scolaires, les tests d'aptitude tels que le SAT
et le GRE sont devenus des indicateurs standard des performances des étudiants à l'université et à la fin de leurs
études
- Les tests de QI commerciaux sont utilisés dans la plupart des évaluations cliniques.
- Dans le domaine des capacités cognitives, il existe deux grandes traditions : l'approche axée sur les mesures
psychométriques et l'approche axée sur les processus cognitifs.
- Grâce à une meilleure compréhension des processus cognitifs impliqués dans les tests d'aptitude, on pense qu'il est
possible de combiner la théorie cognitive avec des principes psychométriques avancés (par exemple, la théorie de la
réponse aux items) pour créer des instruments de test plus efficaces
- Contrairement à l'IPIP open source, il ne semble pas y avoir d'ensemble d'éléments de capacité du domaine public
que différents laboratoires peuvent utiliser.
- Il existe plutôt des ensembles de tests commerciaux, sous forme de formulaires individuels ou de groupe, qui doivent
être achetés, ou des tests "maison" qui sont propres à des groupes de laboratoires particuliers.

Page 3 sur 17
(article à connaître, pas par cœur, mais les différents design expérimentaux)
• Une hypothèse fondamentale des tests d'aptitude est que les performances ne sont pas affectées par l'état de
motivation et que tous les participants fonctionnent au mieux de leurs capacités.
- Or, ce n'est pas le cas.
- Voir Revelle pour des preuves irréfutables que les états de motivation associés à la caféine ou à un éveil énergétique
diurne variable affectent les performances des tests d'aptitude jusqu'à un écart type.
- Il a également été démontré que les différences individuelles en matière d'anxiété et de menace de stéréotype
affectent les performances cognitives, même lors de tests à enjeux élevés.

3.5. Autre rapport : Big Five

• Les évaluations des psychologues professionnels, des enseignants, des pairs, ou de soi-même montrent un degré
remarquable de cohérence dans l'identification de 5 grands facteurs de comportement.
- Ces cinq facteurs sont connus sous le nom de "Big 5" (les cinq grandes dimensions) de la personnalité
- Cependant, tous ne trouvent pas une telle simplicité dans ces cinq dimensions.
- Walker, en comparant l'évaluation des enseignants, des pairs et de soi-même chez les enfants de l'école primaire, a
montré une certaine cohérence dans l'identification d'une structure de circomplexe à deux dimensions avec des
axes primaires qui pourraient être interprétés comme de l'activité et du névrosisme.
- Grâce à l'utilisation de techniques en ligne appropriées, il est relativement facile d'obtenir des rapports d'informateurs
utiles

3.6. Observation du comportement

• L'auto-évaluation et, dans une moindre mesure, les autres évaluations ont été les principaux moyens d'évaluer la
personnalité, mais la façon la plus instructive de le faire est peut-être d'observer comment les gens se comportent
effectivement.
- Ce raisonnement solide sous-tend l'utilisation de l'observation comportementale.
- Bien qu'elle soit instructive, l'observation comportementale a rarement été utilisée, en partie à cause des coûts
relativement élevés associés à la mise au point d'un système d'observation comportementale viable
- En fait, il est beaucoup plus difficile de mettre au point un système de codage du comportement, de former des
codeurs et de mener des observations concrètes que de demander à des individus ou à des informateurs de remplir
des évaluations globales de la personnalité
- En dehors de ces coûts, l'observation du comportement mérite d'être poursuivie pour la simple raison que le
comportement actif est ce qui intéresse vraiment les psychologues
- Ainsi, l'observation comportementale peut être considérée comme une référence en matière de psychologie
différentielle.

• L'observation comportementale peut se faire dans un cadre naturel ou en laboratoire.


- L'un des principaux objectifs de la psychologie différentielle est de prédire ce que font les gens dans des
environnements naturels, mais il est évidemment difficile de collecter ces données de manière non intrusive.

• Une nouvelle méthodologie appelée EAR repose sur un petit appareil d'enregistrement programmé pour s'allumer et
s'éteindre tout au long de la journée, enregistrant pendant quelques minutes à la fois des données objectives dans des
environnements naturels.
- Les méthodes d'observation comportementale en laboratoire manquent par définition de la validité externe des
études naturalistes, mais offrent des environnements contrôlés dans lesquels on peut examiner le comportement.
- Dans le cadre du projet allemand GOSAT (German Observational Study of Adult Twins), les participants ont pris
part individuellement à des activités de laboratoire structurées et signées afin de susciter des comportements
pertinents pour les Big Five.
- D’autres auteurs ont récemment publié les premiers résultats d'une étude d'observation à grande échelle de personnes
interagissant dans des activités de groupe ; ces études ont observé non seulement le contenu du comportement, mais
aussi à quel point le comportement varie en fonction de l'âge à l'âge adulte.
- L'observation comportementale en laboratoire n'est pas limitée aux adultes, car les études exemplaires menées par
Durbin et ses collègues ont utilisé des tâches de laboratoire standard conçues spécifiquement pour susciter un
comportement lié aux caractéristiques tempéramentales de l'enfance.

• Dans chacune des études susmentionnées, les chercheurs ont dû prendre des décisions difficiles sur ce qu'ils devaient
observer.
- En effet, aucune étude n'est assez importante pour cataloguer tous les comportements ; il est donc important de
considérer attentivement les raisons théoriques du choix des variables.
- Les études d'observation peuvent évaluer des comportements discrets (par exemple, les sourires) en comptant la
fréquence de leur apparition, ou en demandant aux observateurs de noter une seule fois une cible sur les dimensions
comportementales
- Il existe des systèmes de codage du comportement ou de l'émotion, le Riverside Behavioral Q-Sort et le Facial
Action Coding System (FACS) développé par Ekman étant peut-être les mesures les plus connues et les mieux
validées.

Page 4 sur 17
(article à connaître, pas par cœur, mais les différents design expérimentaux)
- Il faut également choisir le nombre d'observateurs à employer, qui doit observer le comportement de la cible et si
l'observation doit être faite en direct ou à partir d'enregistrements vidéo
- Ces choix doivent être guidés par les questions théoriques que chaque étude tente de résoudre.
- Il est également important d'évaluer la qualité des données codées ; les indices de concordance entre les
évaluateurs sont généralement calculés sous forme de corrélations intra-classe, qui peuvent être combinées de
différentes manières afin de s'adapter au mieux à la structure du système de codage de chacun.
- Le récent renforcement de l'engagement en faveur de l'observation comportementale et les progrès technologiques
qui rendent cette méthode plus réalisable font évoluer la psychologie différentielle vers une science du
comportement actif plus mature.

3.7. Mesures physiologiques

• L'utilisation de mesures physiologiques a généralement pour but de découvrir la base biologique ou l'étiologie des
différences individuelles
- Les techniques de neuro-imagerie comptent parmi les mesures physiologiques les plus utilisées ; la technique de
neuro-imagerie spécifique utilisée dans une étude particulière dépend de la question théorique que l'étude est
destinée à étudier.
- Les chercheurs qui s'intéressent à la manière dont la structure du cerveau réagit aux différences individuelles
s'appuient sur l’IRM pour générer des images détaillées du cerveau.
- Les études portant sur l'activité cérébrale peuvent utiliser l'IRM fonctionnelle : elle s’appuie sur l'effet de contraste
dépendant du taux d'oxygène dans le sang (BOLD) pour mesurer le flux sanguin comme indicateur de l'activité
cérébrale.
- Une autre façon dont les psychologues différentiels mesurent l'activité cérébrale est la TEP qui détecte les rayons
gamma émis par un traceur introduit dans le corps pour générer des images.
- L'IRMf et la TEP ont une bonne résolution spatiale mais une mauvaise résolution temporelle ; par conséquent,
les chercheurs intéressés par la mesure des processus cérébraux au moment où ils se produisent peuvent préférer
utiliser l’EEG : elle enregistre l'activité électrique le long du cuir chevelu générée par les neurones qui font feu dans
le cerveau et possède une bonne résolution temporelle mais une résolution spatiale médiocre.
- Une mesure physiologique populaire en dehors du cerveau est le cortisol salivaire, qui se rapporte à la réponse au
stress de l'axe hypothétique pituiataire. D'autres mesures physiologiques logiques montrant des différences
individuelles fiables comprennent la température corporelle, la pression sanguine, la fréquence cardiaque, la
conductivité de la peau et la réaction de sursaut des yeux

3.8. Collecte de données à distance

• La question méthodologique la plus difficile pour les chercheurs en personnalité est peut-être le désir d'évaluer les
différences individuelles chez un homme qui reflète de manière holistique tous les aspects pertinents de la
personnalité par l'utilisation d'outils d'évaluation avec une précision extrême.
- En fait, cela n'est généralement pas possible en raison des limitations concernant le nombre d'éléments que les
participants individuels sont prêts à prendre.
- La résolution historique de ce défi a été la recherche de données précises qui sont limitées à un domaine unique.
- Aujourd'hui, il est possible de relever ce défi grâce à l'utilisation de procédures de collecte de données à distance et
à la combinaison de réponses provenant d'échantillons beaucoup plus importants.
- La technique de l'évaluation de la personnalité par ouverture synthétique donne à chaque participant un petit sous-
ensemble d'éléments provenant d'un ensemble d'éléments plus important, puis combine ces réponses à travers les
sous-éléments pour former synthétiquement de très grandes matrices de covariance.

• La principale source de collecte de données à distance provient d'enquêtes sur Internet.


- Bien que l'utilisation d'échantillons sur Internet soit attrayante en termes de facilité de collecte et de diversité des
échantillons, cette méthode relativement nouvelle présente des défis uniques.
- La mise en place de garanties contre la participation répétée d'un même sujet est d'une importance considérable.
- L'incidence de préoccupations plus insidieuses (telles que les fausses déclarations ou le saut d'articles) est plus
difficile à éviter et doit donc être prise en compte lors de l'analyse des données.
- En outre, les mesures traditionnelles sur papier et crayon ne sont pas toujours transférées vers des formats
électroniques sans distorsion et, même lorsque de telles migrations sont possibles, il faut veiller à en préserver la
validité
- À cette fin, un grand nombre d'échelles sont accessibles dans le domaine public par le biais du dépôt central IPIP
• Bien que les études sur le web soient la principale source de croissance dans l'utilisation de la collecte de données à
distance, plusieurs autres technologies contribuent à cette méthodologie.
- Certaines de ces mesures sont abordées ci-dessous dans le contexte des études à long terme.
- Notamment, les progrès récents en matière des technologies d'autosurveillance remplacent de manière plus fiable
les études basées sur le journal intime des mesures comportementales et affectives.
- Un exemple de cette technologie est l'enregistreur activé électroniquement (EAR) : les recherches basées sur
l'utilisation de cet appareil ont exploré les différences dans les habitudes conversationnelles selon le sexe et le bien-
être.
Page 5 sur 17
(article à connaître, pas par cœur, mais les différents design expérimentaux)
3.9. Enquêtes nationales et internationales

• Les chercheurs qui souhaitent explorer les différences individuelles dans la recherche longitudinale doivent tenir
compte du fait que les données de certaines études sont librement accessibles.
- Par exemple, le Bureau américain des statistiques du travail autorise l'accès gratuit aux résultats de plusieurs
enquêtes longitudinales (bien que certains ensembles de données puissent nécessiter une application) : parmi ces
études, on peut citer l'enquête longitudinale nationale sur la jeunesse (NLSY79), qui a suivi environ 13 000 hommes
et femmes depuis 1979 et leurs enfants biologiques depuis 1988
- De nombreux autres pays (dont la Grande-Bretagne, l'Australie, le Kosovo, la Suisse, le Canada et l'Allemagne)
proposent des ensembles de données comparables qui sont librement accessibles ou peuvent être consultés par le
biais du fichier d'équivalence nationale croisée
- Bien entendu, de nombreux sujets de recherche ne se prêtent pas à l'utilisation d'ensembles de données préexistants.
- Toutefois, lorsque cela est approprié, ces ressources peuvent constituer un moyen pratique et inestimable de
réaliser des analyses longitudinales ou transversales très rapidement

• En plus de ces ensembles de données longitudinales, les évaluations à grande échelle font souvent appel à des
méthodes de collecte de données multiples.
- Le Programme international pour le suivi des acquis des élèves (PISA), par exemple, utilise à la fois des méthodes
d'enquête (pour recueillir des informations sur les antécédents et les opinions des participants) et des méthodes
comportementales (pour tester les aptitudes des participants en mathématiques, en lecture, en sciences et en
résolution de problèmes).
- Les données des évaluations PISA, qui sont menées tous les trois ans auprès de participants âgés de 15 ans dans pas
moins de 65 pays, sont diffusées par l'OCDE et librement disponibles pour analyse
- Divers autres sujets sont couverts par des évaluations similaires réalisées par des organismes nationaux et
internationaux, dont le Fonds monétaire international, l'Organisation mondiale de la santé et les Nations unies.
- Malgré le manque de flexibilité des modèles personnalisés, l'utilisation de ces données permet des analyses
comparatives perspicaces entre les pays et les grands groupes.

3.10. Recherche sur les animaux

• Comme dans d'autres domaines, l'étude du comportement des animaux offre aux chercheurs de différences
individuelles la possibilité de concevoir des expériences qui seraient peu pratiques ou contraires à l'éthique avec
des sujets humains
- Jusqu’à récemment, l'utilisation de la recherche animale pour étudier la psychologie différentielle se faisait
principalement dans le cadre d'études sur les lésions et les médicaments ou dans le cadre d'études de sélection
sur plusieurs générations pour la réactivité chez le rat
- Les études d'observation du comportement en cours chez les animaux non humains dans des environnements non
restreints ont été relativement limitées, ayant été restreintes par des critères de mesure et le "spectre de
l'anthropomorphisme"
- Les recherches menées à ce jour ont porté sur des sujets aussi évidents que les chiens et les chimpanzés, mais aussi
sur des choix plus surprenants, comme les serpents et les pieuvres ou le poisson-soleil aux graines de citrouille.
- Ces recherches sur les animaux sont actuellement limitées à l'utilisation de rapports d'observation du
comportement et comportent un certain nombre de défis uniques
- Il est toutefois probable que la capacité de la recherche animale à contribuer à l'étude de la personnalité humaine
augmentera au fil du temps, à mesure que les meilleures pratiques seront identifiées et développées.

4. Types de modèles

• Comme on l'a regretté à maintes reprises, le vaste domaine de la psychothérapie a représenté deux approches
apparemment antithétiques : l'approche expérimentale et l'approche observationnelle.
- Des rapprochements et des unifications de ces approches ont été demandés à plusieurs reprises avec un succès limité.
- Les deux approches ont le même objectif : identifier les sources (causales) de variance non confondues avec
d'autres variables.
- La différence classique entre ces deux approches est l'accent mis sur les tendances centrales par rapport à la
variation, entre les statistiques mettant l'accent sur les différences entre groupes (t et F) et celles mettant l'accent sur
la variation et la covariation (σ2 et r).
- Mais en réalisant que ces statistiques sont toutes des cas particuliers du modèle linéaire général, il est devenu évident
que la différence n'était pas une question d'analyse, mais plutôt de test théorique.

Page 6 sur 17
(article à connaître, pas par cœur, mais les différents design expérimentaux)
4.1. Approches expérimentales

• L'essence d'une approche expérimentale est l'affectation aléatoire à une condition.


- La standardisation sert à rompre la corrélation entre les variables indépendantes (VI) manipulées
expérimentalement et les variables non observées mais potentiellement confondantes (VC).
- L'ensemble des variables potentiellement confondantes est infini, mais il comprend des différences individuelles
d'âge, de sexe, de statut social, d'éducation, d'expérience antérieure et de motivation, ainsi que des variables
situationnelles telles que l'heure de la journée, l'expérience passée immédiate, les interactions entre les variables du
sujet et les caractéristiques de l'expérimentateur (par exemple, le sexe du sujet en interaction avec le sexe de
l'expérimentateur).
- En assignant les participants à des conditions expérimentales, la valeur attendue de la corrélation entre la VI et les
VC est de zéro : bien qu'elles ne soient jamais réellement nulles, à mesure que la taille de l'échantillon augmente, les
corrélations confondantes non observées tendent vers zéro.

4.1.1. Interactions personne / condition

• Les approches expérimentales de l'étude des différences individuelles semblent oxymoroniques, car comment
pouvons-nous attribuer de manière aléatoire les différences individuelles ? Nous ne le pouvons pas.
- Mais nous pouvons étudier la relation entre les différences individuelles et les conditions manipulées
expérimentalement pour tester les théories des différences individuelles.
- La puissance des interactions entre les différences individuelles (parfois appelées variables personnelles ou VP) et
nos VI expérimentales réside dans le fait que l'interaction VP * VI permet de mieux comprendre les limites des
effets des deux : les interactions montrent la limite d'un effet.
- En ayant une interaction, nous pouvons exclure de nombreuses explications étrangères.
- Le fait que l'introversion soit associée à de meilleures performances aux examens pourrait s'expliquer par le fait que
les introvertis sont plus intelligents que leurs collègues plus extravertis.
- Mais avec une manipulation du stress qui inverse l'ordre des grades de l'introversion et de la performance, nous
pouvons exclure une explication de capacité

I. Inter-individuel et intra-individuel : entre des personne VS à l'intérieur d'une personne.

• Les chercheurs qui étudient les différences individuelles étudient les facteurs qui varient d'un individu à l'autre
(capacité variable entre les personnes) et les facteurs qui varient en fonction du temps et de la situation au sein d'un
même individu (variabilité intrapersonnelle).
- La variabilité entre personnes est parfois appelée variabilité interindividuelle, tandis que la variabilité
intrapersonnelle est appelée variabilité intra-divisionnelle.
- Il est important de réaliser que, bien que la relation entre deux variables reflète dans certains cas la relation à
l'intérieur de la personne pour ces variables, ce n'est pas nécessairement le cas
- Ainsi, pour la même raison que les questions relatives aux relations entre groupes et à l'intérieur des groupes
doivent être analysées séparément, les enquêtes sur les relations entre personnes et à l'intérieur des personnes
doivent l'être également.

4.1.2. En laboratoire

• La puissance des interactions d'une variable expérimentale avec une variable de différence individuelle a été
démontrée dans une série d'études expérimentales examinant l'effet de l'excitation induite par la caféine sur les
performances cognitives.
- Plutôt que de trouver les principaux effets des différences individuelles ou de la caféine, il est apparu clairement que
la caféine améliorait les performances de certaines personnes, parfois.
- La première étude de cette série a montré que la caféine et la pression du temps ont entravé les performances d'un
test complexe similaire à l'examen des dossiers des diplômés, avec un écart type de 0,6 pour les participants les plus
introvertis, alors que les performances des participants les plus extravertis ont été améliorées de façon similaire
- Ceci a été initialement considéré comme une preuve en faveur du modèle d'éveil de l’extraversion
- Mais à l'examen, cet effet n'était vrai que le matin, et seulement pour la sous-composante impulsivité de
l'extraversion
- Cela a conduit à repenser le modèle de l'excitation ainsi qu'à reconceptualiser la mesure de l’extraversion : d’autres
expériences impliquant l'interaction de l'anxiété avec des manipulations de rétroaction, et la démonstration de
l'indépendance de ces effets par rapport aux effets de la caféine ont conduit à une théorie intégrant les différences de
traits et d'états individuels avec les facteurs de stress situationnels et les processus cognitifs

• Les études en laboratoire ont longtemps été un élément essentiel de la recherche sur la théorie de la sensibilité du
renforcement (TSR)
- Des études récentes tentant d'intégrer les théories de l'impulsivité fonctionnelle à la TSR et de tester si la peur et
l’anxiété, qui proviennent de systèmes neuro-comportementaux séparables décrits par la TSR, s’inscrivent dans cette
tradition.

Page 7 sur 17
(article à connaître, pas par cœur, mais les différents design expérimentaux)
- En outre, les recherches sur les différences individuelles dans l'anxiété illustrent le large éventail de méthodes
expérimentales disponibles pour les psychologues différentiels.

4.1.3. Études de terrain randomisées

• Bien qu'il soit généralement associé aux études en laboratoire, le plan expérimental améliore également les études
sur le terrain
- Examinons l'effet de l'anxiété sur les performances des étudiants dans un cours de sciences de passerelle
- Des travaux antérieurs ont suggéré que les performances des étudiants de sexe féminin et des minorités sont
améliorées lorsqu'ils sont affectés à des groupes d'étude.
- Pour éviter toute confusion avec un "effet de bénévolat", Born et al. ont examiné comment les groupes d'étude
interagissaient avec l'anxiété et le sexe en assignant des bénévoles au hasard à des groupes d'étude ou à un groupe
témoin.
- À la fin de l'année, ils ont pu démêler l'effet de groupe d'étude (en comparant les volontaires assignés aux groupes
d'étude et les témoins appariés) de l'effet du bénévolat (en comparant les volontaires non assignés aux groupes
d'étude avec les non-volontaires).

• De nombreuses études de santé à long terme ont assigné des participants à des conditions.
- Lors de l'analyse de ces données, il est tentant de n'inclure que ceux qui suivent le protocole de la recherche.
- Malheureusement, c'est là que les différences individuelles deviennent très importantes, car il a été constaté que les
personnes consciencieuses qui prennent un placebo ont des taux de mortalité inférieurs à ceux de leurs
homologues non adhérents : les corrélats comportementaux de la personnalité peuvent masquer tout effet dû à
une manipulation expérimentale.

4.2. Approches observationnelles

• Contrairement aux études expérimentales qui peuvent examiner la relation causale entre les manipulations
environnementales et les performances individuelles, les études observationnelles tentent de déduire des états
latents basés sur la covariance de diverses mesures à un moment donné ou sur la structuration des résultats
dans le temps.

4.2.1. Études transversales

• Bien plus que tout autre type de conception, les études transversales représentent la méthode prédominante de
recherche des différences individuelles.
- Lorsqu'il est utilisé à son plein potentiel, un seul modèle transversal a le pouvoir de saisir une grande variété de
corrélations entre plusieurs secteurs et de souligner la pertinence des différences individuelles dans le processus.
- La plupart des documents publiés reflètent cette approche et n'ont pas besoin d'être discutés ici.
4.2.2. Études longitudinales

• Bien qu'elles soient nettement moins nombreuses que les études transversales, les études longitudinales ont joué un
rôle crucial dans l'évolution de la psychologie des différences en tant que domaine.
- La raison principale pour laquelle relativement peu de chercheurs ont utilisé des études longitudinales dans le passé
est qu'elles nécessitent un engagement plus important de ressources et sont donc considérées comme
introduisant un risque supplémentaire, en particulier dans les environnements universitaires où le financement est
incertain et où le développement de la carrière est souvent lié à la publication.
- Cependant, il est également vrai que des études longitudinales soigneusement conçues peuvent être beaucoup plus
puissantes que des études transversales et que cette puissance progressive doit être prise en compte lors de la
comparaison des mérites des deux approches.
- Bien que les études longitudinales puissent introduire de nouvelles variables confondantes, elles réduisent
généralement la variance des mesures transversales d'une construction donnée grâce à des mesures répétées.
- Plus important encore, elles permettent aux chercheurs de recueillir des données sur de nombreux sujets (par
exemple, la stabilité des caractéristiques au cours de la vie) qui ne peuvent pas être traités de manière adéquate avec
des approches transversales.

• Les méthodes longitudinales représentent "le long chemin" de l'étude de la personnalité, et dans certains cas, ces
longueurs ont dépassé largement les cinquante ans.
- Bien qu'elles puissent éclairer un certain nombre de questions importantes, l'objectif explicite - et peut-être le plus
important - de ces études à long terme est d'identifier les facteurs qui conduisent à une vie plus longue et plus
saine.
- Par exemple, plusieurs exemples importants de recherche longitudinale ont exploré la relation entre l'intelligence, la
morbidité et la mortalité, un domaine récemment appelé épidémiologie cognitive

Page 8 sur 17
(article à connaître, pas par cœur, mais les différents design expérimentaux)
• Sur la base des enquêtes écossaises sur la santé mentale de 1932 et 1947 et des suivis ultérieurs, des résultats
démontrent que les niveaux d'intelligence plus élevés chez les jeunes sont prédictifs à la fois de la survie et de
l'indépendance fonctionnelle dans la vieillesse.
- Un exemple antérieur est l'étude de Terman sur le cycle de vie, qui a commencé en 1921 et a suivi des écoliers au QI
élevé jusqu'à leur mort.
- Bien que les mesures utilisées par Terman aient été moins développées que celles utilisées aujourd'hui, elles étaient
progressives pour leur époque et suffisantes pour corréler les résultats de l'espérance de vie avec des constructions de
la personnalité moins développées comme les cinq grands.
- Les résultats les plus remarquables indiquent des corrélations entre la longévité, la conscienciosité et l'absence
d’impulsivité.

• Dans le domaine de l'épidémiologie cognitive, de nombreux chercheurs utilisent des méthodes longitudinales pour
préciser davantage les facteurs qui influencent l'issue de la vie.
- En ce qui concerne les effets différentiels des changements de maturation et de génération, Elder a réalisé des
analyses comparatives entre des études longitudinales avec l'étude sur le cycle de vie de Terman et les études de
l'Institut de Berkeley, qui ont suivi des enfants nés environ 10 et 20 ans après les "termites"
- Sur la base des différences d'âge entre ces échantillons, Elder a concentré son analyse sur les impacts différentiels de
développement de la Grande Dépression et de la Seconde Guerre mondiale
- Dans le cas de la Seconde Guerre mondiale, les participants de l'échantillon qui étaient plus âgés au moment de leur
entrée dans le service militaire ont payé un prix plus élevé en termes de résultats de santé et d'interruption de carrière
que ceux qui sont entrés plus jeunes
- Ses conclusions suggèrent que même des événements historiques mondiaux de cette nature peuvent avoir des
effets non uniformes sur des populations qui dépendent largement de l'âge.

• Alors que la comparaison entre différents plans longitudinaux est une méthode d'examen des effets de cohorte,
l'étude longitudinale de Seattle (SLS) a réalisé des comparaisons similaires dans une seule étude en utilisant un
échantillonnage avec remplacement.
- Outre l'évaluation répétée de l'échantillon initial, les résultats de l'étude longitudinale de Seattle ont été enrichis par
l'ajout de nouveaux participants à chaque évaluation sur sept ans.
- Dans tous les cas, les participants ont été choisis parmi les membres d'un groupe de la HMO à Seattle, dans la région
de Washington, et comprennent une grande variété de professionnels (des employés et des ouvriers) et des membres
de leur famille.
- Malgré ces points communs limités, chaque groupe d'évaluation a inclus des participants d'âges très divers.
- Le principal résultat du SLS est la présence de différences générationnelles substantielles entre les six groupes
latents selon l'année de naissance des participants : non seulement les capacités intellectuelles des participants varient
en fonction de l'âge, mais elles varient également de manière différente d'une cohorte générationnelle à l'autre.
- Si plusieurs facteurs ont été proposés pour expliquer cet effet, les données corrélatives du SLS suggèrent que
l'amélioration et l'exposition à l'éducation formelle sont des facteurs explicatifs.
- Quoi qu'il en soit, le SLS met en lumière la puissance unique des études longitudinales en suggérant que des études
transversales antérieures qui ont exploré les déclins des capacités cognitives liés à l'âge peuvent estimer de manière
inexacte le degré de déclin dû aux différences entre les cohortes

• Parmi les recherches longitudinales plus récentes, l'étude des jeunes mathématiquement précoces (SMPY) a été
lancée dans le but d'identifier et de répondre aux besoins éducatifs des enfants doués en math
- Bien que le champ de l'étude ait été élargi par la suite pour inclure les besoins des enfants doués dans d'autres
domaines, SMPY se distingue par la profondeur avec laquelle il a exploré la relation entre les capacités, le
tempérament et les intérêts des enfants doués.
- L'étude est en cours, mais les résultats de SMPY contribueront sans aucun doute aux efforts récents visant à susciter
un plus grand intérêt chez les étudiants pour les domaines STEM : sc, techno, ingénierie, math

I. Brève présentation des études

• Le processus de suivi des sujets sur de longues périodes est à la fois le principal avantage des études longitudinales
et la principale raison pour laquelle elles ne sont pas plus largement mises en œuvre.
- Non seulement il est plus coûteux et plus difficile de maintenir le contact avec les participants après la phase initiale
de collecte des données, mais les études longitudinales produisent rarement des résultats significatifs à court
terme
- Un moyen d'atténuer cet aspect de la conception longitudinale consiste à limiter la durée de l'étude et/ou à
augmenter la fréquence de la collecte de données.

• Lorsque la durée de l'étude et la fréquence de la collecte des données sont radicalement modifiées, comme c'est le cas
dans les études de sujets, le plan qui en résulte peut ne plus sembler de nature longitudinale (bien qu'il soit toujours
clairement distinct de la section transversale).
- Les études de ce type évaluent les participants à des intervalles très courts pendant une période de plusieurs jours ou
semaines et sont utilisées pour explorer les façons dont le comportement est affecté par des états affectifs transitoires,
des pressions motivationnelles et des rythmes diurnes.
Page 9 sur 17
(article à connaître, pas par cœur, mais les différents design expérimentaux)
- Bien entendu, ces modèles ne peuvent pas évaluer la stabilité à long terme des attributs comme les études
longitudinales typiques, mais ce compromis est acceptable lorsqu'on étudie des modèles de comportement fins qui
sont souvent perdus entre les intervalles de mesure peu fréquents des études à long terme.

• Historiquement, les expériences de cette nature se limitaient à l'utilisation des formats de journaux intimes, ce qui a
eu pour conséquence de résoudre les problèmes liés à la qualité des données.
- Heureusement, l'introduction de plusieurs nouvelles technologies ces dernières années a contribué à faciliter
l'utilisation de cette méthodologie.
- Si les téléphones portables sont la forme la plus omniprésente de ces technologies, la liste comprend un large
éventail d'outils d’auto-surveillance capables de mesurer un nombre croissant d'activités comportementales et inter-
personnelles.

• Bien sûr, l'utilisation de ces technologies avec des modèles longitudinaux de plus longue durée est également
possible, mais il y a des limites à la volonté des participants de consacrer leur temps libre à la recherche universitaire.
- Si certaines technologies existantes permettent de collecter et de télécharger des données via Internet avec une
participation humaine minimale, les données les plus pertinentes nécessitent généralement une réflexion personnelle
de la part du participant.
- À cet égard, les études à long terme avec des fréquences élevées de collecte de données ne sont pas susceptibles
d'utiliser les mesures actuelles de la personnalité.

5. Méthodes d'analyse

• Si Données = Modèle + Résidu, la question fondamentale de l'analyse est de savoir comment estimer le modèle ?
Cela dépend, bien sûr, de ce qu’est le modèle mais en général, la méthode consiste à utiliser l'outil de calcul
approprié, qu'il s'agisse d'une description graphique des données ou d'une analyse de classe latente à plusieurs
niveaux et à plusieurs vagues.
- Pour la plupart des problèmes rencontrés par les chercheurs, les calculs appropriés peuvent être effectués dans le
système statistique open source, R
- Développé par un groupe d'excellents statisticiens, R est devenu la lingua franca des statistiques et est de plus en
plus utilisé dans le domaine de la psychologie.
- En plus du programme de base R, qui peut être téléchargé gratuitement sur le web, il existe plus de 2000 menus
spécialisés développés pour différentes applications : un nombre croissant de ces menus sont consacrés aux
problèmes d'analyse des données auxquels est confronté le chercheur en différences individuelles
- R est non seulement gratuit mais aussi très puissant, c'est le système statistique de choix pour la recherche sur les
différences individuelles.

5.1. Statistiques de synthèse et problème de la mise à l'échelle

• Le modèle de données le plus simple est la tendance centrale.


- Mais en fonction de propriétés distributionnelles telles que l'asymétrie, les deux estimations les plus courantes
(moyenne et médiane) peuvent donner des valeurs radicalement différentes.
- Prenons le cas du revenu familial aux États-Unis selon le recensement américain de 2008.
- Alors que le revenu familial moyen était de 66 570 $, le revenu médian n'était que de 48 060 $.
- Toute analyse utilisant le revenu comme co-variable doit tenir compte de ses caractéristiques log-normales.
- En plus de proposer des outils graphiques pour détecter une telle asymétrie, R dispose de nombreuses façons de
transformer les données pour produire des données "mieux comportées".

• Les non-linéarités de la relation entre la variable latente d'intérêt et la variable observée peuvent conduire à des
interactions "en éventail" entre la capacité et les manipulations expérimentales (ou juste le temps) qui suggèrent
que les individus ayant des scores initiaux plus élevés changent plus ou moins que les diviseurs ayant des scores
initiaux plus faibles.
- Considérons l'effet hypothétique d'une année de collège sur les performances en écriture et en mathématiques.
- Dans une université, les scores en écriture passent de 31 à 70 pour une augmentation de 39 points, mais dans une
autre, les scores passent de 1 à 7 pour une augmentation de 6 points.
- La plupart des gens interpréteraient cette interaction (un gain de 39 contre un gain de 6 points) comme reflétant soit
la qualité de l'enseignement, soit la qualité et la motivation des étudiants.
- Mais lorsque ces mêmes écoles montrent que les notes en mathématiques de la première université ne s'améliorent
que de 6 points, passant de 93 à 99, alors qu'elles augmentent de 39 points (de 30 à 69) dans l'autre école, elles
interprètent ce changement comme un effet de plafond pour le test de mathématiques.
- Mais cette interaction est exactement la même (bien qu'inversée) que la précédente.
- De telles interactions dues aux propriétés de l'échelle sont également appelées effets de plancher et de plafond qui
peuvent être éliminés avec la transformation monotone appropriée.
- Malheureusement, elles ont tendance à n'être appliquées que si l'interaction va à l'encontre des attentes

Page 10 sur 17
(article à connaître, pas par cœur, mais les différents design expérimentaux)
5.2. Coefficient de corrélation et ses proches parents

• On peut attribuer à Galton le mérite d'avoir fait évoluer


la théorie du coefficient de corrélation dans son article
sur "les corrélations et leur mesure" qui a suivi son
article sur le "coefficient de réversion".
- Bien que la corrélation ait été trouvée à l'origine en
ajustant graphiquement les pentes aux médianes pour
différentes valeurs du prédicteur, Pearson a introduit le
coefficient de corrélation portant son nom en tant
que produit croisé moyen (la covariance) des scores
standard puis Spearman a présenté aux psychologues
la formule en termes de scores de déviation

• C'est l'équation 4 qui est la plus utile pour voir la


relation entre le coefficient de corrélation du produit
de Pearson et un certain nombre d'autres mesures de
corrélation (tableau 1).
- Lorsque les données sont continues, r est connu comme
un r de Pearson.
- Si les données sont exprimées en rangs, il s'agit alors
simplement du rho de Spearman.
- Si X est dichotomique et Y continu, la corrélation qui en résulte est une bi sérielle de point
- Si X et Y sont tous deux dichotomiques, la corrélation est connue sous le nom de Phi (φ).
- Toutes ces mesures utilisent la même formule, bien qu'il existe des raccourcis qui étaient utilisés auparavant.
- Trois coefficients de corrélation additionnels sont énumérés qui, avec l'hypothèse d'une normalité bivariée, sont
équivalents à un r de Pearson.

• Les chercheurs ayant une tendance expérimentale ont tendance à rapporter des estimations statistiques
apparemment différentes de l'effet d'une variable sur une autre.
- Il ne s'agit cependant que de transformations du r de Pearson (tableau 2).
- Certaines recherches constituent des analyses utiles de l'utilisation de ces méthodes et d'autres moyens d'estimation
de la taille de l'effet pour la méta-analyse.

• En appréciant les différentes formes de corrélation, il est possible d'analyser de manière plus appropriée les ensembles
de données traditionnelles et de parvenir à des conclusions importantes.
- En médecine et en psychologie clinique, par exemple, les diagnostics ont tendance à être catégoriques (une personne
est déprimée ou non, une personne a un trouble anxieux ou non).
- La coexistence de ces deux symptômes est appelée comorbidité.
- Les catégories de diagnostic varient dans leur degré de comorbidité avec d'autres catégories de diagnostic.
- Du point de vue de la corrélation, la comorbidité est juste un nom appliqué à une cellule d'un tableau quadruple. Il
est possible d'analyser les taux de comorbidité en considérant la probabilité des diagnostics séparés et la probabilité
du diagnostic commun.
- Cela donne le tableau deux par deux nécessaire pour une corrélation φ
- Par exemple, étant donné les taux de base (proportions) de deux catégories de diagnostics (par exemple, anxiété =
0,2 et dé-pression = 0,15) et leur co-occurrence (comorbidité, par exemple 0,1), il est facile de trouver la corrélation
tétrachorique entre les deux diagnostiques ( 0,75).
- En utilisant ce fait de base, Krueger a converti les comorbidités de divers troubles mentaux en une matrice de
relations tétrachoriques adaptée à l'analyse factorielle et a pu plaider en faveur d'une structure bi-dimensionnelle
(troubles d'internalisation et d'externalisation) pour un large ensemble de troubles de la personnalité.

5.3. R multiple et modèle linéaire général

• Une généralisation simple de la corrélation et de la régression bivariées est le problème des variables prédicteurs
multiples et des relations multiples entre les coefficients.
- Le problème consiste à distinguer l'effet direct d'un prédicteur de l'effet total.
- L'effet total est la corrélation observée, mais l'effet direct supprime l'effet des autres variables prédicteurs corrélées.
- Pour une matrice de données NXn de N observations et n variables prédictrices et une variable critère, y, si chacune
des variables prédictrices (x1 . . . xn ) se rapporte à y avec les corrélations rxy = rx1y ...rxny et que les variables x
sont elles-mêmes en corrélation avec la matrice de corrélation R, alors les valeurs prédites de y (yˆ) sont

Page 11 sur 17
(article à connaître, pas par cœur, mais les différents design expérimentaux)
• Si le prédicteur fixe xi, ... xn ne sont pas corrélés, alors chaque variable séparée fait une
contribution à la variable dépendante, y, et R^2, le montant de l'écart comptabilisé dans y, est
le somme de l'individu riy^2.
- Malheureusement, la plupart des prédicteurs sont corrélés, et les βs trouvés dans l'équation 5 sont inférieurs aux
corrélations initiales et puisque le R^2 sera inférieur au fur et à mesure que les prédicteurs deviennent plus corrélés.
- Un cas intéressant, mais inhabituel, est celui de la suppression où un prédicteur, xs, n'est pas lié au critère, y, mais
est lié aux autres prédicteurs.
- Dans ce cas, xs est toujours utile car il supprime la variance des autres prédicteurs non associés au critère.
- Cela conduit à un problème de recherche intéressant car non seulement nous devons rechercher le prédicteur de notre
variable critère, mais nous devons également rechercher les prédicteurs non liés au critère qui prédisent les
prédicteurs !

• L'ensemble des prédicteurs peut être constitué de n'importe quelle combinaison de variables, y compris les
produits ou les puissances des variables originales.
- Les produits (en particulier lorsqu'ils sont centrés sur la moyenne) représentent les interactions des prédicteurs
- La régression de base, la régression multiple et les affichages graphiques des résidus sont tous disponibles dans R en
utilisant les fonctions lm ou glm.
- Cette dernière considère le cas où la variable (critère) est dichotomique, comme la réussite ou l'échec (régression
logistique), les données sur le nombre de décès, comme le nombre de jours d'absence à l'école ou le nombre de
mariages (Poisson, quasi-Poisson et régression binomiale négative).

5.4. Corrélations erronées

• Bien que considérant le coefficient de corrélation comme peut-être sa plus grande réalisation, Pearson a énuméré un
certain nombre de sources de corrélations fallacieuses.
- Il s'agit d'obstacles à toutes sortes de corrélations, simples ou multiples.
- Parmi celles-ci, on trouve le problème des ratios et des sommes, ainsi que des corrélations induites par le mélange
de différents groupes.
- Pour le premier problème, si deux variables sont exprimées sous forme de ratios d'une troisième variable, elles seront
nécessairement corrélées entre elles.
- Un problème connexe se pose lorsque les scores sont obligés de s'additionner pour former une constante (c'est-à-dire
qu'ils sont ipsatisés).
- Dans ce cas, même k variables non corrélées auront une corrélation de -1/(k-1) si elles sont ipsatisées.
- Comme le montrent Romer & Revelle, l'ipsatisation forcée des cotes de comportement réalisée par Shweder &
D'Andrade a conduit à l'affirmation erronée d'une distorsion systématique de la perception interpersonnelle.

• Si les données sont mises en commun entre les groupes, la corrélation globale peut être très différente de la
corrélation mise en commun au sein d'un groupe.
- Reconnu comme un problème depuis Yule, le paradoxe des Simpsons a été observé lorsque la discrimination
sexuelle dans les admissions a été signalée à l'université de Californie - Berkley
- En 1973, l'UCB a admis environ 44 % des candidats masculins, mais seulement 35 % des femmes.
- Ce qui semble être une évidente discrimination sexuelle dans les admissions a fait l'objet d'un article dans Science
lorsqu'il a été découvert que les différents départements, s'ils étaient discriminatoires, l'étaient en faveur des femmes
- Les femmes postulaient dans les départements qui admettaient moins de candidats en pourcentage des candidats
• L'œil et le cerveau humains sont de superbes détecteurs de modèles.
- L'utilisation d'affichages graphiques plutôt que de tableaux numériques permet de détecter d'étranges relations dans
les données d'une personne qui sont dues à divers artefacts.
- Dans une comparaison de nombreuses procédures statistiques visant à détecter la corrélation sous-jacente en
présence de bruit, l'estimateur le plus efficace (le moins sensible au bruit et le plus sensible à la corrélation sous-
jacente) était les estimations mises en commun d'un ensemble d'étudiants formés à l'examen des diagrammes de
dispersion -> scatter plot

5.5. Qualité des données : fiabilité

• La corrélation entre deux variables est un indice du degré d'association entre la variabilité de l'une et la variabilité
de l'autre.
- Il ne s'agit pas d'un indice de causalité et ne tient pas compte de la qualité de la mesure de l'une ou l'autre variable :
X peut directement causer Y, Y peut directement causer X, ou les deux peuvent être causés par une troisième variable
non observée, Z.
- En outre, les scores observés X et Y ne sont probablement pas des représentations parfaites des constructions que l'on
pense mesurer.
- Si l'on se réfère à l'équation 1, la mesure de X reflète un modèle de X ainsi qu'une erreur de mesure.
- Cette prise de conscience a conduit Spearman à développer les concepts de base de la théorie de la fiabilité.
- Il a été le premier psychologue à reconnaître que les corrélations observées sont atténuées par rapport à la
corrélation réelle si les observations contiennent des erreurs.
Page 12 sur 17
(article à connaître, pas par cœur, mais les différents design expérimentaux)
• Supposons que nous souhaitions voir la correspondance entre une série de valeurs, p, et une autre serie, q.
- Par l'observation pratique, nous n'obtenons évidemment pas les vraies valeurs objectives, p et q, mais seulement des
approximations que nous appellerons p' et q'.
- Il est évident que p' est moins étroitement lié à q' que p à q, car la première paire ne correspond que par
l'intermédiaire de la deuxième paire ; la correspondance réelle entre p et q, rpq, a été "atténuée" en rp′q′

• Pour Spearman, la fiabilité d'un test, p', était la corrélation avec un test identique, p" (un test parallèle).
- Le problème de savoir comment trouver le test de fiabilité a tourmenté les psychométriciens pendant plus de 100 ans
et nous ne pouvons qu'espérer que nous arrivons à une solution

5.5.1. Théorie classique des tests

• Les solutions à la question de la fiabilité dans la théorie classique des tests sont des extensions de la suggestion
originale de Spearman pour les tests parallèles.
- Si elle est estimée avec deux ou plusieurs tests, la fiabilité du composite est fonction du nombre de tests entrant
dans le composite, bien que soutenant que la fiabilité n'est significative qu'au fil du temps, a proposé six façons
différentes d'estimer la fiabilité.
- L'une de ces six (λ3) a été examinée plus tard par Cronbach en tant que coefficient α.
- Bien qu'il soit régulièrement rejeté comme une estimation inappropriée de la fiabilité, α reste l'estimation de la
fiabilité la plus citée.
- Mais α est toujours inférieur ou égal à la véritable fiabilité et est un mauvais moyen d'évaluer l'homogénéité
d'un test.
- Un test peut avoir un α substantiel même si le test mesure deux concepts sans rapport
- Avec l'utilisation de la fonction oméga dans l'ensemble des tests psychologiques, les deux estimations développé par
McDonald, ωh et ωt sont maintenant faciles à calculer.
- ωh (omega hierarchical) est le montant de la variance qu'un facteur général prend en compte dans un test et ωt
est le montant total de la variance fiable dans un test
- ωh ≤ α ≤ ωt et seulement dans le cas d'un test à un seul facteur avec des corrélations d'éléments égaux, ils
seront égaux.

• En plus des mesures de fiabilité évaluées à l'aide de mesures de l'homogénéité d'un test, la fiabilité est également un
sujet de préoccupation lorsque l'on mesure le même caractère deux fois sur une période prolongée.
- Mais cette fiabilité ou stabilité test-retest n'est pas nécessairement bonne pour toutes les mesures.
- Lors de l'évaluation d'une aptitude ou d'un trait de personnalité tel qu'une extraversion, la fiabilité test-retest sur des
périodes prolongées est le signe d'un trait stable.
- La corrélation entre les scores de QI à 11 ans (0,66) et les scores de QI à 80 ans est remarquable et montre la stabilité
du QI.
- Il est important de reconnaître que la fiabilité est une conception d'ordre et que même avec une corrélation test-
retest parfaite, tous les scores auraient pu augmenter ou diminuer de manière drastique.
- Une fiabilité test-retest élevée n'est pas nécessairement une bonne chose : trouver un test-retest élevé d'une mesure de
l'humeur sur quelques jours impliquerait qu'il ne s'agit pas d'un test d'humeur, mais plutôt d'un test d'affectivité de
traits.
- Le fait que les évaluateurs donnent des notes similaires à celles des autres membres d'un jury de sélection est un
signe de fiabilité inter-évaluateurs, dont une mesure globale peut être trouvée en utilisant la corrélation intra-classe

• La corrélation intra-classe exprime la fiabilité des notations en termes de composantes de la variabilité associée
aux évaluateurs, aux cibles et à leurs interactions et peut être étendue à d'autres secteurs.
- En d'autres termes, l'analyse de la variance dans la mesure de la fiabilité se concentre sur les facettes pertinentes
d'un plan d'expérience.
- Si les évaluations sont imbriquées entre les enseignants qui sont imbriqués dans les écoles, et sont données à des
moments différents, alors tous ces termes et leurs interactions sont des sources de variance dans les évaluations.
- Commencez par analyser la variance dans le cadre d'une étude de faisabilité générale afin d'identifier les
composantes de la variance. Ensuite, déterminez quelles sont les composantes de la variance qui sont pertinentes
pour l'application de l'étude de décision dans laquelle on essaie d'utiliser la mesure
- De même, les composantes de la variance associées à des parties d'un test peuvent être analysées en termes de
généralité du test dans son ensemble.

5.5.2. Théorie de la réponse aux items (IRT) : les nouveaux psychométriques.

• La psychométrie classique traite les items comme des répliques aléatoires et modélise le score total.
- En tant que telle, la fiabilité de la mesure est un concept entre personnes qui ne permet pas une spécification
unique de la quantité d'erreur pour chaque individu.
- La fiabilité est renforcée si la variabilité du test augmente et n'a pas de sens pour un seul individu.

Page 13 sur 17
(article à connaître, pas par cœur, mais les différents design expérimentaux)
• La "nouvelle psychométrie", en revanche, contredit l'information contenue dans chaque item et peut donc parler de
la précision de l'estimation d'un score pour une seule personne.
- Les principaux avantages des procédures IRT sont qu'elles permettent d'identifier les items qui ont un
fonctionnement différentiel (DIF) dans différents groupes, que les items du test peuvent être transformés en tests
adaptés à des groupes d'aptitudes spécifiques et que les tests peuvent être rendus adaptatifs.
- Cette capacité à adapter un test à un niveau de difficulté particulier et, plus important encore, à donner des items
qui reflètent des schémas de réponse antérieurs est l'une des grandes forces de l'IRT.
- En effet, grâce à une banque d'items appropriée comprenant de nombreux items, les chercheurs peuvent donner
moins d'items à un sujet particulier pour obtenir le même niveau de précision que celui qui est possible en utilisant
les méthodes de test classiques.
- Les exemples d'utilisation de l'IRT dans les évaluations cliniques vont de la mesure de la facilité de respiration des
patients cardiaques à l'évaluation de la psychopathologie en clinique
- Il y a eu une explosion de manuels sur l'IRT et maintenant, avec R, c'est facile à faire.
- Toutefois, pour contrer une partie de l'enthousiasme suscité par l'IRT, Mc- Donald et Zickar & Broadfoot suggèrent
que la théorie classique des tests est toujours bien vivante et mérite d'être utilisée pour de nombreuses
applications.
- Dans la plupart des cas, les corrélations de l'IRT et des estimations classiques sont très élevées et le principal
avantage de la modélisation de l'IRT est peut-être de réaliser que les réponses observées ne sont pas liées de manière
linéaire au trait latent évalué.

5.6. Utilité des données : Validité

• Qu'un test ou un juge donne la même valeur à une personne au fil du temps, c'est bien, mais le plus important est de
savoir s'ils donnent la bonne réponse.
- Malheureusement, il est beaucoup plus difficile de répondre à cette question qu'à celle de savoir si le test est fiable.
Car quelle est la bonne réponse ? (Tirer une flèche dans la même partie d'une cible est une fiabilité, toucher le centre
de la cible est une validité, mais cela nécessite d'avoir une cible).
- Pour évaluer la validité, il faut disposer d'un critère.
- C'était le principal problème lors de la sélection des espions pour le Bureau des services stratégiques ainsi que la
sélection des volontaires du Corps de la paix, deux classiques de l'évaluation, et tous deux souffrant d'un critère peu
clair.
- Si le critère est flou, la validité sera nécessairement faible.
• En mettant l'accent sur les données en tant que modèle plus le résiduel, on peut dire que la validité est mesurée par
la façon dont le modèle s'adapte, par rapport à d'autres modèles, et par rapport à ce à quoi on pourrait s'attendre par
hasard.
- Nous préférons que les modèles utilisent moins de paramètres et ne soient pas des « entités qui se multiplient au-delà
de la nécessité », ce qui implique qu'il n'y a pas une seule validité, mais plutôt un processus de validation -> rasoir
d'Ockham.
- Un modèle est-il utile ? Un modèle est-il plus utile que d'autres ? Existe-t-il un modèle plus simple qui fonctionne
presque aussi bien ? C'est devenu le domaine de la modélisation des variables latentes.

5.7. Modélisation des variables latentes

• Spearman a reconnu que la variable observée est entachée d'erreur (Equation 2) et que le score latent sous-jacent
(ou non-observé) doit être modélisé lors de la correction des corrélations pour le manque de fiabilité.
- En corrigeant les corrélations, il espère étudier les mécanismes sous-jacents.
- Ce passage de variables observées à des variables latentes a servi de base à l'analyse factorielle et à la recherche
d'un facteur général d'intelligence

5.8. Analyse des facteurs, analyse des composantes, analyse des groupes, échelle multidimensionnelle

• La théorie classique des tests est un modèle de la façon dont les éléments multiples mesurent tous un seul trait
latent.
- En connaissant la variable latente et les corrélations résultantes des items avec cette variable latente, il est possible de
prédire parfaitement les covariances entre les items en prenant le produit des corrélations respectives avec la
variable latente : c'est le modèle connu sous le nom de facteur unique.

• Si tous les éléments d'une matrice de corrélation, R, sont des éléments de la variable
latente, F, alors les corrélations peuvent être modélisées comme
- Où F est un vecteur (une matrice à une dimension) de corrélations des variables avec
le facteur latent, et U^2 est une matrice diagonale de résidus.

• Même en généralisant à plus d'un facteur, l'équation 6 reste la même équation matrice.
- Lorsqu'elle est exprimée en termes de corrélations simples, les éléments de R, deviennent pour
i≠j
Page 14 sur 17
(article à connaître, pas par cœur, mais les différents design expérimentaux)
- C'est-à-dire que la corrélation entre deux variables quelconques est la somme des produits de leurs charges
respectives sur les facteurs c.

• L'équation 6 est exprimée en algèbre matricielle et constitue (avec les techniques de calcul modernes) un problème
très simple.
- Tel qu'il a été développé à l'origine en termes d'opérations sur les tableaux de corrélation (par exemple, l'équation 7),
il s'agissait d'un problème difficile avec un facteur et d'un problème extrêmement difficile avec plus d'un facteur.
- Cependant, avec l'introduction de l'algèbre matricielle chez les psychologues dans les années 1930, Thurstone et
d'autres ont pu exploiter la puissance de l'algèbre matricielle.
- Reconnaître que l'analyse factorielle (AF) n'était qu'un problème d'ajustement de modèle statistique et que la qualité
des statistiques d'ajustement pouvait être appliquée aux solutions qui en résultaient a rendu l'analyse factorielle un
peu plus respectable.
- L'avènement d'ordinateurs puissants et facilement accessibles et l'utilisation d'algorithmes informatiques pour
l'analyse factorielle a conduit à une utilisation beaucoup plus fréquente de cette puissante technique de modélisation.

• L'analyse factorielle modélise les modèles observés de corrélations entre les variables comme la somme des
produits des facteurs.
- Au niveau structurel, il s'agit simplement de résoudre un ensemble d'équations simultanées et (grosso modo) s'il y a
plus de corrélations que de charges factorielles non observées, le modèle est défini.
- Les modèles comportant plus ou moins de facteurs peuvent être comparés en fonction de leur capacité à capturer la
matrice originale de co-variance ou de corrélation.
- Cependant, étant donné que les facteurs sont eux-mêmes non observables, ils ne peuvent être qu’estimés.
- Ainsi, bien qu'ils soient complètement définis au niveau structurel, les facteurs sont indéfinis au niveau des
données.

• Cette indétermination a conduit certains à se prononcer contre l'analyse factorielle et en faveur de l'analyse des
composantes principales (ACP).
- L'ACP forme des sommes linéaires des variables observées afin de maximiser la variance expliquée par les
composantes successives.
- Ces composantes, puisqu'elles sont des sommes linéaires des variables observées, sont entièrement déterminées.
- Mais les composantes, en additionnant les données observées, ne sont pas plus parcimonieuses que les données
originales.
- Si, toutefois, seules les c premières composantes sont extraites, alors elles constituent le meilleur ensemble de c
sommes linéaires indépendantes pour décrire les données.
- Les deux facteurs et composantes ont le même but, à savoir décrire les données originales et la matrice de
corrélation originale.
- L'analyse factorielle modélise les éléments hors diagonale (la partie commune) de la matrice de corrélation, tandis
que les composants modélisent la matrice de corrélation entière.
- Bien que les deux modèles soient conçus de manière très différente et produisent des résultats très différents
lorsqu'on examine la structure de quelques variables (< 20 - 30), ils sont malheureusement souvent confondus, en
particulier par certains des principaux ensembles statistiques commerciaux.
- Les modèles sont différents et ne doivent pas être considérés comme interchangeables.
• L'analyse factorielle exploratoire (AEF) est utilisée pour trouver la structure des matrices de corrélation où les
éléments/tests sont autorisés à corréler librement avec tous les facteurs.
- Les rotations vers une structure simpliste visent à réduire la complexité de la solution et à rendre les résultats plus
facilement interprétables.
- Les facteurs extraits d'une AEF et les composantes extraites d'un ACP sont indépendantes.
- Mais si elles sont transformées pour leur donner une structure simple où chaque élément a une forte corrélation sur
un ou seulement quelques facteurs ou composantes, alors les facteurs/composantes deviendront probablement
corrélés (obliques).
- La meilleure transformation et la meilleure façon de déterminer le nombre optimal de facteurs restent un point de
discussion, bien que les psychométriciens s'accordent presque tous à dire que le nombre de facteurs ayant une valeur
propre supérieure à 1 est la pire règle pour déterminer le nombre de facteurs.
- C'est malheureusement la règle par défaut pour de nombreux programmes commerciaux.
• Un modèle qui utilise une partie de la logique de l'analyse factorielle mais qui diffère de l'EFA est l'analyse par
groupes.
- Les algorithmes de regroupement hiérarchique combinent des paires d'éléments similaires en groupes et les
combinent hiérarchiquement jusqu'à ce que certains critères (par exemple, β ou la pire fiabilité de la moitié de la
division) ne parviennent pas à augmenter.
- L'ICLUST, tel qu'il a été mis en œuvre dans la R, s'est révélé utile pour former des échelles fiables et indépendantes
de manière facile à comprendre

Page 15 sur 17
(article à connaître, pas par cœur, mais les différents design expérimentaux)
• Une autre technique de réduction et de description des données qui peut produire des solutions radicalement
différentes de celles de l'AF ou de l'ACP est la mise à l'échelle multidimensionnelle (MDS).
- La MDS est également une procédure adaptée, mais lorsqu'on travaille avec une matrice de corrélation, plutôt que de
traiter les corrélations comme s'écartant de zéro, la MDS tente de minimiser les écarts des corrélations les unes
par rapport aux autres.
- C'est-à-dire qu'elle ajuste la matrice de corrélation après avoir supprimé la corrélation moyenne.
- Les solutions qui en résultent, en particulier lorsque les données ont un facteur général (par exemple, les tests
d'aptitude), représentent la différence entre les tests et le test moyen, plutôt que la différence entre les corrélations
par rapport à zéro.
- Cela peut être particulièrement utile lors de l'examen de la microstructure d'une batterie de tests fortement corrélés.
5.9. Modélisation des équations structurelles

• La modélisation des équations structurelles (MES) combine les techniques de régression de base avec la
modélisation par analyse factorielle de la mesure des variables
- Il s'agit essentiellement d'une analyse de régression appliquée à la matrice de co-variance.
- Dans la tradition de la modélisation, elle oblige à spécifier un modèle, puis à fournir des estimations statistiques de
l'ajustement qui peuvent être comparées à d'autres modèles.
- La puissance de la MES réside dans le fait que des modèles complexes de croissance du développement ou des
modèles hiérarchiques de capacité peuvent être testés par rapport à d'autres modèles.
- Parmi les exemples appliqués à la mesure de la personnalité, on peut citer une analyse multi-traitements des Big 5.
- Un inconvénient de la facilité d'exécution des programmes de la MES est peut-être que certains utilisateurs sont
induits en erreur quant à la force de leurs résultats.
- En raison de la tendance à dessiner des modèles de cheminement MES avec des flèches directionnelles, certains
utilisateurs des techniques MES croient à tort qu'ils testent des modèles causaux mais en sont désabusés lorsqu'ils
réalisent que les modèles s'adaptent tout aussi bien lorsque la direction "causale" est redirigée.
- D'autres utilisateurs ne réalisent pas qu'un bon ajustement de modèle ne confirme pas un modèle et qu'il est
nécessaire de prendre en compte les ajustements de la multiplicité des modèles alternatifs.

5.10. Modélisation à plusieurs niveaux

• La corrélation au sein des groupes ou des individus n'est pas la même que la corrélation entre les groupes ou les
individus.
- Ce qui semble être une relation forte entre les groupes peut disparaître lorsque l'on considère l'individu au sein des
groupes.
- Ce qui était considéré comme un défi est maintenant traité à l'aide des techniques de modélisation à plusieurs
niveaux.
- L'utilisation de techniques de modélisation à plusieurs niveaux (également connues sous le nom de modèles
linéaires hiérarchiques ou de modèles de coefficient aléatoires à plusieurs niveaux) permet de dissocier les effets
des individus des autres effets de regroupement dans tous les domaines, depuis les études sur les courbes de
croissance du développement jusqu'aux études sur l'efficacité organisationnelle
- La structure claire de l'affect à deux ou trois dimensions, telle qu'elle est évaluée entre les diviseurs, diffère d'un
individu à l'autre en termes de schéma de l'expérience de l'affect au fil du temps au sein des individus.
- Ce qui semble être des effets systématiques de l'ordre de naissance sur l'intelligence disparaît lorsqu'on le modélise
au sein des familles

5.11. Modélisation informatique

• Bien qu'il soit difficile de le dire à la lecture de la plupart des ouvrages de psychologie différentielle, toutes les études
ne sont pas testées par des données analysées à l'aide du modèle linéaire général.
- Certaines théories font des prédictions qui sont mieux testées à l'aide de simulations informatiques.
- Les théories sont testées sur la raison plutôt que sur l'adéquation aux observations du comportement des sujets
vivants.
- La théorie de l'action et son paramétrage sous la forme du modèle Cues-Tendency-Action (CTA) permettent de
prédire un modèle dynamique de comportement qui est une conséquence non linéaire des paramètres initiaux.
- Les modèles connexionnistes de la sensibilité personnelle ou les modèles de calcul des différences individuelles
de sensibilité de renforcement font des prévisions non linéaires similaires qui montrent la capacité de quelques
paramètres de base à produire une grande variabilité dans les résultats prévus.
- La modélisation est une méthode de recherche qui s'est avérée très puissante dans des domaines allant de la
recherche climatique à la biologie évolutive et à la psychologie cognitive.
- Grâce à la facilité d'utilisation des logiciels de modélisation, nous pouvons nous attendre à ce que la modélisation
devienne la méthode de recherche la plus courante en psychologie différentielle.

Page 16 sur 17
(article à connaître, pas par cœur, mais les différents design expérimentaux)
6. Conclusion

• La psychologie différentielle est un domaine d'étude extrêmement vaste.


- Nous avons passé en revue les principaux thèmes de la collecte de données et les méthodes d'analyse des données en
reconnaissant que chaque section mérite un chapitre à part entière.
- Le thème basique est que Données = Modèle + Résidu et le chercheur doit décider ce qui constitue des données, ce
qui est un modèle approprié, et ce qu'il est raisonnable de laisser comme résidu pour que quelqu'un d'autre puisse le
modéliser.
- En termes de collecte de données, nous ne sommes limités que par notre imagination.
- Bien que de grands progrès aient été réalisés depuis Galton et Spearman, les problèmes d'analyse des données restent
les mêmes. Comment modéliser et évaluer des modèles de données.

Page 17 sur 17

Vous aimerez peut-être aussi