Vous êtes sur la page 1sur 88

0

UNIVERSITE CATHOLIQUE DE BUKAVU

FACULTE DES SCIENCES AGRONOMIQUES

Biométrie et Logiciel de traitement des


données

Notes de cours destinées aux étudiants de BAC2 en sciences agronomiques

Mars 2023
1

INTRODUCTION

Face aux différents défis de développement, l‟agriculture a une place essentielle à jouer. Un tel objectif
appelle à un renforcement des capacités nationales et internationales dans la collecte et l‟analyse
d‟informations fiables et actualisées portant sur le secteur agricole. Toutefois, améliorer la qualité des
données, s‟assurer de leur validité ou élaborer un cadre effectif pour leur collecte, analyse et diffusion
sont des difficultés quotidiennes et répétées pour de nombreux chercheurs. Le résultat des échanges et
discussions a montré que l‟organisation des données et leur valeur passent aussi par une meilleure
maîtrise des concepts et principes statistiques. La gestion de la qualité scientifique des activités de
recherche agricole (une des principales missions de l‟université via sa faculté d‟agronomie) passera par
l‟enseignement de la biométrie.

Afin d‟appuyer les étudiants dans la conception, la conduite, l‟exploitation et l‟analyse des résultats des
travaux de recherche et d‟améliorer ainsi la qualité de futures recherches. Ce cours intitulé « Biométrie,
Statistique et Principe d‟expérimentation » est dispensé aux finalistes préparant leurs travaux de fin de
cycle.

Cette formation se présente davantage comme une initiation à la rigueur que nécessite la manipulation
d‟ensembles de données afin d‟utiliser à bon escient les méthodes appropriées pour éviter de faire parler
faussement les chiffres. Les concepts et méthodes statistiques seront abordées au travers de nombreux
exemples que viendront ponctués des exercices à réaliser.

Le cours est maintenant orienté vers certains Logiciels pour encourager les apprenants à utiliser les
NTICs dans la collecte, le nettoyage et l‟analyse des données à la place de la méthode traditionnelle (à la
main i.e calculette analogique, papier et stylo).

0.1. Définition
La statistique est une méthode scientifique qui consiste à réunir des données chiffrées sur des ensembles
nombreux, puis à analyser, à commenter et à critiquer ces données. De plus en plus, beaucoup d‟auteurs
affirment que la statistique est une science ayant pour objet l'étude quantitative de grands ensembles
(Populations), à l'aide de données représentatives (échantillons), le plus souvent incomplètes, et
comportant généralement, de ce fait, un caractère d'incertitude.
Qu‟est-ce que la Biométrie? La biométrie est la mesure et l'analyse statistique des êtres vivants ou
biologiques. Elle est donc la science de la variabilité, des phénomènes qui s’y attachent et des problèmes
qui en découlent. Néanmoins, cette science n‟a pas pour objet la connaissance des éléments des
ensembles dans ce qui fait leur individualité, mais au contraire dans ce qu‟ils ont en commun : il s‟agit
d‟obtenir des résultats globaux. Ainsi, une enquête statistique portant sur des personnes n‟a pas besoin de
faire intervenir leurs noms, mais seulement les renseignements que l‟on désire étudier : elle permet de
connaître la répartition de ces personnes par âge, par sexe, groupe sanguin …

0.2. Méthodes statistiques

Comme dans toute autre branche de la science, la biométrie est basée sur une méthode scientifique
familièrement appelée approche induco-déductive. Toute méthode scientifique passe par la formulation
d‟hypothèses à partir de faits observés, puis par des cycles successifs de déduction et de vérification. Les
faits sont des observations qui sont considérées comme vraies, alors qu‟une hypothèse est une conjecture
provisoire concernant le phénomène à l‟examen. Des déductions sont faites à partir des hypothèses, au
2

moyen d‟arguments logiques qui sont eux-mêmes vérifiés par des méthodes objectives. Le processus de
vérification peut déboucher sur de nouvelles hypothèses, déductions et vérifications s‟enchaînant dans un
long processus au cours duquel émergent des théories, des principes et des lois scientifiques.

1ére étape: On collecte des données :


◊ soit de manière exhaustive (on parle ainsi de recensement lorsqu‟il s‟agit d‟une enquête)
◊ soit par sondage//(échantillonnage).
2 ème étape : On trie les données que l‟on organise en tableaux, diagrammes, et puis on les analyse
3ème étape : On interprète les résultats : on les compare avec ceux déduits de la théorie des probabilités.
On pourra donc par ex.:
⇒ évaluer une grandeur statistique comme la moyenne ou la variance (estimateurs, intervalles de
confiance).
⇒ savoir si deux populations sont comparables (tests d‟hypothèses).
⇒ déterminer si deux grandeurs sont liées et de quelle façon (ex la corrélation, ajustement analytique).
Les conclusions, toujours entachées d'un certain pourcentage d'incertitude, nous permettent alors de
prendre une décision.

0.3. Objectif et mise en pratique

L'objectif est de répondre à des problèmes décisionnels dans un environnement incertain.


Exemples :
-Est ce que la taille des hommes et des femmes est différente en RDC?
-Les variétés exotiques produisent-elles mieux que les variétés locales ?
-Est-ce que l'incidence de la mosaïque africaine du manioc est plus élevée actuellement qu'il y a 20 ans ?
-Y a-t-il une différence entre le niveau de vie des populations urbaines et rurales?
-La dégradation des sols affecte t‟elle qualitativement et quantitativement les rendements des cultures?

De quels éléments dispose-t-on pour répondre à ces différentes questions posées ? En pratique, on ne
dispose que d'un échantillon soumis aux fluctuations pour répondre à ces questions. Il faut donc
apprendre toute la rigueur du processus d‟échantillonnage pour mieux inférer. L‟inférence en biométrie
consiste à généraliser les conclusions de l‟étude statistique faite sur l‟échantillon à la toute la population
concernée par l‟étude (i.e. valider l‟hypothèse nulle ou alternative).

0.4. Objectif du cours

A la fin du cours, les étudiants seront en mesure de maitriser et ou comprendre :


 La conduite de la collecte des données
 L‟analyse de données collectées
 La critique des modèles, l‟interprétation des données et des calculs ainsi que de la décision

Au final, il s‟agira de se familiariser avec et de maîtriser la méthode statistique en vue de décrire, de


résumer et d‟analyser une population ou un ensemble de données. Une initiation à l‟utilisation de
l‟application Kobo dans la collecte des données et des logiciels Genstat, SPSS et/ou R sera notre point de
chute.

0.5. Pré-requis
3

Ce cours est destiné en priorité non seulement aux étudiants ayant déjà eu dans leur cursus académique un
cours de statistique descriptive, mais aussi à un public ayant une formation de base en statistique et
cependant confronté de façon récurrente à la manipulation et à l‟analyse de séries de données. Aucun
autre pré-requis n‟est exigé si ce n‟est la connaissance des opérations mathématiques de base. Pour mieux
conduire l‟initiation aux logiciels cités, la maîtrise de base du tableur Excel est supposée acquise. Après,
la Volonté, curiosité et ténacité des apprenants permettront de maîtriser sans encombre les notions
abordés qui, malgré leur complexité apparente, demeurent relativement simples.

0.6. Vocabulaire
Comme toute science, la statistique fait appel à un vocabulaire spécialisé. Ainsi, les ensembles sont
appelés populations. Comme un ensemble, une population statistique doit être clairement définie. Les
éléments de la population sont appelés individus ou unités statistiques, (que ce soient des hommes ou des
automobiles).

Population
Contrairement à ce qui se dit souvent comme quoi la population est un grand nombre de personnes
habitant une région, en statistique ce mot a une signification plus large. Une population est la totalité
des unités de n‟importe quel genre pris en considération par les statisticiens. Ex : Des arbres, des
hommes, des fermes, des comptes, des champignons, des étangs, des voitures…

Une population peut être finie ou infinie selon la détermination du nombre d‟unités qu‟elle renferme.
Ainsi par exemple, on peut considérer la population des insectes d‟une espèce donnée dans une région
donnée comme une population infinie non seulement parce que les individus en sont difficilement
dénombrable mais aussi parce que les mouvements de la population peuvent être beaucoup plus rapides.
La partie de la population qui est réellement observée constitue l’échantillon.

Échantillon
 Sous-ensemble d‟une population sur laquelle on effectue une étude statistique
 Son étude vise généralement à tirer des conclusions relatives à la population dont il est issu
Donc l‟échantillon est un sous ensemble de la population étudiée. On décrit un échantillon, autant qu‟une
population d‟ailleurs, à l‟aide des mesures comme l‟effectif (n), la moyenne (Ẍ), l‟écart- type, le
pourcentage,…

Les mesures qu‟on utilise pour décrire une population sont appelées paramètres tandis que celles
utilisées pour l‟échantillon s‟appellent statistiques. Sachant que l‟échantillon sert à estimer une
population, on peut par analogie dire que les statistiques servent d‟estimateurs d‟un paramètre.

Tableau : résumé de quelques paramètres (statistiques)


Paramètres/Statistiques Population Echantillon
Moyenne µ Ẍ
Ecart-type ζ s
Pourcentage Π Ẍ
p
Taille N n

Échantillon représentatif
 S‟il possède les mêmes caractéristiques que la population que l‟on souhaite étudier.
 Cette représentativité doit surtout se faire sur les caractéristiques pouvant influencer les réponses.
4

 Faute de représentativité, les résultats obtenus sur un échantillon ne peuvent être généralisés à la
population étudiée.

Échantillonnage
 Ensemble des opérations destinées à former l‟échantillon

Théorie de l’échantillonnage
Etude des liaisons existant entre une population et les échantillons de cette population, prélevés par
sondage.

Méthodes d’échantillonnage
Ensemble des techniques permettant de réaliser un sondage (de prélever un échantillon de données) au
sein d‟une population, de manière à reproduire un échantillon aussi représentatif que possible de cette
population.

Statistique descriptive :
 Ensemble de procédures permettant de représenter les données traitées sous une forme utilisable et
significative
o Représentations graphiques
o Ensemble de descripteurs résumant (d'une certaine façon) les données de bases (moyenne,
écart type, coefficient de corrélation, etc.)
 Ensemble de méthodes d'analyse des données

Statistique inférentielle :
 Statistique inférentielle = statistique déductive
 Complémentaire à la statistique descriptive
 Permet d'estimer un certain nombre de paramètres caractérisant la population associée à partir de
l'échantillon étudié
 Principe :
o Hypothèses formulées sur les paramètres d'une population
o Hypothèses ensuite testées sur la base d'observations faites sur un échantillon représentatif
de la population.
Inférence
 L'inférence est un raisonnement par induction que l'on fait à partir d'informations récoltées sur un
échantillon afin de les généraliser à la population associée à cet échantillon

0.7. Notion de variable


La population est étudiée selon un ou plusieurs caractères. Un caractère (on lui donne souvent le nom de
variable statistique) permet de déterminer une partition de la population selon diverses modalités. Ainsi le
sexe est une variable à deux modalités : masculin et féminin. On peut vouloir étudier la différence entre
les fleurs mâles ou femelles. Lorsque les modalités d‟une variable sont des nombres, la variable est dite
quantitative. Une variable statistique peut être discrète si elle ne prend que des valeurs isolées ou continue
si elle peut prendre n‟importe quelle valeur intermédiaire entre deux valeurs données.
Lorsque les modalités d‟une variable ne sont pas mesurables, la variable est dite qualitative. On distingue
les variables qualitatives ordinales (variable dont les modalités sont ordonnées) de variables qualitatives
nominales (modalités sans ordre à priori) et des variables binomiales (variables avec 2 modalités
seulement).
5

NB : La maitrise de cette notion de variable est nécessaire. Souvent la nature des variables donnent des indications
claires du choix des tests à utiliser.
Et qu‟est-ce qu‟un test statistique ? En Biométrie, un test statistique est une procédure de décision entre deux
hypothèses. Il s'agit d'une démarche consistant à rejeter ou à ne pas rejeter une hypothèse statistique, appelée
hypothèse nulle, en fonction d'un jeu de données (échantillon).

0.8. Subdivision du cours


Après le rappel de quelques notions fondamentales apprises en « statistiques descriptive » en 1ère année, le
cours est organisé en 2 parties. La 1ere partie « l‟inférence statistique » est l‟essentiel de ce cours et
comprend les points ci-après hormis cette brève introduction :
 Méthodes d‟échantillonnage et détermination de la taille de l‟échantillon
 Tests d‟hypothèses: z, t de student, chi-deux et la puissance des tests
 Analyse de la variance (anova) à 1, 2 et plusieurs critères de classification ainsi que les tests
ad-hoc d‟anova.
 Régression linéaire simple et multiples
 Analyse multi variée (acp, acm et classification)
 Exercices
eme
La 2 partie intitulé principes d‟expérimentation donne les plan d‟expériences et les analyses statistiques
y relatives. Elle comprend les points ci-après :
 Introduction
 Quelques principes de l'expérimentation agronomique
 Dispositifs expérimentaux classiques
 Regroupement d'essais

Chap1. MÉTHODES D’ÉCHANTILLONNAGE ET DÉTERMINATION DE LA TAILLE DE


L’ÉCHANTILLON

1.1. Rappel de quelques notions préliminaires

Avant de présenter les méthodes d‟échantillonnage et la méthode de détermination de l‟échantillon, il est


essentiel de se rappeler de 2 notions de base : celle de population et celle d‟échantillon.

Population : « c‟est l‟ensemble de tous les individus, objets, unités statistiques qui composent cette
population ». Une population comprend tous les sujets ou objets d‟un groupe défini au départ par le
chercheur et qui ne se rapporte pas nécessairement à la totalité des sujets ou objets :

 les sujets peuvent être des groupes ou des catégories sociales comme les personnes âgées à la
retraite, les ménages sous le seuil de la pauvreté, les exploitants agricoles, les groupes ethniques
etc.
 les objets peuvent être des manufactures, des entreprises, des exploitations agricoles, des
habitations à loyer modique, etc.
 les unités statistiques peuvent être des provinces congolaises, des municipalités, des districts, des
territoires, etc.
 en géographie, on parle de population géographique : elle est un groupe de personnes ou d‟objets
ayant une ou plusieurs caractéristiques géographiques communes ; par exemple, on peut
considérer les provinces congolaises comme étant une population géographique dans laquelle il y
a un nombre fini d‟individus.

Échantillon : c’est un groupe relativement petit et choisi scientifiquement de manière à représenter le plus
fidèlement possible une population. Ainsi, au lieu d‟examiner l‟ensemble de la population, on étudie une
6

partie ou un sous-ensemble de cette population qui est représentatif et à partir duquel on peut tirer des
conclusions pour l‟ensemble de cette population.

La statistique inférentielle permet, à l’aide des probabilités, de généraliser les conclusions issues d’un
échantillon pour l’ensemble de la population avec un certain degré de certitude.

Deux types d‟échantillons peuvent être distingués : les échantillons non-probabilistes et les échantillons
probabilistes.

1. Les échantillons non-probabilistes : Les individus (sujets ou objets) sont choisis selon une
procédure pour laquelle la sélection n‟est pas aléatoire. Ce type d‟échantillon pose
plusieurs problèmes inférentiels comme nous le verrons un peu plus loin.
2. Les échantillons probabilistes : Dans ce cas, les individus (sujets ou objets) sont choisis selon
une procédure où la sélection est aléatoire.

Deux règles sont à respecter dans les procédures d‟échantillonnage :

 la base d’échantillonnage doit inclure tous les individus (toutes les entités) i.e. les sujets ou les
objets ou les unités spatiales à partir desquels le choix des individus sera fait;
 les individus doivent être sélectionnés par une procédure d’échantillonnage indépendante et
aléatoire à l‟aide par exemple d‟une table de nombres aléatoires.

1. 2.Types de données

Nous savons déjà que la source des données (expérimentation, enquête ou simulation). Pour ce qui est de
l‟enquête, il existe plusieurs façons de collecter les données, les chercheurs ont principalement recours à
trois grands types de méthodes: les recensements, les enquêtes-échantillon et les données administratives.
Chacun présente à la fois des avantages et des inconvénients qui seront présentés dans cette section.
Ensuite, d‟autres méthodes alternatives seront décrites.

a)Recensement
En général, un recensement fait référence à une collecte de données auprès de chaque unité d‟un groupe
ou d‟une population. Si vous aviez recueilli des données sur la taille de tous les élèves de votre classe, ce
serait un recensement de votre classe. Les recensements sont souvent utilisés non seulement pour
collecter des données à propos des unités d‟une population, mais également pour les lister et les
dénombrer. Si vous vouliez savoir combien de personnes habitent dans votre rue, vous auriez besoin de
faire une liste de tous les logements dans votre rue et ensuite la liste de toutes les personnes qui habitent
dans chacun des logements. Ce faisant, vous pourriez décider de collecter d‟autres informations comme
l‟âge, le sexe et la langue maternelle. Ceci vous permettrait de compter le nombre d‟hommes, de femmes
et d‟enfants qui habitent votre rue. Donc un recensement serait une manière directe de dénombrer le
nombre d‟unités et de produire des statistiques sur différentes caractéristiques.

Voici quelques avantages et désavantages d‟utiliser un recensement :

Avantages :

-Pas de variabilité échantillonnale : Il n'y a pas de variabilité échantillonnale attribuée aux statistiques
issues d‟un recensement parce qu'elles sont calculées à partir de données sur la population entière.

-Fin niveau de détail : Avec un recensement, vous seriez capable de produire des statistiques pour des
petits sous-groupes de la population, pourvu que vous ayez collecté les bonnes variables de classification.
7

-Estimation directe des comptes : Le recensement permet une estimation directe des comptes de
population, bien que des ajustements puissent être considérés pour les unités qui n‟ont pas pu être
rejointes.

Inconvénients :

-Coût élevé : La tenue d'un recensement peut être dispendieuse si la population visée est grande.

-Actualité : Un recensement prend plus de temps à réaliser qu'une enquête-échantillon ce qui signifie un
plus grand délai entre la date référence et la diffusion des résultats.

-Fardeau de réponse élevé : Il faut avoir de l'information sur chacun des membres de la population
visée.

-Moins de contrôle sur la qualité : Si la taille de la population est beaucoup plus grande que celle d‟une
enquête-échantillon et que les ressources sont limitées, il se peut que des compromis soient nécessaires
sur le plan du contrôle de la qualité. Par exemple, peut-être qu‟une partie seulement des non-répondants
pourront être rejoints dans le cadre du suivi des cas pour la non-réponse.

-Information moins détaillée : Étant donné les coûts, le fardeau de réponse et l‟ampleur des activités
nécessaires pour conduire un recensement dans une grande population, les variables mesurées sont parfois
limitées à une courte liste de variables d‟identification et de classification.

b) Enquête-échantillon

Une enquête peut être n‟importe quelle activité de collecte d‟information organisée et méthodique à
propos des caractéristiques des unités d‟une population. À Statistique Canada, les enquêtes utilisent des
concepts bien définis ainsi que des méthodes éprouvées qui seront décrites dans la troisième section de ce
document. Un recensement peut être considéré comme un type d‟enquête, mais le mot enquête est le plus
souvent utilisé pour faire référence à une enquête-échantillon, c‟est-à-dire une enquête où les données
sont collectées seulement pour certaines unités d‟une population visée. Si vous obtenez la taille de 10
élèves d‟une classe de 30 élèves, vous aurez utilisé une enquête-échantillon de votre classe plutôt qu‟un
recensement.

Voici les avantages et désavantages d‟utiliser une enquête-échantillon au lieu d‟un recensement.

Avantages :

Coût plus bas : Une enquête-échantillon est moins coûteuse qu'un recensement puisque les données sont
recueillies auprès d'une partie seulement d'un groupe de la population.

Résultats plus rapides : On obtient des résultats bien plus rapidement que dans un recensement, car il y
a moins d‟unités à rejoindre et il y a moins de données à traiter.

Fardeau de réponse moins élevé : Moins de gens doivent répondre au questionnaire d'une enquête-
échantillon.

Plus de contrôle sur la qualité : La plus petite envergure des activités facilite la gestion et le contrôle de
la qualité.

Inconvénients :
8

Variabilité échantillonnale : Si vous sélectionnez plusieurs échantillons d‟une même population et


calculez des statistiques sur chacun de ces échantillons, les résultats seront un peu différents d‟un
échantillon à l‟autre. Il faut tenir compte de cette source d‟incertitude lors de l‟estimation des statistiques
tirées d‟une enquête-échantillon.

Statistiques à un niveau moins détaillé : Il pourrait être impossible de produire des statistiques pour des
petites sous-populations ou régions géographiques si elles ne sont pas suffisamment représentées dans
l‟échantillon.

c) Données administratives

Les données administratives sont collectées par des organismes dans le cadre de leurs opérations
quotidiennes. Ces données portent, par exemple, sur les naissances, les décès, les impôts, les
immatriculations de véhicules automobiles ou les transactions. Ces données administratives peuvent être
utilisées plus tard à titre de substitut ou en soutien à une enquête-échantillon ou un recensement.

Voici les avantages et désavantages d‟utiliser des données administratives plutôt qu‟un recensement ou
une enquête-échantillon :

Avantages :

Coût plus bas : Les données administratives sont moins dispendieuses à utiliser, car il n‟y a pas
d‟opération de collecte.

Pas de variabilité échantillonnale : Il n'y a pas de variabilité échantillonnale attribuée aux statistiques
parce qu'elles sont calculées à partir de données sur des groupes entiers de la population.

Séries chronologiques : La collecte de données est continue, d'où la possibilité d'analyser les tendances.

Pas de fardeau de réponse : Il n'y a pas de fardeau additionnel pour les répondants puisque les données
sont déjà recueillies.

Fin niveau de détail : Avec les données administratives, vous seriez capable de produire des statistiques
pour de petits sous-groupes de la population ou des petites unités géographiques, tant que vous disposez
des bonnes variables de classification et que les sous-groupes ont une bonne couverture (c‟est-à-dire que
la plupart des unités appartenant à ces sous-groupes sont présentes dans le fichier).

Inconvénients :

Manque de souplesse : À la différence des données d'enquête, l‟utilisateur des données a peu de contrôle
sur le choix des variables qui sont collectées. Celles-ci peuvent dans certains cas se limiter à quelques
renseignements administratifs essentiels.

Manque d’exhaustivité : Les données se limitent à la population figurant dans les dossiers
administratifs. Cette population est souvent différente de la population cible. Plusieurs sources de
surdénombrement et de sous-dénombrement sont possibles.

Comparabilité au fil du temps : Les définitions sont conçues à des fins précises et elles évoluent au fil
du temps. Ceci peut nuire à la comparabilité si on souhaite étudier des tendances.

Concepts et définitions : Les définitions sont établies par ceux qui conçoivent et gèrent le dossier selon
leurs besoins et ces définitions peuvent ne pas être pertinentes dans un autre contexte.
9

Qualité des données : La qualité des données peut varier d‟un fournisseur de données à l‟autre, car ils
n‟accordent pas tous la même importance aux différentes dimensions de la qualité.

Éthique : Avec les recensements et les enquêtes-échantillon, les répondants sont conscients des données
qui sont collectées. Ils consentent à ce que ces données soient utilisées puisque la vaste majorité des
enquêtes sont faites sur une base volontaire. Avec les données administratives, il serait difficile
d‟informer chaque personne et d‟obtenir son consentement. Ceci implique que les individus et les
organisations qui utilisent les données administratives pour produire de l‟information statistique ont une
grande responsabilité de s‟assurer que les données sont utilisées d‟une manière bénéfique pour la société
et que l‟éthique des données a été considérée à toutes les étapes du processus.

d) Sources de données alternatives

Ces sources de données sont de plus en plus utilisées dans la production d‟information statistique pour
remplacer ou compléter les méthodes traditionnelles.

L’approche participative consiste à recueillir des renseignements provenant d‟une vaste communauté
d‟utilisateurs et repose sur le principe selon lequel chaque citoyen est un expert dans son milieu.
Importante lorsqu‟une information estt difficile à collecter par une enquête-échantillon traditionnelle.

Le moissonnage du web est un processus par lequel des renseignements sont recueillis et copiés à partir
du web aux fins d‟analyses ultérieures. Comme pour les données administratives, les utilisateurs des
données moissonnées ont une responsabilité accrue de s‟assurer de l‟éthique des données collectées et de
suivre les meilleures pratiques pour éviter de collecter des informations personnelles par inadvertance.

La télédétection est l‟acquisition à distance de renseignements à propos d‟un objet ou d‟un phénomène.

1.3. L’échantillon et les composantes d’un plan de sondage

1.3.1. Qu’est-ce qu’un bon échantillon ?

Un bon échantillon est un échantillon qui représente le plus fidèlement possible la population retenue.
Statistiquement, c‟est un échantillon ayant le niveau de confiance le plus élevé et l‟intervalle de confiance
le plus petit.

C‟est à l‟aide de techniques ou de procédures d‟échantillonnage que l‟on peut construire un échantillon. Il
existe différentes techniques d‟échantillonnage, mais toutes ne sont pas nécessairement efficaces et
précises.

Trois grandes catégories de technique d‟échantillonnage peuvent être reconnues :

• les procédures d’échantillonnage non-probabilistes : elles sont basées sur le principe d‟un choix non-
aléatoire. De ce fait, il n‟est pas possible de constituer un échantillon représentatif de la population car on
ne peut estimer la représentativité de l‟échantillon. Les techniques par quota, volontaires ou à
l‟aveuglette, en sont des exemples. Malgré ces limites, ces procédures peuvent être très utiles dans le cas
par exemple d‟une recherche de type exploratoire où le chercheur désire étudier :
 les diverses dimensions d‟une question ou d‟un problème nouveau ;
 ou bien interviewer des personnes-ressources (informateurs-clé) pour se documenter sur une
question ; celles-ci sont choisies en fonction de leurs connaissances, de leur expérience, de leur
statut social ou encore de leur rôle dans la communauté, etc. ;
10

 ou bien interviewer quelques répondants afin d‟entreprendre un examen en profondeur d‟un sujet
défini précisément ;
 ou bien choisir volontairement quelques unités statistiques pour des raisons techniques et
financières ;

• les procédures d’échantillonnage probabilistes : elles impliquent que tous les individus (sujets ou
objets) ont une chance d‟être choisis ou sélectionnés. On peut dans ce cas estimer la représentativité de
l‟échantillon i.e. mesurer l‟écart entre l‟échantillon et la population. Il existe plusieurs méthodes
d‟échantillonnage probabilistes dont les plus connues sont :
 la méthode d‟échantillonnage aléatoire simple,
 la méthode d‟échantillonnage aléatoire systématique,
 la méthode d‟échantillonnage stratifié,
 la méthode d‟échantillonnage aléatoire par groupes,
 la méthode d‟échantillonnage aléatoire à plusieurs degrés.

Ces méthodes sont plus rigoureuses et plus fiables car elles permettent l‟inférence statistique.

• les procédures d’échantillonnage spatial probabilistes : se rapprochent et même ressemblent beaucoup


aux méthodes d‟échantillonnage probabilistes. La seule différence réside dans une stratégie orientée vers
la dimension spatiale.

1.3.2. Composantes d’un plan de sondage

Peu importe la méthode d‟échantillonnage choisie ; il faut préparer un plan d‟échantillonnage consistant à
décrire d‟une façon précise la population, la base de sondage, les unités d’enquête, la taille de
l’échantillon et la méthode d’échantillonnage.

a) La base de sondage : c‟est le support permettant le choix des entités de l‟échantillon. Elle contient la
liste des individus (sujets ou objets ou encore des unités spatiales) de la population à l‟étude. Cette base
rassemble donc une liste des éléments de la population étudiée inscrite sur bande magnétique, sur
disquette, sur CD, sur papier, sur des images satellitaires ou autres supports.

Le choix de la base de sondage mérite réflexion : il faut en trouver une qui soit adaptée et conforme à la
population étudiée (ou population-cible). En effet, le choix de la base de sondage peut poser quelques
problèmes dont :
 le sous-dénombrement lorsqu‟il y a l‟absence d‟entités dans la liste à cause d‟omissions ou d‟une
mise à jour incomplète de cette liste, etc.
 le sur-dénombrement lorsque la liste n‟est pas à jour du fait du double comptage ou de répétitions,
etc.

b) Les unités d‟enquête (individus ou unités statistiques): elles correspondent aux unités
d‟échantillonnage qui dépendent de la nature de l‟enquête. Il peut s‟agir des logements d‟une ville,
d‟exploitations agricoles, de magasins d‟un centre commercial, etc.

NB : Cependant, il faut distinguer l‟unité d‟échantillonnage de l‟unité d‟analyse car il n‟y a pas
nécessairement correspondance entre les deux :

« La situation où l’unité d’échantillonnage peut ne pas correspondre à l’unité d’analyse pourrait


notamment se présenter dans les enquêtes auprès de ménages. En effet, l’unité choisie pourrait être le
logement, et l’unité d’analyse, les personnes et les familles ».

1.2.3. Les méthodes d’échantillonnage


11

On peut avoir recours à plusieurs méthodes d‟échantillonnage que l‟on regroupe en trois catégories :
 les méthodes d‟échantillonnage non-probabilistes,
 les méthodes d‟échantillonnage probabilistes,
 les méthodes d‟échantillonnage spatial probabilistes.

1.3.3.1 Les méthodes d’échantillonnage non-probabilistes

Ce sont des méthodes où la sélection des entités est tout à fait subjective et motivée par des raisons
précises. À ce titre, on ne peut pas estimer ou calculer une marge d‟erreur sur les résultats car il est
impossible de mesurer la représentativité de l‟échantillon. Les entités sont choisies arbitrairement. C’est
l’enquêteur qui choisit les unités et non le hasard. En ce sens, il serait donc aventureux de généraliser les
résultats obtenus pour l’échantillon à toute la population.

« Because of the subjective nature of the selection process, non probability samples add uncertainty when
the sample is used to represent the population as a whole »

Elles sont souvent utiles et constituent même parfois les seules méthodes disponibles et applicables. Elles
le sont par exemple pour des études ou des recherches exploratoires, des études-pilotes.

Exemple : un chercheur pourrait interviewer des experts ou des personnes-ressources sur le terrain
plutôt que d‟entreprendre immédiatement une enquête auprès de répondants émanant d‟un
échantillon aléatoire. Elles sont également utiles pour des études comparatives, des études de cas
ou des recherches impliquant un nombre limité de sujets, d‟objets ou d‟unités spatiales.

De plus, il s’agit de méthodes pratiques quand le temps et les ressources sont limités. Cependant, elles
comportent plusieurs défauts dont la nature subjective de la démarche :

« The weakness of all nonprobability methods is that no such theoretical development is possible; as a
consequence, non probability samples can be assessed only by subjective evaluation »

Parmi les méthodes les plus couramment utilisées, on retiendra :

– L’échantillonnage à l’aveuglette
Cette méthode non-probabiliste est tout à fait subjective : l‟enquêteur choisit ses répondants sur les lieux
de l‟enquête et cette sélection se poursuit jusqu‟à la taille de l‟échantillon prévue. Ainsi, les individus
sont-ils choisis sur la base de leur présence en un lieu et un temps donné. Tous les autres sont exclus de
l‟échantillon. Cette méthode comporte des biais importants car d‟une part une partie de la population-
cible est exclue si elle ne se trouve pas sur le lieu de l‟enquête et, d‟autre part, la probabilité de sélection
des cas est impossible à calculer. Cette méthode est efficace si la population étudiée est homogène.
– L’échantillonnage de volontaires
L‟échantillon est constitué de personnes volontaires suite à une sollicitation ou une invitation de la part du
chercheur.
– L’échantillonnage par quotas
Le principe de cette méthode est de reproduire le plus fidèlement la population étudiée. Le chercheur
choisit les individus en fonction de certaines caractéristiques de la population qu‟on appelle variables de
contrôle (par exemple, selon la composition démographique, les profils de revenus, etc.). Il faut d‟abord
choisir ces variables qui serviront pour la sélection ultérieure des individus de l‟échantillon. Cela suppose
qu‟un certain nombre de données statistiques de la population soient connues. Ces groupes sont constitués
en fonction du lieu géographique, de l‟âge, du sexe, du revenu, etc. :

« Les quotas sont souvent établis de façon à être sensiblement proportionnels à la fraction de la
population représentée par chaque groupe »
12

Reste ensuite à préparer un plan d‟échantillonnage au sein duquel le nombre de cas est prévu, conforme
ou correspondant aux variables de contrôle. Puis, chaque enquêteur est libre d‟interviewer les personnes à
la condition de répondre aux quotas fixés.

Bref : Lorsque le chercheur veut reproduire les caractéristiques d’une population (ex. âge, sexe, revenus, variétés, etc.)
dans son échantillon.

– L’échantillonnage par boules de neige


Cette méthode s‟avère utile lorsque le chercheur éprouve des difficultés à trouver les sujets de l‟enquête
parce qu‟ils constituent une population minoritaire ou une catégorie sociale bien précise. Elle est basée
sur le principe des contacts personnels ou professionnels permettant de retracer les sujets recherchés. En
d‟autres mots, il s‟agit de constituer un réseau permettant de trouver les répondants au fur et à mesure de
la progression de l‟enquête.

Par exemple, entreprendre une enquête auprès de personnes âgées demeurant à leur domicile dans un
quartier précis ne peut être menée à bien à partir de l‟annuaire téléphonique car les informations ne
figurent pas dans un tel document. Il faut plutôt passer par des associations de personnes âgées du quartier
pour retracer et localiser ces personnes âgées à leur domicile.

Bref : Utile dans le cas de la rareté des unités d’échantillonnage ou de l’absence d’un cadre
d’échantillonnage valide. On demande à un répondant de nous référer à un autre qui présente les mêmes
caractéristiques que les siennes, et ainsi de suite…

1.3.3.2. Les méthodes d’échantillonnage probabilistes

Dans les méthodes probabilistes, le choix des sujets, objets ou unités spatiales, s‟effectue souvent à partir
d‟une table de nombres aléatoires. Généralement, deux règles de base sont à respecter dans les procédures
d‟échantillonnage :

o la base d‟échantillonnage doit inclure toutes les entités à partir desquelles le choix des
individus, objets ou unités spatiales sera fait ;
o les entités devraient être sélectionnées à partir d‟une procédure d‟échantillonnage aléatoire
indépendant.

Un des avantages des méthodes probabilistes est que l‟on peut faire de l‟inférence statistique i.e.
généraliser les conclusions issues d‟un échantillon pour l‟ensemble de la population. Les méthodes non-
probabilistes ne sont pas dénuées d‟intérêt pour autant. Au contraire, elles sont utiles quand, d‟une part, la
représentativité de l‟échantillon n‟est pas importante et, d‟autre part, lorsque que le chercheur veut
explorer ou étudier une question peu documentée. Les méthodes non-probabilistes sont souvent
complémentaires des méthodes probabilistes, entre autre, dans la conception d‟une recherche. Mais d‟une
façon générale, le choix de la méthode se fait à partir des considérations suivantes :

« The cost of using a sampling method is a combination of the cost of collecting the measurements, and
of the frame; the time taken is similarly a combination of the time spent in the field and the time spent
before hand obtaining the frame and drawing the sample. It is these costs and the time limits, as well as
constraints at the analysis stage, which will largely determine the sample size and the methods which are
feasible ».

Les méthodes d‟échantillonnage probabilistes sont multiples :

– L’échantillonnage aléatoire simple


La méthode d‟échantillonnage la plus aisée est celle de l‟échantillonnage aléatoire simple. Elle peut
s‟interpréter comme étant la base des méthodes d‟échantillonnage plus sophistiquées. Les objets, les
13

sujets ou les unités spatiales sont choisis d’une façon aléatoire souvent à l’aide d’une table de nombres
aléatoires. Plus souvent, il s‟agit d‟un échantillonnage sans remise i.e. qu‟un sujet ou un objet ne peut
être choisi qu‟une seule fois tandis que dans un échantillonnage avec remise le sujet ou l‟objet peut être
choisi plus d‟une fois. Le principal avantage réside dans le fait que chacune des entités a la même chance
d‟être choisie dans l‟échantillon :

« In a simple random sample (SRS), each sampling unit and every possible combination of sampling units
has an equal chance of selection ».

Il est souhaitable que la base de sondage soit complète, à jour et sans répétition (ou dédoublement).
Toutefois, le choix des entités peut, malgré toutes les précautions, amener certains biais entre autres à
cause de la base d‟échantillonnage elle-même. En revanche, on peut calculer l‟erreur d‟échantillonnage
(E) i.e. la différence entre les caractéristiques de l‟échantillon et celles de la population (p. ex. la
moyenne, l‟écart-type...).

– L’échantillonnage aléatoire systématique


Dans certaines situations, spécialement lorsque les populations sont importantes, il est
coûteux (en temps) de sélectionner un échantillon aléatoire simple en trouvant tout d‟abord un nombre
aléatoire et ensuite en cherchant dans la liste de la population l‟élément correspondant.
Une alternative de l‟échantillonnage aléatoire simple est l’échantillonnage systématique. Par
exemple, si l‟on souhaite sélectionner un échantillon de taille 50 parmi une population
contenant 5000 éléments, cela revient à sélectionner un élément tous les (5000/50) = 100
éléments de la population. Constituer un échantillon systématique dans ce cas consiste à
sélectionner aléatoirement un élément parmi les 100 premiers de la liste de la population. Les
autres éléments de l‟échantillon sont identifiés de la façon suivante : le second élément
sélectionné correspond au 100e élément qui suit le premier élément sélectionné dans la liste de la
population, le troisième élément sélectionné correspond au 100e élément qui suit le deuxième élément
sélectionné dans la liste de la population, et ainsi de suite. En fait, l‟échantillon de taille 50 est identifié en
se déplaçant systématiquement dans la population et en identifiant les 100e, 200e, 300e …etc. éléments
qui suivent le premier élément choisi aléatoirement. L‟échantillon de taille 50 est généralement plus facile
à identifier de cette manière qu‟en utilisant l‟échantillonnage aléatoire simple. Puisque le premier élément
sélectionné l‟est aléatoirement, un échantillon systématique est généralement supposé avoir les propriétés
d‟un échantillon aléatoire simple, cette hypothèse est particulièrement appropriée lorsque la liste de la
population est une énumération aléatoire des éléments de la population

Cette méthode est efficace pour s‟assurer d‟une bonne couverture de la base d‟échantillonnage.
L‟échantillonnage aléatoire systématique est simple et comporte les étapes suivantes :

• on calcule d‟abord le taux de sondage ou la fraction d‟échantillonnage : n/N


d‟où : n = taille de l‟échantillon
N = population
k = fraction d‟échantillonnage
Si n = 10 et N = 1 000 alors, k= 10/1 000 = 1/100

L‟intervalle d‟échantillonnage est égal à l‟inverse de N/n : soit une entité sur 100 entités.

Puis, on choisit au hasard un nombre entre 1 et 100 i.e. un point de départ aléatoire afin de commencer
l‟échantillonnage. Ce nombre peut être choisi à l‟aide d‟une table de nombres aléatoires. Si le nombre est
le 72, alors c‟est l‟objet, le sujet ou l‟unité spatiale au 72 e rang qui sera choisi dans la liste
d‟échantillonnage. C‟est non seulement le point de départ aléatoire mais la première entité retenue pour
l‟échantillon.
14

Pour le choix des autres entités, on ajoute au point de départ aléatoire l‟inverse du taux de sondage (1/k)
soit dans notre exemple le chiffre 100 et ainsi de suite. On obtient les chiffres suivants pour un échantillon
de taille (n) 10.
1. 72
2. 72 + 100 = 172
3. 172 + 100 = 272
4. 272 + 100 = 372
5. 372 + 100 = 472
6. 472 + 100 = 572
7. 572 + 100 = 672
8. 672 + 100 = 772
9. 772 + 100 = 872
10. 872 + 100 = 972

Nous pouvons procéder différemment en choisissant plusieurs points de départ dispersés dans la liste ou
la base d‟échantillonnage puis estimer « k ». Par exemple, nous voulons échantillonner 100 entités d‟une
population de 1 000 entités. L‟intervalle d‟échantillonnage est égal à : 1 000/100 = k = 10

Puis, nous pouvons choisir 5 nombres au hasard entre 1 et 1000 : par exemple, 4, 26, 364, 505, 787.

La séquence des nombres devient pour le premier nombre de départ :


1. 4
2. 4+10 = 14
3. 14 + 10 = 24
4. 24 + 10 = 34 etc.
Nous répétons la même procédure pour les autres points de départ : ainsi, nous obtenons les nombres
suivants pour n = 100
4, 14, 24, 34, 44, 54, 64,74, 84, 94,...
26, 36, 46,56, 66,76, 86, 96, 106, 116...
364, 374, 384, 394, 404, 414, 424, 434, 444, 454,...
505, 515, 525, 535, 545, 555, 565, 575, 585, 595,...
787, 797, 807, 817, 827, 837, 847, 857, 867, 877,...
Le principal avantage de cette méthode réside dans le fait qu‟elle permet un échantillon espacé et une
bonne couverture de la base d‟échantillonnage. Tous les éléments de l‟échantillon proviennent de toutes
les parties de la base d‟échantillonnage :
L’échantillonnage systématique permet souvent d’obtenir une plus grande précision, en particulier si le
classement des unités dans la liste est relié à la caractéristique de l’étude »

Il y a d‟autres versions de la méthode dont celle de choisir un intervalle variable et aléatoire au lien d‟un
intervalle fixe comme dans l‟exemple plus haut.

En revanche, subsistent quelques lacunes dont celle de ne pas être strictement aléatoire ; la sélection des
entités ou éléments n‟est pas indépendante parce qu‟une fois la première entité choisie, toutes les autres
sont fixées.

– L’échantillonnage aléatoire stratifié


Cette méthode consiste à diviser la population en strates relativement homogènes puis à extraire des
échantillons séparés de chaque strate. Pour constituer les strates, on utilise des variables de stratification
ou des variables de contrôle tel qu‟un découpage géographique (commune, municipalité, etc.) et/ou des
variables socio-démographiques (âge, sexe, ménage, statut matrimonial etc.) et/ou des variables socio-
économiques (catégories professionnelles, revenu familial, revenu des particuliers, etc.).
15

NB : Ces variables de contrôle permettent de découper la population en strates. Elles sont choisies en
fonction de l‟enquête et peuvent même servir de variables explicatives dans l‟analyse (au sens statistique).

Évidemment, cette démarche suppose que le chercheur connaisse les caractéristiques de base de la
population à l‟étude ; de plus, elles doivent être disponibles dans la base de sondage. L‟échantillonnage
stratifié permet la représentation de l‟échantillon pour tous les éléments de la population. Ces strates
doivent couvrir la population-cible à l‟étude i.e. s‟assurer, d‟une part, que chaque catégorie de la
population est bien représentée dans l‟échantillon et, d‟autre part, que chaque sujet ou objet ou unité
spatiale soit bien représenté. Dans le cas d‟une population hétérogène, la stratification permet d‟obtenir
un portrait plus fidèle de la population.

« The benefits of stratification derive from the fact that the sample size in the strata are controlled by the
samples, rather than being randomly determined by the sampling process ».

Il est à noter que les strates doivent être mutuellement exclusives de manière à permettre les
comparaisons entre elles. Un des avantages de la méthode est de donner des estimations précises surtout
lorsque les groupes issus de la stratification sont homogènes. En effet, l‟erreur dans les estimés autour des
paramètres de la population diminue en raison de la stratification. Ainsi, on peut calculer des estimations
séparées pour chaque strate.

« The division of the total sample between the strata does not however have to be restricted to a
proportionate allocation: disproportionate stratification is also possible ».

Plusieurs procédures de stratification peuvent être retenues. Il y à le cas où l‟on peut utiliser une
procédure d‟échantillonnage différente pour chacune des strates de la population :

« Dans une étude à caractère social, il se peut qu’on veuille utiliser, pour échantillonner les habitants
des régions rurales peu peuplées, une méthode différente de celle utilisée pour des régions urbaines à
plus forte densité de population. Il peut aussi y avoir des différences entre les listes disponibles pour
diverses catégories de la population ».

Subsiste également la question de la répartition de l‟échantillon entre les strates. Elle peut être calculée
sur une base proportionnelle i.e. un nombre de sujets proportionnel à l‟effectif de la strate ou sur une base
non-proportionnelle. Le choix de la fraction d‟échantillonnage dépend en partie du degré d‟hétérogénéité
ou d‟homogénéité de la strate. En principe, on devrait choisir une fraction d‟échantillonnage plus petite
pour les strates homogènes et une fraction d‟échantillonnage plus grande pour les strates hétérogènes.

Bref : On suppose que la population soit stratifiée, constituée de sous-populations homogènes, les strates. (ex : stratification
par tranche d’age). Dans chaque strate, on fait un échantillonnage aléatoire simple, de taille proportionnelle à la taille de
strate dans la population (échantillon représentatif). Les individus de la population n’ont pas tous la même probabilité
d’être tirés. Nécessite une homogénéité des strates. Le chercheur divise la population en sous-groupes distincts et
homogènes (strates) à partir desquels il sélectionnera un échantillon aléatoire simple.

Étapes :
1. choisir une variable de stratification (ex : tranche d’age).
2. Sélectionner un échantillon aléatoire dans chaque strate.
16

Exemple : Supposons que 60% des étudiants de l’UCB sont des filles et 40% des garçons, pour former
un échantillon de 120 étudiants en respectant ces strates, on devrait choisir au hasard 60% x 120 = 72
filles et 40% x 120 = 48 garçons.

Avantages et désavantages de la méthode : L'échantillonnage stratifié a l'avantage d'assurer une bonne


représentation des différentes strates de la population dans l‟échantillon. Il permet aussi d‟obtenir des
estimations pour chacune des strates de la population. Toutefois, pour utiliser cette méthode il faut avoir
des renseignements sur la répartition des strates dans la population.

– L’échantillonnage aléatoire par grappes (Cluster sampling)


Cette méthode est utile lorsque la population à l‟étude comporte une hiérarchie comme les habitants d‟une
ville qui occupent des maisons ; ces derniers forment des îlots, et l‟ensemble des îlots compose la ville.
Ainsi, un échantillon d‟îlots où seront prélevés les sujets ou les objets constitue les groupes d‟un
échantillonnage par grappes. Les grappes sont des sous-groupes de la population-cible. C‟est une méthode
utile et moins coûteuse lorsque la population est très dispersée ou que la région d‟étude est très grande.

Trois étapes sont reconnaissables. La première étape réside dans la constitution de la liste des grappes à
partir de critères bien définis comme par exemple l‟îlot, l‟immeuble, etc. Puis, on choisit par
échantillonnage aléatoire simple un certain nombre de grappes où tous les individus de chaque grappe
sont enquêtés.

Les grappes devraient être les plus hétérogènes possibles i.e. que les sujets dans chaque grappe sont
différents les uns par rapport aux autres. L‟hétérogénéité peut être accrue en faisant une bonne division de
la base d‟échantillonnage. Par exemple, dans le cas de zones urbaines, l‟échantillon serait meilleur si le
géographe circonscrit des zones allongées plutôt que des zones compactes.

C‟est une méthode pouvant être pour certaines recherches moins coûteuses que les autres, et qui permet
de minimiser les déplacements. En revanche, les estimations statistiques sont moins précises que celles
fournies par l‟échantillonnage aléatoire simple.

Bref : On tire au hasard des grappes ou familles d’individus, et on examine tous les individus de la grappe (ex: on tire des
immeubles puis on interroge tous les habitants). La méthode est d’autant meilleure que les grappes se ressemblent et que les
individus d’une même grappe sont différents, contrairement aux strates. Le chercheur divise la population en sous-groupes
appelés « grappes ». Les grappes ont le même profil, la variance d’une grappe à l’autre étant faible. Il sélectionne par la suite
un échantillon aléatoire de grappes et non pas un échantillon aléatoire à l’intérieur de chaque grappe
17

Exemple : Les étudiants de G3 agro sont répartis en 11 groupes, les groupes sont numérotés de 1 à 11.
Supposons que l’on obtienne les nombres 2, 5, 7 et 10, tous les étudiants de ces 4 groupes feront partie de
l’échantillon.

Avantages et désavantages de la méthode :


L'avantage de cette méthode par rapport aux précédents est qu'elle ne requiert pas au préalable la liste de
la population, seule la liste des unités pour les grappes pigées est nécessaire. Un désavantage de ce type
d'échantillonnage est qu'il produit des estimations habituellement moins précises que l‟échantillonnage
aléatoire simple parce que des unités appartenant à une même grappe ont tendance à présenter des
caractéristiques semblables. Cette perte de précision peut être compensée par une augmentation de la
taille de l‟échantillon.

– L’échantillonnage aléatoire à plusieurs degrés

Cette méthode comporte plusieurs étapes comportant plusieurs degrés d’échantillonnage. En effet, la
méthode part de la présomption qu‟il y a une hiérarchie d’espaces emboîtés où les unités spatiales du
premier degré peuvent être subdivisées en unités du deuxième degré et ainsi de suite.

Par exemple, une ville est composée d‟arrondissements, les arrondissements de quartiers, les quartiers
d‟îlots, etc. Pour chaque degré d‟échantillonnage, il existe une base de sondage correspondante. En
d‟autres mots, un découpage géographique correspondant à chaque échelle géographique et chaque unité
spatiale à l‟échelle du premier degré se subdivise en unités du deuxième degré :

« Les unités d’échantillonnage du premier degré sont appelées unités primaires d’échantillonnage, et les
unités d’échantillonnage du deuxième degré, unités secondaires d’échantillonnage ».

« In two-phase, or double, sampling, certain sterms of information are collected for an initial, or just-
phase, sample, their further items are collected at the second phase from a subsample of the initial
sample. The method may be extended to more phase (multipliasing sampling), but for most purpose two
phases suffice ».

Les étapes sont les suivantes :

o à partir de la base de sondage des unités du premier degré, le chercheur sélectionne un


nombre déterminé d’unités du premier degré ;
o puis, on sélectionne un nombre déterminé d’unités au deuxième degré à partir des bases
de sondage ;
18

o la procédure continue et s’arrête lorsque les sujets ou les objets de la population-cible ont
été sélectionnés aléatoirement.

– L’échantillonnage à plusieurs phases

Cette méthode consiste à recueillir de l‟information auprès d‟un échantillon puis de collecter des
informations supplémentaires auprès d’échantillons plus petits ou sous-échantillons. Ce sont des
enquêtes à plusieurs niveaux ou échelles. On peut utiliser cette méthode pour le recensement de la
population et des logements. En effet, un questionnaire « court » ou abrégé est distribué à la population et
un questionnaire « long » ou détaillé est distribué à un échantillon aléatoire de la population.

– L’échantillonnage longitudinal (longitudinal survey)

Le but de la méthode est de recueillir de l‟information sur plusieurs points, dans le temps. En effet, il
arrive souvent d‟interroger les répondants d‟un échantillon sur une certaine période de temps. Cela veut
dire que le chercheur doit solliciter les mêmes répondants pour une deuxième enquête et même plus
dans certains cas. Malgré les avantages indéniables, il faut savoir qu‟il est difficile de revoir tous les
répondants de l‟enquête initiale à cause de départs ou de déménagements voire, tout simplement, de
décès.

1.3.3.3. Les méthodes d’échantillonnage spatial probabilistes

– L’échantillonnage aléatoire simple dans l’espace


On l‟appelle aussi méthode d‟échantillonnage spatial aléatoire indépendante. C‟est une méthode
élémentaire de tirage au hasard où les sujets ou les unités spatiales sont extraits d‟une base de sondage.
Chacune des entités a une chance de figurer dans l‟échantillon. Par exemple, un géographe veut
sélectionner au hasard des secteurs géostatistiques. Cette sélection peut se faire à l‟aide d‟une table de
nombres au hasard où le premier point sur la carte est choisi de la façon suivante :

 pour le premier point, on choisit un premier nombre pour l‟axe des « Y »: on obtient alors une
paire de coordonnées pour localiser le premier point ;
 puis, on sélectionne aléatoirement autant de paires de coordonnées selon l‟échantillon désiré.

Un des désavantages de la méthode est qu‟elle peut donner une couverture spatiale de points plus ou
moins satisfaisante.

– L’échantillonnage aléatoire systématique dans l’espace


Cette méthode consiste à couvrir spatialement toute la base d‟échantillonnage en transposant sur la zone
d‟étude une grille de cellules régulières de même taille puis en sélectionnant un point ou plusieurs points
dans chaque cellule. La sélection aléatoire d‟un point se fait à partir d‟une table de nombre au hasard i.e.
un premier nombre pour l‟axe des « X » et un deuxième nombre sur l‟axe des « Y ». Ces valeurs
correspondent successivement aux valeurs en abscisse et en ordonnée. Une autre méthode de sélection
consiste à choisir un intervalle de façon à espacer un point dans l‟espace : la valeur de l‟espacement
dépend de la taille de l‟échantillon.

Si le nombre de points à sélectionner dépasse le nombre de cellules de la grille, on peut déterminer le


nombre de points par cellule en divisant le nombre de points selon la taille de l‟échantillon) et le nombre
total de cellules :

si n = 50 taille de l‟échantillon et
m = 25 nombre de cellules
19

alors, le nombre de points par cellule est égale à 50/25 soit 2 points par cellule. Dans ce cas, on choisit
aléatoirement deux points par cellule.

Fig. Méthode d’échantillonnage spatiale aléatoire indépendant

– L’échantillonnage aléatoire stratifié dans l’espace

Par cette méthode de sondage, les échantillons sont stratifiés dans le but de couvrir les caractéristiques de
la région d‟étude. Cela constitue un avantage car les comparaisons entre les différentes strates sont
possibles. De plus, la précision des estimations est plus grande.

Fig.Méthode d’échantillonnage aléatoire systématique dans l’espace

Ainsi, peut-on par exemple constituer des strates à partir des différents espaces d‟une région
métropolitaine et ensuite choisir au hasard les individus ou les objets dans chaque strate. La taille de
l‟échantillon de chaque strate peut être proportionnelle à la surface qu‟occupent la ville centrale, la
banlieue et les espaces périurbains par rapport à la surface totale. Par exemple, si la taille de l‟échantillon
est égale à 24 (n), alors :

Fig. Exemple d’échantillon aléatoire stratifié dans l’espace

Strate % par rapport à la surface totale Taille de l’échantillon par strate


Centre-ville 20 % 20 % x 24 = 5
Banlieue 50 % 50 % x 24 = 12
Espaces péri-urbains 30 % 30 % x 24 = 7

– L’échantillonnage aléatoire stratifié, systématique, sans alignement


20

Cette méthode cumule les avantages du tirage aléatoire, de la stratification et des sondages systématiques.
La première étape consiste à transposer sur la zone d‟étude une grille de cellules régulières de même
taille. Chaque cellule est numérotée de 0 à 9 sur l‟axe des « X » et l‟axe des « Y ». Ensuite, il faut
déterminer un point-origine dans la première cellule en choisissant deux nombres au hasard compris
entre 0 et 9 et qui composeront la première paire de coordonnées. Pour remplir la ligne inférieure, on
maintient la valeur « X » constante tout au long de la ligne horizontale mais celle de « Y » varie entre 0 et
9. La valeur en abscisse est égale à celle du point-origine : par exemple, si les coordonnées du point
origine sont 7,3, alors la séquence des coordonnées sur cette ligne pourrait être : 7,3 ; 7,8 ; 7,5 ; 7,4 ; 7,1 ;
7,6 ;...

Pour remplir la ligne verticale la procédure est similaire sauf que la valeur « Y » est constante et celle de
« X » varie. Par exemple, la séquence des coordonnées sur la ligne verticale pourrait être: 7,3 ; 3,3 ; 5,3 ;
2,3 ; 4,3 ; 6,3 ;...

Fig. Méthode d’échantillonnage aléatoire stratifié systématique, sans alignement

Ensuite, on doit localiser un nouveau point origine II en prenant la valeur « X » de la 2° cellule de la


colonne de gauche et la valeur « Y » de la 2° cellule de la ligne horizontale. Si les coordonnées de ces
deux cellules sont 3,3 et 7,8, alors la paire de coordonnées du point-origine II est 3,8. Par la suite, on
répète la même procédure pour le remplissage de la 2° ligne et de la 2° colonne.

1.4. Détermination de la taille de l’échantillon

1.4.1. Les différents facteurs à considérer dans la détermination de la taille de l’échantillon

L‟objectif de tout échantillon est de sélectionner un petit nombre d‟individus représentatifs de la


population. Plusieurs facteurs peuvent intervenir dans le choix de la taille de l‟échantillon. Le premier
facteur correspond au plan de sondage retenu et cela dépend du type de distribution à l‟étude.
Entreprendre une enquête par échantillon dans un milieu rural n‟exigera pas le même plan de sondage
qu‟une enquête par échantillon entreprise dans un milieu urbain. On pourrait, dans les deux cas, utiliser
des méthodes de sondage probabiliste, mais il y aurait des différences notables dans les plans de sondage.

NB : En principe, plus une population est dispersée, plus la taille de l’échantillon devrait être élevée. En
effet, une population dispersée aura tendance à résider dans un milieu plus hétérogène.
21

Le deuxième facteur est à la fois la précision souhaitée et l‟intervalle de confiance. Le niveau de précision
généralement recherché est de 95 %. Quel que soit le plan de sondage, la taille de l‟échantillon requis
pour estimer un paramètre à un niveau de confiance de 95 % sera plus élevée qu‟à un niveau de confiance
de 90 %.

L‟autre facteur est le coût, qui comprend des coûts fixes et les coûts variables. Les coûts fixes sont les
coûts requis pour la conception du questionnaire, la stratégie d‟échantillonnage, l‟analyse de données et la
rédaction du rapport : ces coûts ne varient pas en fonction de la taille de l‟échantillon. Les coûts variables
peuvent augmenter d‟une façon significative. Ces coûts couvrent l‟engagement d‟enquêteurs, les frais de
déplacement, les frais d‟hébergement et de subsistance, etc.

Ajoutons à cela le temps ou le calendrier de travail. Ce dernier facteur est d‟importance : quel est le temps
dont on dispose pour la réalisation de l‟enquête ? Quelles sont les périodes impératives imposées par le
contenu de l‟enquête (tourisme hivernal, enquêtes écologiques...) ?

1.4.2. Précision et estimation de la taille de l’échantillon

Quelle est la taille de l'échantillon d‟individus, d‟objets ou d‟unités spatiales nécessaire dans un processus
d‟échantillonnage ? Cela dépend de plusieurs facteurs dont celui de la marge d‟erreur tolérée à un certain
niveau de confiance :

« La nécessité de fixer à l’avance une taille minimale d’échantillon est liée au besoin d’avoir une marge
d’erreur déterminée à un certain niveau de confiance ».

De plus, la détermination de la taille de l‟échantillon dépend aussi en grande partie du plan de sondage.
En effet, les plans de sondage offrent une grande diversité :

 échantillon aléatoire simple :


o le cas d‟un prélèvement avec remise ;
o le cas d‟un prélèvement sans remise ;
o le cas d‟une population multinomiale ;

 échantillon pour l‟estimation d‟une moyenne :


o le cas d‟un prélèvement avec remise ;
o le cas d‟un prélèvement sans remise ;

 échantillon pour un test de différences entre deux paramètres :


o le cas de deux proportions ;
o le cas de deux moyennes.

Pour calculer la taille idéale d'un échantillon, vous devrez définir un ensemble de valeurs et les remplacer
dans une formule appropriée.
A) Utilisation de la formule standard
Si la population en question est petite ou moyenne et que vous connaissez toutes les valeurs importantes,
vous devez utiliser la formule standard. L'équation standard pour calculer la taille de l'échantillon (n) est
la suivante :
[z2*p(1-p)] / e2
n= / 1 + [z2*p(1-p)] / e2*N]

o N = taille de la population
o z = z-score
o e = marge d'erreur
o p = écart-type
22

B) Pour des populations inconnues ou très nombreuses


Si vous devez étudier une population très nombreuse ou inconnue, vous devez utiliser une autre formule.
Si vous avez encore les valeurs pour les autres variables, utilisez l'équation suivante :

 n = [z2*p(1-p)] / e2
o z = z-score
o e = marge d'erreur
o p = écart-type
 Il est à noter que cette formule est en quelque sorte le numérateur de l'équation précédente.

c) formule de Slovin
La formule de Slovin est une équation très générale que l'on utilise lorsqu'on peut estimer la taille d'une
population, sans savoir comment elle se comporte. Cette formule est décrite comme suit :

 n = N / (1 + N*e2)
o N = taille de la population
o e = marge d'erreur
 Il est à noter qu'il s'agit de l'équation la moins précise et, par conséquent, la moins appropriée à
utiliser. Vous ne devriez l'utiliser que si les circonstances vous empêchent de déterminer un écart-
type ou un niveau de confiance approprié (sans lequel, vous ne pouvez pas définir un z-score).
Bref : Beaucoup de plan de sondage existent ; nous retiendrons ici le cas le plus simple, celui de la taille
de l‟échantillon à partir de proportions.

1.4.3. Les erreurs d’échantillonnage dans une enquête

En principe, les erreurs d‟échantillonnage diminuent au fur et à mesure que s‟accroît la taille de
l‟échantillon i.e. que plus la taille d‟échantillon se rapproche de celle de la population plus les erreurs
diminuent. Au-delà d‟un certain seuil, la précision d‟un estimé on d‟un paramètre s‟accroît peu.
Généralement, les erreurs d‟échantillonnage diminuent de façon inversement proportionnelle à la taille de
l‟échantillon : E ≈ 1/n
où :
E = erreurs d‟échantillonnage
n = taille de l‟échantillon
Mais quelles sont les erreurs d‟échantillonnage ? Deux principaux types d‟erreurs peuvent être
mentionnés :
a. le premier type d‟erreur est attribuable aux fluctuations dans l‟estimation des paramètres. Ces
erreurs sont mesurables par l‟erreur-type i.e la différence entre les valeurs ou statistiques d‟un
échantillon et les paramètres de la population. On peut calculer une probabilité associée à cette
erreur ;
b. le deuxième type d‟erreur constitue des biais, cette fois-ci attribuables à plusieurs facteurs. Par
exemple, ces biais peuvent survenir au moment de la collecte des données et/ou à cause de
l‟instrument de mesure et/ou à l‟étape de la compilation des données et/ou dans le codage et/ou le
traitement des données, etc.

1.4.4. Le taux de réponse minimal

Dans la détermination de la taille de l‟échantillon, il faut tenir compte de la réalité du processus d‟enquête
ou de sondage. Il est normal d‟avoir des refus de la part de répondants potentiels ou de ne pouvoir
atteindre ou rejoindre certains répondants de la liste d‟échantillonnage. Pour ces raisons, il faut prévoir un
taux de réponse minimal afin de compenser cette « perte ». Ce taux de réponse minimal consiste à
augmenter la taille de l‟échantillon.
23

Pour compenser la perte anticipée, il faut multiplier la taille de l‟échantillon par l‟inverse des taux de
réponse :
N‟ ≥ (600) (100/75)
N‟ ≥ 800

Ainsi, il faudrait réajuster la taille de l‟échantillon à 800 répondants au lieu de 600 répondants
initialement prévus.

1.5. Vérification d’hypothèse et démarche d’un test d’hypothèse

Dans les chapitres qui suivent, sur la statistique inférentielle, il sera question de la décision statistique.
Par exemple, comment tester une hypothèse sur le pourcentage d‟un échantillon de résidents qui achètent
des vêtements dans un centre d‟achats situé à la périphérie d‟une municipalité ? Pour ce faire, la décision
statistique passe par le test d‟hypothèse.
La démarche d‟un test d‟hypothèse suit les étapes suivantes :
En premier lieu, il y a la formulation de l‟hypothèse nulle (H0) qui est l‟hypothèse à rejeter. Si
l‟hypothèse nulle est rejetée, on accepte Hl, l‟hypothèse alternative. On teste HO contre H1. Si on pose
que deux échantillons sont différents (H1), on pourrait par exemple comparer la moyenne de chacun :
alors,
HO : u1 = µ2
H1 : u1 > µ2 ou H1 : u1< µ2

L‟étape suivante est le choix du test statistique, le niveau de signification et la taille de l‟échantillon. Il
faut choisir entre un test paramétrique ou un test non-paramétrique : cela dépend entre autres du type de
mesure et des présomptions du test paramétrique. Une fois cette décision prise, l‟objectif est de tester Ho.
Le test statistique donne une valeur dont la probabilité associée sous Ho est égale ou inférieure à une
probabilité « I ». Cette probabilité est le niveau de signification normalement fixé à 5 % ou à 1 %. Le
niveau de signification définit un événement rare sous HO quand l‟hypothèse nulle est vraie. Cependant,
rejeter par erreur HO, quand HO est vraie, est une erreur de type I et omettre de rejeter HO quand elle est
fausse est une erreur de type IL La probabilité de commettre une erreur de type I est donnée par « a » :
plus « a » est grand, plus il y a de chances de faire une erreur de type I. Si l‟erreur de type II est
représentée par « (3 », la puissance d‟un test est définie par la probabilité de rejeter HO quand elle
fausse :

1 – (erreur de type II) = 1– β

La probabilité de commettre une erreur de type II diminue avec la taille de l‟échantillon (n) : l‟efficacité
d‟un test augmente avec la taille de l‟échantillon.

Ensuite, on doit choisir la distribution d‟échantillonnage i.e. une distribution théorique du paramètre
comparé. La distribution d‟échantillonnage est la distribution de toutes les valeurs possibles quand HO est
vrai, d‟une statistique comme, par exemple, la moyenne de l‟échantillon, calculée à partir de plusieurs
échantillons prélevés de la même population. Si on prend tous les échantillons possibles de taille « n » et
que l‟on calcule la moyenne de chaque échantillon, la distribution de ces moyennes va approcher une
courbe normale avec une moyenne « T » et un écart-type de [/√n quand « n » est grand. L‟étape de la
distribution d‟échantillonnage est suivie par la détermination de la zone de rejet (fig. 6.5). C‟est la région
de la distribution d‟échantillonnage qui regroupe toutes les valeurs extrêmes quand HO est vraie. La
probabilité est donc très petite. La zone de rejet est déterminée par Hl. Elle peut être unilatérale ou
bilatérale et la surface de rejet est définie par « a » (i.e. le niveau de signification).

La dernière étape consiste à calculer la valeur de la statistique une fois l‟échantillon constitué. Si la valeur
est dans la zone de rejet, il faut rejeter HO ; en revanche si la valeur est à l‟extérieur de la zone de rejet, il
faut accepter HO au niveau de signification « α ».
24

On peut reconnaître plusieurs tests d‟hypothèse. Des grandes catégories peuvent être distinguées :

o les tests d‟hypothèse à un échantillon : ils permettent de déterminer si un échantillon


provient d‟une population spécifique. Ce sont souvent des tests de qualité d‟ajustement
dont l‟hypothèse stipule qu‟un échantillon a été prélevé d‟une population ayant des
caractéristiques spécifiques ;
o les tests à deux ou plusieurs échantillons indépendants : ce sont des tests utiles pour tester
les différences statistiques entre deux ou plusieurs groupes, à savoir s‟ils proviennent
d‟une même population ou de populations différentes ;
o les tests à deux ou plusieurs échantillons reliés ou appariés : ce sont des tests statistiques
permettant de comparer deux ou plusieurs groupes provenant d‟une même population ou
d‟une population identique.

Rigueur et transparence : telles sont les deux exigences impératives qui doivent être respectées en matière
d‟échantillonnage. Cet exercice ne souffre guère l‟improvisation ou l‟à peu près.

1.6. La statistique inférentielle et la théorie de l’échantillonnage

La statistique est la science de l‟incertitude qui tente de généraliser pour l‟ensemble d‟une population
donnée les conclusions tirées des résultats issus d‟un échantillon : c‟est ce qu‟on appelle l‟inférence
statistique. La statistique regroupe des méthodes à partir desquelles on recueille, organise, résume et
analyse des données qui permettent de tirer des conclusions et de prendre des décisions.

Pour certains auteurs, la statistique est d‟abord inductive dans le sens où les conclusions tirées excèdent
dans une certaine mesure les prémisses sur lesquelles elles sont basées.

Par exemple, un échantillon révèle que plus de 30 % des champs d‟une zone agricole produisent moins de
1t/ha. Pourrait-on en conclure que 30 % de tous les champs de ladite zone agricole produisent réellement
moins de 1t/ha ? Cette question est d‟importance car une partie seulement des résidents a été interviewée.
La statistique inférentielle permet de répondre à cette question en estimant, à partir de la fréquence
calculée pour l‟échantillon, un intervalle de confiance autour de cette fréquence, ayant une probabilité de
chances (que l‟on choisit) de contenir la fréquence sur toute la population.

Ainsi, comment tester une hypothèse sur le pourcentage d‟une population des champs de la zone agricole
produisant moins de 1t/ha? La décision statistique passe par le test d‟hypothèse.

On ne peut certes pas présenter toutes les techniques de la statistique inférentielle car elles sont trop
nombreuses. Toutefois, il faut dire qu‟elles sont « puissantes », surtout celles qui ont les présomptions les
plus « exigeantes » ; elles le sont d‟autant plus que la taille de l‟échantillon augmente. Toutefois, ces
méthodes dites « paramétriques » comportent des présomptions qui souvent gênent leur application.

Chap.2 : TEST D’HYPOTHESES

2.1. Quelques problèmes

En Agronomie, le chercheur est porté à prendre des décisions dans un univers aléatoire. Il n‟y a personne
qui peut prédire avec certitude que demain il va pleuvoir. Il n‟y a personne qui peut avancer sans risque
de se tromper qu‟en plantant 5 kg de maïs, le cultivateur récoltera 1500 kg. Il n‟y a personne qui peut
annoncer le passage des oiseaux migrateurs un jour fixe. Les phénomènes biologiques sont tributaires de
plusieurs aléas.
Il faut donc définir la règle de jeu pour prendre des décisions dans cet environnement.
25

Le processus qui consiste à estimer un paramètre d‟une population par une statistique est dit estimation
ponctuelle. Après la collecte des données, la statistique n‟est plus une variable aléatoire mais plutôt une
réalisation de l‟estimateur ponctuel.

2.2. Comment prendre une décision dans un monde aléatoire ?

Dans la démarche de la biométrie, la décision se prend schématiquement en 5 étapes :

Etape 1. Définition des hypothèses


=Définir l‟hypothèse nulle et l‟hypothèse alternative.
La première étape dans le processus de test d‟hypothèse est de préciser les hypothèses à tester avant
l‟échantillonnage. Cette supposition à tester est appelée hypothèse nulle et son symbole est Ho. En
biométrie, l‟hypothèse nulle sera toujours celle où il y a absence d‟effet (celle où il y a un signe d‟égalité).
La supposition qui est acceptée comme correspondant au rejet de l‟hypothèse nulle est connue sous
l‟appellation „hypothèse alternative‟ et son symbole est H1. C‟est l‟hypothèse alternative qui exprime les
aspirations du chercheur qui est excité à révéler l‟effet d‟un facteur.
EX :
-Dans une expérience qui consiste à comparer la qualité de l’eau d’une contrée aux normes de l’OMS, l’hypothèse nulle, en ce qui concerne
la variable pH serait que le pH de l’eau est entre 6.5-9.5. L’hypothèse alternative est que le pH est différent de valeurs citées.
-Si on veut montrer l’impact de la déforestation sur l’environnement, l’hypothèse nulle est qu’entre le milieu qui connaît la déforestation et
celui qui ne le connaît pas, il n’y a pas de différence. L’hypothèse alternative est qu’il y a de différence.
-Pour un agronome qui veut comparer le rendement de 4 variétés émet comme hypothèse nulle que pour tout couple des moyennes, elles
sont égales et comme hypothèse alternative qu’il existe un couple de ces moyennes tel qu’elles sont différentes. En même temps, s’il veut
tester si le rendement dépend aussi de la date de semis, il peut s’intéresser à l’interaction entre l’effet variété et l’effet date de semis.
L’hypothèse nulle sera qu’il n’y a pas interaction et l’hypothèse alternative sera qu’il y a interaction.
-Un biologiste qui veut savoir la relation entre la taille et le poids des poissons émet comme hypothèse nulle qu’il n’y a pas de relation et
comme hypothèse alternative que cette relation existe. S’il mène l’expérience sur deux types de poissons, il peut en plus émettre
l’hypothèse nulle que le modèle obtenu est le même pour les deux groupes et comme hypothèse alternative, qu’il existe deux modèles
différents.
-Un agro-économiste est intéressé par la relation entre le prix d’un produit et diverses variables comme la production, la distance du point
d’achat, les taxes diverses etc.
L’hypothèse nulle est qu’il n’ya pas de relation avec tous ces paramètres et l’hypothèse alternative est qu’il existe au moins une variable qui
est en relation avec le prix du produit.
-Un enquêteur veut connaître s’il existe une correspondance entre la couleur des feuilles et la sévérité d’une maladie de plante. L’hypothèse
nulle est que les deux variables sont indépendantes. L’alternative est que les deux variables sont dépendantes.
Etape 2. Choix du seuil de signification
La significativité statistique, ou seuil de signification, désigne le seuil à partir duquel les résultats d'un
test sont jugés fiables. Autrement dit, ce seuil détermine la confiance dans la corrélation entre un test
effectué et les résultats obtenu.
Dans le processus de prise de décision sur un échantillon d‟une population et qui engage toute la
population, il y a d‟une part la décision elle-même et d‟autre part la réalité. Ce qui intéresse
l‟expérimentateur ou l‟enquêteur, c‟est surtout de savoir quel critère pour rejeter l‟hypothèse nulle (Ho).

Une fois que l‟on a défini l‟hypothèse nulle et l‟hypothèse alternative, et sélectionné le test statistique
approprié, l‟étape suivante consiste à spécifier le seuil de signification et à choisir la taille de l‟échantillon
(n). La procédure de prise de décision se résume à rejeter H0 au profit de H1, si le résultat du test
statistique est une valeur correspondant à une probabilité de réalisation, dans l‟hypothèse H0, égale ou
inférieure à une faible probabilité symbolisée par le signe α . Cette faible probabilité est appelée seuil de
signification. Le seuil de signification est symbolisé par α (alpha).

Les seuils de significations :


- pt 0.10 (10%) : seuil de signification moins sévère.
- pt 0.05 ( 5%) : seuil de signification suffisant ou modéré.
- pt 0.01 ( 1%) : seuil de signification sévère.
-pt 0.001 (0.1%) : seuil de signification très sévère
26

Le seuil de signification le plus souvent utilisé est celui de point 0.05. On adopte un niveau moins
sévère càd (10%) quand il y a des mesures imprécises et peu nombreuses. Par exemple des app non
fiables. On l’adopte aussi quand il s’agit d’un travail préparatoire suggérant une étude plus
approfondi ou enfin quand il s’agit de quelques mesures rapides pour confirmer une conclusion
solidement établie.
On adopte un niveau sévère par contre quand il y a des mesures précises et nombreuses ou s’il s’agit
d’une étude finale donnant une conclusion définitive ou encore quand on veut contredire une
opinion généralement admise.

Les valeurs les plus courantes de α sont 0.05 et 0.01. En d‟autres termes, si la probabilité associée à
l‟obtention, dans H0 (c‟est-à-dire quand l‟hypothèse nulle est vraie) de la valeur spécifique résultant d‟un
test statistique, est égale ou inférieure à α , nous rejetons H0 et nous acceptons H1, qui est la formulation
opérationnelle de l‟hypothèse de recherche. Il s‟ensuit que a indique la probabilité de rejeter par erreur
H0.

Etape3. La statistique de test ou de décision


La statistique de test est celle dont la valeur est la base de la décision du test d‟hypothèse. Quelle
statistique utiliser pour la décision ? Le bon sens nous guiderait en pensant que si nous voulons comparer
la moyenne d‟une variable à une norme, que l‟on puisse penser à sa valeur centrée et réduite.
Toujours le bon sens nous suggérerait que la statistique pour comparer deux moyennes passerait par la
comparaison entre la variabilité intra-groupe et la variabilité inter-groupes. A chaque problématique, il
existe une statistique bien déterminée dont la distibution permet d‟aboutir à une décision objective.

Etape4. La région Critique ou la région de rejet et la valeur critique


Dès que la statistique de test est connue, alors tu peux avancer. Supposons que le risque de rejeter par
erreur Ho est de 0.05.
Ceci signifie que le rejet de ‟hypothèse nulle a seulement 5% de chance d‟arriver. La région critique ou la
région de rejet est la partie de la courbe de distribution égale au total à a qui est supposée ne pas contenir
la valeur de la statistique du test si Ho est vraie. Le point limite est dit valeur critique

Etape 5. Règle de décision


Tu rejetteras l‟hypothèse nulle en faveur de l‟hypothèse alternative si la statistique de test tombe dans la
zone critique si non tu déclareras que l‟hypothèse nulle n‟est pas rejetée. Ceci arrive si le p-value est
inférieur à alpha. Remarque importante, tu ne diras jamais que tu acceptes l‟hypothèse nulle. Je rejette
l‟allégation selon laquelle il n‟y a pas d‟effet médicament. Je ne saurai jamais attester qu‟il n‟y a pas effet
médicament. Le fait que je constate qu‟il n‟y a pas effet médicament peut-être dû à autre chose.

2.3. Quels tests pour quelles comparaisons ?

Certains tests supposent une loi ("distribution") théorique sous-jacente avec des paramétres. Ce sont les
tests paramétriques. D'autres n'imposent aucune hypothèse de distribution. On les nommes tests non-
paramétriques. Suivant qu'on compare une valeur calculée (comme par exemple une moyenne, une
proportion) à une valeur théorique ou qu'on compare deux ou plusieurs valeurs calculées entre elles, on
parle de test de conformité ou d'homogénéité. On utilise le même vocabulaire pour comparer la ou les
distributions calculées. Mais les choses se compliquent si les données sont appariées ou non, si les
effectifs des échantillons sont suffisants ou pas...

Il y a beaucoup de tests car il y a beaucoup de situations. On trouve dans ci-dessous une liste de divers
tests en fonction des variables et de la nature et/ou du nombre d'échantillons.

1. Tests pour les distributions qualitatives (var QL)


 avec un seul échantillon : test binomial exact et test des proportions.
27

 avec deux échantillons :


o données non appariées : test du chi2 et test exact de Fisher
o données appariées : test de Mac Nemar
 avec plus de deux échantillons :
o données non appariées : test du chi2
o données appariées : test de Cochran-Mantel-Haenszel

2. Tests pour les distributions quantitatives (var QT)


Il faut commencer par tester la normalité de la distribution à l'aide du test de Shapiro-Wilk ou du test de
Kolgorov-Smirnov. Si l'hypothèse de normalité n'est pas rejetée, on peut utiliser un test paramétrique. Sinon, on
doit utiliser un test non paramétrique.

2.1 Tests paramétriques pour les distributions QT


 avec un seul échantillon : test t de Student
 avec deux échantillons :
o données non appariées : test t de Student
o données appariées : test t de Student pour données appariées
 avec plus de deux échantillons vérifiant l'homoscédasticité (var.test et test de Bartlett) :
o données non appariées : anova, aov et tests post-hoc
o données appariées : anova et tests post-hoc pour données appariées, manova, ancova

2.2 Tests non-paramétriques pour les distributions QT


 avec deux échantillons :
o données non appariées : test de Mann-Whitney
o données appariées : test Wilcox
 avec plus de deux échantillons :
o données non appariées : test de Kruskal-Wallis puis tests post-hoc comme celui de Nemuyi
o données appariées : test de Friedman

Autres tests
Un test intéressant à connaitre (sous hypothèse de normalité) est celui de la significativité de coefficient de
corrélation linéaire (cor.test). On peut aussi comparer deux coefficients de corrélation linéaire. Une autre série de
tests importants sont les tests dits post hoc. On les utilise, en cas de comparaisons multiples significatives, pour
savoir quels échantillons différent. Il y a par exemple le test de Tukey, le test de Newman-Keuls, le test de
Dunnett, le test de Scheffé.

2.4. Tests paramétriques et non paramétriques : avantages et inconvénients

Un test paramétrique requiert un modèle à fortes contraintes (normalité des distributions,


égalité des variances) pour lequel les mesures doivent avoir été réalisées dans une échelle au
moins d'intervalle. Ces hypothèses sont d'autant plus difficiles à vérifier que les effectifs
étudiés sont plus réduits.

Un test non paramétrique est un test dont le modèle ne précise pas les conditions que doivent
remplir les paramètres de la population dont a été extrait l'échantillon. Cependant certaines
conditions d'application doivent être vérifiées. Les échantillons considérées doivent être
aléatoires [lorsque tous les individus ont la même probabilité de faire partie de l'échantillon]
et simples [tous les individus qui doivent former l'échantillon sont prélevés indépendamment
les uns des autres] (7), et éventuellement indépendants les uns des autres [emploi de tables de
nombres aléatoires]. Les variables aléatoires prises en considération sont généralement
supposées continues.
28

2.4.1. Avantages des tests non paramétriques


1. Leur emploi se justifie lorsque les conditions d'applications des autres méthodes ne sont pas satisfaites, même
après d'éventuelles transformation de variables.
2. Les probabilités des résultats de la plupart des tests non paramétriques sont des probabilités exactes quelle que
soit la forme de la distribution de la population dont est tiré l'échantillon.
3. Pour des échantillons de taille très faible jusqu'à N = 6, la seule possibilité est l'utilisation d'un test non
paramétrique, sauf si la nature exacte de la distribution de la population est précisément connue. Ceci permet
une diminution du coût ou du temps nécessaire à la collecte des informations.
4. Il existe des tests non paramétriques permettant de traiter des échantillons composés à partir d'observations
provenant de populations différentes. De telles données ne peuvent être traitées par les tests paramétriques sans
faire des hypothèses irréalistes.
5. Seuls des tests non paramétriques existent qui permettent le traitement de données qualitatives : soit exprimées
en rangs ou en plus ou moins (échelle ordinale), soit nominales.
6. Les tests non paramétriques sont plus facile à apprendre et à appliquer que les tests paramétriques. Leur
relative simplicité résulte souvent du remplacement des valeurs observées soit par des variables alternatives,
indiquant l'appartenance à l'une ou à l'autre classe d'observation, soit par les rangs, c'est-à-dire les numéros
d'ordre des valeurs observées rangées par ordre croissant. C'est ainsi que la médiane est généralement préférée à
la moyenne, comme paramètre de position.

2.4.2. Désavantages des tests non paramétriques


1. Les tests paramétriques, quand leurs conditions sont remplies, sont les plus puissants que les tests non
paramétriques.
2. Un second inconvénient réside dans la difficulté a trouver la description des tests et de leurs tables de valeurs
significatives, surtout en langue française. Heureusement, les niveaux de significativité sont donnés directement
par les logiciels statistiques courants.
On choisira les tests appropriés en fonction du type de mesure, de la forme de la distribution
de fréquences et du nombre d'échantillons dont on dispose.

2.5. Réalisation des Tests d’hypothèse, tests statistiques

2.5.1. Test de conformité : Comparer la moyenne d‟une population a une norme

On dispose d‟une variable quantitative. Elle peut bien être une mesure, une proportion ou même une
variance. Tu connais aussi une norme par la littérature, les rapports etc…
Ton problème est de tester la conformité de ta moyenne à cette norme. La question que tu te poses est la
suivante : est-ce qu‟il y a une différence significative entre la moyenne de ma variable calculée sur un
échantillon tiré de ma population et la norme ?

Hypothèses
Supposons que d‟un échantillon, tu veuilles tester si la moyenne est égale à la norme. L‟hypothèse nulle
est dans ce cas, Ho : μ= μo
Il existe trois hypothèses alternatives correspondant à cette hypothèse nulle.
- Un test bilatéral (two-tailed test) où tu n‟as pas besoin de spécifier si la moyenne est supérieure ou
inférieure à une norme. Tu ne t‟intéresses qu‟à la différence. Dans ce cas l‟hypothèse alternative s‟écrit:
H1 : μ≠ μo
- Un test unilatéral (one-tailed test) où tu précises ta préoccupation à savoir si la moyenne est supérieure
(ou inférieure) à la norme. Dans ce cas l‟hypothèse alternative s‟écrit:
H1 : μ<μo ou H1 : μ>μo

Z test
29

Soit x la variable en étude, x la moyenne de l‟échantillon, µola norme, δ l‟écart-type donné et δẌ l‟écart-
type des moyennes des échantillons.

Si l‟écart-type est connu, et si le nombre d‟observations est supérieur à 30, alors la distribution des
observations est normale. De ce fait, la distribution des moyennes des échantillons (si tu pouvais en tirer
plusieurs) est aussi normale. Dans ce cas, la statistique de décision est la statistique z. z s’écrit :

Find the appropriate critical values for the tests using the Z-table for test of one proportion.

test bilateral (Two-Tailed) test unilatéral à gauche ( Left-Tailed) test unilatéral à droite (Right-Tailed)
Reject H0 if |Z∗ |≥Zα/2 Reject H0 if Z∗ ≤Zα Reject H0 if Z∗ ≥Zα

NB : utilisation de la table Z ( normale centrée réduite): Z alpha est obtenu en faisant 1-alpha pour le test unilateral (ou 1-
alpha/2 pour un test bilatéral). La valeur trouvée est lue sur la table. Z tabulaire est obtenu en additionnant les valeurs de la
colonne et de la ligne correspondant à la prob cumulées trouvée.
Exemple :
1. Adoption de la variété de l'INERA: L‟INERA livre une variété de maïs et déclare que cette variété
accompagnée de tout son pacquet de technologie (arrosage, sarclage, engrais, buttage) produit 1500kg/ha
en moyenne. Un Administrateur de Territoire veut l'adopter pour son territoire. Il ordonne des expériences
préalables. Le vulgarisateur, vu la disponibilité des semences, propose des essais sur 36 parcelles en
milieu réel choisies chez des cultivateurs. Après l'essai, il trouve une moyenne 1450 kg/ha. Utilisant le
seuil de signification de α=0.01 et supposant qu‟un écart-type est de 120 kg/ha soit acceptable, quelle est
la conclusion du vulgarisateur ?
solution
z=(1450-1500)/(120/sqrt(36)) = -2.5
conclusion : En considérant que la distribution est normale de moyenne et connaissant qu’ici le test est bilatéral,
au seuil 0.01 et, puisque 𝑧𝑐𝑎𝑙𝑐𝑢𝑙é= −2.5 est compris entre -2.58 et 2.58 (Z tabulaire), alors on est dans la zone
d'acceptation de l'hypothèse nulle. On décide que l’hypothèse nulle ne peut pas être écartée au seuil 0.01. Noter
que ceci ne veut pas dire que la variété donne 1500 kg/ha mais que cette moyenne varie autour de 1500 kg/ha.

2. Diagnostic régional: Le vulgarisateur veut vérifier si réellement la moyenne de rendement est


supérieure chez les paysans qu'en station. Auquel cas tout porterait à croire que les paysans ont une
technologie qui n'est pas prise en compte par l'INERA. La moyenne avancée par l‟INERA est de 18500
kg/ha. 36 essais sont effectués chez des paysans de tout bord. Sur les 36 essais, le vulgarisateur trouve une
moyenne de 19450 kg/ha. Les donnés reprises dans la littérature indiquent qu'une tolérance ou un écart-
type de 2600 kg/ha est acceptable. On fixe le seuil à 0.05. Quelle est la décision du vulgarisateur ?
solution
z=(19415-18500)/(2600/sqrt(36))=2.11
Cette valeur est supérieure à 1.64. On est dans la zone de rejet de l’hypothèse nulle. Ainsi le vulgarisateur
confirme que la moyenne observée en station est supérieure à la moyenne de l'INERA.
30

3.5.2. Test de comparaison de deux moyennes

Le test-t de Student est un test statistique permettant de comparer les moyennes de deux groupes
d‟échantillons. Il s‟agit donc de savoir si les moyennes des deux groupes sont significativement
différentes au point de vue statistique.

Il existe plusieurs variantes du test-t de Student:


 Le test-t de Student pour échantillon unique
 Le test-t de Student comparant deux groupes d’échantillons indépendants ( on parle de test de
Student non apparié)
 Le test-t de Student comparant deux groupes d’échantillons dépendants (on parle de test de
Student apparié).
Le test de Student est dit paramétrique car, comme nous allons le voir, la formule dépend de la
moyenne et de l’écart-type des observations à comparer.

A. Test de Student pour échantillon unique


Il s‟agit de comparer une moyenne observée à une moyenne théorique (μ).
Soit X une série de valeurs de taille n, de moyenne m et d‟écart-type S. La comparaison de la moyenne
observée (m) à une valeur théorique μ est donnée par par la formule :

Pour savoir si la différence est significative, il faut tout d‟abord lire dans la table t, la valeur critique
correspondant au risque alpha = 5% pour un degré de liberté : d.d.l=n− 1
Si la valeur absolue de t (|t|) est supérieure à la valeur critique, alors la différence est significative. Dans le
cas contraire, elle, ne l‟est pas. Le degré de siginificativité (ou p-value) correspond au risque indiqué par
la table de Student pour la valeur |t|.
Le test n‟est applicable que si seulement si la série de valeurs X suit une loi normale.

B.Test t de Student pour échantillons indépendants


Dans ce cas de figure, il s‟agit de comparer deux moyennes observées. Lorsque les deux groupes
d‟échantillons (A et B) à comparer n‟ont aucun lien, on utilise le test t de Student indépendant (ou non
apparié). C’est quoi le test de Student non-apparié ?
A titre d‟exemple, nous avons un groupe de 100 individus (50 femmes et 50 hommes) pris au hasard au
sein de la population. On se pose la question à savoir si le poids moyen des femmes est significativement
différent de celui des hommes?
Dans cet exemple on parle de test de Student non apparié car les deux groupes à comparer n‟ont aucun
lien. Il s‟agit donc de calculer le poids moyen des femmes et de celui des hommes et d‟évaluer si la
différence est significative au point de vue statistique.
Formule
 Soit A et B deux groupes différents à comparer.
 Soit mAet mB la moyenne du groupe A et celui du groupe B, respectivement.
 Soit nA et nB la taille du groupe A et celle du groupe B, respectivement.

La valeur t de Student est donnée par la formule suivante:


S² est la variance commune aux deux groupes. Elle est calculée par la formule suivante :
31

Pour savoir si la différence est significative, il faut tout d‟abord lire dans la table t, la valeur critique
correspondant au risque alpha = 5% pour un degré de liberté :
d.d.l=nA+nB− 2
Si la valeur absolue de t (|t|) est supérieure à la valeur critique, alors la différence est significative. Dans le
cas contraire, elle, ne l‟est pas. Le degré de siginificativité ou p-value correspond au risque indiqué par
la table de Student pour la valeur |t|
Le test est utilisable, si seulement si, A et B suivent des lois normales de mêmes variances. Lorsque
les variances des deux groupes à comparer sont différentes, le test t de Welch est préconisé.

C.Test-t de Student pour séries appariés


C’est quoi le test de Student apparié ?
Le test de Student apparié permet de comparer la moyenne de deux séries de valeurs ayant un lien.

Par exemple : 20 souris ont reçu un traitement X pendant 3 mois. On se pose la question à savoir si le
traitement X a un impact sur le poids des souris au bout des 3 mois. Le poids des 20 souris a donc été
mesuré avant et après traitement. Ce qui nous donne 20 séries de valeurs avant traitement et 20 autres
séries de valeurs après traitement provenant de la mesure du poids des mêmes souris.
Il s‟agit bien dans cet exemple, d‟un test de Student apparié car les deux séries de valeurs ont un lien
(les souris). Pour chaqu souris, on a deux mesures (l‟une avant et l‟autre après traitement).

Formule
Pour comparer les moyennes de deux séries appariées, on calcule tout d‟abord la différence des deux
mesures pour chaque paire.
Soit d la série des valeurs correspondant aux différences des mesures entre les paires de valeurs. La
moyenne de la différence d est comparée à la valeur 0. S‟il y a une différence significative entre les deux
séries appariées, la moyenne de d devrait être très éloignée de la valeur 0. La valeur t de Student est
donnée par la formule :

m et s représentent la moyenne et l‟écart-type de la différence d. n est la taille de la série d.

Pour savoir si la différence est significative, il faut tout d‟abord lire dans la table t, la valeur critique
correspondant au risque alpha = 5% pour un degré de liberté :
d.d.l=n− 1
Si la valeur absolue de t (|t|) est supérieure à la valeur critique, alors la différence est significative. Dans le
cas contraire, elle, ne l‟est pas. Le degré de siginificativité (ou p-value) correspond au risque indiqué par
la table de Student pour la valeur |t|.
Le test est utilisable, si seulement si, la différence de suit une loi normale.

D. prise de décision

Pour accepter ou rejeter l‟hypothèse nulle on se refère à t calculé (tc) et t tabulaire


32

test bilateral (Two-Tailed) test unilatéral à gauche ( Left-Tailed) test unilatéral à droite (Right-Tailed)
Rejet de H0 si |tc|≥tα/2 Rejet de H0 si tc≤tα Reject de H0 si tc≥tα

Exemples

2.5.3. Le test de chi-carré χ2 (khi-deux, khi2)


a) Définition et démarche générale

Un test du Khi deux est un test d'hypothèse qui compare la loi de distribution observée de vos données à
une loi attendue. Le χ² (synonymes χ2, Chi2, Khi2, Chi², Khi²) permet de comparer des répartitions
d'effectifs.

Il existe plusieurs types de tests du Khi deux :


*Test d'ajustement du Khi deux :
Cette analyse permet de vérifier à quel point un échantillon de données de catégorie est ajusté à une loi
théorique.
Vous pouvez tester la régularité d'un dé en le lançant à plusieurs reprises et en passant par un test
d'ajustement du Khi deux pour déterminer si les résultats suivent une loi uniforme. Dans ce cas, la
statistique du Khi deux quantifie l'écart qui sépare la loi de distribution observée des
dénombrements de la loi hypothétisée.
*Tests d'association et d'indépendance du Khi deux :
Les calculs sont identiques pour ces tests, mais la question à laquelle vous essayez de répondre peut être
différente :
-Test d'association : utilisez un test d'association afin de déterminer si une variable est associée à une
autre. P.ex : déterminez si les ventes de voitures de différentes couleurs dépendent de la ville d'achat.
-Test d'indépendance : utilisez un test d'indépendance afin de déterminer si la valeur observée d'une
variable dépend de la valeur observée d'une autre variable. P.ex : vous pouvez vérifier si le vote d'une
personne pour un candidat est indépendant du sexe de l'électeur.

*Test d’homogénéité :
Le khi2 d'homogénéité est un khi d'indépendance. Il est seulement réalisé dans un but différent. Le Khi2
d'homogénéité permet de vérifier que les répartitions de différents effectifs sont équivalentes.

b) Les grandes étapes d'application du test de khi-deux de contingence

- Identifier si le test de khi-deux est applicable sur le tableau.


- Si oui, formuler l'hypothèse d'indépendance : "On fait l'hypothèse qu'il y a une relation d'indépendance
entre les lignes et les colonnes du tableau".
- Calculer l'indicateur de khi-deux en calculant le tableau des effectifs théorique et le tableau des écarts à
l'indépendance.
- Confronter l'indicateur de khi-deux à la table de loi de khi-deux ce qui nous permet d'accepter ou de
rejeter l'hypothèse d'indépendance.
33

- Interpréter les résultats du test en examinant le tableau d'origine (ou tableau des effectifs observés), le
tableau des effectifs théoriques et le tableau des écarts à l'indépendance

c)Types de χ²

C.1. LE TEST D'AJUSTEMENT de χ²

a)Objectif:
Les observations faites sur un échantillon conduisent à une certaine distribution de fréquences. Peut-on
modéliser cette distribution par un modèle théorique connu ?

La méthode consiste à comparer l'histogramme des fréquences et la distribution de la loi de probabilité


servant de modèle théorique. Pour cela, après avoir découpé l'intervalle d'observation en k classes, on
construit un indice d mesurant l'écart constaté entre les effectifs réels et les effectifs théoriques.

où ni = effectif observé dans la classe i


n = effectif total observé
pi = probabilité d'obtenir une observation de la loi de probabilité théorique dans la classe i
npi = effectif théorique dans la classe i

b) Hypothèses:
Ho = {la distribution observée n'est pas significativement différente de la distribution théorique}
contre H1 = {la distribution observée est significativement différente de la distribution théorique}

c) Statistique de test:

On utilise la statistique

On sait que quand Ho vraie


où k est le nombre de classes et r le nombre de paramètres qui ont été estimés pour que la loi théorique soit entièrement
déterminée.

d) Règle de décision:
d > h on rejette Ho
d < h on "accepte" Ho

e) Détermination du seuil critique:


= P [rejeter Ho quand Ho vraie]
= P [ D > h quand Ho vraie]

étant donné, on en déduit la valeur de h


f) Décision:
Les valeurs ni ayant été observées sur l'échantillon, et les valeurs pi calculées, il ne reste plus qu'à
comparer d avec h pour prendre une décision en fonction de la règle de décision.
34

Remarques:
1) Le choix et le nombre de classes est arbitraire. Cependant pour que l'approximation par la loi du
soit bonne, il est nécessaire que les effectifs théoriques dans chacune des classes soit au moins égal à
5. Si ce n'est pas le cas, il faut au préalable regrouper les classes contigües afin d'avoir un effectif
suffisant. La valeur de k intervenant dans le nombre de degrés de liberté de la loi du est celle obtenue
après les éventuels regroupements.
2) La probabilité de rejeter le modèle théorique à tort est connue ( ); par contre on ne peut calculer la
probabilité d'accepter le modèle théorique à tort. D'autre part, un test, faute de preuves expérimentales
suffisantes, se rabat sur l'hypothèse Ho. On se gardera d'utiliser les facilités des logiciels pour tester à
tort et à travers une multitude de modèles théoriques. Il faut au préalable avoir de bonnes raisons pour
soupçonner tel ou tel autre modèle théorique.

C.2. LE TEST D'INDEPENDANCE de χ²

a) Objectif:
Les observations de deux variables qualitatives faites sur un échantillon permettent-elles de conclure à
l'indépendance de ces variables?
La méthode consiste à comparer les effectifs réels des croisements des modalités des deux variables
qualitatives avec les effectifs théoriques qu'on devrait obtenir dans le cas d'indépendance de ces deux
variables. Pour cela, on construit un indice d mesurant l'écart constaté entre les effectifs réels et les
effectifs théoriques.

où nij = effectif observé des individus possédant la modalité i de la 1° variable et la modalité j de la 2° variable
n = effectif total observé
pij = probabilité d'obtenir une observation possédant la modalité i de la 1° variable et la modalité j de la 2° variable
lorsqu'elles sont indépendantes
npij = effectif théorique des individus possédant la modalité i de la 1° variable et la modalité j de la 2° variable

b) Hypothèses:
Ho = {les deux variables qualitatives sont indépendantes}
contre H1 = {les deux variables qualitatives sont dépendantes}

c) Statistique de test:

On utilise la statistique

On sait que quand Ho vraie


où l est le nombre de modalités de la 1° variable (nombre de lignes du tableau de contingence) et c est le nombre de
modalités de la 2° variable (nombre de colonnes du tableau de contingence)
d) Règle de décision:
d > h on rejette Ho
d < h on "accepte" Ho

e) Détermination du seuil critique:


= P [rejeter Ho quand Ho vraie]
= P [ D > h quand Ho vraie]
35

étant donné, on en déduit la valeur de h

f) Décision:
Les valeurs nij ayant été observées sur l'échantillon, et les valeurs pij calculées, il ne reste plus qu'à
comparer d avec h pour prendre une décision en fonction de la règle de décision.
Remarques:

1)
où ni. est l'effectif des individus possédant la modalité i de la 1° variable et n.j l'effectif des individus possédant la
modalité j de la 2° variable.

2) Pour que l'approximation par la loi du soit valable, il est nécessaire que les effectifs
théoriques dans chacune des cellules soit au moins égal à 5. Si ce n'est pas le cas, il faut au
préalable regrouper les modalités d'une variable (ceci n'est pas forcément évident vu que les
variables sont qualitatives) afin d'avoir un effectif suffisant.

C.3. TEST D'HOMOGENEITE

a)Objectif: Le khi2 d'homogénéité est un khi d'indépendance. Il est seulement réalisé dans un but
différent. Le Khi2 d'homogénéité permet de vérifier que les répartitions de différents effectifs sont
équivalentes.

La méthode consiste à comparer les effectifs réels de chaque modalité sur les différents échantillons, avec
les effectifs théoriques qu'on devrait obtenir dans le cas où ils seraient issus d'une même population. Pour
cela, on construit un indice d mesurant l'écart constaté entre les effectifs réels et les effectifs théoriques.

où nij = effectif observé des individus de l'échantillon i, possédant la modalité j de la variable


n = effectif total observé
pj = probabilité d'obtenir une observation possédant la modalité j de la variable lorsqu'on est en
présence d'une seule population
npj = effectif théorique des individus possédant la modalité j de la variable lorsqu'on est en présence
d'une seule population

b)Hypothèses:
Ho = {les k échantillons sont issus d'une seule population}
contre H1 = {les k échantillons sont issus de deux populations différentes}
Plus précisément, ce test repose ainsi sur 2 hypothèses :
 H0 : il n'y a pas de différence significative dans la répartition des groupes étudiés
 H1 : il y a une différence - cette hypothèse est a affiné en fonction du cas étudié (cf. exemple ci-
dessous)
36

c)Statistique de test:

On utilise la statistique

On sait que quand Ho vraie


 où k est le nombre d'échantillons (nombre de lignes du tableau) et c est le nombre de modalité de
la variable (nombre de colonnes du tableau)

d)Règle de décision:
d > h on rejette Ho
d < h on "accepte" Ho

e)Détermination du seuil critique:


= P [rejeter Ho quand Ho vraie]
= P [ D > h quand Ho vraie]

étant donné, on en déduit la valeur de h

f)Décision:
Les valeurs nij ayant été observées sur l'échantillon, et les valeurs pj calculées, il ne reste plus qu'à
comparer d avec h pour prendre une décision en fonction de la règle de décision.

Remarques:
1) Pour que l'approximation par la loi du soit valable, il est nécessaire que les effectifs théoriques dans
chacune des cellules soit au moins égal à 5. Si ce n'est pas le cas, il faut au préalable regrouper les
modalités de la variable (ceci n'est pas forcément évident vu que la variable est qualitative) afin d'avoir un
effectif suffisant.

c.4) COMMENT LIRE LA TABLE DE χ²?

Dans tous les cas une seule ligne de cette table nous intéresse. On doit donc d'abord identifier à quelle
ligne du tableau nous devons nous reporter pour ensuite trouver le seuil de probabilité d'acceptation ou de
rejet de l'hypothèse d'indépendance.

En ligne figurent les degrés de libertés (appelé , pour calculer le nombre de degrés de liberté d'un tableau,
c'est très simple, on effectue le calcul suivant :

ddl=(nombres de lignes – 1) (nombres de colonnes – 1)

En colonne figure ce que l'on peut considérer comme le seuil de probabilité d'acceptation ou de rejet de
l'hypothèse d'indépendance.
37

En général, les tests de khi deux, et les analyses descriptives en générale, ne permettent pas de répondre à
la question : pourquoi ? Il est nécessaire de confronter ces résultats a des éléments non statistiques comme
le contexte de réalisation de l'enquête, des entretiens, des observations pour comprendre le phénomène...

Exemple

2.6. Puissance de test


Aucun test d'hypothèse n'est fiable à 100 %. Le test étant basé sur des probabilités, il existe toujours un
risque de tirer une mauvaise conclusion. Lorsque vous effectuez un test d'hypothèse, vous pouvez
rencontrer deux types d'erreurs : l'erreur de 1ère espèce (Type I) et l'erreur de 2e espèce (Type II). Les
risques de ces deux erreurs sont inversement proportionnels et sont déterminés par le seuil de signification
et la puissance du test. Par conséquent, vous devez déterminer celle qui présente les conséquences les plus
graves dans votre cas avant de définir le risque que vous acceptez pour chaque erreur.
Erreur de 1ère espèce
Vous commettez une erreur de 1ère espèce lorsque l'hypothèse nulle est vérifiée mais que vous la
rejetez. La probabilité de commettre une erreur de 1ère espèce est représentée par α, qui désigne le
seuil de signification que vous définissez pour le test d'hypothèse. Un niveau d'α de 0,05 indique
que vous êtes disposé à avoir 5 % de chances de rejeter l'hypothèse nulle à tort. Pour réduire ce
risque, vous devez utiliser une valeur d'α plus faible. Toutefois, cela implique que vous serez
moins à même de détecter une vraie différence si celle-ci existe vraiment.
Erreur de 2e espèce
Lorsque l'hypothèse nulle est fausse et que vous ne la rejetez pas, vous faites une erreur
de 2e espèce. La probabilité de commettre une erreur de 2e espèce est β, qui dépend de la
puissance du test. Vous pouvez réduire le risque de commettre une erreur de 2e espèce en faisant
en sorte que le test soit suffisamment puissant. Pour ce faire, veillez à ce que l'effectif
d'échantillon soit suffisamment grand pour permettre la détection d'une différence réelle.

La probabilité de rejeter l'hypothèse nulle lorsqu'elle est fausse est égale à 1 – β. Il s'agit de la puissance
du test.

On appelle PUISSANCE D’UN TEST P la probabilité de rejeter l‟hypothèse nulle, face à une hypothèse
alternative, alors qu‟elle est fausse. La valeur complémentaire à 1 de cette puissance, c‟est-à-dire la
probabilité de ne pas rejeter l‟hypothèse nulle alors que l‟hypothèse alternative est vraie, s‟appelle le
RISQUE DE DEUXIEME ESPECE et se note conventionnellement β : β = 1 - P.

Par définition, la puissance d'un test, c'est : 1 - P( erreur de type II ).

Généralement, la puissance n'est pas un nombre mais une fonction. L‟hypothèse nulle est souvent de la
forme H0 : << mu = mu0 >> et l'hypothèse alternative de la forme H1: << mu différent de mu0 >>. La
puissance va dépendre de la valeur réelle de mu : si mu est proche de mu0, le risque d'erreur est grand et
la puissance faible, par contre, si mu et mu0 sont très différents, le risque d'erreur est plus faible et la
puissance plus élevée.

La puissance d'un test dépend de la nature du test choisi, du niveau de signification du test, de la taille
de l'échantillon, de la vraie valeur du paramètre ou mesure testée.

Comme un trop petit échantillon peut faire rater une différence importante, un trop grand échantillon peut
révéler une différence sans importance bien qu‟elle soit significative.
Ex : QI / taille des enfants corrélés (calculé a posteriori, r = 0,03 !) à p<0,001 avec un échantillon de
14000.
38

Rappel : erreur de type I = α = proba de rejeter H0 quand elle est vraie


- Erreur de type II = β = proba de retenir H0 quand elle est fausse
 1 - β = proba de rejeter H0 quand elle est fausse (= proba de détecter une différence) = puissance du
test.
NB : quand β diminue la puissance du test augmente…

Facteurs qui affectent la puissance du test :


1) Distance X  µo (plus la distance est grande, plus il y a de chances de rejeter H0)
2) Taille de l‟échantillon : s X = sX/ n  plus n est grand, plus s X est petit, moins il y a de
chevauchement entre les distributions des moyennes X et µo.
3) Ecart-type des distributions, sX  éviter les variables parasites et essayer d‟apparier…
4) Niveau de significativité : plus α augmente plus la puissance de test augmente (au détriment de la
protection d‟une erreur de type I).
5) Un test unidirectionnel est plus puissant qu‟un test bidirectionnel.

Résolution (effect size)


Il s‟agit ici d‟une question de recherche (≠ statistique) : quelle est l‟ordre de grandeur d‟une différence
(discrepancy - entre la valeur d‟hypothèse et la valeur vraie) qu‟il nous semble important de considérer ?
Une manière pratique de répondre à cette question est d‟exprimer cette différence (d) en termes d‟écarts-
type (estimés le plus souvent).
X µhypo
Pour un test d‟hypothèse sur une moyenne unique, d =
σ (ou s)
(X-Y) - (µX-µY)hypo
Pour un test d‟hypothèse sur une différence de moyennes, d =
σ (ou s)
On peut par ex. considérer respectivement comme modérée et conséquente une d de 0,5 et 0,8 écarts-type.
NB : on ne peut en principe calculer la puissance du test que si µ est connue, ce qui est rarement le cas 
choisir une puissance d‟au moins 0,8 (80% de chances de rejeter H0 quand elle est fausse).
 On peut maintenant déterminer la taille de l‟échantillon en fonction de la :
- Puissance du test = proba de ne pas rater une…
- Différence de grandeur choisie (résolution).
Par ex., avec d = 0,5 et 1- β = 0,8, la consultation de courbes de puissance (power curves) pour un test de t
non-apparié et non-directionnel à α = 0,05 donne un effectif (n) de ~60.

Réalité
H0 fausse H0 vraie
Rétention Type II OK
Décision
Rejet OK Type I
Domaine β Domaine α

La puissance intervient dans la conception d'une expérience. Imaginons que l'on veuille savoir si la
moyenne mu d'une certaine variable d'une population est bien égale à mu0. On veut pouvoir détecter une
différence égale à epsilon dans au moins 80% des cas, avec un risque d'erreur inférieur à 0.05 : quelle doit
être la taille de l'échantillon ? En d'autre termes, on veut que la puissance du test de H0 : << mu = mu0 >>
contre H1: << abs(mu - mu0) > epsilon >> soit au moins 0.80 (la tradition veut que l'on prenne 0.80 pour
la puissance des tests et 0.05 pour le risque)

Exemples
39

Chap. 3. Comparaisons de plusieurs échantillons; les ANALYSES DE VARIANCE ou ANOVA

3. 1. Définition et démarche générale


L'ANOVA est le nom donné au modèle qui nous offre le moyen d'utiliser un échantillon des données pour
vérifier si les valeurs de trois ou plusieurs moyennes des populations inconnues sont vraisemblablement
différentes. On peut démontrer que si la comparaison concerne deux moyennes, alors les résultats de
l'ANOVA sont les mêmes que ceux obtenus par le test de Student.
Pourquoi ne pas faire n tests de t ?
- Lourd ! (ex : avec 7 groupes  21 tests)
- Augmentation dramatique du risque d‟erreur de type I : avec α = 0,05 et des groupes indépendants, la
proba d‟erreur = 1-0,95n = 1-0,9521 = 0,66 avec 21 tests !
- Avec n groupes, on ne sait pas à quoi au juste on compare un groupe donné…

C’est Fisher, père de la statistique moderne, qui développe l’ANOVA


Avant de continuer, précisons la terminologie. On appellera réponse ou variable dépendante, la variable
quantitative en étude, celle dont on veut expliquer la variabilité. Par exemple, le chercheur peut
s'intéresser au rendement des parcelles, au nombre des feuilles malades sur une plante. L'objectif est
d'étudier l'effet, l'influence, l'impact, la conséquence ou la portée d'une ou plusieurs variables dites
explicatives sur la réponse. Par exemple, on étudiera l'effet de la variété sur le rendement d'une culture
dans un essai variété. On peut s'intéresser aussi à étudier l'impact du niveau d'azote sur le pourcentage des
feuilles malades dans un essai fertilisant. Cette variable explicative est communément appelée facteur. Le
facteur est la variable dont on veut vérifier l'impact sur la réponse. Le facteur est une variable qualitative.
Les niveaux du facteur sont les valeurs du facteur utilisés dans l'expérimentation.
L'ANOVA est la technique qui décompose la variabilité totale observée sur la variable en étude en
variabilités intra-groupes ou entre groupes. L'ANOVA est donc cette technique qui consiste à étudier une
variable quantitative par une variable qualitative dans un contexte bien déterminé de planification
expérimentale. Les catégories de chaque facteur sont les groupes ou les traitements expérimentaux et le
but est de comparer la moyenne de la réponse, de la variable continue en étude, entre ces groupes.
Pour une variable explicative, on a une anova1, anova2 pour deux variables explicatives, ….

3.2. But et conditions d’ANOVA


Les deux buts de l‟ANOVA sont :
- examiner la contribution relative de différentes sources de variation (facteur ou combinaison des
facteurs, c‟est-à-dire les variables indépendantes) par rapport à la variation totale dans la réponse ou la
variable dépendante ;
- tester l‟hypothèse nulle (Ho) que la moyenne des groupes des populations ou des traitements sont
égales.
Comme dans toute méthode statistique, l'ANOVA a ses suppositions afin qu'elle soit valable. Ces
suppositions sont:
1. les populations en étude ont une distribution normale, en d'autres termes, l'ANOVA est valable pour les
données de mesure.
2. Les échantillons doivent être extraits de la population de façon aléatoire. Ils doivent être indépendants
les uns des autres.
3. Les populations que constituent les différents groupes doivent avoir la même variance. Cela veut dire
que les mesures doivent être faites avec la même précision.
40

Dans le cas des données qui affichent la non-normalité manifeste, il existe des alternatives. La première
vient de la statistique non-paramétrique à savoir le test de Kruskal-Wallis que nous donnons dans les
fiches d'exercice. La deuxième vient du Modèle Linéaire Généralisé qui propose des possibilités de choix
de la distribution.

3.3. Vérification de la normalité des échantillons


Seuls des échantillons suivant une loi normale peuvent faire l‟objet d’une analyse de variance
paramétrique. Pour vérifier que la distribution d‟un échantillon suit une loi normale, il est possible
d‟utiliser des tests.
Les tests de normalité servent à s‟assurer qu‟une condition est remplie pour procéder ensuite à une
analyse, régression linéaire multiple (normalité des résidus), tests sur de petits échantillons ou analyse
discriminante bayésienne, par exemple.
Un examen préalable des données consiste tout simplement à construire un graphique. Un diagramme en
barres permet de visualiser si la distribution de la population suit une loi normale (gaussienne). Il vaut
mieux avoir déjà éliminé les éventuels outliers, surtout si la population n‟est pas d‟une taille gigantesque.
La droite de Henry permet aussi une bonne visualisation des écarts par rapport à la gaussienne. Des
statistiques simples permettent éventuellement vérifier notre première impression : coefficients
d‟aplatissement et d‟asymétrie, qui doivent être proches de zéro.
Choix de tests : Les plus connus sont celui du khi² et celui de Kolmogorov-Smirnov. Mais ils ne
s‟appliquent pas seulement à la vérification de l‟adéquation à une loi normale, c‟est pourquoi ils ne sont
pas développés ici. Les tests de Lilliefors, d‟Anderson-Darling et de Cramer-von Mises sont des variantes
du test de Kolmogorov.

Le test de Shapiro-Wilk : Très populaire, le test de Shapiro-Wilk est basé sur la statistique W. En
comparaison des autres tests, il est particulièrement puissant pour les petits effectifs (n ≤ 50). La
statistique du test s'écrit :

xi = correspond à la série des données triées


[n/2]=partie entière du rapport n/2
ai= sont des constantes générées à partir de la moyenne et de la matrice de variance-covariance des quantiles d'un
échantillon de taille n suivant la loi normale. Ces constantes sont fournies dans des tables spécifiques

3.4. Homoscédasticité des variances


On calcule les différentes variances pour chacun des échantillons à comparer, et on fait le rapport de la
plus grande sur la plus petite, ce rapport est F.
Cette valeur est comparée, dans une table de Hartley (ou du Fmax), à une valeur théorique et doit lui
être inférieure pour un seuil de risque choisi (par exemple, 95 %) pour conserver l'hypothèse
d'homogénéité des variances.
Les d.d.l. sont, pour la colonne de la table du Fmax, le nombre de traitements (=k) (colonnes de
données), et pour la ligne de la table, le nombre de données du plus grand échantillon - 1 (=n-1).
Parmi la longue liste des tests de variance, le test de Bartlett est le plus prisé mais est également le moins
robuste et le plus sensible à la non normalité des données.
Le test :
Hypothèse préliminaire: continue et qualitative. Normalité des distributions.
41

La statistique du test des variances de Bartlett a pour formule:

Où, l‟estimateur de la variance globale sur tous les échantillons confondus.


Cette statistique de test suit une loi du à degrés de liberté. Et l‟hypothèse est: « les variances
des sous-échantillons sont égales / «.

Ex4. Pour fixer les quotas laitiers, on souhaite réaliser une estimation de la production laitière annuelle du
cheptel de la au Sud kivu. Cette production varie évidemment d'un animal à l'autre, mais aussi,
vraisemblablement, d'un territoire à l'autre. L'expérimentateur décide de prospecter trois territoires: la
Uvira, Kalehe et Kabare. Dans chaque territoire, il recueille les statistiques de production de dix vaches,
prises au hasard dans différentes exploitations. Ci-dessous, voici ce qui est mis à votre disposition:

Uvira kalehe Kabare


moyenne
Moyennes 3714,8 4400,4 5157,4 4424,2
générale
moyenne
Variances 696291,5 1184127,4 1244629,8 1041682,9 des
variances

Apres avoir compléter le tableau d‟anova on a:

SCE dl CM Fobs
Totale 38539408,8 29
Factorielle 10413970,4 2 5206985,2 4,99
Résiduelle 28125438,4 27 1041682,904

Quelles conclusions pouvez-vous en tirer?


Correction
Homoscédasticité: 1244629.8/696291.5=1,787 < 5,34 (H pour 3 et 9 dl) donc on accepte l'idée que les
variances sont homogènes, donc on peut réaliser l'ANOVA. ANOVA: Ftable compris entre 3,37 et 3,34
pour alpha=0,05, et compris entre 5,53 et 5,45 pour alpha=0,01, donc nous refusons l'hypothèse nulle à
alpha=0,05 et on l'accepte à alpha=0,01: L'effet étudié est significatif.

3.5. Transformations des données


Lorsque les données ne sont pas distribuées normalement et que la normalité est requise pour un test
donné, deux options s‟offrent à nous :
• Utiliser des tests non-paramétriques (souvent moins puissantes), ou des tests par permutations
• Transformer les données pour que ces dernières suivent une distribution normale (normaliser)
Les méthodes de transformation des données se déclinent donc en trois familles:
– la standardisation ou l‟action de centrer-réduire les données pour diminuer l‟échelle de dispersion tout
en conservant la forme des distributions conjointes,
– la transformation en vecteur de rangs dont l‟objectif est de se concentrer sur l‟ordre des valeurs des
données et plus sur les valeurs elles-mêmes,
– la normalisation des données qui consistent à rechercher la transformation adaptée au travers de laquelle
elles suivront une loi normale.
a) La standardisation
Il s‟agit de centrer-réduire la matrice en retranchant pour chaque vecteur sa moyenne et
en divisant par son écart-type. La formule d‟usage est alors,
42

b) La transformation en rangs
La théorie des tests se divisent en deux familles: les tests paramétriques et les tests non paramétriques.
Dans le premier cas , variable aléatoire continue, doit répondre à des hypothèses d‟utilisation sur sa
distribution tandis que dans le second cas nous en faisons abstraction. Ainsi, lorsque les hypothèses
d‟utilisation ne sont pas respectées, les alternatives non paramétriques sont souvent des choix pertinents.
Il est alors judicieux de se baser sur une transformation en vecteur de rangs associés aux
variables quantitatives continues . L‟algorithme ci-dessous permet d‟expliciter cette
transformation pour une variable aléatoire :
1) ranger les valeurs de par ordre croissant,
2) chaque correspond à l‟indice du rang de dans ce classement,
3) dans le cas où nous avons:

c) La normalisation
Normaliser les données revient à appliquer une fonction sur tel que suit une loi normale.
Plusieurs méthodes simples existent comme,
 la transformation logarithmique:
 l‟élévation au carré:
 la mise sous racine carré:
 la transformation arc-sinus:
 la mise à l‟exponentielle:
 la transformation inverse:
Néanmoins ces méthodes requièrent l‟absence de valeurs négatives (à l‟exception de la mise à
l‟exponentielle et de la transformation inverse), l‟absence de valeurs nulles (pour la transformation
logarithmique et la transformation inverse) ou d‟un intervalle spécifique dans lequel prend ses valeurs
(ainsi pour la transformation arc-sinus il faut que ).
Dans le cas de la présence de valeurs négatives, un paramètre de translation peut être appliqué afin de
déplacer la distribution sur un intervalle de valeurs positives tout en conservant la forme de la
distribution. Pour le cas des valeurs nulles, la méthode à suivre est souvent de « tricher » en supposant
qu‟il s‟agit d‟une valeur très faible arrondie et en lui attribuant une valeur décimale (par exemple:
) en fonction de l‟intervalle de valeurs prises par de manière à ce qu‟elle n‟influe pas la
distribution générale.
Deux autres outils de normalisation existent et sont plus performants: la transformation Box-Cox et la
transformation de Johnson.
La normalisation de Box-Cox
La transformation de Box-Cox consiste en réalité en l‟application d‟un algorithme qui va chercher à
maximiser la log-vraisemblance d‟une configuration de la variable en fonction du paramètre de
transformation noté . Il convient de fixer au préalable un intervalle de variation pour , sachant qu‟il n‟y
a pas de règle encore définie sur ce paramètrage.
L‟objectif est donc de maximiser la log-vraisemblance, dépendante de , et de formule:

Où représentent, respectivement, la moyenne et l‟écart-type calculés à partir de la fonction


de transformation de Box-Cox pour variant dans son intervalle de variation fixé et de formule:

Notons que le retour au vecteur se fait via la transformation suivante:

Exercices
43

3.5. Analyse de variance à un facteur (ANOVA 1)

L‟ANOVA 1 est une technique de statistique inférentielle ou décisionnelle qui consiste à comparer les
moyennes d'un caractère de plusieurs populations. En d'autres termes, elle sert à tester un impact, à
réveler un effet ou à montrer l'influence ou une conséquence d'une technologie ou d'une procédure sur
ce caractère

a) Anova1 pour échantillons indépendants

L'hypothèse nulle H0 est l'égalité des moyennes des populations dont sont extraits les échantillons :
m1=m2=m3=...=mk

a.1) Principe

Notation : Le nombre d'échantillons est noté k, le nombre de mesures par échantillon est désigné par n et
le nombre total de mesures, kn.

L'analyse de variance à un facteur (one-way analysis of variance) va consister à chercher le rapport entre
la variance entre les groupes (V. inter-groupe) et la variance à l'intérieur des groupes (V. intra-groupe).

La valeur de ce rapport appelé F [attention : ce F n‟a rien a voir avec le F du test de vérification de
l‟homogénéité des variances] est comparée à celle d'une table de F de Snedecor, table à double entrée
avec pour numérateur le [nombre d'échantillons (k) moins un] soit (k-1) et pour dénominateur le
[nombre total de mesures - k] soit (kn-k).

a.2) Calcul
1. Manuellement, on calcule :
a) la variance totale par rapport à la moyenne globale des n mesures ;
b) la variance intra-groupes (celle qui n'est pas liée aux conditions expérimentales).
2. Par différence [a-b] on obtient la variance inter-groupes (qui est liée aux différences de conditions
expérimentales).
a = [a-b] + b
Variance totale = Variance inter-groupe + Variance intra-groupe
[SCE à la moyenne générale] = [SCE factorielle] + [SCE résiduelle]
=

3. On calcule le rapport :
F = variance inter-groupes/variance intra-groupes ou résidu.
[attention : ce F n‟a rien à voir avec le F du test de vérification de l‟homogénéité des variances]

a.3) Notation :
Le terme "groupe" peut être remplacé par "variable expérimentale" ou "condition expérimentale" ou quoi que ce
soit qui différencie les groupes (colonnes). De même, le terme "individu" peut concerner différentes entités : des
points de prise d'échantillons le long d'une rivière, des êtres vivants, etc (lignes) ...
44

groupe 1 groupe j groupe k

... ... ...

... ... ...

Il s‟agit de compléter la Table d‟anova ci-dessous

Source : DDL S. des carrés Carré moyen : Test-F prob


variance
Entre groupes Ddl facteur SCEfacteur SCEfacteur/ddl CMf/CMr p (H0) F>Fobs
facteur
Intra-groupes DDL résidu SCEresidu SCEresidu/ddl
residu
Total DDL total SCEtotal
Pour y arriver des Calculs intermédiaires sont :
Ti Tj Tk G totaux
somme des carrés
Moyennes

(1) (2) (3)


Décomposition de l'analyse de variance :
SCE traitements (3)-(1) ddl : k-1
-
SCE erreur (2)-(3) ddl : kn-k
-
SCE total (2)-(1) ddl : kn-1
-

Exemple 1
On veut savoir si la quantité d‟une substance polluante (nitrates) varie d'un village à l‟autre (station) le
long d'une rivière. Pour cela, on prélève en 10 points (n=10) chaque fois une certaine quantité d'eau dans
3 villages (stations) différentes (k=3).
Nitrates Station 1 Station 2 Station 3
50,00 162,00 120,00
52,00 350,00 120,00 n
123,00 125,00 122,00 10
100,00 320,00 221,00
200,00 112,00 253,00
250,00 200,00 141,00
220,00 40,00 182,00 k
220,00 162,00 175,00 3
300,00 160,00 160,00
220,00 250,00 214,00
45

T1 T2 T3 total : G
sommes 1735,00 1881,00 1708,00 5324,00
moyennes 173,50 188,10 170,80 177,47
 (x2) 368033,00 +435257,00 +311560,00 = 1114850,00
Somme des carrés des écarts (SCE) entre traitements (inter-groupe) 1732,47

= ou =(moyjmoyXn
Sommes des carrés des écarts (SCE) expérimentales (erreur exp) ou résidu total

(intra-groupe)  - ou = X-moyT)2)
erreur = 67010,50 81440,90 19833,60 168285,00
Somme totale des carrés des écarts = 170017,47

- ou (X-moyX)2
D‟où :
Variance inter-groupes = SCE inter-groupes/ddl = 1732,47/2 = 866,23
Variance intra-groupes = SCE intra-groupes/ddl = 168285/27 = 6232,78
Calcul de F = Variance inter-groupes / Variance intra-groupes = 0,14

Exemple2
On dispose de k=3 échantillons comprenant n=5 individus dont les valeurs sont données dans le tableau
ci-après : Il s‟agit du temps de début de germination après traitement des grains de 3 variétés :

var1 var2 var3


7 3 0
6 3 0
6 3 1
5 4 1
5 5 2

Résumé de l‟Analyse de la variance

Source : DDL S. des carrés Carré moyen : Test-F


Entre variétés 2 62,8 31,4 42,8182
Intra-variétés 12 8,8 ,7333 p=,0001
Total 14 71,6

Estimation de la variance entre composants = 6,1333

Dans cet exemple, la valeur de F(2,12) est très supérieure au seuil de signification de 1% : 6,93. La
probabilité exacte calculée est de 0,0001.L‟hypothèse nulle est donc rejetée. On considère que les 3
échantillons diffèrent significativement (la probabilité de se tromper est de 0,0001). Ces trois variétés
réagissent donc de façon significativement différente au traitement de dormance.

NB : Lorsque l’analyse de variance montre qu’il existe de différences significatives entre les groupes
(rejet de Ho), il est recommandé de réaliser les tests post hoc de comparaison des moyennes
46

b) ANOVA et comparaisons multiples : tests post hoc


ANOVA est un test global. Si l'hypothèse d'égalité des moyennes est rejetée, ANOVA ne fournit pas
d'analyse des raisons de ce rejet. Il ya intérêt à pouvoir poursuivre l'analyse plus avant, par exemple en
identifiant un groupe plus particulièrement "responsable" de ce rejet. Des tests existent pour nous
permettre de faire cette identification. Ils sont à utiliser seulement si F est significatif…
La Statistique a ainsi été amenée à développer un grand nombre de tests consécutifs à une ANOVA
ayant rejeté l'hypothèse nulle, et destinés à analyser des raisons ayant amené ce rejet. Ces tests sont
qualifiés de "a posteriori", ou "post hoc".

b.1) Le LSD de Fischer (Procédure de "least significant difference method" de Fisher) ou PPDS (plus
petite difference significative) est utilisé pour tester l‟hypothèse nulle que toutes les moyennes de la
population sont égales. C‟est une méthode pour contrôler les erreurs de type 1 lorsque l‟on compare
plusieurs paires de moyennes. Lorsque les résultats de l‟ANOVA sont significatifs, on peut comparer les
moyennes des groupes 2 à 2 en utilisant un test de t.

The formula for the least significant difference is:

Where:
t = critical value from the t-distribution table
MSw = mean square within, obtained from the results of your ANOVA test
n = number of scores used to calculate the means

Calculate the Least Significant Difference for the difference between two means on Group 1 and Group 2 with the following
test results:

Le test PPDS est la procédure la plus simple pour comparer des paires. Cette procédure fournit une valeur
unique de la PPDS qui, à un niveau de signification déterminé, marque la limite entre la différence
significative et non significative entre une paire de moyennes de traitements quelconque. Deux
traitements présentent donc des différences significatives à un seuil de signification prescrit si leur
différence est supérieure à la valeur calculée de la PPDS. Dans le cas contraire, leurs différences sont
considérées comme non significatives.

Si le test PPDS est tout à fait approprié pour les plans de comparaisons appariées, il ne permet pas de
comparer toutes les paires de moyennes possibles, surtout si le nombre de traitements est grand. En effet,
le nombre de paires de moyennes de traitements possibles augmente rapidement avec le nombre de
traitements. La probabilité qu‟au moins une paire ait une différence supérieure à la valeur de la PPDS, et
uniquement due au hasard, augmente avec le nombre de traitements testés.

On évitera donc de recourir au test PPDS pour comparer toutes les paires de moyennes possibles. Dans
les cas où ce test s‟applique, on ne l‟utilisera que si le critère F relatif à l‟effet des traitements est
significatif et si le nombre de traitements n‟est pas trop élevé (inférieur à six).

La procédure d‟application du test PPDS pour comparer deux traitements quelconques – par exemple le
traitement i et le traitement j, se déroule en plusieurs étapes :

*Etape 1. Calculer la différence moyenne entre le traitement i et le traitement j :


47

où sont les moyennes des traitements i et j.

*Etape 2. Calculer la valeur de la PPDS, au seuil de signification :

où est l‟erreur-type de la différence moyenne et est la valeur t de la distribution de Student, au seuil de signification
et pour v = degrés de liberté de l‟erreur.

*Etape 3. Comparer la différence moyenne calculée au cours de l‟étape 1 avec la valeur de la PPDS
calculée au cours de l‟étape 2. Si la valeur absolue de dij est supérieure à la valeur de la PPDS, conclure
que les différences entre les traitements i et j sont significatives au seuil de signification ,.

Lorsque l‟on applique cette procédure, il est important d‟identifier l‟erreur-type appropriée de la
différence moyenne ( ), applicable à la paire de traitements que l‟on veut comparer. La méthode varie
en fonction du plan d‟expérience utilisé, du nombre de répétitions des deux traitements soumis à la
comparaison et du type spécifique de moyennes que l‟on comparera. Dans le cas d‟un PER, lorsque les
deux traitements n‟ont pas le même nombre de répétitions, se calcule comme suit:

où ri et rj représentent le nombre de répétitions des traitements i et j, et s2 la moyenne des carrés des erreurs dans l‟analyse de
variance.

Exemple, à l‟aide des données du Tableau ci dessous. Le chercheur veut comparer les cinq isolats de R.
solani, en particulier la croissance de leur mycélium sur milieu PDA.

Tableau. Croissance du mycélium, en diamètre (mm), de la colonie d‟isolats de R. solani, sur milieu de
culture PDA, après 14 heures d‟incubation

Isolats de R. solani Croissance du mycélium Total des traitements Ẍ des traitements

Rép. 1 Rép. 2 Rép. 3 (Ti)

RS 1 29.0 28.0 29.0 86.0 28.67

RS 2 33.5 31.5 29.0 94.0 31.33

RS 3 26.5 30.0 56.5 28.25

RS 4 48.5 46.5 49.0 144.0 48.00

RS 5 34.5 31.0 65.5 32.72

Total général 446.0


48

MG 34.31
L‟anova donne :

Source de Degré de Somme des Carré moyen Valeur de F Valeur


variation liberté (dl) carrés (SCE) (CM) calculée tabulaire de F
5%
Traitement 4 762.69 190.67 57.38* 3.84
Erreur 8 26.58 3.32
Total 12 789.27
* Significatif au seuil de 5%
Pour appliquer le test PPDS, on procèdera par étapes, de la manière suivante :
*Etape 1. Calculer la différence moyenne entre chaque paire de traitements (isolats) comme indiqué.
*Etape 2. Calculer la valeur de la PPDS, au seuil de signification a . Etant donné que certains traitements
sont répétés trois fois et d‟autres deux fois, il faut calculer trois ensembles de valeurs de la PPDS.
Pour comparer deux traitements comportant chacun trois répétitions, la valeur de la PPDS se calcule
comme suit.

où la valeur de s2 = 3.32 est dérivée du Tableau 4.3 et la valeur de la distribution de Student t (2.31), pour
8 degrés de liberté, au seuil de signification de 5% est extraite de l‟Annexe 2.

Pour comparer deux traitements répétés trois fois chacun, calculer la valeur de la PPDS, comme suit :

Pour comparer deux traitements dont un est répété deux fois et l‟autre trois fois, la valeur de la PPDS est

= 3.84 mm

*Etape 3. Comparer la différence entre chaque paire de traitements calculée à l‟Etape 1 aux valeurs
correspondantes de la PPDS calculées à l‟étape 2, et placer la notation appropriée (astérisque, ns ou
absence d‟indication). Par exemple, la différence moyenne entre le premier traitement (comportant trois
répétitions) et le deuxième traitement (trois répétitions) est de 2.66 mm. Etant donné que la différence
moyenne est inférieure à la valeur de la PPDS correspondante (3.44 mm), elle est non significative au
seuil de signification de 5%. Par ailleurs, la différence moyenne entre le premier traitement (trois
répétitions) et le deuxième (deux répétitions) est de 4.05 mm. Etant donné que la différence moyenne est
supérieure à la valeur de la PPDS correspondante (3.84), elle est significative au seuil de 5%, ce que l‟on
indiquera par un astérisque.
Les résultats du test, pour toutes les paires de traitements, sont indiqués ci-dessous. Comparaison entre le
diamètre moyen (en mm) de chaque paire de traitements, à l‟aide du test PPDS, avec des répétitions non uniformes.
49

Traitement RS 1 RS 2 RS 3 RS 4 RS 5

RS 1 0.00 2.66 0.42 19.33* 4.05*


(3.44) (3.84) (3.44) (3.84)

RS 2 0.00 3.08 16.67* 1.39


(3.84) (3.44) (3.84)

RS 3 0.00 19.75* 4.47*


(3.84) (4.21)

RS 4 0.00 15.28*
(3.84)

RS 5 0.00
* Significative au seuil de 5%

Note: Les valeurs indiquées entre parenthèses sont les valeurs de la PPDS

Avant de passer à la section suivante, nous mentionnerons un point qui peut être utile pour déterminer le
nombre de répétitions à pratiquer pour qu‟une expérience soit " raisonnablement " fiable. Le principe est
que le nombre de répétitions doit être tel que les degrés de liberté de l‟erreur soient de l‟ordre de 12. En
effet, les valeurs critiques dérivées de certaines distributions, notamment des lois de Student ou des
distributions de F, se stabilisent pratiquement après 12 degrés de liberté, ce qui confère une certaine
stabilité aux conclusions tirées de ces expériences. Par exemple, si l‟on planifie un essai dans lequel les
traitements t sont répétés un nombre de fois égal, on identifiera le df de l‟erreur de t(r-1) à 12 et on
calculera r pour des valeurs connues de t. Des stratégies similaires peuvent être suivies pour de nombreux
autres plans qui sont expliqués dans les sections suivantes.

b.2.) Pour comparer toutes les paires possibles, on peut utiliser le HSD de Tukey :

Le HSD (honestly significant difference) intervals de Tukey : La technique du HSD de Tukey permet de
comparer toutes les paires de moyennes et d'y montrer des différences avec un risque alpha. La technique
du HSD permet de spécifier un "family confidence level" pour les comparaisons que vous entreprenez, au
contraire de la méthode du LSD qui contrôle le niveau d‟erreur pour une seule comparaison. L'intervalle
du HSD est plus large que celui du LSD, ce qui rend plus difficile de déclarer qu'une paire de moyennes
diffère significativement. Le test HSD est de ce fait plus conservatif.

On compare la différence de 2 moyennes (2 groupes) à HSD (honestly significant difference). Si XA -


XB > HSD, on rejette H0.
2
HSD = q sintra , où q est localisé dans une Table en fonction de k, DL et α.
n
Si n varie d‟un groupe à l‟autre, on utilise la moyenne harmonique de n :
ñ= k
(1/n A)  (1/n B) ...  (1/n k)
NB : alternative à ANOVA : comparaisons plannifiées, non-développé ici...
50

b.3) Pour comparer chaque groupe à un témoin, on peut utiliser Dunnett :

Le test de Dunnett est un test spécialisé pour la comparaison multiple. Le test de Dunnett est employé
quand les comparaisons ne sont faites qu‟avec le groupe témoin contre tous les autres groupes.

H0: X A = Xtémoin ; XB = Xtémoin ; etc…

t= XAXtémoin est localisé dans une Table pour α, k (témoin inclus) et DLintra.
sintra( 1  1 )
2
nA n témoin

b.4) Le F de Scheffé permet de déterminer si, après une ANOVA significative, les moyennes de 2 des
groupes de la variable indépendante diffèrent. Le test de Scheffé ne demande pas que tous les échantillons
utilisés dans l‟ANOVA aient la même taille. Le test de Tukey, lui, nécessiterait des échantillons de même
taille. Ce test très conservatif ne devrait être utilisé que quand tous les échantillons de l‟ANOVA ont des
tailles différentes.

L'intervalle de Scheffé associe l'erreur d'estimation pour chaque moyenne en utilisant la méthode de F-
distribution. Cela permet de faire des comparaisons linéaires parmi les moyennes de l'échantillon tout en
contrôlant le taux d'erreur ("experiment wide error rate") à un niveau défini.

Autres tests de comparaison de moyennes :

La procédure de Newman-Keuls: C'est une procédure de comparaisons multiple qui permet de


comparer toutes les paires de moyennes en contrôlant le risque alpha global, à un niveau défini. C'est une
procédure par étape, reposant sur une Studentized range distribution. Bien qu'il ne fournisse pas
d'estimation de l'intervalle de différence entre chaque paire de moyennes, il indique quelles moyennes
sont significativement différentes des autres.

Les intervalles de Bonferroni : permettent de comparer plusieurs moyennes. Cette méthode s'applique
que la taille des groupes soit la même ou non. Utilisant la F-distribution, il génère des intervalles qui
permettent de faire un nombre défini de comparaisons linéaires parmi les moyennes de l‟échantillon
(sample means) tout en contrôlant le taux d‟erreur expérimental à un niveau défini (specified level). Dans
les procédures des STATLETS ANOVA, le nombre de comparaisons est défini pour vous permettre de
comparer les différences entre toutes les paires de moyennes.

Procédure de Duncan : c‟est une procédure de comparaisons multiples qui permet de comparer toutes
les paires de moyennes, en contrôlant le risque alpha général à un niveau défini. C‟est une procédure par
étape, reposant sur une Studentized range distribution. Bien qu‟elle ne fournisse pas d‟estimation
d‟intervalles pour la différence entre chaque palier de moyennes, cette procédure indique quelles
moyennes sont significativement différentes les unes des autres.

c) Calcul du coefficient de variation


Le cv indique le degré de précision avec laquelle les traitements sont comparés. C‟est un bon indice de la
validité de l‟expérience. Il exprime le rapport entre l‟erreur expérimentale et la moyenne générale. En
général, dans la présentation des résultats, on le place en dessous du tableau de l‟analyse de la variance.
51

Pour l‟exemple ci-dessous, la moyenne générale étant de 2039.643, le cv est :


Source de variation df Sum sq Mean sq F value Pr(>F)
Traitements 6 5587175 931196 9.8255 3.329e-05
Residuals 21 1990237 94773

MSC Résidus 94773


cv    0.15
MoyenneGénérale 2039.643
Le coefficient de variation dépend beaucoup de l‟expérience, de la culture et du caractère à mesurer.

d) ANOVA 1 avec mesures répétées sur les mêmes individus

Cette situation correspond aux échantillons appariés des tests pour deux échantillons.

d.1. Décomposition de la variance

individu traitement 1 traitement j traitement k total moyenne


1 P1 moyP1
2 P2 moyP2
... ... ... ... ... ...
i Pi moyPi
... ... ... ... ... ...
n Pn moyPn
total T1 Tj Tk G moyPn
moy moy T1 moy Tj moy Tk moyG
Calculs à réaliser dans le cas d‟un traitement manuel (ou avec un tableur) :

(1)? ? (2)? ?(3)? ?(4)?


Décomposition de l'analyse de variance :
52

SCE inter-individus (4)-(1) = ddl : n-1


= -
SCE intra-individus (2)-(4) = ddl : n(k-1)
= -
SCE inter- (3)-(1) = ddl : k-1
traitements = -
SCE résidu (ou (2)-(3)- ddl : (n-1)(k-
intra-t)= (4)+(1) = - - + 1)

SCE total = (2)-(1) = ddl : kn-1


-

d.2. Exemple 1

Pour simplifier, on reprend les valeurs de l‟exemple précédent, en considérant qu'elles correspondent cette fois à la
quantité de nitrates mesurée aux mêmes points de prélèvements, au cours de 3 saisons, dans une station le long
d'une rivière.

X1 X2 X3 total
50,00 162,00 120,00 332,00
52,00 350,00 120,00 522,00
123,00 125,00 122,00 370,00
100,00 320,00 221,00 641,00
200,00 112,00 253,00 565,00
250,00 200,00 141,00 591,00 n
220,00 40,00 182,00 442,00 10
220,00 162,00 175,00 557,00 K
300,00 160,00 160,00 620,00 3,00
220,00 250,00 214,00 684,00 total=G
Total 1735,00 1881,00 1708,00 5324,00 5324,00

944832,53
(1)=
(2)= 1114850

1735^2/n+1881^2/n+1708^2/n 946565,00
(3)=

332^2/k+522^2/k+...684^2/k 985621,33
(4)=
Somme carrés totale ou =Xij-moyX)2
(2)-(1) 170017,47
se décompose en :
Somme carrés inter-individus ou = k*(Pi/k-moyX)2) (4)-(1) 40788,80

et somme carrés intra-individus ou =(Xij-Pi/k)2 (2)-(4) 129228,67


Cette dernière se décompose en 2 parties :
(3)-(1) 1732,47
somme carrés inter-traitements ou =n*(_(moyTj-moyX)2)
et somme résiduelle des carrés ou
(2)-(3)-
127496,20
=somme carrés totale - somme carrés interindividus - somme carrés (4)+(1)
intertraitements
53

Conclusion du test statistique : La valeur de P étant largement supérieure au seuil de signification 0,05, on conserve
donc l‟hypothèse nulle (pas de différence significative entre les mesures répétées).

Exercices
1) Un éleveur qui souhaite acheter de nouvelles vaches pour sa production laitière. Il possède trois races
différentes de vaches et se pose donc la question de savoir si la race est importante pour son choix. Il
possède comme informations la race de chacune de ses bêtes (c'est la variable explicative discrète ou
facteur de variabilité, qui peut prendre 3 valeurs différentes) et leurs productions de lait journalières (c'est
la variable à expliquer continue, qui correspond au volume de lait en litre).
Supposons que les productions soient (litres par jour):race A : 20,1 ; 19,8 ; 21,3 et 20,7 ; race B : 22,6 ;
24,1 ; 23,8 ; 22,5 ; 23,4 ; 24,5 et 22,9 et ; race C : 31,2 ; 31,6 ; 31,0 ; 32,1 et 31,4

Source de la variance SCE Degrés de liberté Variance F p-value


Inter-races 307,918 2 153,959 357,44 4,338 e-12
Intra-races 5,6 13 0,431
Total 313.518 15

2) Le rendement céréalier a été mesuré pour quatre variétés différentes de blé. Les résultats obtenus sont
les suivants:
var I II III IV
50 52 57 53
54 56 60 47
53 57 59 47
51 60 62 49
49 56 64 48
52 55 58 52
51 53 63 50
55 54 61 46
Y a t‟il de différences significatives entre les rendements de ces 4 variétés?

e. ANOVA à deux facteurs (ANOVA 2)

e.1) Introduction

L‟analyse de la variance vue précédemment est l‟analyse à un facteur. Elle est ainsi appelée parce qu‟il
n‟y a qu‟une seule variable indépendante que nous avons appelée Facteur A. L‟analyse de la variance à
deux facteurs est une extension de l‟analyse de la variance à un facteur. Elle consiste à considérer deux
variables indépendantes dites aussi facteurs A et B. C‟est par exemple l‟étude qui consiste à voir l‟effet
simultané du type de fertilisant (avec comme modalités fertilisant A, B et C) et le niveau du fertilisant
(100, 105, 110 kg/ha).
D‟aucuns souhaiteraient utiliser l‟une après l‟autre, une analyse de la variance à un facteur sur le type de
fertilisant d‟abord et sur le niveau de fertilisant ensuite. Il y a des raisons qui militent en faveur de
l‟utilisation de la technique de l‟analyse à deux facteurs.
54

Premièrement, elle permet l‟étude de l‟interaction entre les deux facteur. En effet, deux niveaux différents
du fertilisant peuvent induire de effet différent selon le type de fertilisant. Ce type nouveau d‟effet ne peut
être pris en compte que si les deux facteurs sont étudiés simultanément.
Deuxièmement, la méthode permet une économie en temps. En étudiant les deux facteurs simultanément,
on prend un nombre d‟observation plu petit que si on le faisait séparément.
Troisièmement, l‟étude apporte d‟éléments nouveaux. Ceci puisque le comportement de chaque facteur
est étudié en conjonction avec les différents niveaux du deuxième. Les résultats sont plus riches que si
cela se passait avec les facteurs séparément.

Définition
 Étude simultanée d‟un facteur A à p modalités et d‟un facteur B à q modalités.

 Pour chaque couple de modalités (A, B) :


o On a un échantillon ( et ).
o Tous les sont de mêmes tailles .
Attention : Conditions d'applications de l'ANOVA
 les populations étudiées suivent une distribution normale
 les variances des populations sont toutes égales (HOMOSCEDASTICITE)
 les échantillons de tailles sont prélevés aléatoirement et indépendamment dans les
populations.

Procédure de calcul d'une ANOVA


 Déterminer si les échantillons varient de la même manière.
 Si nous démontrons l'homogénéité des variances, alors nous pouvons comparer les moyennes de
ces échantillons.

Problèmes liés à l'égalité des variances

Test de l'homogénéité des variances

 : les variances sont homogènes


 : Au moins une des variances est différente des autres

→ utilisation d'un test de comparaison de plusieurs variances

Conclusion

 Si est rejetée : il est théoriquement impossible de comparer des échantillons qui ne varient
pas de la même manière.
 Si n‟est pas rejetée : par conséquent, il est possible de comparer les moyennes de tels
échantillons

e.2.Calculs
Tests possibles

 Influence du facteur A seul


 Influence du facteur B seul
 Interaction des deux facteurs
o Si influence d'un facteur sur la moyenne des populations est différente en l'absence ou en
la présence de l'autre facteur
55

Hypothèses
: le facteur A n‟a pas d‟influence sur la moyenne des populations.
: le facteur B n‟a pas d‟influence sur la moyenne des populations.
: il n‟y a pas d‟interaction entre les facteurs A et B.
: au moins une des moyennes est différentes des autres.
MéthodeVariances totale, factorielle, résiduelle
Pour chaque échantillon de taille , on calcule :
 moyenne
 variance expérimentale
Pour l'ensemble de l'expérience :
 Taille totale
 Moyenne générale
 Variance totale
Variance factorielle (variance intergroupe) :
 Dispersion des valeurs d‟un échantillon à l‟autre (influence du facteur) :
Variance résiduelle (variance intragroupe)
 Dispersion des valeurs à l‟intérieur des échantillons (variabilité individuelle) :
Variance factorielle et variance résiduelle : estimation de la variance de la population ( )

Méthode Décomposition de la variance factorielle

Tableau 33 : Décomposition de la variance factorielle

e.3.Conclusion
Théorème d'analyse de la variance :

Tableau 34 : Tableau d'ANOVA

Sous l‟hypothèse H0 :
 suit une loi de Snédécor à et ddl
 suit une loi de Snédécor à et ddl
 suit une loi de Snédécor à et ddl
56

 (tests unilatéraux : le rapport n‟est pas obligatoirement supérieur à 1)

Choix du risque
 Risque de première espèce (erreur commise lorsqu‟on rejette à tort).
Décision

Figure : Zones de rejet de l'hypothèse nulle pour une distribution de Snédécor et un test unilatéral

 Si => rejet de au risque :


o La variance factorielle est significativement supérieure à la variance résiduelle : les
moyennes diffèrent significativement entre-elles.

→ on attribue une influence significative au facteur A étudié.

 Si => rejet de au risque :


o La variance factorielle est significativement supérieure à la variance résiduelle : les
moyennes diffèrent significativement entre-elles.

→ on attribue une influence significative au facteur B étudié.

 Si => rejet de au risque :


o La variance factorielle est significativement supérieure à la variance résiduelle : les
moyennes diffèrent significativement entre-elles.

→ il existe une interaction significative d'un facteur sur l'autre.

 Recherche du degré de signification p pour chaque test (recherche du risque le plus petit possible
pour conclure au rejet de )

 Sinon rien ne permet de dire que les moyennes des populations ne sont pas égales => n‟est pas
rejetée.

- Cas particulier où n = 1 :
57

Tableau 35 : Tableau d'ANOVA à 2 facteurs, échantillons d'une seule valeur

 Si => rejet de au risque :


o La variance factorielle est significativement supérieure à la variance résiduelle : les
moyennes diffèrent significativement entre-elles.

→ on attribue une influence significative au facteur A étudié.

 Si => rejet de au risque :


o La variance factorielle est significativement supérieure à la variance résiduelle : les
moyennes diffèrent significativement entre-elles.

→ on attribue une influence significative au facteur B étudié.

 Le test pour n'est pas réalisable


 Recherche du degré de signification p pour chaque test (recherche du risque le plus petit possible
pour conclure au rejet de )
 Sinon rien ne permet de dire que les moyennes des populations ne sont pas égales => n‟est pas
rejetée.
Exemple
1. Le gouverneur d‟une province productrice du manioc voudrait déterminer s‟il existait une différence
significative entre les recettes par grossiste pour les années 2004, 2005 et 2006. Il veut aussi savoir s‟il y a
une différence significative entre les modes de rouissage. Appelons le premier mode G et le deuxième
mode R. Dan cet exemple, les recettes (en Fc) constituent la variable indépendante. Le premier facteur et
l‟année, avec trois modalités (2004, 2005 et 2006). Le second est le type de rouissage avec deux
modalités (G et R). On dira qu‟il y a 3x2 = 6 traitements.
L‟analyste va sélectionner pour chaque année de façon aléatoire 6 grossistes parmi ceux qui existent dans
la filière dans la province. Il compare les recettes en manioc dépendant de l‟année et du type de rouissage.
Remplissez le tableau ci-dessous

Le résultat est donné par le tableau ci-dessous.


58

Tableau d’anova. Recettes versus Années et type rouissage


Df Sum Sq Mean Sq F value Pr(>F)
Type.rouissage 1 28558.0 28558.0 16.3748 0.001620 **
Annee 2 1805.4 902.7 0.5176 0.608667
Type.rouissage-Annee 2 3843.5 1921.8 1.1019 0.363628
Residuals 12 20928.3 1744.0
---
Signif. codes: 0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1

f). Différentes formes d’ANOVA 2 (différents modèles)


On parle d'un modèle à effets aléatoires lorsque tous les facteurs de l'expérience sont aléatoires et d'un
modèle à effet mixtes lorsqu'on retrouve des facteurs fixes et des facteurs aléatoires.

* Critères fixes et aléatoires


critère fixe
Un critère est fixe quand les niveaux de ce critère sont déterminés et fixés par l'expérimentateur. Si on
répètait l'expérience, les mêmes niveaux du facteur pourraient être sélectionnés.
critère aléatoire
Un critère est aléatoire quand les niveaux de ce critère sont choisis de façon aléatoire parmi un ensemble
beaucoup plus grand de niveaux. Si on répètait l'expérience, les niveaux des facteurs ne seraient plus les
mêmes puisqu'ils sont choisis aléatoirement (très peu de chances d'avoir les mêmes niveaux).
* Critères croisés et hiérarchisés
Critères croisés
Un critère est croisé avec un autre critère quand les niveaux du premier critère sont les mêmes pour
chaque niveau du second critère et inversement.
Critères hiérarchisés
Un critère est hiérarchisé à un autre critère quand les niveaux du premier critère ne sont pas les mêmes
pour chaque niveau du second critère.

*Critères de classification ALEATOIRES:


L'expérience présentée ci-dessus consiste à étudier le taux de cholestérol en fonction d'un régime (1, 2 ou
3) non précisé. Ce serait le cas si on on voulait comparer différentes régions présentant des habitudes
alimentaires différentes et que dans un souci d'économie, on n'ait pu choisir que 3 régions (3 régimes)
parmi un ensemble beaucoup plus vaste de possibilités. Dans ce cas, le critère est dit est "aléatoire".

* Critères de classification croisés:


L'expérience présentée ci-dessus consiste à étudier le taux de cholestérol de façon à réaliser 3
prélèvements par jour sur les mêmes individus pendant trois jours. Les individus sont croisés aux jours.

*Critères de classification hiérarchisés:


L'expérience présentée ci-dessus consiste à étudier le taux de cholestérol de façon à réaliser 3
prélèvements par jour sur des individus différents de jour en jour. Les individus sont hiérarchisés aux
jours. Même si le plan expérimental n'a pas beaucoup de sens sur des individus humains, il pourrait avoir
du sens en recherche si les individus étaient des souris et qu'il faille sacrifier les animaux pour réaliser les
mesures aux différents jours.

Exercices
59

Chap.4. Régression simple et multiples

En général, les modèles de régression sont construits dans le but d‟expliquer (ou prédire, selon la
perspective de l‟analyse) la variance d‟un phénomène (variable dépendante) à l‟aide d‟une combinaison
de facteurs explicatifs (variables indépendantes). Le coefficient de corrélation mesure le degré de la
relation entre deux variables qui varient de façon concomitante, avec des effets qui se renforcent
mutuellement. Dans certains cas, les changements relatifs à une variable sont provoqués par les variations
d‟une variable connexe, sans qu‟il y ait de dépendance mutuelle. En d‟autres termes, une variable est
considérée comme dépendante des variations de l‟autre variable, dans la mesure où elles dépendent de
facteurs externes. Une telle relation entre deux variables est appelée régression. Lorsque ces relations
sont exprimées sous forme mathématique, il est possible d’estimer la valeur d’une variable d’après la
valeur de l’autre. Par exemple, le rendement de conversion photosynthétique et le coefficient de
transpiration des cultures dépendent de conditions atmosphériques comme la température ou l‟humidité,
sans pour autant que l‟on s‟attende généralement à une relation inverse.

La variable dépendante est habituellement notée y et la variable indépendante x. Dans le cas où il n‟y a
que deux variables en jeu, la relation fonctionnelle est appelée régression simple. Si la relation entre les
deux variables est linéaire, on parle de régression linéaire simple ; dans le cas contraire, la régression est
dite non-linéaire. Lorsqu‟une variable dépend d‟au moins 2 variables indépendantes, la relation
fonctionnelle entre la variable dépendante et l‟ensemble des variables indépendantes est une régression
multiple. Dans un souci de simplification, on se limitera ici à examiner le cas d’une régression linéaire simple. Pour des cas plus
complexes, on se limitera à la construction du modèle et à l’interprétation.

4.1. Régression linéaire simple

La régression linéaire simple de y en x dans la population peut s‟exprimer comme

où et sont des paramètres, appelés aussi coefficients de régression, et e est une déviation aléatoire pouvant dériver de la
relation attendue. Si la valeur moyenne de e est zéro, l‟équation représente une droite de pente b et d‟ordonnée à l‟origine a.
Autrement dit, a est la valeur présumée de y lorsque x prend la valeur zéro et b représente la variation attendue de y
correspondant à une variation unitaire de la variable x. La pente d‟une droite de régression linéaire peut être positive, négative
ou nulle, selon la relation entre y et x.
En pratique, les valeurs de a et b doivent être estimées à partir d‟observations des variables y et x
effectuées sur un échantillon.
En effet, les valeurs de a et b s‟obtiennent grâce à la formule,

L‟équation représente la droite de régression ajustée, qui peut être utilisée pour estimer la
valeur moyenne de la variable dépendante, y, associée à une valeur particulière de la variable
indépendante, x. En général, il est plus sûr de limiter ces estimations à la fourchette des valeurs de x dans
les données.
60

Tableau. Données sur le rendement photosynthétique en mol m-2s-1 (y) et mesure de la radiation en mol m-2s-1 (x), observées
sur une essence forestière

X y x2 xy
0.7619 7.58 0.58 5.78
0.7684 9.46 0.59 7.27
0.7961 10.76 0.63 8.57
0.8380 11.51 0.70 9.65
0.8381 11.68 0.70 9.79
0.8435 12.68 0.71 10.70
0.8599 12.76 0.74 10.97
0.9209 13.73 0.85 12.64
0.9993 13.89 1.00 13.88
1.0041 13.97 1.01 14.02
1.0089 14.05 1.02 14.17
1.0137 14.13 1.03 14.32
1.0184 14.20 1.04 14.47
1.0232 14.28 1.05 14.62
1.0280 14.36 1.06 14.77

= 13.72 = 189.03 = 12.70 = 175.59


4.2. Test de signification du coefficient de régression
Une fois que les paramètres de la fonction de régression ont été estimés, l‟étape suivante est le test de
signification statistique de la fonction de régression.

Selon l‟usage, on définit l‟hypothèse nulle comme H0: b=0 en opposition à l‟hypothèse alternative, (H1: b
< 0 ou H1: b > 0, selon la nature présumée de la relation). Pour effectuer le test, on peut suivre la
procédure de l‟analyse de variance. Le concept de l‟analyse de la variance a déjà été expliqué, mais ses
applications dans le cadre de la régression sont indiquées ci dessous, à l‟aide des données du Tableau :
« Données sur le rendement photosynthétique en mol m-2s-1 (y) et mesure de la radiation en mol m-2s-1 (x), observées sur une
essence forestière ».

*Etape 1. Dresser un schéma de la table d‟analyse de la variance.


Tableau. Représentation schématique d‟une analyse de variance pour une analyse de régression.
Source de variation Degré de Sommes des Carré moyen F calculé
liberté carrés
(df) (SS)

Dû à la régression 1 SSR MSR

Ecart par rapport à la régression n-2 SSE MSE

Total n-1 SSTO


*Etape 2. Calculer les différentes sommes des carrés, selon la méthode suivante :
61

Somme totale des carrés =

= (7.58)2 + (9.46)2 + . . . + (14.36)2 -


= 58.3514

Somme des carrés dus à la régression = SSR =

=
= 48.0062
Somme des carrés dus à l‟écart par rapport à la régression = SSE = SSTO - SSR
=58.3514 - 48.0062 = 10.3452
*Etape 3. Entrer, comme indiqué dans le Tableau 3.13, les valeurs des sommes des carrés dans la table
d‟analyse de variance et effectuer les calculs restants.

Tableau. Analyse de variance pour l‟équation de régression relative aux données.

Source de variation Degrés de Sommes des Carré moyen F calculé à


liberté carrés
5%
(df) (SS)

Dû à la régression 1 48.0062 48.0062 60.3244

Ecart à la régression 13 10.3452 0.7958

Total 14 58.3514

*Etape 4. Comparer la valeur calculée de F avec la valeur tabulaire correspondant à (1, n-2) degrés de
liberté. Dans notre exemple, la valeur calculée (60.3244) est supérieure à la valeur tabulaire de F (4.67)
correspondant à (1,13) degrés de liberté, au seuil de signification de 5%. La valeur de F est donc
significative. Si la valeur calculée de F est significative, le coefficient de régression b diffère de 0 de
manière significative.

Exprimée en proportion de la somme totale des carrés, la somme des carrés due à la régression est appelée
coefficient de détermination et mesure la quantité de variation de y imputable à la variation de x. En
d‟autres termes, le coefficient de détermination mesure la fraction de la variation de la variable
dépendante expliquée par le modèle. Dans notre exemple, le coefficient de détermination (R2) est

= 0.8255
62

RESUME : SIGNIFICATIVITE D'UNE RELATION


Le calcul d'un coefficient de corrélation ne constitue qu'une première étape dans l'analyse de la relation
entre deux caractères. Il s'agit tout au plus d'une étape exploratoire qui doit être validée par un test de la
significativité de la relation et par une vérification de la validité de la relation (absence de biais).
Exemple : on veut étudier le lien entre cancer et tabagisme.
- Un r de + 0.6 établi sur un échantillon de 10 personnes n'est pas significatif au seuil de 5% (il peut
s'agir d'un hasard).
- Un r de + 0.2 établi sur un échantillon de 200 personnes est significatif au seuil de 5% (la taille de
l'échantillon fait que la relation, bien que faible a peu de chances d'être due au hasard).
Pour déterminer si une relation est significative, il faut procéder à un test d'hypothèse en procédant de la
façon suivante :
(1) H0 : il n'y a pas de relation entre les deux caractères X et Y
(2) On se fixe un risque d'erreur pour le rejet de H0 (exemple alpha=5%)
(3) On calcule la valeur absolue du coefficient de corrélation r(X,Y) dans la table correspondante
(Pearson ou Spearman)
(4) On calcule la valeur théorique r(alpha, N.) de ce coefficient qui n'est dépassé que dans alpha % des
cas
(5) On teste H0 vraie si r(alpha, d.d.l.) > abs[ r(X,Y) ]
(6) On accepte ou rejette H0
Exemple : Pour 10 observations, les valeurs critiques du coefficient de Spearman sont 0.564 au seuil de
5% et 0.746 au seuil de 1%. La valeur observée étant de +0.98, on peut rejeter H0 et affirmer avec moins
de 1% de chances de se tromper que la relation observée entre la taille des pieds et le quotient
intellectuel des enfants n'est pas le fruit du hasard.

4.3.Régression linéaire multiple

Dans le cas de la régression linéaire multiple, la variable dépendante est toujours une variable continue
tandis que les variables indépendantes peuvent être continues ou catégorielles. La régression linéaire est
appelée multiple lorsque le modèle est composé d‟au moins deux variables indépendantes. À l‟inverse, un
modèle de régression linéaire simple ne contient qu‟une seule variable indépendante. Comme il est
excessivement rare, voire impossible, de prédire un phénomène à l‟aide d‟une seule variable, cette section
porte sur la régression linéaire multiple. Cependant, tout le contenu s‟applique également aux résultats
d‟une régression simple.

Nous allons donc voir maintenant comment il est possible d‟expliquer (ou de prédire) la variance d‟une
variable dépendante à l‟aide d‟une combinaison linéaire de variables indépendantes à partir de la
généralisation de l‟équation algébrique utilisée dans le module sur la régression simple.

Les questions auxquelles la régression linéaire multiple permet de répondre sont nombreuses. Par
exemple,
 Quelles variables permettent de prédire les symptômes d’une carence minérale chez une plante ?
 De combien le risque de chutes de rendement va diminuer chez les cultures lorsqu’elles sont
fertilisées, sont sarclées plusieurs fois et les agriculteurs changent leurs pratiques culturales
inadéquates ?
 Est-ce que la satisfaction au travail varie en fonction de l’augmentation des défis à relever et de
l’esprit d’équipe ?
 Quelle proportion de la variance du taux de brisure chez le riz est expliquée par la combinaison
des variables prédictives ?
63

* Les prémisses
1. Les types de variables à utiliser :
Indépendantes : continue ou catégorielle (ordinale ou dichotomique)
Dépendante : continue
2. Pas de variance égale à zéro : la distribution des prédicteurs doit comprendre une certaine variance,
donc ne doit pas être constante.
3. Aucune multicolinéarité parfaite : il ne doit pas y avoir de relation linéaire parfaite entre deux ou
plusieurs variables indépendantes. Par conséquent, les corrélations ne doivent pas être trop fortes entre
celles-ci. Cette prémisse peut être vérifiée avec le VIF (Variance Inflation Factor) indiquant si une
variable indépendante a une une relation linéaire forte avec les autres. La règle arbitraire souvent
appliquée veut qu‟une valeur de cet indice plus grande que 10 indique la présence d‟un tel problème.
4. Pas de corrélation entre les variables indépendantes et les variables externes : les variables
d‟influence doivent toutes être incluses dans le modèle.
5. Homoscédasticité (homogénéité des variances des résiduels) : la variance des valeurs résiduelles doit
être similaire à tous les niveaux de la variable indépendante.
6. Indépendance des erreurs : les valeurs résiduelles ne doivent pas être corrélées entre les individus.
Cette prémisse peut être vérifiée avec la statistique Durbin-Watson qui se situe entre 0 et 4, une valeur de
2 indiquant une absence de corrélation, moins de 2 une corrélation positive et plus de 2, une corrélation
négative. La règle arbitraire cette fois est que la valeur ne doit pas être plus petite que 1 ou plus grande
que 3.
7. Distribution normale des résiduels : bien que les variables indépendantes ne doivent pas
nécessairement suivre une distribution normale, il importe que les résiduels en suivent une. Ils doivent
donc avoir une moyenne de 0, la majorité des valeurs doivent s‟en rapprocher. Cette prémisse peut être
vérifiée en enregistrant les valeurs résiduelles dans la base de données et en effectuant le test de
Kolmogorov-Smirnov ou de Shapiro-Wilks, disponible dans les options de la commande Explorer. Vous
devez vous assurer que le test n‟est pas significatif pour conserver l‟hypothèse nulle de distribution
normale.
8. Indépendance de la variable prédite : toutes les observations formant la distribution des valeurs de la
variable dépendante sont indépendantes, viennent d‟un individu différent.
9. Relation linéaire entre les variables indépendantes et la variable dépendante : la variation de la
variable dépendante pour chaque augmentation d‟une unité d‟une variable indépendante suit une ligne
droite.

*Modèle
L‟équation de la régression linéaire multiple est en fait la généralisation du modèle de régression simple.
Yi : (b0 + b1X1 + b2X2 + … + bnXn) + εi

On observe que chaque variable indépendante (X) est multipliée par son propre coefficient bêta (b) qui
sous sa forme standardisée correspond à sa contribution relative dans le modèle. La constante (b 0)
correspond à la valeur de la variable dépendante lorsque toutes les variables indépendantes égalent 0. On
appelle aussi b0 l‟ordonnée à l‟origine. Associée de près à l‟évaluation du modèle, l‟indice de corrélation
multiple R2 représente le pourcentage de variance expliquée par le modèle (la combinaison des variables
indépendantes).
*La conception d’un modèle de régression
La conception d‟un modèle de régression ne devrait jamais être prise à la légère. Elle devrait faire l‟objet
d‟une réflexion préalable portant sur 1) le choix des variables indépendantes et 2) le choix de la méthode
de régression.

Le choix des variables indépendantes


En tout temps, le choix des variables indépendantes doit être guidé par le principe de parcimonie qui veut
qu‟un bon modèle comprend un nombre optimal de variables et par la présence d‟un lien théorique connu
ou présumé avec la variable dépendante. Voici d‟autres éléments à considérer lors du choix des variables
64

indépendantes. Cette liste n‟est pas exhaustive, mais souligne l‟importance des éléments à considérer lors
de cette étape.
1. La nature des objectifs ou des hypothèses de recherche : Les variables mises en cause dans
l‟énoncé d‟un objectif ou d‟une hypothèse doivent forcément se retrouver dans le modèle. L‟énoncé
peut également avoir un impact sur le choix de la méthode de régression.
2. La présence de variables confondantes : Il est possible que certaines variables n‟apparaissant pas
dans l‟énoncé de l‟objectif ou de l‟hypothèse soient importantes dans un modèle dans la mesure où
elles peuvent influencer les résultats. On appelle ces variables « confondantes » et leur inclusion
dans le modèle permet de contrôler statistiquement leur effet.
3. La présence de corrélation avec la variable dépendante : Dans certains contextes, il est possible
de choisir les variables indépendantes en fonction de leur degré d‟association avec la variable
dépendante. Des variables n‟ayant pas de lien assez fort avec celle-ci pourrait être exclues du
modèle.
4. La puissance statistique du devis : Cohen (1992) et Hair et al. (2005) ont bien démontré que le
nombre d‟observations détermine la quantité maximale de variables qu‟un modèle peut supporter.
Plus on a d‟observations, plus on peut inclure de variables dans le modèle.
*Formulation des hypothèses
L‟hypothèse nulle est qu‟il n‟y a pas de relation linéaire entre la combinaison des variables indépendantes
(X1, X2, X3… Xn) et la variable dépendante (Y). L‟hypothèse de recherche est l‟inverse, soit que la
combinaison des variables indépendantes est associée significativement à la variable dépendante.
*Exemple
Dans notre exemple, nous voulons savoir quelles variables influencent le salaire annuel d‟un
employé (SALAIRE). La théorie nous indique que le nombre d‟années de scolarité a une importante
influence (EDUC). Nous désirons savoir si le sexe des employés (SEXE) et le nombre de mois
d‟expérience dans l‟entreprise (DURÉE) exercent également une influence. Nous avons donc choisi un
modèle de régression hiérarchique (comprenant deux blocs de variables) avec la méthode entrée pour la
première étape (bloc 1 avec EDUC), mais la méthode ascendante pour la deuxième (bloc 2 avec SEXE et
DURÉE), dans le but d'illustrer les différentes possibilités de modélisation.
Resolution
Statistiques descriptives
Examinons d‟abord les statistiques descriptives. Nous voyons que l‟étude a été menée auprès de 474 employés qui gagnent en
moyenne actuellement près de 35 000 $. Ils travaillent depuis environ sept ans pour leur entreprise (81 mois) et ont en
moyenne 13 ans de scolarité. Bien entendu, la moyenne des hommes et des femmes n‟est pas une donnée pertinente, mais elle
indique que la variable a été codée 1-2. Idéalement, les variables dichotomiques doivent toujours être codées 0-1 pour en
faciliter l'interprétation.

Le deuxième tableau fourni concerne les corrélations entre les variables étudiées. Nous voyons qu‟il y a une corrélation très
élevée et significative entre le salaire et le nombre d‟années de scolarité, ainsi qu‟entre le sexe et le salaire. On doit porter
attention aux relations entre les variables indépendantes. Si la corrélation entre deux de ces variables se situait à 0,9 (ou – 0,9),
il y aurait un risque important de multicolinéarité. Nous aurions introduit deux variables qui mesurent sensiblement la même
chose pour prédire le salaire actuel. Nous voulons éviter cette situation.
65

Variables introduites/éliminées
Le tableau suivant présente les variables retenues dans les deux étapes du modèle. On constate que la variable EDUC est
forcément présente puisque nous avions choisi la méthode Entrée. Pour le deuxième bloc du modèle, SPSS a retenu la variable
SEXE avec notre critère de sélection (la probabilité F est significative à p < 0,05) et a exclu la variable DURÉE, car la valeur F
associée au coefficient b n'atteint pas le seuil de signification.

Étape 1 : Évaluation de la qualité du modèle de régression


Tout comme la régression simple, l‟interprétation débute en évaluant la qualité du modèle. On vérifie si la première étape du
modèle explique significativement plus de variabilité qu‟un modèle sans prédicteur (VI). Ensuite, il s'agit de s'assurer que
toutes les variables introduites contribuent à améliorer significativement la variabilité expliquée par le modèle final.

Analyse de variance
Le tableau d‟ANOVA nous donne cette information. Il nous permet de déterminer si nous rejettons l'hypothèse nulle (H 0) ou
non. Dans notre exemple, nous voulons savoir dans un premier temps si le nombre d'années de scolarité prédit mieux le
SALAIRE que ne le fait un modèle sans prédicteur (avec seulement la moyenne) et dans un deuxième temps, si le nombre
d‟années de scolarité et le sexe prédisent mieux le SALAIRE qu‟un modèle sans prédicteur. L'hypothèse nulle est donc que les
deux modèles sont équivalents à la moyenne du salaire.

On constate à la lecture du tableau que selon la valeur F obtenue pour les deux modèles, on peut rejeter l‟hypothèse nulle. En
effet, les valeurs de 365,38 et de 225,51 sont significatives à p < 0,001, ce qui indique que nous avons moins de 0,1 % de
chance de se tromper en affirmant que les modèles contribuent à mieux prédire le salaire que la simple moyenne.
66

Étape 2 : Évaluation de l'ajustement du modèle de régression aux données


Maintenant que l‟on sait que le modèle est significatif, le tableau récapitulatif des modèles permet de déterminer la
contribution de chaque bloc de variables. Ce tableau indique le R2 cumulatif à chaque étape du modèle (colonne R-deux)) ainsi
que l'apport spécifique de chaque bloc (colonne Variation de R-deux).

Le tableau contient donc plusieurs informations utiles. Premièrement, la valeur de la corrélation multiple (R) correspond à
l'agglomération des points dans la régression simple. Elle représente la force de la relation entre la VD et la combinaison des
VI de chaque modèle. Des valeurs de 0,66 et 0,70 suggèrent que les données sont ajustées de manière satisfaisantes au modèle.
Ensuite, la signification du R2 est évaluée en fonction de l'apport de chaque étape. La variation de F associée au premier
modèle est significative (p < -.001). Ce modèle explique donc une proportion significative de la variance de la variable
SALAIRE. Nous sommes passés de R2 = 0 à R2 = 0,436. Le deuxième modèle fait passer le R2 de 0,436 à 0,489. Cette
variation de 0,053 apparait comme significative. En effet, la valeur de F est calculée à partir de la varaition du R 2 entre les
étapes. SPSS détermine donc si la différence (0,053) entre le R 2 du modèle 2 (0,489) et celui du modèle 1 (0,436) est
significative. Cette fois-ci, c'est le cas (p < 0,001). Chaque étape contribue donc significativement à l'amélioration de
l'explication de la variabilité de la VD.
La dernière colonne concerne le test de Durbin-Watson, il n'y a pas de seuil de signification associé, seulement la valeur de la
statistique qui est acceptable lorsqu'elle se situe entre 1 et 3. Il est convenu que plus la valeur est près de 2, moins il y a de
problème au niveau de l'indépendance des erreurs. Avec une valeur de 1,96, nous pouvons croire que nous respectons cette
prémisse.

Étape 3 : Évaluation de la variabilité expliquée par le modèle de régression


Enfin, on se rappelle que la valeur du R2, lorsqu'elle est multipliée par 100, indique le pourcentage de variabilité de la VD
expliquée par le modèle (les prédicteurs). Les résultats suggèrent que 43,6 % du salaire est expliqué par le nombre d'années de
scolarité et que 48,7 % du salaire est expliqué par la combinaison de la scolarité et du sexe de l'employé.

Étape 4 : Évaluation des paramètres du modèle


Maintenant que nous savons que notre modèle est significatif et que le deuxième est celui qui explique le plus de variance, il
est possible de construire l‟équation de régression pour prédire une valeur de Y. L‟équation de base était la suivante :

Yi : (b0 + b1X1 + b2X2 + … + bnXn) + εi

Remplaçons maintenant les b par les coefficients fournis dans le tableau ci-dessous.

Yprédit = (-7900,99 + 3391,68educ – 8423,46sexe)

Pour un homme ayant complété 16 années de scolarité, nous obtiendrions un salaire prédit de...

Yprédit = (-7900,99 + 3391,68*16 – 8423,46*1)


Yprédit = 37 942,43 $ par année

Le signe du coefficient nous indique le sens de la relation. Dans notre cas, plus le nombre d‟années de scolarité augmente, plus
le salaire augmente. Nous voyons aussi que quand le sexe diminue (passant de 2 pour les femmes à 1 pour les hommes), le
salaire augmente. Le coefficient nous informe également sur le degré auquel chaque prédicteur influence la VD si tous les
autres prédicteurs sont constants. Par exemple, chaque année de scolarité de plus est associée à 3 391,68 $ de plus
annuellement.

L‟erreur standard nous renseigne sur la variabilité du coefficient dans la population. Elle permet également de calculer la
67

valeur de t. Cette dernière nous indique si le coefficient est significatif. Alors que le tableau sur le récapitulatif des modèles
confirmait si chaque modèle était significatif, la signification de t nous permet de répondre à la question « est-ce que le b du
prédicteur est différent de 0 ? », donc si chaque variable contribue significativement au modèle. Plus la valeur de t est élevée et
plus celle de p est petite, plus le prédicteur contribue au modèle. Nous constatons donc que les deux variables sont
significatives, mais que la variabilité expliquée par le nombre d‟années de scolarité est plus importante que celle expliquée par
le sexe.

La valeur du Beta standardisé (β) apporte aussi une information intéressante. Elle indique le changement en écart-type de la
VD pour chaque augmentation d‟un écart-type de la VI quand toutes les autres valeurs sont constantes. Par exemple, la valeur
d‟un écart-type du salaire est de 17 075,66 $ et celle d‟un écart-type de scolarité est de 2,89. Nous pouvons donc savoir que
l‟augmentation d‟un é.-t. de la scolarité (2,89) est associé à l‟augmentation de 0,57 é.-t. du salaire (0,57*17 075,66 = 9 733,13).
Par conséquent, chaque fois que l‟on étudie 2,89 années de plus, le salaire augmente de 9 733,13 $.

Pour les intervalles de confiance, nous voulons obtenir les valeurs les plus rapprochées pour que le modèle soit le plus près
possible des données réelles de la population. Il ne faut absolument pas que la valeur 0 se situe entre les deux intervalles, car
cela signifierait qu'une différence de 0 est une valeur possible. DAns ce cas, la valeur de t forcéme&²nt non significative.

Ce tableau présente également la valeur des corrélations et des corrélations partielles. Ce sont ces valeurs sur lesquelles se base
SPSS lorsqu‟il choisit d‟introduire des variables lorsque l‟on sélectionne une méthode d'entrée progressive. La première
variable est choisie à partir de la corrélation simple la plus forte (ici 0,661 pour EDUC). Le choix des variables suivantes est
par contre basé sur la corrélation partielle, c'est-à-dire la plus forte corrélation entre les variables toujours disponibles et la
partie de variance qui reste à expliquer une fois que l‟on a retiré ce qui est expliqué par le premier prédicteur.

Finalement, la valeur VIF (ou la tolérance, soit l‟inverse du VIF (1/VIF)) permet de vérifier la prémisse de multicolinéarité.
Nous cherchons à obtenir une valeur VIF près de 1. Si elle est de 10, c‟est problématique. Conséquemment, si la tolérance est
équivalente à 0,1, il y a un problème sérieux . Probablement que les corrélations entre 2 variables prédictrices ou plus sont trop
élevées.

Les variables exclues


Le tableau suivant présente les variables qui n‟ont pas été retenues dans le modèle à chacune des étapes. La valeur b est
estimée pour chaque variable si cette dernière était incluse. Si la valeur de t est significative, nous pouvons comprendre que
l‟ajout de cette variable contribuerait probablement à l‟amélioration du modèle. SPSS évaluera d‟abord l‟apport de la variable
ayant la valeur t la plus élevée dans une régression progressive. La corrélation partielle donne également un indice de la
contribution au modèle. C‟est la même valeur que l‟on trouvait dans le tableau précédent.

Le diagnostic des observations et la vérification des prémisses


Ce dernier tableau est fourni grâce aux options sélectionnées préalablement. Il nous renseigne sur la présence de valeurs
extrêmes qui influenceraient le modèle, donc sur la qualité de l‟ajustement des données. Les valeurs extrêmes font varier les
68

coefficients b et sont mal prédites par le modèle, donc elles sont associées à une valeur résiduelle importante. Comme nous
avons vu précédemment dans le rappel théorique, nous ne voulons aucune valeur résiduelle standardisée de plus de 3,29 (ou de
moins de -3,29), pas plus de 1 % de l‟échantillon ayant une valeur de plus de 2,58 (ou de moins de -2,58) ainsi qu'un maximum
de 5 % des observations ayant une valeur de plus de 1,96 (ou de moins de – 1,96).

En observantt le diagnostic des observations, nous constatons que 7 individus ont des salaires de plus de 83 750 $. Ils
s‟écartent vraiment de la moyenne, la valeur résiduelle standardisée pour chacun est de plus de 3 écart-types. Les employés
gagnant plus de 100 000 $ annuellement présentent un problème majeur. Il serait probablement judicieux de refaire l‟analyse
en excluant ces hauts salariés et de vérifier la variation des coefficients.

D‟ailleurs, nous pouvons constater en regardant l‟histogramme de la distribution des valeurs résiduelles que nous ne respectons
pas la prémisse de normalité de distribution des erreurs. Nous souhaitons que la distribution suive une courbe normale, mais
nous observons un pic prononcé ainsi que des valeurs éloignées de la courbe. Cette distribution n‟est donc probablement pas
normale. Nous pourrions confirmer avec le test de normalité de Shapiro-Wilks ou de Kolmogorov-Smirnoff. Ces tests sont
disponbiles dans les options de la procédure Explorer. Cochez Graphes de répartition gaussiens avec tests. Cela nous confirme
encore qu'il pourrait être judicieux de retirer ces valeurs extrêmes de l'analyse.

Finalement, nous pouvons tout de même jeter un coup d‟œil aux prémisses d‟homéodasticité et de linéarité avec le graphique
de dispersion. Pour la première prémisse, les points doivent être répartis aléatoirement autour de 0 (ne pas former d‟entonnoir),
ce qui semble le cas ici, bien que les points soient répartis en colonnes. Pour la deuxième, nous voulons éviter que
l‟agglomération de points suive une courbe. Cette prémisse semble aussi respectée. Nous respectons donc la plupart des
prémisses, le modèle est donc probablement valide, mais gagnerait certainement en précision en éliminant les valeurs
extrêmes.
69

4.4. Modèle linéaire généralisé


Les modèles linéaires généralisés comme la régression par les moindres carrés permettent de rechercher
la relation entre une variable de réponse et un ou plusieurs prédicteurs. La différence essentielle entre ces
deux techniques tient au fait que les modèles linéaires généralisés sont habituellement utilisés avec des
variables de réponse de catégorie. La régression des moindres carrés est généralement utilisée avec des
variables de réponse continues.
Les techniques de modèles linéaires généralisés et celles de régression sur les moindres carrés estiment
les paramètres du modèle pour optimiser l'ajustement de ce dernier. La technique des moindres carrés
réduit au maximum la somme des erreurs quadratiques dans le but d'obtenir des estimations de maximum
de vraisemblance des paramètres. Les modèles linéaires généralisés permettent d'obtenir des estimations
de maximum de vraisemblance des paramètres à l'aide d'un algorithme de moindres carrés itérativement
repondérés.
A la différence de la régression linéaire (où la variable à expliquer est une variable quantitative) et du
modèle de Cox (où la variable à expliquer est une variable censurée), la régression logistique s‟applique
lorsque la variable à expliquer (Y) est qualitative. Par exemple, vous pourriez utiliser un modèle linéaire
généralisé afin d'étudier la relation entre les années d'expérience d'opérateurs (variable continue non
négative) et leur participation à un programme de formation facultatif (variable binaire : oui ou non), afin
de prévoir si leurs produits répondent aux spécifications (variable binaire : oui ou non). Les deux
premières variables sont les prédicteurs, tandis que la troisième est la réponse de catégorie.
Dans le cas d‟une variable explicative qualitative, une propriété très intéressante de la régression
logistique est qu‟elle permet d‟estimer un odds ratio (OR) qui fournit une information sur la force et le
sens de l‟association entre la variable explicative (Xi) et la variable à expliquer (Y). L‟OR (ou rapport des
cotes), est une mesure de dépendance entre deux variables, il est toujours positif et compris entre 0 et +∞.
Lorsqu‟il vaut 1, les deux variables sont indépendantes. Au contraire, plus l‟OR est proche de 0 ou de +∞,
plus les variables sont liées entre elles. Si l‟OR n‟est pas un résultat aussi intuitif que le risque relatif, il
présente l‟avantage d‟être utilisable quel que soit le design expérimental (cohorte ou cas témoin). Qui
plus est, si la maladie étudiée est rare (prévalence inférieure à 5–10 %), l‟OR devient une bonne
approximation du risque relatif. En pratique, si l‟OR est supérieur à 1, on parle de facteur de risque, et si
l‟OR est inférieur à 1, on parle de facteur protecteur.
Dans le cas où nous souhaitons étudier plusieurs variables explicatives Xi et connaître le « poids »
respectif de chacune de ces variables, un ajustement est alors nécessaire. La régression logistique est une
méthode permettant de réaliser un tel ajustement. Cet ajustement consiste à individualiser « l‟effet
propre » de la variable explicative Xi des « effets parasites » induits par d‟autres variables influençant
aussi la variable à expliquer (Y) (appelées « covariables »). Cela permet ainsi de contrôler l‟effet de
possibles facteurs de confusion. De plus, l‟ajustement permet de diminuer le bruit de fond induit par ces
covariables et d‟améliorer la précision de l‟estimation.
Ainsi, la régression logistique tient compte de l‟effet des autres variables Xi intégrées dans le modèle et
permet de réaliser un ajustement de l‟OR sur des covariables (on parle d‟OR ajusté). La régression
logistique constitue alors une méthode de choix pour rechercher et déterminer les facteurs de risque ou les
facteurs protecteurs d‟une maladie, tout en tenant compte des facteurs de confusion. Il faut cependant
garder à l‟esprit que l‟identification d‟une liaison entre une variable expliquée (Y) et une ou des variables
explicatives (Xi) ne témoigne pas forcément d‟un lien de causalité et il convient de garder une certaine
prudence dans l‟interprétation des résultats.

Types de régression logistique


Ici on fournit quatre techniques de modèles linéaires généralisés que vous pouvez utiliser pour évaluer la
relation entre une ou plusieurs variables de prédiction et une variable de réponse des types suivants.
L'exemple précédent utilise la régression logistique binaire car la variable de réponse possède deux
niveaux.
70

Type de Nombre de
variable catégories Caractéristiques Exemples
Binaire 2 Deux niveaux Succès/Echec
Oui/Non
Max/Min
Ordinale 3 ou plus Niveaux en ordre naturel Goût (Léger, Moyen, Fort)
Etat médical (Critique, Grave, Stable, Bon)
Résultats d'enquête (Pas d'accord, Neutre,
D'accord)
Nominale 3 ou plus Niveaux sans ordre naturel Goût (Amer, Sucré, Acide)
Couleur (Rouge, Bleu, Noir)
Matière scolaire (Maths, Sciences, Arts)
Poisson 3 ou plus La variable de réponse indique le 0, 1, 2, ...
nombre d'occurrences d'un
événement dans un espace
d'observation fini.

4.4.1. Modèles à réponse dichotomique


a) Généralités
On souhaite “expliquer” une variable réponse Y par une variable explicative X (ou plusieurs variables
explicatives X1; X2; : : : ; Xp) lorsque Y est 0 (échec) ou 1 (succès).
Modèle théorique
Y = F (β0 + β1X1 + β2X2 +…+ βpXp) +"; où le bruit " est une variable aléatoire centrée.
Y = variable à expliquer, elle est binaire (Ex : présence/absence d‟une maladie)
X = variable explicative quantitative (Ex : âge)
Estimation
En pratique, les coefficients β0; β1;… βp doivent être déterminés à l‟aide des données.
On utilise la méthode du Maximum de Vraisemblance (MV). En général la méthode de MV fournit des
estimateurs avec des bonnes propriétés statistiques.
Quelques applications: Y est dichotomique: succès ou échec, présence ou absence.
-Une variété/plante est-il atteint d’une certaine maladie ?
- Doit-on déclencher une alerte à la pollution atmosphérique ?
-Les agriculteurs adoptent-ils une nouvelle technologie, variété ?
-Un organisme de crédit doit-il accorder un prêt à l’un de ses clients ?
-Une entreprise présente t-elle des risques de faillite à moyen terme (2 ans) ?
b) Exemples
Médecine : Y vaut 1 si le patient atteint la maladie, 0 sinon. La variable X est l‟âge.
Banque : Y vaut 1 si le client fait défaut sur sa dette. La variable X est par exemple l‟âge, la profession, le
montant moyen mensuel d‟utilisation de la carte de crédit, le revenu du client,.., etc.
Sociologie : Y vaut 1 si le fils est cadre, 0 sinon. La variable X est par exemple le niveau d‟éducation du
père.,
Agronomie : Determinant de l‟utilisation/Adoption des engrais minéraux par les agriculteurs : 1 si oui 0 si
non.
c)Principe
La loi de Y est déterminée par :

Où F est une fonction de répartition inversible donnée avecβ0,β1,...,βp inconnus. En pratique les
coefficientsβ0,β1,...,βp doivent être déterminés à partir des données.
71

Modèle théorique Y=F(β0+β1X1+β2X2+...+βpXp) +ε,où le bruitεest une variable aléatoire centrée.


Estimation :
En pratique, les coefficients β0,β1,...,βp doivent être déterminés à l‟aide des données. On utilise la
méthode du Maximum de Vraisemblance (MV).En général la méthode de MV fournit des estimateurs
avec des bonnes propriétés statistiques.
Définissons la fonction log-vraisemblance associée aumodèle logit et probitlog-Vraisemblance :
LV(β) =n∑i=1Yilog(F(Xi)) + (1−Yi)log(1−F(Xi))avecβ= (β0,β1,...,βp).

Les logiciels de statistiques calculent la fonction LV(β) et cherchent les coefficients β0; β1; …βp que
maximisent cette fonction à l‟aide d‟un algorithme itérative. Dans ce cours on va juste utiliser et
interpréter les résultats donnés par le logiciel R (vous n‟avez pas besoin de connaitre les résultats
théoriques de la log-vraisemblance associée au modèle).

Exemple :

4.4.2. Régression logistique multinomiale et ordinale

Lorsque la variable dépendante prend K (K >2) modalités, nous sommes dans le cadre de la régression
logistique polytomique. Dans cette partie, nous considérons qu'elle est nominale c.à.d, .il n'y a pas de
relation d'ordre entre les modalités, ou tout du moins nous souhaitons ne pas en tenir compte si elle existe.
On parle de régression logistique multinomiale. On p eut la voir comme une forme de généralisation de la
régression logistique binaire.

La régression logistique multinomiale est une extension de la régression logistique aux variables
qualitatives à trois modalités ou plus, la régression logistique ordinale aux variables qualitatives à trois
modalités ou plus qui sont ordonnées hiérarchiquement.

Exercices

Chap.5. PRINCIPES D’EXPERIMENTATION

Les agriculteurs sont confrontés à des choix dans leurs activités : choix de la culture, de la variété, de
l'engrais, des techniques culturales, etc. Pour prendre ces décisions, ils peuvent se baser sur leur
expérience personnelle, ou sur les traditions locales, ou encore sur des échanges d'informations avec des
spécialistes agricoles. Tout recueil d'informations est conçu en fonction d'un objectif, et cet objectif
conditionne la manière dont seront collectées les données et les questions auxquelles on tentera d'apporter
une réponse.
Les problèmes que rencontre l'agriculture d'une région et les connaissances que l'on peut avoir sur le sujet
concourent à la définition d'un objectif de recherche. Celui-ci se traduit par une hypothèse à tester dans
une expérience qui aboutit à une conclusion pouvant déboucher d'une part sur une proposition d'action sur
le terrain et d'autre part sur un enrichissement des connaissances, car les résultats peuvent être utilisés
pour résoudre des problèmes similaires.

A part la simulation, on considère deux modes de recueil de l'information : l'expérimentation et l'enquête.

4.1. Expérimentation et Enquête

En expérimentation, on cherche à comparer les effets de différents traitements sur une population
expérimentale. Les données doivent être "fabriquées" par l'expérimentateur de manière à respecter dans la
mesure du possible le principe : "les traitements sont comparés, toutes choses étant égales par ailleurs".
72

Aussi, la caractéristique essentielle de l'expérimentation est de créer des conditions contrôlées. La


population expérimentale est choisie dans ce but. La démarche de l'expérimentation est donc
rigoureusement analytique. En effet, un résultat d'essai est relatif à une situation particulière : celle
créée par les conditions de l'expérience, contrôlables ou non (par exemple, dans le domaine agronomique,
la variété, les techniques culturales, le type de sol, les conditions climatiques, etc.).
Le dispositif expérimental doit assurer que les suppositions nécessaires à l'analyse statistique sont
réalisées et permettre une bonne précision des résultats, en spécifiant la manière d'affecter les traitements
aux unités expérimentales.

L'autre mode de recueil d'informations est l'enquête (appelée ainsi ou bien sondage lorsque les
observations portent sur des personnes et échantillonnage lorsque les observations portent sur des
animaux ou des objets). Dans une enquête, on cherche à collecter des informations sur une population, en
la représentant par une partie de celle-ci, l'échantillon. La notion de représentativité de la population par
l'échantillon est donc essentielle dans une enquête (cfr chap1).

4.2. Définitions importantes

Plan d’expérience
On appelle plan d’expérience l‟opération consistant à planifier une expérience pour obtenir des données
appropriées et en tirer des conclusions sur tout problème soumis à l‟examen. Cette opération peut partir
de la formulation, en termes clairs, des objectifs de l‟expérience et s‟achever par la rédaction des rapports
contenant les conclusions importantes de l‟étude. Elle comprend aussi une phase intermédiaire durant
laquelle sont définis les détails de l‟expérience, notamment la structuration des variables dépendantes et
indépendantes, leurs niveaux dans l‟expérience, le type de matériel expérimental qui sera utilisé, la
méthode de manipulation des variables du matériel expérimental, des techniques d‟inférence statistique
efficaces et rationnelles etc…

Traitement et facteur
On appelle facteur toute série d'éléments de même nature conditionnant le phénomène étudié, en
agriculture le comportement agronomique de la culture (par exemple la variété, la dose d'engrais, etc.).
Les facteurs qui sont l'objet même de l'expérience sont appelés facteurs étudiés. Ceux qui sont liés à la
variabilité du milieu et introduits de façon à ce que leurs effets puissent être éliminés sont appelés les
facteurs de contrôle (ou contrôlés, bien que ce dernier qualificatif puisse être à double sens).
Les différents éléments qui constituent un facteur sont appelés niveaux ou modalités. Le premier terme
étant plutôt employé pour un facteur quantitatif et le deuxième pour un facteur qualitatif.
Enfin, on appelle objet ou traitement toute combinaison de niveaux ou de modalités de tous les facteurs
étudiés. Si un seul facteur est étudié, il y a identité entre un traitement et un niveau.

L'unité expérimentale
L'unité expérimentale est l'unité élémentaire qui reçoit un traitement et sur laquelle est faite chaque
mesure. Par exemple, dans les essais au champ, cette unité est la parcelle expérimentale. Elle est
constituée d'une certaine étendue de terrain et d'un certain nombre de plants.
Un problème important est celui des effets de bordure : dans beaucoup d'essais au champ, il y a un risque
d'interférences entre parcelles voisines (par exemple, il peut y avoir ombrage d'une variété haute sur une
voisine plus basse, ou bien un engrais peut partiellement profiter aux parcelles voisines). Ceci peut
affecter sérieusement la comparaison entre les traitements. La solution est de ne réaliser les mesures que
sur la partie centrale de la parcelle expérimentale et pas sur les bordures. On distingue alors la parcelle
utile sur laquelle sont effectuées les mesures et la parcelle expérimentale (= parcelle utile + bordures) qui
reçoit le traitement.
Avant de réaliser une expérience, il convient de définir une unité expérimentale. Celle-ci peut aussi être
constituée d‟une feuille, d‟un arbre ou d‟un groupe d‟arbres adjacents.
73

Le Bloc
Un groupe de parcelles est appelé bloc. Les observations faites sur les unités expérimentales se
caractérisent par de grandes variations, en partie produites par la manipulation de certaines variables,
généralement appelées traitements, qui sont inhérentes à l‟expérience et manipulées à dessein pour
étudier leurs influences. Par exemple, les clones dans les tests clonaux, les doses et les types d‟engrais
dans les essais sur les engrais etc… peuvent être appelés traitements.
Les traitements sont contenus dans un bloc

Erreur expérimentale
En plus de ces variations de source connue, il en existe d‟autres dont on ignore l‟origine, ou la cause,
comme par exemple la variation non contrôlée de facteurs externes liés à l‟environnement, les variations
génétiques du matériel expérimental, autres que celles dues aux traitements, etc… Ces variations sont
inévitables et inhérentes au processus même de l‟expérimentation. En raison de leurs influences
indésirables, elles ont reçu le nom d‟erreurs expérimentales, ce qui signifie qu‟il ne s‟agit pas d‟erreurs
arithmétiques, mais de variations dues à une combinaison de facteurs sur lesquels l‟expérimentateur ne
peut pas agir.
De plus, il est intéressant de noter que ces erreurs introduites par des facteurs externes dans les
observations expérimentales peuvent avoir une incidence systématique ou aléatoire. Les erreurs
imputables à un équipement défectueux, comme un tendeur de chaîne qui aurait perdu son étalonnage à
force d‟être utilisé, ou l‟erreur due à la fatigue de l‟observateur sont des exemples d‟erreur systématique.
En revanche, la variation imprévisible de la quantité de feuilles ramassées dans un collecteur de litière,
dans le cadre d‟un traitement particulier d‟une expérience liée, est de caractère aléatoire, ou fortuit. Il est
clair que quel que soit le nombre de fois où l‟on répètera les mesures, l‟erreur systématique subsistera,
alors que les erreurs aléatoires finissent le plus souvent par disparaître à l‟issue de mesures répétées. Les
trois principes de base, à savoir randomisation, répétition et contrôle local, permettent d‟ éviter l‟erreur
systématique et de limiter l‟erreur aléatoire.

Le champ d'expérience et le champ d'application


On appelle champ d'expérience l'ensemble des unités expérimentales, placées dans les conditions de
l'expérience.
Et on appelle champ d'application ou champ de référence, le domaine sur lequel les résultats d'une
expérience sont applicables. Il contient au moins le champ d'expérience.
Le champ d'application est en général mal connu en expérimentation du fait du caractère très analytique
de la démarche. Mais c'est une notion importante dès lors que l'on analyse des regroupements d'essais.
L'observation
L'observation se traduit par des mesures (ou variables) de caractères quantitatifs ou qualitatifs associés à
chaque unité expérimentale.
On appelle erreur technique ou erreur de mesure, l'erreur que l'on fait lors de l'observation.
Cette erreur doit être aussi petite que possible pour avoir des mesures fiables et précises, et par là avoir
une expérimentation avec des résultats interprétables.

4.3. Principes de l’expérimentation

La majorité des expériences reposent sur trois principes fondamentaux, à savoir randomisation, répétition
et contrôle local. D‟une certaine façon, ces trois principes se complètent mutuellement, puisqu‟ils tentent
d‟augmenter la précision de l‟expérience et de garantir la validité du test de signification, tout en
conservant, dans toute l‟expérience les caractéristiques propres à leurs rôles.

4.3.1. Randomisation

On appelle randomisation la technique d‟attribution des traitements, ou des facteurs à tester, aux unités
expérimentales conformément à des lois ou probabilités définies. C‟est la randomisation dans son sens
technique strict, qui garantit l‟élimination des erreurs systématiques et le caractère purement aléatoire de
74

tout élément d‟erreur persistant dans les observations. A partir de là, on peut faire une estimation valable
des fluctuations aléatoires, indispensable pour tester la signification de différences réelles.

Grâce à la randomisation, chaque unité expérimentale aura une chance égale de recevoir un traitement
quelconque. Si, par exemple, cinq clones d‟eucalyptus doivent être testés dans 25 parcelles, la
randomisation garantit que certains clones ne seront pas favorisés ou pénalisés par des sources de
variation externes qui ne dépendent pas de l‟action, délibérée ou non, de l‟expérimentateur. Le processus
d‟allocation aléatoire peut se faire de plusieurs façons, par tirage au sort ou en tirant des nombres d‟une
page, choisie au hasard, de nombres aléatoires. La méthode est illustrée dans les sections qui suivent sur
les différents types de plans expérimentaux.

4.3.2. Répétition

Par répétition, on entend la répétition d‟une expérience dans des conditions identiques. Dans le contexte
des plans d‟expérience, en revanche, le terme se réfère au nombre d‟unités expérimentales distinctes
faisant l‟objet du même traitement. La répétition, conjuguée à la randomisation, fournira une base pour
estimer la variance des écarts. Sans la randomisation, un nombre quelconque de répétitions pourrait ne
pas déboucher sur une estimation réelle de l‟erreur. Plus le nombre de répétitions est grand, plus la
précision de l‟expérience est grande.

Le nombre de répétitions que doit comporter une expérience quelconque dépend de nombreux facteurs,
notamment de l‟homogénéité du matériel expérimental, du nombre de traitements, du degré de précision
requis etc… En règle général, on pourrait postuler que le nombre de répétitions dans un plan doit fournir
au moins dix à quinze degrés de liberté, pour calculer la variance de l‟erreur expérimentale.

4.3.3. Contrôle local (erreurs)

On entend par contrôle local le contrôle de tous les facteurs autres que ceux sur lesquels portent les
recherches. Comme la répétition, le contrôle local est un dispositif visant à réduire ou à maîtriser la
variation due à des facteurs externes et à accroître la précision de l‟expérience. Si, par exemple, un champ
d‟essais est hétérogène, du point de vue de la fertilité du sol, il peut être divisé en blocs plus petits de
façon à ce que les parcelles se trouvant à l‟intérieur de chaque bloc tendent à être plus homogènes. Ce
type d‟homogénéité des parcelles (unités expérimentales) garantit une comparaison non biaisée des
moyennes des traitements. En effet, il serait difficile de dire que la différence moyenne entre deux
traitements provient uniquement de différences entre eux, s‟il restait aussi des différences entre les
parcelles. Ce type de contrôle local visant à rendre homogènes des unités expérimentales, augmentera la
précision de l‟expérience et aidera à tirer des conclusions valides.

Pour résumer, on peut dire qu‟alors que la randomisation vise à éliminer une erreur systématique (ou
biais) dans l‟allocation et, partant, à ne laisser qu‟un élément de variation d‟erreur aléatoire, les deux
autres méthodes, à savoir la répétition et le contrôle local, tentent de maintenir cette erreur aléatoire à un
niveau aussi faible que possible. Les trois principes sont cependant essentiels pour faire une estimation
valable de la variance de l‟erreur et garantir la validité du test de signification.

NB : Il n'existe pas de théorie générale pour décider de la dimension et de la forme de la parcelle


expérimentale. On dispose toutefois de quelques principes pouvant guider ce choix.
Plus le matériel végétal est hétérogène, plus la parcelle sera de grande taille. Et, plus le contrôle de
l'application des traitements sera difficile, plus la parcelle sera aussi de grande taille. Le problème est de
trouver un compromis entre une parcelle pas trop petite pour pouvoir extrapoler les résultats à l'hectare et
pas trop grande pour ne pas avoir un champ d'expérience (cf. définition cidessous) trop grand, c'est à dire
prenant trop de place et risquant de rassembler des parcelles très hétérogènes. Il n'y a donc pas de règle
absolue pour la dimension. Par exemple, l'usage est de prendre des parcelles de 10 à 100 m2 pour les
cultures annuelles.
75

Il n'y a pas non plus de règle absolue pour la forme des parcelles : lorsque le terrain est assez homogène,
il y a intérêt à prendre des parcelles aussi carrées que possible, ce qui limite les effets de bordure. Mais
l'homogénéité est rare et, dans le cas où il y a un gradient de fertilité, il y a plutôt intérêt à prendre des
parcelles allongées dans le sens du gradient. De plus, le même auteur conseille de prendre des parcelles
allongées en cas d'hétérogénéités "en taches", ce qui permettrait de recouper les zones de fertilités
différentes.
La réalisation d'un essai à blanc est le moyen le plus utilisé pour avoir des informations sur la dimension
et la forme des parcelles expérimentales à prendre dans un lieu donné. Un tel essai permet en outre de
mesurer l'hétérogénéité des parcelles et de prévoir comment les regrouper en blocs homogènes, s'il y a
lieu.

4.4. Dispositifs expérimentaux classiques

Les dispositifs expérimentaux classiques ont été classés d'après le mode de contrôle de l'hétérogénéité :
pas de contrôle pour le plan en randomisation totale, un seul facteur de contrôle pour le plan en blocs et
deux facteurs de contrôle pour le carré latin.
NB :Seuls les plans analysables par le logiciel usuels sont vus dans un premier temps mais une autre partie sera consacrée aux
autres plans d'expériences classiques non analysables par ces logiciels en ingéniorat tout comme divers sujets intéressant
l'expérimentation : le calcul d'un nombre de répétitions, la gestion des données manquantes et le problème des écarts aux
hypothèses de l'analyse de variance.

4.4.1. Plan d‟expérience entièrement randomisé

Dans un plan expérimental entièrement randomisé (PER), les traitements sont attribués complètement au
hasard de sorte que chaque unité expérimentale a la même chance de recevoir un traitement donné quel
qu‟il soit. Dans un PER, toute différence entre les unités expérimentales soumises au même traitement est
considérée comme une erreur expérimentale. En conséquence, le PER n‟est approprié que pour les
expériences ayant des unités expérimentales homogènes, telles que les essais en laboratoire, dans
lesquelles il est relativement facile de maîtriser les effets dus à l‟environnement. Le PER est rarement
utilisé pour les essais en champs, où il existe une grande variation entre les parcelles expérimentales, par
exemple au niveau de facteurs comme les sols.

a) Déroulement et représentation schématique

Nous allons maintenant présenter la procédure par étapes de la randomisation ainsi que le schéma d‟un
PER, pour un essai de culture en pots comportant quatre traitements A, B, C et D, répétés cinq fois.

*Etape 1. Déterminer le nombre total de parcelles expérimentales (n), comme produit du nombre de
traitements (t) et du nombre de répétitions (r); c‟est-à-dire, n = rt. Dans notre exemple, n = 5 x 4 = 20.
Dans ce cas, un pot contenant une seule plante sera considéré comme une parcelle. Si le nombre de
répétitions n‟est pas le même pour tous les traitements, on obtiendra le nombre total de pots
expérimentaux en faisant la somme des répétitions de chaque traitement :

où ri est le nombre de répétitions du ième traitement

*Etape 2. Attribuer un numéro à chaque parcelle expérimentale, selon une quelconque méthode
appropriée, par exemple, en utilisant des suites de chiffres de 1 à n.

*Etape 3. Allouer au hasard les traitements aux parcelles expérimentales, en utilisant une table de
nombres aléatoires.
76

Allouez les t traitements aux n parcelles expérimentales, en prenant le numéro du groupe comme numéro
de traitement et les rangs correspondants dans chaque groupe comme le nombre de parcelles auxquelles le
traitement correspondant sera alloué.

b) Analyse de la variance

Il existe deux sources de variation entre les n observations tirées d‟un essai de PER. L‟une est la variation
due aux traitements et l‟autre est l‟erreur expérimentale. Leur taille relative indique si la différence
observée entre les traitements est réelle ou si elle est due au hasard. La différence due au traitement est
" réelle " si elle dépasse dans une mesure significative l‟erreur expérimentale.

L‟un des avantages majeurs d‟un PER est que son analyse de variance se calcule facilement, surtout si le
nombre de répétitions n‟est pas uniforme pour tous les traitements. Pour la plupart des autres plans,
l‟analyse de variance se complique lorsque la perte de données dans certaines parcelles entraîne des
disparités dans les répétitions des traitements testés.

Nous allons voir ci-dessous les étapes de l‟analyse de variance des données provenant d‟une
expérimentation relative à un PER comportant un nombre de répétitions non uniforme. Les formules
peuvent être adaptées facilement en cas de répétitions égales, de sorte qu‟elles ne sont pas décrites à part.

Tableau. Schéma de l‟analyse de variance d‟un PER, avec répétitions inégales

Source de Degrés de liberté Somme des Carré moyen Valeur calculée de


variation (df) carrés F
(SS)

Traitement t-1 SST MST

Erreur n-t SSE MSE

Total n-1 SSTO

4.4.2. Plan expérimental en blocs aléatoires complets

Le plan expérimental en blocs aléatoires complets (PEBAC) est l‟un des dispositifs les plus largement
utilisés en recherche agronomique. Il se prête généralement à des expériences en champs dans lesquels le
nombre de traitements est peu important et où il existe un facteur évident pouvant servir de base pour
identifier des ensembles homogènes d‟unités expérimentales. Le PEBAC se caractérise principalement
par la présence de blocs de taille égale, dont chacun contient tous les traitements.

a. Technique des blocs

Cette technique a pour but de réduire l‟erreur expérimentale en éliminant la contribution de sources
connues de variation entre les unités expérimentales. Pour ce faire, on regroupe les unités expérimentales
en blocs de manière à minimiser la variabilité à l‟intérieur de chaque bloc et à maximiser la variabilité
entre les blocs. Etant donné que seule la variation à l‟intérieur d‟un bloc devient un élément de l‟erreur
expérimentale, le dispositif par blocs est particulièrement efficace lorsque le type de variabilité du secteur
d‟expérimentation est prévisible.

Dans un dispositif par blocs, l‟idéal est d‟utiliser une source de variation grande et hautement prévisible,
telle que l‟hétérogénéité du sol, dans un essai d‟engrais ou de provenance dans lequel le rendement est le
77

principal caractère sur lequel on cherche à obtenir des informations. Dans le cas d‟expériences de ce
genre, après avoir identifié la source spécifique de variabilité qui servira de critère pour les blocs, il faut
choisir la taille et la forme des blocs pour maximiser la variabilité entre ceux-ci. Les principes directeurs
de cette décision sont les suivants : i) si le gradient est unidirectionnel (c‟est-à-dire s‟il y a un seul
gradient), les blocs seront longs et étroits, et orientés de façon à ce que leur longueur soit perpendiculaire
à la direction du gradient ; ii) si le gradient de fertilité va dans deux directions, avec un gradient beaucoup
plus fort que l‟autre, on ignorera le plus faible et l‟on suivra les directives qui viennent d‟être données
pour le gradient unidirectionnel ; iii) si le gradient de fertilité va dans deux directions, et si les deux
gradients ont la même force et sont perpendiculaires l‟un par rapport à l‟autre, on choisira des blocs aussi
carrés que possible ou d‟autres types de plans comme le carré latin (Gomez et Gomez, 1980).

Si l‟on utilise cette technique, la définition des blocs et l‟objet de leur utilisation doivent être compatibles
tout au long de l‟expérience. Cela signifie que dans tous les cas où il existe une source de variation sur
laquelle le chercheur ne peut pas agir, on veillera à ce que cette variation se produise entre des blocs
plutôt qu‟à l‟intérieur d‟un même bloc. Par exemple, s‟il est impossible de mener à leur terme en un seul
jour certaines opérations comme l‟application d‟insecticides ou la collecte de données, pour toute
l‟expérience, celles-ci devront être achevées en une journée sur toutes les parcelles d‟un même bloc. De
cette manière, la variation entre les jours (qui peut être renforcée par des facteurs météorologiques)
devient un élément de la variation du bloc et se trouve par conséquent exclue de l‟erreur expérimentale.
Si, dans le cadre de l‟essai, plusieurs chercheurs doivent prendre des mesures, le même observateur sera
chargé de prendre des mesures sur toutes les parcelles d‟un même bloc. Ainsi, l‟éventuelle variation entre
les observateurs constituera un élément de la variation du bloc et non de l‟erreur expérimentale.

b) Déroulement et représentation schématique

Le processus de randomisation d‟un PEBAC est appliqué à chaque bloc de manière séparée et
indépendante. Nous allons illustrer la marche à suivre pour une expérience en champ comportant six
traitements A, B, C, D, E, F et trois répétitions.

Gradient

Bloc I Bloc II Bloc III

b) Analyse de la variance

Tout PEBAC a trois sources de variabilité - le traitement, la répétition (ou bloc) et l‟erreur expérimentale
- soit une de plus qu‟un PER, en raison de l‟adjonction de la répétition qui correspond à la variabilité
entre les blocs.

Tableau. Représentation schématique de l‟analyse de la variance d‟un PEBAC


78

Source de Degré de Somme des Carré moyen F calculé


variation liberté carrés

(df) (SS)

Répétition r-1 SSR MSR

Traitement t-1 SST MST

Erreur (r - 1)(t - 1) SSE MSE

Total rt - 1 SSTO

4.4.3. Plans d’expérience factoriels

Dans toute expérience, une ou plusieurs variables de réponse peuvent être affectées par un certain nombre
de facteurs dans le système global, dont certains sont maîtrisés ou maintenus aux niveaux voulus dans
l‟expérience. Une expérience dans laquelle les traitements sont constitués de toutes les combinaisons
possibles de deux ou plusieurs facteurs, aux niveaux sélectionnés, est appelé plan d‟expérience factoriel.
Par exemple, une expérience sur l‟enracinement des boutures englobant deux facteurs, mesurés à deux
niveaux – par exemple deux hormones à deux dosages différents – est une expérience factorielle 2 x 2 ou
22. Les traitements sont constitués des quatre combinaisons possibles de chacun des deux facteurs, aux
deux niveaux considérés.

Combinaison des traitements

Numéro du traitement Hormone Dose (ppm)

1 NAA 10

2 NAA 20

3 IBA 10

4 IBA 20

On utilise parfois l‟expression expérience factorielle complète lorsque les traitements comprennent toutes
les combinaisons des niveaux sélectionnés des facteurs, mais l‟expression expérience factorielle
fractionnée ne s‟applique que le test ne porte que sur une fraction de toutes les combinaisons. Toutefois,
pour simplifier, les expériences factorielles complètes seront, tout au long de ce manuel, appelées
simplement expériences factorielles. On notera que le terme factoriel se réfère au mode de constitution
spécifique des traitements et n‟a rien à voir avec le plan décrivant le dispositif expérimental. Par exemple,
si l‟expérience factorielle 22 dont nous avons parlé plus haut fait partie d‟un plan d‟expérience en blocs
aléatoires complets, l‟expérience devrait être définie par l‟expression expérience factorielle 22 dans un
plan en blocs aléatoires complets.

Dans un plan d‟expérience factoriel, le nombre total de traitements est égal au produit du nombre de
niveaux de chaque facteur; dans l‟exemple factoriel 22, le nombre de traitements est égal à 2 x 2 = 4, dans
une expérience factorielle 23, le nombre de traitements est 2 x 2 x 2 = 8.
79

Le nombre de traitements augmente rapidement avec le nombre de facteurs ou avec les niveaux de chaque
facteur. Pour une expérience factorielle comprenant 5 clones, 4 espacements et 3 méthodes de
désherbage, le nombre total de traitements sera 5 x 4 x 3 = 60. On évitera donc le recours inconsidéré aux
expériences factorielles en raison de leur ampleur, de leur complexité et de leur coût. De plus, il est peu
raisonnable de se lancer dans une expérience de grande ampleur au début d‟un travail de recherche, alors
qu‟il est possible, avec plusieurs petits essais préliminaires, d‟obtenir des résultats prometteurs.
Imaginons par exemple qu‟un généticien forestier ait fait venir 30 nouveaux clones d‟un pays voisin et
veuille voir comment ils réagissent à l‟environnement local. Etant donné que normalement les conditions
de l‟environnement varient en fonction de plusieurs facteurs, tels que la fertilité du sol, le degré
d‟humidité, etc. l‟idéal serait de tester les 30 clones dans le cadre d‟une expérience factorielle englobant
d‟autres variables, telles qu‟engrais, niveau d‟humidité et densité de population. Le problème est que
l‟expérience devient alors extrêmement vaste du fait de l‟adjonction d‟autres facteurs que les clones.
Même si l‟on incluait qu‟un seul facteur, comme l‟azote ou l‟engrais, à trois dosages différents, le nombre
de traitements passerait de 30 à 90. Une expérience de cette ampleur pose divers types de problèmes,
notamment pour obtenir des financements ou une surface expérimentale adéquate, ou pour contrôler
l‟hétérogénéité du sol etc. Pour faciliter les choses, il est donc préférable de commencer par tester les 30
clones dans une expérience à un facteur, puis de sélectionner sur la base des résultats obtenus un petit
nombre de clones à soumettre à un examen plus détaillé. Par exemple la première expérience à un facteur
peut montrer que seuls cinq clones ont des performances suffisamment remarquables pour justifier des
tests plus approfondis. Ces cinq clones pourraient ensuite être insérés dans une expérience factorielle avec
trois dosages d‟azote, ce qui donnerait un expérience à quinze traitements , alors qu‟il en faudrait 90 dans
une expérience factorielle avec 30 clones.

L‟effet d‟un facteur est la variation moyenne d‟une réponse dérivant d‟un changement du niveau du
facteur considéré. Cet effet est souvent appelé effet principal.

Tableau. Données issues d‟un plan d‟expérience factorielle 2x2

Facteur B

Niveau b1 b2

a1 20 30

Facteur A

a2 40 52

L‟effet principal du facteur A peut être considér é comme la différence entre la réponse moyenne au
premier niveau de A et la réponse moyenne au deuxième niveau de A.

Si les facteurs apparaissent à plus de deux niveaux, la procédure ci-dessus doit être modifiée car les
différences entre les réponses moyennes peuvent être exprimées de différentes manières.

Le principal avantage d‟une expérience factorielle est qu‟elle permet d‟obtenir plus d‟informations sur
l‟interaction entre les facteurs. Dans certaines expériences, on constate que la différence de réponse entre
les niveaux d‟un facteur n‟est pas la même à tous les niveaux des autres facteurs, ce qui signifie qu‟il
existe une interaction entre les facteurs. Prenons pour exemple les données du Tableau 4.13.

Tableau. Données issues d‟une expérience factorielle 2x2


80

Facteur B

Niveaux b1 b2

a1 20 40

Facteur A

a2 50 12

Cette valeur étant très petite, nous sommes tentés de conclure à l‟absence d‟effets dus à A. Toutefois, si
l‟on examine les effets de A à différents niveaux du facteur B, on constate qu‟il n‟en est pas ainsi. Le
facteur A a un effet, mais il dépend du niveau du facteur B, ce qui veut dire qu‟une interaction
significative masque souvent la signification des effets principaux. En présence d'une interaction
significative, l'expérimentateur doit ordinairement examiner les niveaux d'un facteur, par exemple A,
alors que le niveau des autres facteurs reste fixe, pour tirer des conclusions sur l‟effet principal de A.

Dans la majorité des plans d‟expérience factoriels, les traitements sont trop nombreux pour qu‟un plan en
blocs aléatoires puisse être efficace. Certains types de plans ont cependant été spécifiquement mis au
point pour des expériences factorielles de grande envergure, (ex : plans factoriels avec confusion).
L‟utilisation de ces plans est décrite dans Das et Giri (1980).

a) Analyse de variance

Tout plan en blocs complets pour des expériences à un facteur est applicable à un plan d‟expérience
factoriel. Les procédures de randomisation et de représentation schématique de chaque plan peuvent être
appliquées directement, en ignorant simplement la composition factorielle des traitements et en faisant
comme s‟il n‟existait pas de relation entre les traitements. Pour l‟analyse de variance, les calculs
examinés pour chaque plan sont aussi directement applicables. Toutefois, des étapes de calcul doivent
être ajoutées pour répartir les sommes des carrés des traitements entre les composantes factorielles
correspondant aux effets principaux des facteurs individuels et à leurs interactions. Cette procédure de
fractionnement étant la même pour tous les plans en blocs complets, elle ne sera illustrée ici que pour le
cas du PEBAC.

Nous allons décrire les différentes étapes de la procédure d‟analyse de la variance d‟une expérience à
deux facteurs sur les bambous, avec deux niveaux d‟espacements (Facteur A) et trois niveaux d‟âge à la
plantation (facteur B), définis dans un PEBAC, à trois répétitions.
Tableau. Les combinaisons factorielles (2 x3) des traitements, avec deux niveaux d‟espacement et trois niveaux d‟âge.

Age à la Espacement (en m)


plantation

(en mois) 10 m x 10 m 12 m x 12m

(a1) (a2)

6 (b1) a1b1 a2b1


81

12 (b2) a1b2 a2b2

24 (b3) a1b3 a2b3


Figure 4.7. Schéma-type d‟un plan d‟expérience factoriel 2 3 avec deux niveaux d‟espacement et trois niveaux d‟âge, dans un PEBAC, avec 3 répétitions.
Répétition I Répétition II Répétition III

a2b3 a 2b 3 a 1b 2

a1b3 a 1b 2 a 1b 1

a1b2 a 1b 3 a 2b 2

a2b1 a 2b 1 a 1b 3

a1b1 a 2b 2 a 2b 1

a2b2 a 1b 1 a 2b 3

Tableau. Représentation schématique de l‟analyse de variance d‟une expérience factorielle avec deux niveaux du facteur A,
trois niveauxs du facteur B et trois répétitions, dans un PEBAC

Source de Degrés de liberté Somme des Carré moyen f calculé


variation (df) carrés
(SS)

Répétition r-1 SSR MSR

Traitement ab- 1 SST MST

A a- 1 SSA MSA

B b- 1 SSB MSB

AB (a-1)(b-1) SSA B MSAB

Erreur (r-1)(ab-1) SSE MSE

Total rab -1 SSTO

4.5. Plan factoriel fractionné

Dans un plan d‟expérience factoriel, si le nombre de facteurs à tester est trop grand, il devient impossible
de tester tous les traitements factoriels à la fois dans le cadre d‟une seule expérience. Il est alors plus
logique de mettre au point un plan expérimental pour tester une fraction seulement du nombre total de
traitements. Le plan factoriel fractionné (PFF) est applicable, uniquement dans le cas d‟expériences
englobant un grand nombre de facteurs. Il permet de sélectionner et de tester systématiquement une
fraction seulement de l‟ensemble complet de combinaisons de traitements factoriels. Ceci entraîne
82

malheureusement une perte d‟informations sur certains effets sélectionnés au préalable. Alors que ces
pertes peuvent être importantes dans des expériences à un ou deux facteurs, elles sont plus tolérables si
les facteurs sont nombreux. Le nombre d‟effets d‟interaction augmente rapidement avec le nombre de
facteurs, ce qui permet une certaine flexibilité dans le choix des effets qui devront être sacrifiés. De fait,
lorsque l‟on sait avant de commencer que certains effets spécifiques sont faibles ou sans importance, la
perte d‟information dérivant de l‟adoption d‟un Plan d‟expérience factoriel fractionné est négligeable.

Dans la pratique, les effets qui sont le plus couramment sacrifiés du fait du recours au PFF sont des
interactions d‟ordre élevé – de quatre facteurs ou de cinq facteurs, voire interaction de trois facteurs. Dans
la majorité des cas, à moins de disposer d‟informations préalables en sens contraire, le chercheur a intérêt
à sélectionner un ensemble de traitements qui permet de tester tous les effets principaux et les interactions
de deux facteurs. En recherche forestière, le PFF sera utilisé dans des essais exploratoires ayant pour
principal objectif d‟examiner les interactions entre des facteurs. Pour ces essais, les PFF les plus
appropriés sont ceux qui ne sacrifient que les interactions concernant plus de deux facteurs.

Avec le PFF, le nombre d‟effets mesurables décroît rapidement avec la diminution du nombre de
traitements à tester. Ainsi, lorsque les effets à mesurer sont nombreux, le nombre de traitements à tester,
même dans le cadre d‟un PFF, peut être encore trop important. Il est alors possible de diminuer encore la
taille de l‟expérience en réduisant le nombre de répétitions. Bien que les PFF sans répétition soient
rarement employés dans les expériences forestières, lorsqu‟on les applique à des essais exploratoires, le
nombre de répétitions requis peut être réduit au minimum.

L‟autre avantage du PFF est qu‟il permet de réduire la taille des blocs puisque ceux-ci ne doivent plus
nécessairement contenir tous les traitements à soumettre au test. L‟homogénéité des unités expérimentales
appartenant à un même bloc peut ainsi être améliorée. La réduction de la taille des blocs s‟accompagne
toutefois d‟une perte d‟information qui s‟ajoute à celle dérivant de la diminution du nombre de
traitements. Ainsi, le PFF peut être conçu sur mesure et adapté à la majorité des plans d‟expérience
factoriels. Cependant, la procédure à employer à cette fin est complexe, c‟est pourquoi nous nous
limiterons ici à décrire une catégorie particulière de PFF, adaptée au cas d‟essais exploratoires dans le
domaine de la recherche forestière. Les principales caractéristiques de ces plans d‟expérience spécifiques
sont les suivantes : i) ils s‟appliquent uniquement aux expériences factorielles 2‟‟ où n, le nombre de
facteurs est de 5 au minimum, ii) ils comprennent seulement la moitié de l‟ensemble complet de
combinaisons de traitements factoriels, dénoté par 2n-1 ; iii) ils permettent d‟estimer la totalité des effets
principaux et des interactions à deux facteurs. Pour des plans plus complexes, le lecteur peut se référer à
Das et Giri (1980).

La procédure de définition du schéma et d‟analyse de variance d‟un PFF 25-1 , avec un essai en champ
comportant cinq facteurs A, B, C, D et E est illustrée dans la section suivante. Les différentes
combinaisons des traitements sont désignés par les lettres a, b, c,…, pour noter la présence (ou le niveau
élevé) des facteurs A, B, C,… Ainsi, la combinaison du traitement ab, dans une expérience factorielle 25
indique une combinaison de traitement caractérisée par un niveau élevé (ou par la présence) des facteurs
A et B et par un bas niveau (ou par l‟absence) des facteurs C, D et E. En revanche, dans une expérience
factorielle 26, cette même notation (ab) se référerait à une combinaison de traitement contenant un niveau
élevé des facteurs A et B et un bas niveau des facteurs C, D, E, et F. Dans tous les cas, le symbole (1)
indiquera la combinaison de traitement caractérisée par un bas niveau de tous les facteurs.

a. Elaboration du plan et présentation

Il existe une méthode simple pour trouver la fraction voulue des combinaisons factorielles dans un PFF
25-1 , sachant que, dans un essai factoriel 25, l‟effet des facteurs ABCDE peut être estimé à partir du
développement du terme (a-1)(b-1)(c-1)(d-1)(e-1):
83

(a-1)(b-1)(c-1)(d-1)(e-1) = abcde - acde - bcde + cde - abde + ade + bde - de- abce + ace + bce - ce + abe
- ae - be + e- abcd + acd + bcd - cd + abd - ad - bd + d+ abc - ac - bc + c - ab + a + b - 1

Dans cette expression, les signes (positif ou négatif) associés aux traitements permettent de diviser
l‟ensemble factoriel complet en deux groupes de traitements. Si l‟on conserve uniquement un l‟un des
deux ensembles, positif ou négatif, on obtient une demie fraction de l‟expérience factorielle 25. Les deux
séries de traitements se présentent comme suit.

Traitements accompagnés de signes négatifs Traitements accompagnés de signes positifs

acde, bcde, abde, de, abce, ce, ae, be, abcde, bcde, abde, de, abce, ce, ae, be,

abcd, cd, ad, bd, ac, bc, ab, 1 abcd, cd, ad, bd, ac, bc, ab, 1

Par suite de la réduction du nombre de traitements inclus dans l‟expérience, il va être impossible
d‟estimer l‟effet ABCDE à partir de l‟ensemble fractionné. Tous les effets principaux et toutes les
interactions de deux facteurs peuvent être estimés dans l‟hypothèse où toutes les interactions de trois
facteurs et d‟ordre plus élevé sont négligeables. La procédure peut être généralisée puisque dans une
expérience 26, , il est possible d‟isoler une demie fraction en retenant les traitements accompagnés d‟un
signe positif ou négatif dans le développement de (a-1)(b-1)(c-1)(d-1)(e-1)(f-1).

Le PFF est simplement un dispositif qui permet de sélectionner des traitements ayant une structure
factorielle, et les combinaisons des facteurs qui en découlent peuvent être considérées comme un
ensemble de traitements applicables à l‟expérience physique qui sera définie dans un plan standard
quelconque tel que PER ou PEBAC. On trouvera à la Figure 4.8. un schéma randomisé type, pour un PFF
25-1 avec deux répétitions faisant partie d‟un PEBAC.
Figure . Schéma-type d‟un PFF 25-1 avec deux répétitions faisant partie d‟un PEBAC.

1 9 1 9
de ab abce acde

2 10 2 10
1 adde cd bd

3 11 3 11
acde ad be de

4 12 4 12
ae abce ad bcde

5 13 5 13
ce be ae ce

6 14 6 14
ac bc abcd 1

7 15 7 15
bcde bcd abce ac

8 16 8 16
bd cd bc be

Répétition I Répétition II
84

a) Analyse de variance
La procédure d‟analyse de variance applicable à un PFF 25-1 à deux répétitions, est illustrée à l‟aide de la
méthode de Yates pour le calcul de la somme des carrés, qui facilite le calcul manuel d‟expériences
factorielles de grande ampleur. On peut aussi appliquer les règles standards de calcul des sommes des
carrés dans l‟analyse de variance, en élaborant des tableaux à une entrée des totaux, pour calculer les
effets principaux, des tableaux à double entrée des totaux pour les interactions de deux facteurs, etc.

*Etape 1. Dresser le tableau préliminaire de l‟analyse de variance


*Etape 2. Déterminer le nombre de facteurs réels (k) avec deux niveaux chacun, donnant lieu à un nombre
total de traitements factoriels égal au nombre de traitements (t) inclus dans l‟expérience (2k = t).
Sélectionner ensuite l‟ensemble des k facteurs réels particuliers dans l‟ensemble initial de n facteurs. Les
(n - k) facteurs restants sont appelés facteurs factices.

Tableau. Représentation schématique de l‟analyse de variance d‟un PFF 2 5-1 à deux répétitions, s‟inscrivant dans un PEBAC.
Source de Degré de Somme des Carré moyen
variation liberté carrés F calculé
(df) (SS)

Bloc r-1=1 SSR MSR

A 1 SSA MSA

B 1 SSB MSB

C 1 SSC MSC

D 1 SSD MSD

E 1 SSE@ MSE@

AB 1 SSAB MSAB

AC 1 SSAC MSAC

AD 1 SSAD MSAD

AE 1 SSAE MSAE

BC 1 SSBC MSBC

BD 1 SSBD MSBD

BE 1 SSBE MSBE

CD 1 SSCD MSCD

CE 1 SSCE MSCE

DE 1 SSDE MSDE

Erreur 15 SSE MSE

Total (r 25-1)-1 SSTO


85
@ Cette SS est la somme des carrés dus au facteur E, à ne pas confondre avec la somme des carrés dus à l‟erreur (SSE) figurant plus bas dans le tableau. Le
degré de liberté de l‟erreur peut être obtenu en soustrayant du degré de liberté total le degré de liberté relatif au bloc et les effets factoriels.

4.6. Dispositif en parcelles divisées (split plot)

L‟expérience avec parcelles divisées (ou dispositif en tiroir) convient très bien dans le cas d‟une
expérience à deux facteurs dans laquelle les niveaux d‟un des deux facteurs ne peuvent être testés que
dans des parcelles de grande taille et se caractérisent par des effets très différents. Dans une telle situation,
l‟expérience sera formée d‟un ensemble de " grandes parcelles " dans lesquelles des niveaux sont assignés
au facteur de grande parcelle. Chaque grande parcelle est divisée en petites parcelles auxquelles est
assigné le second facteur. Chaque grande parcelle devient ainsi un bloc pour les traitements des petites
parcelles (c‟est-à-dire les niveaux du facteur de petite parcelle). Le facteur de grande parcelle peut en
réalité être alloué suivant l‟un des systèmes existant ( plan entièrement randomisé, plan en blocs
aléatoires complets, ou carré latin) mais ici seul le plan entièrement randomisé est envisagé pour le
facteur de grande parcelle, car c‟est probablement le plan le plus approprié et le plus couramment
employé pour les expériences forestières.

Avec un dispositif en parcelles divisées, la précision de la mesure des effets du facteur de grande parcelle
est sacrifiée au profit de celle du facteur de la petite parcelle. La mesure de l‟effet principal du facteur de
petite parcelle et son interaction avec le facteur de grande parcelle sont plus précises que celles qui
peuvent être obtenues avec un plan en blocs aléatoires complets. En revanche, la mesure des effets des
traitements des grandes parcelles (les niveaux du facteur des grandes parcelles) est moins précise que
celle que l‟on obtiendrait avec un plan en blocs aléatoires complets.

a) Dispositif

Un dispositif en parcelles divisées comprend deux processus de randomisation distincts – un pour les
grandes parcelles et l‟autre pour les petites parcelles. Dans chaque répétition, on commence par allouer au
hasard les traitements des grandes parcelles, puis ceux des petites parcelles formées à l‟intérieur de
chaque grande parcelle.

Ceci sera illustré par une expérience à deux facteurs comprenant quatre niveaux d‟azote (traitements des
grandes parcelles) et trois clones d‟eucalyptus (traitement des petites parcelles), avec trois répétitions. Ici,
les doses d‟engrais ont été choisies pour les grandes parcelles, principalement en fonction de leur facilité
d‟application et de contrôle de l‟effet de lessivage et pour détecter la présence d‟une interaction entre les
engrais et les clones. Dans notre description des étapes de la randomisation et de la définition d‟un
dispositif en parcelles divisées, a est le nombre de traitements des grandes parcelles, b est le nombre de
traitements des petites parcelles et r est le nombre de répétitions.

*Etape 1. Diviser la surface expérimentale en r = 3 blocs, dont chacun sera divisé en a = 4 grandes
parcelles, comme dans la Figure 4.9.

*Etape 2. Suivant la procédure de randomisation d‟un PEBAC avec a = 4 traitements et r = 3 répétitions


allouer au hasard les 4 traitements à l‟azote aux 4 grandes parcelles se trouvant à l‟intérieur des 3 blocs.
Le résultat se présentera comme dans la Figure 4.10.

*Etape 3. Diviser chacune des ra = 12 grandes parcelles en b = 3 petites parcelles et en suivant la


procédure de randomisation d‟un PEBAC pour b = 3 traitements et ra = 12 répétitions, allouer au hasard
les 3 clones aux 3 petites parcelles se trouvant dans chacune des 12 grandes parcelles. Le résultat se
présentera comme dans la Figure 4.11.
86
Division de la surface expérimentale en trois blocs (répétitions) composés de quatre grandes parcelles, comme première étape de la définition d‟une expérience
en parcelles divisées comportant trois répétitions et quatre traitements par grande parcelle.

Grandes parcelles Grandes parcelles Grandes parcelles

1 2 3 4 1 2 3 4 1 2 3 4

Répétition I Répétition II Répétition III

Figure 4.10. Allocation aléatoire de quatre niveaux d‟azote (n , n , n et n ) aux quatre grandes parcelles, dans chacune des trois répétitions de la Figure 4.9.
0 1 2 3

n3 n1 n0 n2 n1 n0 n3 n2 n0 n1 n2 n3

Répétition I Répétition II Répétition III

Figure 4.11. Représentation type d‟une expérience en parcelles divisées avec trois clones d‟eucalyptus (v v et v ) (traitements des petites parcelles) et
1, 2 3
quatre niveaux d‟azote (n , n , n et n ) (traitements des grandes parcelles, dans trois répétitions).
0 1 2 3

n3 n1 n0 n2 n1 n0 n5 n2 n0 n1 n2 n3

v2 v1 v1 v2 v1 v3 v3 v1 v4 v3 v3 v1

v1 v3 v2 v3 v3 v1 v2 v2 v2 v4 v2 v3

v3 v2 v3 v1 v2 v2 v1 v3 v1 v1 v4 v2

Répétition I Répétition II Répétition III

Le schéma d‟un champ, dans une expérience en parcelles divisées (comme celle de la Figure 4.11) à
quelques caractéristiques importantes: i) La taille de la grande parcelle est b fois plus grande que celle de
la petite parcelle. Dans notre exemple, avec 3 variétés (b = 3) la grande parcelle est 3 fois plus grande que
la petite ; ii) Chaque traitement de grande parcelle est testé r fois, alors que chaque traitement de petite
parcelle est testé ar fois. Ainsi, les traitements des petites parcelles sont toujours testés un plus grand
nombre de fois que ceux des grandes parcelles, ce qui explique leur plus grande précision. Dans notre
exemple, chacun des 4 niveaux d‟azote est testé trois fois, mais chacun des 3 clones est testé douze fois.

b) Analyse de variance
87

L‟analyse de variance d‟une expérience en parcelles divisées se fait en deux temps: l’analyse des grandes
parcelles, et l’analyse des petites parcelles. Les calculs sont présentés à l‟aide des données issues d‟une
expérience à deux facteurs sur les eucalyptus, comportant deux traitements sylvicoles (taille de la fosse)
et 4 traitements d‟engrais. Les données sur la hauteur des plants un an après la plantation sont reportées
dans le Tableau 4.25.
Représentation schématique de l‟analyse de variance d‟un plan en parcelles divisées.

Source de Degré de liberté Somme des Carré moyen

variation (df) carrés F calculé

(SS)

Répétition r-1 SSR MSR

A a-1 SSA MSA

Erreur (a) (r - 1)(a - 1) SSEa MSEa

B b-1 SSB MSB

AB (a - 1)(b - 1) SSAB MSAB

Erreur (b) a(r - 1)(b - 1) SSEb MSEb

Total rab - 1 SSTO

La valeur de cv (a) indique le degré de précision associé au facteur des grandes parcelles. La valeur de
cv(b) indique le degré de précision du facteur des petites parcelles et de son interaction avec le facteur des
grandes parcelles. En principe, la valeur de cv(b) est inférieure à celle de cv(a) car, comme on l‟a déjà
indiqué, le facteur assigné aux grandes parcelles est généralement mesuré avec moins de précision que
celui assigné aux petites parcelles. Dans notre exemple, cv(b) est inférieur à cv(a), mais les deux valeurs
étaient suffisamment élevées pour masquer toute éventuelle différence des traitements, ce qui rend non
significatifs tous les effets des facteurs dans l‟analyse de la variance.

Vous aimerez peut-être aussi